iX Developer 12/18

Erklärbarkeit von Machine-Learning-Modellen

Autor:

Blick in die Blackbox

Beim Machine Learning (ML) nutzen Data Scientists Algorithmen und historische Daten, um Muster und Zusammenhänge zu erkennen. Das Gelernte können sie wiederum als Modell auf neue Daten anwenden, um beispielsweise Vorhersagen zu treffen. Sie arbeiten dabei mit der Grundannahme, dass sie Daten aus
vergangenen Vorgängen nutzen können, um für die Zukunft zu extrapolieren. Der Computer lernt somit durch Erfahrungen die mathematische Darstellung von Daten, indem er sich viele Beispiele anschaut und optimiert.

Einer der Kritikpunkte an künstlicher Intelligenz (KI) ist, dass die meisten der maschinell gelernten Modelle sogenannte Blackboxes sind. Damit ist gemeint, dass die von ihnen gelernten Zusammenhänge so komplex und abstrakt sind, dass es mit der begrenzten menschlichen Auffassungsgabe praktisch nicht mehr nachvollziehbar ist, warum das Modell Entscheidungen trifft. Traditionell bewerten Forscher solche Algorithmen und Modelle mit Metriken wie Genauigkeit, Spezifität, Recall, F-Score gemessenen an Testdaten. Rein technisch gesehen reichen solche Performance-Metriken aus, um die Qualität eines Modells zu bewerten, und wenn das Modell so funktioniert wie erwartet, wird diese Bewertung auch praktisch ausreichen.

Die Metriken können aber auch in die Irre führen, wenn die Trainingsdaten beispielsweise nicht unabhängig oder nicht ausreichend waren. Das kann zur Folge haben, dass grundlegende Probleme in den gelernten Zusammenhängen verborgen bleiben und zu unerwarteten Fehlern führen. Hinsichtlich wichtiger Entscheidungen, bei denen Fehler dramatische Folgen haben, sollte man reinen Modellbewertungen somit kritisch gegenüberstehen. Vor allem, wenn es um sensible Daten oder Entscheidungen geht, die Menschen direkt betreffen, ist ein besseres Verständnis
sinnvoll, um Schäden und Fehler zu vermeiden.

Vollständiger Artikel