• Publikation
  • Erklärbarkeit von Machine-Learning-Modellen
  • Erklärbarkeit von Machine-Learning-Modellen

iX Developer

12/18

Erklärbarkeit von Machine-Learning-Modellen

Autor:
Shirin Elsinghorst

Blick in die Blackbox

Beim Machine Learning (ML) nutzen Data Scientists Algorithmen und historische Daten, um Muster und Zusammenhänge zu erkennen. Das Gelernte können sie wiederum als Modell auf neue Daten anwenden, um beispielsweise Vorhersagen zu treffen. Sie arbeiten dabei mit der Grundannahme, dass sie Daten aus
vergangenen Vorgängen nutzen können, um für die Zukunft zu extrapolieren. Der Computer lernt somit durch Erfahrungen die mathematische Darstellung von Daten, indem er sich viele Beispiele anschaut und optimiert.

Einer der Kritikpunkte an künstlicher Intelligenz (KI) ist, dass die meisten der maschinell gelernten Modelle sogenannte Blackboxes sind. Damit ist gemeint, dass die von ihnen gelernten Zusammenhänge so komplex und abstrakt sind, dass es mit der begrenzten menschlichen Auffassungsgabe praktisch nicht mehr nachvollziehbar ist, warum das Modell Entscheidungen trifft. Traditionell bewerten Forscher solche Algorithmen und Modelle mit Metriken wie Genauigkeit, Spezifität, Recall, F-Score gemessenen an Testdaten. Rein technisch gesehen reichen solche Performance-Metriken aus, um die Qualität eines Modells zu bewerten, und wenn das Modell so funktioniert wie erwartet, wird diese Bewertung auch praktisch ausreichen.

Die Metriken können aber auch in die Irre führen, wenn die Trainingsdaten beispielsweise nicht unabhängig oder nicht ausreichend waren. Das kann zur Folge haben, dass grundlegende Probleme in den gelernten Zusammenhängen verborgen bleiben und zu unerwarteten Fehlern führen. Hinsichtlich wichtiger Entscheidungen, bei denen Fehler dramatische Folgen haben, sollte man reinen Modellbewertungen somit kritisch gegenüberstehen. Vor allem, wenn es um sensible Daten oder Entscheidungen geht, die Menschen direkt betreffen, ist ein besseres Verständnis
sinnvoll, um Schäden und Fehler zu vermeiden.

Vollständiger Artikel

Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen

Hinweis: In Ihrem Browser ist JavaScript deaktiviert. Für eine bessere und fehlerfreie Nutzung dieser Webseite, aktivieren Sie bitte JavaScript in Ihrem Browser.