• Publikation
  • Machine Learning: Erklärbarkeit und Fairness
  • Machine Learning: Erklärbarkeit und Fairness

iX Developer

12/20

Machine Learning: Erklärbarkeit und Fairness

Geschrieben von:
Shirin Elsinghorst

Um Machine-Learning-Anwendungen sicher und gerecht zu gestalten, ist ein grundsätzliches Verständnis ihrer Arbeitsweise erforderlich. Die Aufgabe ist nicht trivial und den einen richtigen Ansatz gibt es nicht.
Es ist der späte Sonntagabend am 18. März 2018 in Tempe, Arizona. Elaine Herzberg überquert eine vierspurige Straße. Während sie ihr mit Einkaufstüten bepacktes Fahrrad schiebt, fährt ein Auto ungebremst auf sie zu und trifft sie tödlich. Der tragische Unfall hat einen entscheidenden Unterschied zu den vielen anderen, die an der Tagesordnung sind: Am Steuer des Unfallfahrzeugs saß kein Mensch, sondern ein Computer. Es handelte sich um eine Testfahrt der autonom fahrenden Uber-Flotte – und um den ersten Tod einer Fußgängerin, den ein autonom fahrendes Fahrzeug verursacht hat.

Nutzen versus Schaden

Jedes Jahr sterben etwa 1,35 Millionen Menschen im Straßenverkehr. Autonomes Fahren hat das Potenzial, diese Zahl signifikant zu verringern, weil menschliches Fehlverhalten entfällt. Das wirft die Frage auf, ab wann ein gesamter Nutzen mehr als einzelne Schäden wiegt. Können beziehungsweise sollen Menschen KI mit der Erwartung übermenschlicher Leistung bewerten, wie es im Moment getan wird?

Vollständiger Artikel

Hinweis: In Ihrem Browser ist JavaScript deaktiviert. Für eine bessere und fehlerfreie Nutzung dieser Webseite, aktivieren Sie bitte JavaScript in Ihrem Browser.