Wie fair ist Künstliche Intelligenz?

Algorithmen sind objektiv. Sie treffen ihre Entscheidung auf Basis sachlicher Daten, frei von Vorurteilen und Diskriminierung. So zumindest die Theorie. Doch wie sieht die Praxis aus?

Ist Künstliche Intelligenz wirklich so fair, wie oftmals angenommen? Prof. Dietmar Hübner und Dr. Martin Kuhlmann erklären, warum das nicht der Fall ist, und was es bei der Anwendung von Algorithmen zu beachten gilt.

Anwendungsbereiche von KI

Algorithmen Künstlicher Intelligenz werden in immer mehr Arbeitsbereichen eingesetzt. Sie unterstützen zum Beispiel bei der Auswahl geeigneter Bewerber, analysieren fehlerhafte Prozesse in der industriellen Fertigung und berechnen die Kreditwürdigkeit von Bankkunden. Dafür verarbeiten sie eine Vielzahl an Daten, auf deren Grundlage sie eine Entscheidung treffen. Ziel ist es, Mitarbeiter zu entlasten und eine (vermeintlich) objektive Entscheidung herbeizuführen. Doch sind Algorithmen wirklich neutral?

Prof. Dr. Dietmar Hübner (Leibniz Universität Hannover, Institut für Philosophie) und Dr. Martin Kuhlmann (Georg-August-Universität Göttingen, Soziologisches Forschungsinstitut SOFI) untersuchen in ihrer Forschung die Fairness von Algorithmen und betrachten die Auswirkungen automatisiert getroffener Entscheidungen.

Statistische Fairness bei KI-Algorithmen (Hübner)

An einem prominenten Fallbeispiel erklärt Hübner den Unterschied zwischen statistischer und diskursiver Fairness: In zwei US-amerikanischen Staaten setzen Richter den Algorithmus „COMPAS“ (Correctional Offender Management Profiling for Alternative Sanctions) ein, um die Rückfallwahrscheinlichkeit (Risk Score) von Straftätern einzuschätzen. Der Algorithmus soll z. B. bei der Entscheidung helfen, ob die Strafe auf Bewährung ausgesetzt wird oder ob eine vorzeitige Entlassung aus der Haft möglich ist.

Risk Score – Bestimmung ohne Berücksichtigung der Hautfarbe

Hierzu werden Fragebögen zu den Straftätern mit 137 Fragen ausgefüllt (z. B. Was ist der aktuelle Tatvorwurf? Wie oft ist die Person in der Vergangenheit bereits verhaftet worden? Wie sind Ihre familiären Verhältnisse?). Die Hautfarbe wird im Fragebogen nicht thematisiert. Auf Basis der ausgefüllten Fragen berechnet der Algorithmus einen Risk Score von eins bis zehn. Eins bedeutet, dass die Rückfallwahrscheinlichkeit gering ist, zehn weist auf eine hohe Rückfallwahrscheinlichkeit hin. COMPAS wird aufgrund der Hoffnung eingesetzt, dass der Algorithmus weder diskriminierend noch rassistisch ist und die Richter bei ihrer Entscheidung unterstützt.

Unterschiede je nach ethnischer Herkunft

2016 hat die Studie „Machine Bias“jedoch signifikante Unterschied festgestellt, welche Empfehlungen der Algorithmus bei hellhäutigen und bei afroamerikanischen Straftätern ausspricht. Besonders prekär erscheint, dass COMPAS sich bei Afroamerikanern sehr viel häufiger in einer bestimmten Richtung täuscht als bei hellhäutigen Amerikanern: Die Gefahr, als rückfallgefährdet eingestuft zu werden, obwohl sich dies gar nicht bewahrheitet („falsch positive Vorhersage“), ist für Afroamerikaner fast doppelt so hoch wie für hellhäutige Personen (45 % gegenüber 23 %).

Erklärungshinweise

Fragt man, wie es überhaupt zu den beobachteten Korrelationen zwischen der Hautfarbe von mutmaßlichen Straftätern und den von COMPAS prognostizierten Rückfallquoten kommen könne, so gibt es nach Hübner vor allem zwei Möglichkeiten.

Erstens: Es ist möglich, dass der Algorithmus die soziale Realität widerspiegelt. Durch jahrhundertelange Diskriminierung und Unterdrückung gibt es eine afroamerikanische Bevölkerungsschicht, die stark benachteiligt ist. In dieser Schicht sind die Kriminalität und auch die Rückfallwahrscheinlichkeit tatsächlich erhöht. Dies bildet der Algorithmus ab. Dennoch kann man bereits hier die Frage stellen, ob vor dem gegebenen historischen Hintergrund die Verwendung entsprechender Prognosen fair sei: Müsste man womöglich in seinen Einschätzungen gegen diese Resultate vergangener Diskriminierung gezielt ansteuern?

Zweitens: Das Ergebnis kann aber auch anders ausgewertet werden. In den USA ist Rassismus in der Polizei und Racial Profiling (rassistisches Kategorisieren von Menschen) stark verbreitet, sodass Afroamerikaner deutlich schneller verhaftet und schwerer verurteilt werden. Das spiegelt sich in den Daten wider, die der Algorithmus gelernt hat und deren Muster er nun in seinen Vorhersagen wiederholt. Seine Prognosen bilden also keineswegs die soziale Realität ab. Spätestens hier sei die Frage zu stellen, ob eine Überarbeitung und Korrektur der Daten nötig sei, so Prof. Hübner.

„Vor allem ein grundsätzlicher Fehler des Algorithmus erscheint hier besonders bedenklich: COMPAS wurde eigentlich nur auf Daten trainiert, in denen dokumentiert war, ob Personen erneut verhaftet wurden. Seine Prognosen sollen nun aber dazu dienen abzuschätzen, ob Personen wieder straffällig werden. Streng genommen ist COMPAS dafür überhaupt nicht ausgelegt.“

Diskursive Fairness bei KI-Algorithmen (Kuhlmann)

Zum Weiterlesen bitte einloggen oder registrieren.
Weitersagen:
AUTOR/-IN

Kira Konrad B. A., OFFIS e.V. - Institut für Informatik Zentrum für digitale Innovationen Niedersachsen (ZDIN)

Kira Konrad mit Prof. Dr. Dietmar Hübner (Leibniz Universität Hannover, Institut für Philosophie) und Dr. Martin Kuhlmann (Georg-August-Universität Göttingen, Soziologisches Forschungsinstitut SOFI). Die beiden Wissenschaftler untersuchen in ihrer Forschung die Fairness von Algorithmen und betrachten die Auswirkungen automatisiert getroffener Entscheidungen.