Algorithmen sind oft unfair – das wollen Forschende ändern
Künstliche Intelligenz ist oft rassistisch oder sexistisch. Wieso das so ist und was er dagegen tun will, erklärt NFP 77-Forscher Christoph Heitz.
Ein Weltkonzern wie Amazon lebt davon, dass talentierte Entwickler für ihn arbeiten. Doch unter Tausenden Bewerbungen den richtigen Kandidaten oder die richtige Kandidatin zu finden, kostet Zeit und Aufwand. Daher entwickelte das Unternehmen 2014 eine Künstliche Intelligenz (KI), um die Vorauswahl von Bewerbungen zu automatisieren. In den darauffolgenden Jahren stellte sich jedoch heraus: Der Algorithmus war ziemlich sexistisch. Die KI identifizierte vorzugsweise Männer statt Frauen als geeignete Bewerber.
Sexistische, rassistische – kurz, vorurteilsbehaftete Algorithmen machen immer wieder Schlagzeilen. Wie sich die Künstlichen Intelligenzen so entwickeln lassen, dass sie nicht nur gut, sondern auch fair sind, ist das Thema des NFP 77-Forschungsprojektes «Sozialverträgliche und faire künstliche Intelligenz». Der Projektverantwortliche Christoph Heitz von der Zürcher Hochschule für Angewandte Wissenschaften hielt dazu vor Kurzem einen Vortrag bei der Naturwissenschaftlichen Gesellschaft Winterthur.
Eingangs erklärte der Datenwissenschaftler anhand eines Beispiels, warum Algorithmen überhaupt unfair sind: Bei dem Kauf eines Hauses entscheidet meist eine Bank darüber, ob sie einem Hauskäufer einen Kredit gewährt oder nicht. Früher entschied die Bank aufgrund von einfachen Regeln. Mittlerweile werden für solche Entscheidungen vermehrt datenbasierte Algorithmen eingesetzt. Sie werden mit historischen Daten trainiert und erkennen darin Muster, auf deren Grundlage sie abschätzten, ob ein Kreditanwärter seine Schulden zurückzahlen wird oder nicht. Der wichtige Punkt dabei ist, dass die Algorithmen auf einen bestimmten Nutzen hin optimiert werden. Und dieser Nutzen ist, dass die Bank möglichst viel Geld verdient.
Dass der Algorithmus im Einzelfall falsch entscheidet, also unfair gegenüber einem möglichen Kreditnehmer, ist dabei erstmal egal. «Entscheidungsalgorithmen sind darauf optimiert, dass man sie oft anwendet», erklärt Heitz. «Es geht nie darum, ob sie im Einzelfall die richtige Entscheidung treffen, sondern, ob sie bei häufiger Anwendung einen Gesamtnutzen vergrössern.»
In dieser Nutzenoptimierung, ohne explizite Berücksichtigung von Fairness, liegt laut Heitz ein Grund für die Unfairness von Algorithmen. Ein zweiter Grund liegt in den Daten, mit denen eine KI trainiert wird. Diese Daten sind – im Fall der Bank – frühere, von Menschen gefällte Entscheidungen, die wiederum auch nicht frei von Vorurteilen sind. Beim Bewerbungsalgorithmus von Amazon etwa spielte es wohl eine Rolle, dass das Unternehmen auch in der Vergangenheit eher männliche Bewerber bevorzugt hatte.
Ausserdem wies Heitz in seinem Vortrag darauf hin, dass Fairness kein absoluter Begriff sei. «Was Fairness ausmacht, hängt von der Situation ab und ist in der Regel umstritten», so der Forscher. Zum Beispiel könne Fairness bedeuten, dass alle die gleichen Chancen haben, oder dass alle, die es verdient haben, die gleichen Chancen haben – zum Beispiel, weil sie gewisse Qualifikationen erworben haben. «Festzulegen, was in einem gegebenen Kontext fair ist, ist ein gesellschaftlicher Aushandlungsprozess», sagt Heitz.
Angesichts dieser Tatsache ist auch das Forschungsprojekt von Heitz interdisziplinär angelegt. Es vereint Forschende aus den Bereichen Informatik, Ethik und Wirtschaft. Heitz ist überzeugt, dass es möglich ist, faire Algorithmen zu bauen. Indem sie so konstruiert werden, dass sie nicht nur den Nutzen maximieren, sondern gleichzeitig auch die Fairness sicherstellen.
Erste Ergebnisse stellte das Projekt vor Kurzem bei der weltweit wichtigsten Konferenz für Algorithmic Fairness vor, der «Fairness, Accountability, and Transparency in socio-technical systems» (FAccT). Zwei der 82 bei der Konferenz präsentierten Papers stammten aus Heitz’ NFP 77-Projekt. «Ganz besonders haben wir uns gefreut, dass eines dieser Paper den ‹Best student paper award› gewonnen hat», so Heitz. Hauptautorin war Corinna Hertweck, Doktorandin an der ZHAW und der Universität Zürich.