Sozialverträgliche und faire künstliche Intelligenz

Die Entscheidungen einer Künstlichen Intelligenz sind nicht immer fair.

Künstliche Intelligenz, die bei wichtigen Entscheidungen involviert ist, soll sozialverträglich sein. Zu diesem Zweck schafft ein interdisziplinäres Team von Fachleuten ein "Fairness Lab", um den Austausch und entsprechende Ausbildung von Fachleuten zu ermöglichen.

  • Projektbeschrieb

    Dropdown Icon

    Wird künstliche Intelligenz (KI) eingesetzt, zum Beispiel bei Personalentscheidungen in Unternehmen, kann dies zu sozialer Ungerechtigkeit führen. In unserem interdisziplinären Projekt wollen einer Methodik entwickeln, mit der faire KI-Anwendungen geschaffen werden können. Die Methodik soll Stakeholdern helfen, künstliche Intelligenz in konkreten Anwendungsfällen sozialverträglich auszugestalten. Zudem erlaubt sie es, Software-Entwickler in ethischen Themen auszubilden. Das Projekt verbindet philosophische, technische und sozialwissenschaftliche Fragestellungen: Was bedeutet Fairness? Wie wird Fairness wahrgenommen? Wie kann Fairness in KI implementiert werden? Das Projekt verbindet so den ethischen Diskurs über KI mit der technologischen Umsetzung von KI.

  • Hintergrund

    Dropdown Icon

    Im Bereich der künstlichen Intelligenz greifen datenbasierte Entscheidungssysteme zunehmend in die soziale Lebenswelt von Menschen ein. Dies wirft die Frage auf, wie diese Systeme kompatibel mit gesellschaftlichen Normen in Bezug auf Fairness und Gerechtigkeit gestaltet werden können. Die konkrete Ausgestaltung solcher Systeme erfordert eine reflektierte Verknüpfung von Ethik, Technologie und sozialen Entscheidungsprozessen.

  • Ziel

    Dropdown Icon

    Mit Experten aus Ethik, Informatik und Management wollen wir das so genannte "Fairness-Lab" schaffen. Dies ist eine IT- Umgebung, mit der die Fairness-Auswirkungen von KI-Anwendungen sichtbar gemacht und gestaltet werden können. Entwickler können so in einen Dialog mit Anwendern und Betroffenen treten, um gemeinsam eine sozialverträgliche Lösung zu entwerfen. Firmen können damit gesellschaftlich akzeptierte und ethisch verantwortbare Algorithmen schaffen. Die Methodik wird mit konkreten Anwendungsfällen aus dem Personalwesen getestet.

  • Bedeutung

    Dropdown Icon

    Durch die konsequente Verknüpfung von ethischen Aspekten (Was bedeutet fair im aktuellen Kontext?), sozialwissenschaftlichen Aspekten (Was wird in welchem Kontext als fair empfunden?) und technologischen Aspekten (Wie kann ein definiertes Fairness-Konzept implementiert werden?) soll ein praxistaugliches Instrument entstehen, das erlaubt, KI-Anwendungen zu entwickeln, die aufgrund ihres Designs der Fairness verpflichtet sind. Damit leistet das Projekt einen konkreten Beitrag zur Förderung von fairer und sozial akzeptierter KI.

  • Originaltitel

    Dropdown Icon

    Socially acceptable AI and fairness trade-offs in predictive analytics