Une intelligence artificielle équitable et socialement acceptable
L'intelligence artificielle impliquée dans les décisions importantes se doit d’être socialement acceptable. À cette fin, une équipe interdisciplinaire d'experts crée un "laboratoire de l'équité" permettant l'échange entre spécialistes et leur formation.
Description du projet
L’utilisation de l'intelligence artificielle (IA), par exemple dans les décisions relatives au personnel des entreprises, est susceptible de conduire à l’injustice sociale. Notre projet interdisciplinaire vise à développer une méthodologie pour la création d’applications équitables de l'IA. La méthodologie aidera les parties prenantes à concevoir de manière socialement acceptable l'intelligence artificielle dans des cas concrets d'utilisation. Elle permettra en outre de former les développeurs de logiciels en matière de thèmes liés à l’éthique. Le projet regroupe des questions relatives aux sciences sociales ainsi que philosophiques et techniques: Que signifie l'équité? Comment l'équité est-elle perçue ? Comment l'équité peut-elle être mise en œuvre dans l'IA? Le projet réunit donc le discours éthique sur l'IA et la mise en œuvre technologique de l'IA.
Contexte
Dans le domaine de l'intelligence artificielle, les systèmes de prise de décision basés sur des données empiètent de plus en plus sur la vie sociale de la population, ce qui soulève la question de savoir comment rendre ces systèmes compatibles avec les normes sociales en matière d'équité et de justice. La conception concrète de tels systèmes exige une combinaison réfléchie d'éthique, de technologie et de processus de décision sociaux.
Objectif
Notre but est de créer un "laboratoire de l'équité" ("fairness lab") en collaboration avec des experts en éthique, en technologies de l'information et en gestion. Il s'agit d'un environnement informatique permettant de rendre visibles et de concevoir les effets des applications de l'IA sur l'équité. Les développeurs ont ainsi la possibilité d’entrer en dialogue avec les utilisateurs et les personnes affectée, afin de concevoir avec eux une solution socialement acceptable. Et les entreprises peuvent créer des algorithmes socialement acceptés et éthiquement responsables. La méthodologie sera testée sur des cas concrets d'utilisation dans le domaine des ressources humaines.
Importance
Le but du projet est de créer un outil pratique pour le développement d’applications de l'IA s'engageant à être équitables de par leur conception. Cet objectif sera atteint en reliant systématiquement les aspects éthiques (que signifie équitable dans le contexte actuel?), les aspects sociologiques (qu'est-ce qui est perçu comme équitable et dans quel contexte?) et les aspects technologiques (comment un concept d'équité peut-il être mis en œuvre?). Ce faisant, le projet contribue à la promotion d'une IA équitable et socialement acceptée.
Titre original
Socially acceptable AI and fairness trade-offs in predictive analytics