Atelier sur la justice sociale, l’équité et les discriminations dans les systèmes algorithmiques
aivancity Paris-Cachan accueille l’atelier pluridisciplinaire organisé par le Centre Internet et Société (CIS) du CNRS
aivancity Paris-Cachan accueille l’atelier pluridisciplinaire organisé par le Centre Internet et Société (CIS), en partenariat avec le Laboratoire interdisciplinaire Sciences Innovations Sociétés (LISIS), qui vise à rassembler la communauté scientifique française autour de la recherche sur la justice sociale, l’équité et les discriminations dans les systèmes algorithmiques, domaine appelé aussi Fairness in Machine Learning (FairML), organisé par Bilel Benbouzid, Maître de Conférences en Sociologie à l’Université Gustave Eiffel et Professeur affilié en Ethique de l’IA à aivancity et Rūta Binkytė-Sadauskienė (LIX, Inria).
La constitution de ce groupe rejoint les recommandations du Défenseur des Droits d’orienter la recherche vers le développement de connaissances plus adaptées au cadre juridique et politique français. Alors que la justice sociale se décide de manière contextuelle et pragmatique, la science dite de la « fairness dans le machine learning » reste cadrée par des repères politiques et juridiques anglo-saxons, en particulier nord-américains. C’est pourquoi une part importante du débat scientifique n’est pas directement transférable en Europe, en particulier en France, et ce pour au moins trois raisons.
Premièrement, le compromis, inversement proportionnel, dans le traitement des données, entre vie privée et équité pose des problèmes spécifiques en France. L’exemple le plus significatif, mais il y en a sans doute d’autres, est celui des variables ethniques. Essentielles à l’atténuation des biais algorithmiques de discrimination selon l’origine, celles-ci ne sont pas autorisées dans la collecte de données (sauf cas exceptionnel). Il faut chercher des méthodes plus adaptées pour détecter et atténuer ce type de discrimination algorithmique. Deuxièmement, les loi anti-discriminations s’appliquent de manière différente en Europe et aux États-Unis, notamment autour de la notion de discrimination indirecte. L’une des différences est l’absence, dans le droit communautaire, de seuils statistiques précis pour évaluer l’impact disproportionné de pratiques apparemment neutres, ce qui implique un raisonnement différent, déjà amorcé, sur la légalité des systèmes algorithmiques en Europe, et en France en particulier. Enfin, la troisième différence tient à la structuration de la recherche. Les jeux de « données-jouets » autour de la fairness, mises en commun par la communauté scientifique pour favoriser le dialogue et les collaborations, sont d’un intérêt limité pour débattre des systèmes algorithmiques utilisés en France. Le jeu de données Compas construits par le journal d’investigation Propublica, qui a permis de tester les différentes situations typiques d’indécidabilité en matière de justice prédictive, illustre un cas d’usage d’algorithme de prédiction de la récidive qui ne trouve aucune équivalence en France. Pourtant une bonne part du débat technique se structure autour de ce jeu de données. Ceci est bien connu de la littérature en sociologie des sciences, les datasets partagés par les chercheurs ne sont pas neutres. Ils produisent des effets structurants, souvent de manière invisible, sur la production des connaissances.
Ce sont ces limites qui nous invitent à proposer un atelier dans la perspective de favoriser un débat plus contributif aux spécificités françaises, tout en reprenant les axes thématiques majeurs de la recherche dans ce domaine: Économie normative et sens politique des métriques, Les perceptions de l’équité algorithmique, Méthodes pour construire des systèmes algorithmiques qui intègrent les contraintes d’équité, Les effets de long terme des contraintes d’équité sur les systèmes algorithmiques, Les instruments et pratique de l’audit en matière d’équité algorithmique, L’importance d’une réflexivité critique.
Programme de l'atelier
Rassembler la communauté scientifique française autour de la recherche sur la justice sociale, l’équité et les discriminations dans les systèmes algorithmiques
Téléchargez le programme