FaCTor

FaCTor - Contraintes d’équité et garanties de confiance

Coordinateur : Michaël Perrot Centre INRIA de l’Université de Lille - CRIStAL

Équipe : MAGNET du Groupe Thématique : DatInG.

Dates : 10/23 - 12/27

Résumé :

L’apprentissage automatique est l’un des principaux moteurs de l’intelligence artificielle. Il est aujourd’hui utilisé pour la prise de décision dans les applications médicales, la reconnaissance vocale, les véhicules autonomes, pour ne citer que quelques exemples. Si l’apprentissage automatique peut être très bénéfique, les modèles qui ont un impact direct sur les individus pourraient porter atteinte à certains des droits énoncés dans la Charte des droits fondamentaux de l’Union européenne. C’est ce qui a donné naissance à l’apprentissage automatique équitable, un domaine de recherche dont l’objectif est d’identifier et de prévenir les comportements discriminatoires. Son importance a été récemment renforcée par la proposition de loi sur l’IA à la Commission européenne, qui cite la non-discrimination et l’égalité entre les femmes et les hommes comme deux des droits fondamentaux qui devraient être protégés dans les systèmes qui s’appuient sur l’intelligence artificielle. L’une des principales limites de la littérature actuelle est que les mécanismes utilisés pour faire respecter l’équité ne sont pas encore bien compris d’un point de vue théorique, en particulier lorsque les décisions déterministes finales sont dérivées de prédictions stochastiques.

En outre, l’équité n’est généralement pas la seule exigence pour obtenir des systèmes fiables. L’objectif principal de FaCTor est de combler ces lacunes en étudiant théoriquement le fossé qui existe entre les modèles stochastiques et déterministes. Ce projet vise à développer des solutions d’apprentissage automatique dignes de confiance et socialement plus acceptables en étudiant conjointement l’équité avec d’autres mesures de performance, à savoir la protection de la vie privée et l’utilité. En outre, il propose de confronter les approches développées à des problèmes pratiques où de nouveaux défis émergent. L’objectif final est de rendre les modèles plus responsables et conformes aux exigences de la loi, en veillant à ce que les avantages de l’apprentissage automatique ne soient pas limités à un sous-ensemble de la population.

Abstract

Machine Learning is one of the main driving force in Artificial Intelligence. It is nowadays used for decision making in medical applications, speech recognition, autonomous vehicles to cite a few examples. While machine learning can be very beneficial, the models that directly impact individuals could adversely affect some of the rights presented in the EU Charter of Fundamental Rights. This sparked the development of Fair Machine Learning, a research field whose goal is to identify and prevent discriminatory behaviors. Its importance was recently strengthened by the AI Act proposal to the European Commission which cites non-discrimination and equality between women and men as two of the fundamental rights that should be protected in systems that rely on artificial intelligence. A key limit of the current literature is that the mechanisms used to enforce fairness are still not theoretically well understood, in particular when the final deterministic decisions are derived from stochastic predictions.

Furthermore, fairness is usually not the only requirement to obtain trustworthy systems. The main objective of FaCTor is to address these shortcomings by theoretically investigating the gap that exists between stochastic and deterministic models. This project points toward the development of trustworthy and more socially acceptable machine learning solutions by jointly studying fairness with other performance measures, namely privacy and utility. Furthermore, it proposes to confront the developed approaches to practical problems where new challenges emerge. The end goal is to make the models more accountable and in line with the requirements of the law, ensuring that the benefits of machine learning are not limited to a subset of the population.