L'actualité des rapports

Société et technologie : amis ou ennemis ?

Saviez-vous qu’aux États-Unis, un afro-américain a moins de chance d’obtenir une libération sous caution que le reste de la population à cause d’un algorithme biaisé ? L’Institut Montaigne, un think tank spécialiste des politiques publiques, a publié un rapport sur les biais des algorithmes et leurs implications pour la société.

Les algorithmes sont biaisés car ils discriminent certains groupes ou individus. Il existe deux types de biais : le biais technique provenant des données (manque de représentativité d’un groupe dans les données d’apprentissage par exemple) et le biais dits « de société » lorsque l’algorithme reproduit mécaniquement les discriminations qui préexistent dans la société : par exemple, les algorithmes de recrutement, pour un même CV, proposent des offres moins haut placées aux femmes qu’aux hommes, du fait de la surqualification observée chez les femmes dans nos sociétés. Pour éviter ce dernier biais, on peut introduire des contraintes d’équité à l’algorithme, mais aucune ne fait consensus. Les auteurs recommandent pour leur part de vérifier que les résultats renvoyés par l’algorithme ne sont pas dépendants des variables discriminantes : par exemple il faut s’assurer que l’algorithme de recrutement propose les mêmes offres d’emploi, sans tenir compte du sexe. Cela nécessite cependant d’avoir accès aux données discriminantes, ce qui est parfois interdit, comme pour les données sur l’ethnie en France.

La notion d’équité elle-même n’est pas consensuelle. Chaque pays a sa propre définition : les États-Unis prônent une équité de groupe (la discrimination positive pour l’entrée à l’université est appliquée afin d’obtenir une égalité entre les groupes ethniques) tandis que la France prône une équité individuelle (un même traitement des dossiers afin d’assurer l’égalité entre chaque individu). Ainsi pour s’assurer que les algorithmes respectent cette équité, chaque pays a besoin d’une régulation spécifique selon sa définition. Bien que l’Europe et la France soient dotées d’une régulation plus avancée à la fois sur le numérique et les discriminations que celle de nos voisins outre-Atlantique, celle-ci n’est pas encore suffisamment appliquée. Ajouter des lois ne règlerait donc pas les problèmes de biais. En revanche, cela pourrait renforcer le retard européen en matière d’algorithmes. Avec à la clé une plus grande dépendance aux algorithmes américains et chinois déjà très présents sur le marché, et des risques d’ingérence et de perte de contrôle.

Face à ces constats, les auteurs font huit recommandations, notamment la nécessaire formation sur les risques pour les acteurs de la filière du numérique (du concepteur au consommateur) et l’application d’un cadre spécifique plus exigeant pour les algorithmes à fort impact, en permettant la transparence et le droit de recours (pouvoir contester la décision de l’algorithme).

Les biais des algorithmes présentent des risques importants pour nos sociétés, mais comme le rappellent les auteurs, ils ne sont pas nécessairement pires que ceux des humains qu’ils remplacent…

Les dernières actualités

30 juin 2020

Petit point sur les énergies renouvelables

On fait le point sur la part des énergies renouvelables dans le mix énergétique d’ici 2035 à partir de deux articles (1) et (2) de Grandjean, Quirion et Shirizadeh. 

30 juin 2020

Lentilles, pois chiches, et cantines

Malgré des atouts nutritifs et environnementaux de poids, les légumineuses sont encore bien cachées dans les menus de la restauration collective. Pourquoi ? Cette infographie de l’INRAE nous donne quelques éléments de réponses.

30 juin 2020

Un secteur en bonne santé (financière)

Alors que le monde entier planche sur un remède pour le Covid-19, le présent rapport produit par le centre de recherche néerlandais SOMO s’intéresse au secteur pharmaceutique et sa financiarisation. Pour rappel, la financiarisation peut se définir comme la tendance […]