L'actualité des rapports

Société et technologie : amis ou ennemis ?

Saviez-vous qu’aux États-Unis, un afro-américain a moins de chance d’obtenir une libération sous caution que le reste de la population à cause d’un algorithme biaisé ? L’Institut Montaigne, un think tank spécialiste des politiques publiques, a publié un rapport sur les biais des algorithmes et leurs implications pour la société.

Les algorithmes sont biaisés car ils discriminent certains groupes ou individus. Il existe deux types de biais : le biais technique provenant des données (manque de représentativité d’un groupe dans les données d’apprentissage par exemple) et le biais dits « de société » lorsque l’algorithme reproduit mécaniquement les discriminations qui préexistent dans la société : par exemple, les algorithmes de recrutement, pour un même CV, proposent des offres moins haut placées aux femmes qu’aux hommes, du fait de la surqualification observée chez les femmes dans nos sociétés. Pour éviter ce dernier biais, on peut introduire des contraintes d’équité à l’algorithme, mais aucune ne fait consensus. Les auteurs recommandent pour leur part de vérifier que les résultats renvoyés par l’algorithme ne sont pas dépendants des variables discriminantes : par exemple il faut s’assurer que l’algorithme de recrutement propose les mêmes offres d’emploi, sans tenir compte du sexe. Cela nécessite cependant d’avoir accès aux données discriminantes, ce qui est parfois interdit, comme pour les données sur l’ethnie en France.

La notion d’équité elle-même n’est pas consensuelle. Chaque pays a sa propre définition : les États-Unis prônent une équité de groupe (la discrimination positive pour l’entrée à l’université est appliquée afin d’obtenir une égalité entre les groupes ethniques) tandis que la France prône une équité individuelle (un même traitement des dossiers afin d’assurer l’égalité entre chaque individu). Ainsi pour s’assurer que les algorithmes respectent cette équité, chaque pays a besoin d’une régulation spécifique selon sa définition. Bien que l’Europe et la France soient dotées d’une régulation plus avancée à la fois sur le numérique et les discriminations que celle de nos voisins outre-Atlantique, celle-ci n’est pas encore suffisamment appliquée. Ajouter des lois ne règlerait donc pas les problèmes de biais. En revanche, cela pourrait renforcer le retard européen en matière d’algorithmes. Avec à la clé une plus grande dépendance aux algorithmes américains et chinois déjà très présents sur le marché, et des risques d’ingérence et de perte de contrôle.

Face à ces constats, les auteurs font huit recommandations, notamment la nécessaire formation sur les risques pour les acteurs de la filière du numérique (du concepteur au consommateur) et l’application d’un cadre spécifique plus exigeant pour les algorithmes à fort impact, en permettant la transparence et le droit de recours (pouvoir contester la décision de l’algorithme).

Les biais des algorithmes présentent des risques importants pour nos sociétés, mais comme le rappellent les auteurs, ils ne sont pas nécessairement pires que ceux des humains qu’ils remplacent…

Les dernières actualités

30 juillet 2020

Pour une relance bas-carbone

La relance économique peut-elle devenir un moteur de la transition écologique ? En deux minutes, Louise Kessler de l’Institut for Climate Economics explique comment 9 milliards d’euros d’investissements publics pourraient faire d’une pierre deux coups : relancer l’économie, et mettre la France […]

30 juillet 2020

Un secteur qui ne pédale pas dans la semoule

Saviez-vous que les Français pédalent sur 11 milliards de km chaque année et que cela rapporte 29.5 milliards d’euros, impacts indirects et induits compris ? L’Ademe dans cette infographie fait un état des lieux de l’économie du vélo et explore les […]

30 juillet 2020

Petit point sur les français et la réparation

On fait le point sur les comportements et avis des français sur le secteur de la réparation grâce à une étude de l’ADEME.