Mais que pouvons nous faire pour que les algorithmes soient équitables et non biaisés ?
Nous pouvons tout d'abord essayer de mieux comprendre. Des chercheurs de Télécom Paris en informatique et en économie ont rédigé un excellent article sur le sujet (Algorithmes : Biais, Discrimination et Équité) en partenariat avec la Fondation Abeona. Cet article explique très clairement les différentes raisons pour lesquelles les algorithmes peuvent être biaisés.
Les biais statistiques | Les biais cognitifs | Les biais économiques |
---|---|---|
Le biais des données : un biais présent directement dans la base de données. Par exemple, un algorithme de recrutement entraîné sur une base de données dans laquelle les hommes sont sur-représentés exclura les femmes. | Le biais de conformité, dits du "mouton de Panurge" : nous avons tendance à reproduire les croyances de notre communauté. Par exemple, soutenir un candidat lors d’une élection parce que sa famille et ses amis le soutiennent. | Les biais économiques : des biais introduits dans les algorithmes, volontairement ou involontairement, car ils entraînent des conditions économiques favorables. Par exemple, un algorithme de publicité oriente les annonces vers des profils particuliers (les hommes pour les rasoirs, mais aussi des fast food pour des populations moins aisées, etc.). |
Le biais de variable omise : un biais dû à la difficulté d’encoder un facteur. Par exemple, il est difficile de trouver des critères factuels pour mesurer l’intelligence émotionnelle ; cette dimension est donc absente des algorithmes de recrutement. | Le biais d’anticipation ou de confirmation : nous avons tendance à privilégier les informations qui renforcent notre point de vue. Par exemple, après qu’une personne de confiance nous a affirmé qu'untel est autoritaire, remarquer uniquement les exemples qui le démontrent. | |
Le biais de sélection : un biais dû aux caractéristiques de l’échantillon sélectionné pour tirer des conclusions. Par exemple, une banque utilisera des données internes pour déterminer un score de crédit, en se fondant sur les personnes ayant obtenu des prêts, et laissant de côté celles à qui on a refusé un prêt, celles qui n’ont jamais eu besoin d’emprunter, etc. | Le biais de corrélation illusoire : nous avons tendance à vouloir associer des phénomènes qui ne sont pas nécessairement liés. Par exemple, penser qu’il y a une relation entre soi-même et un événement extérieur (le retard d’un train, la météo, etc.). | |
Le biais d’endogénéité : un biais dû à l’incapacité à anticiper le futur. Par exemple, dans le cas du credit scoring, il se peut qu’un prospect avec un mauvais historique de remboursement d’emprunt puisse changer de style de vie lorsqu’il décide de fonder une famille. | Le biais de stéréotype : nous avons tendance à agir en référence au groupe social auquel nous appartenons. Par exemple, une étude montre qu’une femme a tendance à cliquer sur des offres d’emplois qu’elle pense plus facile à obtenir en tant que femme. |
Cela peut venir des données utilisées, qui peuvent par exemple être constituées uniquement de personnes riches et en bonne santé d'un côté, et de personnes pauvres et malades de l'autre, ce que l'algorithme généralisera sans "réfléchir". D'un autre côté, les biais inconscients des personnes qui conçoivent ou codent les programmes peuvent s'y retrouver incorporés.
Ensuite, nous pouvons réfléchir aux actions qu'il serait possible de mettre en oeuvre. Nous sommes ravis de lancer un groupe de travail à l'Institut Montaigne constitué d'acteurs du monde économique, des startups aux grandes entreprises, et de la société civile. Nous souhaitons avoir une vision des impacts potentiels dans des domaines comme la santé, le recrutement, la publicité en ligne, les transports du futur, et bien d'autres. Une série d'auditions d'experts et de personnalités a également commencé.
L'idée est de produire des recommandations concrètes d'actions à l'attention à la fois des responsables politiques et des dirigeants d'entreprises. Pour que les algorithmes restent des outils formidables, au service des humains !
Ajouter un commentaire