Aller au contenu principal
Exemple : Education, Europe, Santé

Algorithmes, données et biais : quelles politiques publiques ?

BLOG - 16 Juillet 2019

Nos décisions ont toujours été biaisées. Nous avons tous des préjugés, des idées reçues, fruit de notre histoire, de notre culture, de nos expériences, qui guident inconsciemment nos choix. Pourquoi en serait-il autrement pour les algorithmes ? Dans cet article, Anne Bouverot, présidente de Technicolor et présidente de la Fondation Abeona et Thierry Delaporte, directeur général délégué du groupe Capgemini, expliquent pourquoi les biais des algorithmes sont problématiques et annoncent le lancement du groupe de travail de l’Institut Montaigne, qu’ils président, sur le sujet.

L’intelligence artificielle a une capacité incontestable à démultiplier l’intelligence humaine, mais tout intelligents qu’ils soient, les algorithmes ne font finalement qu’analyser des données, certes en quantité et à des vitesses inaccessibles à l’être humain, pour en tirer statistiquement des conclusions réutilisables. Revers de la médaille, ils font ainsi résonner, voire accentuent les pires biais humains : sexisme, racisme, injustice sociale…
 
Le sujet devient complexe lorsqu’on réalise tout le potentiel de ces algorithmes. Chaque jour, ils irriguent un peu plus nos vies, nos entreprises, nos sociétés grâce à leur efficacité. Ils améliorent la prise de décision dans les entreprises. Ils rendent possible la voiture autonome. Ils améliorent la détection et le traitement des cancers.
 
Mais l’efficacité ne fait pas tout, et les algorithmes peuvent être également perçus comme des boîtes noires constituant une menace incontrôlable. Pour que leur développement soit pérenne et accepté de tous, il est indispensable de pouvoir faire toute la transparence sur le fonctionnement des algorithmes et de comprendre d’où proviennent les biais pour pouvoir les détecter et les corriger. Car n’oublions pas l’essentiel : les algorithmes sont des outils formidables, mais doivent rester des outils au service des humains.
 

Biais des algorithmes


Mais que pouvons nous faire pour que les algorithmes soient équitables et non biaisés ?
 
Nous pouvons tout d'abord essayer de mieux comprendre. Des chercheurs de Télécom Paris en informatique et en économie ont rédigé un excellent article sur le sujet (Algorithmes : Biais, Discrimination et Équité) en partenariat avec la Fondation Abeona. Cet article explique très clairement les différentes raisons pour lesquelles les algorithmes peuvent être biaisés.
 

Les biais statistiques Les biais cognitifs Les biais économiques
Le biais des données : un biais présent directement dans la base de données.

Par exemple, un algorithme de recrutement entraîné sur une base de données dans laquelle les hommes sont sur-représentés exclura les femmes.
Le biais de conformité, dits du "mouton de Panurge" : nous avons tendance à reproduire les croyances de notre communauté.

Par exemple, soutenir un candidat lors d’une élection parce que sa famille et ses amis le soutiennent.
Les biais économiques : des biais introduits dans les algorithmes, volontairement ou involontairement, car ils entraînent des conditions économiques favorables.

Par exemple, un algorithme de publicité oriente les annonces vers des profils particuliers (les hommes pour les rasoirs, mais aussi des fast food pour des populations moins aisées, etc.).
Le biais de variable omise : un biais dû à la difficulté d’encoder un facteur.

Par exemple, il est difficile de trouver des critères factuels pour mesurer l’intelligence émotionnelle ; cette dimension est donc absente des algorithmes de recrutement.
Le biais d’anticipation ou de confirmation : nous avons tendance à privilégier les informations qui renforcent notre point de vue.

Par exemple, après qu’une personne de confiance nous a affirmé qu'untel est autoritaire, remarquer uniquement les exemples qui le démontrent.
 
Le biais de sélection : un biais dû aux caractéristiques de l’échantillon sélectionné pour tirer des conclusions.

Par exemple, une banque utilisera des données internes pour déterminer un score de crédit, en se fondant sur les personnes ayant obtenu des prêts, et laissant de côté celles à qui on a refusé un prêt, celles qui n’ont jamais eu besoin d’emprunter, etc.
 
Le biais de corrélation illusoire : nous avons tendance à vouloir associer des phénomènes qui ne sont pas nécessairement liés.

Par exemple, penser qu’il y a une relation entre soi-même et un événement extérieur (le retard d’un train, la météo, etc.).
 
Le biais d’endogénéité : un biais dû à l’incapacité à anticiper le futur.

Par exemple, dans le cas du credit scoring, il se peut qu’un prospect avec un mauvais historique de remboursement d’emprunt puisse changer de style de vie lorsqu’il décide de fonder une famille.
Le biais de stéréotype : nous avons tendance à agir en référence au groupe social auquel nous appartenons.

Par exemple, une étude montre qu’une femme a tendance à cliquer sur des offres d’emplois qu’elle pense plus facile à obtenir en tant que femme.
 


Cela peut venir des données utilisées, qui peuvent par exemple être constituées uniquement de personnes riches et en bonne santé d'un côté, et de personnes pauvres et malades de l'autre, ce que l'algorithme généralisera sans "réfléchir". D'un autre côté, les biais inconscients des personnes qui conçoivent ou codent les programmes peuvent s'y retrouver incorporés. 
 
Ensuite, nous pouvons réfléchir aux actions qu'il serait possible de mettre en oeuvre. Nous sommes ravis de lancer un groupe de travail à l'Institut Montaigne constitué d'acteurs du monde économique, des startups aux grandes entreprises, et de la société civile. Nous souhaitons avoir une vision des impacts potentiels dans des domaines comme la santé, le recrutement, la publicité en ligne, les transports du futur, et bien d'autres. Une série d'auditions d'experts et de personnalités a également commencé. 
 
L'idée est de produire des recommandations concrètes d'actions à l'attention à la fois des responsables politiques et des dirigeants d'entreprises. Pour que les algorithmes restent des outils formidables, au service des humains !

 

A voir aussi

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017