Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
25/10/2018

Vu de New York : de l’Intelligence artificielle et de son éthique

Vu de New York : de l’Intelligence artificielle et de son éthique
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

La semaine dernière, l'AI Now Institute a tenu son troisième symposium à New York (l'enregistrement est disponible sur le site Web d'AI Now). Centrés sur l'éthique, l'organisation et la responsabilité, les conférenciers ont abordé certaines des questions majeures qui se posent aujourd’hui au moment où les États-Unis se tournent vers les systèmes d'intelligence artificielle (IA) pour gérer les transactions financières, automatiser la distribution des ressources publiques ou surveiller les espaces publics. Ces débats ont eu lieu dans le pays démocratique champion du développement de l’IA. Ces discussions sont particulièrement éclairantes à un moment où la France (et de nombreux autres pays à travers le monde) définit et met en place sa propre stratégie sur l’IA. Après avoir examiné la stratégie française visant à bâtir une industrie de l'IA à la fois forte et éthique, notre chargé d’études, Théophile Lenoir, met en lumière les principales leçons tirées du symposium.

Quelle est la situation en France ?

Le 29 mars 2018, Emmanuel Macron a présenté la stratégie de la France en matière d'intelligence artificielle, "AI for humanity". Après avoir reçu le rapport de Cédric Villani Donner un sens à l'intelligence artificielle: pour une stratégie nationale et européenne, le président de la République a fait plusieurs annonces pour faire de la France un leader dans ce domaine. Il s'agit notamment de propositions visant à créer une industrie de l'IA forte tout en veillant à ce que les systèmes d'IA respectent les principes éthiques. 

Au total, 1,5 milliard d'euros de dépenses publiques seront investis pendant le quinquennat (700 millions d'euros spécifiquement consacrés à la recherche). Cet investissement est destiné à favoriser l'émergence de jeunes entreprises utilisant des technologies liées à l'IA, ainsi qu'à encourager les grands acteurs industriels à poursuivre leurs investissements dans ce domaine. Deux secteurs sont prioritaires : la santé et les transports. Concernant le premier, Emmanuel Macron a annoncé la création d'une plateforme centralisant les données de santé pour les rendre accessibles aux projets de recherche lorsque cela est nécessaire. Le 12 octobre, le ministère de la Solidarité et de la Santé a publié un rapport présentant la plate-forme telle qu’elle devrait être. 

Un argument sous-jacent de cette stratégie est que le développement de l'IA dépend fortement de la capacité ou non de la France à attirer les meilleurs talents. C'est précisément l'objectif du programme d'IA du pays, qui vise à réunir quatre ou cinq instituts de recherche en France. Ce programme sera géré par l'Institut national de recherche en informatique et en automatique (Inria).

L'éthique dans la stratégie française

Parallèlement, l'éthique demeure une partie essentielle de la stratégie du gouvernement. S'inspirant du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), le gouvernement a indiqué qu'il réunirait un groupe d'experts dont l'objectif sera de s'assurer que les acteurs qui constituent le secteur de l'IA en France respectent les principes de loyauté et de transparence des algorithmes. 

Les premières étapes vers la transparence ont déjà été réalisées. Depuis 2016, la loi pour une République numérique oblige l'administration française à fournir des informations sur le fonctionnement des algorithmes qu'elle utilise, au cas où des particuliers demanderaient ces informations (article 4). Cela est cohérent avec l'une des recommandations de l'AI Now Institute, soulignée dans son rapport AI Now 2017 et dans sa lettre à l'État de New York : les systèmes algorithmiques des organismes publics "devraient être disponibles pour la vérification, les essais, l'examen public, et soumis à des normes de responsabilité" (rapport 2017).

Le débat autour de l'IA

La France et d'autres pays (Corée du Sud, Inde, Royaume-Uni, Mexique, Finlande, Suède et bien d'autres - voir ici un aperçu de juin 2018) ont conçu des stratégies ambitieuses pour développer l'IA. La plupart reconnaissent les risques associés à l'IA et ont inclus une dimension éthique dans leurs plans. Ils ont en effet de bonnes raisons de s'inquiéter d'une mise en œuvre trop hâtive des solutions d'IA, sans évaluer soigneusement les risques qu'elles représentent.

Thoughts from New York: Questioning AI, Now!

 

Lors de l'ouverture du Symposium 2018, Meredith Whittaker et Kate Crawford, co-fondatrices de l'AI Now Institute, ont présenté les changements survenus dans ce domaine au cours de la dernière année (voir graphique ci-dessus : en jaune, projets juridiques ; en vert, projets industriels ; en bleu, opposition aux projets liés à l'IA...). Les évolutions vont vite. À chaque breaking news, les réactions du public nous aident à comprendre les défis que représente l'IA: surveillance de masse et maintien de l'ordre, perturbation des processus électoraux, accidents mortels... Il y a de quoi s'inquiéter. Selon l'argument qui a prévalu tout au long du Symposium, l'élaboration de codes d'éthique (comme l'a fait Google) est un excellent début pour relever ces défis. Cependant, elles ne parviennent pas à identifier des "formes durables de responsabilisation” qui sont essentielles pour avoir un impact significatif sur les organisations et les institutions qui régissent l'IA.

Rendre l'IA responsable

Avec les systèmes d'IA, la responsabilité est un défi. Souvent (comme c'est le cas en France), la transparence est présentée comme la solution : beaucoup pensent que l'ouverture de la "boîte noire" d'un programme en publiant son code nous aidera à voir à travers elle et à comprendre son fonctionnement. Cela pourrait permettre aux acteurs publics de tenir les programmes et leurs concepteurs responsables de toutes conséquences négatives qui les impliquent. Cependant, comme l'écrivent Kate Crawford et Mike Ananny, professeur adjoint à l'Université de Californie du Sud, dans leur article Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability, l'ouverture de la boîte noire d'un algorithme ne met pas en lumière les liens qu'il entretient avec d'autres systèmes - technologiques ou humains - qui peuvent être tout aussi opaques. De quelle loi commerciale secrète dépend un algorithme ? De quelle discussion informelle entre décideurs de haut niveau s'agit-il ? Les algorithmes ne sortent pas du vide et les décisions qu'ils automatisent sont avant tout des décisions humaines. Le véritable défi consiste donc à déchiffrer les chaînes de décisions logiques qui construisent les algorithmes afin de déterminer les institutions et les personnes qui en sont responsables. Par exemple, nous avons tendance à oublier le travail humain sur lequel repose l'IA (que le Turc Mécanique d'Amazon rend accessible). Comment un cadre durable pour la responsabilité algorithmique mis en œuvre dans les pays développés devrait-il en tenir compte ? 

Les valeurs que l’AI automatise

Ce sont là des questions à grande échelle qu'il faut garder à l'esprit lorsque nous encourageons le développement de l'IA. D'autant plus qu'il n'y a pas de bonnes ou de mauvaises réponses, mais seulement des solutions intégrant différents systèmes de valeurs. Sherrilyn Iffil, présidente et conseillère juridique de la NAACP Legal Defense Fund, nous rappelle l'importance du contexte dans lequel les systèmes d'IA sont mis en place (aux États-Unis, par exemple, les préjugés contre les Afro-Américains sont encore régulièrement reproduits par les policiers). L'utilisation à grande échelle de la reconnaissance faciale peut conduire à la création d'outils de surveillance utilisés pour contrôler la population afro-américaine, ce qui pourrait avoir des conséquences dramatiques sur la vie des individus. Cela est d'autant plus vrai que les systèmes de reconnaissance faciale présentent toujours un taux d'erreur élevé. Par exemple, le logiciel Rekognition d'Amazon a confondu 28 membres du Congrès avec des photos d’identité d’autres individus. Si une personne n'est pas aussi célèbre qu'un membre du Congrès, elle peut ne pas avoir la possibilité de se défendre et de prouver que le système a tort. 

La France a ses propres valeurs ancrées dans ses institutions. À mesure qu'elle se développe un secteur de l'IA fort, les décideurs publics doivent être conscients des risques associés au contexte français. À ce stade, je crois que ce qu’il manque au pays, c'est davantage de recherche pour les mettre en lumière.

La prise de conscience se répand rapidement

Parmi toutes les inquiétudes, il y a aussi de bonnes raisons d'être optimiste. Premièrement, notre conscience collective sur ces questions s'est accrue. Comme l'ont fait remarquer Meredith Whittaker et Kate Crawford dans leurs remarques liminaires, il y a trois ans, le débat sur les préjugés était un sujet de niche. Aujourd'hui, c'est devenu un courant dominant, en partie grâce à des chercheurs comme Timnit Gebru qui continuent d'exposer des cas où les préjugés ont eu des conséquences concrètes, comme celui des logiciels de reconnaissance faciale qui luttent pour reconnaître le genre des personnes de couleur. Ces affaires, comme celle concernant les membres du Congrès, montrent combien les ensembles de données utilisés pour former l'IA ont un impact sur la précision du système.

La deuxième lueur d'optimisme vient de la diffusion de cette prise de conscience au sein des communautés des entreprises qui construisent ces outils. Prenons le projet Maven de Google, le contrat de Microsoft avec l'Immigration and Customs Enforcement (ICE) ou l'utilisation du logiciel Rekognition d'Amazon par les forces de l'ordre américaines : tous ont suscité des protestations menées par des employés des entreprises concernées. Ceci est d'autant plus intéressant qu'il nous est régulièrement rappelé que nous devrions nous préoccuper de nos infrastructures d'information basées sur des algorithmes (par exemple, les médias sociaux qui recommandent l'utilisation de contenus utilisant des algorithmes considérés comme contribuant à la polarisation de la société ou à la propagation virale de la désinformation). Dans le cas ci-dessus, l'interaction complexe entre les algorithmes des médias sociaux, les employés et les médias traditionnels a conduit à un bien commun : les employés se sont mobilisés au sein de leur entreprise et ont réussi à attirer l'attention des médias, créant finalement un sujet de discussion publique qui a été amplifiée grâce aux algorithmes des médias sociaux. Ils ont finalement réussi à empêcher leurs entreprises de réaliser leurs plans initiaux. Non seulement ces exemples montrent que certains employés se sentent engagés civilement à travers les logiciels qu'ils construisent et au sein des entreprises pour lesquelles ils travaillent, mais ils nous rappellent aussi que les nouvelles technologies de communication peuvent permettre une mobilisation efficace pour des causes louables. 

Partout, les gens se mobilisent pour construire des systèmes d'IA qui défendent les valeurs humaines, et le domaine se transforme rapidement. La question posée par le Symposium d'AI Now est de savoir si la prise de conscience se répand assez rapidement. Il est important que nous continuions à interroger l'intelligence artificielle avant que les valeurs qu'elle automatise ne soient profondément ancrées dans des systèmes opaques. Il y a l’espoir que nous parviendrons à mieux comprendre les implications sociales de ces systèmes avant qu'ils ne deviennent incontestables. Nous verrons où s’oriente le débat à partir de là.

Copyright : NICOLAS ASFOURI / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne