Lors de l'ouverture du Symposium 2018, Meredith Whittaker et Kate Crawford, co-fondatrices de l'AI Now Institute, ont présenté les changements survenus dans ce domaine au cours de la dernière année (voir graphique ci-dessus : en jaune, projets juridiques ; en vert, projets industriels ; en bleu, opposition aux projets liés à l'IA...). Les évolutions vont vite. À chaque breaking news, les réactions du public nous aident à comprendre les défis que représente l'IA: surveillance de masse et maintien de l'ordre, perturbation des processus électoraux, accidents mortels... Il y a de quoi s'inquiéter. Selon l'argument qui a prévalu tout au long du Symposium, l'élaboration de codes d'éthique (comme l'a fait Google) est un excellent début pour relever ces défis. Cependant, elles ne parviennent pas à identifier des "formes durables de responsabilisation” qui sont essentielles pour avoir un impact significatif sur les organisations et les institutions qui régissent l'IA.
Rendre l'IA responsable
Avec les systèmes d'IA, la responsabilité est un défi. Souvent (comme c'est le cas en France), la transparence est présentée comme la solution : beaucoup pensent que l'ouverture de la "boîte noire" d'un programme en publiant son code nous aidera à voir à travers elle et à comprendre son fonctionnement. Cela pourrait permettre aux acteurs publics de tenir les programmes et leurs concepteurs responsables de toutes conséquences négatives qui les impliquent. Cependant, comme l'écrivent Kate Crawford et Mike Ananny, professeur adjoint à l'Université de Californie du Sud, dans leur article Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability, l'ouverture de la boîte noire d'un algorithme ne met pas en lumière les liens qu'il entretient avec d'autres systèmes - technologiques ou humains - qui peuvent être tout aussi opaques. De quelle loi commerciale secrète dépend un algorithme ? De quelle discussion informelle entre décideurs de haut niveau s'agit-il ? Les algorithmes ne sortent pas du vide et les décisions qu'ils automatisent sont avant tout des décisions humaines. Le véritable défi consiste donc à déchiffrer les chaînes de décisions logiques qui construisent les algorithmes afin de déterminer les institutions et les personnes qui en sont responsables. Par exemple, nous avons tendance à oublier le travail humain sur lequel repose l'IA (que le Turc Mécanique d'Amazon rend accessible). Comment un cadre durable pour la responsabilité algorithmique mis en œuvre dans les pays développés devrait-il en tenir compte ?
Les valeurs que l’AI automatise
Ce sont là des questions à grande échelle qu'il faut garder à l'esprit lorsque nous encourageons le développement de l'IA. D'autant plus qu'il n'y a pas de bonnes ou de mauvaises réponses, mais seulement des solutions intégrant différents systèmes de valeurs. Sherrilyn Iffil, présidente et conseillère juridique de la NAACP Legal Defense Fund, nous rappelle l'importance du contexte dans lequel les systèmes d'IA sont mis en place (aux États-Unis, par exemple, les préjugés contre les Afro-Américains sont encore régulièrement reproduits par les policiers). L'utilisation à grande échelle de la reconnaissance faciale peut conduire à la création d'outils de surveillance utilisés pour contrôler la population afro-américaine, ce qui pourrait avoir des conséquences dramatiques sur la vie des individus. Cela est d'autant plus vrai que les systèmes de reconnaissance faciale présentent toujours un taux d'erreur élevé. Par exemple, le logiciel Rekognition d'Amazon a confondu 28 membres du Congrès avec des photos d’identité d’autres individus. Si une personne n'est pas aussi célèbre qu'un membre du Congrès, elle peut ne pas avoir la possibilité de se défendre et de prouver que le système a tort.
La France a ses propres valeurs ancrées dans ses institutions. À mesure qu'elle se développe un secteur de l'IA fort, les décideurs publics doivent être conscients des risques associés au contexte français. À ce stade, je crois que ce qu’il manque au pays, c'est davantage de recherche pour les mettre en lumière.
La prise de conscience se répand rapidement
Parmi toutes les inquiétudes, il y a aussi de bonnes raisons d'être optimiste. Premièrement, notre conscience collective sur ces questions s'est accrue. Comme l'ont fait remarquer Meredith Whittaker et Kate Crawford dans leurs remarques liminaires, il y a trois ans, le débat sur les préjugés était un sujet de niche. Aujourd'hui, c'est devenu un courant dominant, en partie grâce à des chercheurs comme Timnit Gebru qui continuent d'exposer des cas où les préjugés ont eu des conséquences concrètes, comme celui des logiciels de reconnaissance faciale qui luttent pour reconnaître le genre des personnes de couleur. Ces affaires, comme celle concernant les membres du Congrès, montrent combien les ensembles de données utilisés pour former l'IA ont un impact sur la précision du système.
La deuxième lueur d'optimisme vient de la diffusion de cette prise de conscience au sein des communautés des entreprises qui construisent ces outils. Prenons le projet Maven de Google, le contrat de Microsoft avec l'Immigration and Customs Enforcement (ICE) ou l'utilisation du logiciel Rekognition d'Amazon par les forces de l'ordre américaines : tous ont suscité des protestations menées par des employés des entreprises concernées. Ceci est d'autant plus intéressant qu'il nous est régulièrement rappelé que nous devrions nous préoccuper de nos infrastructures d'information basées sur des algorithmes (par exemple, les médias sociaux qui recommandent l'utilisation de contenus utilisant des algorithmes considérés comme contribuant à la polarisation de la société ou à la propagation virale de la désinformation). Dans le cas ci-dessus, l'interaction complexe entre les algorithmes des médias sociaux, les employés et les médias traditionnels a conduit à un bien commun : les employés se sont mobilisés au sein de leur entreprise et ont réussi à attirer l'attention des médias, créant finalement un sujet de discussion publique qui a été amplifiée grâce aux algorithmes des médias sociaux. Ils ont finalement réussi à empêcher leurs entreprises de réaliser leurs plans initiaux. Non seulement ces exemples montrent que certains employés se sentent engagés civilement à travers les logiciels qu'ils construisent et au sein des entreprises pour lesquelles ils travaillent, mais ils nous rappellent aussi que les nouvelles technologies de communication peuvent permettre une mobilisation efficace pour des causes louables.
Partout, les gens se mobilisent pour construire des systèmes d'IA qui défendent les valeurs humaines, et le domaine se transforme rapidement. La question posée par le Symposium d'AI Now est de savoir si la prise de conscience se répand assez rapidement. Il est important que nous continuions à interroger l'intelligence artificielle avant que les valeurs qu'elle automatise ne soient profondément ancrées dans des systèmes opaques. Il y a l’espoir que nous parviendrons à mieux comprendre les implications sociales de ces systèmes avant qu'ils ne deviennent incontestables. Nous verrons où s’oriente le débat à partir de là.
Copyright : NICOLAS ASFOURI / AFP
Ajouter un commentaire