Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
19/12/2017

La course à l’IA : bilan de l’année 2017

Imprimer
PARTAGER
 La course à l’IA : bilan de l’année 2017
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

Ces douze derniers mois, l’intelligence artificielle (IA) a fait l’objet de nombreuses tables rondes, séminaires et débats. Chez les technologistes euphoriques et les régulateurs pessimistes, elle suscite autant d’espoirs que d’angoisses. Alors que l’année se termine, l’Institut Montaigne recense ici les points les plus fréquemment mentionnés lors des événement sur le sujet. 

Les enseignements ci-dessous sont tirés de trois manifestations récentes : les Rendez-vous de Bercy du 21 novembre ("Révolutions technologiques et inégalités"), les Entretiens de Royaumont des 1er et 2 décembre ("L’ère des robots ou la nouvelle révolution") et le grand colloque organisé par "Génération entreprise - Entrepreneurs associés" du 7 décembre ("Intelligence artificielle : quels bouleversements sur l’entreprise de demain"). 

IA forte et IA faible

Premier constat, rappelé de façon récurrente : nous sommes loin d’avoir créé une IA forte, une machine consciente. Aujourd’hui, les intelligences artificielles ne sont rien d’autre que des outils capables de calculs colossaux à partir de larges bases de données. Ces IA, dites faibles, imitent le raisonnement humain. Pour donner un exemple (trop simple mais illustratif), lorsqu’un programme conversationnel "intelligent" répond à la question "comment vas-tu ?", il étudie une base de données et se pose les questions, "Dans les millions d’exemples de conversations dont je dispose, quelles sont les réponses à la question ‘comment vas-tu’ ? Parmi les scénarios dans lesquels cette conversation a lieu, lequel est le plus proche de la situation présente ? Quelle est la probabilité que la réponse ‘je vais bien, et vous ?’, soit appropriée ?".  

Cette catégorie d’IA est le résultat d’avancées considérables au sein d’une branche de recherche, le machinelearning. Fondée sur une approche pragmatique du raisonnement, elle repose sur trois piliers : des données, des algorithmes et une puissance de calcul considérable. A noter qu’augmenter la puissance des IA faibles, ou en agréger un grand nombre, ne mène pas à la création d’une IA forte. Si il y a des pistes de recherche du côté des systèmes neuronaux humains, afin de mieux les comprendre pour les imiter, les participants semblent unanimes sur le fait que Terminator (l’exemple le plus fréquemment cité) n’est pas pour demain. Cela n’empêche pas les modérateurs de souligner que les systèmes intelligents se répandent partout en bouleversant les processus de décision en place, et avec eux les individus qui y contribuent. 

Une préoccupation majeure : l’impact sur l’emploi

L’une des craintes premières liée à l’IA en France est la destruction d’emplois qu’elle peut causer. Ici la conversation est divisée entre optimistes et pessimistes. D’un côté, la vue économique à long terme, soutenue par la "destruction créatrice" de Schumpeter, met en avant l’émergence des nouvelles professions que chaque révolution a permise. De l’autre, la vue à court-terme met l’accent sur la période de transition durant laquelle certaines professions subissent les conséquences de changements organisationnels profonds. Pour faire avancer la discussion, on note que le défi, posé à la fois par cette transition à court terme, et par les transformations d’un futur plus lointain, est similaire : les pouvoirs publics doivent impérativement mettre en place dès aujourd’hui des mécanismes afin de s’assurer que les humains travailleront, dans six mois ou dans vingt ans, aux côtés des logiciels intelligents, et non pour eux.

Le domaine de la santé est source d’exemples : un algorithme offre une vision du champ des possibles (tous les remèdes disponibles face à une maladie) à un médecin qui prend une décision finale (prescrire tel traitement) ; ou bien une machine s’occupe des réflexions "mécaniques"(identifier une tumeur) tandis que l’homme gère les relations émotionnelles et affectives avec les acteurs qui l’entourent (gérer la relation avec le patient). Les plus gros chantiers pour les pouvoirs publics concernent donc les formations initiales et continues, afin de permettre aux individus d’identifier les besoins que la machine ne résoudra pas (l’accent aujourd’hui est sur l’empathie et la relation humaine). Cela passe par un enseignement du goût de l’apprentissage : dans le monde de demain, l’homme "libre" s’adapte en apprenant perpétuellement.

Les données, clefs de la réussite  

Une autre question souvent abordée est la suivante : quelle est la capacité de la France et de l’Europe à gagner des places dans la course à l’IA ? Car le constat initial est préoccupant : face aux géants américains (les GAFA - Google, Apple, Facebook, Amazon - les NATU - Netflix, Alibaba, Tesla, Uber - mais aussi Microsoft, IBM, Tesla...) et chinois (les BATX - Baidu, Alibaba, Tencent, Xiaomi), les entreprises technologiques françaises frisent le ridicule. Rappelons qu’en France, les fonds levés par l’ensemble de la French tech atteignent 4 milliards de dollars seulement. Aux Etats-Unis, Google à lui seul a généré 90 milliards de vente de données en 2016. Or, il est souvent souligné qu’une grande partie de ces revenus sont réinvestis dans la recherche et le développement (comprenant l’IA), comme pour l’ensemble des entreprises technologiques américaines et chinoises. Par exemple, Alibaba a annoncé en septembre la création de huit centres de recherche et développement dédiés à l'intelligence artificielle (IA), l'informatique quantique et la fintech, pour une somme de 15 milliards de dollars. En comparaison, le budget de notre champion national public, l’Institut national de recherche dédié au numérique (Inria), est de 230 millions d’euros.

Quelles sont alors les pistes pour s’imposer ? Si augmenter les sommes dédiées à la recherche fait partie de la solution, cela doit être intégré à une vision dessinée par l’ensemble des acteurs, privés et publics. A l’heure actuelle, les données jouent un rôle majeur dans la course à l’IA. Plus une base de données est importante, plus les algorithmes qui s’en nourrissent peuvent devenir performants. Le groupe des GAFA et BATX collecte chaque jour une quantité astronomique de données, tirée de notre utilisation quotidienne des plateformes numériques et des appareils de communication construits en Chine ou aux Etats-Unis. La bonne nouvelle est que ce type de données (qui portent dans ce cas sur les comportements humains) n’est évidement pas le seul à être en mesure d’entraîner les algorithmes et de développer des IA. La France et l’Europe disposent d’une quantité phénoménale de données encore majoritairement inexploitées, dans les infrastructures, l’industrie ou le domaine de la santé. Les mutualiser et les rendre accessibles à des start up, plus agiles que l’Etat, serait un premier pas nécessaire vers la création de technologies capables de concurrencer les Américains ou les Chinois.

La France, l’Europe et la pensée 

Selon certains, la France et l’Europe peuvent également se différencier en puisant dans leur fond éthique et philosophique afin de penser l’IA autrement et créer des politiques publiques innovantes. Cependant, beaucoup notent que si la réflexion éthique se transforme en régulation à outrance, elle risque de limiter davantage le développement de l’intelligence artificielle française. Par exemple, le Règlement général sur la protection des données (RGPD) est critiqué pour pénaliser davantage les petites structures européennes que les géants du web, du fait des moyens limités dont elles disposent pour s’adapter. Par ailleurs, pour d’autres, ce règlement exclut l’Europe de certaines innovations, comme la création du nouvel outil de Facebook développé pour détecter les suicides sur la plateforme (pour ce faire les algorithmes doivent accéder aux données privées des utilisateurs Facebook, ce à quoi le RGPD s’oppose). C’est pourquoi il est souvent souligné que la réglementation effective de l’IA ne pourra se faire qu’à une échelle internationale, faute de quoi certains pays resteront sur le banc de touche, et les mauvais usages de la technologie perdureront. 

Il est essentiel que le débat entre les défenseurs de l’éthique et ceux de l’innovation ait lieu. De grands chantiers de réflexions sont donc à prévoir, pour mieux comprendre les rapports sociaux qui se dessinent et aider les gouvernements à identifier les défis posés par l’IA (en lien avec l’emploi, mais aussi avec les discriminations automatisées, ou les inégalités grandissantes). Cependant, pour que l’Europe reste un acteur capable de peser dans la balance du monde de demain, elle doit convaincre les autres pays de l’utilité de sa pensée. Sans cela, le risque que sa voix disparaisse des conversations est réel.
 

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne