Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
10/11/2017

Réguler l’intelligence artificielle en France. Trois questions à Gilles Babinet

Imprimer
PARTAGER
Réguler l’intelligence artificielle en France. Trois questions à Gilles Babinet
 Institut Montaigne
Auteur
Institut Montaigne

Le 18 octobre, AI Now, un centre de recherche basé à l’Université de New York (NYU), a publié son rapport annuel sur l’intelligence artificielle dans lequel il émet des recommandations dans le but de faire face aux “défis éthiques et normatifs de l’intelligence artificielle pour nos institutions et relations sociales, économiques et politiques”. Ses auteurs font un tour d’horizon de la littérature scientifique, selon quatre grands thèmes : travail et automation, biais et inclusion, droits et libertés, éthique et gouvernance. L’Institut Montaigne pose trois questions à Gilles Babinet, notre contributeur sur les questions numériques.

Certaines des recommandations d’AI Now offrent des pistes de réflexion afin de réguler l’intelligence artificielle. Comment procède-t-on en France ?

La situation est complexe car nous ne disposons pas, en France mais aussi ailleurs, de référentiel sur lequel se fonder. Il faut donc repenser la régulation entièrement. Aujourd’hui l’organisme en charge de ces questions est la Commission nationale de l’informatique et des libertés (Cnil). Or ses membres ont tendance à raisonner en terme de restrictions (ce qui justifie leur mandat), alors que les enjeux du numérique résident dans l’innovation et les libertés que celle-ci nécessite. Il y a donc là un paradoxe difficile à surpasser. Il l’est d’autant plus que les législateurs ont aujourd’hui encore assez peu de connaissance des enjeux des données et des nouvelles technologies. Dans nombre de cas, leurs textes reflètent leurs craintes vis-à-vis de ce nouveau monde, au lieu d’y voir et d’en saisir les opportunités.

Il faudrait donc des centres de réflexion indépendants (comme par exemple aux Etats-Unis, le Berkman Klein Center for Internet and Society de Harvard, ou AI Now à l’Université de New York). L’enjeu est pour ces chercheurs de s’éloigner de l’approche prospective, voire singulariste, habituelle, qui tend à prédire un futur apocalyptique causé par l’intelligence artificielle. Edgar Morin disait que la constance de l’histoire, c’est la rupture. Le futur est, et reste, incertain : Gordon Moore, le co-fondateur d’Intel, avait annoncé que sa loi désormais célèbre (selon laquelle chaque année le coût des microprocesseurs diminue de moitié à mesure que leur productivité double) ne serait valable que sept ans. Plus de 40 ans plus tard, elle reste d’actualité (et s’applique à l’ensemble des technologies). L’approche d’AI Now est très nuancée en ce sens, car le rapport s’appuie sur des recherches scientifiques fondées sur le présent. De ce fait, leurs analyses (et celles qu’ils relayent par ce rapport) offrent des pistes de réflexion pour un futur proche, épargnées du discours simpliste des singularistes.

Plus généralement, il faut que la régulation soit ex-post, et non ex-ante. C’est d’ailleurs ce que préconise Yann LeCun, un des pères fondateurs de la recherche sur l’intelligence artificielle. On peut également penser à d’autres manières de réguler le monde numérique et celui de l’intelligence artificielle : par exemple à travers le code (on connaît la théorie de Lawrence Lessig, ‘code is law’) ou bien par l’intermédiaire des APIs ou de l’open source. Le sujet est plus amplement traité dans mon livre “Big Data, penser l’homme et le monde autrement”.

Parmi les recommandations d’AI Now, l’une d’entre elles souligne la nécessité de détecter les discriminations causées par des erreurs de code ou des bases de données biaisées. Que pensez-vous de ce problème des discriminations ? 

Les discriminations sont problématiques, car elles sont partout. De ce point de vue, la recommandation d’AI Now est pertinente et essentielle : une base de données biaisée générera une intelligence artificielle biaisée, et il faut pouvoir l’identifier lorsque c’est le cas. 

Mais j’aimerais souligner que les discriminations sont présentes aussi et surtout dans les domaines où le soft power règne en maître. C’est flagrant dans l’administration. Au cours du processus d’obtention de visas, les personnes qui ont le temps et la motivation d’aller faire la queue à cinq heures du matin voient leur chance de se faire accorder ce document augmenter. Ou encore, j’assistais il y a quelques semaines à une séance de tribunal où le juge, affalé sur son bureau, écoutait à peine la défense. C’est dans ces situations que l’on a beaucoup à gagner grâce à des algorithmes qui peuvent assister la prise de décision et apporter une forme d’objectivité. Attention, je dis bien une “forme” d’objectivité, et bien sûr il s’agit d’être conscient que celle-ci est limitée. Comme n’importe quel système algorithmique sur lequel se base l’intelligence artificielle, il faudra y apporter des modifications après son implémentation, afin de l’améliorer. A nouveau: des actions ex-post sont nécessaires, non ex-ante.

Selon vous quels sont les principaux enjeux de l’IA en France ?

Les débats tournent régulièrement autour des menaces de l’intelligence artificielle pour les entreprises ou pour l’emploi. Ces menaces sont réelles, mais selon moi l’enjeu principal à court terme réside dans la dépendance que nous développons à notre monde connecté par ces systèmes de plus en plus “intelligents”. Par exemple des études ont été faites aux Etats-Unis, qui démontrent que les taux de suicide chez les adolescents montent en flèche. En moyenne un adolescent américain passe six heures par jour sur les réseaux sociaux. Je doute que les chiffres soient très différents en France. Il ne faut pas attendre, comme on le fait souvent, que la situation devienne critique aux Etats-Unis avant d’agir chez nous. Ces enjeux d’addiction aux technologies de communication et des taux de dépression qu’ils entraînent vont se présenter bien avant ceux de l’emploi tels qu’on les décrit dans les médias par exemple.

Enfin, à plus long terme, le réel problème est la distribution des gains de production. La production a énormément augmenté grâce à la technologie (et soit dit en passant fort heureusement d’ailleurs, sinon nous ne serions pas en mesure de vivre à huit milliards d’êtres humains sur Terre). Aujourd’hui, ce qui nous inquiète, c’est que la valeur créée par cette augmentation de production est concentrée dans les mains de quelques acteurs. C’est d’autant plus le cas parce que ces géants de la technologie fonctionnent par le biais de modèles de plateformes qui encouragent la concentration du capital. Le vrai sujet de demain est donc celui de la répartition de la valeur. Les enjeux de l’intelligence artificielle, parmi lesquels  l’impact sur l’emploi, ne sont que des épiphénomènes de ce défi majeur.
 

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne