Aller au contenu principal
Exemple : Education, Europe, Santé

Vu de Boston : De la relation entre algorithmes, humains, et désinformation

BLOG - 21 Juin 2018

Les nouvelles technologies de l’information et de la communication ont provoqué de sérieux dysfonctionnements dans nos structures informationnelles. Désinformation, fragmentation des audiences, modèles économiques traditionnels menacés, guerres publicitaires, nouvelles infrastructures des données… Aux États-Unis, un groupe d’experts étudie de près les relations entre tous ces phénomènes. J’ai assisté au séminaire qu’ils ont organisé les 7 et 8 juin derniers à Harvard, intitulé “Information Disorder, New Media Ecosystems, and Democracy: From Dysfunction to Resilience” (Information bouleversée, nouveaux écosystèmes médiatiques, et démocratie : du dysfonctionnement à la résilience). 

L’approche pluridisciplinaire adoptée lors de cette conférence d’experts pourrait inspirer le débat en France autour de la loi pour lutter contre la manipulation de l’information. Ce changement de logiciel favoriserait l’émergence d’une vision nuancée des transformations que subit l’information, diagnostic sur lequel un plan d’action pourrait ensuite être bâti. Il nous permettrait de définir notre responsabilité collective dans l’émergence des nouveaux bouleversements de l’information. 

Tout commence par la désinformation

L’histoire qui suit est une mélodie courante dans les débats publics autour de la désinformation. Bien qu’elle soit utile dans l’analyse de ce phénomène, nombre des participants à la conférence d’experts ont souhaité insister sur le fait qu’elle n’explique que partiellement le problème auquel nous faisons face. 

La voici : nous vivions auparavant dans un monde où la production et la consommation d’informations suivaient des règles simples. Les journaux produisaient des contenus, les audiences les consommaient. Cela générait un corpus de sujets communs sur lesquels nous pouvions échanger, permettant en conséquence l’établissement d’un espace public partagé. 

Aujourd’hui, ce schéma n’est plus le même : 

  1. Le nombre de personnes étant en capacité de produire du contenu a explosé, les journaux ne sont donc plus en position de monopole dans la définition des sujets à aborder. 
     
  2. Le modèle vertical et uniforme de la distribution de l’information a laissé place à un modèle multidirectionnel, stimulé par l’affect et le micro-ciblage sur les réseaux sociaux.
     
  3. Alors que suivre l’information et mesurer son niveau d’audience était relativement aisé, les phénomènes d’amplification auxquels les réseaux sociaux ont donné naissance rendent désormais ces tâches complexes. 

Ces transformations ont affaibli les médias traditionnels, mené à la fragmentation des audiences, et facilité la circulation de la désinformation tout en complexifiant l’évaluation de son niveau d’influence. Il est compréhensible que l’accumulation de tous ces phénomènes génère de nombreuses inquiétudes. 

Ainsi, la désinformation est un sujet essentiel car elle représente une menace pour nos démocraties. Des acteurs mal intentionnés, dont certains États, sont capables de manipuler des audiences, poussant ainsi certains à penser que le résultat d’élections est influencé, au bénéfice de partis populiste

L’histoire est plus complexe 

Cette histoire est convaincante. Cependant, les participants à la conférence de Harvard y ont rajouté plusieurs dimensions. 

Commençons par la conclusion : si la désinformation est devenue un enjeu, ce n’est pas réellement dû à une déstabilisation de l’ordre existant provoquée par les "fake news" (après tout, il y a des signes évidents de fatigue des modes de gouvernance de nos sociétés). En effet, les "fake news" ne sont que la partie émergée de l’iceberg, iceberg qui serait ici un écosystème de l’information de plus en plus opaque pour les citoyens. En d’autres termes, le problème ne vient pas du contenu que nous lisons, mais bien des mécanismes qui le portent jusqu’à nous. Ceux-là sont problématiques car, de part leur opacité, ils contribuent à ébranler la confiance au sein de nos sociétés. 

De la désinformation aux données 

Cette problématique ne peut être abordée qu’en réunissant une variété d’expertises. La diversité des acteurs mobilisés pour la conférence de Harvard était impressionnante : anthropologues, data scientists, académiques des médias, législateurs, activistes, représentants de l’industrie de la tech, journalistes… Cette variété dans les points de vue avait pour résultante une compréhension très diverse des bouleversements de l’information. 

Voici un exemple concret. Le fait que la désinformation soit partiellement liée à un enjeu de données est bien connu, cette dernière circulant notamment grâce à un phénomène intense de catégorisation et de ciblage ayant lieu sur les plateformes. Cependant, les anthropologues présents à la conférence ont pu démontrer que ce phénomène ne trouvait pas son origine dans des algorithmes automatiques, mais bel et bien dans l’action d’humains travaillant au contact des algorithmes. 

Selon eux, la racine du problème ne réside pas en l’outil inerte qu’est l’algorithme, mais dans les forces poussant les humains à les créer et à les utiliser d’une certaine manière. Étudier les interactions et les processus décisionnels au sein des organisations (incluant la collaboration entre les designers, les codeurs, les directeurs de stratégie, les clients, contribuant tous à l’optimisation d’un système) nous permettra donc peut-être de comprendre pourquoi la catégorisation et le ciblage ont pris une place si importante dans nos organisations (et pas seulement sur les réseaux sociaux). 

Un pont entre la désinformation et les biais algorithmiques 

Adopter cet angle peut nous aider à comprendre différents problèmes liés à ce même phénomène. Ainsi, la logique suivie par les personnes créant des algorithmes de ciblage sur Facebook n’est pas si différente de la logique utilisée dans les banques, par exemple pour déterminer si quelqu’un sera en mesure ou non de rembourser son prêt. En effet, dans cette situation aussi, des données sont utilisées dans un but de catégorisation, des informations sur une personne étant collectées et assemblées pour bâtir un profil (qui n’est qu’une version simplifiée et choisie de la réalité). 

Il est intéressant de se demander ce que dit réellement un algorithme quand il estime qu’une personne ne sera pas capable de rembourser son prêt. Le retard dans le paiement est-il un critère valide ? Le fait que le client soit un homme ou une femme devrait-il être pris en compte ? Les experts de la conférence abordaient ces questions en même temps que celles liées à la désinformation. En effet, in fine, le coeur de toutes ces problématiques est la même confiance que nous construisons envers les institutions et organisations qui nous entourent. 

Le vrai enjeu est celui de la confiance 

La confiance en les institutions a fortement décru durant les 40 dernières années. Le phénomène de désinformation est une conséquence visible de cette situation. Mais la confiance est également au cœur du défi de la discrimination algorithmique : dans une ère où la transparence est si importante, il est plus difficile d’accorder sa confiance à un système opaque. Il est donc de la responsabilité des organisations créant et utilisant ces algorithmes de prendre soin de la confiance que leur écosystème leur accorde. 

Soli Özel, professeur de relations internationales à l’Université stambouliote Kadir Has, et visiting fellow à l’Institut Montaigne, explique que l’une des raisons justifiant la montée du populisme en Occident est l’indifférence des élites politiques et économiques vis-à-vis des impacts négatifs de la mondialisation pour les populations les plus défavorisées. Selon cette logique, les élites auraient tourné le dos à leur responsabilité de servir le bien commun (un phénomène qu’illustre dans une certaine mesure la croissance du secteur privé), et auraient ainsi perdu la confiance d’une large partie de la population. 

L’argument sous-jacent ici ne consiste pas en la diabolisation des entreprises, où dans l’idée que notre salvation viendrait du seul État. Il est de montrer la nécessité de réaliser que les fondations de notre ordre social ont changé. Les organisations privées, des entreprises de réseaux sociaux aux banques utilisant des algorithmes, sont responsables des valeurs sur lesquelles reposent leurs relations avec leurs partenaires, leurs clients, leurs fournisseurs, leurs actionnaires etc. Un tel oubli, s’il perdure sur de longues périodes, peut être dangereux et mener à des conséquences graves : haine à l’endroit des élites, perte de confiance vis-à-vis des institutions, montée de la violence… 

Le principal défi des années à venir sera de tisser un dialogue productif entre organisations privées et publiques, afin qu’elles travaillent ensemble en faveur du bien commun. Facebook n’est qu’un rouage de l’ensemble de l’architecture digitale que nous construisons collectivement depuis plusieurs années. Initier un dialogue productif avec ces acteurs requiert que nous reconnaissions notre responsabilité commune dans les externalités négatives issues de cette architecture. D’autres initiatives interdisciplinaires seront nécessaires pour entraîner le débat public dans cette direction. 
 

 

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017