Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
14/01/2021

Twitter vs. Trump : comment avancer ?

Twitter vs. Trump : comment avancer ?
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

La suppression du compte Twitter de Donald Trump à la suite des émeutes au Capitole du mercredi 6 janvier a suscité une levée de boucliers dans les milieux politiques français et européens. Thierry Breton, commissaire européen au Marché intérieur et qui a présenté un texte en décembre visant à renforcer la responsabilité des plateformes vis-à-vis des contenus, note que la suppression a eu lieu "sans contrôle légitime et démocratique". La décision du réseau social a également été condamnée par la chancelière allemande Angela Merkel ou le ministre de l’Économie, des Finances et de la Relance français Bruno Le Maire. Ces débats mettent en évidence la difficulté de mettre en place un processus légitime et démocratique pour décider de ce qui est autorisé en ligne.

Le contrôle de la liberté d’expression par des acteurs privés

Le transfert du contrôle de droits fondamentaux tels que la liberté d’expression depuis les institutions démocratiques vers des acteurs privés est problématique. Pour certains, des entreprises telles que Twitter ou Facebook ne doivent pas être en mesure de décider d’elles-mêmes quels types d’acteurs sont autorisés à prendre part au débat public. En parallèle, on leur demande régulièrement de réguler l’espace informationnel en ligne, par exemple pour limiter la circulation de désinformations dans le cadre de la crise sanitaire.

À l’heure actuelle, les règles d’utilisation des différents réseaux sociaux définissent ce qui est acceptable ou non (par exemple, le compte de Donald Trump a été supprimé car il glorifiait la violence, ce qui est interdit par Twitter). Sur certains sujets, tels que le terrorisme ou la pédopornographie, les autorités compétentes travaillent avec les plateformes afin de supprimer les contenus ou d’identifier les acteurs prenant part à des activités illégales. Cependant, dans le cas de sujets sur lesquels de nombreuses "zones grises" existent, tels que la désinformation ou les contenus haineux, les plateformes ont encore une forte autonomie pour décider de ce qui peut être supprimé.

Le transfert du contrôle de droits fondamentaux tels que la liberté d’expression depuis les institutions démocratiques vers des acteurs privés est problématique.

Aux États-Unis, les plateformes bénéficient aujourd’hui d’exemptions de responsabilité vis-à-vis de ces contenus. Celles-ci sont encadrées par la section 230 du Communication Decency Act de 1996, que le président américain avait demandé à revoir à la suite de la suppression en mai de deux de ses messages sur Twitter (l’un relatif au vote à distance et l’autre aux violences qui ont eu lieu à Minneapolis). En parallèle, le premier amendement de la Constitution américaine protège la liberté d’expression des citoyens et rend très difficile le contrôle des contenus par les plateformes. Ainsi, si, en Europe, le Digital Services Act vise à proposer des dispositifs de régulation des contenus, le contexte américain rendrait leur application particulièrement difficile.

À quoi ressemblerait un processus "légitime et démocratique" de modération ?

La question demeure de savoir ce à quoi peut ressembler un processus "légitime et démocratique" de contrôle de l’espace informationnel en ligne. L’une des solutions régulièrement évoquées, et qui figure au cœur de la loi de 2018 contre la manipulation de l’information dite "loi fake news", est de laisser à un juge des référés (juge administratif de l’urgence, qui statue seul) la décision de la suppression ou non d’un contenu. Si cela donne une couleur démocratique à la modération en ligne, cette idée reste problématique pour plusieurs raisons.

D’abord, ce mécanisme ne peut pas traiter les problèmes avant que le mal soit fait. La viralité des posts rend difficile, voire impossible, d’identifier et de supprimer les contenus problématiques suffisamment rapidement pour limiter les dommages qu’ils peuvent causer. La procédure légale n’est pas inutile pour autant : elle permet de responsabiliser les acteurs (plateformes comme individus) ; mais, même si, dans un cas aussi important que celui de la suppression du compte d’un président, la procédure peut être rapide, dans la majorité des cas elle arrivera nécessairement trop tard.

Ensuite, la procédure judiciaire met fortement l’accent sur les contenus individuels, lorsque la quantité de messages potentiellement problématiques nécessite d’élargir l’échelle. Pour cela, il est nécessaire de comprendre comment ce type de problème peut être abordé par une plateforme avec un nombre d’utilisateurs aussi important que celui de Twitter ou Facebook. Du point de vue de l’ingénieur, l’enjeu est de trouver des catégories de cas problématiques suffisamment larges pour prendre en compte le plus grand nombre de situations (par exemple, incitation à la haine, incitation à la violence, contenu politique mensonger, etc.), et précises et permettre de traiter des exceptions (par exemple, des lycéens appelant à la révolte contre un professeur sur un ton humoristique). Les exceptions sont inévitables, mais elles doivent faire l’objet de discussions. Dans certains cas, de nouveaux critères doivent être pris en compte (par exemple, le nombre d’abonnés ou le métier de l’acteur concerné).

Creuser du côté des catégories de contenus

Si les pouvoirs publics souhaitent trouver des solutions efficaces, c’est-à-dire des solutions qui permettent d’identifier et de traiter rapidement les situations problématiques, ils doivent creuser du côté de ces catégorisations. Quelles sont les catégories existantes ? Quels critères leur correspondent ? Comment ces critères sont-ils amenés à évoluer ? Quelles décisions sont prises pour chaque catégorie ? Lorsque des contenus cumulent plusieurs critères, comment sont-ils traités ? C’est au sujet de ces critères que nous devons avoir des discussions ouvertes et des processus de décision démocratiques.

Le cas de la suppression des comptes ou contenus de Donald Trump sur les réseaux sociaux pose problème dans les milieux politiques parce qu’elle semble arbitraire, comme si Twitter et l’"oligarchie digitale" (pour reprendre l’expression de Bruno Le Maire) s’étaient décidés sur un coup de tête. La justification de Twitter pour supprimer le compte mentionne le contexte des messages du président américain et la manière dont ses messages sont "interprétés", formulation assez maladroite car nécessairement partiale. Elle décortique ainsi les messages du président et les analyse au regard de la situation actuelle, avant de décider qu’ils incitent à la violence et ainsi vont à l’encontre des conditions d’utilisation de la plateforme.

Le cas de la suppression des comptes ou contenus de Donald Trump sur les réseaux sociaux pose problème dans les milieux politiques parce qu’elle semble arbitraire, comme si Twitter [...] s’étaient décidés sur un coup de tête.

La question qu’il convient de se poser est la suivante : si la méthode d’interprétation des messages du président, ainsi que les critères et les catégories invoquées pour prendre la décision, étaient approuvées par des institutions démocratiques, la décision de supprimer le compte pourrait-elle être considérée comme légitime ? À l’Institut Montaigne, nous sommes convaincus que c’est dans cette voie qu’il faut s’engager pour sortir de la situation intenable devant laquelle nous nous trouvons. C’est-à-dire une situation où chaque décision est critiquée par les mêmes acteurs pour des raisons opposées, balançant entre défense de la liberté d’expression et protection de l’ordre public.

Un mécanisme d’audit pour aboutir à des décisions légitimes

Définir de façon démocratique les catégories de contenus qui posent problème est un processus laborieux et perpétuel. C’est pourquoi, dans le rapport Internet : le péril jeune ?, nous soulignons la nécessité de développer la capacité d’audit des opérateurs de réseaux sociaux. Comme nous l’avons détaillé, la transparence de ces acteurs quant aux décisions prises est une condition sine qua non du traitement des contenus problématiques. Cependant, la transparence dépend autant de la confiance des plateformes dans les pouvoirs publics que de la confiance des pouvoirs publics dans les plateformes. Cette confiance peut être renforcée par des mécanismes de vérification.

Du côté des pouvoirs publics, croire en la seule bonne foi des plateformes serait vain. Mais demander légalement l’accès à des informations tout en développant une capacité de vérification de ces informations (comme c’est le cas dans le secteur financier) accroîtra la confiance dans la procédure. Du côté des plateformes, le risque de dévoiler les rouages de la modération, la multiplicité de cas conflictuels et les mécanismes souvent imparfaits de prises de décision est majeur. Pourtant, ce n’est qu’en comprenant finement et collectivement la complexité de ces rouages que nous pourrons avancer. Les pouvoirs publics doivent dans un premier temps encourager la transparence en ne sanctionnant que les entraves systématiques et répétées de règles déjà établies (par exemple concernant la circulation de contenus pédopornographiques ou terroristes).

Ce mécanisme d’audit doit être évolutif afin de prendre en compte l’émergence de nouvelles situations problématiques. Il doit aboutir à un environnement dans lequel les pouvoirs publics et les plateformes échangent des informations sur les méthodes d’identification et de suppression de contenus. Il doit amener à une compréhension fine de la complexité de la situation dans laquelle nous sommes collectivement.

 

 

Copyright : Olivier DOULIERY / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne