Aller au contenu principal
En ce moment
Exemple : Education, Europe, Santé

Liberté d'expression et réseaux sociaux : l'impasse de la modération

Analyses - 11 Janvier 2023

La modération des réseaux sociaux est-elle une chimère ? Opaque, partielle ou partiale, dénoncée par les utilisateurs comme par les régulateurs, elle semble aujourd’hui dans une impasse. L'assaut contre les lieux de pouvoir au Brésil début janvier 2023, largement organisé sur les réseaux sociaux, en illustre une fois encore les limites et les dangers. Face à la multiplication des scandales (Cambridge Analytica, Facebook files, etc.), quelles évolutions peut-on concrètement attendre ? Pour Asma Mhalla, spécialiste des enjeux politiques et géopolitiques de la Tech, membre du Laboratoire d'Anthropologie Politique de l'EHESS/CNRS, la modération seule ne saurait être l’alpha et l’oméga de notre réflexion. Les enjeux que les réseaux sociaux charrient - démocratiques, géopolitiques, liberté d’expression - appellent une prise de conscience plus forte encore. Elle nous livre dans ce papier sa réflexion sur le sujet.

 

Les réseaux sociaux seraient-ils devenus anti-démocratiques ? Du scandale Cambridge Analytica à la prise en main de Twitter par Elon Musk, en passant par les Facebook files de 2021, la question se pose aujourd'hui avec une acuité toute particulière.

La réponse est loin d'être évidente. Il n'en reste pas moins que les réseaux "commodisent" les idées, polarisent et invisibilisent certaines paroles, en sur-visibilisent d'autres suivant des pondérations opaques. Si (et seulement si) la démocratie libérale était un marché, encore faudrait-il que la libre concurrence de la parole soit assurée, c'est-à-dire qu'elle ne soit pas faussée. Or dans leur forme actuelle, les réseaux, plutôt que d'horizontaliser équitablement la parole de tous, ont été nervurés de failles systémiques qui fragilisent l'exercice démocratique. Failles de modération, involontaires ou non, ingérences et désinformation à échelle industrielle, polarisation et brutalisation du débat public, doute philosophique et juridique sur ce que doit désormais être la liberté d'expression, son cadre, ses limites. Les démocraties occidentales ont perdu la maîtrise du discours et des débats qui les traversent. Face à cela, la modération seule ne peut être l’alpha et l’oméga de notre réflexion politique. 

Entrer dans la Technopolitique par le Triptyque des BigTech

Pour comprendre les sous-jacents technopolitiques posés par les réseaux sociaux, devenus des infrastructures informationnelles géantes - à l'instar de BigTech telles que Meta, Google ou désormais Twitter ou Tiktok - nous pouvons exposer les enjeux sous forme d'un triptyque aisé à comprendre : modèle économique x modèle technologique x modèle idéologique. 

Chaque angle du triptyque est imbriqué aux deux autres pour que le système BigTech fonctionne. Appliqué au cas particulier des réseaux sociaux, cela donne  : 

  • un modèle économique, celui de la concentration capitalistique, de la gratuité et de la captation massive de données monétisables (en attendant de glisser vers des modèles payants actuellement en test) ;
  • un modèle technologique, celui des algorithmes de modération et de recommandation, qui permet la viralité en temps réel des contenus et donc la captation cognitive des utilisateurs ;
  • un modèle idéologique ou un agenda politique, permis par les deux premiers angles, qui se matérialise par la politique de modération choisie et qui renvoie souvent à "l'arbitraire" des décisions prises à la tête des réseaux.

Le cas de Meta est symptomatique de l'imbrication des trois angles. Les Facebook Files ont démontré une partialité dans la modération, à géométrie variable, de certains contenus pour des raisons politiques. 

Les Facebook Files ont démontré une partialité dans la modération, à géométrie variable, de certains contenus pour des raisons politiques. 

Ces décisions seraient arbitrées par Mark Zuckerberg en personne. Lors des manifestations faisant suite à la mort de Georges Floyd, Mark Zuckerberg aurait personnellement décidé de maintenir en ligne les posts de Donald Trump - que Zuckerberg par l'intermédiaire de Peter Thiel, alors actionnaire de Facebook, a fréquenté personnellement - qui incitaient explicitement à la violence. Sous d'autres cieux, toujours en 2020, le Vietnam a demandé à Zuckerberg de modifier sa politique de modération locale conformément à une loi punissant les prises de position critiques à l'égard du gouvernement.

Zuckerberg aurait alors décidé unilatéralement d'accéder à la demande. Début 2022, c'est le gouvernement ukrainien qui a interpellé Meta sur Twitter pour exiger une censure active de certains comptes russes. Là encore, Meta a obtempéré. Un peu plus tard, le réseau a décidé d’opérer une modération très légère de publications ukrainiennes incitant à la violence contre les soldats russes, puis acté, sans concertation, en avril 2022, de limiter le rôle de son Oversight Board, qui exprimait des "préoccupations constantes en matière de sûreté et de sécurité" dans le contexte complexe de la guerre d’Ukraine. Sur le volet économique, le problème de gouvernance est encore plus tranché. Le modèle d'affaires des réseaux sociaux (gratuité, viralité) est un point bloquant à toute politique de modération réellement efficace. Un article de la MIT Technology Review a mis en évidence cette contradiction au cœur du problème. L'enquête révèle que Meta et Google ont versé des millions de dollars de publicité à certains acteurs du clickbait (pièges à clics en français), alimentant la détérioration des écosystèmes d'information. Partant de là, à quoi bon revendiquer des efforts en matière de modération d’un côté, si de l'autre ces mêmes plateformes financent des sites spécialisés dans la désinformation ?

Twitter est l'autre cas emblématique. C'est bien sur les deux premiers angles du triptyque (économique, technologique) qu'Elon Musk a voulu jouer pour "nettoyer" Twitter des faux comptes et des bots afin de donner corps à sa vision de la liberté d'expression (angle idéologique). Sa proposition d'abonnement payant participait de la mise en application de notre triptyque. Démonstration : sur le plan idéologique, Musk souhaitait faire appliquer sur Twitter une liberté d'expression maximaliste. Cela s'est traduit en modèle technologique : la contrepartie d'une liberté d'expression maximale est une modération minimale. Ce qu'il a entrepris d'appliquer en organisant des coupes réglées dans les équipes de modérateurs ou en testant, de façon plus ou moins erratique, diverses formules algorithmiques de recommandation

Pour résoudre "à la racine" le problème de la modération, il s'est appuyé sur le dernier angle du triptyque, le modèle économique. Pour assurer un débat "sain", il a proposé d'instaurer aux "frontières" du réseau un droit d'accès payant. Si en théorie le raisonnement se tenait, en pratique, le tarif était soit trop élevé donc dissuasif pour la majorité de sa base d’utilisateurs actifs - ce qui aurait mis à risque la rentabilité du réseau déjà en difficulté - soit trop bas et donc, à l'inverse, pas assez désincitatif pour les fermes à trolls et autres fabriques de fake news qui y sévissent.

Pour résoudre "à la racine" le problème de la modération, il s'est appuyé sur le dernier angle du triptyque, le modèle économique.

En ce sens, ses difficultés sont identiques à celles des régulateurs européens qui se confrontent au même casse-tête de la modération ex-post (et fort heureusement, la modération "prédictive", sur le modèle du "predictive policing", qui prédirait le contenu des publications des utilisateurs avant même que ceux-ci ne soient passé à l'acte, n'est fort pas encore à l'ordre du jour !). Pour le moment, Musk n'arrive pas à résoudre la quadrature du cercle car on ne commodise pas une valeur, la liberté, comme on fabrique des voitures ou des fusées. Tout le dilemme muskien est là. Il est, enfin, intéressant de noter que son arrivée à la tête de Twitter a créé un appel d’air pour l'alt-right et des groupes conspirationnistes de tous bords, Qanon au premier chef qui se métamorphose progressivement en un mouvement politique à part entière. Ses propres prises de position politiques (de plus en plus proches de l'Alt-Right, probablement, sous l'influence de ses ex-comparses de la "Paypal mafia", Peter Thiel, encore lui - Thiel a récemment investi dans Rumble, réseau fréquenté par l'AltRight et les Qanon - ou David Sacks) et idéologiques (long-termisme) brouillent encore plus les frontières du légal, de l’arbitraire et du légitime. L'invasion du Capitole le 6 janvier 2021, et plus récemment encore celle des principaux lieux de pouvoir à Brasilia le 8 janvier 2023, soulignent une fois de plus le rôle de prescription idéologique et politique des réseaux sociaux ou plus exactement de ceux qui les dirigent. Dans ces deux cas, les tergiversations de la direction (cas du Capitole) ou les décisions personnelles de Musk, enchevêtrées entre vision politique ("free-speech" absolu, notamment celui de l'extrêmes-droite) et intérêts économiques au Brésil, permettent de donner une caisse de résonance aux mouvements insurrectionnels. 

Enfin, Tiktok, que la FCC (Federal Communications Commission) tente de bannir des États-Unis sous l'impulsion du Commissionner républicain Brendan Carr, a connu son premier revers en décembre 2022 suite à l'interdiction du réseau des appareils gouvernementaux sur fond de rivalité technologique sino-américaine. Le cas Tiktok répond aux mêmes injonctions de notre triptyque : modèle économique (hyper-viralité ciblant les adolescents prioritairement) poussé par le modèle technologique (Tiktok a développé l’algorithme de recommandation le plus efficace du marché) et servant, selon certains décideurs américains, une politique de captation des données à des fins d'espionnage, de manipulation et d’ingérence par Pékin. L'UE s'est également saisie du sujet

Des acteurs géopolitiques hybrides

Le problème devient encore plus complexe quand la géopolitique du cyberespace s'en mêle. Les "luttes informationnelles" qui font rage ont mis en lumière un autre aspect, celui de la militarisation des réseaux sociaux devenus le théâtre d'opérations de cyber-déstabilisation, domaine hautement investi par les États. La guerre en Ukraine ou la confrontation franco-russe au Sahel pointent là encore le changement d’échelle, donc de nature, de ces nouveaux espaces de confrontation entre nations. 

L'usage (para-)étatique des réseaux aggrave la question de la modération pour l’emmener sur le champ sensible des stratégies militaires d'influence. 

Les guerres informationnelles qui s'y jouent sont désormais industrialisées, s'épanouissent à bas coût et à bas bruit sur des réseaux sociaux devenus partie intégrante de l'arsenal des guerres hybrides dont les trois matières premières et intangibles sont : les modèles artificiels de viralité, l'information (et son corollaire, la désinformation), nos schémas cognitifs et perceptifs. L'usage (para-)étatique des réseaux aggrave la question de la modération pour l’emmener sur le champ sensible des stratégies militaires d'influence. 

Enfin, le métavers démultipliera la difficulté de modération. Si aujourd'hui il s'agit de développer des algorithmes sur la base d’éléments essentiellement écrits, l'injection de narratifs à des fins de déstabilisation se fera demain par la parole, entre avatars. Comment alors contrôler ce qui se dit, et non ce qui s'écrit, sans tomber dans la paranoïa, la censure et in fine, dans des pratiques techno-autoritaires que l'on rejette ? Vaste question que la seule modération ne permettra pas de résoudre. 

Autrement dit, les réseaux sociaux sont devenus des acteurs systémiques, des espaces d’influence et de puissance au cœur des dispositifs de pouvoir, incontournables dans le champ "cyber-hybride" mais aussi pour la redéfinition des contours de nos modèles démocratiques. 

L'impossible modération

À tort donc, notre débat public s'est focalisé sur la question de la modération. Et même si on laissait de côté les dimensions purement politiques et géopolitiques évoquées plus haut, la modération reste pour l'instant un pari fort difficile à relever et cela, pour deux raisons.

Sur le plan opérationnel, pour faire face à une volumétrie de contenus immense, poreuse, transfrontalière et devenue ingérable pour les capacités humaines, nous n'avons d'autre choix que d'automatiser. 

Pour rappel, Twitter n'a pratiquement plus d'équipes de modérateurs et, avant l'arrivée de Musk, le réseau n'employait que 2 000 modérateurs pour plus de 300M utilisateurs actifs dans le monde. 15 000 modérateurs du côté de Facebook pour près de 3 Mds d’utilisateurs actifs dans le monde. Au-delà de la simple question de la faisabilité technique d'une industrialisation de cette ampleur, l'automatisation de la modération pose deux problèmes. D'une part, recourir exclusivement à des algorithmes de modération qui sont parfaitement faillibles, contiennent des biais, peuvent se tromper, ne pas assez modérer, sur-censurer, etc, peut amplifier les failles plutôt que les corriger.

Pour faire face à une volumétrie de contenus immense, poreuse, transfrontalière et devenue ingérable pour les capacités humaines, nous n'avons d'autre choix que d'automatiser.

En outre, il peut arriver que les ingénieurs eux-mêmes ne soient plus en mesure de retracer rétroactivement l'architecture d’algorithmes de recommandation les plus complexes ("reverse engineering"), résultat de couches et de surcouches complexes de modifications et de mises à jour successives au fil des années et qui finissent parfois par leur échapper. En somme, la data science qui nourrit les modèles algorithmiques est à ce stade utile mais parfaitement imparfaite. D'autant qu'automatiser ne suffit pas, il faut également contextualiser aux lieux, aux environnements culturels et politiques, aux situations, etc. Comment alors automatiser, autrement dit standardiser, tout en contextualisant ? L'équation technique est loin d’être résolue. Or la liberté d'expression est une valeur bien trop importante pour jouer aux apprentis sorciers. Ensuite, automatiser la modération suppose de décomposer la "chaîne de valeur" d'un signalement ou d'un contenu à modérer. Cela signifie qu'il faudrait non seulement automatiser les algorithmes de la plateforme en aval mais aussi automatiser à échelle industrielle tout ou partie des services régaliens de l'État et des régulateurs qui interviennent en amont et en aval, comme par exemple les plateformes de signalement (Pharos, Thésée ou cybermalveillance par exemple en France), des procédures policières et judiciaires, donc le travail des policiers et des juges. En France, le pôle d'expertise, le Péren, expérimente des solutions technologiques d’audit au service des administrations mais les "preuves de concept" ne sont pas encore à l'échelle pour le moment. Le risque de dérives est trop grave pour se le permettre en l'état de la maturité des technologies et des compétences et capacités humaines en face. D'autant que le service public n'est aujourd'hui pas en mesure de lancer ce type de chantier de transformation herculéen aussi bien d'un point de vue budgétaire qu'organisationnel. 

Sur un plan plus philosophique, comment définir les limites de la modération pour ne pas tomber dans l'écueil de la censure ? 

Sur un plan plus philosophique, comment définir les limites de la modération pour ne pas tomber dans l'écueil de la censure ? Où doit s'arrêter cette liberté d'exprimer ses idées et ses convictions ? Dans des démocraties libérales qui se polarisent outrancièrement, comment se mettre d'accord sur ce qui est réputé "vrai" ou "faux" pour faire société ? Cela pose la question non pas de "la" vérité mais de notre "régime de vérité", c'est-à-dire nos valeurs, notre vision du monde et le projet politique que l'on y associe.

Aux États-Unis, le problème a été posé en creux par Trump (rappelez-vous ses "alternative facts") puis par Musk. Ces polémiques ont permis de visibiliser la panne politique américaine, n'arrivant plus à définir ce que doit être la liberté d'expression : est-ce la vision maximaliste de Musk ou celle plus modérée et pro-réglementation des Démocrates ? Les États-Unis semblent empêtrés dans cette question existentielle hautement inflammable et accessoirement, ligne de clivage importante sur l’échiquier politique étasunien.

Appréhender l'amont

Nous faisons fausse route en réduisant une question aussi structurante que la remise à niveau de notre modèle politique à un seul versant du problème, son aval, quand c'est déjà trop tard. Car, par nature, la modération tente de corriger ex-post des contenus problématiques quand le mal est déjà fait. Le solutionnisme techno-normatif atteint un plancher. 

La réponse ne viendra pas des États-Unis, à la croisée des chemins de leur histoire démocratique. En Europe, nous avançons avec le Digital Services Act dont le principal intérêt réside dans sa philosophie générale : le règlement territorialise des plateformes de droit américain et leur impose nombre d'obligations de moyens en matière de modération et de respect de la vie privée, notamment celles des mineurs. Si le DSA est un très bon texte, sa mise en œuvre effective reste à démontrer. Elon Musk sera un excellent "stress test" pour la Commission Européenne.

Si l'on se place à un niveau "système", nous gagnerions à élargir le champ de l'action sur au moins deux volets qui se situent en amont de la modération. D'une part, il va être nécessaire de traiter le cœur du sujet en lançant des discussions transatlantiques pour une meilleure gouvernance de réseaux sociaux, nouvelles entités hybrides - à la fois espaces publics, espaces de luttes informationnelles dans le cyberespace et entreprises privées - qui ne peuvent plus rester ces boîtes noires, au croisement d'enjeux politiques et géopolitiques structurels.

Il va être nécessaire de traiter le cœur du sujet en lançant des discussions transatlantiques pour une meilleure gouvernance de réseaux sociaux.

Nous pourrions envisager des formes de co-gouvernance dont les modalités seront certes longues à instruire mais impossibles à éviter en l’absence de souveraineté technologique européenne. 

En parallèle, il va surtout falloir nous habituer à composer avec la permanence d'opérations étrangères d'intoxication informationnelle qui risquent de s'inscrire organiquement dans les systèmes de valeurs et de croyances d'une fraction de la population en convergeant parfois avec ce que l'on peut appeler une "Internationale conspirationniste". L'objectif politique final est que cela, non pas n'existe pas, car c'est impossible en démocratie, mais ne métastase pas pour se muer à terme en mouvement insurrectionnel. Pour contrer ces stratégies de cyber-déstabilisation, la majorité silencieuse de la société civile doit être massivement sensibilisée à ces questions (nous ne parlons plus ici de modules de quelques heures au collège mais d'une appréhension civilo-militaire du sujet) et cela pour lui permettre de naviguer en eaux troubles. Dans le domaine de la guerre informationnelle, chaque cerveau devient potentiellement un champ de bataille. Charge donc à chaque nation d'armer cognitivement sa démocratie, une sécurisation de la démocratie en somme. Les exemples du Canada, la Finlande ou Israël sont à cet égard intéressants à regarder. 

Ces choix que nous devons avoir le courage d'aborder seront d'autant plus critiques que les démocraties occidentales sont poussées à clarifier rapidement leur modèle face à deux autres pôles, Russie et Chine, dont la vision techno-autoritaire a, en apparence, réglé le problème depuis longtemps. 

 


Copyright image : JOEL SAGET / AFP

 

A voir aussi
  • Commentaires

    Ajouter un commentaire

    À propos des formats de texte

    Commentaire

    • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
    • Les lignes et les paragraphes vont à la ligne automatiquement.
    • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
    • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

...

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017