Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
20/06/2019

Le challenge de la modération de contenu

Imprimer
PARTAGER
Le challenge de la modération de contenu
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

La question de la modération des contenus fait beaucoup parler d’elle. Alors que les gouvernements demandent aux acteurs privés de prendre des mesures concrètes pour empêcher la circulation de certains types de contenus en ligne, analystes et universitaires cherchent à savoir dans quelle mesure ces initiatives sont dangereuses pour la liberté d'expression. Afin de contribuer à ce débat, l'Institut Montaigne a souhaité recueillir l’avis de plusieurs experts sur la question et publiera dans les prochaines semaines une série d’articles issus de ces entretiens. Voici l’introduction de cette série.


"Il n'y a pas de race. Il n'y a pas de sexe. Il n'y a pas d'âge. Il n'y a pas d'infirmités. Il n'y a que des esprits. S’agit-il d’une utopie ? Non. Il s’agit d’Internet." ("There is no race. There is no gender. There is no age. There are no infirmities. There are only minds. Utopia? No. The Internet.") Ces phrases, issues d’une publicité de la société américaine de télécommunications MCI datant de 1997, cristallisent les espoirs et les rêves d'émancipation et de liberté suscités dans les années 1990 par l'essor du cyberespace. De l'eau est passée sous les ponts depuis, et les idéaux supposant qu’en ligne l’équité et la communication pacifique coulaient de source se sont avérés faux. Ces dernières années, on le sait, ont été caractérisées par une prolifération de discours haineux et violents sur les réseaux sociaux. C’est cette prolifération qui conduit aujourd’hui de nombreux pays à se saisir de la question pour réguler ce qu’il est parfois convenu d’appeler "le village planétaire" ("global village"). 

C’est pourquoi la France accorde une attention toute particulière aux enjeux de la modération des contenus. Le 20 mars dernier, la députée et membre de la commission des Lois Laëtitia Avia a déposé une proposition de loi "visant à lutter contre la haine sur internet". Le 10 mai dernier, Emmanuel Macron a accueilli Mark Zuckerberg au Palais de l'Elysée pour évoquer avec lui les régulations des plateformes internet, et plus particulièrement la question des discours de haine sur Facebook. Ces discussions se sont tenues un an après le sommet Tech for Good, au cours duquel Facebook et le gouvernement français avaient initié une collaboration visant à améliorer la modération des contenus sur ce réseau social. Cette initiative française a donné lieu à la publication ce 10 mai d’un rapport formulant des recommandations pour améliorer la responsabilité sociale des plateformes. Cinq jours plus tard, Emmanuel Macron rencontrait Jacinda Ardern, Première ministre néo-zélandaise, pour lancer l'appel de Christchurch à la suite des attaques de la mosquée de Christchurch le 15 mars, diffusées en direct sur Facebook.

Une variété de contenus concernés

Il y a plusieurs types de contenus que les gouvernements veulent voir interdits. Ces derniers incluent notamment :

  • les contenus illégaux, comme les contenus à caractère raciste, les discours discriminatoires fondés sur la religion, le genre ou l’orientation sexuelle, ou les propos niant l’existence de crimes contre l’humanité comme l'Holocauste ;
  • les contenus défendant ou alimentant la propagande terroriste ;
  • la pornographie et le sexe sur les réseaux sociaux publics, notamment à destination de la jeunesse ; 
  • les contenus violents diffusés en direct, comme les fusillades de Christchurch  ;
  • enfin, la désinformation et la diffusion intentionnelle d’informations fausses, fabriquées pour déstabiliser les cycles électoraux à la fois à l’intérieur et hors des pays où se tiennent ces scrutins.

Les contenus que les gouvernements veulent éliminer sont souvent les plus extrêmes : il s’agit de propos manifestement infondés, violents, pornographiques, racistes, ou discriminatoires...

Dans chacun des cas mentionnés, les contenus que les gouvernements veulent éliminer sont souvent les plus extrêmes : il s’agit de propos manifestement infondés, violents, pornographiques, racistes, ou discriminatoires... (il est facile de tomber d’accord sur les raisons pour lesquelles de tels contenus doivent être supprimés). Cependant, il y a toujours des zones grises pour lesquelles la réponse est plus délicate à trouver. Par exemple, en France, la loi relative à la lutte contre la manipulation de l'information, approuvée en 2018, crée une action judiciaire en référé pour que la circulation de fausses nouvelles puisse être arrêtée pendant les campagnes électorales.

C'est alors le juge des référés qui doit qualifier l’information en tant que "fausse nouvelle", sur la base de trois critères :

  1. "- la fausse nouvelle doit être manifeste,
  2. - être diffusée massivement et de manière artificielle,
  3. - conduire à troubler la paix publique ou la sincérité d’un scrutin."

Comment traiter les zones grises : information vraie, information fausse ? Légitime, ou illégitime ?

Ce projet, souvent contesté, a fait couler beaucoup d’encre : quelle est la portée du terme "manifeste" ? Peut-on vraiment établir une distinction claire entre ce qui est faux et ce qui est vrai ? Appartient-il à un juge d’en décider ? Ces questions ne peuvent être balayées d’un revers de main, d'autant plus que des chercheurs en sciences sociales d'un large éventail de disciplines, comme Bruno Latour, s'interrogent depuis longtemps sur la notion-même de fait objectif. Suivant cette réflexion, les faits ne sont pas seulement "là", attendant d’être découverts : ils résultent d’une construction réalisée par des scientifiques dans un environnement humain marqué par des dynamiques de pouvoir. Par conséquent, la question de savoir qui affirme l'objectivité d'un fait importe beaucoup.

En ce qui concerne plus généralement la modération des contenus, le point de vue à partir duquel un contenu est considéré comme "approprié" est essentiel. Modérer du contenu, c’est bien en supprimer, et c’est donc, dans une certaine mesure, censurer. La question finale, délicate, est ainsi la suivante : "à partir de combien de personnes, qui se sont accordées sur la nécessité d’une censure d’un contenu, peut-on considérer cette censure comme légitime ?". Prenons par exemple les voix s’élevant pour contester l'existence du changement climatique. Ces voix sont rares en France, mais aux États-Unis, nombreux sont ceux qui doutent de la réalité de ce phénomène. Faut-il interdire ce type de propos pour la simple et bonne raison qu'une grande majorité de scientifiques ont prouvé qu’une telle négation était infondée ? Il s’agit là de débats très clivants.

Complications techniques

Aux considérations autour de la notion de légitimité, s’ajoute une question technique liée à la suppression des contenus. Aujourd'hui, des plateformes comme Facebook investissent d’importants montants pour créer des outils utilisant l'intelligence artificielle dans la détection de types spécifiques de contenus (nudité, fake news, discours haineux). À la suite du scandale de Christchurch, Facebook a récemment annoncé un investissement de 7,5 millions de dollars visant à améliorer la technologie d'analyse d'images et de vidéos afin d'identifier les doublons et de les supprimer plus rapidement. L'efficacité de la technologie utilisée varie selon le type de contenu. Par exemple, dans un article de Wired, Nicholas Thompson et Fred Vogelstein rapportent que, sur Facebook, "le taux de réussite d’identification de la nudité est de 96 %". Pourtant, ce taux n’est plus que de 52 % pour les discours haineux.
 
Malgré la relative exactitude de la technologie de catégorisation d'un contenu montrant la nudité, il lui arrive de faire, dans certains cas, des choix erronés. Le livre de Tarleton Gillespie sur la modération des contenus, Custodians of the Internet, commence par l'exemple de la célèbre photographie de Nick Ut en 1972, The Terror of War, sur laquelle une petite fille court nue alors qu'un village brûle dans le fond. La photographie montre de la nudité, doit-elle être pour autant supprimée ? Ici, il est difficile pour l'algorithme de prendre en compte la dimension historique de l'image. De telles erreurs de classification se produiront inévitablement. Si les plateformes sont sanctionnées pour avoir laissé passer du contenu inapproprié (en l'occurrence de la nudité), d’aucuns affirment qu’elles préféreront filtrer plus de contenu que nécessaire afin d’éviter de payer de lourdes amendes.

Deux exemples : des initiatives en France et au Royaume-Uni

Comme mentionné plus haut, le gouvernement français a commencé à prendre des mesures pour se saisir de la question et contrer la propagation et la conservation des discours haineux en ligne. La proposition de loi présentée par Laëtitia Avia en mars, qui met l'accent sur cette question, propose d'obliger les plateformes à supprimer tout contenu incitant à la haine dans les 24 heures qui suivent sa publication. Elle recommande également de simplifier les processus actuels par lesquels les utilisateurs de la plateforme peuvent signaler ces discours haineux et souligne la nécessité pour les plateformes d'être transparentes quant aux processus qu'elles utilisent elles-mêmes. Laëtitia Avia a également précisé que la proposition de loi, qui sera examinée par le Parlement français en juillet, proposera d'ériger en infraction pénale le fait pour les plateformes de ne pas supprimer les contenus à caractère haineux. À l'inverse, la députée française a signifié qu’une censure excessive de la part des plateformes devrait aussi être sanctionnée. Enfin, il est attendu qu'une instance de régulation soit désignée pour superviser la mise en œuvre de cette nouvelle loi.

Le rapport français du 10 mai visant l'accroissement de la responsabilité des plateformes de réseaux sociaux en matière de modération des contenus adopte une approche différente de celle de cette proposition de loi axée sur les sanctions. Le rapport introduit de nouvelles formes de corégulation et vise à favoriser la responsabilité citoyenne des plateformes en encourageant l’internationalisation de ces objectifs sociétaux à travers des notions comme l’"accountability by design", soit la responsabilité dès la conception. Selon ce rapport, le rôle des pouvoirs publics français et européens devrait principalement résider dans l’établissement d’obligations de transparence, afin de s'assurer que les plateformes restent responsables et que les mécanismes d'autorégulation ainsi préconisés portent les fruits attendus.

La proposition de loi recommande également de simplifier les processus actuels par lesquels les utilisateurs de la plateforme peuvent signaler ces discours haineux et souligne la nécessité pour les plateformes d'être transparentes quant aux processus qu'elles utilisent elles-mêmes.

La France n'est pas le seul pays à avoir tenté de mettre en place un cadre réglementaire pour la modération des contenus en ligne. Le Department for Digital, Culture, Media & Sport and Home Office britannique a présenté un Livre blanc sur les préjudices en ligne au Parlement britannique au mois d’avril ; ce document devrait aboutir à l'élaboration d'une réglementation au cours de l'été. Il est similaire au rapport français publié en mai, en ce sens qu'il souligne la responsabilité des plateformes de réseaux sociaux et exige davantage de transparence de la part de ces dernières. Le Livre blanc britannique recommande aux pouvoirs publics de veiller à ce que les plateformes respectent le devoir de vigilance ainsi défini, et comprend également la désignation d'un régulateur qui soit capable d'imposer des amendes en cas de non-conformité. 

En prévision des décisions attendues cet été dans les deux pays, l'Institut Montaigne a rassemblé les points de vue d'experts français, britanniques et américains. La série d’articles qui en résulte a pour objectif de se plonger dans les subtilités des zones grises identifiées et de réfléchir aux meilleurs moyens de trouver un équilibre entre la liberté d’expression et une expression en ligne respectueuse. Cette série sera coordonnée avec l'aide de Manon de La Selle, ancienne chargée de mission à l'Institut Montaigne et étudiante en médias et communication à la London School of Economics and Political Sciences (LSE).

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne