Aller au contenu principal
Exemple : Education, Europe, Santé

Désinformation : dépasser la modération des contenus

BLOG - 14 Novembre 2019

En Europe, la diversité des écosystèmes politiques, réglementaires et médiatiques crée une variété de situations dans la manière dont les campagnes de désinformation, d’origine étrangère ou nationale, affectent les espaces publics numériques. Dans le même temps, les écosystèmes des pays occidentaux sont sujets à des menaces communes. Afin de contribuer à l'agenda européen et lutter efficacement contre les campagnes de désinformation, l'Institut Montaigne a sollicité, dans le cadre d’un atelier de réflexion, un groupe international d'experts, réunissant le think tank allemand Stiftung Neue Verantwortung et l’Alliance for Securing Democracy au sein du German Marshall Fund. Le but de cet échange était de débattre des enjeux de la désinformation au sein de différents écosystèmes politiques, réglementaires et médiatiques, principalement les écosystèmes français et allemands, et d’identifier des pistes de solutions pour limiter l'impact des campagnes de désinformation.

Le présent article est une contribution commune inédite de ces trois structures et signée par les personnalités ayant participé à l'atelier. À l'heure où divers États sont forces d'initiatives en matière de régulation des contenus, l’objectif de cet article est de fournir une perspective large sur la désinformation, qui prenne en compte les spécificités de ces différents écosystèmes nationaux. Il vise, plutôt qu’à fournir une liste exhaustive de solutions, à aider les dirigeants politiques à mieux comprendre les nombreuses facettes de la désinformation et à identifier certaines actions possibles à court terme pour dépasser la simple réglementation des contenus.

Un environnement informationnel en évolution

Le rôle de la technologie et son interaction avec les médias

Les géants du numérique comme Facebook, Google et Twitter sont souvent tenus responsables de bon nombre des défis auxquels sont confrontés les sociétés démocratiques, parmi lesquels la désinformation, la polarisation et une certaine perte de confiance dans le processus et les institutions démocratiques. Bien que ces problématiques soient sans nul doute antérieures à la naissance des réseaux sociaux, la technologie soulève indéniablement des questions. Cela tient au fait que les plateformes numériques, comme les réseaux sociaux, les plateformes vidéo ou les moteurs de recherche, ont tendance à :

  • favoriser les discours forts et extrêmes : il a été prouvé que les contenus suscitant la colère et l’indignation maintiennent les internautes engagés dans les conversations en ligne et dans la mesure où les plateformes sont conçues pour maintenir l'attention des utilisateurs le plus longtemps possible, leurs algorithmes finissent par promouvoir des contenus sensationnels, et parfois faux ;
  • créer des espaces d'information segmentés et personnalisés, déterminés par des algorithmes, avec peu ou pas de garde-fou journalistique ;
  • bouleverser le modèle médiatique traditionnel en s’appropriant une grande partie des revenus des publicités en ligne, affaiblissant par la même occasion un journalisme déjà fragile, qu’il soit national ou local.

Il a été prouvé que les contenus suscitant la colère et l’indignation maintiennent les internautes engagés dans les conversations en ligne.

Les réseaux sociaux facilitent la manipulation de l’information, et certains gouvernements ont appris à s’en servir pour le faire, comme a pu le montrer le Computational Propaganda Project de l’Oxford Internet Institute dans un rapport sur la désinformation dans le monde. Néanmoins, il est important de noter que, si des efforts sont déployés, il existe aujourd’hui peu de preuves quant à l'impact de la désinformation sur l'attitude des électeurs. Par ailleurs, la désinformation emprunte aussi d’autres canaux que ceux des plateformes de réseaux sociaux.

La crainte de ne pas couvrir telle ou telle actualité peut conduire les médias traditionnels à diffuser accidentellement de la désinformation et, dans ce cas, à donner une plus grande visibilité aux informations fabriquées de toutes pièces. Par ailleurs, afin d'influencer l'opinion publique, certaines personnalités publiques comme les humoristes, personnalités politiques, célébrités, chefs d'entreprise, influenceurs ou journalistes ont désormais les moyens d'interagir directement avec les citoyens.

À la lumière de ces observations, un certain nombre de dimensions au-delà de la modération des contenus doivent être prises en compte par les dirigeants qui ambitionnent de minimiser l'impact de la désinformation et de l'ingérence politique. Il est tout d’abord nécessaire d'examiner l'environnement médiatique et réglementaire européen.

L'écosystème médiatique français

POLARISATION VERTICALE ET CONFIANCE LIMITÉE DANS LES MÉDIAS

Le rapport publié par l'Institut Montaigne en mai 2019 Media polarization "à la française" ? Comparing the French and American ecosystems montre que, contrairement aux Etats-Unis, l'écosystème médiatique français n'est pas divisé selon un axe gauche-droite. La polarisation s’y produit sur un axe vertical, opposant les "institutionnels" à ceux que l’on pourrait considérer comme "anti-élites". Dans l'ensemble, en France, la polarisation ne s’opère pas à l’intérieur de l’espace médiatique traditionnel. À la place, les médias grand public comme Le Monde, Le Figaro, Les Échos, Libération ou L'Obs s'opposent aux "nouveaux médias" émergents comme Russia Today, Fdesouche ou Sputnik.

Ces derniers se positionnent principalement à la droite du spectre politique, en dehors de l'espace traditionnel médiatique (qui regroupe des médias traditionnels de gauche à droite) et se font le relais d’opinions anti-élites. Ces dernières années, ces nouveaux médias ont gagné en audience et en visibilité. Plus intéressant encore, les médias partisans de droite comme Français de France et les médias relayant des informations peu fiables, comme la Presse Galactique et se citent parfois entre eux, augmentant ainsi la visibilité accordée à des informations douteuses.

La montée en puissance de ces nouveaux médias partisans doit être appréhendée dans un contexte de méfiance et de scepticisme croissants à l'égard des médias traditionnels français. Selon les données de 2017, analysées par le Pew Research Center pour l'Institut Montaigne, seuls 28 % des Français interrogés estiment que les médias d'information sont "très importants pour le fonctionnement de la société". À cet égard, il est intéressant de comparer la France à l'Allemagne, où ce chiffre atteint 61 %.

DES PRATIQUES PROFESSIONNELLES PARTAGÉES DANS LES MÉDIAS TRADITIONNELS

La polarisation verticale de l'espace médiatique français s'explique par les relations qui lient les principaux médias du "cœur" traditionnel, qui se citent régulièrement entre eux et s’en réfèrent rarement aux acteurs partisans se situant en dehors de leur groupe - en conséquence de quoi les médias se caractérisent par une prétention à l'objectivité. Les professionnels du domaine s'observent et évaluent la qualité de leur travail sur la base d'une déontologie partagée - l'initiative CrossCheck lors de la campagne 2017 l’illustre assez bien.

Le fait que l'État français finance une grande partie de ces médias peut également réduire les tensions entre les différents groupes médiatiques. À titre d’illustration, la redevance créée en 1933, connue depuis 2009 sous le nom de "contribution à l’audiovisuel public", est la principale source de revenus du service public français de radio et de télévision. Cette contribution finance environ 83 % du budget des cinq organismes publics de l’audiovisuel (France Télévisions, Arte France, Radio France, Audiovisuel extérieur à la France et l’INA). Le reste des recettes provient principalement de la publicité et du sponsoring.

Enfin, soulignons ce qui a trait au paysage politique : les États-Unis s'appuient sur un système bipartite qui contribue à cette tendance à la polarisation, contrairement à la France où la politique est structurée autour de plusieurs partis rythmant les cycles électoraux.

L'écosystème médiatique allemand

Comme ailleurs, l’Allemagne est marquée par une forte convergence des formats et des habitudes de consommations de médias, avec un effacement de la frontière entre diffusion en ligne et hors ligne, ou entre une diffusion linéaire et non linéaire. L’information en ligne contribue de plus en plus à la formation des opinions politiques des citoyens, donc au processus démocratique. Plusieurs caractéristiques font néanmoins de l'écosystème médiatique allemand un cas singulier en Europe, comme la confiance relativement élevée dans les médias traditionnels et l’héritage historique qu’est la structure mixte de l’audiovisuel allemand.

CONFIANCE ÉLEVÉE VIS-À-VIS DES MÉDIAS TRADITIONNELS, MAIS IMPORTANCE CROISSANTE DES RÉSEAUX SOCIAUX

L'écosystème médiatique qui façonne les opinions politiques allemandes est dominé par les chaînes de télévision traditionnelles. Une étude de la Stiftung Neue Verantwortung, conduite avant les élections fédérales allemandes de 2017, a révélé que les citoyens s’appuyaient principalement sur la télévision et la presse pour s'informer, et non sur l’information transmise via les réseaux sociaux. Le dernier Digital News Report publié par Reuters vient à ce titre confirmer ces enseignements. Cependant, de plus en plus d'Allemands s’informent par les réseaux sociaux et la consommation globale de l’information en ligne rattrape celle de l’information issue de la télévision. Si la télévision a encore une position dominante en ce qui concerne l’actualité politique, la différence entre les médias traditionnels et non traditionnels n'est désormais plus si grande du côté de l’information en ligne. Cela signifie que même avec un public plus restreint que celui des principaux radiodiffuseurs publics que sont l’ARD et la ZDF, un simple média de droite de niche, diffusé en ligne, peut peser dans les débats.

LE SYSTÈME MÉDIATIQUE MIXTE ALLEMAND

L’Allemagne est caractérisée par un système médiatique mixte avec un audiovisuel public et un audiovisuel privé. La confiance relativement élevée que les Allemands accordent aux acteurs de l’audiovisuel public tient probablement à la position particulière que ces derniers occupent au sein de l'écosystème médiatique du pays. L’audiovisuel public, qui se distingue des radios et chaînes de télévision privées, n'est pas géré par l'État et est supposé indépendant : comme le prévoient la Constitution allemande et de nombreuses dispositions de jurisprudence, les acteurs de l’audiovisuel public doivent rester à distance de l'État ("Staatsferne"). Ils bénéficient d’un financement public et sont supervisés par des organismes au niveau des Länder. Au fil des années, de nombreux débats politiques ont eu lieu sur la réforme de ce système et son adaptation à l'ère numérique. Plus récemment, les populistes de droite ont tenté de présenter les acteurs de l’audiovisuel public et la presse traditionnelle comme des machines de propagande gérées par l'État, en les qualifiant de "presse mensongère". Cela n’est pas sans écho avec la polarisation verticale qui caractérise la France, entre les "institutionnels" d’une part et les "anti-élites" d’autre part. Une étude récente menée sur l'audience des acteurs de l’audiovisuel public allemand a néanmoins démontré que ces derniers parvenaient à atteindre un public encore politiquement diversifié, de la gauche à la droite du spectre politique.

Au vu de ces contextes français et allemand, un certain nombre de facteurs sont susceptibles de renforcer l’efficacité de l'ingérence politique et d’accroître le succès des campagnes de désinformation. Ils sont ici analysés.

Campagnes de désinformation et ingérence politique dans les médias

Propriété des médias

En mai 2019, le vice-chancelier Heinz-Christian Strache, chef du FPÖ - parti autrichien d’extrême-droite alors au sein de la coalition gouvernementale -, est apparu dans une vidéo dans laquelle il discutait avec la prétendue nièce d'un oligarque russe. Parmi les transactions que tous deux ont évoquées figurait le projet du rachat d'un grand journal autrichien par les Russes, qui aurait permis une plus grande complaisance du journal vis-à-vis du FPÖ. Bien que la vidéo soit le résultat d'une opération d’infiltration, d’un piège, on peut noter deux éléments : premièrement, cette vidéo sous-tend que certains représentants de partis politiques européens n'ont aucun scrupule à obtenir un soutien de la part de régimes autoritaires étrangers pour accéder au pouvoir - ou le conserver, et deuxièmement, cela rappelle que l'achat de médias est l'une des méthodes auxquelles ces régimes peuvent recourir pour aider financièrement leurs alliés européens.

Même lorsqu'ils n’ont pas pour but premier de soutenir des partis politiques spécifiques, les rachats de médias par des États autoritaires étrangers servent des objectifs stratégiques. En République tchèque, en 2015, deux groupes de médias, Empresa Media et Médea, ont été rachetés par le conglomérat énergétique chinois CEFC. L'analyse réalisée par le groupe de recherche ChinfluenCE montre que ces rachats ont eu pour conséquence une couverture presque exclusivement positive de la Chine par les médias des deux groupes. L'exemple tchèque montre comment des États autoritaires étrangers utilisent, par le rachat de médias, leur pouvoir financier pour façonner l'opinion publique dans les démocraties occidentales.

En France, l'acquisition par le milliardaire tchèque Daniel Křetínský d'une participation importante au sein du groupe Le Monde n’a pas manqué de faire parler d’elle. Bien que Daniel Křetínský soit un citoyen européen et qu'il ait publiquement insisté sur le fait que l'achat était motivé par des considérations exclusivement économiques, Le Canard Enchaîné a révélé en octobre 2018 que cet homme, dont la société énergétique est un importateur majeur de gaz russe en Europe, était dans le viseur des services de renseignement français.

La montée en puissance des plateformes de réseaux sociaux basées dans des États autoritaires devrait tout autant nous préoccuper.

Au-delà de cette question de la propriété des médias traditionnels, la montée en puissance des plateformes de réseaux sociaux basées dans des États autoritaires devrait tout autant nous préoccuper. En 2018, TikTok est devenue la quatrième application la plus téléchargée au monde ; derrière elle, se trouve une start-up pékinoise. Au premier abord, TikTok permet simplement à ses utilisateurs de filmer et de partager des vidéos très courtes, l’accent étant mis sur les contenus divertissants et "viraux". Pourtant, sous couvert de divertissement, les propriétaires de l'application appliquent des règles de censure strictes qui rendent invisibles les vidéos mentionnant des sujets comme Taïwan ou les mobilisations à Hong Kong.

Opérations d'information en France et en Allemagne

Ni le gouvernement russe, ni le gouvernement chinois n'ont été directement impliqués dans des achats de médias en France ou en Allemagne, mais leurs médias publics diffusent de l’information dans ces deux pays. Moscou a été à ce titre particulièrement actif : Sputnik a une présence physique à Paris et à Berlin et Russia Today (RT) a ouvert un bureau parisien en décembre 2017. Ces deux médias publient des contenus en allemand et en français et ont rassemblé un nombre important d'adeptes en ligne. Russia Today est désormais le premier média français sur YouTube.

En mai 2017, le Président français, fraîchement élu, déclarait que "Russia Today et Sputnik […] se sont comportés comme des organes d'influence, de propagande et de propagande mensongère". En effet, dès janvier 2017, l'appareil médiatique d'État russe a lancé une vaste campagne de désinformation contre le candidat Macron, Sputnik le présentant comme un "agent américain" soutenu par un "très riche lobby gay". Cette campagne de désinformation s’est accompagnée d'une action de piratage subie par l'équipe de la campagne d’Emmanuel Macron, qui a suivi de près le modus operandi pratiqué par les groupes de cyberespionnage liés au renseignement militaire russe. Les documents acquis via ce piratage ont ensuite été divulgués au public avec l'intention de nuire à la candidature d’Emmanuel Macron. Dans son rapport définitif sur cette opération, l'expert français Jean-Baptiste Jeangène Vilmer explique que "la France n'a jamais officiellement attribué la responsabilité de la cyberattaque (...). [Les experts] reconnaissent, cependant, que les preuves disponibles dans cette affaire pointent vers la Russie".

En janvier 2016, l'Allemagne a, elle aussi, connu un cas de désinformation très médiatisé d’origine russe : des médias russes ont prétendu à tort qu'une jeune fille germano-russe avait été violée par des migrants. Bien que l'histoire se soit rapidement révélée fausse, les médias russes l'ont portée à l'attention des organes de presse allemands. Le Kremlin s'est directement impliqué dans l’histoire, le ministre russe des Affaires étrangères Sergueï Lavrov allant jusqu’à des déclarations publiques sur l'incapacité de l'Allemagne à faire face efficacement à la criminalité, à cause, selon lui, du "politiquement correct". Plus récemment, les médias chinois ont fait l’objet d’une attention croissante en Allemagne. En septembre 2018, les médias allemands ont rapporté que l'agence de presse chinoise Xinhua avait largement diffusé, par l'intermédiaire de la Deutsche Presse-Agentur (DPA), un bulletin très optimiste sur l'initiative des nouvelles routes de la soie de Xi Jinping. Cela s'inscrit dans un cadre plus large, celui de la volonté de Pékin d’influencer le débat public allemand.

Publicité politique

Le rôle des médias traditionnels se limite aux dernières étapes d'une campagne d’information moderne. La création et l'élaboration d'un récit clivant ont généralement lieu en ligne, par le biais de nombreuses plateformes différentes. Parallèlement aux "faux comptes" et aux robots qui confèrent une forte visibilité aux discours sensationnels, les États autoritaires étrangers ont également recours à la publicité politique en ligne. Aux États-Unis, les accusations portées par Robert Mueller ont révélé que des agents russes avaient acheté des publicités sur les principales plateformes de réseaux sociaux dans le but d’influencer les électeurs américains.

Pour l'instant, la plupart des États membres de l'UE n'ont pas assez actualisé leurs lois sur la publicité politique pour pouvoir y inclure la publicité en ligne.

Ces agents ont exploité de deux façons différentes les services publicitaires fournis par ces plateformes. Ils ont d’abord profité de l'absence de contrôles de sécurité pour dissimuler leur identité et se faire passer pour des Américains. Ils ont ensuite utilisé les outils de ciblage sophistiqués que ces plateformes offrent aux entreprises pour viser des publicités sur des citoyens présentant une sensibilité particulière à ce type de contenus.

Par exemple, l'Internet Research Agency, usine à trolls basée à Saint-Pétersbourg, a diffusé sur Facebook des publicités centrées sur la culture afro-américaine, puis a ciblé les électeurs afro-américains dans le but de les convaincre de s'abstenir de voter aux élections présidentielles de 2016.

Bien que certaines entreprises de réseaux sociaux aient déjà construit des bases de données publiques sur les publicités politiques diffusées sur leurs plateformes, ces bases de données ne contiennent pas de renseignement essentiel, comme par exemple les critères que les annonceurs utilisent pour cibler des segments particuliers du public. Cette situation entrave la capacité des chercheurs à saisir la manière dont les publicités en ligne s'intègrent dans des opérations d'information plus vastes. Une solution au problème résiderait dans la possibilité que les gouvernements interviennent et légifèrent sur cette question ; pour l'instant, la plupart des États membres de l'UE n'ont pas assez actualisé leurs lois sur la publicité politique pour pouvoir y inclure la publicité en ligne.

Systèmes de réglementation

La modération des contenus en France et en Allemagne

Jusqu'à présent, les réglementations sur la désinformation ont principalement porté sur le contenu lui-même. Le tableau suivant détaille les réglementations relatives au contenu en Allemagne et en France. En France, il s’agit notamment de la loi de novembre 2018 "contre la manipulation de l'information" et de la proposition de loi, toujours en discussion, de "lutte contre la haine sur internet" ; côté allemand, il s’agit de la loi NetzDG "pour une meilleure application de la loi sur les réseaux sociaux". La loi NetzDG ne traite pas explicitement de désinformation car elle couvre plutôt les contenus illégaux, mais comme il s'agit de la première, et de la seule, loi allemande traitant spécifiquement des réseaux sociaux, il convient d’en faire un examen approfondi.

APERÇU DES APPROCHES LÉGISLATIVES FRANÇAISE ET ALLEMANDE SUR LA MODÉRATION DES CONTENUS

5
  France Allemagne
Loi contre les "fake news" Loi contre la haine sur internet Loi NetzDG
Définition du contenu Les "fake news" (ou fausses nouvelles) sont définies selon trois critères :
- la nouvelle doit être manifestement fausse ;
- il faut que sa diffusion soit délibérément massive ;
- et qu’elle conduise à perturber la paix sociale ou à compromettre les résultats d’une élection.
Les contenus haineux sont définis comme tout contenu publié sur internet faisant l’apologie des crimes contre l’humanité, incitant (ou promouvant) des actes terroristes, à la haine, à la violence, à la discrimination mais aussi relevant d’une insulte à l’égard d’une personne ou d’un groupe d’individus, fondée sur l’origine, la prétendue race, la religion, l’appartenance ethnique, la nationalité, le sexe, l’orientation sexuelle, l’identité de genre ou le handicap, que ceux-ci soient réels ou présumés. Les contenus illégaux sont définis par le code pénal allemand : utilisation de symboles caractéristiques d’organisations inconstitutionnelles, incitation à la haine, diffamation fondée sur les religions, associations religieuses et idéologiques.
Procédure de réglementation - Les principales dispositions ne s’appliquent que pendant les trois mois précédant les élections.
- Lors de cette période, les plateformes doivent faire preuve de transparence quant à la publicité de contenus liés aux débats publics (c’est-à-dire indiquer le nom de l’annonceur et le montant payé).
- Tout candidat, parti politique, toute association de citoyens ou tout individu peut saisir le juge des référés pour demander de faire cesser la diffusion de contenus jugés comme méritant d’être retirés.
- Le juge dispose de 48 heures pour se prononcer sur la nature de l’information et ordonner éventuellement sa dépublication de la plateforme.
- Les plateformes de contenus doivent autoriser leurs utilisateurs à porter à leur attention une "nouvelle "qu’ils pensent fausse et alerter le cas échéant les autorités françaises.
- Les plateformes doivent introduire des mesures permettant de lutter contre les fake news et les rendre publiques
- Les plateformes ont pour obligation de mettre en place un système de signalement directement accessible et uniforme pour permettre aux utilisateurs de signaler les contenus illégaux.
- Le contenu signalé par les utilisateurs comme haineux doit être retiré sous 24 heures.
- La loi, néanmoins, ne fournit pas de mécanisme spécifique en ce qui concerne les zones "grises" : il reste alors à la discrétion des plateformes de décider si oui ou non le contenu signalé peut être qualifié comme "haineux".
- Les plateformes ont pour obligation de mettre en place un système de signalement directement accessible et uniforme pour permettre aux utilisateurs de signaler les contenus illégaux.
- Les plateformes doivent supprimer les "contenus manifestement illégaux" sous 24 heures (dans certains cas, sous une semaine) mais la décision de savoir ce qui relève de l’illégalité manifeste reste à la large discrétion des plateformes.
- Il n’y a pas de mécanisme pour les utilisateurs qui permettrait de protester contre un contenu supprimé par erreur.
- Les plateformes doivent nommer une personne que les autorités peuvent contacter.
- Les plateformes doivent publier un rapport de transparence sur les procédures de modération ou de suppression des contenus (mais pas de définition des critères de ce rapport).
Sanctions prévues - Toute infraction à ces dispositions peut être puni d’un an d’emprisonnement et de 75 000 euros d’amende. - En cas de non conformité, les plateformes peuvent se voir attribuer une sanction pécuniaire jusqu’à 4 % de leur chiffre d’affaires annuel mondial. Les représentants de la plateforme encourent une peine d’un an d’emprisonnement et jusqu’à 250 000 euros d’amende.
- Le signalement abusif d’un contenu est quant à lui passible d’un an de prison et d’une amende de 15 000 euros.
- En cas de non conformité avec les systèmes de signalement prévus pour les utilisateurs ou en cas d’absence de rapports de transparence, les plateformes sont passibles d’amendes pouvant aller jusqu’à 50 millions d’euros.
Pouvoir des instances de régulation - Le CSA devient responsable du contrôle du degré de conformité des plateformes à ces dispositions.
- Le CSA a pour obligation de suspendre de façon temporaire la diffusion en France de chaînes de télévision contrôlées ou placées sous influence d’un État étranger si ces chaînes diffusent des nouvelles fausses ou trompeuses susceptibles d’affecter le résultat d’une élection.
- Le CSA devient responsable dans la formulation de recommandations et de bonnes pratiques pour la mise en conformité des plateformes.
- Le CSA est également habilité à estimer le caractère insuffisant ou excessif du comportement de la plateforme en matière de retrait des contenus.
- C’est l’Office fédéral de la justice allemand qui supervise la loi NetzDG (et non un organisme de surveillance spécifique pour les réseaux sociaux ou autre forme de média).

Autres approches réglementaires en France et en Allemagne

Les législateurs et régulateurs allemands envisagent actuellement un certain nombre de réformes ayant indirectement trait à la désinformation. Par exemple, un projet de loi visant à réformer le système de réglementation des médias au niveau fédéral contient des exigences de transparence algorithmique pour les réseaux sociaux et les moteurs de recherche. Ces pistes ne sont pas aussi détaillées que le rapport de la mission conduite en France et intitulé "Régulation des réseaux sociaux – Expérimentation Facebook", mais constituent une tentative de création d'un mécanisme de surveillance des réseaux sociaux. Notons que ce projet met en œuvre, en partie, les règles fixées par la directive de l'Union européenne (UE) sur les médias audiovisuels, soulignant ici la structure de gouvernance multiniveaux de l'écosystème réglementaire. L'Allemagne s'efforce également d'actualiser son droit de la concurrence pour tenir compte de l'économie de la donnée. Le droit de la concurrence a déjà été réformé pour renforcer le contrôle des fusions et acquisitions. Un organe consultatif a depuis poussé en faveur d’une meilleure coopération entre les différents organes de surveillance et entre les États membres de l'UE dans le domaine du droit de la concurrence. Ces mesures ne visent pas à lutter contre la désinformation, mais sont une opportunité pour renforcer l'espace informationnel numérique et ainsi indirectement contribuer à la réduction de la diffusion de la désinformation.

Le cadre réglementaire de l'UE

Si certains enjeux soulevés par la réglementation contre la désinformation sont d'ordre national, l'UE est elle aussi devenue active en la matière.

LE PLAN D’ACTION ET LE CODE DE BONNES PRATIQUES CONTRE LA DÉSINFORMATION

Les principales initiatives de l'UE contre la désinformation résident dans un Plan d'action et le Code de bonnes pratiques développé par les principales plateformes de réseaux sociaux sous l’égide de la Commission européenne. Le plan de l'UE comprend :

  • davantage de ressources financières et de personnels spécialisés pour la communication stratégique au sein du Service européen pour l'action extérieure, grâce au renforcement de la task force East StratCom, qui a pour principale mission la lutte contre les campagnes de désinformation d’origine étrangère à travers le continent ;
     
  • un système spécifique d'alerte rapide commun, visant à faciliter le partage de l'information et à pouvoir riposter de manière coordonnée aux campagnes de désinformation.

Selon la Commission européenne, bien que certains cas aient été recensés lors des élections européennes de 2019, ces mesures ont globalement permis d'enrayer la désinformation. Il convient néanmoins de mentionner certaines lacunes, en particulier l'approche qu’adopte le Code de bonnes pratiques, fondée sur l’autorégulation sans mécanisme d'application ou de sanctions. On retrouve ici le caractère incomplet et incohérent de la lutte contre la désinformation à l’échelle européenne. Tant que les fonctionnaires européens et les chercheurs n’auront pas un accès suffisant aux données, il restera difficile de mesurer avec précision le succès du plan d'action et du Code de bonnes pratiques.

LE DIGITAL SERVICES ACT

La nouvelle Commission européenne a pour ambition de transformer la directive e-commerce en un Digital Services Act.

Les faiblesses du Code de bonnes pratiques et de son approche fondée sur l’autorégulation plaident probablement en faveur de cet effort supplémentaire, avec pour horizon un cadre réglementaire européen renforcé. Il s'agirait principalement de réécrire les règles de responsabilité, mais cela pourrait également inclure des réflexions sur les publicités politiques, les normes de modération des contenus et les pouvoirs de surveillance.

L'UE se montre prête à affronter les enjeux sous-jacents de la désinformation par l’intermédiaire d’une réponse européenne plus forte.

Tout cela reste à clarifier, mais ce virage montre que l'UE se montre prête à affronter les enjeux sous-jacents de la désinformation par l’intermédiaire d’une réponse européenne plus forte - et en abandonnant cette croyance, sans doute excessive, dans l’auto-régulation.

Liberté d'expression et réglementation de la désinformation : les États-Unis contre l'UE

La liberté d'expression - ou liberté de parole dans le contexte américain - est un fondement démocratique des deux côtés de l'Atlantique. Pourtant, les interprétations de cette notion y sont très différentes. Aux États-Unis, le Premier amendement garantit le droit des citoyens à la liberté d'expression (ou de parole), à quelques exceptions près. Le discours de haine, par exemple, y est considéré comme un discours "protégé", sauf dans de rares cas d’incitation à la violence ou de menace réelle. L'interprétation américaine de la liberté de parole s’inscrit ainsi dans la tradition grecque de la parrhesia, c'est-à-dire la capacité de parler librement sans crainte de censure ou de représailles de la part du gouvernement. On s'attend à ce que le gouvernement n'entrave pas la liberté d'expression (sauf lorsque celle-ci est susceptible d’aboutir à "une action illégale imminente"), mais on n’attend pas de lui qu'il protège les citoyens contre, notamment, les mouvements de masse en ligne visant à intimider ou à faire taire ceux qui expriment des opinions opposées. Pour résumer, la vision américaine de la liberté d'expression est fondée sur le principe selon lequel la liberté d'expression est un droit méritant d’être protégé contre le gouvernement plutôt que d'être garanti par ce dernier.

L'Europe, quant à elle, emprunte au concept d'iségorie, une notion plus égalitaire qui fait référence à l'égalité des citoyens à participer aux débats publics. Les gouvernements européens jouent traditionnellement un rôle plus actif dans la protection du droit des individus à la liberté d'expression ; lorsque la jurisprudence européenne estime que des restrictions limitées sont nécessaires, c’est pour protéger "les droits des autres". Les restrictions européennes à certains types d'expression, par exemple la négation de la Shoah en Allemagne, sont donc justifiées par une interprétation "iségorienne" de la liberté d'expression où ce droit inaliénable d’un individu doit être protégé non seulement contre le gouvernement mais aussi contre les autres citoyens.

Ces différentes interprétations de la liberté d'expression ne sont pas de simples définitions conceptuelles ; elles affectent également les attitudes des citoyens. Un sondage du Pew Research Center réalisé en 2015 a révélé que si les Américains et les Européens soutenaient fermement, respectivement à 95 % et 91 %, le droit de critiquer les gouvernements, les Américains étaient bien plus tolérants à l'égard des propos offensants. Par exemple, 77 % des Américains, contre 38 % des Allemands, étaient ainsi favorables au droit des autres citoyens de faire des déclarations offensantes au sujet de leur propre religion, et 67 %, contre 27 % des Allemands, soutenaient le droit à formuler des déclarations offensantes à l’égard des minorités.

Mais ces différences dans les niveaux de tolérance à l'égard des discours offensants n'expliquent pas, à elles seules, les attitudes contrastées, au sein de l’espace transatlantique, vis-à-vis de la réglementation. L'article 230 de la Communications Decency Act (CDA) américain de 1996, selon lequel un "fournisseur de services informatiques interactifs ne peut pas être tenu responsable du contenu posté par les utilisateurs de ce service", protège efficacement les réseaux sociaux contre toute responsabilité légale. L'immunité offerte par l'article 230 a résisté à la plupart des contestations judiciaires, suggérant que toute tentative américaine de réglementation des contenus sur les plateformes en ligne nécessiterait d'abord une modification du CDA.

Compte tenu des défis soulevés par une réglementation fondée sur les contenus, une approche préférable, pour les législateurs américains, réside dans le fait de se concentrer sur une réglementation exigeant davantage de transparence et de protection des données de la part du secteur de la tech. C'est là un domaine sur lequel les États-Unis et l'Union européenne pourraient trouver un terrain d'entente - de taille. De plus, en adoptant des normes communes tournées vers les pratiques des réseaux sociaux plutôt qu’axées sur les propos des utilisateurs, Américains et Européens pourraient envisager la création de normes industrielles fidèles à nos valeurs démocratiques communes. Cet ensemble de normes serait susceptible de fournir un cadre satisfaisant dont les démocraties émergentes pourraient s’inspirer, réduisant ainsi l'attrait exercé par les mesures plus draconiennes proposées par les régimes autoritaires.

Quelques pistes pour aller plus loin dans la lutte contre la désinformation

Recommandation 1 : s’attaquer aux comportements trompeurs plutôt qu’au contenu.

Les législations s’efforçant de réglementer les contenus entreront invariablement en conflit avec les différents principes de la liberté d'expression. Dans des cas limités déjà définis par des lois ou des normes préexistantes, la modération des contenus est nécessaire. La désinformation n’atteint néanmoins ces seuils que rarement, et une nouvelle législation conçue spécifiquement pour lutter contre les contenus faux ou trompeurs présente le risque que le gouvernement aille trop loin. Une autre approche, bien plus efficace, consisterait à s'attaquer à l’intention malveillante de l’auteur de ces contenus plutôt qu'aux contenus eux-mêmes. Cela inclut, entre autres, l'usurpation d'identité et l'utilisation d'un comportement malveillant coordonné, déployé pour tromper les utilisateurs. Atténuer les comportements intentionnellement trompeurs est une approche beaucoup plus efficace pour lutter contre la désinformation, car elle s'attaque aux vulnérabilités systémiques plutôt qu'aux questions liées à la liberté d’expression - qui ne sont pas du ressort des plateformes de réseaux sociaux.

Recommandation 2 : réaliser un audit des entreprises de réseaux sociaux.

Actuellement, les gouvernements reprochent principalement aux réseaux sociaux le fait que les Etats et, par extension, les utilisateurs, ne bénéficient pas de l’information nécessaire pour déterminer si ces entreprises  mettent en œuvre de façon suffisamment équitable et efficace leurs propres conditions d’utilisation. Cette situation crée une asymétrie d’information entre les plateformes et les acteurs extérieurs. Exiger des audits indépendants, réalisés par des tiers (à l’image des audits se pratiquant dans le secteur financier) et visant à évaluer les réseaux sociaux pourrait en cela être une piste. Ces audits permettraient un contrôle indépendant, extérieur aux entreprises elles-mêmes, sans que la surveillance ne soit directement confiée aux organismes de réglementation gouvernementaux. Ces audits devraient se concentrer sur la caisse de résonance constituée par les réseaux sociaux, et sur les cas affectant certaines populations de manière plus significative que d’autres.

Recommandation 3 : Formaliser des exigences légales sur la publicité en ligne.

Dans la plupart des pays de l'UE comme aux États-Unis, les publicités politiques diffusées en ligne ne sont actuellement pas soumises aux mêmes exigences de publication que celles s'appliquant aux publicités dans les secteurs traditionnels. Bien que de nombreux réseaux sociaux aient défini leurs propres exigences en matière de publicité politique, il conviendrait d’inscrire ces exigences dans le droit. De plus, le manque de transparence propre au secteur de la publicité en ligne implique que de nombreux annonceurs risquent, sans le savoir, de soutenir des sites diffusant des informations douteuses dans un but lucratif. Les entreprises tierces de publicité en ligne devraient à tout le moins être obligées de divulguer les sites dans lesquels ils placent leurs publicités, fournissant ainsi aux entreprises et au public l'information nécessaire pour comprendre où l'argent publicitaire est dépensé. A plus long terme, les principes de transparence devraient être étendus à tous les contenus recommandés sur les plateformes : les téléspectateurs devraient avoir la possibilité de savoir pourquoi un élément de contenu apparaît sur leur écran (comment l'utilisateur a été classé et comment cette catégorisation a eu une incidence sur la recommandation). Il vaut également la peine de se demander si les États-Unis ne devraient pas reprendre certains éléments du Règlement général sur la protection des données (RGPD)  de l’UE qui interdisent aux annonceurs d'effectuer un microciblage fondé sur des données relevant de certaines catégories protégées (par exemple, l'origine ethnique, la génétique, les opinions politiques).

Recommandation 4 : Ne pas s’attaquer à la désinformation de manière isolée.

Les acteurs recourant à la désinformation la combinent souvent à d'autres outils d'ingérence politique. Par exemple, les campagnes de désinformation qui ont entaché l'élection présidentielle américaine de 2016 et la présidentielle française de 2017 ont été rendues possibles par des cyberattaques qui ont fourni de la matière première politiquement explosive. En outre, les États autoritaires cherchent à accroître leur présence médiatique dans les démocraties. La sécurisation de l'espace informationnel européen nécessite donc une réglementation qui dépasserait les simples lois de lutte contre la désinformation ; pensons ici à des processus efficaces de filtrage des investissements étrangers dans le secteur des médias ou à des procédures plus strictes de lutte contre le blanchiment d'argent, qui garantiraient que les fruits issus de la corruption des régimes autoritaires n’atteignent pas les systèmes bancaires occidentaux.

Recommandation 5 : Bigger is not always better.

Les larges législations à portée générale s'inscrivant dans la lignée du RGPD présentent l’avantage d’être de bons outils de programmation des actions, mais plusieurs années sont nécessaires à leur élaboration et à leur mise en œuvre. Les plateformes de réseaux sociaux basées dans des régimes autoritaires étant déjà de plus en plus présentes dans le monde, les démocraties européennes ne peuvent se permettre d'attendre un texte unique qui permettrait de résoudre tous les problèmes de l'espace informationnel du XXIe siècle. Il serait souhaitable d’adopter une réflexion tactique et de privilégier des mesures à plus petite échelle et ciblées qui s'attaqueraient aux menaces les plus urgentes et aux acteurs incontournables du moment, et qui pourraient ensuite être complétées par des lois et des règlements plus complets.

Recommandation 6 : Renforcer la coopération internationale.

Comme nous l'avons mentionné plus haut, les États-Unis et l'Europe ont des approches très différentes de la notion de liberté d'expression, ce qui explique sans aucun doute le contraste dans la façon dont les gouvernements traitent la désinformation. Néanmoins, pour lutter contre la diffusion de contenus faux ou trompeurs, les gouvernements devraient davantage s'aligner sur la manière dont ils réglementent la désinformation. A court terme, le gouvernement américain pourrait encourager les entreprises à adopter des codes de pratiques complémentaires à ceux initiés par l'UE ; l'UE devrait également s'associer à des pays comme l'Inde ou le Brésil pour s’accorder sur des normes partagées. A plus long terme, il serait bénéfique de créer une plateforme permettant aux dirigeants politiques internationaux de partager leurs expériences et leurs progrès respectifs. Au-delà d'une coopération transatlantique renforcée, le suivi en temps réel de la désinformation, grâce au système d'alerte rapide de l'Europe, devrait inclure un maximum de pays hors-UE.

______

Auteurs

Julian Jaursch, directeur du projet "Strengthening the Digital Public Sphere", Stiftung Neue Verantwortung
Théophile Lenoir, chargé d’études en charge du programme numérique, Institut Montaigne
Bret Schafer, Media and Digital Disinformation Fellow, Alliance for Securing Democracy, German Marshall Fund of the United States
Etienne Soula, Research Assistant, Alliance for Securing Democracy, German Marshall Fund of the United States

Signataires

Gilles Babinet, conseiller numérique, Institut Montaigne
Michel Duclos, conseiller spécial - géopolitique, ancien ambassadeur
Olivier Jay, Partner, Brunswick
Bruno Patino, directeur éditorial d’Arte et directeur de l’Ecole de journalisme de Sciences Po Paris
Laetitia Puyfaucher, présidente, Pelham Media Ltd.
Véronique Reille-Soult, CEO, Dentsu Consulting
Ben Scott, Director of Policy & Advocacy, Luminate
Dan Shefet, avocat et président, Association for Accountability and Internet Democracy
Ethan Zuckerman, directeur, MIT Center for Civic Media
Claire Wardle, PhD, présidente exécutive, First Draft

 

A voir aussi

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017