Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
06/11/2020

Loi Avia et contenus en ligne : leçons après les attentats

Loi Avia et contenus en ligne : leçons après les attentats
 Gilles Babinet
Auteur
Ancien conseiller sur les questions numériques
 Thierry Jadot
Auteur
Ancien Président Dentsu Aegis Network en France, Belgique, Pays-Bas, Moyen-Orient, Afrique du Nord et Israël
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

À la suite de l’assassinat de Monsieur Samuel Paty le vendredi 16 octobre à Conflans-Sainte-Honorine, le gouvernement a souhaité en finir avec le "cyberislamisme", abordant à nouveau l’enjeu de la modération des contenus en ligne. Les réseaux sociaux ayant été l’outil à travers lequel Abdoullakh Anzorov s’est fait remarquer d’une part, et le lieu sur lequel une partie des violences a pris place d’autre part, la question s’est posée de savoir dans quelle mesure la loi Avia, si ses mesures phares n’avaient pas été censurées par le Conseil constitutionnel, aurait pu empêcher cet événement tragique. Proposant une nouvelle voie, le mardi 20 octobre, le Premier ministre Jean Castex a annoncé devant l’Assemblée nationale la création d’un délit de mise en danger par la publication de données personnelles, suivi par des propositions de la députée Laetitia Avia concernant la mise en place d’une nouvelle procédure administrative simplifiée pour lutter contre les sites de haine, la création d'un "parquet numérique", d'un "permis Internet", d’un service civique en lien avec les associations de lutte contre le cyberharcèlement. Ces premières mesures seront étayées et intégrées au projet de loi contre les séparatismes, qui sera présenté le 9 décembre et débattu à l'Assemblée en janvier.

Les réseaux sociaux dans le collimateur

Les réseaux sociaux se retrouvent à nouveau visés par les pouvoirs publics à la suite de l’assassinat de Samuel Paty. On les retrouve au fil des investigations dans le passé proche d’Abdoullakh Anzorov, les mois précédant l’attentat. Le 24 juin et le 11 septembre, les tweets de son compte @Tchétchène_270 avaient été signalés à la Plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (Pharos). Le 27 juillet, un tweet antisémite avait été signalé directement à Twitter par la Ligue internationale contre le racisme et l’antisémitisme (Licra). Abdoullakh Anzorov avait également utilisé Instagram afin de communiquer avec un djihadiste russophone en Syrie, à Idlib, entre le 12 et le 14 septembre. Le 4 octobre, il avait publié sur Snapchat une incantation islamiste citant le groupe syrien Hayat Tahrir al-Cham, rattaché à al-Qaida. Enfin et surtout, deux vidéos appelant au renvoi de Samuel Paty, dont l’une d’entre elles contenant le nom du professeur, son téléphone portable et l’adresse du collège, ont été publiées, entraînant un lynchage du professeur sur Facebook, Twitter ou Snapchat.

Les limites du cadre actuel

À la suite de l’attentat, les discussions ont de ce fait porté sur les insuffisances du cadre légal relatif à la modération des contenus. Notamment, on a reproché aux réseaux sociaux de rester inactifs face à la déferlante de haine en ligne et d’être ainsi en partie responsable de cet événement dramatique. Le mardi 20 octobre, la ministre déléguée auprès du ministre de l’Intérieur, chargée de la citoyenneté, Marlène Schiappa, a ainsi réuni les grands réseaux sociaux et acteurs de l’internet (Facebook, Google, Twitter, Tiktok), pour "les appeler à leurs responsabilités contre le cyber-islamisme".

Les plateformes doivent être tenues responsables des conséquences de leurs outils sur les sociétés.

Les plateformes doivent être tenues responsables des conséquences de leurs outils sur les sociétés. Leur participation volontaire à des codes de bonne conduite européens (sur la désinformation, sur la haine en ligne) est insuffisante pour traiter ces questions de manière systémique. Il convient de se poser la question de ce que sont les limites du cadre légal actuel d’une part et, en conséquence, ce qui pourrait être ajouté pour traiter ces enjeux de manière efficace.

Le fonctionnement des mécanismes existants

Les contenus liés au terrorisme sont paradoxalement parmi les contenus les mieux pris en charge par le droit (avec les contenus pédopornographiques), notamment du fait de leur caractère illégal. Ainsi, depuis 2004, la loi pour la confiance dans l’économie numérique autorise l'autorité administrative à demander aux éditeurs de services en ligne, mais aussi et surtout aux hébergeurs, de supprimer les contenus faisant l’apologie du terrorisme. En l'absence de retrait de ces contenus dans un délai de 24 heures, l'autorité administrative peut demander aux fournisseurs d’accès à Internet de couper l’accès à ces contenus.

Des critères pour définir les seuils entraînant la suppression

Malgré ce dispositif légal, la difficulté réside dans la capacité des pouvoirs publics à identifier les contenus devant être supprimés. Ceux qui avaient été signalés à la plateforme Pharos, y compris celui du 11 septembre, transmis à l’Unité de coordination de la lutte antiterroriste (Uclat) et analysé avec la Direction générale de la sécurité intérieure (DGSI), n’ont pas passé les seuils qui auraient pu entraîner leur suppression. Anzorov n’était pas connu pour sa radicalisation, il n’était pas inscrit dans le fichier des signalements pour la prévention de la radicalisation à caractère terroriste, et ne menaçait pas la France directement. Face à la quantité de messages similaires à ceux d’Anzorov, il est difficile d’identifier à l’avance ceux qui pourraient dans le futur être associés à des événements terroristes.

De même, quels critères les autorités auraient-elles dû considérer pour anticiper que la vidéo appelant à renvoyer Monsieur Paty était plus dangereuse qu’un autre ? Ceci est d’autant plus problématique que le même mécanisme de "lynchage" public est souvent défendu pour sa fonction de contre-pouvoir : dans le cas des protestations de type #MeToo, nous qualifions plutôt le "lynchage" en ligne de dénonciation légitime au nom de la justice sociale. Dès lors, il devient évident que les critères pour comprendre, a priori, et non après les faits, ce qui pose problème dans la circulation de certains contenus, doivent être affinés. Dans ce cadre, la création d’un délit de mise en danger par la publication de données personnelles nous semble constructive.

L’un des enjeux du prochain Digital Services Act, le nouveau règlement européen visant à responsabiliser les intermédiaires numériques, réside dans le régime de responsabilité des plateformes, incomplet dans le domaine du retrait des contenus illégaux et préjudiciables.

Si Thierry Breton, dans l’un de ses entretiens avec le Financial Times en septembre dernier, soulignait qu’une plateforme serait responsable si elle ne réagissait pas suffisamment vite aux signalements de contenus suivant l’assassinat de Samuel Patty, il semble insister sur la mise en place d’une obligation de déploiement de moyens à travers des dispositifs de modération : instaurer des seuils en fonction de l’audience et de la visibilité, prenant en compte l’impact, la portée d’un message, et le nombre de vues, de commentaires ou de republications qui indiquent une forte viralité.

La création d’un délit de mise en danger par la publication de données personnelles nous semble constructive.

La députée française Laetitia Avia, dans ses négociations avec le Commissaire, préconise des obligations quantitatives de modération, avec des moyens humains, techniques et financiers qui soient proportionnels à l’activité des plateformes, leur imposant ainsi un recrutement massif de modérateurs.

Les pouvoirs publics veulent réagir rapidement et fermement, ce qui semble légitime. Cependant, cette question des seuils et des critères utilisés pour identifier les contenus problématiques doit être traitée avant de commencer à envisager de raccourcir le délai des suppressions. À ce stade, ni les plateformes ni les pouvoirs publics ne savent précisément ce qui doit être supprimé rapidement. Et les définitions très larges présentes dans la loi Avia n’auraient pas permis de réagir plus rapidement. Ainsi, la loi contre la haine sur Internet, si elle n’avait pas été censurée par le Conseil constitutionnel, n’aurait certainement rien changé.

De quoi faut-il tenir les plateformes responsables ?

La position que nous défendons dans le rapport Internet : le péril jeune ?, et que nous avons soumise à la Commission européenne dans le cadre du Digital Services Act, est la suivante : pour l’heure, il est trop tôt pour requérir des suppressions de contenu dans des délais très courts. La priorité est de mettre l’accent surle partage d’information et la coopération entre plateformes en pouvoirs publics. Cela ne veut pas dire adopter une approche naïve par laquelle les plateformes affirment poliment prendre des mesures sans que rien ne soit fait ; il s’agit de mettre en place des mécanismes d’audit pour responsabiliser les plateformes vis-à-vis des informations qu’elles communiquent, et de leur capacité à atteindre des objectifs qu’elles se fixent en lien avec les pouvoirs publics. Comme Camille François, directrice de l’innovation chez Graphika et experte de la désinformation, le remarquait lors d’une audition devant les députés européens de la commission spéciale sur les interférences étrangères le lundi 26 octobre, la coopération entre le FBI et Facebook aux États-Unis a porté ses fruits, en permettant la suppression de réseaux de manipulation d’information iraniens et russes.

Les objectifs que se fixent les plateformes pourraient à ce stade évoluer d’année en année. Ils pourraient concerner non pas une quantité de contenus supprimés, mais le degré de précision des outils de détection de contenus déployés au sein des entreprises. Sur cette base, il pourrait être légalement requis de transmettre des informations utiles pour juger si cet objectif a été atteint, ce qui pose toujours problème, ce qui a progressé. Ces informations pourraient inclure la liste de mots-clés utilisés pour identifier les contenus problématiques, des informations sur la manière dont le système surveille les comptes déjà notifiés, les critères utilisés pour sélectionner les comptes à surveiller, l’accès aux feuilles de route et interfaces des modérateurs de contenu humains, les informations détaillées sur la manière dont les données relatives à l’apprentissage automatique ont été étiquetées, etc.

La question reste entière de savoir s’il est politiquement possible de mettre l’accent en priorité sur les mécanismes de coopération pour détecter les contenus problématiques, pour discuter des raisons pour lesquels ils sont problématiques, et ainsi améliorer notre compréhension des enjeux posés par la libre expression en ligne.

 

 

Copyright : Manan VATSYAYANA / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne