Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
27/05/2021

Le législatif manque-t-il à l’Appel de la modération des contenus violents ? 

Le législatif manque-t-il à l’Appel de la modération des contenus violents ? 
 Alice Bougnères
Auteur
Déléguée générale de l’association ALMA

Deux après l’Appel de Christchurch, lancé à Paris par des chefs d’État et dirigeants d’entreprises et dirigeants d’organisations du numérique, où en sommes-nous, en France et en Europe dans la lutte contre le terrorisme et l’extrémisme violent en ligne ? Alice Bougnères, déléguée générale de l’association ALMA, nous livre un état des lieux des concrétisations législatives de ce mouvement. 

L’Appel de Christchurch a été lancé le 15 mai 2019 par la Première ministre néo-zélandaise, Jacinda Ardern, et le Président de la République français pour supprimer les contenus terroristes et extrémistes violents en ligne, suite à l’attentat du 15 mars 2019 contre la communauté musulmane de Christchurch. Les images avaient été diffusées en direct par le tueur sur Facebook Live, puis s’étaient propagées en ligne de manière virale, et l’horreur avait ainsi fait irruption sur les écrans du monde entier. S’agissait-il d’une information brute, de libre expression, ou de propagande à l’obscénité macabre et incitant à la violence à censurer ?

Il y a deux ans, Donald Trump avait refusé, au nom de la liberté d’expression, de rejoindre l’Appel de Christchurch, tout en déclarant soutenir ses objectifs généraux. Aujourd’hui, les États-Unis rallient l’Appel, tout en précisant qu’ils "ne prendront pas de mesures qui violeraient les libertés d'expression et d'association protégées par le premier amendement de la Constitution américaine". 

La position initiale de Washington était conforme à la tradition juridique du royaume du free speech. La seule limite à la liberté absolue consacrée au premier amendement de la Constitution américaine relève du "danger clair et imminent". Les exceptions liberticides à la liberté d’expression sont ainsi restreintes aux seules expressions qui "incitent immédiatement autrui à se livrer à une action criminelle ou dangereuse". Ainsi, en 1969, le juge américain établit que l’incitation à la violence ne pouvait être interdite que si elle était de nature à engendrer de manière imminente des actions illicites, et non si elle préconisait la violence en des termes généraux ou pour un moment futur. La diffusion en direct des images d’horreur de Christchuch peut difficilement s’appréhender comme la source mécanique et immédiate d’autres actions violentes. 

La représentation d’une tradition américaine absolument libérale, ancienne et constante mérite cependant d’être nuancée. En effet, les Américains furent les pionniers de la pénalisation de la haine, avec l’exception des fighting words admise par la Cour suprême dès 1942, qui visait les mots qui, "par leur seule énonciation, infligent une blessure ou tendent à provoquer un trouble immédiat à l’ordre public". La permissivité de principe est balancée par une protection vigilante des minorités. La traque au hate speech à leur encontre a des racines profondes ; dès 1952, la Cour suprême avait confirmé la constitutionnalité de lois réprimant les injures exposant "le citoyen d'une race, couleur, croyance ou religion quelconques au mépris, à la dérision ou à l'opprobre, ou qui provoqueraient des troubles à l'ordre public ou des émeutes". En cela, le refus de Donald Trump de signer l’Appel de Christchurch s’analyse davantage comme une fantaisie - cohérente par ailleurs avec sa rhétorique au sujet des minorités - et le revirement récent comme un retour à la norme. 

Le ralliement symbolique de Washington le 7 mai dernier, s’inscrit dans le contexte d’une mobilisation croissante affichée par les entreprises américaines géantes de services en ligne. 

Le ralliement symbolique de Washington le 7 mai dernier, s’inscrit dans le contexte d’une mobilisation croissante affichée par les entreprises américaines géantes de services en ligne. Signataires de l’Appel de Christchurch aux côtés de 48 États, de la Commission européenne, du Conseil de l’Europe, de l’UNESCO et d’un réseau de représentants de la société civile internationale, Facebook, Google et Twitter notamment s’y engagent à renforcer les moyens consacrés à la détection et à la suppression des contenus terroristes et extrémistes violents.

D’après la Commission européenne, ces grandes entreprises font preuve d’un volontarisme certain sur la régulation des contenus qu’elles contribuent à diffuser, depuis l’adoption en 2016 d’un code de conduite visant à combattre les discours de haine illégaux en ligne. La création de "standards de la communauté", la publication régulière de "rapports de transparence" sur la modération interne des plateformes sous la plume d’un "directeur de l’intégrité", la création en 2021 d’une instance similaire à une Cour suprême chez Facebook, chargée de traiter les recours contre les décisions de retrait ou de maintien de contenus, sont autant de signaux de la bonne volonté affichée des fournisseurs de services en ligne.

Voici par exemple la règle de Facebook en matière de lutte contre les contenus terroristes explicitée dans les standards de la communauté : "Afin d’éviter et d’empêcher tout danger réel, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook. Cela comprend les organisations et les individus impliqués dans les activités suivantes : les activités terroristes, la haine organisée, les tueries (y compris les tentatives) ou homicides multiples, la traite des personnes, la violence ou les activités criminelles organisées. Nous supprimons également tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans ces activités." Dans son rapport de transparence, Facebook précise que "les vues de contenus contenant du terrorisme sont très rares, et nous supprimons une grande partie de ce contenu avant que les gens ne le voient. En conséquence, souvent, nous ne trouvons pas suffisamment d'échantillons violents pour en estimer précisément la prévalence."

La bénédiction accordée par le gouvernement américain à l’Appel de Christchurch constitue sans doute un symbole politique de taille, mais compte probablement moins, d’un point de vue opérationnel, que les règles édictées et les moyens effectivement mis en œuvre par les plateformes. Et ce d’autant plus que la portée normative et contraignante de l’Appel n’est pas manifeste.

Dans une déclaration conjointe à l’occasion du premier anniversaire de l’Appel de Christchurch, le président de la République, Emmanuel Macron, et la Première ministre de Nouvelle Zélande, Jacinda Ardern, s’étaient félicités des progrès accomplis en vue d'éliminer les contenus terroristes et extrémistes violents en ligne, et dits déterminés à poursuivre leurs efforts, en insistant sur la nécessité et l’efficacité du "modèle de collaboration multi-acteurs de l'Appel de Christchurch". 

Cette troisième voie, de recherche de coopération, au-delà des fantasmes d’une auto-régulation libertaire, d’un contrôle total par les États ou d’une toute-puissance malveillante des plateformes géantes, est l’approche qui est également retenue à Bruxelles et à Paris sur la lutte contre les contenus haineux.

Si le phénomène et son impact restent difficilement quantifiables, malgré les tentatives variées de mesure, l’heure de la mobilisation générale a sonné contre le fléau des discours de haine sur les plateformes : en 2020, la loi dite Avia, le Digital Services Act européen et la loi visant à conforter les principes républicains ont posé les premières pierres du chantier. Il s’agit moins de définir une hiérarchie de normes entre les acteurs mobilisés que de répartir leurs responsabilités respectives au service d’une régulation la plus efficace possible.

Cette troisième voie, de recherche de coopération est l’approche qui est également retenue à Bruxelles et à Paris sur la lutte contre les contenus haineux.

Cela n’exclut pas toutefois quelques manifestations de conflits de souveraineté entre Bruxelles, forte de son échelle supranationale, Paris, outragée par la violence terroriste et les plateformes, fortes de l’adhésion volontaire de leurs milliards d’utilisateurs.

Inspirée par une loi allemande de 2018, Laetitia Avia, députée de la majorité, avait proposé en début d’année 2020 d’imposer une obligation de retrait en 24 heures des contenus manifestement illicites, sanctionnée par une amende pouvant atteindre 4 % du chiffre d’affaires. La loi NetzDG allemande, qui l’avait inspirée, et qui prévoit une sanction jusqu’à 50 millions d’euros, a donné lieu en 2019 à une condamnation de Facebook de 2 millions d’euros. Si l’initiative française a été vivement critiquée, notamment par le Conseil d’État, et surtout sévèrement censurée par le Conseil constitutionnel, l’opportunité de légiférer invoquée par le projet Avia n’est guère discutée, y compris par ses détracteurs et par les plateformes elles-mêmes, ne serait-ce que parce que le régime actuel de responsabilité des acteurs de l’internet, fruit de la transposition en France de la directive e-Commerce de 2001 par la loi pour la confiance dans l’économie numérique de 2004, date d’avant l’essor des réseaux sociaux. La Commission européenne, après avoir relevé les nombreuses imprécisions "concernant la portée ainsi que l’objectif et l'intention du projet de loi" Avia, a admis "sa conformité à la politique européenne" en la matière, et a préconisé d’éviter toute initiative nationale : "La Commission partage l’objectif politique des autorités françaises concernant la lutte contre les contenus illégaux en ligne. Cependant, au vu de l’intention de la Commission et des travaux en cours concernant la proposition et l’adoption d’une législation européenne dans un avenir proche, il est suggéré aux États membres de reporter l’adoption d’initiatives nationales sur le sujet."

L’obligation de moyens imposée aux plateformes pour lutter contre certains contenus illicites, est ainsi la clé de voûte de la nouvelle régulation de la haine en ligne. 

Las, c’est dans le cadre de la lutte contre le cyber-islamisme, suite au discours des Mureaux du président de la République et aux attentats de l’automne 2020, que la régulation de la liberté d’expression en ligne est revenue à l’agenda législatif national. Le projet de loi "confortant les principes républicains" présenté en décembre 2020 contraint les réseaux sociaux à déployer des moyens supplémentaires en matière de modération des contenus haineux et à améliorer la transparence.

"Il s’agit de donner aux réseaux sociaux des obligations de modération, avec des moyens humains, techniques et financiers qui soient bien proportionnels à leur activité. La finalité est de permettre un traitement prompt des signalements et un examen approprié des contenus. On veut que les plateformes fassent plus attention à ce qu’il se passe sur leurs outils. Et, concrètement, qu’elles recrutent des milliers de modérateurs", avait détaillé dans la presse Laetitia Avia à l’aube du dépôt du projet de loi.

Les dispositions résultant du projet de loi visant à conforter les principes républicains sont transitoires, dans l’attente de l’entrée en vigueur des dispositions européennes du Digital Services Act, (DSA) à l’horizon 2022. "Nous avons essayé de coller au plus près de la rédaction du texte européen" a précisé Cédric O qui a présenté l’amendement comme une "transposition anticipée compte tenu de l’urgence sur ces sujets". Le Digital Services Act, présenté en décembre 2020, veut combattre les propos haineux sur internet, et imposer des règles de transparence et de responsabilité aux grandes plateformes.

L’obligation de moyens imposée aux plateformes pour lutter contre certains contenus illicites, est ainsi la clé de voûte de la nouvelle régulation de la haine en ligne. Si la consécration de cette obligation de moyens, combinée à l’exigence de transparence sur ces moyens, constitue une formidable avancée dans la régulation de la haine et de la violence en ligne, il reste encore la question cruciale de ce qu’est un contenu illégal. Pour que cette mobilisation collective produise les effets escomptés, un effort de définition détaillée de ce qui relève de la liberté d’expression, par distinction avec ce qui relève des contenus à bannir, reste à produire, idéalement à l’échelle nationale. Et cela, au secours des plateformes, comme du régulateur investi par la France, le CSA, doté depuis 2020, d’un Observatoire de la haine en ligne.

 

 

Copyright : PHILIPPE HUGUEN / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne