Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
03/07/2019

Les défis de la modération des contenus : de l'importance de la coopération

Entretien avec Ben Nimmo

Imprimer
PARTAGER
Les défis de la modération des contenus : de l'importance de la coopération
 Ben Nimmo
Senior Fellow au Digital Forensic Research Lab (DFRLab) de l’Atlantic Council

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cet entretien, Ben Nimmo, Senior Fellow au Digital Forensic Research Lab (DFRLab) de l’Atlantic Council et membre du précédent groupe de travail de l'Institut Montaigne Media Polarization "à la française"?, souligne la difficulté d'obtenir des définitions claires et l'enjeu de transparence dans la modération des contenus ; il en appelle à une collaboration intersectorielle pour y faire face.

La mission de régulation des réseaux sociaux insiste sur l’importance de la transparence des algorithmes utilisés par les plateformes et le principe de "responsabilité dès la conception" (accountability by design). Quel regard portez-vous sur cette approche ? La pensez-vous à même de réduire les nuisances en ligne ?

Les plateformes, et en particulier Twitter, ont traditionnellement valorisé l'importance de la liberté d'expression ; la modération y est donc réduite au minimum. Cette posture explique en partie leur succès. Néanmoins, les plateformes sont aujourd’hui vivement incitées à dépasser ce positionnement et à effectuer une plus grande modération des contenus, sans pour autant disposer d’un ensemble de règles claires qui les aideraient à distinguer les contenus acceptables de ceux qui ne le sont pas. Même au sein des catégories de contenu a priori les plus évidentes et faciles à définir, comme le "discours haineux", les zones grises sont nombreuses : la frontière entre expression légitime d’une hostilité et discours haineux n’est pas universellement partagée…

La publication des "lignes directrices" auxquelles se réfèrent actuellement les modérateurs pour déterminer l’inacceptabilité d’un contenu contribuerait à davantage de transparence.

Le problème est similaire en matière d'incitation au harcèlement. A titre d'exemple, faut-il établir une différence entre des affirmations comme : "allez tous harceler la personne X" ; "la personne X mérite d'être harcelée" ; "j'aimerais que quelqu'un harcèle la personne X" ? Fournir des réponses à ces questions implique des décisions linguistiques et juridiques complexes, ce qui signifie que tout algorithme visant à catégoriser des propos devra bénéficier de l’appui d’un modérateur humain ; du moins jusqu'à ce que l’entraînement des algorithmes atteigne un niveau satisfaisant - ce qui prendra beaucoup de temps. En cela, la publication des "lignes directrices" auxquelles se réfèrent actuellement les modérateurs pour déterminer l’inacceptabilité d’un contenu contribuerait à davantage de transparence.

Pourtant, il existe un risque non négligeable que des acteurs malveillants trouvent les moyens de contourner ces lignes directrices et parviennent à publier des contenus nuisibles en déjouant les règles des plateformes.

Il est crucial que les législateurs proposent aux plateformes une liste détaillant les types de comportements à interdire et la définition légale de termes importants comme "discours haineux", "harcèlement" et "désinformation". Plus les législateurs fourniront des informations spécifiques et précises sur ce qui doit être autorisé ou non, plus il sera facile pour les plateformes de mettre en place des processus de modération appropriés et pour les législateurs d'établir des mécanismes de responsabilité offrant un certain contrôle sur les efforts entrepris par les plateformes pour modérer les contenus.

Peut-on mettre en parallèle l'initiative françaises et l’approche américaine de la modération du contenu en ligne ?

Les efforts que mène la France pour développer une approche cohérente de ces questions sont louables. Les autorités américaines évoluent dans un environnement plus complexe : le premier amendement de la Constitution des Etats-Unis limite grandement les possibilités de modération des contenus. De plus, certaines personnalités politiques américaines ont dénoncé les biais prétendument anti-conservateurs des réseaux sociaux politiques, sur la base, dans le meilleur des cas, de preuves anecdotiques. Ainsi, si les plateformes américaines tentaient d’adopter des processus de modération plus actifs, leur marge de manoeuvre serait très restreinte. Dans les années à venir, je m'attends à voir un mouvement beaucoup plus fort en faveur de la modération des contenus en Europe qu'aux États-Unis.

Le gouvernement français et Facebook ont initié une collaboration, qui a mené à la publication du rapport de la mission de régulation des réseaux sociaux le 10 mai dernier. Que pensez-vous d'un tel rapprochement ? Est-ce une piste qui pourrait être encouragée ailleurs ?

Mon équipe au sein du Digital Forensic Lab de l’Atlantic Council et Facebook ont conclu un accord de coopération, donc vous ne serez pas surpris si je pense que la coopération a beaucoup de potentiel et qu'elle doit être renforcée ! En réalité, la taille de la plupart des plateformes - et pas seulement Facebook - est si importante par rapport au nombre de personnes qu'elles emploient qu'il leur est tout bonnement impossible de tout contrôler en interne. J’irais même jusqu’à dire que ce serait profondément troublant qu’elles s’y essaient. Il est donc fondamental que d'autres acteurs contribuent à la résolution des enjeux auxquels ces plateformes sont confrontées, et je pense en cela que la collaboration est un bon moyen d'y parvenir.

Les délicates questions politiques comme la modération des contenus doivent faire l'objet d'un large débat public. Elles exigent que les termes régissant l’expression en ligne soient définis avec précision par la loi pour qu’une réponse adéquate puisse y être apportée. Il convient également de noter qu’il y aura certainement des différences, parmi différents types de modérateurs de contenu, dans leurs analyses, qu’ils fonderont sur différents types de preuves : les plateformes examineront les profils de données associés aux comptes analysés, tandis que les chercheurs en open source auront peut-être une approche différente et s’intéresseront à d’autres types d’indicateurs. Une telle complémentarité peut donc être vertueuse et introduire de la nuance dans le processus de sélection et de modération.

Seules les plateformes sont capables de conserver ce qui est partagé : elles doivent donc pouvoir s’assurer que les informations qu'elles dévoilent ne seront pas utilisées à mauvais escient.

Par conséquent, la construction d'une relation de confiance entre les plateformes, leurs utilisateurs, les chercheurs et les décideurs politiques est essentielle. Seules les plateformes sont capables de conserver ce qui est partagé : elles doivent donc pouvoir s’assurer que les informations qu'elles dévoilent ne seront pas utilisées à mauvais escient. De leur côté, les utilisateurs doivent avoir confiance et considérer que l'information qu'ils partagent sur les plateformes ne fera pas l'objet d'abus. Enfin, gouvernements et plateformes doivent se faire mutuellement confiance pour être dans une relation efficace. Le traitement de cette question implique l'instauration d'échanges multipartites, qui réuniraient simultanément plateformes, législateurs, chercheurs, défenseurs et avocats de la protection de la vie privée.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne