La députée française Laetitia Avia, dans ses négociations avec le Commissaire, préconise des obligations quantitatives de modération, avec des moyens humains, techniques et financiers qui soient proportionnels à l’activité des plateformes, leur imposant ainsi un recrutement massif de modérateurs.
Les pouvoirs publics veulent réagir rapidement et fermement, ce qui semble légitime. Cependant, cette question des seuils et des critères utilisés pour identifier les contenus problématiques doit être traitée avant de commencer à envisager de raccourcir le délai des suppressions. À ce stade, ni les plateformes ni les pouvoirs publics ne savent précisément ce qui doit être supprimé rapidement. Et les définitions très larges présentes dans la loi Avia n’auraient pas permis de réagir plus rapidement. Ainsi, la loi contre la haine sur Internet, si elle n’avait pas été censurée par le Conseil constitutionnel, n’aurait certainement rien changé.
De quoi faut-il tenir les plateformes responsables ?
La position que nous défendons dans le rapport Internet : le péril jeune ?, et que nous avons soumise à la Commission européenne dans le cadre du Digital Services Act, est la suivante : pour l’heure, il est trop tôt pour requérir des suppressions de contenu dans des délais très courts. La priorité est de mettre l’accent surle partage d’information et la coopération entre plateformes en pouvoirs publics. Cela ne veut pas dire adopter une approche naïve par laquelle les plateformes affirment poliment prendre des mesures sans que rien ne soit fait ; il s’agit de mettre en place des mécanismes d’audit pour responsabiliser les plateformes vis-à-vis des informations qu’elles communiquent, et de leur capacité à atteindre des objectifs qu’elles se fixent en lien avec les pouvoirs publics. Comme Camille François, directrice de l’innovation chez Graphika et experte de la désinformation, le remarquait lors d’une audition devant les députés européens de la commission spéciale sur les interférences étrangères le lundi 26 octobre, la coopération entre le FBI et Facebook aux États-Unis a porté ses fruits, en permettant la suppression de réseaux de manipulation d’information iraniens et russes.
Les objectifs que se fixent les plateformes pourraient à ce stade évoluer d’année en année. Ils pourraient concerner non pas une quantité de contenus supprimés, mais le degré de précision des outils de détection de contenus déployés au sein des entreprises. Sur cette base, il pourrait être légalement requis de transmettre des informations utiles pour juger si cet objectif a été atteint, ce qui pose toujours problème, ce qui a progressé. Ces informations pourraient inclure la liste de mots-clés utilisés pour identifier les contenus problématiques, des informations sur la manière dont le système surveille les comptes déjà notifiés, les critères utilisés pour sélectionner les comptes à surveiller, l’accès aux feuilles de route et interfaces des modérateurs de contenu humains, les informations détaillées sur la manière dont les données relatives à l’apprentissage automatique ont été étiquetées, etc.
La question reste entière de savoir s’il est politiquement possible de mettre l’accent en priorité sur les mécanismes de coopération pour détecter les contenus problématiques, pour discuter des raisons pour lesquels ils sont problématiques, et ainsi améliorer notre compréhension des enjeux posés par la libre expression en ligne.
Copyright : Manan VATSYAYANA / AFP
Ajouter un commentaire