Les décisions de modération doivent ensuite être notifiées à ceux qu’elles concernent, et doivent être contestables via des procédures d'appel. La décision finale ne pourra être rendue que par la justice.
Ensuite, il est important que les citoyens soient éduqués à ces enjeux afin qu’ils puissent comprendre les décisions prises, et participer à l'élaboration des principes qui les régissent. La transparence doit être un véritable fil conducteur, présent depuis la conception des règles de modération jusqu’au rendu et à l’explication des décisions.
Il est indispensable que les moyens numériques soient mobilisés pour répondre aux difficultés que peut poser la modération des contenus. Le modérateur lui-même doit être un réseau social, un lieu qui favorise le dialogue. À ce sujet, le problème que pose la modération par les algorithmes, qui favorisent certains contenus plutôt que d’autres, doit être abordé : nous devons pouvoir les remettre en question et exiger davantage de transparence sur leur fonctionnement. C’est évidemment complexe puisqu’il s’agit là du business model même des plateformes. La modération algorithmique peut se démocratiser, mais à condition qu’elle soit bien faite, ce qui requiert que des recherches publiques poussées soient effectuées dans le domaine, la détection de discours haineux étant particulièrement ardue. J'insiste sur l’importance du caractère public de ces recherches - on ne peut se contenter de déléguer ce type d’investigation aux plateformes.
Le partage des corpus de données annotées est aussi indispensable pour entraîner les algorithmes et rendre la modération accessible à des entreprises de taille plus petite. Enfin, nous ne devons pas oublier de questionner le modèle des grandes plateformes : les problèmes auxquels nous faisons face aujourd’hui sont aussi le fait des positions trop dominantes, voire monopolistiques que celles-ci occupent.
Ajouter un commentaire