Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
02/08/2019

Les défis de la modération des contenus : avancer avec les citoyens

Entretien avec Serge Abiteboul

Imprimer
PARTAGER
Les défis de la modération des contenus : avancer avec les citoyens
 Serge Abiteboul
Directeur de recherche en informatique à l’Ecole Normale Supérieure de Paris

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cette interview, Serge Abiteboul, membre du Collège de l'ARCEP, chercheur à l'ENS et à l'Inria et membre de la mission de régulation des réseaux sociaux, insiste sur l’importance de l’implication des citoyens dans ce processus.

Vous avez participé à la mission de régulation des réseaux sociaux, dont le rapport est paru le 10 mai dernier. Quels sont les grands enjeux de la modération du contenu soulignés dans le rapport ?

Selon moi, trois grands axes sont à retenir.Il est d’abord essentiel que nous travaillions à ce que les réseaux sociaux deviennent des lieux hospitaliers, où les utilisateurs se sentent protégés de potentielles agressions. Ceci étant dit, il est également crucial que les moyens employés pour cela n’entravent pas la liberté d'expression de chacun. Une des principales richesses des réseaux sociaux est en effet qu’ils permettent à tous de s’exprimer, et cet avantage inestimable doit être préservé. Enfin, l’équilibre à trouver entre civilité et respect d’un côté, et liberté d'expression de l’autre, doit être accepté par les citoyens, ce qui exclut la possibilité d’une autorégulation par les plateformes, ainsi que celle d’une régulation étatique. À mon humble avis, les plateformes et les services de l’État ne doivent pas participer seuls à l’exercice de modération des contenus : la justice, les chercheurs, et de manière générale l’ensemble de la société civile et des citoyens doivent être impliqués dans ces débats.

En quoi a consisté la collaboration entre Facebook et le gouvernement français pour aboutir à ce document ?

Le principal avantage de cette collaboration est qu’elle nous a permis de comprendre le problème vu de l'intérieur de la plateforme, même si cette approche connaît aussi certaines limites. Cette expérience nous a confirmé l’importance de la collaboration entre plateforme et État pour parvenir à nos fins, même si ce n’est bien sûr qu’une partie de la solution.

Selon vous, comment peut-on au mieux s'assurer que la décision de supprimer du contenu sur une plateforme ne soit pas interprétée comme un effort de censure ?

On navigue sans cesse entre Charybde et Scylla : supprimez trop peu de contenus et les citoyens ne seront pas protégés, supprimez-en trop et ce sera de la censure. Il faut aussi se méfier des États qui profiteraient de ce prétexte pour censurer au passage tout type de discours qui ne leur conviendrait pas. C'est déjà le cas dans certains pays et l'Europe doit lutter contre ce risque.

La transparence doit être un véritable fil conducteur, présent depuis la conception des règles de modération jusqu’au rendu et à l’explication des décisions.

La collaboration entre plateformes et gouvernements, que je viens d’évoquer, est un moyen d'éviter cela. D’autres mesures peuvent être mises en place pour renforcer de tels dispositifs et permettre leur acceptation par la société civile, comme la conception de règles de modération communes. Le scénario selon lequel les plateformes auraient comme responsabilité de modérer les contenus sous la supervision d’un régulateur est aussi une possibilité.

Les décisions de modération doivent ensuite être notifiées à ceux qu’elles concernent, et doivent être contestables via des procédures d'appel. La décision finale ne pourra être rendue que par la justice.

Ensuite, il est important que les citoyens soient éduqués à ces enjeux afin qu’ils puissent comprendre les décisions prises, et participer à l'élaboration des principes qui les régissent. La transparence doit être un véritable fil conducteur, présent depuis la conception des règles de modération jusqu’au rendu et à l’explication des décisions.

Il est indispensable que les moyens numériques soient mobilisés pour répondre aux difficultés que peut poser la modération des contenus. Le modérateur lui-même doit être un réseau social, un lieu qui favorise le dialogue. À ce sujet, le problème que pose la modération par les algorithmes, qui favorisent certains contenus plutôt que d’autres, doit être abordé : nous devons pouvoir les remettre en question et exiger davantage de transparence sur leur fonctionnement. C’est évidemment complexe puisqu’il s’agit là du business model même des plateformes. La modération algorithmique peut se démocratiser, mais à condition qu’elle soit bien faite, ce qui requiert que des recherches publiques poussées soient effectuées dans le domaine, la détection de discours haineux étant particulièrement ardue. J'insiste sur l’importance du caractère public de ces recherches - on ne peut se contenter de déléguer ce type d’investigation aux plateformes.

Le partage des corpus de données annotées est aussi indispensable pour entraîner les algorithmes et rendre la modération accessible à des entreprises de taille plus petite. Enfin, nous ne devons pas oublier de questionner le modèle des grandes plateformes : les problèmes auxquels nous faisons face aujourd’hui sont aussi le fait des positions trop dominantes, voire monopolistiques que celles-ci occupent.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne