Aller au contenu principal
Exemple : Education, Europe, Santé

Les défis de la modération des contenus : combler l’écart de connaissances

Entretien avec Charlie Beckett

INTERVIEW - 25 Juillet 2019

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cette interview, Charlie Beckett, professeur en étude des médias et en communication à la London School of Economics (LSE) et membre principal de la Commission Truth, Trust & Technology (T3) de la LSE, plaide en faveur de la création d'une agence qui aurait l'indépendance et l'expertise nécessaires pour contrôler la modération des contenus sur les plateformes.

Quels sont les principaux enseignements du rapport de la Commission T3 intitulé Tackling the Information Crisis: A Policy Framework for Media System Resilience (Faire face à la crise de l’information : un cadre politique pour la résilience du système médiatique), en particulier au sujet de la modération des contenus et des réglementations en la matière ?

Tout d'abord, il convient de noter que la rédaction de ce rapport est le fruit de plusieurs constats fondamentaux. Parmi eux, le manque de confiance croissant à l’égard des médias traditionnels, provoqué par un sentiment général de confusion, notamment en raison de la prolifération croissante de l'information.

Nous souhaitions aboutir à une compréhension approfondie des plateformes de réseaux sociaux - leur structure, leur mode de fonctionnement, leurs biais - et essayer d’offrir des cadres au service d’une grande plus responsabilité de ces organisations.

Nous nous posions aussi la question du rôle des plateformes de réseaux sociaux après le scandale Cambridge Analytica : la publicité peut-elle être déployée de manière transparente et sans porter atteinte à la vie privée des utilisateurs ? Quelle responsabilité pour les réseaux sociaux en période électorale ? Le rôle de la Commission T3 a donc été de prendre du recul et d'identifier les éléments permettant de décrire les nuisances potentielles de notre nouveau système informationnel. L’objectif était double : contribuer à dissiper ce sentiment général de confusion, mais aussi éviter les risques de réaction excessive. Par exemple, bien sûr, la nécessité d’une modération des contenus se heurte à l'importance d’une protection de la liberté d'expression ; il y a toujours un risque que certaines voix soient réduites au silence, alors qu'il est essentiel que chacun participe aux débats publics, surtout en période de changement politique.

Par conséquent, l'ambition du rapport de la Commission T3 était principalement : 

  • de saisir ce qui nous préoccupe vraiment lorsque nous parlons de crise de l'information ; 
  • d'évaluer l’existence d’éléments prouvant que la désinformation est diffusée par des acteurs externes ; 
  • de déterminer si la désinformation modifie notre façon de faire de la politique ;
  • et d'examiner le rôle du contexte socio-économique plus global dans ces différents phénomènes nouveaux. 

Enfin, nous souhaitions aboutir à une compréhension approfondie des plateformes de réseaux sociaux - leur structure, leur mode de fonctionnement, leurs biais - et essayer d’offrir des cadres au service d’une grande plus responsabilité de ces organisations, tout en admettant les éléments positifs de certaines de leurs activités.

Quelles solutions avez-vous identifiées pour garantir une plus grande responsabilité des plateformes de réseaux sociaux ?

Dans le rapport, nous prônons la création d'une agence indépendante (Independent Platform Agency), qui aurait accès aux données de toutes les grandes plateformes, contrôlerait leurs activités de modération, et serait en mesure d'imposer des amendes en cas de rétention des données. Son rôle irait donc au-delà de la simple recommandation de rapports de transparence. Les plateformes de réseaux sociaux se sont très récemment prononcées en faveur de la réglementation, alors qu'elles s'y étaient auparavant opposées. Pourtant, elles ignorent elles-mêmes quels seraient les contours de cette réglementation, et il est important que celle-ci ne soit pas conçue exclusivement selon leurs propres termes et conditions. Nous avons donc besoin d'un organisme indépendant qui travaillerait main dans la main avec les plateformes et qui aurait le pouvoir, la responsabilité, et l'expertise nécessaires pour collaborer avec elles et examiner de l'intérieur les mécanismes qu'elles utilisent. C’est une institution de cette nature qui, en coordination également avec les organismes de réglementation et les législateurs, nous permettra de construire un cadre de responsabilisation qui, en fin de compte, devra impliquer des sanctions.

Jusqu'à présent, les discussions ont principalement porté sur les moyens par lesquels les plateformes ou les gouvernements - ou, d’ailleurs, les deux - peuvent et doivent endosser ce rôle de modération des contenus. Pourtant, si la société civile n’est pas incluse dans ces réflexions, de telles initiatives pourraient être dénoncées comme non démocratiques, compte tenu du contexte actuel de méfiance. Comment s’assurer de la participation des citoyens à ces débats ?

Il est en effet essentiel d'impliquer davantage les citoyens dans ces discussions ; il est à craindre que les individus deviennent de plus en plus sceptiques à l'égard des technologies numériques. Je crois qu'une manière d'y parvenir est de caractériser la façon dont le contenu est priorisé. Ces processus sont encore trop opaques et les critères utilisés pour la curation des contenus doivent gagner en transparence. 

Bien sûr, rendre les algorithmes de curation et de modération plus transparents offrirait potentiellement aux utilisateurs malveillants un moyen de contourner la modération des contenus ; ce risque, non négligeable, ne doit pas être oublié. Pourtant, nous ne pouvons actuellement pas nous payer le luxe de trouver des solutions parfaites aux problèmes auxquels nous faisons face : chaque action entreprise aura, presque inévitablement, des inconvénients.

L'essentiel, pour l'instant, est de garantir un certain contrôle sur les activités de modération réalisées par les plateformes.

L'essentiel, pour l'instant, est de garantir un certain contrôle sur les activités de modération réalisées par les plateformes. Ce qui est souvent évoqué à l’heure actuelle, c’est de doter les algorithmes de critères démocratiques, mais déterminer qui décide de la nature ces critères peut s’avérer très délicat. Il existe une grande pluralité de valeurs, et il pourrait être problématique d'essayer d'encoder seulement une partie d'entre elles dans les algorithmes de modération.

Dans l'ensemble, je dirais qu’il convient d'accorder une attention plus forte à cette question. L'intelligence artificielle et l’économie numérique sont actuellement sur toutes les lèvres, mais il existe un véritable écart de connaissances en matière de modération des contenus. Nous avons besoin que les institutions et les universités s'engagent davantage sur ce sujet. Aucune organisation n'est actuellement spécifiquement dédiée à cette question ; le développement d’une plus grande expertise dans le domaine est un pré-requis avant de prendre des décisions politiques importantes.
 

 

A voir aussi

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017