Aller au contenu principal
En ce moment
Exemple : Education, Europe, Santé

Réseaux sociaux : vers une responsabilité à deux vitesses ?

BLOG - 12 Juin 2020

Que faut-il comprendre des conflits opposant Donald Trump aux réseaux sociaux, au premier rang desquels Twitter ? L’intervention de la plateforme dans les communications du Président a mené ce dernier à signer un décret présidentiel contre les réseaux sociaux, les accusant de biais envers les Républicains. En parallèle, elle a forcé des entreprises comme SnapChat et Facebook à se positionner sur le sujet de la modération des contenus de personnalités politiques, générant de vives critiques de la société civile et du milieu académique américains. De son côté, Twitter continue dans sa lancée contre la désinformation, en testant une nouvelle fonctionnalité qui demande aux utilisateurs, lorsqu'ils s’apprêtent à retweeter des contenus, s’ils souhaitent les lire avant de les partager. 

Toutes ces péripéties semblent mener vers une plus grande responsabilisation des réseaux sociaux. Mais si le décret présidentiel aboutit bien à la modification du droit américain pour créer un nouveau régime de responsabilisation (ce qui n’est pas certain), pour les plateformes ce n’est pas l’enjeu principal. Le risque pour elles est que ce régime diffère aux États-Unis et en Europe.

Que s’est-il passé ? 

Les affirmations de Donald Trump sur Twitter ont généré des messages de la plateforme pour deux raisons : la déformation des faits d’une part, et l’appel à la violence d’autre part. Premièrement, Twitter a adossé un message à deux tweets du Président relatifs à la décision du Gouverneur démocrate de Californie Gavin Newsom de donner aux citoyens californiens la possibilité de voter à distance du fait du Covid-19. Donald Trump a affirmé que tous les résidents de Californie, y compris les immigrés, y auraient accès, et que le vote à distance serait frauduleux. Conformément à ses termes et conditions, et avec l’accord de son PDG Jack Dorsey, Twitter a adossé un encadré aux tweets du Président, incitant les lecteurs à vérifier les faits concernant le vote à distance.

Twitter a adossé un encadré aux tweets [de Donald Trump], incitant les lecteurs à vérifier les faits concernant le vote à distance.

Deuxièmement, quelques jours plus tard, à la suite de la troisième nuit de protestations au sujet de la mort de George Floyd et des violences qui ont eu lieu à Minneapolis, un nouveau tweet de Donald Trump a été labellisé. Cette fois-ci, Donald Trump annonçait le soutien de l’armée au Gouverneur du Minnesota Tim Walz, afin qu’elle puisse intervenir dans le but de calmer les protestations.

La conclusion du tweet, "when the looting starts, the shooting starts" (qui pourrait être traduite par "si vous commencez à piller, nous commençons à tirer") a généré des signalements d’utilisateurs, à la suite desquels Twitter a adossé un nouvel encadré au tweet de Donald Trump : 

"This tweet violated the Twitter rules about glorifying violence. However, Twitter has determined that it may be in the public’s interest for the tweet to remain accessible" 

Twitter reproduisit une action similaire le jeudi 22 juin lors d'un Tweet du président menaçant d'avoir "sérieusement recours à la force" si les protestataires mettaient en place une zone autonome à Washington, D.C.

Cette fois-ci, les utilisateurs doivent cliquer sur le message de Twitter pour voir s’afficher le tweet du Président. Ils ne peuvent plus "liker" ou répondre au tweet et ne peuvent le partager qu’en y ajoutant un commentaire.

Répercussions sur les plateformes 

Le bras de fer entre le pouvoir politique et les plateformes s’est renforcé dès la correction de Twitter concernant le vote à distance, à la suite de laquelle Donald Trump a publié un décret présidentiel contre les plateformes (voir ci-dessous). Par la suite, les protestations violentes après la mort de George Floyd, la réaction du Président en ligne et la nouvelle intervention de Twitter ont une nouvelle fois mis en lumière la question de la modération des contenus, et notamment de ceux provenant de personnalités politiques. Ceci dans un contexte où les campagnes de désinformation et les actions coordonnées en ligne ont des conséquences très réelles dans le monde physique : dans l’Oregon, des groupes armés se sont mobilisés à la suite de la circulation de rumeurs concernant un rassemblement de forces antifascistes ("antifa").

Les quelques entreprises opérant les réseaux sociaux ont donc eu à se positionner. Si Snapchat s’est rangé du côté de Twitter, en retirant le compte du Président de sa fonction "Discover", Facebook a préféré ne pas intervenir, générant des contestations au sein de l’entreprise ou dans le milieu académique. La neutralité de Facebook dans ce contexte de tensions sociales en interne et dans le monde démontre à nouveau le frein que représente son modèle économique pour s’attaquer à l’enjeu épineux de la modération des contenus politiques. 

Facebook a peu d’intérêt à s’opposer à la parole des dirigeants politiques : la plateforme prendrait le risque de voir des mesures prises contre elle, parmi lesquelles la censure, qui pourrait priver l’entreprise de marchés publicitaires importants, ou simplement le détournement des utilisateurs alignés politiquement avec ces dirigeants. Dans un contexte de polarisation importante comme c’est le cas aux États-Unis, c’est ce second risque qui prime. Trump l’a évidemment compris, ne se privant pas d’accuser les plateformes d’interventions biaisées dans le débat politique.

Si Snapchat s’est rangé du côté de Twitter, en retirant le compte du Président de sa fonction "Discover", Facebook a préféré ne pas intervenir.

Les enjeux de régulation...

Si Facebook ne s’est pas opposée directement au Président (Mark Zuckerberg, son PDG, a simplement annoncé revoir les politiques de modération de contenus relatifs aux annonces concernant l’utilisation de la force par l’État), il est possible que le réseau social n’en sorte pas indemne pour autant. 

À la suite des premières interventions de Twitter (incitant ses utilisateurs à vérifier les faits sur le vote à distance), le Président a signé un décret présidentiel demandant d’investiguer le modèle économique des plateformes de contenus, de regarder les biais éventuels des réseaux sociaux, et de revoir la section 230 du Communications Decency Act de 1996. Si le décret présidentiel aura peu d’effets sur le droit fédéral, il pourrait entraîner une révision à long terme de l’article 230. Celui-ci stipule qu’un "fournisseur de services informatiques interactifs ne peut pas être tenu responsable du contenu posté par les utilisateurs de ce service". Comme nous le notions dans notre analyse Désinformation : dépasser la modération des contenus, il protège efficacement les réseaux sociaux contre toute responsabilité légale et a résisté à la plupart des contestations judiciaires. 

Le mercredi 17 juin, le département de la justice des États-Unis fit part de ses demandes de réforme de la Section 230. Un de leurs objectifs étant "d’encourager les plateformes à être plus transparentes et fiables pour leurs utilisateurs", en les informant davantage sur le contenu supprimé en "bonne foi". Ceci fait donc appel à une définition propre du terme "bonne foi" afin de clarifier son objectif. Ces demandes de réforme comprennent également une suppression de la protection des plateformes contre les poursuites civiles du gouvernement et de la responsabilité antitrust en vertu de l'article 230. Il faudrait que le Congrès s'implique pour que ces recommandations puissent aller plus loin, mais cela révèle la motivation que l'administration de Trump a pour empêcher les plateformes de supprimer un contenu sans en subir les conséquences.

Le sujet n’est pas nouveau pour les réseaux sociaux, la Commission européenne ayant déjà pris les devants sur la question de leur responsabilité vis-à-vis des contenus, après que des pays comme la France ou l’Allemagne ont rédigé et appliqué des lois demandant aux plateformes un rôle plus actif dans la modération des contenus tels que les désinformations ou les contenus illégaux. Ainsi, la directive e-commerce européenne de 2000, qui protège les plateformes, fait l’objet d’un remaniement important dans le cadre du Digital Services Act, pour lequel une consultation publique a été ouverte le 2 juin. 

Ce nouveau texte vise à créer un cadre légal de responsabilité des plateformes numériques, allant des questions de circulation des contenus à celle de l’emploi des travailleurs tels que les chauffeurs VTC. Le point commun est la question de la transparence des systèmes socio-techniques (mélangeant des outils techniques reposant par exemple sur l’intelligence artificielle, influencés par des choix humains), et de la responsabilité des décisions auxquelles ils aboutissent. 

Le sujet n’est pas nouveau pour les réseaux sociaux, la Commission européenne ayant déjà pris les devants sur la question de leur responsabilité vis-à-vis des contenus. 

… dans un contexte de compétition internationale

Publiquement, les plateformes ne sont pas opposées à la régulation, bien au contraire. En effet, Facebook a publiquement appelé à plus de régulation de la part des autorités, notamment dans le but de pouvoir partager la responsabilité concernant la circulation de contenus faux ou violents. Cependant, l’entreprise a tout intérêt à ce que les décisions prises ne la mettent pas en difficulté financièrement. 

Ceci est évident dans le contexte de forte compétition avec des acteurs asiatiques comme TikTok et WeChat. Sur ce point, les enjeux sont plus complexes pour Facebook que pour Twitter puisque, en parallèle des questions de responsabilité vis-à-vis des contenus, les autorités américaines et européennes regardent de près la question de l’avantage compétitif de l’accès aux données dont une plateforme comme Facebook (mais aussi TikTok) peut bénéficier. Les conséquences de ces investigations peuvent être importantes pour les entreprises américaines, à un moment où la compétition internationale les pousse à se rapprocher des modèles chinois tels que WeChat (la dernière annonce provenant de Snap Inc., qui ouvre la possibilité à des développeurs extérieurs d’intégrer leurs applications au sein de la plateforme SnapChat, comme le fait la "super-application" WeChat).

Pour les réseaux sociaux, l’enjeu est de voir émerger des règles internationales qui s’appliquent équitablement à tous. Concernant les contenus, leur responsabilisation est inévitable. Le risque n’est donc pas tant la modification du Communications Decency Act américain à la suite du décret présidentiel de Donald Trump, mais plutôt le fait que la direction que prendrait le texte américain diffère de celle que prendrait le texte européen. Le jeu d’équilibriste va se poursuivre pour appeler à plus de régulation à l’échelle internationale, tout en limitant les effets de celle-ci.

 

Copyright : AFP

 

A voir aussi

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017