Aller au contenu principal
Exemple : Education, Europe, Santé
General

Réguler Twitter, Facebook et Google au pays des libertés

BLOG - 13 novembre 2017

La semaine du 6 novembre, la page de couverture de The Economist affichait sur fond bleu le logo de Facebook et le titre suivant : “Social media’s threat to democracy”. Quelques jours plus tôt, Facebook, Twitter et Google passaient plusieurs auditions devant la commission du Sénat américain sur l’éventuel rôle joué par la Russie sur ces trois plateformes lors des élections américaines de 2016. Le débat de la régulation des GAFA s’amplifie aux Etats-Unis. Analyse.

Données et algorithmes

Pour mieux comprendre les enjeux autour de la régulation, il faut avoir en tête les mécanismes qui régissent la circulation de l’information sur ces plateformes. Les voies qu'empruntent les contenus que nous retrouvons sur Facebook, Twitter et Google (plus généralement le contenu en ligne) sont tracées par des algorithmes : des suites d’instructions permettant, à partir d’un ensemble de données, d’arriver à une conclusion. Sur ces plateformes, les algorithmes donnent les réponses à la question “à qui cette information doit-elle être délivrée ?”. Les algorithmes ont un avantage considérable en ce qu’ils permettent d’automatiser la sélection du contenu pour les internautes (qui sans eux serions noyés dans une mer d’informations incompréhensibles). Cependant, l’un de leur défaut majeur vient de ce qu’ils font croire, par leur invisibilité, que l’information en ligne circule librement, alors qu’elle suit des indications bien précises.

Ces instructions sont indissociables du business model des plateformes de contenu commerciales qui les élaborent. Un seul leitmotiv : segmenter le plus finement possible les internautes afin d’optimiser la valeur des espaces publicitaires vendus. Pour ce faire, les géants du net utilisent l’ensemble des traces que nous laissons en ligne : recherches, sites visités, comptes suivis, réseaux d’amis, etc. Toutes ces informations sont autant de données qui guident les algorithmes et aident les publicitaires à identifier des audiences toujours plus précisément (“jeune cadre, entre 30 et 35 ans, intéressée par le volleyball”). Par ailleurs les algorithmes servent un double intérêt. En recommandant du contenu en lien avec les points de vues de l’utilisateur, ils l’incitent à rester sur ces plateformes et donc à continuer d’offrir ses données, ensuite utilisées pour améliorer l’algorithme, et ainsi de suite.

Memes et émotions

Les opinions et émotions jouent un rôle central dans la circulation de l’information en ligne, et c’est précisément ce qui permet à certains acteurs d’influencer l’opinion publique. Lors des élections américaines de 2016, l’agence russe tenue responsable de la diffusion de propagande, l’Internet Research Agency, a ainsi créé des faux comptes sur Twitter et sur Facebook, qui ont participé à la propagation de contenus trompeurs ou simplement faux visant à affaiblir la candidate démocrate. La stratégie (évoquée à l’occasion du débat au Sénat) est simple : créer un compte visant à gagner le respect d’un public précis, par exemple des jeunes chrétiens pratiquant, en postant d’abord une forme de contenu neutre. Par la suite, partager des avis plus marqués, comme dans le meme (image superposée d’un texte) ci-dessous. 

Dans l’ensemble, ce qui inquiète donc les régulateurs (mais aussi les journalistes et les chercheurs en sciences sociales) est que les mécanismes par lesquels l’information circule sur ces plateformes ne mettent pas en avant la rationalité mais l’affect, et peuvent être utilisés par qui les maîtrise pour influencer l’opinion publique. Cela est particulièrement problématique lorsqu’il s’agit d’un gouvernement extérieur.

Réguler la circulation de contenu

Selon la Commission fédérale du commerce (FTC), des acteurs extérieurs aux Etats-Unis ne sont pas autorisés à utiliser des médias pour influencer une élection américaine. Or des publicités et contenus (Facebook a reporté récemment 3 000 publicités liés à des faux comptes entre juin 2015 et mai 2017) tels que nous les avons décrits plus hauts ont circulé sur ces plateformes. Le Sénat américain demande donc aux géants américains de réagir.

La question de la régulation du contenu en ligne est complexe. Lors de l’audition, l’un des sujets abordés a été celui de la détection de contenus opposés aux règles d’utilisation de la plateforme. Dans certains cas, notamment lorsque les contenus sont racistes ou incitent à la violence, les plateformes les suppriment. Mais la ligne entre ce qui doit être censuré et autorisé reflète nécessairement des questions d’ordre idéologique. Il est donc pertinent de se demander dans quelle mesure ce travail de régulation repose légitimement sur les épaules de géants technologiques, et surtout à quoi il peut mener. Laisser ces entreprises décider de ce qui circule sur leurs plateformes peut présenter un risque pour la pérennité de la démocratie : en les poussant à agir sur ces sujets, nous mettons entre les mains d’acteurs commerciaux la prise de décisions politiques et sociales

Au-delà de la régulation du contenu, il s’agit également d’identifier les auteurs. Bien souvent, les comptes responsables de la divulgation de ces informations sont faux (ils ne sont pas reliés à un individu). L’Internet Research Agency à Saint Petersburg est accusée de la création de nombreux bots - des programmes intelligents qui peuvent interagir avec les utilisateurs en se faisant passer pour des humains. Le règlement des plateformes stipule que ceux-ci sont interdits. Cependant, dans la plupart des cas, il est difficile de déterminer leur authenticité (et leur origine géographique). Il faudrait recouper plusieurs informations pour y parvenir, expliquent Twitter et Facebook : si le compte est relié à un numéro de téléphone russe, une adresse russe, si ses contacts sont russes etc. Ce processus hasardeux requiert donc du temps et des ressources, ce qui retarde la suppression des faux comptes.

Quelques solutions

Aujourd’hui la régulation de ces plateformes fait l’objet d’expérimentations : 

Selon First Draft, une coalition d’acteurs des médias qui vise à répondre aux problèmes liés à la confiance et la vérité en ligne, les gouvernements devraient s’emparer de cette question et pousser à la transparence. En rendant visibles les raisonnements des algorithmes qui déterminent la visibilité des contenus, l’administration américaine espère sensibiliser les lecteurs et développer une audience critique. Mais pour les plateformes, cela implique de divulguer aux yeux de tous la recette secrète sur laquelle reposent leurs revenus (et qui les différencie de leurs concurrents). Un point de blocage important qui retarde la mise en application de régulations de ce type.

Une autre possibilité est d’imposer une amende aux géants du net, comme l’a fait l’Allemagne, où le parlement a approuvé une loi selon laquelle les plateformes pourraient devoir payer 50 millions d’euros si elles ne supprimaient pas suffisamment rapidement tout contenu incitant à la haine ou à la violence. L’Allemagne a par ailleurs été un terrain d’expérimentation pour Facebook, qui y a mis en place, durant les récentes élections fédérales, des outils afin d’aider les utilisateurs et journalistes à identifier les fake news. Bien que ces dernières semblent avoir été moins néfastes en Allemagne qu’aux Etats-Unis, il reste difficile de mesurer si ce résultat est dû à de telles mesures coercitives. 

Mais les plateformes ne sont pas les seuls acteurs à pouvoir agir pour améliorer la qualité de l’information en ligne. Le monde de l’éducation peut être source de solutions en enseignant les manières de distinguer les fake news pour les utilisateurs ou de vérifier la véracité des faits relayés pour les journalistes. De même, la création et le financement d’agences de vérification de faits telles que Les Décodeurs en France ou Politifact aux Etats-Unis peut être une solution efficace. Plus largement, les institutions des médias traditionnels ont un rôle à jouer : l'effritement de la qualité du journalisme local et régional laisse la porte ouverte aux influences de nouveaux acteurs, tels que les bots russes. 

 

A voir aussi

Ajouter un commentaire

Commentaire

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
  • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017