Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
23/04/2019

Le "capitalisme de surveillance" n’est pas une fatalité

Le
 Théophile Lenoir
Auteur
Contributeur - Désinformation et Numérique

Il y a six mois, Shoshana Zuboff publiait le livre The Age of Surveillance Capitalism : the Fight For a Human Future at the New Frontier of Power alors que le monde numérique subissait depuis quelques temps des critiques virulentes quant à l’utilisation des données personnelles par ses acteurs les plus connus. Entre autres, le scandale Cambridge Analytica avait mis au premier plan le risque de manipulation politique que permet l’exploitation des données ; des brèches de sécurité avaient exposé des millions d’utilisateurs, affaiblissant la confiance dans les plateformes. Du côté européen, le Règlement général sur la protection des données (RGPD), entré en vigueur le 24 mai, avait fait du continent un précurseur en matière de protection des données personnelles. 

C’est dans ce contexte que le livre de Shoshana Zuboff a mis au grand jour les stratégies politiques, administratives, légales, matérielles et de communication des grandes plateformes numériques pour extraire des données à partir des comportements des utilisateurs, afin de les revendre à des fins publicitaires. Ainsi, d’après Shoshana Zuboff, si le capitalisme du 20ème siècle reposait sur la production de masse et l’augmentation du pouvoir d’achat de la classe moyenne, le capitalisme du 21ème siècle repose sur la surveillance, soit l’extraction de données personnelles à l’insu des utilisateurs qui en sont à l’origine.

L’exploitation des données extraites à partir des comportements passés des individus [...] permet des prédictions de plus en plus précises de leurs comportements futurs. 

L’auteure démontre que la valeur des grandes entreprises numériques (notamment Facebook et Google) découle de l’exploitation des données comportementales en "surplus" : celles qui ne sont pas générées par l’utilisateur via le service principal d’une plateforme. Par exemple, la valeur créée par un moteur de recherche ne découle pas tant des mots recherchés que de l’exploitation des cookies (des morceaux de code contenant des informations sur l’utilisateur, laissés sur son navigateur par les sites qu’il visite). Ce sont ces derniers qui permettent un profilage fin des internautes à leur insu. Ainsi, l’exploitation des données extraites à partir des comportements passés des individus (en ligne, mais également et de manière croissante dans le monde physique, avec l’arrivée de plateformes de mobilités, de services de paiement, de bâtiments intelligents, etc.) permet des prédictions de plus en plus précises de leurs comportements futurs. 

Dès lors, d’après Shoshana Zuboff, le risque pour nos sociétés est le suivant : il devient possible d’inciter les individus à agir d’une certaine manière, à leur insu, et donc de les contrôler. Ainsi, McDonald’s et Starbucks signaient des contrats avec le jeu Pokemon Go dans l’objectif d’attirer les joueurs chez eux. Certains commentateurs (par exemple Evgeny Morozov dans une longue revue du livre) ont considéré l’analyse de Shoshana Zuboff inutilement dramatique et négative. Indépendamment de la validité de ses arguments, son livre met au premier plan l’un des enjeux à l’origine de nombreux débats sur les sujets technologiques : la technologie est un outil de contrôle invisible ; elle réduit la liberté des individus sans qu’ils ne s’en rendent nécessairement compte. 

Dans certains cas, il s’agit de situations de contrôle auxquelles nous sommes profondément et majoritairement opposés en Europe, comme lorsque le gouvernement chinois utilise des outils de reconnaissance faciale pour surveiller la population ouïghoure en Chine. Cependant, dans d’autres cas, il nous est plus difficile d’avoir un avis tranché et partagé. Par exemple, comme nous le montrons dans le dernier rapport de l’Institut Montaigne, Travailleurs des plateformes : liberté oui, protection aussi, les algorithmes des plateformes de travail à la demande incitent les utilisateurs à certains comportements : prendre un shift à une certaine heure, aller chercher un client dans une certaine zone de Paris, être poli afin de garder une note la plus élevée possible, etc. En théorie, personne ne donne d'ordres, mais la technologie et ses créateurs assurent un contrôle invisible et automatisé. La question que se pose le régulateur est la suivante : ce contrôle mérite-t-il que l’on requalifie les travailleurs en salariés ?

Un autre exemple est la circulation de désinformation. En comprenant la logique par laquelle un contenu gagne en visibilité sur un réseau social spécifique, il devient possible d’atteindre des millions de citoyens en créant des bots (des faux-comptes gérés par des systèmes automatiques) relayant des contenus à forte valeur émotionnelle. L’argument derrière la plupart des initiatives visant à réguler la désinformation est que les opinions des populations les plus touchées par les contenus faux sont contrôlées par des acteurs faisant un usage spécifique de la technologie. Ce contrôle mérite-t-il que l’on censure certains contenus sur Internet ?

L’une des raisons pour lesquelles nous sommes mal à l’aise face à ces formes de contrôle est que les personnes utilisant la technologie n’ont pas de visibilité sur les mécanismes qui la régissent.

L’une des raisons pour lesquelles nous sommes mal à l’aise face à ces formes de contrôle est que les personnes utilisant la technologie (que ce soient les travailleurs des plateformes ou les utilisateurs Facebook) n’ont pas de visibilité sur les mécanismes qui la régissent (quels sont les critères utilisés pour le management algorithmique d’une part, et pour la recommandation de contenu d’autre part). En effet, la dimension invisible de la technologie est au coeur de l’idéologie de ses créateurs. Comme disait Mark Weisser dans son article de 1991 "The Computer for the 21st Century" : "Les technologies les plus puissantes sont celles qui disparaissent. Elles se fondent dans le tissu de la vie de tous les jours jusqu'à ce qu'on ne puisse même plus les en distinguer."

Dès lors, une première étape pour les politiques publiques est d’augmenter la visibilité que les individus ont sur les mécanismes qui régissent les technologies qu’ils utilisent. Dans le récent rapport de l’Institut Montaigne, Travailleurs des plateformes : liberté oui, protection aussi, nous recommandons que les plateformes de travail à la demande communiquent sur leurs conditions d’utilisation, les paramètres pris en compte par les algorithmes, ainsi que sur leurs effets (par exemple, les critères de notation et l’impact de ces notes sur les mises en relation avec les clients). Cette étape est indispensable afin d’assurer une régulation de la technologie, mais elle demeure toutefois insuffisante. Le changement est le fruit de négociations entre acteurs concernés, et c’est pourquoi nous recommandons également que les plateformes encouragent et facilitent le regroupement des travailleurs au sein d’associations pour permettre l’expression des doléances et intérêts collectifs.

Si la surveillance telle que la présente Shoshana Zuboff est une réalité, elle n’est pas inhérente aux outils technologiques. Le monde qu’elle décrit n’est donc pas une fatalité (elle le dit d’ailleurs elle-même). Si les pouvoir publics doivent jouer un rôle plus actif dans la régulation des plateformes numériques, comme le demande Mark Zuckerberg, il est indispensable qu’ils puissent avoir plus de visibilité sur les pratiques de celles-ci, afin de permettre aux individus d’avoir accès aux informations qui les concernent. C’est une première étape indispensable pour appréhender la structure du "capitalisme de surveillance".

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne