Aller au contenu principal
En ce moment
Exemple : Education, Europe, Santé

Digital Services Act : un grand pouvoir implique de grandes responsabilités

BLOG - 8 Septembre 2020

La Commission européenne a ouvert, début juin, une consultation publique afin de collecter les contributions de la société civile au Digital Services Act, le texte européen visant à responsabiliser les intermédiaires numériques. L’Institut Montaigne a répondu à la consultation et, dans cette série de billets, présente les grands enjeux de la responsabilisation des plateformes, en s’appuyant sur les travaux menés par plusieurs groupes de travail ces dernières années. Ce billet introductif présente les difficultés auxquelles les plateformes font face, et les risques induits pour les sociétés européennes.

S’il était encore nécessaire de démontrer la centralité des plateformes numériques dans tous les aspects de nos sociétés, le confinement s’en est chargé. Confrontés à la nécessité de la distanciation physique, nous nous sommes connectés à ces plateformes pour travailler, commander nos courses, garder le contact avec nos proches, nous informer sur l’état de l’épidémie et les nouvelles mesures. Cette période a constitué un moment d’expérimentation forcé tant pour certaines personnes - qui s’étaient jusque-là tenues bien à l’écart des intermédiaires numériques - que pour certains secteurs - qui semblaient jusque-là imperméables à la numérisation.

Chaque secteur voit en effet apparaître des intermédiaires numériques qui perturbent les acteurs établis, tandis que les mauvais comportements et les acteurs frauduleux d’hier sont désormais présents en ligne. Rien d’étonnant donc à ce que ces intermédiaires soient au cœur de la plupart des enjeux économiques et politiques majeurs : concurrence et petit commerce, mobilité urbaine, désinformation et populisme, biais et discriminations, statut des travailleurs des plateformes…

Le Digital Services Act européen, projet majeur de régulation des plateformes numériques de la nouvelle Commission Von der Leyen, va tenter, d’ici la fin de l’année, de mieux encadrer leurs activités et de créer un nouveau cadre de responsabilité pour assurer la protection des citoyens et utilisateurs européens. Cette initiative est à la fois nécessaire et délicate, tant les enjeux sont importants. L’inaction comme l’action mal avisée auraient des coûts importants.

Les enjeux que posent les intermédiaires numériques sont divers

Les difficultés que posent les intermédiaires numériques sont multiples. Elles sont d’abord d’ordre concurrentiel, du fait de la nature même de ces acteurs. Ils mettent en relation acheteurs et producteurs sur de nombreux marchés et acquièrent un pouvoir prépondérant, que ce soit dans le commerce et la logistique (Amazon, Shopify), l’information (Google News, Twitter), le transport (Uber), le tourisme (Booking), le divertissement (Tik Tok, Youtube, Twitch), ou la publicité (Google, Facebook). Les effets de réseaux font qu’il n’y a souvent de la place que pour un nombre limité d’intermédiaires. Le gagnant emporte la grande majorité du marché, et fixe ses propres règles.

Les intermédiaires numériques créent aussi de nouvelles catégories qui échappent encore au droit actuel, et donc à ses règles. Les travailleurs des plateformes "à la tâche" (Kaptn, Deliveroo, etc.) par exemple. Ils sont réputés indépendants et ont donc des cotisations sociales et une protection sociale bien inférieure à des salariés. Et pourtant, ces plateformes disposent d’un pouvoir considérable pour amener les chauffeurs ou livreurs à travailler durant une certaine plage horaire ou dans une certaine zone. Comment faut-il encadrer cette relation entre la plateforme et les travailleurs ?

Dans un autre domaine, nous peinons toujours à décider si les réseaux sociaux doivent être assimilés à des éditeurs (un journal, une chaîne de télévision, une radio) et donc être responsables du contenu qui est publié par leurs utilisateurs, ou à de simples hébergeurs. Nous avons connecté tout le monde, y compris ceux dont les intentions sont mauvaises. Les contenus qui circulent en ligne ont aujourd’hui des effets problématiques dans notre quotidien individuel (cyberharcèlement, particulièrement chez les jeunes) et collectif (lorsque certains tentent de déstabiliser des élections démocratiques). Dans quelle mesure des acteurs comme Facebook et Youtube doivent-ils être tenus pour responsables de la désinformation ou des contenus haineux publiés sur leurs plateformes et recommandés par leurs algorithmes ? Quelles mesures concrètes peuvent-ils mettre en place pour limiter la circulation de contenus dangereux sans pour autant entraver les libertés de communication et économique ?

Ces enjeux ont un point commun

Le problème commun est celui de la transparence des systèmes [...] Puisque les décisions qu’ils prennent concernant ces contenus touchent des consommateurs, des citoyens ou des travailleurs, elles doivent être soumises à un regard extérieur.

Au fond, pourquoi tenter d’écrire un texte concernant aussi bien Amazon dans le e-commerce, que Uber dans les transports ou encore que Facebook dans le marché de l’information ? Quel est le dénominateur commun de ces plateformes et des enjeux qu’elles posent ? Comme nous allons le voir dans cette série, ces intermédiaires posent des difficultés d’ordre proprement numérique. Ils génèrent de la donnée précieuse (d’usage, d’achat, de comportement), parfois intime, qu’ils utilisent pour mieux comprendre leurs usagers et influencer les décisions qu’ils prennent (lire un article plutôt qu’un autre, travailler à une heure précise, acheter ce produit, etc.). Les intermédiaires numériques et leurs systèmes jouent donc un rôle important dans chacun de ces secteurs.

Le problème commun est celui de la transparence des systèmes qu’ils mettent en place pour recommander des services, des produits ou des contenus d’une part, et pour identifier les services, produits ou contenus illégaux ou dangereux d’autre part. Puisque les décisions qu’ils prennent concernant ces contenus touchent des consommateurs, des citoyens ou des travailleurs, elles doivent être soumises à un regard extérieur. Les autorités publiques, mais aussi la société civile (associations de protection des droits, des individus, des consommateurs, etc.) doivent ainsi pouvoir participer à l’établissement de règles pour encadrer ces systèmes et éviter les dérives. Mais comment ouvrir ces systèmes ? Comment mettre en place des processus de décision, surtout concernant les zones grises telles que les contenus haineux ou la désinformation, qui soient démocratiques et légitimes ? Voici les questions auxquelles la Commission européenne s’attache de répondre dans le cadre du Digital Services Act.

Notons que l’été 2020 aura été un mélange particulièrement concentré de toutes ces difficultés pour les plateformes. Au Royaume-Uni, l’algorithme utilisé pour estimer des notes des A-level, l’examen final des lycéens, a été accusé de favoriser les lycéens d’écoles privées. En Europe et aux États-Unis, la désinformation sur l’épidémie en cours fait courir des risques à l’acceptation par la population d’un futur vaccin, tandis que la popularité de TikTok auprès des jeunes fait craindre une influence chinoise grandissante. Face à toutes ces difficultés, même les patrons de Facebook, Microsoft et Google appellent à une régulation, qu’ils souhaitent bien entendu favorable à leur modèle d’affaire.

 

L’Institut Montaigne publiera dans les jours qui viennent une série de billets afin de mettre en avant les contributions de plusieurs de ses travaux au débat sur la responsabilité des intermédiaires numériques. Le premier concerne l’enjeu transversal de la supervision des algorithmes et de leurs biais éventuels, en s’appuyant sur le rapport Algorithmes : contrôle des biais S.V.P.. Le deuxième traite des enjeux liés aux travailleurs indépendants sur les plateformes, en reprenant les conclusions du rapport Travailleurs des plateformes: liberté oui, protection aussi. Enfin, le troisième aborde les enjeux liés aux contenus, évoqués dans le rapport Internet : le péril jeune ? et le travailDésinformation : dépasser la modération des contenus.

 

Copyright : KIMIHIRO HOSHINO / AFP

 

A voir aussi
  • Commentaires

    Ajouter un commentaire

    Commentaire

    • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
    • Les lignes et les paragraphes vont à la ligne automatiquement.
    • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
    • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017