Aller au contenu principal
En ce moment
Exemple : Education, Europe, Santé

Digital Services Act : modérer les contenus et protéger les mineurs

BLOG - 22 Septembre 2020

Ces deux dernières années, les réseaux sociaux ont été fortement critiqués concernant la manière dont ils traitent les contenus problématiques. Désinformation, contenus terroristes, haine en ligne, pédo-pornographie, autant de types de contenus qui posent problème pour les adultes comme pour les mineurs et qui circulent en ligne. Si la réglementation actuelle permet aux plateformes de bénéficier d’exemptions de responsabilité vis-à-vis de ces contenus, la Commission européenne compte mettre un terme à ce régime afin de les inciter à prendre des mesures proactives pour détecter et supprimer les contenus problématiques. Mais quel équilibre trouver entre modération des contenus et liberté d’expression ? Ce dernier billet de la série de l’Institut Montaigne sur le Digital Services Act s'intéresse à la circulation des contenus en ligne et à la question épineuse de leur modération, notamment au regard des risques pour les mineurs. Il s’appuie sur le rapport Internet: le péril jeune ?, publié par l’Institut Montaigne en avril 2020, et sur le travail Désinformation : dépasser la modération des contenus, publié en novembre 2019.

La libre circulation des contenus en ligne pose des enjeux, notamment pour les mineurs

De nombreux contenus problématiques circulent aujourd’hui en ligne. Ces contenus, qu’il s’agisse de désinformation ou de contenus haineux, représentent un enjeu pour l’ensemble de la société. Cependant, disons-le, cet enjeu est difficile à appréhender. S’il est assez aisé de considérer les contenus terroristes comme posant un risque pour la sécurité nationale, faire de même pour les fausses nouvelles ou les insultes en ligne peut faire courir le risque de mettre en place un régime de censure généralisée, dans lequel les contenus sont supprimés pour des raisons politiques.

L’enjeu existe pourtant et requiert une réaction des pouvoirs publics. La question des contenus problématiques en ligne saute aux yeux lorsque l’on s’intéresse aux mineurs (bien qu’ils ne soient pas les seuls concernés). Notre rapport, Internet : le péril jeune ? mesurait que près de 56 % des jeunes affirment avoir été victimes de cyberviolences, et 35 % à de multiples reprises. Entre autres formes de cyberviolences, 13 % d’entre eux disent avoir été victimes de rumeurs, 9 % de menaces, et 5 % disent avoir déjà eu des images intimes d’eux mises en ligne sans leur accord. Ajoutons que, durant le confinement, les jeunes filles ont été particulièrement touchées, notamment par le biais de comptes "fisha" visant à partager des contenus à caractère sexuel obtenus par des jeunes garçons lors de relations passées. Enfin, en parallèle, 19 % des Français dans leur ensemble et 17 % des jeunes déclarent avoir déjà été exposés à des contenus racistes, antisémites ou homophobes.

De plus, le problème de la désinformation touche largement les jeunes, même s’ils sont critiques vis-à-vis des contenus qu’ils consultent. En effet, 74 % d’entre eux déclarent s’être souvent ou parfois rendus compte qu’ils avaient lu des informations s’étant révélées fausses. Les jeunes et les Français dans leur ensemble sont bien conscients des enjeux soulevés par la question de la désinformation. 83 % des 11-20 ans et 82 % des Français jugent en effet que ces contenus devraient être encadrés par la loi. Mais quelle forme peut prendre la régulation des contenus ?

Le cadre légal actuel limite la responsabilité des plateformes vis-à-vis des contenus

Aujourd’hui, les plateformes sont protégées au niveau européen par la directive e-Commerce, qui permet aux plateformes de bénéficier d’exemptions de responsabilité vis-à-vis des contenus qui circulent sur leurs réseaux, en fonction de leur activité. Ainsi, l’article 12 protège les plateformes ayant un rôle de simple transport d’information ("mere conduit") à condition qu’elles ne modifient pas le contenu, ne sélectionnent pas le destinataire et n’initient pas le transfert d’information. De même, l’article 14 protège les plateformes qui jouent un rôle d’hébergeur de contenus de toute responsabilité vis-à-vis des contenus illégaux dont ils n’ont pas connaissance.

Ces catégories ne semblent plus pertinentes alors que les réseaux sociaux jouent un rôle éditorial important, choisissant les contenus qui sont proposés sur les fils d’actualité, et que leurs algorithmes contribuent à rendre certains contenus problématiques particulièrement visibles (des désinformations, des théories du complot ou des articles extrémistes).

Distinguer les contenus illégaux du reste

Notons tout de même que les contenus dont l’illégalité ne fait aucun doute, tels que la pédopornographie ou les contenus terroristes, sont relativement bien pris en compte, notamment du fait de la création de canaux de communication entre les autorités publiques et les plateformes, avec le concours important de la société civile, pour porter ces types de contenus à l’attention des plateformes et déclencher des procédures de suppression.

Mais comment traiter les autres contenus ? Comment créer des catégories suffisamment souples pour ne pas supprimer la moindre insulte en ligne tout en s’assurant que les individus touchés par le cyberharcèlement soient bien protégés ? Comment encourager les plateformes à développer des outils suffisamment performants pour pouvoir détecter les cas de harcèlement ou les insultes stigmatisantes, qui peuvent être proférées par une dizaine de comptes seulement, de manière sporadique, et être spécifiques à une région ?

Notre connaissance de ce qui peut être légitimement supprimé en ligne sans entraver la liberté d’expression est encore trop faible pour concentrer le plus gros des efforts du législateur et des plateformes sur la suppression des contenus.

En France, la loi contre les contenus haineux, dite loi Avia, demandait aux plateformes de supprimer dans un délai de 24 heures tous les contenus haineux dont elles ont pris connaissance via un système de notifications. Cependant, par manque de définition précise de ce que constituait un contenu haineux, et par risque de sur-modération de la part des plateformes afin d’éviter les sanctions, le Conseil constitutionnel a retoqué l’article en question, privant la loi de sa mesure phare. La conclusion est simple : notre connaissance de ce qui peut être légitimement supprimé en ligne sans entraver la liberté d’expression est encore trop faible pour concentrer le plus gros des efforts du législateur et des plateformes sur la suppression des contenus.

Les codes de pratiques volontaires sont insuffisants

Mais faut-il ne rien faire pour autant ? Dans le but de lutter contre les discours de haine, la Commission européenne a mis en place un code de conduite élaboré avec Facebook, Microsoft, Twitter et Youtube, et que des acteurs comme Instagram, Dailymotion ou Snapchat ont ratifié. En adhérant à ce code de conduite, ces plateformes s’engagent à examiner sous 24 heures les demandes de suppression de contenu. Une initiative similaire a été entreprise contre la désinformation en ligne. Si cette méthode basée sur le volontariat est louable, elle s’avère aujourd’hui insuffisante, comme l’a remarqué la Commission européenne dans un communiqué datant du 10 septembre 2020 relatif à l'évaluation du code de bonnes pratiques sur la désinformation. Parmi les enjeux soulevés se trouve le manque de définitions communes aux pays membres. Surtout, les pouvoirs publics ont aujourd’hui trop peu de moyens pour évaluer l’étendue et l’efficacité des mesures prises par les plateformes pour modérer les contenus.

Ajoutons à ces questions relatives aux contenus l’enjeu du contrôle de l’âge sur Internet, indispensable pour effectivement protéger les mineurs en ligne. Sur ce point, le droit anglais avait mandaté en 2017 le gouvernement britannique de mettre en place un système de vérification d’âge sur Internet, qui a dû être abandonné en 2019, sous le feu de la critique pour atteinte au respect des libertés sur Internet. Une initiative similaire est envisagée en France sous la forme d’un article à l’intérieur de la loi visant à protéger les victimes de violences conjugales, dont les débouchés sont encore attendus.

Que proposez-vous pour aller dans le sens d’une plus grande responsabilité ?

Tout d'abord, l'Institut Montaigne formule deux propositions spécifiques à la protection des mineurs dans son rapport Internet : le péril jeune ?. Afin d’assurer un encadrement efficace des usages d’Internet par les mineurs, il doit être rendu possible de vérifier leur âge. L’Institut Montaigne propose donc d’étudier la faisabilité d’un dispositif de vérification de l’âge à l’achat, proposé au parent mais facultatif, entraînant un paramétrage non modifiable du système d’exploitation du smartphone, de la tablette ou de l’ordinateur. Ensuite, l’Institut Montaigne propose de préparer un corpus de règles sur la protection de la jeunesse utilisant des intermédiaires numériques. Ces règles pourraient inclure de rendre leurs profils en ligne privés par défaut, afin qu’ils ne puissent pas être visibles sur les moteurs de recherche, ou de leur limiter strictement l’accès aux contenus destinés aux majeurs. Parallèlement, les sanctions appliquées dans le cadre du RGPD pourront être renforcées en ce qui concerne la protection et l’utilisation des données personnelles de personnes mineures.

Concernant les contenus dans leur ensemble, l’enjeu principal auquel les pouvoirs publics et la société civile font face aujourd’hui est le manque d’informations disponibles sur deux sujets : concernant les mesures mises en place par les plateformes pour détecter et supprimer des contenus d’une part, et concernant les procédures déployées pour améliorer ces procédures d’autre part. Comme le démontre la censure de la loi Avia par le Conseil constitutionnel, la compréhension des législateurs, de la société civile et des plateformes concernant la définition ce qui constitue un contenu dangereux est encore trop incomplète pour faire appliquer des mesures de suppression sans entraver la liberté d’expression. Il faut donc en priorité améliorer les définitions et les systèmes de détection.

La compréhension des législateurs, de la société civile et des plateformes concernant la définition ce qui constitue un contenu dangereux est encore trop incomplète pour faire appliquer des mesures de suppression sans entraver la liberté d’expression.

Pour cela, il est indispensable d’évaluer de manière suivie, fiable et indépendante les actions des plateformes vis-à-vis des contenus, et de mesurer les conséquences de celles-ci. Le but de cette investigation ne doit pas être de trouver les cas individuels de contenus que les plateformes auraient mal modéré (une désinformation ou un contenu haineux), mais de mettre à jour les erreurs systémiques éventuelles des plateformes dans leurs efforts de modération des contenus.

Ce système pourrait être fondé sur le principe des stress tests, utilisés notamment dans le secteur financier. Appliqué aux plateformes digitales, les acteurs numériques pourraient être contraints à se soumettre annuellement à un audit indépendant de leurs actions. Parmi les éléments que les auditeurs seraient en droit de demander se trouveraient les objectifs fixés en termes de modération de contenus, les moyens humains et technologiques déployés pour y arriver (y compris les procédures de vérification de qualité des données d'entraînement des systèmes de détection de contenus), les difficultés rencontrées, la manière dont ces difficultés ont été contournées, etc. Les objectifs fixés pourraient être ainsi modifiés en fonction de la marge de progression des plateformes. Des sanctions seraient envisagées si ces audits ne révèlent pas de résultats satisfaisants en ce qui concerne la minimisation des risques pour les utilisateurs.

Certaines de ces informations pourraient être rendues publiques afin que des acteurs tels que les associations de défense des libertés puissent juger de l’adéquation des définitions et des procédures. Il est également important que l’ensemble de la population puisse prendre conscience des enjeux. À cet égard, nous recommandons la publication obligatoire (elle existe aujourd’hui sur la base du volontariat) de "baromètres" annuels par les entreprises, visant à partager au grand public des informations sur des campagnes de harcèlement ou de désinformation qui auraient eu lieu.

Les audits menés par des acteurs indépendants ont démontré leur efficacité vis-à-vis des entreprises et du monde financier. L'utilisation d'auditeurs intermédiaires permet d'éviter à l'État de développer une expertise dont il ne dispose pas et de faire porter le coût de ces audits au contribuable. De surcroît, elle permet de définir de manière graduelle les obligations en termes de moyens et non de résultats, ce qui serait probablement plus difficile si l'État devenait l'interface principale de ces entreprises.

 

 

Copyright : Loic VENANCE / AFP

 

A voir aussi
  • Commentaires

    Ajouter un commentaire

    Commentaire

    • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
    • Les lignes et les paragraphes vont à la ligne automatiquement.
    • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
    • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017