Ces deux dernières années, les réseaux sociaux ont été fortement critiqués concernant la manière dont ils traitent les contenus problématiques. Désinformation, contenus terroristes, haine en ligne, pédo-pornographie, autant de types de contenus qui posent problème pour les adultes comme pour les mineurs et qui circulent en ligne. Si la réglementation actuelle permet aux plateformes de bénéficier d’exemptions de responsabilité vis-à-vis de ces contenus, la Commission européenne compte mettre un terme à ce régime afin de les inciter à prendre des mesures proactives pour détecter et supprimer les contenus problématiques. Mais quel équilibre trouver entre modération des contenus et liberté d’expression ? Ce dernier billet de la série de l’Institut Montaigne sur le Digital Services Act s'intéresse à la circulation des contenus en ligne et à la question épineuse de leur modération, notamment au regard des risques pour les mineurs. Il s’appuie sur le rapport Internet: le péril jeune ?, publié par l’Institut Montaigne en avril 2020, et sur le travail Désinformation : dépasser la modération des contenus, publié en novembre 2019.
La libre circulation des contenus en ligne pose des enjeux, notamment pour les mineurs
De nombreux contenus problématiques circulent aujourd’hui en ligne. Ces contenus, qu’il s’agisse de désinformation ou de contenus haineux, représentent un enjeu pour l’ensemble de la société. Cependant, disons-le, cet enjeu est difficile à appréhender. S’il est assez aisé de considérer les contenus terroristes comme posant un risque pour la sécurité nationale, faire de même pour les fausses nouvelles ou les insultes en ligne peut faire courir le risque de mettre en place un régime de censure généralisée, dans lequel les contenus sont supprimés pour des raisons politiques.
L’enjeu existe pourtant et requiert une réaction des pouvoirs publics. La question des contenus problématiques en ligne saute aux yeux lorsque l’on s’intéresse aux mineurs (bien qu’ils ne soient pas les seuls concernés). Notre rapport, Internet : le péril jeune ? mesurait que près de 56 % des jeunes affirment avoir été victimes de cyberviolences, et 35 % à de multiples reprises. Entre autres formes de cyberviolences, 13 % d’entre eux disent avoir été victimes de rumeurs, 9 % de menaces, et 5 % disent avoir déjà eu des images intimes d’eux mises en ligne sans leur accord. Ajoutons que, durant le confinement, les jeunes filles ont été particulièrement touchées, notamment par le biais de comptes "fisha" visant à partager des contenus à caractère sexuel obtenus par des jeunes garçons lors de relations passées. Enfin, en parallèle, 19 % des Français dans leur ensemble et 17 % des jeunes déclarent avoir déjà été exposés à des contenus racistes, antisémites ou homophobes.
De plus, le problème de la désinformation touche largement les jeunes, même s’ils sont critiques vis-à-vis des contenus qu’ils consultent. En effet, 74 % d’entre eux déclarent s’être souvent ou parfois rendus compte qu’ils avaient lu des informations s’étant révélées fausses. Les jeunes et les Français dans leur ensemble sont bien conscients des enjeux soulevés par la question de la désinformation. 83 % des 11-20 ans et 82 % des Français jugent en effet que ces contenus devraient être encadrés par la loi. Mais quelle forme peut prendre la régulation des contenus ?
Le cadre légal actuel limite la responsabilité des plateformes vis-à-vis des contenus
Aujourd’hui, les plateformes sont protégées au niveau européen par la directive e-Commerce, qui permet aux plateformes de bénéficier d’exemptions de responsabilité vis-à-vis des contenus qui circulent sur leurs réseaux, en fonction de leur activité. Ainsi, l’article 12 protège les plateformes ayant un rôle de simple transport d’information ("mere conduit") à condition qu’elles ne modifient pas le contenu, ne sélectionnent pas le destinataire et n’initient pas le transfert d’information. De même, l’article 14 protège les plateformes qui jouent un rôle d’hébergeur de contenus de toute responsabilité vis-à-vis des contenus illégaux dont ils n’ont pas connaissance.
Ces catégories ne semblent plus pertinentes alors que les réseaux sociaux jouent un rôle éditorial important, choisissant les contenus qui sont proposés sur les fils d’actualité, et que leurs algorithmes contribuent à rendre certains contenus problématiques particulièrement visibles (des désinformations, des théories du complot ou des articles extrémistes).
Distinguer les contenus illégaux du reste
Notons tout de même que les contenus dont l’illégalité ne fait aucun doute, tels que la pédopornographie ou les contenus terroristes, sont relativement bien pris en compte, notamment du fait de la création de canaux de communication entre les autorités publiques et les plateformes, avec le concours important de la société civile, pour porter ces types de contenus à l’attention des plateformes et déclencher des procédures de suppression.
Mais comment traiter les autres contenus ? Comment créer des catégories suffisamment souples pour ne pas supprimer la moindre insulte en ligne tout en s’assurant que les individus touchés par le cyberharcèlement soient bien protégés ? Comment encourager les plateformes à développer des outils suffisamment performants pour pouvoir détecter les cas de harcèlement ou les insultes stigmatisantes, qui peuvent être proférées par une dizaine de comptes seulement, de manière sporadique, et être spécifiques à une région ?
Ajouter un commentaire