Par conséquent, l'ambition du rapport de la Commission T3 était principalement :
- de saisir ce qui nous préoccupe vraiment lorsque nous parlons de crise de l'information ;
- d'évaluer l’existence d’éléments prouvant que la désinformation est diffusée par des acteurs externes ;
- de déterminer si la désinformation modifie notre façon de faire de la politique ;
- et d'examiner le rôle du contexte socio-économique plus global dans ces différents phénomènes nouveaux.
Enfin, nous souhaitions aboutir à une compréhension approfondie des plateformes de réseaux sociaux - leur structure, leur mode de fonctionnement, leurs biais - et essayer d’offrir des cadres au service d’une grande plus responsabilité de ces organisations, tout en admettant les éléments positifs de certaines de leurs activités.
Quelles solutions avez-vous identifiées pour garantir une plus grande responsabilité des plateformes de réseaux sociaux ?
Dans le rapport, nous prônons la création d'une agence indépendante (Independent Platform Agency), qui aurait accès aux données de toutes les grandes plateformes, contrôlerait leurs activités de modération, et serait en mesure d'imposer des amendes en cas de rétention des données. Son rôle irait donc au-delà de la simple recommandation de rapports de transparence. Les plateformes de réseaux sociaux se sont très récemment prononcées en faveur de la réglementation, alors qu'elles s'y étaient auparavant opposées. Pourtant, elles ignorent elles-mêmes quels seraient les contours de cette réglementation, et il est important que celle-ci ne soit pas conçue exclusivement selon leurs propres termes et conditions. Nous avons donc besoin d'un organisme indépendant qui travaillerait main dans la main avec les plateformes et qui aurait le pouvoir, la responsabilité, et l'expertise nécessaires pour collaborer avec elles et examiner de l'intérieur les mécanismes qu'elles utilisent. C’est une institution de cette nature qui, en coordination également avec les organismes de réglementation et les législateurs, nous permettra de construire un cadre de responsabilisation qui, en fin de compte, devra impliquer des sanctions.
Jusqu'à présent, les discussions ont principalement porté sur les moyens par lesquels les plateformes ou les gouvernements - ou, d’ailleurs, les deux - peuvent et doivent endosser ce rôle de modération des contenus. Pourtant, si la société civile n’est pas incluse dans ces réflexions, de telles initiatives pourraient être dénoncées comme non démocratiques, compte tenu du contexte actuel de méfiance. Comment s’assurer de la participation des citoyens à ces débats ?
Il est en effet essentiel d'impliquer davantage les citoyens dans ces discussions ; il est à craindre que les individus deviennent de plus en plus sceptiques à l'égard des technologies numériques. Je crois qu'une manière d'y parvenir est de caractériser la façon dont le contenu est priorisé. Ces processus sont encore trop opaques et les critères utilisés pour la curation des contenus doivent gagner en transparence.
Ajouter un commentaire