La Commission européenne présente une évaluation de la mise en œuvre du Code européen de bonnes pratiques contre la désinformation
Par Emmanuel Dreyer, Professeur de droit à l’Université Paris I Panthéon-Sorbonne.
Par Emmanuel Dreyer, Professeur de droit à l’Université Paris I Panthéon-Sorbonne
Dans un communiqué de presse du 10 septembre 2020, la Commission a présenté une évaluation de la mise en œuvre du Code européen de bonnes pratiques contre la désinformation au cours de ses 12 premiers mois d’application. Elle a également évoqué les premiers rapports de référence sur les mesures prises par les signataires de ce code pour lutter contre les informations fausses et trompeuses relatives au coronavirus.
En quoi consiste ce Code européen de bonnes pratiques contre la désinformation ?
Le Code européen de bonnes pratiques contre la désinformation a été adopté, en octobre 2018, suite à une communication de la Commission européenne intitulée « Lutter contre la désinformation en ligne: une approche européenne » (avril 2018). Dans ce Code, la désinformation est entendue comme la diffusion d’« informations dont on peut vérifier qu’elles sont fausses ou trompeuses » et qui sont, cumulativement, « créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public » alors qu’elles sont « susceptibles de causer un préjudice public » (au sens de « menaces aux processus politiques et d’élaboration des politiques démocratiques et aux biens publics, tels que la protection de la santé des citoyens de l’Union, l’environnement ou la sécurité »). La notion ne s’étend pas à la publicité trompeuse, à la satire ou à la parodie, ainsi qu’aux opinions partisanes clairement identifiées comme telles. L’objectif n’est donc pas de remettre en cause la liberté d’expression et le droit d’accès à internet mais d’éviter une véritable déstabilisation de la société.
Différentes sociétés et associations ont adhéré au Code en reconnaissant ainsi leur rôle dans la lutte contre la désinformation. Il en va particulièrement ainsi pour Google, Facebook, Twitter, Microsoft, Mozilla et, depuis juin 2020, TikTok. Ces différents signataires ont pris un certain nombre d’engagements visant notamment :
- à éviter le placement de publicité sur des sites de désinformation en ligne ;
- à intensifier les efforts visant à fermer les faux comptes ;
- établir des systèmes et des règles clairs de marquage en ce qui concerne les robots afin de veiller à ce que leurs activités ne puissent pas être confondues avec des interactions humaines ;
- prendre des mesures à l’égard des comptes qui ont pour objectif de propager des éléments de désinformation ;
- investir dans les moyens technologiques permettant de privilégier des informations pertinentes, authentiques et faisant autorité ;
- garantir la transparence afin de permettre aux utilisateurs de comprendre les raisons pour lesquelles ils ont été ciblés par une publicité à caractère politique ou une publicité engagée donnée ;
- diluer la visibilité de la désinformation en améliorant la repérabilité de contenus fiables, etc.
Toutefois, dans ces différentes hypothèses, seuls des « efforts commercialement raisonnables » sont attendus. La logique reste celle d’une autorégulation, les engagements évoqués ci-dessus étant plus ou moins précis, et donc en grande partie laissés à l’appréciation de ceux qui les prennent.
Néanmoins, pour permettre un contrôle de cette nouvelle politique de lutte contre la désinformation, les signataires se sont engagés à rédiger un compte rendu annuel de leurs travaux. Différents rapports « agrégés » ont également été mis à la charge de la Fédération mondiale des annonceurs, de l’Association européenne des agences de communications, de l’IAB Europe. Par ailleurs, les signataires se sont engagés à sélectionner un organisme tiers objectif pour évaluer les progrès accomplis par rapport aux engagements pris. Quant à la Commission européenne, elle a pu s’appuyer sur un rapport de suivi établi par le groupe des régulateurs européens pour les services de médias audiovisuels (ERGA).
Quelle action spécifique a été menée pour lutter contre la désinformation liée au coronavirus ?
À l’occasion de la pandémie de coronavirus, la Commission a spécialement défini une approche européenne de la désinformation qui y est liée (communication conjointe du 10 juin 2020). Dans ce cadre, les signataires du Code de bonnes pratiques ont établi leurs premiers rapports de référence dressant le bilan des mesures prises par eux jusqu’au 31 juillet 2020 pour lutter contre l’« infodémie » . Il en résulte notamment que Google Search a mis en avant des articles publiés par des organisations européennes de vérification des faits, qui ont généré plus de 155 millions d’impressions au cours du premier semestre de 2020, et LinkedIn a envoyé le « European Daily Rundown » (revue de presse dont le contenu est édité par un journaliste expérimenté) à près de 10 millions de membres intéressés dans l’UE. Facebook et Instagram ont aiguillé plus de 2 milliards de personnes vers des ressources provenant des autorités sanitaires, dont l’OMS. Twitter a suspendu plus de 3,4 millions de comptes suspects ciblant les débats sur le coronavirus. Et, plus largement, les plateformes signataires ont facilité les publicités liées au coronavirus provenant des autorités de santé publique et des organismes de soins de santé. Mais ce constat ne remet pas en cause l’insuffisance globale des moyens dégagés.
Comment la Commission européenne compte-t-elle intensifier la lutte contre la désinformation ?
À l’occasion de l’évaluation des douze premiers mois d’application du Code européen de bonnes pratiques contre la désinformation, la Commission s’est félicitée du fait que ce Code constitue un instrument précieux – le premier du genre dans le monde – qui fournit un cadre pour un dialogue structuré entre les différentes parties prenantes mais elle a aussi regretté « certaines carences provenant principalement du fait que le code repose sur l’autorégulation ». Ce qui est assez désarmant. En effet, de telles carences sont la rançon du mode d’action choisi. On ne peut recourir à l’autorégulation pour ses avantages sans en accepter aussi les inconvénients. Plus spécialement, la Commission a pointé le manque de transparence des plateformes sur les moyens mis en œuvre et les résultats obtenus : absence d’indicateurs clés de performance pertinents pour évaluer l’efficacité des politiques adoptées, manque d’accès aux données permettant une évaluation indépendante des tendances émergentes et des menaces que représente la désinformation en ligne, absence de coopération entre les plateformes et la communauté des chercheurs, notamment.
En conséquence, la Commission a annoncé qu’elle entend faire progresser son approche globale en présentant deux initiatives complémentaires d’ici à la fin de l’année 2020 : un plan d’action pour la démocratie européenne et un paquet législatif sur les services numériques. Ces deux initiatives devraient permettre d’intensifier les travaux de l’UE visant à lutter contre la désinformation. Le temps semble être venu d’aller au-delà des mesures d’auto-régulation. Il y a urgence en effet. On se souvient que, dans une déclaration conjointe du 15 juin 2020, différentes organisations représentant des radiodiffuseurs, éditeurs et journalistes ont réclamé à la Commission européenne « des mesures plus fortes » face aux plateformes Internet. Cette déclaration conjointe dénonçait l’augmentation de la désinformation en ligne remettant en cause les efforts de santé publique et le fait que, en la matière, l’Europe dépend trop de la bonne volonté des plateformes. Concrètement, des sanctions sont désormais attendues pour garantir que les signataires du Code respectent leurs engagements.