Par Marcel Moritz, Maître de conférences HDR à l’Université de Lille, CERAPS UMR 8026

À la suite des attaques menées par le Hamas le 7 octobre dernier, de nombreux contenus haineux ou de désinformation ont été diffusés sur les réseaux sociaux. Dans un discours prononcé le 18 octobre devant le Parlement européen, Thierry Breton a rappelé que « la diffusion généralisée de contenus illicites et de désinformation liés à ces événements entraîne un risque clair de stigmatisation de certaines communautés, de déstabilisation de nos structures démocratiques, sans parler de l‘exposition de nos enfants à des contenus violents ». Il a également rendu publique sa correspondance exigeant de certains réseaux sociaux, notamment X (ex-twitter), de lui rendre compte s’agissant de la circulation de fausses informations et d’images violentes. La question de l’encadrement des plateformes en ligne s’est ainsi, de nouveau, trouvée au cœur de l’actualité.

Pourquoi ces plateformes (Facebook, Instagram, X, TikTok, etc.) ne modèrent-elles pas davantage les contenus ?

Ces plateformes bénéficient d’un cadre juridique très favorable, largement lié à une directive antérieure à leur naissance : la directive 2000/31 du 8 juin 2000. Ce texte prévoit une quasi-irresponsabilité des hébergeurs de contenus en ligne. En synthèse, un hébergeur ne devient généralement responsable que si un contenu illégal lui a été notifié, et qu’il n’a pas agi promptement pour le faire disparaître.

C’est le principe, fort laxiste, du notice and take down. Le problème principal est que cette directive a été pensée à une époque où les réseaux sociaux n’existaient pas. Or, leur modèle économique est précisément de gagner de l’argent grâce aux contenus en ligne. Il est donc pour le moins discutable de leur permettre de réaliser des bénéfices avec ces contenus, tout en leur imposant si peu d’obligations vis à vis de leur licéité.

Le droit a-t-il évolué vers plus de fermeté ces dernières années ?

Absolument. Face aux nombreux contenus illégaux hébergés par les plateformes, le droit applicable a évolué. Le principe du notice and take down a été progressivement complété par une obligation de notice and stay down, impliquant l’obligation dans certains cas de s’assurer qu’un contenu illégal ne soit pas remis en ligne après suppression. En outre, il faut souligner l’adoption en 2022 du Digital Services Act package par le Parlement européen.

Le règlement sur les services numériques (DSA) est notamment amené à jouer un rôle majeur, en encadrant les activités des plateformes, en particulier celles des géants du numérique. Il est entré en vigueur pour les plus grandes plateformes (comme par exemple Facebook, Instagram, X, Meta, Snapchat, ou encore plusieurs des services de Google) dès le 25 août 2023. Il s’agit notamment pour les entreprises concernées d’être plus transparentes et d’analyser les risques qu’elles génèrent en faisant effectuant des audits indépendants réguliers. Il leur appartient également de retirer ou bloquer plus efficacement l’accès aux contenus illégaux, en coopérant avec des « signaleurs de confiance ». Cela signifie concrètement que certaines personnes, par exemple des associations de protection de l’enfance, de lutte contre le racisme ou l’antisémitisme, devront voir leurs signalements traités en priorité. C’est une manière d’améliorer le mécanisme actuel de notification des contenus illégaux, en renforçant la qualité des signalements afin de réduire les délais de traitements.

Pourquoi n’avoir pas été plus loin, en imposant par exemple des délais très brefs pour retirer tous les contenus illégaux signalés, sous peine de sanctions ?

C’est précisément la voie qui avait été tentée en France avec la loi Avia en 2020. Cette dernière imposait aux plateformes en ligne de retirer dans un délai de 24 heures, après notification par une ou plusieurs personnes, des contenus manifestement illicites tels que les incitations à la haine, les injures à caractère raciste ou anti-religieuses. Pour d’autres contenus (terroristes ou pédopornographiques), le délai de retrait était même réduit à une heure.

Ces dispositions ont cependant été jugées contraires à la Constitution, le risque d’atteinte à la liberté d’expression étant trop important. Concrètement, compte tenu des délais, aucune décision juridictionnelle n’aurait pu intervenir. Au regard des sanctions importantes prévues (un an d’emprisonnement et 250 000 euros d’amende), le risque était fort que les plateformes optent pour une « surmodération » a posteriori, voire même une véritable censure éventuellement assistée par des systèmes algorithmiques. 

N’y a-t-il donc aucune solution ?

Le problème central, à mon sens, est que nous sommes passés en une vingtaine d’année d’un paysage médiatique dans lequel la publication d’une information supposait le plus souvent une responsabilité éditoriale (presse, radio, télévision) à un paysage de nouveaux médias de masse, les réseaux sociaux, pour lesquels il n’existe pas de responsabilité éditoriale du diffuseur car le principe même est celui d’une absence de contrôle préalable des messages. Certains peuvent y voir le triomphe d’une liberté d’expression totale. D’autres, de plus en plus nombreux, se disent que le prix à payer est décidément trop important en termes de désinformation, de haine en ligne, ou encore d’enjeux démocratiques du fait des « bulles de filtres ».

L’explosion des deepfakes – une technique de synthèse multimédia reposant sur l’intelligence artificielle et servant à superposer des fichiers vidéo ou audio existants sur d’autres fichiers, parfois utilisée pour créer des infox et des canulars malveillants – ne va pas améliorer les choses. Le droit et son évolution offrent bien sûr des réponses, comme en atteste en France le projet de loi visant à sécuriser et à réguler l’espace numérique. Mais son application dans le cyberespace reste toujours complexe. Une piste d’action est de mieux éduquer, sensibiliser aux risques, et ce dès le plus jeune âge. Comprendre comment l’information est générée, diffusée, peut être manipulée, par qui et pourquoi.  Apprendre qu’un contenu diffusé par un média qui engage la responsabilité de son directeur de la publication n’est pas comparable à une vidéo mise en ligne par un influenceur, fut-il suivi par des centaines de millions d’internautes. Pour une certaine génération, dont j’assume faire partie, c’est l’évidence même. Pour les plus jeunes, c’est beaucoup moins vrai, et c’est un grave problème. Plus que jamais, la démocratie de demain se prépare aujourd’hui.