Par Samir Merabet, Professeur de droit privé et sciences criminelles à l’Université des Antilles

Dans quel cadre s’inscrit le débat sur la modération des contenus sur X ?

La modération sur les réseaux sociaux en général, et sur Twitter (devenu X) en particulier, ne cesse d’occuper le devant de l’actualité, qu’il s’agisse de l’entrée en vigueur du DSA ou du rachat de la plateforme par Elon Musk. La politique de modération du réseau social est particulièrement éprouvée depuis les attentats terroristes survenus en Israël le 7 octobre dernier. Pourtant, le sujet n’est pas récent et suscite de longue date la préoccupation des autorités.  L’action menée par SOS Racisme et l’UEJF ayant donné lieu à l’arrêt de la Cour d’appel de Paris le 20 janvier 2022 l’atteste. À cette occasion, la Cour a enjoint la plateforme à révéler les moyens mis en œuvre pour lutter contre les contenus illicites. 

Depuis, le règlement général sur les services numériques est entré en vigueur et contraint les plateformes à communiquer ces informations. Le 5 novembre, X publiait son rapport de transparence, révélant ainsi que la plateforme n’emploie que 52 modérateurs en France pour près de 11 millions d’utilisateurs. De manière encore plus anecdotique, on y apprend qu’elle emploie seulement 12 modérateurs en langue arabe et deux pour l’hébreu ou l’italien. Ce manque de moyens explique-t-il la prolifération des images d’attentats au cours des dernières semaines ?  Sans doute, mais cette situation traduit plus encore un choix éditorial de la plateforme. 

Comment expliquer les carences constatées ? 

Les obligations de modération des plateformes ne font aujourd’hui aucun doute, d’autant plus depuis l’entrée en vigueur du DSA. Les carences constatées ne relèvent donc pas du silence de la loi, mais d’un choix délibéré. Pourtant, la politique de modération du site est a priori claire : « Il n’y a pas de place sur X pour les organisations violentes, y compris les organisations terroristes et les groupes extrémistes violents, ni pour les individus affiliés à ceuxci et qui font la promotion de leurs activités illicites ». Pourtant, malgré cette doctrine, les contenus susceptibles d’être illicites pullulent sur le site. 

Ainsi, le 10 octobre dernier, Jean-Noël Barrot, ministre délégué chargé du numérique, a annoncé à l’Assemblée nationale que Pharos avait été saisie de près de 2000 signalements depuis le 7 octobre et vraisemblablement concernant essentiellement X. Cette situation pourrait s’expliquer par les exceptions à la suppression des contenus terroristes envisagées par X. Ses règles de modérations prévoient notamment une exception liée « à la discussion sur le terrorisme ou l’extrémisme à des fins clairement éducatives ou documentaires ». Cet objectif pourrait-il justifier l’absence de modération d’images issues des attentats du 7 octobre ? Dans l’esprit d’Elon Musk, de telles publications relèvent peut-être de la liberté d’expression ou d’information. 

Cette absence de modération est-elle dangereuse ? 

L’exception envisagée par X est-elle illégitime ? La publication d’images issue d’un attentat doit-elle nécessairement être supprimée ou peut-elle servir un objectif supérieur ? Un débat similaire était intervenu après la publication par Marine Le Pen et Gilbert Collard de photos d’exactions commises par l’État islamique et qui avaient justifié la levée de leur immunité parlementaire, après une saisine du procureur par Bernard Cazeneuve, alors ministre l’Intérieur. La procédure a donné lieu à un jugement du tribunal judiciaire de Nanterre le 4 mai 2021, écartant la responsabilité des deux mis en cause (aff. n° 16021000282). Le tribunal a considéré que les faits poursuivis sur le fondement de l’article 227-24 du Code pénal ne révélaient aucun but prosélyte et poursuivaient un objectif d’information dans une démarche de contestation politique. 

Cette perspective permet-elle à X de refuser de modérer de tels contenus ? En opportunité, un tel raisonnement ne convainc pas. L’auteur d’une publication peut être dépourvu de toute intention en lien avec une activité terroriste et ne viser qu’un but informatif voire chercher à dénoncer les attentats en cause. Néanmoins, indépendamment de l’intention de l’émetteur, il n’est pas possible de déterminer la manière dont le contenu litigieux sera perçu par son destinataire. Il y a sans doute un danger à ce que le public s’habitue à ce type de contenu qui conduirait à une banalisation de massacres, voire servirait une propagande terroriste. La situation est d’autant plus préoccupante que les algorithmes de recommandations conduisent à exposer le public à ces images, sans même l’avoir voulu. En ce sens, la plateforme ne se contente pas d’héberger les contenus litigieux mais participe à leur visibilité. Dès lors, il convient de clairement distinguer la responsabilité éventuelle de l’émetteur de celle de la plateforme. 

Reste une difficulté tenant à la caractérisation de ces contenus quand elle doit se faire à l’initiative de la plateforme elle-même. Il est possible que la nature terroriste du contenu puisse être sujette à débat dans certaines situations. Néanmoins, le plus souvent, X peut difficilement s’abriter derrière un tel argument tant la qualification est évidente. Par ailleurs, en dehors même du terrorisme, la violence du contenu peut suffire à motiver la suppression d’un contenus. Aussi, les fondements pouvant justifier la modération ne manquent pas et X est parfois bien plus prompt à exercer ses prérogatives. 

Promotion du terrorisme, radicalisation des opinions, atteinte à la dignité des victimes … Les causes justifiant la modération des contenus terroristes et violents sont nombreuses et le droit dispose déjà des outils nécessaires à cette fin. Reste à présent à en assurer l’effectivité en sanctionnant ces dérives. Les récentes déclarations de Thierry Breton, commissaire européen aux affaires intérieures, permettent d’espérer une réponse des régulateurs à la hauteur des enjeux.