Décès du streameur « JP » en direct sur « Kick » : les failles de la régulation des plateformes
Depuis le décès en direct du streameur Jean Pormanove sur la plateforme australienne Kick le 18 août dernier, la question de la modération des contenus en ligne s’impose dans le débat public. Les autorités s’interrogent notamment sur les responsabilités des plateformes et sur la nécessité d’un encadrement plus strict.
Publié le

Par Evan Raschel, Professeur à l’Université Clermont Auvergne, Directeur du Centre Michel de l’Hospital UR 4232
Une enquête de Médiapart fin 2024 avait déjà révélé publiquement les sévices et humiliations infligées à la victime. Quelles en ont été les suites ?
Une procédure judiciaire a été engagée à Nice dès la fin de l’année 2024 car les contenus révélaient la commission de plusieurs infractions pénales, notamment celle de violences volontaires aggravées. Il ne faut pas oublier qui sont les premiers responsables de ce drame: avant la négligence coupable de la plateforme Kick, avant la réaction insuffisante des autorités publiques, plusieurs personnes ont commis des infractions graves sur la victime, que son prétendu consentement ne saurait aucunement excuser. La difficulté est que le cours de la justice pénale n’est absolument pas adapté à la vitesse de propagation des contenus en ligne : la procédure est toujours en cours, et son aboutissement paraît lointain, ce qui a permis aux violences physiques et psychologiques de perdurer.
Cependant, d’autres outils auraient pu être mobilisés. En particulier (pensons aussi à l’action en référé prévue par les articles 834 et 835 du Code de procédure civile), l’article 6-3 de la loi pour la confiance dans l’économie numérique (LCEN) dispose que « Le président du tribunal judiciaire, statuant selon la procédure accélérée au fond, peut prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne ». « Toute personne » : sont par exemple concernés les éditeurs de contenus, et encore les fournisseurs d’accès qui paraissent les mieux à même de répondre à cette injonction judiciaire – le cas échéant, « la prescription de ces mesures n’est pas subordonnée à la mise en cause préalable des prestataires d’hébergement » (Cass. civ. 1re, 18 oct. 2023, no 22-18926, Bull., § 5), ni à une demande de retrait formulée auprès de ces derniers. Il paraît particulièrement regrettable que cette voie n’ait pas été explorée en temps voulu.
Avec l’impact considérable du décès, des poursuites complémentaires ont été diligentées. Le parquet de Paris (compétent sur tout le territoire national en la matière, en application de l’article 706-72-1 du code de procédure pénale), en concertation avec le parquet de Nice, a ouvert le 25 août une enquête préliminaire du chef de fourniture en bande organisée de plateforme en ligne (article 323-3-2 CP). L’enquête a été logiquement confiée à l’Office anticybercriminalité (OFAC) qui est rattaché à la direction nationale de la police judiciaire. Il s’agit principalement de savoir si la plateforme Kick fournissait en connaissance de cause des services illicites, et si elle satisfaisait au règlement européen « DSA », notamment en ce qui concerne l’obligation de signaler aux autorités les risques d’atteinte à la vie ou à la sécurité des personnes. Relevons que l’article 323-3-2 CP a été modifié par la loi « narcotrafic » du 13 juin 2025, pour désormais également punir les manquements par les plateformes aux obligations des articles 15 (rapports de transparence), 16 (mécanisme de notification par les utilisateurs) et 18 (notification des soupçons d’infraction pénale) du DSA auquel la loi renvoie explicitement.
La plateforme Kick revendique une très faible modération des contenus, ce qui aurait contribué à la situation. A-t-elle manqué à ses obligations ?
Le législateur français (loi pour la confiance dans l’économie numérique de 2004, loi visant à sécuriser et à réguler l’espace numérique de 2024) et les autorités européennes (DSA principalement) imposent certaines obligations aux plateformes, auxquelles la plateforme Kick semble avoir manqué. Deux méritent particulièrement d’être ici signalées.
En premier lieu, l’article 6, IV, A LCEN oblige les hébergeurs à concourir à la lutte contre la diffusion de certains contenus (harcèlements, pédopornographie, discours de haine…). Plus précisément, les hébergeurs doivent informer « promptement les autorités compétentes de toutes les activités illicites mentionnées (…) qui leur sont signalées et qu’exercent les destinataires de leurs services ». Tout manquement à ces obligations est puni d’un an d’emprisonnement et de 250 000 euros d’amende (peines adaptées pour les personnes morales).
En second lieu, le chapitre III du règlement DSA impose des « obligations de diligence pour un environnement en ligne sûr et transparent ». Des obligations de « diligence » et pas de « vigilance » : les contenus illicites sont initialement identifiés par des internautes, qui vont les signaler aux hébergeurs, lesquels devront les retirer promptement. Et l’article 18 du règlement oblige l’hébergeur qui a connaissance d’informations conduisant à soupçonner qu’une infraction pénale présentant une menace pour la vie ou la sécurité d’une ou de plusieurs personnes a été commise, est en train d’être commise ou est susceptible d’être commise, à informer promptement les autorités répressives ou judiciaires de l’État concerné de son soupçon et à fournir toutes les informations pertinentes disponibles. Cela fait bien sûr écho à la situation commentée. L’Arcom dispose d’un rôle important pour veiller au respect de la plupart de ces obligations, et dispose à cette fin de pouvoirs d’« inspection » des locaux, de saisies, et peut mettre en demeure l’hébergeur de se conformer à ses obligations, voire prononcer à son encontre une sanction pécuniaire.
Précisément, à la suite du décès, l’Arcom a été immédiatement ciblée pour n’avoir pas réagi à cette diffusion illicite : ces critiques étaient-elles fondées ?
Effectivement, l’Arcom a été prise dans un tourbillon médiatique qui l’a fait apparaître comme le principal responsable de cette inaction. Notamment parce que l’Arcom avait été saisie de la situation par la Ligue des droits de l’homme (LDH) dès le mois de février. La plupart des critiques émises semblent largement exagérées et se trompent en réalité de cible. Le président de l’Arcom a dû le rappeler (Le Monde, 26 août 2025, p. 22) : si l’Arcom est «le régulateur de l’audiovisuel et du numérique », cette formule synthétique porte à confusion car l’autorité ne dispose pas des mêmes pouvoirs en matière audiovisuelle (elle a hérité ici des pouvoirs de l’ancien Conseil supérieur de l’audiovisuel) et numérique. Le problème n’est pas de savoir si la plateforme a manqué aux obligations imposées par la loi et le règlement DSA. Tel est a priori le cas, ce qui attribue en théorie une réelle compétence à l’Arcom. Le problème provient de la mise en œuvre du DSA et de son applicabilité à la plateforme Kick qui est australienne. Celle-ci ayant moins de 45 millions de visiteurs mensuels au sein de l’UE, elle n’est pas considérée comme une « très grande plateforme en ligne » soumise en tant que telle à un régime de responsabilité renforcée. Elle demeure soumise au droit européen et doit, à ce titre, désigner un représentant légal au sein de l’UE permettant d’agir à son encontre (article 13 du DSA). En l’occurrence, Kick a désigné (apparemment très tardivement) au sein de l’UE un représentant à Malte, ce qui rend l’autorité de régulation maltaise seule compétente pour contrôler sa conformité au DSA (et l’éventuelle inaction de cette dernière ne change rien). Et si une sanction est prononcée par Malte, encore faudra-t-il la faire exécuter. Seule l’action publique fondée notamment sur le délit de l’article 323-3-2 CP pourra peut-être permettre de poursuivre la plateforme, mais ce n’est plus l’Arcom qui sera alors compétente.
Quelles conséquences pourrait avoir cette affaire très médiatisée sur la régulation des plateformes ?
Cette affaire pose la question des moyens dévolus aux autorités chargées de la lutte contre les contenus illicites en ligne : 23 personnes seraient chargées de faire respecter le DSA à l’Arcom et il n’y aurait que 3 magistrats au parquet national de lutte contre la haine en ligne. Mais comme nous venons de le voir, la difficulté ne peut se résumer à cela. Les véritables solutions dépassent la compétence des autorités françaises. S’il s’agit de renforcer les pouvoirs de l’Arcom, comme cela a pu être suggéré, pour les étendre à des situations comparables à cette affaire, il faudrait revenir sur la répartition des rôles telle qu’elle est actuellement prévue par le DSA, et telle qu’elle ne pourrait être modifiée qu’à l’échelle européenne.
L’idéal serait, comme le propose la Ligue des droits de l’homme, de construire progressivement un véritable secteur européen du numérique, de façon à moins subir l’influence des plateformes qui, pour l’essentiel, ne font pas partie de l’UE et alors que certains Etats (pensons aux Etats-Unis d’Amérique) revendiquent leur volonté de ne pas respecter le DSA, en détournant la liberté d’expression de son sens et de sa portée. Dans ces conditions, les réflexions envisagées pour le moment ne paraissent appropriées. Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique, a proposé au Premier ministre une mission d’inspection pour identifier les difficultés rencontrées et proposer des évolutions. Certes, mais parmi les pistes évoquées, aucune n’est de nature à changer fondamentalement la manière d’appréhender ces difficultés. Il en est ainsi de la relance de l’Observatoire de la haine en ligne par l’Arcom pour intensifier la coopération de tous les acteurs au niveau national (OFAC, DILCRAH, PNHL et CNDCH) ; du rôle plus important dévolu aux « signaleurs de confiance » (associations notamment) qui pourront procéder à des signalements de contenus avec un traitement prioritaire ; encore, la ministre lancera cette année la réserve citoyenne du numérique prévue par la loi « SREN » du 21 mai 2024, afin de mieux associer les citoyens à la détection et au signalement de contenus illicites. Mais rien de tout cela ne permettra de forcer les acteurs du numérique situés à l’étranger de lutter contre ces contenus illicites.