Par Juliette Sénéchal, Professeur de droit privé, Université de Lille

L’IA générative à usage général peut produire des deepfakes, ou hypertrucages, qui ne sont pas illicites en soi, mais qui peuvent le devenir ou rendre illicites certaines actions accomplies à leur propos, si ces deepfakes reçoivent la qualification d’images pédopornographiques ou pornographiques.

En outre, une IA générative à usage général est souvent une fonctionnalité accessoire d’un autre service numérique, de type « plateforme en ligne », tel un « réseau social » ou une « plateforme de partage de vidéo ». Or grâce à l’effet, par essence, amplificateur de la plateforme, les contenus produits par l’IA générative à usage général, qu’ils soient licites ou illicites, vont se diffuser massivement au sein de la société en faisant l’objet de milliers, voire de millions de vues.

L’IA Grok opérant sur un réseau social et générant massivement des images de femmes et d’enfants dénudés durant les fêtes de Noël n’est ainsi que le révélateur mondial d’une réalité préexistante, mais a contribué à déclencher ou à renforcer les réactions se faisant jour dans de nombreuses parties du monde. L’on peut ainsi recenser de nombreuses réactions nationales, aux rangs desquelles celles de l’Italie, de la France, et du Royaume-Uni, sur des fondements juridiques très variés. L’Union européenne a, elle aussi, fait part de ses préoccupations relatives à la production et la diffusion de ces contenus. Ces différentes réactions non coordonnées ont d’ores et déjà entrainé de premières modifications des modalités de fonctionnement de Grok, à défaut d’une réflexion en profondeur sur l’IA que nous voulons vraiment.

Les réactions nationales aux fondements juridiques variés

Dès le 18 décembre 2025, l’Italie, par la voie de son autorité de protection des données, le GPDP, a pris une mesure rappelant que toutes les personnes qui utilisent, en tant que responsables du traitement ou sous-traitants, des services de génération de contenu basés sur l’intelligence artificielle à partir de voix ou d’images réelles de tiers, procèdent à un traitement de données à caractère personnel, susceptible de violer des articles, 5.1 a), 6 et 9 du RGPD, s’il est effectué en l’absence d’une condition de licéité appropriée et sans que les personnes concernées aient préalablement reçu des informations correctes et transparentes.

Dès le 2 janvier 2026, dès lors que la production des deepfakes pornographiques et pédopornographiques, de même l’incitation à la production de telles images, ou encore leur diffusion, peuvent recevoir de nombreuses qualifications pénales, les ministres français de l’économie, du numérique et de l’égalité entre les femmes et les hommes, ont déclaré avoir « signal[é] au procureur de la République ainsi qu’à la plateforme Pharos » des contenus illicites générés par l’intelligence artificielle de la plateforme X.

Finalement, le Royaume-Uni, par l’intermédiaire de l’Ofcom, l’autorité de régulation des télécommunications nationale, a ouvert le 12 janvier 2026, une enquête « formelle », sur le fondement du Online Safety Act du 26 octobre 2023, visant le réseau social X « concernant des images à caractère sexuel diffusées » par son assistant d’intelligence artificielle (IA) Grok, « pour créer et partager des images de personnes dénudées – pouvant constituer une atteinte à la pudeur ou de la pornographie – ainsi que des images à caractère sexuel d’enfants pouvant constituer du matériel pédopornographique ».

La réaction mesurée de la Commission européenne à l’interface du DSA et de l’AI Act

Au plan du droit européen du numérique, la Commission européenne est potentiellement compétente pour agir à un double titre. Tout d’abord, l’IA Grok, ses développeurs et déployeurs, ainsi que ses deepfakes, peuvent relever par de nombreux aspects de l’AI Act, et ce sous la supervision au moins partielle de la Commission européenne, si l’on considère que la brique principale de l’IA Grok est un modèle d’IA à usage général et à risque systémique. De même, dès lors qu’il est possible de retenir le caractère accessoire de la fonctionnalité d’IA Grok par rapport au réseau social X, et que ce réseau est une très grande plateforme, ayant plus de 45 millions d’usagers mensuel dans l’Union, il convient de relever que celui-ci est soumis au titre du Digital Services Act (DSA), à de nombreuses obligations de diligence, aux rangs desquels, celles d’identifier et d’atténuer les risques systémiques, sous la supervision de la Commission européenne. Dans ce contexte, la Commission a annoncé, le 8 janvier 2026, qu’elle avait prolongé un ordre de rétention des documents relatifs à Grok, initialement émis en 2025, et procéder à une demande d’informations. A cet égard, la Commission est restée très mesurée à ce stade dans ses actions, n’initiant pas pour l’instant d’enquête formelle pouvant aboutir à des sanctions administratives du fournisseur de l’IA et du réseau social, au titre des instruments juridiques précités.

De premières évolutions des modalités d’usage de Grok, à défaut d’une réflexion coordonnée et approfondie

Face à ces réactions nationales et européennes non coordonnées, le réseau social X, a réagi en plusieurs étapes. A la date du 14 janvier 2025, il a, en particulier, annoncé un patchwork de mesures, aux rangs desquels la suppression des contenus pédopornographiques ou traduisant une nudité non consentie, la mise en place de signalements de comptes aux autorités, la prise de mesures techniques mondiales pour empêcher de produire des photos de personnes en « bikinis », même au bénéfice des comptes payants. La faculté d’accéder à Grok afin de produire tout autre type de deepfakes ne serait en outre plus accessible qu’aux usagers payants, afin de pouvoir les identifier en cas d’abus de compte. Un géoblocage serait en outre envisagé à l’égard des pays où la génération d’images personnes en « bikini » via IA est interdite.

La possibilité technique de la production et la diffusion de ces deepfakes pornographiques et pédopornographiques mérite une réflexion plus approfondie que quelques mesures techniques prises en urgence. Cette réflexion pourrait en particulier se centrer sur la notion de risque systémique commune à l’AI Act et au DSA. Quels sont, en effet, les effets systémiques à craindre découlant de ce déshabillage massif par IA des images de femmes et d’enfants « réels », au sein de sociétés d’ores et déjà fragilisées par l’accroissement des problèmes de santé mentale ? Il sera, par ailleurs, noté que la Commission européenne vient de publier, le 19 novembre 2025, une proposition de Digital Omnibus on AI Act, avec pour objectif de réformer l’AI Act. Cette proposition de réforme pourrait être l’occasion de se demander si l’AI Act répond parfaitement à la question de savoir quels sont les usages nous voulons vraiment que l’IA offre aux humains et pour leur bénéfice…