Claude, OpenClaw : le droit est-il prêt à encadrer des agents IA autonomes ?
Claude, Operator, OpenClaw… L’IA agentique s’impose avec la promesse d’assistants autonomes capables d’agir sans intervention humaine. Révolution annoncée ou simple évolution ? Si le droit dispose déjà d’outils pour encadrer ces usages, des zones grises persistent et pourraient imposer des ajustements à court terme.
Publié le
Par Samir Merabet, Professeur de droit privé et de sciences criminelles à l’Université Jean Moulin Lyon 3
En quoi consiste l’IA agentique ?
L’intelligence artificielle agentique est une appellation générique qui englobe les systèmes d’IA capables d’agir de manière autonome pour accomplir des tâches complexes, sans requérir d’intervention humaine intermédiaire au cours du processus. Là où un système classique génère du contenu à la demande d’un utilisateur et nécessite des directives ponctuelles pour en valider les résultats, l’agent IA est en mesure de planifier diverses actions, prendre des décisions et s’adapter aux circonstances, en vue d’accomplir la tâche qui lui est confiée. En somme, l’utilisateur détermine un objectif donné et obtient in fine un résultat sans avoir à intervenir au cours du processus. L’IA agentique ambitionne donc de permettre de déléguer à un système une tâche sans en contrôler l’exécution. Aujourd’hui de tels systèmes se démocratisent et permettent à tout un chacun de configurer des assistants virtuels.
En pratique, l’IA agentique permet d’accomplir des tâches innombrables d’après les entreprises qui en font la promotion. Il s’agit en réalité d’actions qu’accomplissent d’ores et déjà les grands modèles de langage, mais qui pourraient être entièrement gérées par le système d’un bout à l’autre du processus. Par exemple, l’IA agentique peut se voir confier la gestion d’une boîte mail, la conduisant à traiter des courriels, rédiger des réponses et les expédier. Dans un autre registre, le système peut encore identifier des opportunités contractuelles en ligne et procéder lui-même à la conclusion du contrat, qu’il s’agisse de réserver une chambre d’hôtel, une table dans un restaurant ou d’acheter des biens en ligne. Tous les secteurs d’activités peuvent être concernés : en matière commerciale, pour la gestion d’une chaîne d’approvisionnement ; en matière de santé, pour adapter des prescriptions en fonction de l’évolution de données médicale ; en matière financière, pour surveiller le cours d’indice et exécuter des transactions…
D’un point de vue technique, l’IA agentique ne repose pas sur des outils nouveaux mais davantage sur la combinaison de méthodes et de systèmes préexistants. Aujourd’hui, pour l’essentiel, ces assistants virtuels repose sur de grands modèles de langage (LLM) tels que ChatGPT, Gemini ou Claude. Ce sont eux qui sont en mesure de déterminer les moyens d’atteindre l’objectif escompté, en analysant des documents, rédigeant du texte, etc. Pour exécuter spontanément les actions nécessaires, ces LLM doivent être connectés à des outils externes, qu’il s’agisse d’un moteur de recherche ou du système d’exploitation d’un ordinateur leur permettant d’en prendre la main. En définitive, l’IA agentique apparaît comme l’aboutissement d’un processus ancien destiné à conférer une autonomie accrue aux systèmes informatiques. La désignation même de l’IA agentique renvoie à des théories informatiques des années quatre-vingt qui désignaient par « agent logiciel » des systèmes capables de percevoir leur environnement et d’agir sur celui-ci. De manière fortuite, l’appellation trouve également écho dans le langage juridique, l’agent IA intervenant dans certaines circonstances comme une forme de représentant agissant pour le compte de son utilisateur, rappelant à certains égards la théorie du mandat.
Quels sont les risques juridiques suscités par l’IA agentique ?
Parce que, par définition, l’IA agentique se fonde sur des systèmes d’intelligence artificielle, elle partage les risques à présent bien identifiés en la matière : opacité de fonctionnement, risques de contrefaçon lors des phrases d’entraînement, cybersécurité ou encore dépendance à des systèmes étrangers et risque pour la souveraineté. L’IA agentique va en plus exacerber certains risques déjà connus.
Le problème principal engendré par l’IA agentique n’est en effet pas inédit et consiste dans l’autonomie de fonctionnement des assistants virtuels, poussée à son paroxysme. Traditionnellement, les systèmes d’IA impliquent des actions humaines intermédiaires en vue d’exécuter une tâche. Ici, l’agent IA se voit déléguer l’ensemble des étapes du processus en vue d’atteindre l’objectif qui lui est confié. À partir d’indications initiales d’un utilisateur, il prend connaissance d’informations, adapte ses actions en conséquence et les exécute. Par conséquent, l’utilisateur n’est plus en mesure de contrôler les différentes étapes du processus. Par exemple, un LLM peut être utilisé pour identifier des hôtels pour un lieu et une période déterminée, à charge ensuite pour l’utilisateur de décider ou non de conclure le contrat d’hébergement à partir des informations fournies. Dans le même ordre d’idées, un modèle de langage peut déjà rédiger une proposition de réponse à un mail qui lui est fourni par un utilisateur, à charge pour ce dernier de décider ou non de l’expédier. L’IA agentique ayant accès au système d’exploitation de l’ordinateur de son utilisateur peut exécuter les tâches sans qu’une validation intermédiaire ne soit nécessaire. Il y a une forme d’absence de réitération du consentement qui suscite inévitablement des difficultés juridiques et qui, en l’absence de contrôle humain, peut conduire à des erreurs et des dommages.
À ces risques directs s’ajoutent des risques indirects, dont certains sont spécifiques à l’architecture même des systèmes agentiques. Un premier risque tient à la sécurité des systèmes en raison de leurs modalités de fonctionnement. On peut évoquer par exemple l’hypothèse du prompt injection, par lequel un tiers va adresser des instructions au système pour perturber ou fausser les résultats produits. Si ce risque n’est pas propre à l’IA agentique, il est toutefois considérablement étendu par ses modalités de fonctionnement dans la mesure où l’exécution de la tâche suppose de traiter du contenu externe : mails, pages internet, documents… Ce sont autant d’occasions qu’un tiers tente de corrompre le fonctionnement de l’IA, par exemple en sollicitant l’exfiltration de données. Un second risque tient justement à la protection des données de toute nature auxquelles l’agent a accès pour accomplir les tâches qui lui sont confiées, qu’il s’agisse de données à caractère personnel ou encore de données couvertes par le secret des affaires.
La règlementation sur l’intelligence artificielle permet-elle de répondre à ces risques ?
Le règlement sur l’intelligence artificielle (RIA) adopté en juillet 2023 n’a pas été pensé spécifiquement pour répondre aux enjeux juridiques de l’IA agentique. En revanche, ce texte retient une définition suffisamment extensive des systèmes d’IA, notamment construite autour de leur autonomie, qui permet d’y inclure les systèmes d’IA agentique. Cette réglementation n’est cependant pas la plus efficiente en raison de la méthode retenue. En effet, le RIA structure ses obligations les plus contraignantes autour de la notion de système à haut risque, elle-même définie par référence à des cas d’usage listés en annexe. Or la polyvalence de l’IA agentique assise sur des LLM rend cette approche par cas d’usage fragile eu égard à la diversité des tâches susceptibles d’être exécutées de manière autonome. Certes, la réglementation européenne réserve bien l’hypothèse des systèmes d’IA à usage général auxquels recourent souvent les IA agentiques. Néanmoins, leur intégration reste accessoire, avec quelques obligations particulières, notamment de transparence et d’évaluation, qui ne répondent pas aux enjeux en cause.
L’élément de régime du RIA le plus pertinent est sans conteste le devoir de contrôle humain, qui impose une supervision des systèmes à haut risque. Les systèmes concernés doivent être conçus et déployés de manière à permettre aux personnes physiques qui les emploient de surveiller leur fonctionnement et, si nécessaire, de les neutraliser. De telles exigences répondent directement au problème de l’autonomie excessive des IA agentiques, en contraignant tout à la fois ceux qui les conçoivent et ceux qui les utilisent. Ce principe apparaît aussi pertinent qu’efficace, sauf que la difficulté ne tient pas tant à la substance de l’obligation qu’à son champ d’application, dès lors que de nombreux usages des IA agentiques ne relèvent pas des catégories d’IA à haut risque réglementées.
Au-delà des règles propres à l’intelligence artificielle, d’autres branches du droit sont-elles affectées ?
L’intelligence artificielle agentique suscite des difficultés juridiques aussi diversifiées que ses cas d’usage. De nombreuses branches du droit sont donc concernées. Le plus souvent, les difficultés tiennent à l’autonomie du système dans l’exécution d’une tâche. En matière contractuelle par exemple, l’IA agentique peut interroger la validité des actes ainsi conclus, qu’il s’agisse d’apprécier l’existence, l’intégrité ou encore le moment du consentement de l’utilisateur ayant missionné son agent afin de conclure un contrat pour son compte. D’un point de vue délictuel, l’absence d’intervention humaine lors de l’exécution des tâches peut susciter des difficultés d’imputabilité. D’autres réglementations spécifiques peuvent poser des difficultés, par exemple le droit des données personnelles, l’IA agentique interrogeant la notion de traitement de données au sens du RGPD.
À ce stade, il apparait que, en dépit de prouesses impressionnantes, l’IA agentique ne révolutionne pas la matière juridique, mais renouvelle des discussions à présent classique. C’est dès lors davantage une différence de degré que de nature dont il est question, de telle manière que le plus souvent des adaptations du droit existant devraient permettre de répondre à ces nouveaux défis, sans appeler de profondes transformations du droit. À l’usage, ces assistants artificielles révèleront peut-être des lacunes législatives importantes mais elles resteront marginales.