Comment encadrer l’IA ? L’échec du projet de loi californien
Le gouverneur de Californie, Gavin Newsom, a opposé son véto à un projet de loi sur la sécurité de l’intelligence artificielle qui visait à réguler les grands acteurs de l’IA pour les rendre responsables des dommages que leurs modèles pourraient causer. Décryptage.
Par Florence G’sell, Professeur invité à Stanford University
Que prévoyait le projet de loi californien SB1047 ?
Malgré un champ d’application restreint aux modèles les plus avancés développés par les plus grandes entreprises technologiques, la loi « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act » (proposition de loi SB 1047) n’en imposait pas moins des obligations contraignantes et inhabituelles pour les Etats-Unis.
Le champ d’application de la loi. Le texte avait pour objet d’encadrer les modèles d’IA les plus puissants mis sur le marché en Californie. Il visait spécifiquement les modèles entraînés à l’aide d’une puissance de calcul très importante (supérieure à 10^26 FLOPs – floating-point operations per second) et dont le coût dépasse 100 millions de dollars, ainsi que les modèles développés à partir de ces modèles avancés. La loi visait ainsi clairement les modèles d’IA de la génération à venir développés par les géants de l’industrie.
Les obligations prévues par la loi. La loi SB1047 prévoyait que les développeurs de tels modèles avaient l’obligation d’exercer une diligence raisonnable (« duty of care ») pour réduire le risque que leur modèle cause ou rende possible la survenance de « dommages critiques » (« critical harms »), à savoir : la création ou l’utilisation d’armes de destruction massive (armes chimiques, biologiques, radiologiques ou nucléaires – qui entraînent des pertes massives), la possibilité d’une cyberattaque visant des infrastructures critiques et entraînant des dommages d’au moins 500 millions de dollars ou des pertes massives, voire le cas où une IA autonome provoque la mort ou des dommages corporels de manière telle que les mêmes faits constitueraient une infraction s’ils étaient commis par un être humain. Le texte interdisait expressément le déploiement d’un modèle d’IA en présence d’un risque « déraisonnable » que le modèle permette de tels dommages. Afin de garantir que les modèles ne puissent causer ou permettre la survenance de dommages critiques, la loi imposait aux développeurs un certain nombre d’obligations : possibilité d’arrêt complet (kill switch) du fonctionnement du modèle, mesures de cybersécurité, élaboration d’un protocole de sûreté et de sécurité (PSS), tests et évaluation des risques avant déploiement du modèle, audits annuels par des tiers indépendants, signalement des incidents de sécurité.
Les sanctions prévues par le texte étaient lourdes. L’Attorney General pouvait décider de suspendre l’utilisation d’un modèle d’IA ou imposer des amendes allant jusqu’à 10 % du coût de la puissance de calcul utilisée pour entraîner le modèle, les sanctions pouvant atteindre 30 % en cas d’infractions ultérieures. Il pouvait en outre intenter une action civile et obtenir l’octroi de dommages et intérêts aux victimes, y compris des dommages et intérêts punitifs.
Quelles étaient les critiques à l’encontre de la loi SB 1047 ?
Les détracteurs du projet ont fait valoir qu’il présupposait des risques non établis scientifiquement, dans la mesure où n’existe pas, à ce jour, de consensus scientifique ou d’évaluation précise des risques suscités par l’IA. En outre, la question d’un éventuel alourdissement de la responsabilité des développeurs a été très discutée. Si certains, comme le juriste américain Lawrence Lessig, ont soutenu que les développeurs sont déjà responsables, en vertu du droit commun, de leur éventuelle négligence, d’autres ont soutenu que l’ajout, dans la loi, d’un « devoir de prudence » (« duty of care ») alourdissait cette responsabilité. En outre, le texte évoquait non seulement les dommages « causés » mais aussi ceux « rendus matériellement possibles » par le modèle d’IA concerné. Enfin, les audits et mesures de cybersécurité imposées par le projet de loi représentaient des coûts jugés prohibitifs par certains, notamment pour les développeurs de logiciels libres.
Dans ce contexte, des experts reconnus se sont opposés à l’adoption du texte. Une lettre ouverte a affirmé que la loi « entraverait le dynamisme économique et affaiblirait la position de la Californie en tant que centre mondial de l’IA ». Les entreprises, comme OpenAI, Meta ou la société de capital-risque Andreessen Horowitz (a16z) ont farouchement critiqué le texte. Le projet de loi n’a pas non plus été soutenu par certains élus californiens démocrates.
Certains ont toutefois défendu la loi soulignant que ce texte était une réponse adaptée aux risques « catastrophiques » éventuels de l’IA. Malgré l’opposition des entreprises, à l’exception d’Anthropic, un grand nombre de salariés des entreprises d’IA ont publiquement pris position en faveur du projet de loi. Même Elon Musk a tweeté son soutien au texte.
La Californie finira-t-elle par encadrer l’activités des développeurs de modèles d’IA ?
Bien qu’ayant refusé de signer la loi SB1047, le gouverneur Newsom a approuvé en septembre plus de huit lois relatives à l’IA, qui portent notamment sur les « deepfakes » et le marquage des contenus générés artificiellement. Le texte le plus notable est la loi AB2013 intitulée « Artificial Intelligence Training Data Transparency » (transparence des données d’entraînement de l’IA), qui impose aux développeurs de modèles d’IA générative de diffuser des informations sur les données d’entraînement. La loi californienne rejoint sur ce point les exigences de l’AI Act qui impose une telle transparence aux développeurs de modèles d’IA « à usage général ».
Par ailleurs, Newsom s’est engagé à retravailler, en collaboration avec les entreprises et les experts du secteur, à un texte plus adapté, en soulignant que la Californie « ne peut pas se permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public ». De son côté, l’auteur du projet de loi SB1047, le sénateur Scott Wiener, s’est déclaré ouvert à collaborer à la réécriture d’un nouveau projet.