La guerre de l’intelligence
Le 5 mai, Sam Altman annonçait l’abandon du projet de restructuration d’OpenAI qui aurait fait perdre le contrôle de ses activités à l’entité d’origine qui continue d’avoir un but non lucratif. D’après le message adressé le même jour à ses collaborateurs, ce renoncement trouverait son origine dans l’écoute de « leaders de la société civile » et dans un « dialogue constructif » avec les procureurs généraux de Californie – où se situe le siège de OpenAI – et du Delaware – où la société a été juridiquement créée.
Par Laurent Vallée, Secrétaire général du Groupe Carrefour
Quelle est l’origine des tensions entre Elon Musk et Sam Altman autour d’OpenAI ?
« OpenAI n’est pas une entreprise comme les autres et ne le sera jamais » affirme Sam Altman dans le message évoqué précédemment. C’est vrai de son activité comme de sa gouvernance dont l’histoire mouvementée traduit un affrontement de personnes et de philosophies.
S’agissant des personnes, OpenAI est depuis dix ans le théâtre du conflit entre Elon Musk et Sam Altman. Tous deux au nombre des fondateurs d’OpenAI, ils ont été une première fois rivaux lorsque Musk a voulu diriger la société avant de la quitter en 2018.
À partir de 2023, alors qu’OpenAI allait vivre une crise de gouvernance, les deux hommes se retrouvaient à la fois en concurrence et en contentieux.
En concurrence : Musk lançait une entreprise directement concurrente d’OpenAI, xAI Corp, discrètement enregistrée au moment même où il participait par ailleurs à un appel à un moratoire sur le développement de l’intelligence artificielle. Valorisée assez rapidement autour de 50 milliards de dollars, xAI annonçait en décembre 2024 une nouvelle levée de fonds de 6 milliards de dollars pour accélérer son développement.
En contentieux : Musk a saisi les juridictions californiennes en février 2024 de requêtes contre Sam Altman, OpenAI et ses différentes entités pour contester l’abandon par OpenAI de sa mission d’origine et la méconnaissance d’engagements contractuels noués avec lui lors de la création de ce qui n’était en 2015 qu’un laboratoire de recherche. Après avoir retiré ce recours sans explication avant l’été, Musk a engagé un nouveau contentieux devant une cour fédérale en août 2024, s’appuyant sur une quinzaine d’arguments, reprenant la thèse d’une méconnaissance d’engagements contractuels et ajoutant notamment la fraude à son raisonnement.
Musk, tout en défendant ses propres intérêts (outre la défense de xAI, il n’est pas exclu que Musk ait entendu tirer un bénéfice du rachat potentiel de l’entité non lucrative d’OpenAI qu’il avait contribué à créer et à laquelle il avait apporté plusieurs dizaines de millions de dollars. On sait par ailleurs qu’il avait proposé 97,4 milliards de dollars pour cette entité, probablement, là aussi, pour perturber le processus de restructuration d’OpenAI et fixer une valeur plancher), contestait ainsi le projet de restructuration d’OpenAI porté par Sam Altman. Celui-ci avait en effet annoncé qu’il allait transformer l’entité à but lucratif en une PBC (Public Benefit Corporation), à l’image d’Anthropic, et que ne serait plus octroyé à l’entité à but non lucratif qu’une participation « significative ». L’objectif de la restructuration d’OpenAI était de donner à sa branche à but lucratif une plus grande liberté et de pouvoir attirer et rémunérer les dizaines de milliards d’investissements nécessaires pour continuer à développer ses modèles. La levée de fonds engagée valoriserait OpenAI entre 250 et 300 milliards de dollars (le conglomérat japonais SoftBank serait prêt à participer à hauteur de 30 Mrds de dollars. OpenAI aurait aujourd’hui plus de 500 millions d’utilisateurs hebdomadaires et anticipe des revenus de 13 Mrds de dollars en 2025 contre 4 Mrds en 2024, avec une ambition d’atteindre 130 Mrds en 2029).
Pourquoi le projet de restructuration d’OpenAI a-t-il été abandonné ?
La conversion d’OpenAI en structure à but lucratif est une opération complexe qui suppose un processus, contrôlé par les procureurs généraux de deux États, destiné à vérifier en particulier que, lors de la restructuration, l’organe à but non lucratif reçoit la fraction qui lui revient de la valeur des actifs qu’il contrôlait, et que cette valeur est correctement déterminée, s’agissant a fortiori d’une structure qui bénéficie depuis l’origine d’une exonération d’impôts en raison de son absence de but non lucratif.
Ce projet est en outre au cœur de la dispute philosophique relative à la mission d’OpenAI et, plus largement, du débat sur la manière de concilier les exigences économiques liées au développement de l’intelligence artificielle et la responsabilité devant « l’humanité » que cette technologie imposerait.
Musk n’hésitait pas à ouvrir sa plainte d’août 2024 contre Altman par l’affirmation que ce litige opposait l’altruisme, qu’il représentait, à la cupidité de son adversaire et dénonçait la trahison de la mission sociale d’OpenAI au regard des dangers inhérents à l’intelligence artificielle. Plusieurs personnalités, universitaires renommés (dont Geoffrey Hinton, surnommé le « Godfather of AI », à la fois prix Turing et prix Nobel) ou anciens collaborateurs d’OpenAI, moins suspectes que Musk d’être inspirées par une rivalité économique ou d’ego, ont adressé à la fin du mois d’avril 2025 un courrier aux procureurs généraux de Californie et du Delaware pour s’opposer à la restructuration d’OpenAI en reprenant des arguments similaires à ceux de Musk.
Confronté à la rigueur d’examen du processus de restructuration par les autorités de Californie et du Delaware et à l’opposition de ces leaders d’opinion, Altman a donc décidé d’abandonner son projet de restructuration d’OpenAI.
Sur le plan contentieux, si Musk avait échoué à obtenir une injonction préliminaire paralysant le processus de restructuration, une décision du 1er mai dernier reconnaissait néanmoins que plusieurs aspects de son argumentation justifiaient que soit engagé le procès fait à Altman.
Et si, accusé de se renier, Altman a préféré renoncer, Musk n’a néanmoins pas décidé de retirer sa plainte. Il maintient sa contestation fondée sur l’idée que le schéma complexe d’entités à but lucratif créées afin de lever les fonds nécessaires au développement d’OpenAI constitue une fraude ou une violation d’engagements contractuels, en dépit de leur supervision par une entité à but non lucratif.
De son côté, OpenAI fait valoir qu’il n’existe aucun engagement contractuel l’obligeant à rester indéfiniment une organisation à but non lucratif ou à fonctionner en open source. OpenAI soutient également que son partenariat avec Microsoft (la restructuration d’OpenAI a impliqué l’engagement de négociations difficiles avec Microsoft – qui avait investi 13 Mrds de dollars dans OpenAI – sur le niveau de la participation de Microsoft, son utilisation de la propriété intellectuelle d’OpenAI dans ses produits et la part des revenus d’OpenAI qui lui revient) ne compromet pas son indépendance, et que sa recherche d’un modèle économiquement durable n’entre pas en contradiction avec le respect de sa mission d’origine.
Quelle régulation pour les entreprises d’intelligence artificielle ?
Au-delà de ce débat contentieux qui tient pour partie aux spécificités de la constitution d’OpenAI, la conciliation dans ce secteur d’un idéalisme revendiqué et d’une nécessaire performance économique reste à établir.
On peut d’abord se demander si le recul d’Altman et la subsistance d’une gouvernance dominée par une entité à but non lucratif a des conséquences réelles sur le pouvoir qu’il exerce sur OpenAI et sur sa capacité à attirer des capitaux. Sur le premier point, le maintien du contrôle par l’organe à but non lucratif signifie que le conseil d’administration de cette entité continue de contrôler l’ensemble d’OpenAI. En l’état, ce conseil d’administration composé de dix membres ayant pour la plupart pris leurs fonctions depuis moins d’un an n’est probablement pas hostile à Altman. Quant au souhait d’investisseurs de disposer de droits supérieurs en matière de gouvernance compte tenu des sommes apportées, il reste à démontrer. S’agissant de cette technologie particulière, on peut penser que les investisseurs veulent d’abord avoir une exposition à l’entreprise la plus dynamique en matière d’IA et ne songent pas, aujourd’hui, prioritairement, à bénéficier d’un poids important sur les décisions prises par l’entreprise. Sur ces deux aspects, l’annonce le 7 mai du recrutement de Fidji Simo, CEO d’Instacart, pour piloter plusieurs divisions d’OpenAI n’est sans doute pas neutre.
Plus profondément, on peut s’interroger sur le point de savoir si la correction des externalités négatives de l’intelligence artificielle implique un traitement spécifique. Ainsi, les instruments utilisés en matière d’ESG pourraient constituer des pistes. Les dangers liés aux impacts climatiques de l’activité des entreprises sont certainement différents mais sont-ils en effet par nature supérieurs à ceux découlant du développement des modèles les plus ambitieux d’intelligence artificielle ? Avec un horizon de temps – celui de l’invention d’une « superintelligence » menaçante ou d’une augmentation dramatique des températures – qui peut être similaire ? On exige désormais souvent des dirigeants que leur rémunération soit en partie liée à des critères sociaux ou environnementaux pertinents au regard de l’activité de leur entreprise. Serait-il concevable de créer des indicateurs propres à encourager les dirigeants à préserver l’éthique et la sécurité de leurs opérations en matière d’intelligence artificielle ? Des entités externes pourraient être mobilisées pour s’assurer de la pertinence et de la cohérence de ces indicateurs au regard des objectifs poursuivis. En tout état de cause, seuls des audits externes paraissent aujourd’hui à même de pouvoir permettre la correction de défaillances ou d’incertitudes de gouvernance dans des entités qui demeurent aussi opaques que OpenAI.
Si, à l’inverse, l’IA apparaît comme méritant des règles spécifiques propres aux entreprises qui la développent, il conviendrait alors de déterminer lesquelles, au milieu d’un débat délicat sur les modalités et l’intensité de la régulation de cette technologie.
Sam Altman, lors d’une audition devant le Sénat américain en mai 2023, avait affirmé qu’OpenAI était favorable à une régulation de l’IA. Sa principale recommandation à l’époque était de créer une agence gouvernementale chargée de délivrer des licences aux quelques entreprises qui seraient autorisées à développer des outils d’IA.
L’objectif de cette proposition était en réalité de limiter le nombre de concurrents d’OpenAI. Ce faisant, Altman et OpenAI se livraient à ce qui est très classiquement connu comme une tentative de capture du régulateur.
Deux ans plus tard, le 8 mai 2025, de nouveau auditionné par le Sénat, Altman se déclare, dans une intervention à la gloire des États-Unis, opposé à la régulation de l’IA, et affirme que jamais il ne voudrait vivre en Europe.
Et si, finalement, OpenAI était une entreprise comme les autres ?