Par Laurent Vallée, Secrétaire général du Groupe Carrefour

On n’avait pas vu ça depuis 1985 et le départ d’Apple de Steve Jobs. L’intelligence artificielle (IA) connaît, avec la révocation puis la réintégration par son conseil d’administration de Sam Altman, CEO emblématique d’OpenAI, l’épisode sismique le plus violent de son histoire. Sécurité et profitabilité s’opposent. Les « doomers » et les « altruistes effectifs », inquiets de la vitesse de développement et de l’impact de cette technologie pour l’humanité, affrontent les partisans de l’accélération de l’innovation, les optimistes ou les possibilistes de la technologie dans une dramaturgie sous X qu’aucun chatbot n’aurait pu écrire et qui questionne l’avenir comme l’économie de l’IA.  

Ce mélodrame de la tech naît d’une crise inédite de gouvernance, qui débute par la décision du conseil d’administration d’OpenAI, entreprise symbolique de l’IA, étendard de la Silicon Valley, créatrice d’un produit, ChatGPT, qui a bouleversé jusqu’à notre imaginaire, de révoquer son célèbre leader. Les batailles de gouvernance ne sont pas rares dans les entreprises. Ces dernières y survivent le plus souvent au prix du départ de leurs dirigeants. Il est plus rare de voir un conseil d’administration se risquer à une tentative de suicide. Car c’est à ce geste qu’on peut assimiler l’acte du board d’OpenAI qui a conduit l’entreprise au chaos, à la fuite de ses leaders comme de ses collaborateurs et à un risque d’évanouissement de sa valeur. 

À première vue, en effet, les épisodes qui ont rythmé la saga accélérée d’OpenAI stupéfient. Quel conseil d’administration déciderait, au seul motif d’un défaut de communication à son égard, de démettre de ses fonctions un dirigeant qui, en quelques années, a transformé un effort de recherche en une entreprise dont la valorisation approche les 90 milliards de dollars et créé un produit qui, après moins d’un an, rassemble 100 millions d’utilisateurs hebdomadaires ? Comment l’une des entreprises de la tech les plus essentielles peut-elle être à la merci de décisions emportées par trois membres indépendants de son conseil d’administration ? Comment un géant comme Microsoft, qui a investi 13 milliards de dollars dans cette entreprise, a pu accepter de ne disposer d’aucun droit de gouvernance et découvrir le renvoi du dirigeant une minute avant son annonce ? A-t-on déjà vu un conseil d’administration qui révoque le dirigeant être poussé dès le surlendemain  par des investisseurs à le rappeler ? Peut-on imaginer que le membre d’un conseil d’administration dont la voix a permis la décision de révoquer le dirigeant signe une lettre rédigée par la quasi-totalité des salariés demandant la démission du board dont il fait lui-même partie ? Tout cela s’est passé chez OpenAI en quatre jours et demi à l’issue desquels le dirigeant a été réintégré et un nouveau conseil d’administration installé. 

Pour essayer de comprendre, il faut revenir à la constitution d’OpenAI. En 2015,  Sam Altman, Elon Musk et d’autres investisseurs créent la start-up qui inventera ChatGPT sous la forme d’une organisation à but non lucratif. Le projet est en effet de développer une IA au bénéfice de l’humanité. Musk quitte le conseil d’administration en 2018, un an avant la création, par OpenAI, d’une filiale à but lucratif dont l’objet est de fournir les moyens nécessaires pour permettre et accélérer le développement de la recherche et dont Microsoft détient aujourd’hui 49%. Le coût de la recherche en matière d’IA est en effet si massif que seule la commercialisation d’applications la rendent possible. Investisseurs et employés peuvent désormais tirer des revenus des capitaux et des heures de travail investis dans l’entreprise. Le conseil d’administration de l’entité à but non lucratif conserve néanmoins le dernier mot sur les décisions. Il peut notamment révoquer le dirigeant en tenant compte de son devoir fiduciaire qui, précise la charte d’OpenAI, s’exerce devant l’humanité. 

Cette combinaison d’une entité à but non lucratif et d’une filiale commerciale n’a en soi rien d’inhabituel. Ainsi, les fondations Mozilla ou Signal détiennent respectivement le navigateur Firefox ou la  société à responsabilité limitée qui exploite la messagerie du même nom. Ailleurs que dans l’univers de la tech on trouve des entités à but non lucratif qui s’appuient sur les profits dégagés par des filiales commerciales pour financer leurs opérations : Patagonia, Bloomberg ou Novo Nordisk en sont des exemples. Toutefois, dans le cas d’OpenAI, la société mère comme l’entité à but lucratif  font de la recherche et développent des produits. La première conçoit des produits qui doivent être des biens publics. La seconde offre des solutions à des clients ou à des investisseurs comme Microsoft. 

Le Conseil d’administration d’OpenAI, composé de neuf membres au début de l’année 2023, a connu trois départs entre les mois de janvier et juillet. Six administrateurs demeuraient en fonction avant la crise : trois exécutifs de l’entreprise – outre Sam Altman, Greg Brockman le président et Ilya Sutskever, « chief scientist » et « traître » d’un moment – et trois administrateurs indépendants. Au regard des statuts, le conseil d’administration doit certainement s’interroger sur la conciliation entre la mission de l’entreprise – assurer un développement « sûr » de l’IA au bénéfice de l’humanité, devant laquelle OpenAI répond – et les volontés commerciales et de développement rapide de la recherche de son dirigeant, pour OpenAI comme en dehors de cette entité – Sam Altman ayant lancé d’autres entreprises. Quatre administrateurs, dont les trois indépendants, ont estimé, dans des conditions rocambolesques, que la seule voie possible pour résoudre le conflit dont ils s’estimaient saisis était de révoquer le dirigeant au motif qu’il avait perdu leur confiance. 

À supposer fondées les préoccupations du conseil d’administration, il apparaît qu’il a pris une décision erronée. Le succès mondial de ChatGPT, la popularité de son dirigeant et la mobilité de Microsoft – qui a dans la foulée annoncé l’embauche de Sam Altman et Greg Brockman, la plupart des salariés d’OpenAI voulant ensuite les rejoindre – auraient pu conduire à une immense destruction de valeur, ou à une conclusion diamétralement opposée au but recherché. Si, en effet, Microsoft avait capté le savoir-faire et les compétences d’OpenAI, que serait-il resté de l’institution à but non lucratif que le conseil d’administration se devait de défendre devant et pour l’humanité ? Si, comme cela est annoncé pour résoudre la crise, Sam Altman reprend finalement ses fonctions chez OpenAI, quels seront les effets persistants d’une telle crise ? C’est en tout cas par des décisions de gouvernance qu’il est tenté de mettre fin à cette bataille dramatique. Sam Altman et Greg Brockman acceptent, d’une part, de reprendre leurs fonctions au sein d’OpenAI sans toutefois retrouver leur siège au conseil d’administration. D’autre part, une enquête interne est lancée pour déterminer ce qui a conduit le conseil à révoquer le dirigeant. Une nouvelle composition du board est agréée, rassemblant un survivant du board antérieur, Bret Taylor, ancien co-CEO de Salesforces, et Larry Summers. Il appartiendra à cette nouvelle gouvernance de guérir les blessures internes – l’émotion chez les collaborateurs a été extrême – et de rétablir la relation avec les partenaires et les clients d’OpenAI qui avaient été immédiatement approchés par ses concurrents. Au-delà d’OpenAI, un apaisement de cette crise est clé pour la sauvegarde d’un écosystème favorable au pouvoir multiplicateur de l’IA sur la connaissance et la croissance. 

Plus profondément, si l’IA est une technologie aussi rupturiste que le feu et l’électricité, comment une décision aussi lourde de conséquences a-t-elle pu être prise par quatre membres d’un conseil d’administration qui ne sont responsables devant personne ? Au moment où l’Europe s’interroge et se dispute sur le juste balancement entre innovation et régulation en matière d’IA, on peut se demander, à la lumière de la crise chez OpenAI, si la question des grands équilibres ne se situe pas d’abord au cœur des entreprises elles-mêmes. Si la structure de l’organisation d’OpenAI comme sa gouvernance apparaissent uniques et, à l’usage, peu protectrices, il y a sans doute matière à réflexion sur l’articulation, au sein des entreprises, entre lucratif et non-lucratif. La responsabilité élargie attendue des entreprises, leur implication dans la recherche fondamentale et la poursuite d’un juste équilibre permettant l’accélération de l’innovation sont autant de raisons qui pourraient justifier le lancement d’un travail approfondi sur ce que serait une structure appropriée. 

Les plus belles entreprises sont celles dont la vision et l’ambition sont conduites et exécutées par des dirigeants qui mettent tout en œuvre pour contester le statu quo, innover et prendre des risques. En matière d’IA, une telle volonté et pareille énergie de changement font sans doute courir des risques. L’IA n’est pas une technologie comme les autres. Il ne s’agit pas d’un simple nouveau moteur sur le danger duquel il y aurait un accord politique et scientifique. Au moment d’une explosion cambrienne de ses applications, la définition d’une gouvernance appropriée pour les entreprises qui investissent dans l’IA est donc essentielle. Anthropic, entreprise concurrente fondée par d’anciens collaborateurs d’OpenAI, se présente comme une société d’utilité publique tenue de donner la priorité à l’aide de l’humanité plutôt qu’à la maximisation du profit. Son board est supervisé par un trust composé de cinq trustees indépendants choisis pour leur expérience au-delà du business et de l’IA. Des règles spécifiques ont en outre été conçues pour répartir le pouvoir entre le non-lucratif et le lucratif. Il n’était déjà pas facile pour une entreprise et sa gouvernance d’aligner les intérêts de ses parties prenantes habituelles, il lui faut maintenant trouver un équilibre avec ceux de l’humanité pour laquelle les meilleurs comités des nominations pourraient peiner à trouver d’efficaces représentants.