Par Jean-Emmanuel Ray, Professeur émérite de l’Ecole de Droit de la Sorbonne

Pourquoi une telle cacophonie sur les chiffres relatifs aux suppressions d’emplois liés à l’intelligence artificielle ?

Qui osera dire : « Vu les dynamiques en cours, une telle prévision relève de l’astrologie » ?  Avec un doute supplémentaire : nombre de commentaires émanent d’acteurs ayant investi des dizaines de milliards de dollars dans ces technologies. Une dramatisation parfois proche du marketing, qui enjoint les entreprises à ne surtout pas rater le train.

Ces publications, désormais quotidiennes mais souvent centrées sur le marché du travail américain, ne portent pas sur les mêmes réalités. Ainsi, l’étude de la Coface publiée le 1er avril évoque 3,8 % d’emplois aujourd’hui fragilisés par l’IA générative, et « ne préjuge ainsi nullement d’un volume de destruction nette d’emplois » (cf. les 5 millions d’emplois détruits en France évoqués dans la presse). Mais de 16 % d’emplois (21,6 % pour les juristes) concernés par plus de 30 % de tâches automatisables, dans un horizon de deux à cinq ans.

Que les tâches évoluent, plus ou moins officiellement, est une certitude pour les métiers concernés. Mais cela ne conduit pas nécessairement à la disparition du poste, ni de l’emploi.

En France, la multiplication des PSE est bien réelle, mais leur lien avec l’IA reste ténu. Celle-ci peut parfois servir à masquer une gestion défaillante ou une réaffectation plus ou moins discrète des ressources, avec une réduction de la masse salariale au profit d’investissements IA (Cf. les 10.000 suppressions d’emplois annoncés par Oracle en mars 2026).

Le propre d’un « plan de sauvegarde de l’emploi » est de préserver une partie des emplois menacés, notamment par le biais de l’obligation de reclassement interne. Des emplois menacés, donc, mais pas nécessairement supprimés à l’issue du processus.

L’article L. 1233-3 précise que « constitue un licenciement pour motif économique le licenciement effectué par un employeur résultant d’une suppression ou d’une modification, refusée par le salarié, d’un élément essentiel du contrat de travail, consécutives notamment (…) à des mutations technologiques ».

Toute la difficulté tient au fait que l’IA ne relève pas d’un choc brutal, mais d’une évolution progressive : non pas un tsunami, mais une marée montante, dont les effets varient fortement selon les secteurs. Dès lors, déterminer le moment où l’on passe d’une simple évolution des tâches (potentiellement automatisables) à une modification d’un élément essentiel du contrat, que le salarié peut refuser, ou conduire à une suppression juridique du poste entraînant un licenciement économique, relève d’une appréciation largement subjective.

Tout dépend également des usages concrets que les utilisateurs en font sur le terrain (usages parfois ni prévus dans les manuels, ni souhaités par les entreprises), ainsi que des réorganisations nécessaires pour en tirer des gains de productivité. Comme le soulignait déjà Antoine Riboud, PDG de BSN (devenu Danone), en 1975 : « Les entreprises les plus performantes sont celles qui pensent solidairement le changement technologique, le contenu du travail et le changement des rapports sociaux internes ».

Dans la même logique, Bertrand Duperrin, spécialiste reconnu des enjeux IA-RH, observe dans son post « Quand on ne sait pas piloter le travail, on agit sur l’emploi » que « l’IA est bien acceptée tant qu’elle améliore l’efficacité individuelle sans modifier les structures profondes du travail (…). Plutôt que de l’outiller, l’IA est l’occasion de repenser le travail ».

Quelle est aujourd’hui la situation en France ?

Le coût élevé de la main-d’œuvre, un droit du travail plus complexe et un niveau élevé de conflictualité encouragent des politiques de substitution. Celles-ci passant moins aujourd’hui par des suppressions de postes que par une réduction des embauches : certaines doivent désormais être précédées d’une étude sur un travail équivalent réalisé par des agents IA assistés par un collaborateur.

« Le service IT va devenir le département RH de votre main-d’œuvre digitale » : après la fusion des Directions des Ressources Humaines et des Services Informatiques chez Moderna, la déclaration de Jensen Wang, CEO de Nvidia, résonne cruellement.

Dans un contexte de vieillissement de la population et de déficit annuel d’ingénieurs estimé à 18.000, les plus optimistes voient dans le remplacement de salariés par des chatbots une opportunité ; pour les entreprises sans doute, pour des consommateurs exaspérés (« Tapez 3 ») beaucoup moins. Le maintien dans l’emploi des seniors pourrait aussi être favorisé par leur expérience leur permettant de mieux contrôler les résultats fournis par l’IA qu’un junior. Mais comment devient-on senior expérimenté sans passer par la case départ ? À terme, c’est Darwin qui revient : qui maîtrise l’IA ? L’âge importe peu.

Enfin, le financement de notre modèle social reposant sur les salaires (en particulier les plus élevés), un remplacement massif et/ou une forte remontée du chômage pourraient rapidement poser de sérieuses difficultés.

Où en est le droit du travail français ?

Il en a vu d’autres depuis l’invention de l’électricité. Mais il doit désormais se plier à deux textes qui le dépassent : le RGPD, et le très général et volumineux (591.677 signes) règlement du 13 juin 2024 « établissant des règles harmonisées concernant l’intelligence artificielle ».  Pour les entreprises, considérées comme « déployeurs d’IA », la plupart des pratiques IA-RH y sont classées comme « systèmes d’IA à haut risque » et donc étroitement encadrées, avec une entrée en vigueur prévue le 2 août 2026.

Les juristes du travail sont particulièrement exposés au développement de l’IAg basique : aux côtés des textes habituels (lois , décrets, jurisprudence..) existent 381.784 accords d’entreprise (dont seulement 552 évoquent l’IA) et 944 conventions de branche disponibles sur légifrance.fr. Les décisions des 211 conseils de prud’hommes seront accessibles en open data à compter du 30 septembre 2026, avec trois ans de retard. Les LegalTech y foisonnent.

Comme souvent, la tentation est grande de créer de nouveaux textes. Or la régulation existe déjà : consultation préalable du CSE (TJ Nanterre, 29 janvier 2026), nomination d’experts lors de « l’introduction de nouvelles technologies » (Cass. soc., 18 mars 2026), ou licenciement économique en cas de « mutations technologiques ». Le management algorithmique fait aussi l’objet de règles communautaires.

Inutile donc d’ajouter une nouvelle couche, au risque d’être techno-captif alors que les IA évoluent rapidement.

La négociation collective tarde à se saisir des IAg. Et lorsqu’elle s’en empare, c’est surtout pour traiter de leur introduction, ou des effets sur l’emploi via des accords de GEPP. Passant ainsi à côté de l’essentiel : la réorganisation induite par la banalisation des IA, alors qu’un accord collectif a aussi une fonction pédagogique essentielle (confidentialité, données personnelles).

Mais heureusement pour les humains, paraphrasons Clémenceau : les chatbots « savent tout, mais rien d’autre ».