Par Valérie Laure Benabou, Professeure de droit privé à l’Université Paris Saclay/UVSQ

Quels sont les risques que l’IA fait peser actuellement sur l’utilisation des voix ? 

Les acteurs de l’IA proposent ces solutions en profitant d’un certain flou sur la « propriété » de la voix. Or, le développement des systèmes d’IA permet de réaliser désormais de véritables clones vocaux capables de décliner ces sonorités sur n’importe quels mots, voire dans des langues étrangères. La reprise incontrôlée de la voix par de telles applications est susceptible d’engendrer plusieurs séries de conséquences dommageables qui vont, pour tout un chacun, du risque d’usurpation d’identité à la possibilité d’induire en erreur sur l’origine d’un propos mais qui peuvent également conduire à des effets de substitution, à l’instar du cas des doubleurs, qui se voient ainsi privés d’opportunités de vendre leurs services. La pluralité de ces atteintes rend difficile l’appréhension de la réutilisation de la voix par un seul corps de règles, même si certaines législations semblent aller dans cette direction. 

Quelles sont les possibles réponses du droit européen et du droit français à ce sujet ?

Le droit européen n’a pas spécifiquement réglé la difficulté mais permet de l’aborder sous l’angle de pratiques trompeuses, notamment en s’appuyant sur la directive du 11 mai 2005 mais encore faut-il que la déloyauté de la pratique soit constituée. Par ailleurs, l’IA Act définit, à l’article 3, paragraphe 60, la notion de deepfake (hypertrucage) comme « un contenu image, audio ou vidéo généré ou manipulé par l’IA qui ressemble à des personnes, des objets, des lieux, des entités ou des événements existants et qui semble faussement authentique ou véridique aux yeux d’une personne », mais n’interdit pas, en soi, cette pratique.

Certaines dispositions qui entreront en vigueur, d’ici août 2026, vont certes imposer aux développeurs de telles application l’obligation d’informer de manière claire et distincte que le contenu a été créé de manière artificielle ou a été manipulé (article 50), obligation de transparence qui est toutefois allégée lorsque le contenu s’apparente de manière évidente à une création artistique, satirique, fictionnelle. Mais si ce type de mesures présente une utilité pour s’assurer que le public n’est pas induit en erreur sur l’origine artificielle du contenu, elle est d’un intérêt plus relatif dans le cas des applications susvisées puisque les utilisateurs ont généralement conscience qu’ils manipulent des voix synthétiques. C’est donc davantage au second niveau d’usage, lorsque le message est relayé à des tiers que l’erreur sur l’origine artificielle du contenu peut se loger et que ces mentions et la labellisation IA trouvent leur sens. 

On peut enfin envisager la mise en œuvre du RGPD dès lors que la voix constitue une donnée à caractère personnelle dont le traitement doit obéir à certaines conditions. Mais le consentement de l’individu n’est pas requis lorsque d’autres fondements licitent ce traitement. 

Hormis les hypothèses de concurrence déloyale ou d’agissements parasitaires, le droit français n’est pas dépourvu de tout moyen d’action lorsque la voix synthétique est employée pour commettre un délit quelconque. Dans ce cas, le droit pénal peut appréhender cet usage comme une fourniture de moyen de la réalisation de l’infraction et ceux qui ont offert ou utilisé la technologie pourraient être poursuivis pour complicité selon les règles de droit commun. En outre, certaines incriminations visent désormais spécialement les manipulations algorithmiques de l’image ou des « paroles » d’une personne, comme c’est le cas de l’article 226-8 du Code pénal, modifié par la loi SREN de 2024 qui punit d’un an d’emprisonnement et de 15 000 euros d’amende le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention.

Mais si l’absence de consentement de l’individu sur la reprise de ses « paroles » est expressément visée comme élément constitutif de l’infraction, encore faut-il que la génération algorithmique ne soit pas évidente ou qu’elle n’ait pas été expressément mentionnée. Là encore, les applications litigieuses ne sont pas directement visées, dès lors que c’est l’auteur de la communication au public d’un tel deepfake – donc plutôt l’utilisateur de l’application – qui encoure la sanction, et à la condition qu’il y ait également un risque de confusion dans l’esprit du public. Les plateformes d’IA pourraient donc échapper à toute responsabilité pour l’offre transparente d’un usage ludique, récréatif de telles adaptations vocales synthétiques.

Faut-il, dès lors, consacrer un droit de propriété intellectuelle sur la voix ?  

Récemment le Danemark a proposé d’élargir la protection du droit d’auteur à une forme de propriété de chacun sur sa voix et son apparence. Une idée similaire figure également dans la proposition de “No Fakes Act” qui est en cours de discussion aux Etats-Unis. Le texte danois qui doit normalement entrer en vigueur en juillet 2026 vise à offrir d’une part, une protection générale à tous les individus contre les imitations réalistes de leurs caractéristiques personnelles générées numériquement ((Section 73a) et d’autre part, pour les artistes-interprètes (Section 65a), une protection à propos de telles imitations de leurs prestations ou de leurs expressions artistiques. Le dispositif supposerait que la personne imitée consente à la mise à la disposition publique de l’imitation. La protection durerait jusqu’à cinquante ans après son décès. Le régime, seulement applicable sur le territoire danois s’appuierait sur les dispositions relatives à la modération de contenus figurant dans le DSA (Digital Service Act) permettant notamment de demander le retrait des imitations non autorisées des plateformes, à l’exception des caricatures, parodies, pastiches.  

Bien que saluée par d’autres États membres, cette initiative a toutefois suscité un certain scepticisme au sein du Parlement européen quant à l’opportunité d’élargir à tout individu le bénéfice d’un droit d’auteur sur ses caractères propres. Le Danemark a lui-même reconnu qu’il ne soutenait pas une telle extension, même si les dispositions figurent dans la loi sur le droit d’auteur, mais qu’il visait surtout à consolider certains droits de la personnalité ou l’équivalant d’un « right of publicity » permettant aux personnes célèbres de monétiser l’usage de leur notoriété. 

S’il n’est sans doute pas opportun de « diluer » ainsi la protection du droit d’auteur en France au bénéfice de tous, dès lors que la jurisprudence sur les droits de la personnalité permet déjà de s’opposer à certains des usages décrits, il ne paraît pas inutile d’envisager une lecture dynamique des droits voisins des artistes-interprètes pour prendre en considération leur situation particulière. En effet, comme l’illustre l’action menée par les doubleurs, les comédiens sont particulièrement victimes de ce type d’imitations de leurs prestations qui viennent les priver d’une opportunité de marché ; la seule perspective d’un droit défensif ne saurait suffire à réparer leur préjudice. Or, comme le montre l’exemple de la reprise des voix de personnages de dessins animés, la valeur extraite par ces applications ne se résume pas celle de la voix d’une personne mais résulte bien du travail effectué par l’acteur lorsqu’il effectue une prestation d’interprétation. Ainsi, il suffirait, de donner toute son intensité aux articles L. 212-2 et L. 212-3 du Code de la propriété intellectuelle en reconnaissant que l’artiste-interprète peut bien s’opposer à la reprise, non de sa seule voix, mais de ce qui est son interprétation vocale par de tels systèmes d’IA.