Publications

18 avril 2017

Leur place est telle dans nos sociétés qu’un droit est en train d’émerger pour eux, les robots

Les machines reproduisant des actions humaines – automates hier, robots aujourd’hui – ont fait couler beaucoup d’encre depuis des siècles. Leurs facultés ont tellement progressé qu’on parle maintenant de robots intelligents. Sous une forme plus ou moins humanoïde, ils accueillent la clientèle, portent des charges de plus en plus lourdes et se déplacent de manière autonome. Les versions informatiques, robots logiciels, chatbots, ou assistants personnels communiquent par email, sms ou chat, résolvent des litiges, concluent des contrats et répondent aux moindres de vos besoins.

Leur développement est aujourd’hui tel qu’un droit des robots est en train d’émerger. Ce droit participe d’un double mouvement.

D’une part, il est nécessaire de se poser la question de l’appréhension de l’activité d’un robot par le droit et la réglementation actuels. De ce point de vue, les robots font pour une grande part ce que faisaient les hommes et les organisations depuis des siècles, juste plus vite, plus fort et (mais est-ce toujours le cas ?) mieux. La réglementation actuelle permet d’encadrer ces activités. Par exemple, un chatbot assistant des parties à régler un litige doit être conforme avec la réglementation applicable en matière de délivrance des services juridiques. De même, la conclusion d’un contrat par un androïde ou via Amazon Echo ou Alexa ne peut s’exonérer de respecter les règles applicables à la conclusion des contrats par voie électronique. Ce mouvement d’application de règles existantes à un phénomène nouveau est la continuation de ce qu’ont réalisé les avocats et les tribunaux depuis plus de 20 ans dans le cadre du développement des activités d’Internet.

D’autre part, et ce phénomène est en revanche totalement nouveau, l’irruption des robots intelligents créée des situations qui ne sont pas appréhendées par le cadre juridique existant. La question de la responsabilité civile des robots intelligents est particulièrement intéressante à analyser à ce sujet. En substance, le cadre juridique actuel, sous réserve de certains aménagements, pourrait permettre de définir la responsabilité d’un robot dans un accident en recourant à une analyse des causes : erreur du programmeur, du fabricant, de l’opérateur ou en appréciant la dangerosité intrinsèque du robot. Mais en raison des progrès de la robotique et de l’intelligence artificielle et notamment des réseaux neuronaux, du deep learning et du machine learning, cette analyse ne permet pas d’appréhender des situations dans lesquelles le robot a pris la décision ayant conduit à l’accident de manière totalement indépendante et imprévisible pour ses concepteurs, fabricants, utilisateurs… En effet, en raison de ses capacités de machine learning, l’intelligence artificielle du robot est capable de prendre des décisions (par exemple, aller dans telle ou telle direction face à un obstacle) qui n’ont pas été définies strictement par le programmateur, mais qui résultent de son expérience (tourner à droite a une meilleure probabilité d’éviter un obstacle que d’aller à gauche) et/ou de l’expérience combinée de l’ensemble des autres robots avec lesquels il est en contact. Il existe donc une possibilité que le robot intelligent soit seul à l’origine de l’accident. Or, le régime juridique actuel ne permet pas d’attaquer un robot, seul un humain peut être civilement responsable. En effet, un robot n’a pas de personnalité juridique et il a encore moins de patrimoine sur lequel la victime pourrait s’appuyer pour réclamer une indemnisation.

Face à cette question, le Parlement Européen a récemment recommandé à la Commission de réfléchir à un régime d’assurance obligatoire et même à la création d’une personnalité juridique spécifique aux robots. C’est une solution qui mérite d’être étudiée de manière très approfondie. Elle ne devrait cependant pas permettre d’éluder complètement la responsabilité du concepteur, fabricant et/ou de l’utilisateur.

En outre, il nous semble essentiel d’avoir une approche internationale dans ce domaine. Il y a en effet aujourd’hui un consensus mondial sur qui possède la personnalité juridique (êtres humains, entreprises, associations, pays, organisations internationales, etc.). On voit mal comment un robot pourrait avoir la personnalité juridique dans un pays et pas dans l’autre.
Accorder la personnalité juridique à un robot poserait aussi rapidement d’autres questions, comme : comment distinguer un robot intelligent d’un être humain ? Si c’était déjà l’objet de la nouvelle d’Issac Assimov, l’Homme Bicentenaire, on voit aujourd’hui que la science-fiction tend de plus en plus à devenir réalité.

Bertrand Liard,
Avocat Associé, White & Case LLP
Partenaire du Club des juristes