A l’heure où l’autonomie des robots et leur pouvoir décisionnel s’accroît de jour en jour, la question de leur responsabilité fait débat. Le droit existant est-il adapté à ces machines d’un nouveau genre ? Faut-il leur consacrer un régime spécial de responsabilité ? Si ces considérations théoriques ont toute leur importance, il importe de ne pas perdre de vue l’objectif prioritaire : l’indemnisation des victimes de robots.
Par Sonia Cissé, collaboratrice sénior, Juliette Crouzet, collaboratrice, et Jean Fau, collaborateur, Linklaters
La notion de «robot» couvre une réalité multiple : bras articulés industriels, drones militaires, robots médicaux, nano robots, aides de vies intelligents, véhicules autonomes… Toutefois, d’un robot à l’autre, les enjeux, notamment juridiques, ne sont pas du même ordre.
Les incidents impliquant les premiers automates dénués de capacité décisionnelle (comme les machines-outils reproduisant des séries d’opérations pour lesquelles elles ont été programmées) ne posaient pas de difficultés particulières et relevaient le plus souvent de l’accident du travail ou de l’erreur humaine. Avec l’arrivée des premiers robots autonomes, dits intelligents, apparaît la question de leur responsabilité juridique. Si la plupart d’entre eux disposent aujourd’hui d’une marge de manœuvre très limitée, d’autres jouissent d’un pouvoir décisionnel plus important : c’est notamment le cas des robots dont le fonctionnement repose sur l’apprentissage automatique (machine learning) ou bien ayant recours à un réseau de neurones artificiels (neural network).
C’est précisément cette capacité du robot à prendre des décisions et à agir seul, indépendamment de tout contrôle humain, qui donne lieu à interrogation : qui sera alors responsable des agissements du robot intelligent ? Et surtout, qui, en pratique, devra indemniser la victime d’une décision prise de manière autonome par un robot intelligent ? Comme le souligne le Parlement européen dans un rapport publié en janvier 2017 (2) : «La mise au point de certaines fonctionnalités autonomes et cognitives […] rapproche davantage ces robots du statut d’agents interagissant avec leur environnement et pouvant le modifier de manière significative», ainsi «la responsabilité juridique en cas d’action dommageable d’un robot devient une question cruciale».
1. Le droit positif : un arsenal juridique à disposition
Le droit positif n’est pas dépourvu de régimes de responsabilité susceptibles d’être appliqués aux robots.
La responsabilité extracontractuelle générale
En particulier, il est admis de longue date qu’une personne peut voir sa responsabilité extracontractuelle engagée pour des faits qui ne lui sont pas personnellement imputables.
Ainsi, la responsabilité d’un individu peut être engagée du fait d’autrui : les parents sont responsables du fait des enfants sur lesquels ils exercent l’autorité parentale, les commettants du fait de leurs préposés (3), etc. La responsabilité d’un individu peut également être engagée du fait de choses ou d’animaux qu’il a sous sa garde (4).
Il est tentant d’appliquer ces régimes de responsabilité aux robots. Néanmoins, en l’état actuel de la technique, il semble prématuré d’assimiler le robot à «autrui», c’est-à-dire à une «personne dont on doit répondre». Et pour cause, le robot ne dispose pas, à ce jour, d’une personnalité juridique propre.
En revanche, l’analogie avec la chose ou l’animal semble plus satisfaisante : le propriétaire, gardien, serait alors responsable des dommages causés par son «robot-chose» ou son «robot-animal». Dans ce cas, la jurisprudence dégage traditionnellement trois critères permettant de l’identifier : l’usage, la direction et le contrôle. Le critère d’usage semble désigner le propriétaire comme responsable des faits commis par son robot. Dans l’hypothèse où le robot communique à distance et en temps réel avec leurs systèmes informatiques, le critère de direction évoque plutôt le fabricant du robot, voire l’éditeur du logiciel. Quant au critère de contrôle, son applicabilité même fait débat dans l’hypothèse d’un robot véritablement autonome dont les actions ne seraient plus, à proprement parler, contrôlées par une personne.
La responsabilité extracontractuelle spéciale
Le régime spécial de la responsabilité du fait des produits défectueux pourrait également s’appliquer aux robots (5). Le produit, défini de manière large, est considéré défectueux lorsqu’il n’offre pas la sécurité à laquelle l’utilisateur peut légitimement s’attendre. Dans le premier accident impliquant le véhicule autonome de Google, la société californienne avait déclaré assumer une certaine responsabilité «car si [la] voiture n’avait pas bougé, il n’y aurait pas eu de collision», reconnaissant à demi-mot un défaut de sécurité de son produit.
Néanmoins, la notion de sécurité légitimement attendue n’est pas totalement adaptée quand il s’agit de l’appliquer aux robots autonomes : quid de ceux respectant l’ensemble des normes de sécurité applicables, mais qui seraient malgré tout impliqués dans la réalisation d’un dommage ? La frontière entre le défaut technique et l’action fautive peut alors s’avérer difficile à tracer.
Certains régimes de responsabilité pourraient ainsi être envisagés pour les robots tels que nous les connaissons aujourd’hui. Ils devront en revanche faire l’objet d’ajustements dans la perspective de robots parfaitement autonomes.
2. Le droit prospectif : vers un régime de responsabilité ad hoc pour le robot ?
Si les régimes «classiques» du droit de la responsabilité civile peuvent être adaptés à l’état actuel de la robotique, il n’en reste pas moins qu’il existe certaines incompatibilités structurelles s’agissant de robots parfaitement autonomes.
Aussi, certains plaident en faveur d’un régime spécifique de responsabilité du fait du robot, voire d’une responsabilité du robot lui-même – qui poserait alors la question de sa personnalité juridique propre. Le robot pourrait être directement responsable de ses actes, contracter une assurance, voire posséder en propre un patrimoine qui pourrait être utilisé pour indemniser les dommages qu’il pourrait causer.
Si ces considérations sont intéressantes du point de vue du droit prospectif, il n’en reste pas moins qu’elles semblent prématurées au regard de l’état actuel de la technologie. La question de la responsabilité est nécessairement fonction du degré d’autonomie du robot. Or, aujourd’hui, force est de constater que, loin des replicants imaginés par Philip K. Dick, l’autonomie de la majorité des robots est encore très limitée, ou bien circonscrite à des cas d’usage très spécifiques. La création d’une responsabilité juridique du robot risquerait en réalité de poser plus de problèmes qu’elle n’en résoudrait et, par prudence, il conviendra de se garder de toute «impulsivité normative (6)».
Finalement, en pratique, la question prioritaire reste celle de l’indemnisation des victimes de dommages causés par les robots.
Dans l’attente d’un consensus sur un régime de responsabilité satisfaisant, certaines pistes peuvent être d’ores et déjà explorées. En particulier, il pourrait être envisagé de mettre en place un régime spécifique d’assurances obligatoires, éventuellement assorti d’un fonds de garantie. Ce dernier serait inspiré, par exemple, du Fonds de garantie des assurances obligatoires de dommages qui indemnise les victimes d’accident de la circulation quand le responsable n’est pas identifié, qu’il n’est pas assuré ou que son assureur est insolvable.
C’est en tout cas l’une des pistes privilégiées par le Parlement européen : «Comme c’est le cas pour les véhicules à moteur, un tel régime d’assurance pourrait être complété par un fonds, afin de garantir un dédommagement y compris en l’absence de couverture (7).» Reste à savoir comment financer un tel fonds : taxation sur les polices d’assurance contractées pour l’usage de robots ? Cotisations de la part de producteurs de robots ?
Une réflexion de fond devra être engagée à ce sujet afin de limiter l’impact économique qu’un tel système pourrait avoir sur l’industrie de la robotique. En effet, si elle dénombre plusieurs poids lourds, elle compte également de nombreuses start-up pour qui une taxation supplémentaire pourrait s’avérer particulièrement douloureuse.
(1). En référence à I, Robot, film américain de science-fiction réalisé par Alex Proyas et sorti en France en 2004.
(2). Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)).
(3). Article 1242 du Code civil.
(4). Article 1243 du Code civil.
(5). Article 1245 du Code civil.
(6). Alexandra Bensamoun, Grégoire Loiseau, «L’intelligence artificielle : faut-il légiférer ?», Recueil Dalloz, 2017, p. 581.
(7). Parlement européen, op. cit.