Accès Rapide
S'identifier

Le droit de la responsabilité civile face au développement de l’IA

Par Amandine Cayol, Maître de conférences en droit privé, Codirectrice du Master 2 Assurances et personnes, Université Caen-Normandie

S’il est a priori tentant d’engager la responsabilité de l’IA elle-même en lui octroyant la personnalité juridique, les régimes « classiques » de responsabilité civile offrent d’ores et déjà des solutions en permettant d’engager la responsabilité de son producteur ou de son utilisateur.

L’intelligence artificielle (IA) désigne l’ensemble « des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine »(1). Il s’agit de programmes informatiques permettant de réaliser des tâches jusque-là réservées aux humains, car nécessitant des capacités d’apprentissage conceptuel et de raisonnement critique. Peu importe qu’ils soient ou non intégrés dans un robot(2).

Le terme « robot » , dérivant(3) du tchèque « robota » – ou « travail pénible » –, désigne « un appareil automatique capable de manipuler des objets ou d’exécuter des opérations selon un programme »(4). Trois générations de robots se sont succédé : les « automates exécutant des tâches préprogrammées »(5) ; les « machines réactives » qui agissent avec une certaine autonomie dans un environnement déterminé(6) ; les « robots cognitifs, c’est-à-dire ceux qui se basent sur des processus imitant l’intelligence humaine »(7). Seule cette troisième génération est dotée d’IA.

Cette dernière est elle-même plurielle. Tandis que les IA dites « faibles »(8) sont des programmes et algorithmes d’aide à la décision pour les êtres humains, les IA « fortes » ont une capacité d’auto-apprentissage(9) leur permettant de s’affranchir progressivement de leur programmation initiale pour prendre des décisions de manière autonome.

Le développement de l’IA questionne quant au régime juridique applicable en cas de dommage causé par cette dernière. Des réflexions sont menées sur le sujet depuis plusieurs années afin de proposer une réglementation adaptée aux « choses intelligentes », en droit interne(10) comme au niveau de l’Union européenne.

Une première résolution a été adoptée par le Parlement européen le 16 février 2017(11). Afin de tenir compte de l’autonomie et de la liberté décisionnelle de l’IA, elle appelait à « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables »(12). Plus mesurée, une seconde résolution du 12 février 2019 invite seulement à examiner « les règles et les processus actuels » afin de vérifier leur adéquation au développement de l’IA(13).

S’il est a priori tentant d’envisager la création d’une responsabilité de l’IA elle-même en lui octroyant la personnalité juridique (I), les régimes « classiques » de la responsabilité civile offrent en effet d’ores et déjà des solutions(14) en permettant d’engager la responsabilité de son producteur ou de son utilisateur (II).

I – Une tentation à rejeter : la responsabilité de l’IA elle-même

La volonté de prendre en compte l’autonomie croissante de l’IA (A) ne doit pas conduire à lui attribuer la personnalité juridique, ce qui serait à la fois dangereux et inutile (B).

A – La volonté de prendre en compte l’autonomie croissante de l’IA

Engager la responsabilité civile de l’IA supposerait de lui octroyer la personnalité juridique. Depuis l’abolition de l’esclavage(15) et de la mort civile(16), tous les êtres humains sont des personnes juridiques(17) de leur naissance à leur mort . Le critère de l’espèce humaine semble a priori permettre de tracer une frontière nette entre les personnes et les choses. Il est pourtant de plus en plus discuté, du fait de la difficulté croissante à déterminer l’essence de l’homme. S’agit-il de sa nature d’être sensible – ce qui le rapprocherait des animaux(19) – ou plutôt de sa capacité à prendre des décisions de manière autonome et réfléchie – permettant une comparaison avec l’IA ? Ceci conduit certains auteurs à proposer une extension de la personnalité juridique aux animaux (êtres sensibles)(20) ou à l’IA (entité intelligente)(21).

Les réflexions se sont accrues récemment en raison du double mouvement d’humanisation des robots et de robotisation des humains auquel conduit la convergence NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives)(22). L’idéologie transhumaniste a ainsi pour objectif une « augmentation » des capacités physiques et psychiques humaines, notamment grâce à une hybridation homme/machine. Certains de ses tenants annoncent même l’avènement prochain de la « singularité »(23), avec l’émergence d’une intelligence surhumaine. Sans aller jusque-là, les évolutions technologiques actuelles interrogent sur la place à accorder à l’IA. Descartes affirmait déjà : « Je suis une chose qui pense »(24). Dès lors, toute chose qui pense n’est-elle pas une personne ?

Refuser toute assimilation entre les êtres humains et ces « intelligences non humaines »(25) n’exclurait en outre pas nécessairement la consécration de leur personnalité juridique. En effet, le droit reconnaît aussi l’existence de personnes dites « morales » afin d’insister sur leur absence de consistance physique. Il s’agit d’entités auxquelles est attribuée la personnalité juridique, dès lors qu’existe « une possibilité d’expression collective pour la défense d’intérêts licites, dignes, par suite, d’être juridiquement protégés »(26). L’idée d’un sujet de droit « technique », exprimée par Demogue au début du XXe siècle(27), est reprise par certains afin de justifier l’extension de la personnalité juridique aux animaux(28) ou à l’IA(29). Une « personnalité robot » devrait être reconnue à cette dernière, laquelle pourrait être identifiée par un numéro d’immatriculation et dotée d’un capital afin de permettre d’indemniser les préjudices causés(30). Une telle extension de la personnalité juridique à l’IA doit cependant être rejetée.

B – La nécessité de rejeter une « personnalité robot » dangereuse et inutile

Accorder la personnalité juridique à l’IA contribuerait à obscurcir encore davantage la distinction entre les personnes et les choses juridiques(31). Jusqu’alors, « l’existence d’une volonté libre apte à s’engager demeure en effet la caractéristique commune à toutes les personnes »(32). Création de l’homme, l’IA n’a pas d’intérêt distinct(33). « Eu égard à (sa) nature fonctionnelle […] et à l’utilitarisme qui (la) caractérise », elle ne saurait être qualifiée de sujet de droit(34).

La personnalité juridique de l’IA serait en outre dangereuse. La déresponsabilisation du producteur et de l’utilisateur à laquelle elle conduirait(35) serait susceptible d’avoir pour conséquence une baisse de leur niveau de vigilance. Une augmentation du nombre de dommages causés par l’IA pourrait en découler, alors même que l’objectif initial était au contraire de rassurer face aux risques présentés par le développement de l’IA.

Surtout, retenir la capacité de réflexion comme critère d’attribution de la personnalité juridique à l’IA risquerait de poser des problèmes éthiques en cas de transposition de celui-ci aux personnes physiques. Une remise en cause de la personnalité juridique des êtres humains dénués d’autonomie décisionnelle pourrait être crainte(36).

Enfin, le patrimoine de l’IA étant nécessairement alimenté par des sommes versées par une personne physique, lui attribuer la personnalité juridique serait un détour superflu(37). Ne serait-il pas plus simple de s’en tenir à une action en responsabilité civile contre les personnes physiques devant répondre de l’IA en qualité de producteur ou d’utilisateur ?

II – Un recours possible au droit « classique » de la responsabilité civile : la responsabilité du producteur ou de l’utilisateur

Le droit « classique » de la responsabilité civile offre des possibilités d’action contre des personnes physiques devant répondre de l’IA, tant en présence d’un défaut de production (A) qu’en son absence (B)(38).

A – En présence d’un défaut de production

Les dommages causés par une IA défectueuse entrent dans le champ d’application de la responsabilité du fait des produits défectueux(39). La notion de « produit » est entendue de manière très large comme tout bien meuble, l’article 1245-2 du Code civil prenant soin de préciser que l’électricité est considérée comme un produit. Cette notion ne semble donc pas réservée aux choses matérielles(40).

La victime peut agir contre le producteur de l’IA afin de demander réparation des dommages résultant d’une atteinte à la personne ou à un bien autre que le produit défectueux lui-même(41), et ce qu’elle soit ou non liée à ce producteur par un contrat(42). Une action contre le fournisseur professionnel du produit est prévue à titre subsidiaire « si le producteur ne peut être identifié »(43).

Afin d’obtenir réparation, la victime devra réussir à prouver « le dommage, le défaut et le lien de causalité entre le défaut et le dommage »(44). Le défaut est caractérisé à chaque fois que l’IA ne présente pas « la sécurité à laquelle on peut légitimement s’attendre »(45). Précisions qu’« un produit ne peut être considéré comme défectueux par le seul fait qu’un autre, plus perfectionné, a été mis postérieurement en circulation »(46).

Plusieurs causes d’exonération pourraient toutefois être opposées par le producteur en l’état actuel des textes. L’article 1245-10 du Code civil exonère en effet le producteur de toute responsabilité s’il parvient à prouver l’absence de défaut du produit au moment de sa mise en circulation(47) ou « que l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut »(48). Le caractère évolutif des IA « fortes » pourrait dès lors conduire à refuser toute indemnisation aux victimes. Une évolution des textes sur ce point devrait être envisagée afin de prendre en compte les spécificités de ces formes d’IA(49). Les dommages résultant d’un défaut de production de l’IA pourront alors être utilement réparés sur le fondement de la responsabilité du fait des produits défectueux. Certains dommages sont toutefois susceptibles d’être causés par une IA en l’absence de tout défaut de production.

B – En l’absence d’un défaut de production

En l’absence de défaut de production, c’est la responsabilité de l’utilisateur qui sera engagée en raison d’une faute de sa part ou en sa qualité de « gardien » de l’IA.

La responsabilité du fait personnel suppose de rapporter la preuve d’une faute, d’un préjudice et d’un lien de causalité. La notion de « faute » est conçue de manière extensive(50)  : peu importe qu’elle soit ou non intentionnelle(51), qu’il s’agisse d’une action ou d’une omission(52). Une mauvaise utilisation de l’IA pourrait parfaitement être considérée comme fautive. La principale problématique sera de déterminer si le refus pour une personne de suivre les recommandations d’une IA peut constituer une faute, notamment dans le domaine médical. Un médecin choisissant un autre traitement que celui préconisé par l’IA pourrait-il, par exemple, engager sa responsabilité s’il en résulte un dommage pour son patient(53) ?

C’est surtout la responsabilité du fait des choses qui aura vocation à s’appliquer du fait de son caractère objectif. Il n’existe actuellement aucune raison de réserver la notion de « chose » au domaine matériel(54). Notons que le projet de réforme de la responsabilité civile propose toutefois, de manière discutable, de cantonner à l’avenir ce régime aux « choses corporelles »(55).

La principale difficulté sera de déterminer le gardien de l’IA. Défini comme celui qui a « l’usage, la direction et le contrôle de la chose »(56) au moment du dommage, le gardien est caractérisé par sa maîtrise de la chose. L’autonomie et la liberté décisionnelle de l’IA – au moins concernant les IA « fortes » – ne pourraient-elles pas constituer un obstacle à leur maîtrise par un homme(57) ? La notion de « gardien » risque de s’avérer inadaptée face aux évolutions technologiques(58).

Il a dès lors pu être proposé de transposer à l’IA la responsabilité des parents du fait de leurs enfants(59). Comme ces derniers, l’IA serait en effet en continuel apprentissage. Une telle proposition révèle toutefois un regrettable anthropomorphisme : l’IA relevant de la catégorie des choses ne saurait être comparée à des personnes physiques. Une piste de réflexion plus sérieuse est offerte par la responsabilité du fait des animaux(60). Faisant peser sur le propriétaire ou « celui qui s’en sert » les dommages causés par un animal, que celui-ci soit « sous sa garde » ou soit « égaré ou échappé », ce régime permettrait de prendre en compte l’autonomie de l’IA « échappant » au contrôle de son utilisateur(61).

Notes : 

(1) Dictionnaire Larousse. 

(2) A. Vial, La qualification juridique de l’intelligence artificielle : du silicium à la personne ?, RD aff., déc. 2018, p. 4. 

(3) Utilisé pour la première fois en littérature en 1920 par l’écrivain Karel Tchapek (1890-1938), dans sa pièce « R.U.R. ».

(4) Dictionnaire Larousse. 

(5) Comme tous les robots ménagers (lave-linge, machine à café, etc.).

(6) Comme les aspirateurs ou les tondeuses à gazon autonomes. 

(7) J. Petrelluzzi, De l’opportunité de reconnaître une personnalité juridique aux robots autonomes, in M. Clément-Fontaine, J. Petrelluzzi et M. Miliotis (dir.), L’intelligence artificielle : ses enjeux en droit civil européen, Ed. universitaires européennes, 2017, p. 9. 

(8) Sur la distinction entre IA « faible » et IA « forte », v. L. Alexandre, La guerre des intelligences, Ed. J.-C. Lattès, 2017. 

(9) On parle de deep learning

(10) L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a rendu un rapport intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée », le 15 mars 2017, présentant les enjeux éthiques, juridiques, économiques, sociaux et scientifiques de ces technologies. Parallèlement, la loi n° 2016-1321 pour une République numérique du 7 octobre 2016 a confié à la Commission nationale de l’informatique et des libertés (CNIL) une mission de « réflexion sur les problèmes éthiques et les questions de société soulevées par l’évolution des technologies numériques », conduisant à la rédaction d’un rapport en décembre 2017 intitulé « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle ». Un autre rapport sur l’IA a par ailleurs été confié au député Cédric Villani et rendu public en mars 2018.

(11) Sur ce texte, v. G. Loiseau et A. Bensamoun, L’intelligence artificielle : faut-il légiférer ?, D. 2017, p. 581. 

(12) Recommandation 59. 

(13) Elle a été précédée d’un avis du Comité économique et social européen (CESE) du 31 mai 2017 sur « Les retombées de l’intelligence artificielle sur le marché unique (numérique), la production, la consommation, l’emploi et le société », lequel s’opposait « à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA ». Sur ce texte, v. Human-in-command : la piste du robot responsable condamnée par le Comité économique et social européen, Resp. civ. et assur. 2017, n° 10, alerte 23. 

(14) A. Bensamoun et G. Loiseau, La gestion des risques de l’intelligence artificielle. De l’éthique à la responsabilité, JCP G 2017, n° 46, doctr. 1203. 

(15) Par le décret du 27 avril 1848 dans les colonies et possessions françaises. 

(16) Par la loi du 31 mai 1854. 

(17) Les personnes physiques. 

(18) En vertu de l’article 122, alinéa 2, du Code civil, la personne « absente » perd toutefois sa personnalité juridique alors qu’elle peut être encore vivante en réalité. 

(19) Définis dans le Code civil depuis 2015 comme « des êtres vivants doués de sensibilité » (art. 515-14). 

(20) E. Engelhardt, De l’animalité et de son droit, Ed. Chevalier-Marescq, 1900, p. 124. 

(21) A. Bensoussan et J. Bensoussan, Droit des robots, Larcier, Bruxelles, 2015, p. 42.

(22) Entre nanotechnologies, iotechnologies, informatique et sciences cognitives.

(23) R. Kurzweil, The Singularity is Near, Ed. Viking, 2005.

(24) R. Descartes, Méditations métaphysiques, 1641, « Seconde méditation ». 

(25) S. Canselier, Les intelligences non humaines et le droit. Observations à partir de l’intelligence animale et de l’intelligence artificielle, APD 2012, n° 55, p. 207-229. 

(26) Cass. civ., 28 janv. 1954, n° 54-07.081, Comité d’établissement de Saint-Chamond.

(27) R. Demogue, La notion de sujet de droit, RTD civ. 1909, p. 630. 

(28) J.-P. Marguénaud, La personnalité juridique des animaux, D. 1998, p. 205 ; L’animal en droit privé, thèse Limoges, 1992. 

(29) A.-S. Choné-Grimaldi et P. Glaser, Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité juridique ?, Contrats, conc., consom., 2018, n° 1, alerte 1 ; J. Petrelluzzi, De l’opportunité de reconnaître une personnalité juridique aux robots autonomes, précité, p. 42-43. 

(30) A. Bensoussan et J. Bensoussan, Droit des robots, précité, p. 47-48. 

(31) A. Bensamoun et G. Loiseau, L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, Dalloz IP/IT 2017, p. 239.

(32) F. Dekeuwer-Défossez, La notion de personne : tentative de synthèse, D. 2017, p. 2046. 

(33) A. Mendoza-Caminade, La santé et la robotique, RLDI 2014, n° 108 ; G. Loiseau et M. Bourgeois, Du robot en droit à un droit des robots, JCP G 2014, n° 48, doctr. 1231. 

(34) M. Bouteille-Brigant, L’intelligence artificielle : entre tentation d’une personnalité juridique du troisième type et avènement d’un transjuridisme, LPA 2018, n° 62, p. 7. 

(35) G. Courtois, Robots intelligents et responsabilité : quels régimes, quelles perspectives ?, D. IP/IT 2016, p. 287. M. Bourgeois, Robot et personnalité juridique, in A. Bensamoun (dir.), Les robots, Mare et Martin, 2016, p. 125. 

(36) J.-R. Binet, Personnalité juridique des robots : une voie à ne pas suivre, Dr. famille 2017, n° 6, repère 6. 

(37) A. Vial, La qualification juridique de l’intelligence artificielle : du silicium à la personne ?, précité, p. 4 ; S. Bernheim-Desvaux, L’objet connecté sous l’angle du droit des contrats et de la consommation, Contrats, conc., consom. 2017, n° 1, étude 1. 

(38) Nous ne traiterons pas ici du régime spécial applicable en France en présence d’un accident de la circulation et nous nous en tiendrons à une étude générale des règles de la responsabilité civile applicables face aux IA autres que les véhicules terrestres
à moteur impliqués dans un tel accident. 

(39) Issue d’une loi du 19 mai 1998, laquelle transposait une directive européenne du 25 juillet 1985.

(40) S. Dormont, Quel régime de responsabilité pour l’intelligence artificielle ?, Comm., com. électr. 2018, n° 11, étude 19 ; C. Coulon, Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes, Resp. civ. et assur. 2016, n° 4, étude 6. 

(41) V. en ce sens la réponse de la garde des Sceaux (à la question de M. de Chazeaux), qui confirme que la loi de 1998 a « vocation à englober l’intégralité de la catégorie juridique des meubles, à laquelle appartiennent les logiciels », Rép. min. à QE n° 15677, 15 juin 1998, JOAN Q. 24 août 1998, p. 4728.

(42) C. civ., art. 1245-1.

(43) C. civ., art. 1245. 

(44) C. civ., art. 1245-6. 

(45) C. civ., art. 1245-8. 

(45) C. civ., art. 1245-3, al. 1er

(46) C. civ., art. 1245-3, al. 3. 

(47) C. civ., art. 1245-10, 2°.

(48) C. civ., art. 1245-10, 4°. 

(49) G. Loiseau, Les responsabilités du fait de l’intelligence artificielle, Comm., com. électr. 2019, n° 4, comm. 24 ; A. Bensamoun et G. Loiseau, La gestion des risques de l’intelligence artificielle. De l’éthique à la responsabilité, précité.

(50) L’article 1240 du Code civil pose un principe général de responsabilité pour « tout fait quelconque de l’homme, qui cause à autrui un dommage ».

(51) L’article 1241 du Code civil vise d’ailleurs expressément les fautes d’imprudence et de négligence. 

(52) Cass. civ., 27 févr. 1951, Branly. 

(53) L. Mazeau, Intelligence artificielle et responsabilité civile : le cas des logiciels d’aide à la décision en matière médicale, Revue pratique de la prospective et de l’innovation 2018, n° 1, dossier 6.

(54) M. Fabre-Magnan, Droit des obligations, Responsabilité civile et quasi-contrats, t. 2, PUF, 3e éd., 2013, p. 245-246.

(55) Projet de réforme du droit de la responsabilité civile, 13 mars 2017, art. 1243. 

(56) Cass. ch. réunies, 2 déc. 1941, Franck. 

(57) H. Jacquemin et J.-B. Hubin, Aspects contractuels et de responsabilité civile en matière d’IA, in H. Jacquemin et A. de Streel (dir.), L’IA et le droit, Larcier, Bruxelles, 2017, p. 128. 

(58) Le recours à la distinction entre garde de la structure et garde du comportement ne serait ici d’aucune utilité, l’action contre le producteur, gardien de la structure, relevant désormais de la loi de 1998. 

(59) www.association-droit-robot.fr/eurobotics-livre-vert-robots/.

(60) C. civ., art. 1243. 

(61) L. Wada, De la machine à l’intelligence artificielle : vers un régime juridique dédié aux robots, LPA 2018, n° 257-258, p. 7. M. Bouteille-Brigant, L’intelligence artificielle : entre tentation d’une personnalité juridique du troisième type et avènement d’un transjuridisme, précité ; G. Courtois, Robots intelligents et responsabilité : quels régimes, quelles perspectives ?, précité ; A. Mendoza- Caminade, Le droit confronté à l’intelligence artificielle : vers l’émergence de nouveaux concepts juridiques ?,
D. 2016, p. 445.

TOUTE L’ACTUALITÉ DU DROIT & DE LA GESTION PATRIMONIALE

abonnez-vous
Div qui contient le message d'alerte

Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire

Mot de passe oublié

Déjà abonné ? Créez vos identifiants

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ? Remplissez les informations et un courriel vous sera envoyé.

Div qui contient le message d'alerte

Envoyer l'article par mail

Mauvais format Mauvais format

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format

Div qui contient le message d'alerte

Contacter la rédaction

Mauvais format Texte obligatoire

Nombre de caractères restant à saisir :

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format