Pierre-François Euphrasie est docteur en droit de l’intelligence artificielle et juriste d’entreprise.
Si « c’est dans les vieux pots qu’on fait les meilleures soupes », c’est peut-être avec les concepts juridiques traditionnels qu’on aidera la présente table ronde à trouver le meilleur modèle de responsabilité pour les faits de l’IA.
Les concepts juridiques traditionnels auxquels nous devons songer sont connus dès les cours d’introduction et de méthodologie en droit car, derrière la question des « modèles » de responsabilité que nous recherchons (risque, sanction, illicite…), nous appliquons tout à la fois nos connaissances sur l’« esprit » voire la « philosophie » de la loi, les « fondements » de pensée (qui sous-tendent une règle de droit), les « valeurs » défendues par une norme (…). Tout autant de concepts traditionnels qui, dans la présente étude, seront regroupés sous le même terme de « paradigme », entendu comme le « modèle de pensée »(1). La recherche de paradigme de responsabilité pour les faits de l’IA est donc la recherche des modèles de pensée qui sous-tendent un régime de responsabilité. Cette approche permet d’analyser ensemble les différents concepts précédents, au vu de leurs traits communs et de leur cohérence globale(2).
La responsabilité, pour sa part, est « l’obligation de répondre d’un dommage devant la justice et d’en assumer les conséquences »(3). Elle intervient généralement ex post, donc après la réalisation d’un trouble. Certains paradigmes expliqueront cette intervention ex post. Nous verrons toutefois qu’en matière d’IA, la « responsabilité » ex post se joint utilement à la « réglementation » ex ante, donc « avant » le trouble, et pour laquelle une doctrine propose des paradigmes d’une véritable « responsabilité » ex ante(4).
La recherche de paradigme apparaît assez théorique. Pourtant, elle a des conséquences concrètes, que ce soit pour ceux qui participent à l’écriture de la Loi ou pour ceux qui la manipulent après l’écriture.
Pour ceux qui participent à l’écriture, les paradigmes sont des repères dont on s’éloigne ou se rapproche, lorsqu’on décide de créer une condition de responsabilité. Par exemple, on peut citer la responsabilité du fait des produits défectueux et sa condition de délai de forclusion, dont on peut lire des paradigmes entre les lignes d’analyses doctrinales. Ainsi, ce délai procure un avantage aux fabricants, découlant sans doute d’un paradigme qui n’est autre que l’« impératif économique »(5) qu’il y a à limiter la possibilité d’action de la victime contre un fabricant qui fait fructifier l’économie. Plus ce délai sera court pour la victime, plus on s’éloignera d’un autre paradigme, qui sera, par exemple dans le domaine pharmaceutique(6), la « sécurité sanitaire que les patients peuvent légitimement attendre ».
Pour ceux qui manipulent la loi au quotidien, il y a aussi un avantage pratique à connaître les « paradigmes » de responsabilité. Par exemple, pour interpréter un texte en faveur du client de l’avocat ou en faveur de l’entreprise du juriste planchant sur un « process », on pourra s’appuyer sur « l’esprit » de la loi…
Comprendre les paradigmes est donc éminemment important et concret.
Pourtant, on peut avoir l’impression que la recherche de paradigmes piétine en matière de responsabilité du fait de l’IA. Comme dans le rapport européen(7) proposé à l’étude de la présente table ronde, mais aussi dans d’autres sources par ailleurs(8), on voit diverses propositions de modèles, sans qu’on finisse par s’arrêter sur l’un d’entre deux. On aurait d’ailleurs pu espérer une réponse dans la proposition européenne de directive de responsabilité du fait de l’IA(9), mais non seulement elle a été retirée, mais en plus, elle n’imposait pas d’harmonisation de fond pour les Etats membres car elle s’en tenait plutôt à des règles probatoires.
A ce stade de notre table ronde, il est donc légitime de s’interroger : pourquoi n’arrivons-nous pas à nous fixer sur un paradigme de responsabilité pour les faits de l’IA ?
La réponse est sans doute assez simple, bien qu’il faille préciser que, tout en ayant vocation à prospérer dans plusieurs systèmes de responsabilité (pénale, administrative…), elle sera illustrée avec la responsabilité civile, simplement mieux maîtrisée de l’auteur de ces lignes. Il apparaît alors qu’il est difficile de se fixer car la recherche de paradigme de responsabilité pour les faits de l’IA est non seulement exploratoire (I), mais en plus parcellaire (II).
I. Une recherche exploratoire
Une même recherche peut se mener de plusieurs façon car les chercheurs n’ont pas toujours les mêmes outils, les mêmes buts, les mêmes méthodes… Ainsi, une recherche peut se fonder sur des analyses soit qualitatives, soit quantitatives. Dans le même temps, la recherche peut viser un objectif pratique (recherche appliquée) ou théorique (recherche fondamentale). Aussi, une recherche peut servir à clarifier un phénomène, et quand ce phénomène est difficile à décrire ou expliquer, il reste à déceler ses vraies problématiques et les structurer. Ce dernier cas permet de proposer non pas une solution mais plusieurs solutions raisonnablement envisageables.
C’est ce qui se passe avec les paradigmes de responsabilités de l’IA, car en les cherchant, on est plutôt dans la démonstration qu’il s’agit de la forme nouvelle d’un problème constant (A) sans solution arrêtée (B).
A. Forme nouvelle d’un problème constant
Il n’a jamais été facile de s’arrêter sur un paradigme unique expliquant une règle de droit, y compris en droit de la responsabilité. Dans une même règle de droit, on entrevoit toujours plusieurs paradigmes qui se mélangent ou se succèdent dans le temps. En ce sens, la recherche d’un paradigme pour une responsabilité est donc un problème constant. Par exemple, un temps, la responsabilité des parents ne demandait, certes, pas la démonstration d’une faute mais les parents pouvaient s’exonérer par la démonstration de l’absence de leur faute dans la surveillance de l’enfant. Aujourd’hui (arrêt Bertrand), cette cause d’exonération n’est plus possible. Le paradigme de la faute a donc été présent sous une forme particulière, mais s’est ensuite éloigné. Plus généralement d’ailleurs, on se rappellera qu’une partie de la doctrine considère même que dans la responsabilité civile, il est difficile de détacher totalement la réparation de toute idée de faute du responsable, d’où un « impossible divorce de la faute et de la responsabilité civile »(10).
S’interroger aujourd’hui sur les paradigmes de responsabilité avec l’IA n’est donc pas totalement nouveau, mais c’est un problème qui a une forme nouvelle. C’est cela qu’il faut alors rechercher et mettre en lumière : les spécificités qu’apporterait le fait nouveau qu’est l’IA dans cette recherche traditionnelle de paradigme.
Les doctrines avancent alors diverses hypothèses.
L’une estimera qu’avec l’IA, la vraie nouveauté factuelle – parfois nommée « élément perturbateur » (11) du droit – c’est l’autonomie de l’IA. Cet élément factuel est d’ailleurs bien pris en compte dans les textes, en particulier le RIA qui lie même l’autonomie à la capacité « d’apprentissage » de l’IA, autre élément spécifique(12).
Il n’est toutefois pas certain que l’autonomie et la capacité d’apprentissage soient les vraies nouveautés factuelles avec l’IA, car d’autres entités les avaient déjà et posaient moins de difficultés : il s’agit en particulier des animaux. Si bien qu’en croyant que ce sont là les nouveautés apportées par l’IA, on passe à côté du vrai problème(13).
A titre personnel(14), sans exclure ce critère mais en le voyant sous un angle différent, il me semble que la spécificité de l’IA se situe dans sa capacité à donner l’illusion qu’elle est une personne avec ou sans la forme du corps humain (critère par nature), ce qui lui permet d’imiter toute entité, au risque de la remplacer (critère fonctionnel).
Une fois ces spécificités décelées, on cible mieux les nouveaux enjeux de l’IA pour les paradigmes de responsabilité que nous étudions. Pour un premier exemple on peut citer l’impact de ces spécificités de l’IA sur la responsabilité en matière de produits défectueux. En effet, un robot doté d’IA peut faire des choses qui ressemblent à un comportement humain. Or, si la défectuosité objective(15) de ce robot est caractérisée quand il n’offre pas la sécurité à laquelle on peut légitimement s’attendre (art. 1245-3 C.civ.), et que le comportement de ce robot ressemble à celui d’un humain, le défaut du robot sera caractérisé quand son comportement n’offrira pas la sécurité à laquelle on peut légitimement s’attendre… Cette formulation sonne familièrement à nos oreilles. Le défaut du robot ne se rapprochera-t-il pas de la faute de l’humain : « comportement que n’aurait pas dû avoir une personne raisonnable placée dans une situation similaire » ? Défaut / faute : en raison de la ressemblance entre IA et humain, le défaut de l’IA sera sans doute, un jour, comparé à la faute de la personne, au prix d’un rapprochement de nos fameux paradigmes.
Autre exemple de l’impact de ces spécificités de l’IA sur les paradigmes de responsabilité: la conceptualisation d’un dommage nouveau. En effet, l’IA peut prendre des apparences humaines. Cela pourrait-il engendrer un dommage d’inquiétante étrangeté ? Théorisée par Freud en 1919(16) et sans doute confirmée par Masahiro Mori pour exposer la « vallée de l'étrange »(17), « l’inquiétante étrangeté » exprime le malaise que l’humain éprouvera à se retrouver face à un robot qui serait une imitation imparfaite de la vie humaine. Cette inquiétante étrangeté pourrait être le seuil d'un préjudice moral. Qu’on songe au malaise que nous avons à discuter au téléphone avec une voix qui se révèle être une IA, et on aura peut-être une illustration de ce dommage…
L’IA apporte donc des spécificités, qui renouvèlent la question des paradigmes de responsabilité, mais ce n’est pas une problématique totalement nouvelle. En cherchant les modèles de responsabilité pour l’IA, on procède davantage à une mise en perspective renouvelée, permettant de trouver des solutions qui avaient peut-être, jusque-là, été simplement cachées à cause d’une mauvaise approche. C’est finalement une recherche heuristique.
Quelles sont alors les nouvelles solutions qui s’offrent à nous ?
B. Résultat changeant
L’application d’une nouveauté factuelle à un problème ancien permet de voir ce problème sous un jour nouveau, et donc d’amender les solutions anciennes.
D’emblée, il faut dire que pour s’adapter aux nouveautés de l’IA, on peut proposer des ajustements mineurs dans chaque régime de responsabilité, notamment par l’intermédiaire de la jurisprudence. On pourra, par exemple, revenir à un critère de garde de la structure pour considérer comme responsable le fabricant du robot doté d’IA(18). Ces amendements ne seront pas abordés. En revanche, des solutions plus novatrices (dont certaines sont contestées dans leur raison d’être(19)) apparaissent et concernent plus spécialement l’IA. On peut en présenter trois.
La première est la responsabilité pour activité à risque. Elle part du constat que, même si les manquements au RIA pourront permettre de caractériser une responsabilité du professionnel du fait de la défectuosité de l’IA (obligation de « de contrôle, de cybersécurité ou encore de qualité des données ») voire une faute de ce professionnel (par exemple, production d’un SIA interdit), ces apports du RIA peuvent être insuffisants. Entre autres raisons, les obligations du RIA seraient parfois trop légères (pensées comme des obligations de moyens sans obligations de résultat(20)). On peut aussi supposer que les prétoires auront aussi à traiter, en dehors de toute violation du RIA, des cas où une IA causera un dommage sans que le professionnel qui exploite l’IA ne puisse voir sa responsabilité engagée sur le fondement du fait des produits défectueux.
Resterait alors un « renforcement » du droit civil de la responsabilité avec, pour fondement de « restaurer pleinement [la] fonction indemnitaire »(21) de la responsabilité civile. Ainsi, une doctrine propose le modèle des activités à risque du professionnel qui utilise l’IA dans le cadre de son activité(22). Il s’agit d’engager la responsabilité sans faute du professionnel utilisant une IA à haut risque, si celle-ci cause un dommage. L’absence de défectuosité de son produit et l’absence de faute de sa part, n’empêcherait pas d’engager sa responsabilité. C’est une proposition à mi-chemin entre les présentations des deux intervenantes de notre présente table ronde. On pourra juste noter que finalement, ce n’est peut-être pas autre chose que la garde de la structure de la responsabilité du fait des choses, mais qu’elle aurait ici la particularité de ne pas s’appliquer à toutes les choses (IA à haut risque) et pas à toutes les personnes (certains professionnels uniquement).
Une autre solution novatrice serait la faute personnelle de l’IA.
Pour bien comprendre la responsabilité fondée sur la faute, on doit distinguer deux catégories de responsabilité du fait personnel en matière d’IA.
En premier lieu, il y a la responsabilité qui rechercherait classiquement la faute d’une personne dans le développement, la distribution, l’utilisation (…) de l’IA. Or, dans la mesure où la faute n’est pas définie strictement en droit, et qu’elle semble aussi se retrouver sous des noms différents dans des régimes spéciaux de responsabilité (contrefaçon voire délits de presse(23)), elle reste, selon moi, une catégorie assez ouverte pour que le juge découvre des fautes adéquates même sans nouvelle loi écrite (à charge pour lui de prendre assez de précaution pour que la notion de faute ne « dépérisse »(24) pas).
En second lieu, on peut aussi prospecter sur une responsabilité du fait personnel pour faute de l’IA qui aurait une personnalité juridique. Je n’y suis pas favorable, mais ça reste théoriquement possible. Nous ne nous attarderons pas sur celle-ci, non seulement par manque de temps, mais aussi parce que c’est peut-être, parmi les propositions novatrices, celle qui est la plus décriée mais la plus souvent analysée.
Une dernière solution novatrice serait la garde évolutive de l’IA. Pour la comprendre, il faut revenir à l’idée de garde et/ou d’autorité(25) dans chaque régime traditionnel de responsabilité du fait non personnel, et chercher si on peut en extraire des paradigmes pour les appliquer à l’IA. Il s’avère alors qu’en effet, chaque régime de responsabilité du fait non personnel repose sur un paradigme particulier de la garde et/ou de l’autorité, et que chacun peut être utilisé à un moment différent de l’existence de l’IA (d’où l’idée d’une garde évolutive)(26).
Par exemple, dans la responsabilité des commettants du fait de leur préposé, les commettants sont responsables pour les faits commis par les préposés dans le cadre de leurs « fonctions »(27) et/ou « mission »(28)… On a là une idée intéressante ; il peut exister une « fonction(29) générale », mais à un moment donné, quelqu’un donne une « mission » particulière. Ces concepts pourraient être transposés à l’IA, avec cette particularité que la fonction n’est pas déterminée par la personne exerçant une autorité immédiate, mais par : le fabricant, le producteur et/ou le développeur... La mission, en revanche, est assignée à l’IA par la personne qui en a l’usage effectif, en particulier l’utilisateur, grâce à des instructions spécifiques. Lorsque l’IA cause un dommage dans le cadre de la mission qui lui a été confiée et que cette mission entre dans le champ de sa fonction, la responsabilité devrait être engagée cumulativement à l’encontre de l’utilisateur et du fabricant. Ce dernier pourrait toutefois s’exonérer en démontrant un transfert de la « garde de la fonction », notamment par la preuve d’un contrat. Si, en l’absence de tout contrat de transfert, l’IA excède le cadre de la mission qui lui a été assignée par l’utilisateur, tout en restant dans les limites de sa fonction, la responsabilité devrait incomber exclusivement au fabricant. Dans une logique proche de certaines propositions doctrinales, cette approche ajoute des nouveaux modèles de garde à ceux de la structure et du comportement, et s’inscrit dans une conception évolutive de la garde, qui se déplacerait progressivement du fabricant vers l’utilisateur(30).
Voilà donc trois exemples de nouveaux paradigmes de responsabilité proposés pour les faits de l’IA, et cette diversité de propositions illustre le caractère exploratoire de notre recherche.
Le caractère exploratoire n’est toutefois pas la seule difficulté de cette recherche de paradigme. La responsabilité est une forme d’aboutissement, une « ligne d’arrivée » qui a, sans doute, pour paradigme ultime de compenser le déséquilibre des patrimoines créés par la survenance d’un dommage. Toutefois, cette approche est parcellaire car on doit aussi remonter le parcours qui a mené à cette ligne d’arrivée, pour analyser les autres paradigmes intervenant dans la responsabilité pour les faits de l’IA.
II. Une recherche parcellaire
Pour les faits de l’IA, la recherche de paradigmes de responsabilité apparaît parcellaire car la responsabilité est un mécanisme qui dépend d’autres paradigmes en amont. C’est ainsi qu’il est nécessaire de lier la recherche des paradigmes de responsabilité des faits de l’IA avec les paradigmes des obligations préexistantes dans un régime de responsabilité (A). Découvrir ces paradigmes des obligations préexistantes n’empêchent pas que des lacunes persistent encore, si on remonte plus en amont dans la responsabilité (B).
A. Les indispensables paradigmes des obligations préexistantes
Dans les régimes de responsabilité fondés sur la violation d’une obligation préexistante, ces obligations préexistantes ont leur propre paradigme. Nous analyserons les obligations préexistantes de la responsabilité pour faute et les obligations de mise en conformité ex ante (compliance).
Nous avons entendu comme synonymes les termes de « modèles de responsabilité » et de « fondements de la règle de droit ». Toutefois, cela ne peut cacher qu’un même modèle de responsabilité peut voir se mélanger plusieurs fondements de la règle, à des niveaux différents mais pourtant liés. Ainsi, la responsabilité pour faute est fondée sur le subjectivisme (qui peut déjà constituer un premier « fondement de la règle ») mais la faute étant la violation d’une règle de droit, cette règle de droit transgressée aura aussi son propre fondement de pensée. Par exemple, en violation du RIA, j’utilise une IA interdite de techniques subliminales de manipulations, pour que mon co-contractant s’engage. Il est fort probable qu’il y ait là une manœuvre dolosive dans la conclusion du contrat. D’un côté, la responsabilité pour faute est le modèle retenu pour condamner l’auteur du dol, et cette responsabilité a donc pour paradigme la sanction du sujet fautif. Toutefois, le paradigme des règles sur le dol sont aussi à rechercher dans l’idée de protection du consentement, ou dans la philosophie de l’autonomie de la volonté libre et éclairée. On a donc deux niveaux de paradigme, et l’un n’explique que partiellement l’autre. Notre concept de « paradigme » de responsabilité a donc l’utilité de la globalité, mais ne peut pas masquer certaines distinctions. Penser le paradigme de responsabilité de fait de l’IA de façon isolée est donc une réflexion inaboutie.
Cette logique se vérifie aussi avec les obligations de compliance, que nous nous bornerons ici à définir comme la mise en conformité ex ante. Elle a ses propres paradigmes, comme le risque d’incident, mêlé sans doute à celui de la peur de la survenance dudit risque.
Or, notre recherche des paradigmes de responsabilité est peut-être incomplète si nous n’analysons pas aussi cette « réglementation » ex ante qui existe en matière d’IA(31), car elle pourrait devenir le fondement d’une véritable « responsabilité » ex ante(32).
Ainsi, avec le développement de la réglementation ex ante, on veut éviter un trouble final dans le fond, mais pour le faire, on impose des comportements formels en amont afin de « prévenir » ce trouble (un peu à l’image des infractions « obstacles » du droit pénal). Les violations de ces comportements n’entraînent pas directement le trouble final, mais plutôt des troubles qui, s’ils étaient additionnés à d’autres, tendraient fortement vers la réalisation du trouble final. Cette logique n’est pas propre à l’intelligence artificielle. Nous la connaissons, par exemple, avec l’obligation de tenir des registres de traitements du RGPD, permettant de déceler et (en principe) limiter le risque de traitement portant préjudice à une personne dont on traite les données. La logique est la même avec certaines obligations du RIA, notamment la documentation d’information sur un SIA. Une fois ces obligations créées, on peut alors – plus prospectivement – songer à une « responsabilité ex ante »(33). Celle-ci n’aura pas vocation à réparer le dommage (de moindre importance) né de la violation du comportement formel, mais bien le dommage redouté et encore non réalisé, qui arrivera dans le futur à cause du non-respect de ce comportement. C’est là un paradigme de la responsabilité ex ante, qui se fonde sur la « connaissance du futur catastrophique »(34) qu’on veut éviter.
En somme, il ne faut donc pas oublier d’analyser les paradigmes des règles de compliance en amont, pour être complet sur les paradigmes de responsabilité en aval, en matière d’IA.
Pour être complet sur la recherche de paradigmes de responsabilité qui doivent sous-tendre la responsabilité du fait de l’IA, on doit donc ajouter les paradigmes des obligations préexistantes. Il n’est toutefois pas certain que la recherche doive s’arrêter ici.
B. Des lacunes persistantes ?
Nous avons recherché les paradigmes des modèles de responsabilité, et les avons complétés par les paradigmes des obligations préexistantes. La recherche en est-elle alors complète ?
La réponse est sans doute négative, car même en complétant la recherche des paradigmes de responsabilité par la démonstration de leur liaison avec les paradigmes des obligations préexistantes, il apparaît qu’il reste encore des angles morts. C’est car il existe d’autres paradigmes qui sont indéniablement liés à la responsabilité et aux obligations, mais très indirectement. Il pourrait d’ailleurs nous être reproché de les analyser dans la présente étude, mais même si le lien est lointain, il convient de les évoquer.
C’est le cas en particulier de la violation des conditions de fond du contrat, qui peut conduire à engager la responsabilité civile (dol par exemple), mais pas systématiquement. Par exemple, si je donne des recommandations à une IA pour passer des contrats à ma place et qu’en raison de son autonomie, elle se défait de mes recommandations et s’engage au-delà de ce que je voulais. Serai-je engagé ? C’est tout simplement le cas du réfrigérateur qui commande des aliments alors que je ne lui ai rien demandé. La question n’est pas totalement détachée de la responsabilité, car si ce contrat est valable et que je ne veux pas le respecter, j’engagerai ma responsabilité contractuelle. Je tenterai alors de démontrer que je n’ai pas vraiment consenti à celui-ci… Il faudra alors faire le lien avec les règles de validité du contrat, avec des paradigmes fondamentaux du droit des contrats. Ce sera l’analyse de l’autonomie de ma volonté, justifiant que, d’une part, je sois contraint de m’exécuter pour les contrats que j’ai valablement passés (force obligatoire des contrats) et que donc, d’autre part, je ne puisse pas me rétracter.
Pour conclure, notons qu’on aurait pu attendre du RIA qu’il traite ce genre de problématique, mais ça n’a pas été sa logique car c’est un texte qui se focalise sur les risques de l’autonomie des SIA, de « leurs usages et […] leur destination »(35). Toutefois, à se focaliser sur l’autonomie, le RIA laisse des points aveugles, et on devra donc continuer la recherche pour analyser les vraies problématiques de l’IA, sans doute sa capacité à imiter ou à remplacer des entités existantes(36).
(1) définition du Robert consulté le 3 jan. 2026
(2) Cette globalité n’arrivera pas à masquer quelques spécificités, sur lesquels nous reviendrons
(3) CORNU (G.), Dictionnaire juridique, PUF, Quadrige, 10ème éd., 2014, V. « responsabilité », V. ég. CABRILLAC (R.) (Dir.), Dictionnaire du vocabulaire juridique 2022, LexisNexis, 13ème, 2021, p. 483
(4) FRISON-ROCHE (M.-A.), « La responsabilité Ex Ante », APD, T.63, n°1, 2022, p.105
(5) HOCQUET-BERG (S.), « Les produits de santé : un régime adapté ? » in « Colloque à la Cour de cassation (24 septembre 2025) : les 40 ans de la directive du 25 juillet 1985 relative à la responsabilité du fait des produits défectueux) », Resp. civ. et assur. 1er déc. 2025, n° 12, Dossier 27.
(6) Ibid.
(7) Responsabilité et IA, Étude sur les incidences des technologies numériques avancées (dont l’intelligence artificielle) sur la notion de responsabilité, sous l’angle des droits humains, Étude du Conseil de l’Europe DGI(2019)05, 2019 modèle de responsabilité absolue (responsabilité sans faute)
(8) V. par ex.: European Parliament – JURI Committee, Artificial Intelligence and Civil Liability. A European Perspective, juillet 2025, PE 776.426
(9) Proposition de Directive du Parlement européen et du Conseil relative à l'adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle (Directive sur la responsabilité en matière d'IA), 28 sept. 2022, COM (2022) 496 final, 2022/0303(COD).
(10) RADE (C.), "L'impossible divorce de la faute et de la responsabilité civile", Recueil Dalloz, 301, 1998, Adde, considérant que la responsabilité du fait des choses est, encore aujourd’hui, trop proche d’une responsabilité pour faute : MANGEMATIN (C.), « Droit de la responsabilité civile et intelligence artificielle » in MENDOZA-CAMINADE (Dir.), L'entreprise et l'intelligence artificielle, Les réponses du Droit, Presses de l'Université de Toulouse 1 Capitole, Travaux de l'IFR, 12 jan. 2023, p. 460.
(11) JAMES (T.), « Le droit de la responsabilité civile face à l'intelligence artificielle », BJDA, n 100, 1er sept. 2025, p.9 ; Adde. MERABET (S.), Vers un droit de l'intelligence artificielle, thèse de doctorat, 2018, Dalloz, Nouvelle Bibliothèque des Thèses, Vol. 197, 2020 ; MARTI (G.), CLUZEL-METAYER (L.), MERABET (S.), « Intelligence artificielle - Droit et Intelligence artificielle – Chronique », JCPG, n° 27, 07 juillet 2025, doctr. 870
(12) JAMES (T.), op. cit. ; GRYNBAUM (L.), « ‘’IA ACT’’ : une définition des systèmes d'IA et une régulation entre protection et soutien à l'innovation », JCPG, n° 38, 23 septembre 2024, act. 108 ; DOUVILLE (T.), NETTER (E.), « Le règlement sur l'intelligence artificielle : un droit des IA en quête de cohérence - Partie 1 (Règl. [UE] 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle) », RTD Com., 2025 p.105
(13) HUTTNER (L.), L'intelligence artificielle est-elle un ascenseur comme les autres ? Analyse contextuelle du règlement sur l'intelligence artificielle du 13 juin 2024, CCE 2024. Étude 12
(14) EUPHRASIE (P.-F.), Contribution à l’élaboration d’un droit civil du robot, Thèse de doctorat, Bordeaux, 2023
(15) On peut avoir une conception objective ou subjective de la défectuosité, V. not. BACACHE (M.), « Intelligence artificielle et droits de la responsabilité et des assurances » in BENSAMOUN (A.) (Dir.), LOISEAU (G.) (Dir.), Droit de l’intelligence artificielle, LGDJ, Les Intégrales, 2ème éd., 2022, p. 96
(16) GORI (R.) , « L’inquiétante étrangeté de l’homme augmenté » , Journal international de bioéthique et d'éthique des sciences, 2018, N°3, Vol. 29, p. 15.
(17) MORI (M.), « La vallée de l'étrange », Gradhiva, 2012-05-16 (15), p .26 s.
(18) Pour une analyse d’ensemble de ces adaptations mineures : EUPHRASIE (P.-F.), Contribution à l’élaboration d’un droit civil du robot, Thèse de doctorat, Bordeaux, 2023, n°458 s. ; Adde. JAMES (T.), op. cit.
(19) BORGHETTI (J.-S.), « Faut-il consacrer un régime de responsabilité du fait de l’intelligence artificielle dans le Code civil ? » in Le renouvellement du droit civil sous l’influence du numérique, Association Henri Capital, Thèmes et commentaires, Dalloz, 2024
(20) JAMES (T.), op. cit.
(21) Ibid.
(22) Ibid.
(23) Pour un exemple d’appréciation large des concepts d’injure et diffamation appliqués à l’IA: MARTI (G.), CLUZEL- METAYER (L.), MERABET (S.) , « Droit et Intelligence artificielle », chronique, JCP G 15 déc. 2025, n° 50, doctr., 1444
(24) Contra., considérant que cette faute peut dépérir : JAMES (T.), « Le droit de la responsabilité civile face à l'intelligence artificielle », BJDA, n 100, 1er sept. 2025, p.9, BORGHETTI (J.-S.), « Faut-il consacrer un régime de responsabilité du fait de l’intelligence artificielle dans le Code civil ? » in Le renouvellement du droit civil sous l’influence du numérique, Association Henri Capital, Thèmes et commentaires
(25) V., synthétisant l’autorité comme un fondement de la responsabilité générale du fait d’autrui « et même au-delà » : JULIEN (J.), « Responsabilité du fait d'autrui », Répertoire de droit civil, juillet 2019 (actualisation : mai 2023), spé.n°106.
(26) EUPHRASIE (P.-F.), Contribution à l’élaboration d’un droit civil du robot, Thèse de doctorat, Bordeaux, 2023
(27) Article 1242, al. 5 C. civ.
(28) Cass. ass. plén., 25 février 2000, Costedoat, n° 97-17378 et 97-20152.
(29) Pour une analyse générale de la faute de fonction en droit privé : MANGEMATIN (C.), La faute de fonction en droit privé, Dalloz, Nouvelle Bibliothèque des Thèses, 2014.
(30) BACACHE (M.), « Intelligence artificielle et droits de la responsabilité et des assurances » in BENSAMOUN (A.) (Dir.), LOISEAU (G.) (Dir.), Droit de l’intelligence artificielle, LGDJ, Les Intégrales, 2ème éd., 2022, p. 89.
(31) En particulier avec le RIA qui est lui-même construit sur une approche par les risques, V. not. DEFFAINS (B.), « L’IA agentique : du changement d’échelle technologique au questionnement du modèle juridique classique », Dalloz Actualité, 6 nov. 2025
(32) FRISON-ROCHE (M.-A.), « La responsabilité Ex Ante », APD, T.63, 2022, n°1, p. 105
(33) Ibid.
(34) Ibid.
(35) RIA, art. 3, 12; Adde. DOUVILLE (T.), NETTER (E.), « Le règlement sur l'intelligence artificielle : un droit des IA en quête de cohérence - Partie 1 (Règl. [UE] 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle) », RTD Com., 2025 p.105.
(36) EUPHRASIE (P.-F.), Contribution à l’élaboration d’un droit civil du robot, Thèse de doctorat, Bordeaux, 2023