Omar Ennaji est Legal & Policy Officer, Commission européenne, Direction générale Marché intérieur, Industrie, Entreprenariat et PME et Thomas Cassuto est Magistrat, Président de chambre à la cour d’appel de Reims et Président de l’Institut Présaje – Michel Rouger
- Omar Ennaji
Dans les arcanes de la Commission Européenne, je travaille pour la Direction générale pour le marché intérieur, l'industrie, l'entrepreneuriat et les PME (DG - GROW). C’est à peu près l'équivalent du ministère de l'industrie au niveau national. Ma direction générale s'occupe de plusieurs sujets, dont notamment celui dont je suis en charge, la directive pour la responsabilité du fait des produits défectueux. Les négociations se sont achevées il y a un peu plus d’un an. On a travaillé avec les co-législateurs, donc le Parlement et le Conseil de l'Union européenne. Et en ce moment, on est dans la période de transposition. Puisque, comme il s'agit d'une directive, elle doit être transposée en droit national.
Je pense que vous avez déjà eu une très bonne présentation sur la responsabilité de façon générale, dans les interventions précédentes. Je peux vous donner le point de vue européen sur la responsabilité de façon générale des produits défectueux, qui est du coup applicable dans le droit français et le droit des autres États membres. Et aussi, vous expliquer pourquoi on parle de cette directive et de la responsabilité de l'IA.
Comme vous le savez, en 2022, la Commission avait proposé deux législations. Une qui était la directive pour la responsabilité des produits défectueux, et l'autre qui portait sur l’"adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle", abrégée en directive sur la "responsabilité en matière d'intelligence artificielle". Les deux directives, en tout cas les deux propositions, avaient deux champs totalement différents.
Je vous expliquerai aussi pourquoi on peut dire qu'actuellement on a de la responsabilité en matière d'intelligence artificielle dans l'Union Européenne.
Cette directive, qui a été finalement retirée par la Commission, harmonisait certains aspects de la responsabilité pour faute qui pouvaient avoir un lien avec la responsabilité de l'IA. Elle ne créait pas un régime de responsabilité de l'IA, elle harmonisait certains aspects. Ça veut dire, en termes très clairs, que certaines présomptions avaient été harmonisées, ou avaient pour but d'être harmonisées au niveau national ; elles auraient été les mêmes dans tous les États membres de l'Union Européenne. Mais elle ne créait pas un régime en tant que tel, donc elle ne créait pas de nouveaux droits. C'est simplement que, quand il fallait utiliser la responsabilité pour faute au niveau national, certains petits aspects étaient communs à tous les autres États membres. Cette dernière a été retirée puisque les discussions étaient bloquées au Conseil et au Parlement.
Mais on a gardé l'autre proposition, qui révise la directive sur la responsabilité du fait des produits défectueux que tous les États membres connaissaient depuis 1985. La proposition révisait ce régime au niveau national et au niveau européen pour l'adapter aux nouvelles technologies, notamment les logiciels et l'intelligence artificielle.
Pour reprendre l’historique, au niveau européen, mais aussi au niveau national: on s'est rendu compte dans les années 1960, à cause d'un médicament qui s'appelait le thalidomide(1), qu'on avait parfois des dommages sans pour autant savoir s'il y avait faute ou négligence d'une personne. On s'est rendu compte que certains États membres n'avaient pas de régime pour couvrir ces cas spécifiques. Et puis, même s'il y avait des questions de faute, parfois c'était bien trop compliqué, à cause de l'industrialisation des produits, de déterminer qui était fautif. Donc dans les années 1970, dans le cadre du marché intérieur et donc de la libre circulation des produits, la Commission a travaillé sur un nouveau régime selon lequel la victime n'a pas à démontrer la faute, n'a pas à démontrer la négligence, mais doit démontrer un autre élément qui serait la défectuosité du produit. En ayant la défectuosité du produit, on n'a plus à chercher la faute ou la négligence, on doit simplement établir que le produit est défectueux et qu'il y a un lien de causalité entre le défaut et le dommage. Donc voilà à peu près la logique.
En révisant la directive, on a clarifié que l'intelligence artificielle était un produit en tant que tel, on a clarifié certains dommages qui peuvent appeler une compensation, on a réadapté certaines règles pour qu'elles soient "future-proof", comme on dit en anglais, pour qu'on n'ait pas besoin de réviser la directive et les règles d'ici 5, 10, 15 ans. L’objectif était aussi de faire en sorte que ce soit neutre au niveau de tous les produits, mais pour autant qu'elle apporte la protection dont les victimes ont besoin.
Donc, à la question, où en sommes-nous au niveau européen de la responsabilité en matière d'IA ? La réponse est assez simple. On a une directive qui va s'appliquer à partir du 9 décembre 2026. Voilà le panorama au niveau du droit européen en la matière.
- Thomas Cassuto
Est-ce que vous pouvez préciser les raisons politiques de l'abandon de la directive de responsabilité d'IA ?
- Omar Ennaji
Les raisons étaient assez simples. On s'est rendu compte qu'il n'y avait pas d'accord entre les co-législateurs. Au niveau européen, on a un processus totalement démocratique qui fait que, si les co-législateurs n'avancent pas dans les discussions et qu’on se rend compte qu'ils ne sont pas d'accord avec l'approche ou la proposition de la commission, on retire.
Donc voilà à peu près les raisons du retrait. Il y a aussi le fait qu'on a un vrai régime de la responsabilité et qu'on s'est aussi rendu compte, durant les discussions entre co-législateurs, que parfois la seconde proposition pouvait compliquer certaines règles et qu'il fallait revenir sur l'approche proposée.
- Thomas Cassuto
Je vais compléter un petit peu votre propos à travers mon analyse. Pour citer Bismarck, "la loi c'est comme les saucisses, il vaut mieux pas regarder comment on la fabrique". Je pense que c'est intéressant aussi dans cette démarche de construction d'un droit de la responsabilité en lien avec l'IA.
Nous sommes à l'ère industrielle. Il y a trois grands mouvements. Le premier mouvement, c'est l'énergie, qui est à l'origine d’à peu près tout. Il y a la mécanique, avec notamment l'automobile, qui nous concerne tous. L'aéronautique, qui est une source de suprématie stratégique. Et puis il y a la biologie. Et la biologie, ce qu'elle nous montre aujourd'hui, c'est que c'est une forme de complexité que l'on n'arrive toujours pas à décrypter. Si l'on observe la science de l'évo-dévo(2), qui est née au début du XXIe siècle, on voit qu'il y a des mécanismes d’une complexité tellement élaborée que l'on peine encore à les discerner. Et l'intelligence artificielle, c'est un moyen, c'est un artifice, qui nous sert à gérer de la complexité quand l'humain pense ne plus être en capacité de le faire, alors même qu'en fait, il y a des choses qui échappent à l'intelligence artificielle.
L'impact de l'IA sur les activités humaines est majeure. C'est un petit peu la gouverne de profondeur de l'industrie. Si on essaye de comparer un Airbus avec un Boeing, quelle est la différence ? Ce n'est pas le fuselage, ce n'est pas les ailes, ce n'est pas le moteur. En fait, c'est l'esprit, c'est la philosophie dans la construction de l'avion. Airbus protège l'avion par ses logiciels et bride le pilote, alors que Boeing a une philosophie plus orientée vers la liberté du pilote qui peut dépasser certaines limites fixées par le constructeur. Et donc, ça veut dire qu'il y a une interaction entre le logiciel et l'être humain, certainement, mais que cette interaction, elle est définie au départ par une sorte de philosophie. Et on voit bien les conséquences que ça peut avoir sur les responsabilités... Le crash d'un avion, c'est une sacrée responsabilité, y compris pour une compagnie toute entière.
Si je fais le parallèle avec l'automobile, c'est la même chose. Ca nous concerne tous, le taux d'équipement en France est à peu près de 5,2 pour 10. On nous annonce la voiture autonome, à tort ou à raison, un bien ou un mal. Simplement, il y a 3 000 morts par an sur les routes en France. Si on peut réduire de 90% ce taux, bien des esprits chagrins diront que c'était mieux avant, que c'était plus sympa de pouvoir conduire sa voiture mécanique, sans électronique, etc. Il restera que près de 3 000 morts par an auront pu être évités. Pour ma part, j'attends ce moment de la voiture autonome où je n'aurai plus à conduire, où je n'aurai plus à supporter la charge de conduire pendant des heures.
Le deuxième axe, c'est la responsabilité. On en a parlé ce matin longuement et je pense que le propos de Diane Galbois-Lehalle est essentiel parce qu'il montre que le cheminement qui doit être le nôtre de construction d'un droit de la responsabilité, c'est une co-construction. J'illustre cette construction à travers quelques exemples:
- 1930, l'arrêt Jand'heur citant l'article 1384 du code civil, alinéa 1er, qui définit un principe général de responsabilité du fait des choses. Ce principe, cette décision, elle n'est pas venue toute seule, elle est le fruit d'une longue réflexion doctrinale et du fait que la jurisprudence a assumé de répondre à des enjeux sociétaux.
- 1936, l'arrêt Mercier, en matière médicale, qui crée une obligation de moyens à côté de l'obligation de résultats pour s'adapter à un enjeu sur la responsabilité médicale.
- 1982, l'arrêt Desmares sur la responsabilité dans les accidents automobiles, qui précède de trois ans la loi Badinter de 1985. Cet arrêt Desmares, il faut le relire, ce n'est pas un arrêt qui préfigure la loi Badinter, c'est un arrêt qui va le provoquer, précisément parce qu'à un moment donné, on se trouve dans un système qui a besoin de plus de garanties, d'un mécanisme assurantiel universel et simplifié pour une activité humaine qui génère des dommages. Au début des années 80, on est à plus de 10 000 morts par an sur les routes. Plus de 10 000 morts par an sur les routes. Avec un trafic bien moins important.
Le troisième axe, c'est la responsabilité du fait de l'IA dont on pourrait dater l'émergence autour de l'année 2020. C'est-à-dire que préalablement, on s'est interrogé sur la régulation de l'IA pour essayer d'en prévenir les éventuels abus. Et ensuite, le Parlement européen et la Commission se sont interrogés sur la possibilité d'anticiper des mécanismes de responsabilité du fait de l'IA.
Et quand on envisage une régulation, on doit le faire toujours d'une main tremblante, avec précaution. On entend souvent formulée l'idée d'un vide juridique. Le doyen Carbonnier(3) disait que “le vide juridique, ça n'existe pas”. Je fais écho à ce qui était dit ce matin, il existe souvent des solutions que le droit permet, mais qui ne sont pas utilisées. Pour des raisons économiques, pour des raisons peut-être de prudence ou d'un manque d'imagination. Mais ce qui est important, c'est bien d'envisager qu'on a le choix entre, d’une part, utiliser le droit tel qu'il est aujourd'hui, les règles de responsabilité telles qu'elles ont été décrites ce matin ou, d’autre part, d'envisager d'autres mécanismes.
Je rebondis sur une remarque d’Arnaud Billion et évoquer les travaux de Pierre-François Euphrasie sur la responsabilité du robot. Au premier abord, on a envie de l'écarter naturellement. Mais je pense qu'il y a matière à une réflexion et le parallèle avec la responsabilité de la personne morale doit amener à réfléchir plus avant sur, peut-être, une autre forme de fiction qui permettrait de considérer si, pour reprendre la remarque de Jean Rohmer sur le grand ordina-terre, l'intelligence artificielle n'est pas monolithique, elle participe d'un processus, ou en tout cas elle est intégrée dans un processus global. Dans ce processus, certains acteurs ont une communauté d'intérêt à construire, développer, importer, commercialiser, affréter, utiliser, ou acheter, mettre à disposition, ces appareils autonomes.
Je pense que, dans la démarche de la Commission sur la directive abandonnée, la directive sur la responsabilité du fait de l’IA, il y a des biais méthodologiques, et je le dis avec beaucoup de bienveillance. Il y a des biais méthodologiques parce qu’elle aurait pu partir d'un certain nombre d'actes, et en particulier d'une résolution du Parlement européen de 2020, et réfléchir à améliorer cette base. La commission a postulé que les règles existantes n'étaient pas toujours adaptées, qu'il fallait également prévenir des risques de surcoût pour les entreprises, pour les victimes, qu'il fallait s'assurer qu'elles pouvaient recevoir une indemnisation, et tout cela sans créer de nouvelles actions en responsabilité. Le titre de la directive est très éloigné de son contenu, puisqu'en fait, elle créait deux principales règles de preuve, et qu'elle n'entendait pas gérer de régime autonome de responsabilité du fait de l'IA. Et effectivement, sans doute, l'initiative la plus aboutie était celle d'adapter le droit sur la responsabilité du fait des produits défectueux.
Parmi les biais méthodologiques, il y a le fait que l’étude(4) préalable à la directive date de 2020. 2020, c’est pendant la période Covid, avant ChatGPT, avant la guerre en Ukraine, et donc, sans doute, elle n'était peut-être pas suffisamment aboutie. Et cette étude relève qu'un certain nombre de parties prenantes, les fameux stakeholders qui sont appelés à contribuer, n'ont pas vraiment vu d'intérêt à répondre à la sollicitation de Deloitte, qui avait en charge de rédiger cette étude. Et en particulier, le secteur de l'assurance n’a pas répondu. Ça interroge. Si le secteur de l'assurance ne trouve pas d'intérêt à contribuer à une proposition de directive, ou en tout cas à une étude préalable à une proposition de directive sur la responsabilité du fait de l'IA, c'est peut-être bien que, soit ça ne présente pas d'intérêt, soit que c'est trop tôt pour s'engager sur ce chemin.
Ensuite, quand on regarde les cas d'usage qui ont été examinés, il y a le véhicule autonome, il y a les appareils médicaux, et puis il y a la tondeuse à gazon. Je ne sais pas si vous avez déjà eu entre les mains une tondeuse à gazon pilotée par l'IA, mais de s'interroger sur les enjeux de la responsabilité du fait de l'IA à travers une tondeuse à gazon robotisée, ça paraît un peu dérisoire. Et il y a naturellement une démarche visant à évaluer les surcoûts de procédures liés au contentieux de la responsabilité du fait d'une tondeuse à gazon. C'est quand même assez symptomatique d'un biais méthodologique. Peut-être y avait-il d'autres cas d'usage plus importants à envisager.
Et puis, cette étude publiée en 2021 ne répondait pas véritablement à la question sur la responsabilité du fait de l'IA. Elle répond plus à la question du lien entre l'IA, les dommages causés par l'IA et éventuellement l'impact sur le marché. Et elle conclut que les possibles discordances entre les législations nationales pourraient affecter le bon fonctionnement du marché. C'est extrêmement théorique, c'est très spéculatif et ça repose sur des analyses qui sont assez superficielles.
Ce qui nous intéresse ce n’est pas tant la personnalité juridique de Grok, qui est un robot conversationnel ou un système d'intelligence artificielle qui a un spectre extrêmement large, que la communauté d'intérêts qui amène Grok à produire les réponses qui parfois nous choquent, nous heurtent, éventuellement nous blessent. Il y a le concepteur de l'IA qui a peut-être des intentions cachées (manipuler les opinions, manipuler les prises de décision, ce qui a été évoqué ce matin), mais aussi, tout simplement apporter des réponses à ceux qui ont formulé les requêtes avec un dessein particulier.
Ce qui me semble important, c'est qu’on comprenne bien que ce n'est pas forcément celui qui dégaine le plus vite qui compte. Il s'agit de dégainer au bon moment et de viser juste. Et que, parfois, la Commission est pressée de satisfaire à ce qu'elle appelle le narratif, c'est-à-dire la présentation qui permet de promouvoir une proposition peu importe la qualité de son contenu.
Je pense qu'il faut revenir à l'essentiel. Et l'essentiel ressort des débats que nous avons pour réfléchir tous ensemble. Les universitaires, les avocats… Les avocats en particulier parce que ce sont eux qui vont initier le contentieux, ce sont eux qui vont imaginer les solutions pour pouvoir définir ce que peut être la responsabilité du fait de l'IA demain, soit à partir de mécanismes que nous connaissons, soit peut-être en essayant d'en inventer de nouveaux. Je ne suis pas un fan du droit sui generis, mais l'imagination peut permettre d'apporter des solutions.
- Omar Ennaji
Deux choses ou trois petites choses pour réagir.
Je ne vais pas faire de cours de droit de l'Union européenne, mais c’est bien la Commission qui a le pouvoir d'initiative au niveau européen. Cependant, les traités permettent une forme d’initiative de la part des co-législateurs (le Parlement et le Conseil de l'Union européenne) qui, sur résolution et une demande, peuvent demander à la commission de travailler sur une proposition législative. Et le Parlement européen a fait usage de son droit d'initiative en 2020 pour appeler la Commission à proposer deux choses. Une proposition en matière de responsabilité de l'intelligence artificielle et ensuite de réviser les règles en matière de responsabilité du fait des produits défectueux. C'est ce que la Commission a fait. Il y a eu tout un travail, et il y a eu des études pour appuyer ce travail. Mais on s'est aussi rendu compte que la directive actuelle sur la responsabilité du fait des produits défectueux faisait déjà son travail.
J'ai eu pas mal de discussions avec des personnes issues du monde académique, surtout françaises, autour des questions de responsabilité en droit civil. Des questions telles que « quelle serait la responsabilité juridique pour les chatbots? » ou « Quelle serait la responsabilité juridique de la voiture autonome? » Avec la directive, on s'en fiche. On va considérer que c'est le producteur qui a créé un produit, qui l'a mis sur le marché, qui doit être responsable peu importe sa faute ou sa négligence. Peu importe si les deux existent, c’est le producteur qui doit être responsable vis-à-vis de la victime. C'est ce que la directive fait. Elle gomme toutes les questions juridiques en matière de personnalité juridique. Elle dit simplement que celui qui crée devient responsable du dommage.
Avec la petite subtilité qui est la défectuosité, concept extrêmement flou et large à la fois. On laisse au magistrat la décision au cas par cas, et donc on retire tout l'automatisme derrière. Au cas par cas, ça signifie savoir si le produit présente la sécurité à laquelle une personne peut s'attendre. C'est une définition floue mais elle permet justement au magistrat de savoir si, effectivement, il s'agissait d'un produit défectueux et si le producteur est responsable. Je passe sur toute la notion de responsabilité en matière de service de celui qui use ou qui vend le produit, c'est vraiment celui qui crée. C'est comme ça que la responsabilité au niveau européen fonctionne et c'est comme ça qu'il a fallu l'adapter.
Maintenant c'est vrai qu'il y a certains dommages qui ne sont pas pris en compte dans la responsabilité du fait des produits défectueux qui seraient par exemple les droits fondamentaux.
Ce qu'on considère, et c'est aussi dans le travail qu'on a mené avec l'étude d'impact de la commission pour les deux propositions, c’est qu’on a déjà aujourd'hui les instruments juridiques pour pouvoir s'attaquer à ces éléments-là. La discrimination, c'est reglementé dans tous les états membres, et on s'en fiche de savoir s'il y a une faute ou pas. C'est à peu près la même logique d'ailleurs qu'on a au niveau de la directive ; c’est toujours plus ou moins le même schéma.
Il y a tout un travail administratif lié à ces projets - on a parlé juste avant de la bureaucratie -, et la Commission reste une administration publique pour 450 millions de personnes. Mais notre travail consiste aussi à être en contact et composer avec de nombreux interlocuteurs: la société civile, les entreprises, les citoyens.
Échanges avec l’auditoire
- Arnaud Billion, Professeur de droit à l’EDHEC Augmented Law Institute
Je dis souvent à mes étudiants que le droit de l’Union cherche à concilier l'efficacité économique et les droits de l'homme. Et ma question serait de savoir si, de votre point de vue, c'est vraiment l'état d'esprit ? Parce que je suppose que vous êtes aussi au milieu de tout un maelström d'intérêts mais est-ce que, fondamentalement, c'est des choses que vous voyez ou c'est une présentation très académique et pas très concrète dans votre activité ?
- Omar Ennaji
En fait c'est très académique. Et j'ai étudié en France donc je sais comment on étudie le droit européen. C'est très académique. Au final, ce qui importe beaucoup au niveau européen c'est de savoir s'il y a une compétence pour légiférer. Est-ce qu'il y a une compétence d'action ? Et très souvent les législations, c'est ce qu'on appelle la base légale du marché intérieur. Donc elles ont une vision, un objectif qui est totalement différent. Quand on agit au niveau européen, quand le co-législateur adopte quelque chose et quand la Commission propose une législation, la base juridique c'est ce qui fonde l'objectif de la législation. Donc très souvent il y a cette approche droit économique mais elle le sera de façon différente si on utilise le droit social ou les droits fondamentaux. Donc ça dépend vraiment du sujet.
- Participant
Sur le droit des produits défectueux sur lesquels vous avez insisté, il y a une chose qui me gêne, c'est que la tondeuse à gazon comme vous l'avez citée, on peut savoir à quoi elle va servir et qu’on saura distinguer l’usage normal de les "reasonably foreseeable misuse" et c’est ce qui permet de répartir la responsabilité. Mais pour Grok ou tout autre LLM, qu'est-ce qu'un usage qu'on pouvait anticiper ? Et ça, ça me gêne énormément pour mon métier qui est de faire des produits nouveaux sans être mis en danger juridiquement.
- Omar Ennaji
Pour être clair, il y a des éléments dans la directive qui appartiennent à la réglementation des produits de façon générale. Quand on met un produit sur le marché, les producteurs doivent respecter un certain nombre de règles, et doivent faire un certain nombre d'analyses de risques. Et parmi ces analyses-là, il y a l'utilisation normale d'un produit ou l'utilisation qui peut être attendue d'un produit. C'est par exemple quand vous achetez un mixeur, l'utilisation normale du produit, c'est de mettre des fruits dedans et les mixer. Mais on peut s'attendre à ce que la personne décide de mixer des ingrédients de cuisine pour faire un gâteau. C'est au producteur d’y réfléchir quand il crée un produit et qu'il veut le mettre sur le marché. La même logique existe pour tous les produits. Et notamment l'utilisation d'une tondeuse automatique, le producteur doit se dire que l'utilisation normale c'est de la mettre dans le jardin mais que, peut-être, l'utilisateur va la mettre dans le jardin et aussi dans un garage de temps en temps. Et tout ça fait partie de l'analyse pour déterminer la défectuosité du produit parce que c'est quelque chose que les producteurs doivent analyser. Ils doivent tout mettre en place donc la responsabilité est un peu miroir dans ces cas-là.
- Thomas Cassuto
Il y a un très bon exemple, et je pense que c’est aussi lié à une différence de culture juridique mais, aux Etats-Unis, il est précisé qu’il ne faut pas mettre de chat dans les fours à micro-ondes. Et on ne trouve pas ça chez nous. Pourquoi ? Parce que le droit s'est construit chez eux à partir du principe que mettre un chat dans un micro-ondes pouvait être un usage possible. Et donc que si une personne le fait, ce n'est pas un mauvais usage de sa part mais c'est un défaut d'information du constructeur. Chez nous, ce n'est pas la même chose. Mais ça montre bien que le même appareil peut être utilisé, détourné, avoir des conséquences dommageables et que le droit est là, dans certaines limites, pour protéger.
- Pierre-François Euphrasie, juriste d’entreprise, droit de l’intelligence artificielle
Je voulais rebondir sur la question des usages que l’on peut anticiper. Prenons l'exemple d'une IA qui est dans un robot, et qui est capable de presque tout faire. Le robot sera capable d'aller couper le gazon, le robot sera capable de servir de micro-ondes peut-être, et de servir de mixeur. Comment, dans ce cas, va-t-on déterminer ce qu'on peut légitimement attendre de quelque chose qui est censé tout faire ? Parce que, finalement, ne va-t-on pas finir par dire qu'on ne veut pas que le robot ait un comportement anormal ? Quelque chose qui serait presque proche d'une faute. On va commencer à avoir des choses qui sont capables de tout faire et se demander ce qu'est la défectuosité de quelque chose qui est capable de tout faire. En fait, on va commencer à rapprocher des “défauts” et des “fautes”.
- Omar Ennaji
Je vais répondre rapidement et puis je vais laisser le magistrat faire l'analyse. Oui, le défaut est proche de la faute. Comme il est proche de la négligence et comme il est aussi proche de l'absence des deux. Le concept ressemble beaucoup à la faute mais n'est pas de la faute. Ça a été vraiment fait volontairement pour que ça englobe à peu près toutes les situations. Dans le cas d'un robot qui a une intelligence artificielle, c'est en plus très simple comme situation. Le dommage est forcément physique ou matériel. On va regarder à quoi sert le produit. Et ce sera forcément sur du cas par cas qu'il faudra établir, ce n'est jamais automatique. Par exemple, est-ce qu’il y a un défaut si le robot devait couper du gazon mais arrive ensuite à l'intérieur de la maison et coupe des câbles… Si c'était automatique on finirait dans une situation où, soit tout est défectueux, soit rien ne l'est. C'est pour ça qu'on laisse la décision au magistrat. Le droit de la responsabilité en matière de produits défectueux est totalement différent des règles en matière de sécurité des produits. Parce que ce n'est pas quelque chose d'automatique qu'il faut appliquer. Au contraire, c'est du cas par cas selon la situation, selon le produit, selon les petits éléments qui feront que ce sera différent. Et ce sera au magistrat de faire tout le travail pour appliquer les règles, pas de façon automatique mais de façon flexible. C'est ce qu'on a essayé de faire dans la directive. C'est ce que la législation fait de façon générale : elle est assez souple pour laisser l'interprétation au magistrat.
- Thomas Cassuto
Qu'un robot fasse plusieurs choses à la fois, je ne suis pas sûr que ça change quelque chose. Et je pense que c'est même déjà un petit peu le cas. Une voiture, ça embarque plusieurs systèmes d'intelligence artificielle, ça fait plusieurs choses en même temps. Et il peut y avoir une défectuosité sur un anti-patinage, sur un anti-blocage des roues. En fait, le sujet c'est notre acceptation du risque. Et plus on crée des systèmes de sécurité ou de protection, plus on veut assurer la sécurité du consommateur, et plus on va relever le niveau d'exigence dans la notion de produit défectueux, d’usage prévisible normal ou d’usage normal de la part d'un consommateur éclairé. On voit bien que ce n’est pas à toute épreuve et que l'on cherche simplement à se prémunir du risque.
Mais dans toutes les activités humaines, il y a une part de risque qui est plus ou moins acceptée. Quand on pratique le rugby ou la boxe, on accepte de prendre des coups. On fait en sorte que ces coups soient le mieux contrôlés, que certains coups soient interdits, d'assurer une sécurité renforcée, mais de fait l'homme aussi évolue, il est de plus en plus lourd, de plus en plus musclé, de plus en plus rapide et donc les dommages sont de plus en plus importants aussi. Donc c'est aussi une question d'équilibre et le droit est là pour assurer cet équilibre, restaurer des déséquilibres au sein de la société. Et la fonction du juge finalement c'est de satisfaire des intérêts divergents, d’apporter une réponse équitable à des intérêts divergents, par l'interprétation et l'application de la loi.
(1) médicament administré comme anti-nauséeux dans les années 1950 et 1960, et dont on a découvert qu’il était à l’origine de graves malformations congénitales.
(2) contraction de l'anglais Evolutionary Developmental Biology ou biologie évolutive du développement en français
(3) Jean Carbonnier, 1908-2003
(4) Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021