Selma Demir est doctorante en droit privé à l'Institut François Geny, Université de Lorraine
En posant la question ”quel modèle de responsabilité?” On cherche en réalité à répondre à deux questions distinctes : pourquoi demander des comptes ? Et pour quoi, en deux mots, engager sa responsabilité ?
Je reprends cette phrase de John Gardner qui nous dit : "nous ne sommes des agents moraux que dans la mesure où nous sommes fondamentalement responsables"(1). Autrement dit, l'agentivité morale dépend de la responsabilité. Cette dernière en est une condition constitutive, ce qui vient donc souligner son importance. Et c'est pourquoi nous avons organisé cette journée.
Les débats contemporains relatifs à la responsabilité sont largement structurés par des modèles qui sont hérités du droit pénal et de la responsabilité morale. Ils font dépendre l'imputation de la responsabilité de l'intention, de la conscience ou de la faute d'un agent. Ces modèles sont fondés sur l'idée que l'on ne peut être tenu responsable que de ce que l'on a volontairement voulu ou négligemment omis d'éviter. Ils ont montré leur efficacité dans des contextes où les agents humains exerçaient un contrôle direct et transparent sur leurs propres actions.
Toutefois l'application de ces modèles aux systèmes d'IA soulève aujourd'hui de profondes difficultés. Les systèmes d'IA avancés, et en particulier ceux qui reposent sur l'apprentissage automatique, se caractérisent par des comportements autonomes, émergents et parfois, voire très souvent, imprévisibles. Dès lors, ils ne peuvent pas satisfaire les critères classiques de la responsabilité qui sont fondés sur la faute ou la culpabilité. Il est souvent impossible, aujourd'hui, de démontrer une faute identifiable, une négligence caractérisée ou une prévisibilité raisonnable du dommage. Le risque est alors de créer des zones de non-responsabilité, même si je n'aime pas trop le terme, dans lesquelles des dommages graves peuvent survenir sans qu'aucun acteur, in fine, ne soit juridiquement tenu d'en répondre.
La responsabilité absolue
Dans ce contexte, le troisième modèle de responsabilité présenté par le rapport du Conseil de l'Europe de 2019, le modèle de la responsabilité absolue(2), semble pertinent. En tous cas, je serais curieuse d'avoir vos avis à la fin quant à ce modèle de responsabilité.
La responsabilité absolue se définit comme une responsabilité dénuée de toute excuse ou de toute défense. Une responsabilité, donc, de plein droit, comme la responsabilité du fait des choses, qui va peser sur l'agent sans que l'on fasse référence à une quelconque faute ou à une quelconque négligence. La faute et la négligence ne nous intéressent pas. Elles ne conditionneront pas l'engagement de la responsabilité à l'état mental de l'agent, ni même à la violation d'un standard de conduite. Le fait d'avoir causé une atteinte juridiquement protégée va suffire. On le comprend bien, c'est un déplacement crucial, théorisé par le professeur Peter Cane, puisque ce n'est plus la qualité morale de l'agent qui est visée, mais la volonté d'assurer la protection effective de certains intérêts fondamentaux, au premier rang desquels nous retrouvons, bien entendu, les droits, la sécurité des personnes, l'intégrité corporelle, notamment. Dans ce modèle, finalement, la responsabilité ne va pas exprimer un reproche moral, mais une obligation juridique de prise en charge du dommage.
Les apports de Peter Cane
Peter Cane apparaît dans la genèse de ce modèle en proposant justement un déplacement conceptuel décisif qui va permettre de sortir de l'impasse qui existait au début. Dans son ouvrage Responsabilité en Droit et Morale(3), il soutient que la responsabilité juridique ne doit pas être comprise comme une simple transposition institutionnelle de la responsabilité morale, mais doit au contraire constituer une pratique normative, autonome, qui est orientée vers la protection des intérêts sociaux, la réparation des dommages et la répartition des risques. Finalement, la responsabilité chez Cane n'est pas une question de la qualité de la volonté ou de blâme moral, mais une technique d'imputation institutionnelle.
Ce point est fondamental pour les systèmes d'intelligence artificielle, puisque lorsque des dommages résultent de comportements émergents, d'interactions complexes, ou d'erreurs imprévisibles, l'exigence de fautes devient non seulement difficile à satisfaire, mais normativement inappropriée. Et donc, le droit ne peut suspendre la protection des victimes à la résolution de débats métaphysiques sur le contrôle, l'intention ou la prévisibilité.
Pour continuer avec Peter Cane, il identifie plusieurs formes de responsabilité absolue et ces formes de responsabilité ont été reprises par le Conseil de l'Europe.
La première forme, c'est la responsabilité absolue qui est fondée sur les droits. Dans ce modèle, il nous dit que toute atteinte à un droit juridiquement reconnu engage la responsabilité indépendamment de toute faute ou intention. L'exemple classique est celui de l'intrusion sur la propriété d'autrui. Le simple fait de pénétrer sans autorisation dans la sphère protégée du propriétaire constitue une atteinte illicite même si l'intrus n'est pas blâmable. Ce modèle est donc particulièrement pertinent pour les systèmes d'IA dans la mesure où ceux-ci peuvent porter atteinte à des droits fondamentaux, que ce soit une atteinte au droit à la vie privée, à la non-discrimination, à la dignité, sans qu'aucun acteur humain n'ait intentionnellement cherché à produire ces atteintes. Et donc, dans cette perspective, la responsabilité absolue ne vise pas à sanctionner une conduite fautive mais à garantir des sphères de protection qui sont reconnues par le droit. Et elle se rapproche directement d'une logique de garantie. L'idée c'est que les droits fondamentaux fonctionnent comme des seuils normatifs dont la violation va déclencher automatiquement une obligation de réparation ou de cessation, et indépendamment de toute évaluation morale de l'agent.
La deuxième forme de responsabilité absolue, c'est celle qui est fondée sur les résultats. Cette deuxième forme engage la responsabilité en raison de la survenance d'un résultat dommageable même lorsque ce résultat est imprévu et même lorsque l'agent a agi conformément aux normes existantes. Donc, l'agent engagera sa responsabilité alors même qu'il a agi conformément aux normes qui existent.
Et troisième forme de responsabilité absolue identifiée par Cane, c'est la responsabilité absolue qui est fondée cette fois-ci sur les activités. Cette responsabilité va s'appliquer lorsque la simple participation à une activité donnée suffit à engager la responsabilité, indépendamment encore une fois de toute faute. Les infractions de possession, la responsabilité du fait d'autrui, ou encore les régimes applicables aux activités dangereuses, en sont notamment des exemples assez pragmatiques. Les systèmes d'IA s'inscrivent naturellement dans cette catégorie également. Le développement, le déploiement, l'exploitation des systèmes d'IA constituent des activités organisées qui peuvent générer des dommages spécifiques souvent diffus et difficilement imputables à une décision humaine isolée. Et donc dans ce contexte, la responsabilité absolue qui est fondée sur l'activité pourrait permettre de rattacher la responsabilité à ceux qui structurent, qui contrôlent et qui bénéficient de l'écosystème technologique sans exiger la preuve d'une faute individuelle.
La théorie de la garantie
Je suis une partisane de la théorie de la garantie donc je devais faire le lien avec la théorie de la garantie développée par Boris Starck(4). Selon cette approche, la responsabilité juridique ne vise pas à sanctionner un comportement fautif - c'est ainsi qu'on peut faire le rapprochement avec la responsabilité absolue - mais à garantir aux victimes un certain niveau de sécurité et de protection de leurs intérêts fondamentaux. Boris Starck va étudier la responsabilité sous l'angle d'un conflit de droits qui va opposer l'auteur du dommage et la victime à l'effet de savoir dans quelle mesure l'ordre juridique garantit aux hommes leur liberté et leur sécurité. Appliquée au système d'IA, cette approche permet donc de dépasser les impasses qui sont liées à la recherche d'une faute individuelle pour finalement adopter une perspective systémique qui est orientée vers la protection des tiers.
Pour conclure, la responsabilité absolue n'exprime pas un blâme, elle ne prétend pas que l'agent aurait dû savoir ou aurait dû faire autrement, elle va organiser une obligation de réparation et non une condition morale. Bien entendu, la responsabilité absolue va simplement déplacer les conditions de la responsabilité ; elle ne va pas les supprimer donc on aura toujours des conditions de la responsabilité, un fait générateur (qui ne sera pas la faute), un dommage et un lien de causalité, mais celles-ci appréciées différemment. Et bien entendu des causes d'exonération.
(1) Hart and Feinberg on Responsibility, p.34, John Gardner, 2008
(2) Étude sur les incidences des technologies numériques avancées (dont l’intelligence artificielle) sur la notion de responsabilité, sous l’angle des droits humains, 3.4.3, Conseil de l’Europe, 2019
(3) Responsibility in Law and Morality, Peter Cane, 2002, Hart Publishing
(4) Boris Starck, 1909-1974, auteur notamment d’une thèse intitulée Essai d'une théorie générale de la responsabilité civile considérée en sa double fonction de garantie et de peine privée, publiée en 1947