IA & Dynamique managériale : quelles responsabilités ?
Le narratif de l'agent d'IA rappelle celui de l'agent administratif, entité agissante et irresponsable, pure effectuation de la règle qui l'environne. Lors du colloque du 9 janvier 2026 sur le thème de « Fait(s) de l’IA: Quels droits de la responsabilité ? », Arnaud Billion, professeur de droit à l’EDHEC Augmented Law Institute et Sabrina Hammoudi, maîtresse de conférences à l’Université Catholique de Lyon, ont utilisé cette analogie pour discuter de l'impact institutionnel systémique de l'IA et évaluer sa valeur juridique et démocratique.

Arnaud Billion est professeur de droit à l’EDHEC Augmented Law Institute et Sabrina Hammoudi est maîtresse de conférences a l’Université Catholique de Lyon

  • Arnaud Billion

Pour parler du droit de l’IA il faut d’abord définir les termes. Commençons par le droit. Je vois trois fonctions du droit: les fonctions de prescrire, proposer et figurer.

La fonction de prescrire est la plus évidente : le droit positif. Proposer, c'est un peu différent, c’est la juste chose à faire, le juste rétablissement. Pour prendre l'exemple d'une prestation compensatoire : “tu payeras”. C'est-à-dire que, peut-être, le monde serait un peu meilleur si on faisait ça. Ce n'est pas une prescription dure, c'est plus une proposition d'un rétablissement dans le sens de la justice, avec tous les cercles vertueux qu'on peut en attendre.

Et la troisième fonction, qui est souvent moins évoquée, est la fonction de figuration. C’est le droit rendu comme un miroir de nos représentations. Imaginons qu’un alien arrive sur Terre et qu’il ne connaisse rien de l’humanité. Plutôt que de lui présenter des sociologues ou des philosophes, on pourrait lui donner le Code civil. En lisant ça, il pourrait comprendre notre manière consensuelle de voir le monde. Par exemple, il va se dire qu’il y a des personnes, des biens et des obligations. C’est vrai depuis les Romains. Dans cette pièce, je vois des personnes, des biens (des immeubles), et puis des rapports obligationnels. Voilà la fonction figurative du droit.

Et l'IA, c'est deux choses. On nous dit souvent qu’il y a deux types d'IA: l’IA symbolique et l’IA connexionniste. Je ne suis pas du tout d'accord avec cette approche. Pour moi, ça équivaut à dire “il y a deux types d'omelettes, celles qui sont battues à la fourchette et les autres au fouet”. Pour moi il y a plusieurs manières de programmer, et il n'y a pas de survivance dans le programme.

Je dirais plutôt qu’il y a deux types d'IA: l'IA qui informe et l'IA qui déforme. L'IA qui informe, c'est l'IA qui se traduit en pixels sur l'écran : un humain regarde les pixels et les interprète. Donc, l'IA, à cet égard, informe ou désinforme. Et on va parler, par exemple, des algorithmes de recommandation. Cette IA désinforme quand elle dit n'importe quoi. Et le deuxième type d'IA, c'est l'IA qui déforme ou qui réforme. C'est-à-dire l'IA qui procède à des écritures dans les bases de données, sans qu'il y ait d’écran allumé. Par exemple, le trading algorithmique haute fréquence : si je n'ai pas de trader, ou si le trader est parti boire son café, ou si personne ne regarde l'écran, ou si l'écran est en veille, et bien, les écritures continuent…. L'IA continue de changer le système. Elle réforme, elle déforme, mais elle n'informe pas, puisque personne ne regarde l'écran. Et peut-être que personne n'aura jamais connaissance de ce que fait l'IA.

La problématique que l’on va essayer d’adresser aujourd’hui avec Sabrina, c'est comment l'IA vient percuter le droit, et en particulier le droit de la responsabilité. Et puis comment le droit réagit à ça, comme un organisme réagirait s’il était attaqué de l'intérieur par un virus.

Pour rebondir sur les échanges de ce matin, on a beaucoup entendu parler de décision, de faute. On a vu qu’au fond de tous ces modèles et ces paradigmes de responsabilité, peut-être qu'il y a simplement la faute. Si on se concentre sur la fonction figurative du droit, que nous dit le droit de la responsabilité ? Il nous dit que nous croyons tous, ou que nous sommes censés croire, au manquement libre. Il faut, en fait, une personne librement fautive. C'est-à-dire que si je suis suffisamment “pas manipulé” par quelqu'un d'autre, je vais pouvoir prendre une décision, et cette décision pourrait s'avérer fautive, et c'est moi qu’on va venir chercher en responsabilité.

C’est l'imputabilité dont les conditions sont le discernement et la liberté. Et par exception, s'il y a un cas de force majeure, je ne suis plus libre d'être fautif. Ou si j'ai une condition d'irresponsabilité pénale, par exemple si je suis malade psychiquement, je ne serai pas libre, et donc, je ne vais pas pouvoir être fautif. Je crois que cette notion de manquement libre est au cœur de notre cadre de responsabilité. Or, l'IA vient percuter ça.

Comment fait-elle ? En procéduralisant. L'IA, c'est du logiciel, du programme informatique. Le logiciel, c'est de la procédure automatique, et la procédure automatique dans nos organisations, c'est de la bureaucratie. L'IA, c'est de la bureaucratie. Et plus j'ai de l'IA, moins j'ai de manquements libres possibles, moins j'ai de décisions libres possibles. Un de mes collègues a travaillé assez profondément sur l'exemple des opérateurs bancaires chargés de détecter la fraude : il y a des écritures à analyser, dont certaines peuvent être frauduleuses, et il y a un pré-traitement par IA, et un post-traitement par IA. Plus il y a de l'IA dans ce bout de processus métier, moins l’opérateur est libre de décider et de fauter, puisqu'il va recevoir une recommandation indiquant qu’il y a 98% de chances pour qu’une écriture soit frauduleuse. Il va simplement cliquer “c'est frauduleux”, et l'IA va faire tout le reste. Donc plus j'ai de l'IA, moins j'ai de liberté dans l'organisation de la grande machine.

Ça veut dire qu’il y a une dilution de la décision dans nos systèmes organisationnels à cause de l’IA. On passe d’un régime de recherche d’un responsable crédible, à la désignation de bouc émissaire statistique. On demande à ChatGPT: mais qui était probablement responsable de cette faute ? Et il y a toujours un nom qui sort. Ça rappelle un peu l'affaire Kerviel, si vous vous souvenez du trader de la Société Générale qui fut à l'origine d’une perte de 4,9 milliards d’euros. Tout le monde jouait le même jeu, mais il y en a un qui a joué peut-être un peu moins bien que les autres, du coup, la foudre est tombée sur lui. C’est certainement une simplification outrancière de l'affaire Kerviel mais je crois que ça montre quand même le moment d'un processus.

S’il y a plus d'automatismes, il y a moins de liberté, moins de manquement libre, et donc moins de responsables. Et donc l'humain dans la boucle va devenir une forme d'amortisseur moral dans la grande machine. C'est-à-dire qu’on a affaire à une mécanique presque totalement automatisée, qu’il n'y a plus que quelques décisionnaires, les autres sont plutôt des agents. Ce n'est plus des gens, c'est des agents ; ils ne sont plus vraiment libres, ils sont quasiment des agents de l'IA. Mais, la foudre de la société peut plus tomber sur eux, ils ne peuvent plus faire paratonnerre. C’est pour ça qu’il doit rester quelques moments humains.

Qu'en pensez-vous, docteur Hammoudi ?

  • Sabrina Hammoudi

Moi, je suis enseignante en droit public, et je fais de la recherche en droit de l'intelligence artificielle, plutôt côté public aussi. Et évidemment, comme publiciste, je travaille sur l'administration. Quand j'entends Arnaud dire que l'IA, c'est de la bureaucratie, ça me plaît beaucoup, parce que l'administration, c'est une forme de bureaucratie quand même.

Ce sur quoi j'aimerais rebondir tout de suite, c’est sur la notion de faute. Parce ce que, ce qu'on vient de dire ici, et ce qu'on entend depuis le début de la journée, c'est que la faute, on la conçoit de manière assez civiliste, à son origine, comme un manquement moral en quelque sorte. Comme un manquement qui apparaît quand on est libre. On est libre d'avoir commis ce manquement, on a commis ce manquement, on a fauté, voilà.

Sauf que dans l'administration, ça ne marche pas comme ça. Parce que l'administration, c'est aussi un système, et qu’on ne peut pas le qualifier de libre. On n’a pas assez de temps pour entrer dans les détails théoriques mais, pour rester dans les grandes généralités, l'administration agit dans le cadre du principe de légalité. Elle est de A à Z prévue par le droit, c'est une forme de procédure. L'administration, c'est un système qui a très peu de liberté, d'ailleurs on ne dira jamais qu'elle est libre, on dira qu'elle a une marge de manœuvre, dans un système pré-existant, déjà très bien quadrillé. C’est une première chose.

Deuxièmement, peut-elle vraiment fauter moralement ? Là encore, c'est un système. On parle de la fiction juridique qui est la personne morale de droit public. Vous allez vite comprendre que c'est une fiction, qu'il y a bien des agents derrière, on en parlera. Mais le décor que l’on pose ici, c'est : un système, un peu comme une IA, bureaucratique, un peu comme une IA, et qui n'est pas libre, un peu comme une IA parce qu’il y a une procédure. Sauf que ce système, l'administration, peut causer des dommages, très clairement. En droit de la responsabilité administrative, beaucoup de nos arrêts commencent par "Dame veuve…". Ça en dit long sur le type de dommages que peut causer l'administration. On a des explosions, on a des tirs, tirés un peu à droite à gauche de manière tout à fait accidentelle...

Mais la question qu'on se pose ici, c'est : que fait le droit à propos de cette administration qui cause des dommages? On doit bien les réparer. Est-ce que le droit va chercher une faute alors que l'administration n'est pas censée commettre de faute ?

La droit administratif a deux réponses principales à ça, deux grandes idées:

  • un régime de responsabilité sans faute, qui est une accumulation de paradigme sur paradigme sur paradigme, qui s'est bien construit au fur et à mesure du temps.
  • une manière très particulière de concevoir la faute. J'y reviendrai juste après.

Ce qu'on dit aux étudiants au sujet de la responsabilité sans faute, c’est qu’il y a deux grandes branches.

D'abord le risque. On a déjà beaucoup entendu au cours de cette journée que la responsabilité est fondée sur le risque. De quoi parle-t-on ? Des choses dangereuses, abordées quand on se demandait si ce n’était pas simplement une responsabilité du fait de la garde. Mais il y a aussi autre chose, en droit administratif, c'est les méthodes dangereuses. Et dans les méthodes dangereuses, on a notamment les méthodes thérapeutiques nouvelles, et plus généralement tout ce qui est nouveauté. L'administration prend un risque. Dès lors qu'elle a pris un risque, si ce risque a causé un dommage, on répare sans faute. On n'a pas besoin de démontrer une négligence, on n'a pas besoin de démontrer une faute, on va démontrer un lien de causalité, mais on n'a pas besoin d'aller chercher la faute. Donc ça, c'est la première grande chose.

Je n'entrerai pas en détail sur la deuxième grande branche de la responsabilité sans faute, qui est la rupture d'égalité devant les charges publiques. C’est beaucoup plus précis et on n’aura pas le temps de le couvrir ici.

Par contre, ce que j'aimerais vous dire c'est que, même si je viens de vous dépeindre le régime de responsabilité sans faute, il y a parfois quand même une faute. Il existe en effet aussi un régime de responsabilité pour faute. Et là, le droit administratif n'est pas tout à fait à l'aise parce que, comme je vous l'ai dit, la faute de l'administration est difficile à trouver. On n'a pas de manquement moral. Alors peut-on se dire que l'administration, c'est une fiction, et qu'à l'intérieur il y a des agents, et que ces agents-là sont humains, et qu’ils peuvent fauter? Et dans ce cas, est-ce qu'on n'irait pas chercher leur responsabilité à eux ?

Là, on a une création jurisprudentielle qui est très intéressante en droit administratif. On va séparer la faute de service, donc de l'administration, de la faute personnelle, qui est la faute de l'agent. Alors comment définit-on cette faute de service et cette faute personnelle ? C’est quelque chose que j’aime beaucoup dire et dont on a souvent parlé avec Arnaud: la faute de service, donc la faute de l'administration, la faute de la machine, est définie de manière négative par rapport à la faute personnelle. Donc, la faute de service n'est pas la faute personnelle. Mais qu'est-ce que la faute personnelle ? La définition qu'on a, celle de la doctrine, nous vient d'Édouard Laferrière(1) et nous dit que la faute personnelle est celle qui révèle “l'humain dans ses faiblesses, ses passions et ses imprudences”. Donc, quand on a de la faiblesse, de la passion, de l'imprudence, on est sur un régime qui est presque extra-administratif. On est sur une faute personnelle qui révèle l'homme, en fait, qui révèle l'humanité. Mais quand on retourne dans le cadre du service, quand on a ni faiblesse, ni passion, ni imprudence, on est dans le régime administratif.

Je vous dis tout ça pour vous inviter à réfléchir à cette idée que l'administration est une machine. Et qu’on a déjà des règles de droit qui sont faites pour réparer les dommages causés par cette machine. Alors est-ce qu'on pourrait effectivement les adapter pour réussir à créer une sorte de responsabilité acceptable pour l'intelligence artificielle ? Peut-être, mais on est passé un peu vite sur quelque chose d’assez important : le lien de causalité. Je te repasse la parole à Arnaud pour approfondir.

  • Arnaud Billion

Oui le lien de causalité est important puisque, maintenant, nous avons la machine qui “commet” et l'IA vient rendre assez indiscernable celui qui aurait causé un manquement libre.

Le lien de causalité en droit, dans le paradigme général du droit civil, est approché par le principe de la monocausalité volontariste. Qu’est ce que c’est ? Nous tendons à penser que, dans un univers qui pourtant est multicausal, jusqu'à preuve du contraire, on peut remonter une chaîne des causes jusqu'à une personne qui a fauté.

Je vais prendre l’exemple dramatique d‘un incendie dans une boîte de nuit a Crans-Montana la semaine dernière. Le jeune qui malheureusement meurt dans cette affaire, il y a plusieurs causes à sa mort. Il est là, peut-être, parce qu’un ami l’a appelé, ses parents l’ont autorisé à aller dans cette station, quelqu’un a construit la station, etc… Et aussi une personne a failli à son obligation de sécurité dans la boîte de nuit. Mais nous avons une manière de penser d'après le droit civil, qui est la monocausalité volontariste, c'est-à-dire qu’il faut la défaillance de quelqu'un parmi les causes.

Et l'IA vient directement percuter aussi ça; c'est le deuxième effet de perturbation de l'IA, parce que, c'est bien connu, l'IA fait passer d’un régime de causalité à un régime de corrélation. C'est-à-dire que, par exemple, je mets un agent d'IA pour réserver une table au restaurant. Nous avons tous tendance à penser qu’une chaîne causale va se déployer jusqu'au fait que, à la fin, il y aura mon nom marqué quelque part au restaurant. Donc nous avons tous en tête cette monocausalité, cette chaîne d'inférence, peut-être jusqu'à la réservation dans le restaurant. En réalité, ce qui se passe dans un agent d'IA, c'est beaucoup plus une ramification que nous ne soupçonnons pas. L'agent fait plein de choses. Pour chercher, il va se connecter, ça va faire des écritures techniques dans des bases de logs, comme on dit, pour retraitement, surveillance. Il y a peut-être du micro-marketing, donc peut-être que le signal va être envoyé vers une place de marché dynamique pour voir s'il ne peut pas me proposer un meilleur restaurant, en fonction d'enchères algorithmiques, etc... Il faut imaginer une diffraction infinie du signal. En fait, il n'y a pas une seule chaîne. C'est tout un réseau qui se met en place quand je prompte et que je clique.

Donc l'IA vient percuter aussi cette question de monocausalité volontariste et nous arrivons dans une situation où il y a une fonction un peu désinformationnelle puisque, lorsque l’agent d’IA nous dit simplement "j'ai réservé à tel endroit", il suggère la monocausalité. Or, concrètement, si j'ouvre l'ordinateur, je regarde ce qui s'est passé, il a déformé - rappelez-vous la fonction d'information et la fonction de déformation. Il est allé perturber plein d'autres choses que je ne saurai jamais. Et ça aussi, ça vient percuter notre modèle aussi de recherche de causalité en droit.

Maintenant, pour en revenir a la question de la personnalité artificielle : faut-il une personnalité juridique pour l'IA ? Avec le déploiement des agents d’IA, nous sommes dans un système où, nos agents libres, il n'y en a plus, parce que nous sommes tous trop procéduralisés. Les chaînes de causalité, de toute façon, nous ne pouvons pas les remonter puisque ce n'est plus que de l'inférence statistique. Dans ce contexte, est-ce que le plus simple ne serait pas de donner une personnalité juridique à l'agent d’IA, de lui donner un patrimoine et puis voilà?

Ça nous rappelle l'histoire de la personnalité morale, inventée ou plutôt réinventée à la fin du 19ème début du 20ème siècle, comme un écran pour protéger le patrimoine de la personne physique, du décisionnaire. Comme des poupées russes: la petite poupée, c'est la personne physique, et puis, au-dessus, on a une grosse poupée, c'est la personne morale, qui vient protéger le patrimoine de la personne physique, donc qui vient aussi neutraliser la recherche de causalité jusqu'à la décision, jusqu'au manquement libre. Avec, bien sûr, des exceptions à la règle comme la responsabilité pénale du dirigeant ou la faute de gestion. Mais la règle est : la personne morale protège les décisionnaires à l'intérieur.

Et alors, l'idée de la responsabilité de l’IA, c'est de mettre une autre poupée russe, au-dessus de ces deux poupées, une troisième. Un écran sur l'écran, c'est-à-dire que la personnalité de l'IA vient protéger le patrimoine de la personne morale. Les partisans de la sécurité juridique pour les entreprises comme Donald Trump doivent adorer. La personne morale ne peut plus vraiment se faire attaquer pour manquement, parce que c'est son IA qui est responsable. C'est logique: l'IA, c'est l'extension de son business process, c'est la partie automatique de son business process. Toute cette partie de classification procédurale, c'est comme une armure, comme une surcouche, qui viendrait opacifier les recherches en responsabilité, à l'imputation. Donc la mise en place d’une personnalité pour les agents d’IA apparaît comme une technique possible pour camoufler les décisionnaires, pour protéger les patrimoines. C’est un écran sur l'écran ; un personne morale au carré.

Si cette proposition a l'avantage de la sécurité juridique apparente, elle a quand même un inconvénient majeur si on se rappelle tout ce qu'on a dit avant: c'est une organisation invraisemblable et ingouvernable. Avec ce nouveau régime, on n’est plus seulement dans la post-vérité, mais on rentre aussi dans la post-action. La post-vérité, c'est cette fonction d'information/désinformation par l'IA. Par exemple ChatGPT dit quoi que ce soit. Et puisque l'IA effectue des choses que personne ne sait jamais, et que personne n'a voulu, c'est la fonction de déformation. Ça, c'est le régime de la post-action. Nous avons des organisations qui font quoi que ce soit. Systems of systems, c'est SOS, et en l'occurrence, on se demande si on doit crier à l’aide.

  • Sabrina Hammoudi

Cette idée de personne morale au carré, cette idée de SOS, donc le système sur le système, implique quand même une sorte de congruence entre les deux systèmes. Il faut que ce soit compatible. Est-ce même possible d‘avoir une administration au carré grâce à l'IA ?

L'administration est une personne morale, de droit public, qui fonctionne selon des procédures très carrées. Qui fonctionne avec une grande partie d'automatisation. Même dans la théorie du droit, on remonte loin dans l'histoire, avant l'invention de l'informatique, on a des théoriciens du droit qui rêvent d'une sorte d'application automatique de la norme par l'administration. Cette administration, c'est une machine et elle se construit à l'inverse de l'humain. L'humain, lui, par exemple, pourrait faire preuve de discrimination. L'administration n'a pas le droit, elle est neutre. L'humain pourrait faire preuve aussi de faiblesse, comme on l'a vu avec la définition de la faute. L'administration, non. Elle a tout un régime où elle doit avoir une sorte de conduite un peu idéale, une conduite conforme à la légalité. Quand on dit ça, on peut facilement imaginer que c’est l'un des champs privilégiés pour utiliser les IA. Pourquoi pas ?

Faisons une expérience de pensée, imaginons un monde d'administration augmentée, un monde d'administration au carré. Je me réveille le matin, un bracelet connecté envoie mes constantes à la sécurité sociale. C’est dans un objectif de prévention. C'est un objectif qui est dans le droit public. D’une part on va prévenir une potentielle maladie, et d’autre part on va régler le problème du trou de la sécu. C'est efficace, tout est parfait. Ensuite, je sors de chez moi, j’utilise mon identité numérique à chaque porte ou portique que je passe. L’identité, c'est du droit administratif aussi. Avec l’identité numérique, l'administration n'aura pas besoin que je montre une preuve de quoi que ce soit. On sait où je suis, on peut savoir quels sont mes trajets. En termes de police prédictive aussi c'est très pratique: est-ce que je peux potentiellement commettre un délit externe ? Tout est à disposition. Mes impôts sont entièrement automatisés. C'est super, je n'ai même plus besoin de déclarer (ce qui est déjà un peu le cas). Tout se fait automatiquement. On veut aller plus loin. France Travail(2), il y a un rapport de la Cour des comptes qui est sorti il y a quelques jours pour montrer à quel point ils utilisent aussi de l'IA. La CAF utilise de l'IA. On ne se rend peut-être pas compte à quel point l'IA est dans l'administration. Parce qu'il y a cette congruence machine bureaucratique - machine électronique.

Donc on peut tout à fait s’imaginer continuer à pousser le bouchon jusqu’à arriver à une administration qui est entièrement automatisée. On peut imaginer qu'une avocate en droit des étrangers ira, demain, dans un prétoire automatisé. Pourquoi ? Parce que c'est un endroit où on a beaucoup de contentieux donc c'est très pratique, en termes d'efficacité, d'automatiser un peu. Et puis, c'est un droit qui est entre guillemets facile, il y a beaucoup de procédures. Alors pourquoi ne pas déléguer à la machine? C'est le champ du droit public qui a déjà été le plus soumis à la simplification numérique. Par exemple, le seul endroit public où on peut avoir une audience à distance, c'est le droit des étrangers.

Bref, on peut imaginer évoluer vers une société comme ça. Peut-être que ça prendrait 10 ou 20 ans, que tout s'installerait de manière progressive.

Avec cette expérience de pensée, vous avez peut-être eu la sensation à un moment que quelque chose n'allait pas. Pourtant l'efficience est là et, techniquement, le droit est respecté. Parce qu'on a un droit automatique derrière. Tout va bien mais ça sonne faux. On n'arrive pas à mettre le doigt dessus. C'est que, quand on étudie l'administration augmentée, quand on étudie l'administration réalisée par l'intelligence artificielle, on fait remonter ce qu'elle a d'humain, par contraste. On met en évidence tout ce qui doit rester humain dans l'administration. Ça paraît un peu simple à dire comme ça mais, quand on s'y intéresse c'est compliqué d'aller affirmer que l'administration doit être humaine. Parce que l'humain, comme je vous l'ai dit, d'un point de vue théorique, c'est défini par un négatif de l'administration.

J’ai un bon exemple pour illustrer ça. C'est une IA qui n'est pas une IA extrêmement révolutionnaire mais que vous connaissez tous, c'est Parcoursup. Avant Parcoursup, on avait un système appelé Admission Post-Bac(3). Admission Post-Bac était donc le logiciel qui permettait de répartir les étudiants du lycée vers l'université. Quand on a créé Admission Post-Bac, on s'est dit que c’était l’opportunité de mettre fin à une pratique qui permettait aux agents de l’administration d’intervenir manuellement pour favoriser un étudiant si, géographiquement, il était plus proche d’une académie. Du bricolage, un petit pas de côté par rapport au droit. Le droit était très clair, il n'y a qu’une priorité académique, mais une personne dans un bureau pouvait le court-circuiter pour éviter à un étudiant de faire trois heures de route. C’était comme ça que ça se passait mais d’un point de vue de la politique publique c'était de la discrimination. Admission Post-Bac devait tout automatiser pour mettre fin à la discrimination. L’automatisation du processus était présentée dans les conférence de presse de l'époque comme un combat pour la neutralité, une lutte contre la discrimination. Or quelques années plus tard, avec Parcoursup, on était sur un discours tout à fait inverse parce que le mot d’ordre c'était “remettons l'humain dans la machine”. On s'était retrouvé avec plein d'étudiants qui étaient parachutés très loin de leur domicile à cause de la priorité académique et ça avait posé un tas de petits problèmes. Pour moi c'est tout à fait révélateur. Et même si c’est peut-être un peu optimiste de ma part, je crois que, grâce à ça, on a mis en évidence que cette procédure-là était importante parce qu’elle intégrait un peu d'humanité dans le système. Donc c'est la preuve que, parfois, le flou est important dans le droit et que, parfois, l'imprévu est important dans l'administration. Et je pense que, s'il y a bien un bénéfice de l'IA, c'est de mettre ça en évidence.

  • Arnaud Billion

Nous avons peut-être dressé un tableau un peu sombre, comme une forme de fatum bureaucratique, automatique qui s'exerce sur l'ensemble de la société. Ce qui est assez étonnant, c'est que l'IA, normalement, c'est un outil de productivité et il n'y a rien à voir avec tout ça. Alors, peut-être que “outil de productivité”, c'est juste ce qui est marqué sur la plaquette publicitaire. Je ne sais pas. En tout cas, moi, j’essaie toujours de faire en sorte que mes étudiants acquièrent le réflexe de penser “augmentation bureaucratique” a chaque fois qu’ils disent “IA”.



(1) conclusions du commissaire du gouvernement Édouard Laferrière sur l'arrêt Laumonnier-Carriol du Tribunal des Conflits (5 mai 1877)

(2) successeur de Pôle emploi depuis 2024

(3) remplacé par Parcoursup en 2017