Article précédent

Depuis décembre 2025, huit décisions ont soulevé un mauvais usage d’IA générative dans les défenses de requérants accompagnés ou non d’avocats. Pour ces derniers, aucune sanction n’a pour l’instant été prononcée mais les enjeux déontologiques sont importants.

Le compte à rebours était, d’une certaine manière, lancé. Alors que les cas se multiplient aux États-Unis et dans de nombreux pays du globe, les tribunaux français voient apparaître les hallucinations de l’intelligence artificielle générative.
Les ChatGPT, Gemini ou Claude, bien que de plus en plus performants, sont capables de se tromper, notamment en mobilisant des jurisprudences inexistantes ou inappropriées.
Outre-Atlantique, les premiers signaux sont apparus en 2023, avant une accélération au printemps 2025. C’est à ce moment que le docteur en droit Damien Charlotin, qui travaille sur ces thématiques, a commencé à compiler toutes les occurrences d’hallucinations dans des décisions de justice sur son site internet.
« De quelques cas par mois, le niveau est monté à plusieurs chaque jour, observe le chercheur à HEC et Sciences Po. La dynamique a un peu ralenti mais le rythme reste soutenu avec environ cinq cas par jour dans le monde ».
Royaume-Uni, Australie, Pays-Bas… Et depuis le 3 décembre 2025, la France. Une décision du tribunal administratif de Grenoble a ainsi évoqué pour la première fois « un outil dit d’intelligence artificielle générative, totalement inadapté » utilisé par le requérant. Une autre décision du même tribunal viendra la semaine suivante.
Toutes deux ont pour particularité de réprimander des justiciables non accompagnés d’avocats. Ce cas de figure, relativement rare dans la masse des contentieux en France, se retrouve en revanche davantage aux Etats-Unis. Cela explique, en partie, pourquoi les cas y sont aussi nombreux.
Une nouvelle étape a été franchie le 18 décembre au tribunal judiciaire de Périgueux. D’une part, c’est la première – et pour l’instant unique – mention de ce type dans l’ordre judiciaire. Et d’autre part, elle cible cette fois un avocat.
« Le tribunal invite le requérant et son conseil à vérifier à l’avenir que les références qu’ils ont pu trouver sur des moteurs de recherche ou à l’aide de l’intelligence artificielle ne sont pas des ‘hallucinations », alerte le jugement.
Une mise en garde qui a précédé trois autres dossiers dans lesquels un avocat s’est vu soupçonner un mauvais usage de l’intelligence artificielle. Dernier en date devant le juge des référés de la Cour administrative d’appel de Bordeaux, le 26 février 2026.
« Il y a lieu de faire remarquer au conseil de vérifier les décisions juridictionnelles citées, au demeurant non produites, avant de saisir le juge », cingle la Cour. Et pour cause, cinq décisions mobilisées par la défense ne correspondent pas aux motifs avancés ou n’existent tout simplement pas.
Si, pour l’heure, les cas d’hallucinations dans les travaux d’avocats n’explosent pas, le décalage lié au temps judiciaire et l’utilisation croissante des outils d’IA laissent entrevoir de nouveaux dérapages. Et, peut-être, un changement de ton chez les juges.
« Nous mettons en avant le sujet de l’intelligence artificielle depuis 2024 mais ces décisions attestent que le sujet prend encore de l’ampleur, constate François Girault, président de la commission prospective et innovation du Conseil national des barreaux (CNB). Il faut en outre s’attendre à ce que les juges durcissent leur position, ce qui peut se comprendre ».
À l’étranger, les premières sanctions sont déjà tombées. En juin 2023, l’affaire Mata v. Avianca, aux Etats-Unis, a par exemple marqué un tournant : des avocats ont écopé de 5 000 dollars d’amende après avoir déposé un mémoire comportant six décisions inexistantes.
Plus récemment, en Italie, la citation hors sujet de plusieurs arrêts a conduit le juge à infliger une pénalité de plus de 30 000 euros – en mobilisant différents moyens, dont des dommages et intérêts. « Si les avocats ne sont pas vigilants, des sanctions pécuniaires vont arriver, avertit François Girault. Les bâtonniers pourront aussi agir sur la base des sanctions déontologiques déjà possibles ».
Car, au fond, l’IA ne pose pas de problèmes véritablement nouveaux en termes déontologiques. « L’avocat a toujours été responsable de ce qu’il signe », rappelle Damien Charlotin.
Un autre rapport à la recherche d’information doit toutefois être instauré. « Avant, chercher une jurisprudence impliquait une vérification simultanée, poursuit le chercheur. L’IA permet de chercher rapidement mais elle oblige à vérifier par derrière ». De quoi nuancer un peu le gain de temps promis par ces outils.
« Il faut en quelque sorte voir l’IA comme un stagiaire dématérialisé : son travail nécessite d’être vérifié », ajoute François Girault, qui cite le serment de sa profession comme recommandation. Conscience et probité se posent en effet comme des principes déontologiques suffisants pour encadrer cette petite révolution.
Le temps sera certainement aussi un allié dans l’apprivoisement de l’IA. « La pénétration de ces outils dans les cabinets aujourd’hui ne doit pas être surestimée et un effet d’apprentissage devrait s’appliquer avec la pratique », estime Damien Charlotin.
Cafouillages, erreurs manifestes et imprécisions devraient donc encore occuper les tribunaux mais pourraient, avec le temps, s’estomper.
LIRE AUSSI
THÉMATIQUES ASSOCIÉES
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Recevez gratuitement un concentré d’actualité chaque semaine.
0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *