Article précédent

Sorti le 8 avril, un rapport du Club des juristes formule 12 recommandations pour intégrer l’IA dans la justice civile. Parmi les objectifs, mieux « gé[rer] [l]es flux » et endiguer « l’inflation des écritures », avec, comme ligne directrice, « le respect absolu de l’indépendance de la justice ».

Après les rapports de la Cour de cassation et du ministère de la Justice sur l’intelligence artificielle (IA) publiés en 2025, au tour du Club des juristes de s’emparer du sujet. Le think tank a présenté son étude intitulée « Intelligence artificielle et justice civile : perspectives et ambitions » mercredi 8 avril à la Maison de l’Amérique Latine, à Paris.
Cinq des membres de la commission – composée de magistrats, d’avocats, d’universitaires et d’auxiliaires de justice – ont déroulé douze recommandations pour renforcer « l’efficacité du service public de la justice » grâce à l’IA tout en veillant à en« encadrer les usages ».
La justice civile, justice du quotidien, est le cœur « de l’activité des juridictions et des professionnels du droit » a rappelé Stéphane Noël, chef de l’Inspection générale de la justice et président de la commission.
Avec des magistrats trop peu nombreux, une crise des vocations et des moyens toujours insuffisants, les délais de la justice civile sont souvent très longs. « Nous sommes confrontés à un ensemble de contentieux de masse qui vient très fortement perturber les flux et les délais de traitement des procédures », a pointé Claire Strugala, conseillère référendaire à la Cour de cassation, non sans rappeler le droit à un procès équitable et à être jugé dans des délais raisonnables.
C’est pourquoi la première recommandation de la commission consiste à « identifier les contentieux de masse » qui pourraient être dirigés vers des plateformesnationales pour être traités plus efficacement.Sont notamment dans le viseur des contentieux à enjeux « calculatoires » : les pensions alimentaires, ou les contentieux indemnitaires qui visent l’évaluation d’un préjudice par exemple.
Les plateformes nationales, en s’appuyant sur les barèmes et nomenclatures existants, génèreraient par IA des propositions de solutions soumises au contradictoire et sur lesquelles le juge conserverait la décision finale.Une sorte « d’industrialisation à grande échelle » « tout en conservant des recours au plus près des justiciables » nuance le rapport.« Dans la gestion des flux et de l’audience, l’IA peut nous aider », a assuré le président de la commission Stéphane Noël.
Toujours pour rendre la justice civile plus efficace, deux préconisations visent à limiter le volume des écritures. D’abord, en « introduisant une partie de synthèse, facilitée par l’IA et énumérant les moyens ».
« Nous observons une inflation des écritures, avec des pages qui sont probablement, pour certaines d’entre elles, générées avec l’assistance de l’IA, a constaté Philippe Métais, avocat au cabinet BCLP et rapporteur de la commission. L’IA peut aussi faire l’inverse et nous aider à réduire tout cela et à viser l’efficacité ».
L’autre piste propose la généralisation du rapport avant l’audience « en s’appuyant sur des fonctionnalités IA supervisées par le magistrat et son équipe ». L’idée serait de cadrer le litige avec des faits constants et pertinents et des arguments juridiques.
« Ça a le double avantage d’aller à l’essentiel au jour de l’audience et de réhabiliter l’oralité, qui est un temps fort que l’on sait précieux » a résumé la magistrate Claire Strugala.
Le rapport se veut rassurant et insiste sur le fait que l’intégration de l’IA à la justice civile ne peut être envisagée qu’en garantissant « le respect absolu de l’indépendance de la justice et des principes directeurs du procès civil ». Selon la commission, l’usage de IA et le respect des principes directeurs ne sont pas incompatibles.
« On sait que l’IA est une technologie complexe à comprendre. On parle d’opacité, de biais, d’erreurs, donc il est très important d’avoir connaissance de la façon dont ces technologies ont été pensées et de la façon dont elles ont été utilisées de façon à ce que le contradictoire puisse utilement s’appliquer », a estimé Claire Strugala.
Le principe de responsabilité resterait aussi intouché, a assuré la magistrate : « Le juge est responsable de son jugement, il doit s’assurer que ce qu’il écrit est conforme au droit, répond l’ensemble des moyens et que son dispositif est applicable ».
Selon Claire Strugala, « les principes directeurs du procès civil aujourd’hui sont suffisamment solides pour nous permettre d’embrasser et d’accueillir ces nouvelles technologies ». Et de souligner la nécessité d’ajuster les pratiques existantes et non pas de les révolutionner à grands coups d’IA.
Le recours à l’IA au sein des juridictions civile pose aussi la question de l’office du juge : assisté par cette technologie, le magistrat deviendrait-il un juge augmenté, un juge assisté, un juge contrôleur ?
La question n’est pas tranchée mais « Le juge reste l’ultime décisionnaire, » a rassuré Claire Strugala. « Il doit tout vérifier à tous les stades, pour ne pas se laisser totalement dépasser par une technologie qui risquerait de l’endormir puisqu’il n’aurait plus suffisamment d’esprit de contradiction par rapport à l’IA. »
Autre argument en faveur du déploiement et de l’encadrement de l’IA dans la justice civile : les professionnels du droit, et notamment les avocats, utiliseraient de toute façon déjà cette technologie dans leur travail.
« L’adoption de systèmes d’IA par les professionnels est déjà une réalité, bien que de manière non encadrée et hétérogène, créant un phénomène de shadow Alporteur de risques en matière de confidentialité et de fiabilité », souligne le rapport.
Les pistes et perspectives qui figurent dans le document« s’accompagnent de risques » précise ce dernier. Ils existent et sont nombreux : il y a les biais des données d’entrainement pouvant perpétuer des discriminations racistes ou sexistes par exemple.
Le risque portant sur « la souveraineté technologique et la protection des données sensibles » est également un point de vigilance majeur. En termes d’emploi, « Les transformations des processus de travail à l’œuvre ont également pu amener certaines entreprises à supprimer trop hâtivement et sans recul suffisant, des emplois » note-t-il également.
« Parfois, on cherche des décisions qui sortent des sentiers battus. Ma crainte, c’est que l’IA n’incite pas les juges à être créatifs, au risque d’avoir une uniformité dans les décisions » a alerté une avocate présente lors de la présentation du rapport.
Par ailleurs, l’usage d’une IA, tout particulièrement lorsqu’elle est « générative », « est extrêmement énergivore » a souligné Stéphane Noël.
La commission invite ainsi à établir des « règles de transparence sur l’usage de l’IA lors de la collecte et de l’administration des preuves », mettre en place un label pour estampiller les IA de confiance et faire preuve de transparence.
La commission recommande également d’« éviter le foisonnement » pour que l’usage de l’IA reste« maîtrisé », et de choisir et d’utiliser ces outils de manière à préserver« sécurité et souveraineté ».
Parmi les autres recommandations : lacréation d’une place de marché de la donnée et l’investissement dans un laboratoire de recherche.
Pour rester à la page, la commission propose aussi de faire évoluer les pratiques professionnelles de manière continue et d’intégrer des apprentissages autour de l’IA dans la formation initiale et continue des professionnels du droit. Tout en conservant des évaluations… sans IA.
THÉMATIQUES ASSOCIÉES
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Recevez gratuitement un concentré d’actualité chaque semaine.
0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *