ACTUALITÉ

L’intelligence artificielle s’implante dans le processus juridique

L’intelligence artificielle s’implante dans le processus juridique
Publié le 13/05/2022 à 14:35

La Cour de cassation se penche depuis de nombreuses années sur le sujet de l’utilisation de l’intelligence artificielle dans le processus juridique. Précurseure en la matière, elle organisait, le 21 avril dernier, un colloque sur l’intelligence artificielle et la fonction de juger, entre espoirs d’une justice plus efficace et peur d’un processus de plus en plus opaque.



 


 

L’intelligence artificielle prend peu à peu de plus en plus de place au sein des institutions judiciaires, ce qui implique de réguler le mieux possible cette technologie pour en éviter les dérives. Mais pour pouvoir fixer des limites, il faut d’abord définir le terme même d’intelligence artificielle. La Commission nationale consultative des droits de l’homme recommande de préférer à cette expression le sigle SAAD, pour Service algorithmique d’aide à la décision. « C’est un terme moins courant, mais en réalité plus juste et qui met à sa juste place l’intelligence artificielle », affirme Soraya Amrani-Mekki, professeure de droit privé et sciences criminelles à l’université Paris Nanterre et modératrice du colloque sur l’intelligence artificielle et la fonction de juger à la Cour de cassation. Dans le domaine de la justice, « on utilisera le terme de jurimétrie plutôt que celui de justice prédictive, qui n’est pas une justice puisqu’il ne s’agit pas de juger ou de trancher, et n’est pas prédictive puisqu’il s’agit plus de prévoir à partir d’un regard rétrospectif sur le passé ». Un glissement sémantique tout sauf anecdotique, selon Yannick Meneceur, chef de division au Conseil de l’Europe chargé des questions de droits de l’Homme et de l’état de droit. « On est passé de la certitude des prédictions à l’incertitude de la probabilité, c’est-à-dire que le discours de certaines entreprises spécialisées était globalement de l’affirmation à pouvoir anticiper l’avenir. On voit qu’aujourd’hui ça s’est rationalisé. On a passé l’effet de mode et on est revenu sur quelque chose de concret. » L’utilité de cette définition de l’intelligence artificielle est cruciale pour toutes les parties afin de se comprendre entre elles. « Sur le point de vue d’un régulateur, vous pouvez parler de régulation très concrète dans les algorithmes eux-mêmes, ou des choses beaucoup plus abstraites juridiques, de droit ou d’éthique, qui viendraient apporter cela. Si vous croisez toutes ces informations, vous pouvez penser parler d’intelligence artificielle et en réalité avoir un dialogue de sourds puisque vous parlerez soit de réglementation très concrète, soit de l’intelligence artificielle en général et de choses qui sont dans le champ de la recherche très théorique. » Fernando Gascón Inchausti, professeur agrégé à l’université de Madrid, préfère utiliser « des définitions qui peuvent être partagées, car elles sont à peu près institutionnalisées », citant pour exemple la proposition de règlement de l’IA de la Commission européenne, présentée en 2021, qui détermine l’intelligence artificielle comme « un logiciel développé au moyen d’une ou plusieurs techniques et approches qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ».








La fonction de juger regroupe l’ensemble des tâches qui jalonnent le déroulement du processus de jugement des affaires. « Elle comprend toutes les étapes allant de la saisine du juge jusqu’à la décision, qui inclut des fonctions d’administration, de gestion des procédures, mais aussi une mission de diffusion et jusqu’à l’exécution des décisions », estime Jean-Michel Sommer, président de chambre à la Cour de cassation et directeur du service de documentation, des études et du rapport (SDER) au sein de cette même Cour. Et l’intelligence artificielle peut se rendre utile dans plusieurs parties de la fonction de juger : « elle doit servir deux objectifs : mieux administrer les juridictions pour mieux exercer la fonction de juger, et mieux juger les affaires ». Pour cela, l’IA utilise contenus, prédictions, recommandations et décisions. « Les possibilités qui s’ouvrent dans le domaine de la justice sont énormes », se réjouit Fernando Gascón Inchausti.

À commencer par des décisions binaires, simples, comme des prédictions et des recommandations. « Pour les prédictions, il y a d’un côté le monde des professions légales et paralégales, et les systèmes d’intelligence artificielle permettent de présager du résultat d’un cas en ayant les données des cas semblables antérieurs. » Le professeur madrilène prend l’exemple d’une étude réalisée par des chercheurs de l’University College London, qui avait prédit avec 79 % de bons résultats l’issue des plaintes déposées devant la Cour européenne des droits de l’Homme. Ces prédictions peuvent conduire à des recommandations sur l’opportunité d’entamer une procédure, ou aussi la manière de gérer des négociations.

 

 


La Cour de cassation précurseure

Dans un contexte de crise de la justice et de manque de moyens, l’intelligence artificielle peut-elle être une chance de mieux administrer la justice ? « Je suis persuadé que les besoins de connaissance des litiges, de la nature des affaires, de leur trajectoire, sont absolument immenses, et assez grandement en friche », assure Jean-Michel Sommer, citant l’introduction dans le système d’information de la Cour de cassation d’une nomenclature des affaires civiles, des codes des natures de dossiers qui permettent de calculer les taux de pourvoi par nature d’affaire. Une nomenclature des affaires orientées vient également d’être finalisée. « 911 variables descriptives qui arrivent à la Cour de cassation sont répertoriées dans cette nomenclature construite avec les chambres, le parquet général et les avocats aux conseils. » Cette restructuration peut permettre la production d’informations hiérarchisées sur les matières et les questions juridiques portées dans la Cour de cassation et enrichir la conception d’études juridiques.

Pour aller plus loin dans l’utilisation de l’intelligence artificielle, la Cour de cassation a signé une convention de recherche sur l’appréciation qualitative des affaires présentées à la Cour avec les écoles Polytechnique et HEC, ainsi qu’avec l’Ordre des avocats aux Conseils. L’objet était de travailler sur une automatisation partielle du circuit de traitement des dossiers à la Cour de cassation : distribuer les affaires, mais surtout identifier des circuits plus appropriés pour leur traitement, et identifier dans les mémoires des avocats des éléments de complexité des affaires. « C’est un travail minutieux et les chercheurs sont en difficulté pour essayer d’identifier la complexité des affaires », déplore le président de chambre. La machine a pu détecter 153 matières à partir de 160 000 mémoires ampliatifs qui lui ont été fournis, contre 911 sur la nomenclature traditionnelle construite directement par l’humain. Mais Jean-Michel Sommer se veut tout de même optimiste : « C’est une première recherche et je ne désespère pas que l’on puisse avancer sur le sujet. »

Une deuxième convention a été passée avec l’Institut national de la recherche en informatique et en automatique (INRIA) en 2019. Il s’agissait de demander aux chercheurs de réfléchir aux divergences de jurisprudences via le langage naturel des décisions. Mais là aussi, la difficulté de la question rendait impossible la constitution d’un jeu de données suffisamment dense qui aurait permis d’exploiter les résultats. « On a abaissé notre ambition en travaillant plutôt sur les convergences », indique Jean-Michel Sommer. Cela fonctionne bien mieux et il est envisagé de mettre en place un dispositif de titrage automatique fait par l’intelligence artificielle des arrêts publiés à la Cour de cassation.

« À partir d’une ambition sans doute démesurée au départ, et avec la raison des chercheurs, on arrive à quelque chose qui serait intéressant en termes de gain de temps et de gestion. »

Mais au-delà des recherches, la Cour de cassation utilise déjà au quotidien des outils de réalisation concrète qui montrent l’effectivité de l’utilisation de l’intelligence artificielle dans le traitement des affaires. L’un des dispositifs concerne l’orientation des affaires dans la Cour de cassation par un système de préorientation des mémoires ampliatifs vers les chambres civiles et commerciales. Un algorithme d’apprentissage automatique a été entraîné sur une centaine de milliers de mémoires ampliatifs de ces cinq dernières années. L’algorithme prend en entrée les moyens du mémoire ampliatif pour prédire vers quelle chambre réorienter le pourvoi. Le président du SDER estime le taux de bonnes préorientations à « environ 90 %, ce qui n’est pas si mal ».

Un autre outil permet l’anonymisation des décisions rendues par les juridictions françaises. La Cour de cassation est responsable de l’open data des décisions judiciaires, de son traitement et son moteur de recherche Judilibre, dans lequel l’intégralité des arrêts de cours d’appel publiés à partir du 15 avril est disponible depuis le 21 avril. La Cour de cassation a développé, avec ses datascientists en interne, un modèle d’apprentissage automatique qui peut reconnaître et anonymiser certaines données comme des plaques d’immatriculation ou le nom d’une personne morale. « Ça peut intéresser beaucoup d’autres secteurs en dehors de la justice. On est approchés par de grandes institutions et des cours européennes. On a passé une convention avec la Cour de justice de l’Union européenne pour établir un partenariat avec elle. »

Ce qui place la Cour de cassation comme pionnière de l’utilisation de l’intelligence artificielle dans le domaine juridique en France : « Je ne crois pas que dans l’institution judiciaire, en production, il y ait d’autres lieux où l’on utilise de l’intelligence artificielle » assure Jean-Michel Sommer. Yannick Meneceur est quant à lui enthousiaste. « Durant des années on a parlé de réalisation, et maintenant on a des réalisations concrètes. » Il rappelle cependant que « l’initiative vient principalement du secteur privé, avec le secret des affaires qui protège les réalisations. Donc avoir accès à une documentation précise sur les modes de fonctionnements de ces solutions est relativement complexe pour la recherche et pour le public. »

 


 

La fonction de juger reste aux mains de l’humain

Parmi ces entreprises privées, les fameuses legaltech, le chef de division au Conseil de l’Europe en cite une qui a essayé d’établir une distribution des probabilités de prononcer des décisions. Pour y parvenir, l’idée pour des datascientists était d’abord de sélectionner des décisions. Ils ont ainsi sélectionné 7 000 arrêts de cour d’appel, 5 000 ont été utilisés pour l’entraînement de leur solution, et 2 000 laissés de côté pour un jeu de test qui permet d’observer l’efficacité de leur algorithme. Ces décisions ne sont pas fournies de manière brute à la machine, mais ont d’abord subi un prétraitement via une annotation humaine de juristes qui interviennent pour identifier des champs particuliers intéressant la machine et utilisés en tant que paramètres. « La limite, c’est l’industrialisation, mais on y gagne en précision sémantique », selon Yannick Meneceur.

Sur l’usage en lui-même, le cas pratique présenté par cette legaltech n’a rien d’une machine qui déciderait à la place des hommes. « On voit très bien la grande prudence qu’il y a aujourd’hui chez les opérateurs privés à proposer des solutions, et ils se gardent bien de se présenter comme des solutions d’automatisation du traitement du contentieux. » La construction du modèle mathématique n’a d’ailleurs rien de commun avec la compréhension et l’analyse du raisonnement juridique lui-même. « L’objectif est de modéliser mathématiquement non pas le raisonnement en tant que tel, mais un ordre secondaire caché et impersonnel produisant pour un jeu d’information d’entrée, un résultat qui est proche d’un traitement humain. L’apprentissage de la machine produit une équation qui est relativement peu intelligible par les concepteurs eux-mêmes et dont le bon fonctionnement est validé avec les 2 000 décisions de test. » L’apprentissage automatique ne produit pas des modèles qui sont explicables, ce qui est similaire aux autres domaines de l’intelligence artificielle où l’idée est uniquement de constater que cela est efficace.

 

 



Soraya Amrani-Mekki, Yannick Meneceur, Jean-Michel Sommer et Fernando Gascón Inchausti




Le risque d’une ingérence du privé dans la justice

Problème de ces legaltech : le secret des affaires empêche la lecture de leurs algorithmes, avec le risque de la présence d’un biais dans ces derniers, qui peuvent être financés par des entreprises y voyant un intérêt économique, comme les assureurs. « Il faudrait que ces entreprises fassent en sorte que l’utilisation et la manière dont elles bâtissent leurs logiciels puissent être certifiées, vues par un tiers expert qui pourrait s’assurer que le jeu de données d’entraînement n’a pas été biaisé. Quand des legaltech sont financées par des assureurs, je veux bien croire en leur bonne foi, mais quand on vient dans le processus d’un contentieux judiciaire, on a besoin de plus que de la bonne foi. Il devrait pouvoir être démontré que les tendances n’ont pas été biaisées par un certain nombre de décisions qui représenteraient plus favorablement certains types d’intérêts que d’autres », met en garde Yannick Meneceur.

La Commission européenne pour l’efficacité de la justice (CEPEJ) avait préfiguré en 2018 un projet de convention sur l’intelligence artificielle. Un besoin d’encadrement juridique pour pouvoir assurer un peu plus de sécurité dans les opérations réalisées par ces logiciels de jurimétrie, d’autant plus que « cette intelligence artificielle va changer la manière de construire la décision de justice, d’abord dans le délibéré, ensuite dans la rédaction et la motivation », assure Soraya Amrani-Mekki. « Si on développe une sorte de déontologie de l’usage de l’intelligence artificielle, ça nécessiterait systématiquement de se dire que c’est un outil de vérification, d’aide à la décision, mais qui ne doit pas supplanter ni remplacer la réflexion. Quand on est juge, on a une certaine productivité qui est attendue. Si on se concentre sur l’intelligence artificielle en se disant que cela permet de prévoir une décision et de se concentrer sur l’instant de la prise de décision, on gomme tout le processus antérieur. C’est une manière de nier la procédure. »

 

 


Des limites aux évolutions

Jean-Michel Sommer évoque les perspectives de la montée en puissance de l’intelligence artificielle dans les décisions juridiques. « Pour l’instant, on est dans l’attente de savoir quels sont les produits qui vont être mis sur le marché. Les expériences publiques comme DataJust, développé par le ministère de la Justice et abandonné en janvier, sont un échec, mais qui tient à différentes causes : sans doute un nombre trop important de variables à traiter et une complexité des éléments pris en compte par le juge pour la réparation des préjudices corporels. On voit que c’est extrêmement compliqué de travailler avec l’intelligence artificielle. » Autre limite abordée par le président de chambre : le profilage des magistrats et des greffiers. Le suivi des décisions de ces professionnels pourrait faire l’objet d’un traitement algorithmique, et d’une forme de fichage, néanmoins punie par une loi de 2019 du Code de l’organisation judiciaire. « C’est un sujet complexe sur lequel il faut rester attentif », souligne Jean-Michel Sommer. D’autant plus que le profilage des avocats n’est lui pas sanctionné pénalement, ce qui ouvre la voie à des dérives potentielles.

Fernando Gascón Inchausti donne l’exemple d’un système espagnol basé sur l’intelligence artificielle. VioGén est un algorithme en matière de violences de genre. « Le système a une grande étendue de données actualisées et transparentes car publiques, et ça marche très bien. Il donne une probabilité de risques de récidive : faible, moyen, élevé, extrême. » Problème : les juges sont devenus très dépendants de la machine pour leurs décisions. « Les juges n’ont pas peur de se tromper, mais ils redoutent le fait que les médias tombent sur eux en cas d’erreur, et le Conseil de la magistrature avec. Ils préfèrent déléguer la décision difficile à la technologie et se "laver les mains". »

 

 


Encadrer la technologie en amont pour ne pas subir ses évolutions

La réglementation de l’intelligence artificielle par les différentes institutions est en cours. « Pour l’instant, on parle beaucoup du respect des droits de l’homme par l’intelligence artificielle. On a les constitutions et la CEDH qui nous établit des limites, mais elles sont très générales », regrette Fernando Gascón Inchausti. « Si on est juriste, avocat ou juge, on veut des règles plus précises pour plus de sûreté juridique. On dit toujours que le législateur est en retard sur la réalité, et maintenant on veut qu’il soit précurseur, car on veut qu’il règle des utilisations qui n’existent pas encore, mais dont on prévoit qu’elles pourraient exister avec le développement de la technologie. » « C’est un cahier des charges extrêmement lourd : réglementer sans freiner l’innovation, réglementer en prenant en compte la mondialisation, réglementer en ayant conscience des droits fondamentaux et en mettant un cap sachant que toutes les chartes éthiques et déclarations doivent dire que ça ne doit pas toucher aux droits fondamentaux ni discriminer », ajoute Soraya Amrani-Mekki. La proposition de règlement européen établit des mécanismes d’intelligence à haut risque et les soumet à des conditions très sévères avant de les mettre en place, et à une supervision après leur déploiement. Toutefois, ce règlement est critiqué pour sa faiblesse sur les droits de recours.

Les ministres des Affaires étrangères représentant le Conseil de l’Europe ont décidé l’année dernière d’aller vers un instrument juridique contraignant sur l’intelligence artificielle. « À l’heure actuelle, ce n’est pas tout à fait gagné », tempère Yannick Meneceur, évoquant des discussions début avril avec les 46 représentants des États membres. « C’est plutôt positif d’aller vers une réglementation plus contraignante, car ça crée de la confiance. Il faudra rester attentif sur l’effectivité de ces réglementations. »

La Cour de cassation a pris position sur le principe d’une régulation éthique sur la réutilisation des données après de longs échanges avec le ministère de la Justice, le Conseil d’État et les professionnels. Un rapport devrait rapidement paraître sur le sujet.

 

Alexis Duvauchelle



0 commentaire
Poster
IA

Nos derniers articles