ACTUALITÉ

Un monde judiciaire augmenté par l’intelligence artificielle ? Colloque à la Cour de cassation

Un monde judiciaire augmenté par l’intelligence artificielle ? Colloque à la Cour de cassation
Publié le 18/07/2019 à 12:12

Le 25 juin dernier, Bruno Pireyre, président de chambre à la Cour de cassation, directeur du service de documentation, des études et du rapport, du service des relations internationales et du service de la communication, a introduit le colloque intitulé « Un monde judiciaire augmenté par l’intelligence artificielle ? » organisé à la Cour de cassation par l’Institut PRESAJE (Prospective, Recherches, et Études Sociétales Appliquées à la Justice et à l’Économie). Nous publions ici son allocution d’ouverture.

 

« Le bouleversement n’est pas seulement certain ; il est majeur »

« (…) Votre colloque, dont vous me faites l’honneur et l’amitié de me confier l’allocution d’ouverture, découpe la matinée en deux « tables rondes », toutes deux modérées par Monsieur Thomas Cassuto, conseiller à la cour d’appel de Paris, vice-président de l’Institut PRESAJE. La première ambitionne de se demander, non sans provocation, si l’intelligence artificielle peut être érigée en « un nouvel acteur judiciaire » ; la seconde, tout aussi irrévérencieuse, prétend sinterroger sur la question de savoir si la justice de demain sera automatisée.

Et pourtant ! C’est à un monde judiciaire possiblement « augmenté » par l’intelligence artificielle que vous voulez nous ouvrir.

La réalité « augmentée », nous le savons, réfère à des techniques permettant de superposer des éléments numériques à une réalité tangible, observée, pour en accroître des qualités ou des effets particuliers, recherchés.

Est-ce à dire que l’intelligence artificielle, greffée sur la réalité judiciaire, pourrait en en préservant la nature, l’identité, les grands équilibres, l’enrichir par les apports d’informations qu’autorise une évolution technologique radicale ?

Cette approche, suggérée, mérite qu’on s’y essaye tant elle contraste avec le discours ambiant, peint aux couleurs sombres d’un alarmisme qui semble chevillé au corps du temps inquiet qui est le nôtre.

Les mots ont un sens. De quoi parlons-nous sous le vocable d’intelligence artificielle ? De même, depuis quand l’évoquons-nous ?

C’est bien à partir de la seconde moitié du XXe siècle que l’on se réfère assez couramment à l’intelligence artificielle pour désigner les techniques informatiques visant à simuler, « par la machine », certaines fonctions de lintelligence humaine.

Pour autant, il aura fallu attendre le XXIe siècle naissant pour que les progrès scientifiques permettent le déploiement d’une puissance de calcul nécessaire à l’utilisation des algorithmes auto-apprenants (machine learning), et ce sont ces dernières années, seulement, qui ont vu se constituer les gigantesques bases de données qui en sont le champ d’exploitation.

Au risque de simplifier à l’excès, ce qui est à l’œuvre en matière d’intelligence artificielle judiciaire peut se résumer ainsi : les bases de données de jurisprudence sont passées au tamis des algorithmes afin d’en extraire des informations… qui servent elles-mêmes de matière première à de nouveaux algorithmes !

Le bouleversement n’est pas seulement certain ; il est majeur ! C’est avec raison qu’Antoine Garapon et Jean Lassègue qualifient ce qu’ils dénomment la « justice digitale » tout à la fois « de révolution graphique et de rupture anthropologique », de lordre, soutiennent-ils, de celles qua connues lhumanité avec linvention de lécriture.

Comment, dès lors, s’étonner qu’un évènement d’une telle ampleur, d’une pareille portée, inspire des craintes aigues et suscite des annonces au prophétisme apocalyptique ?

Nous voici ramenés à la « grande peur » qui saisit lhomme au franchissement des étapes charnières de la science et de la technique. Crainte éruptive d’être supplanté, évincé par une machine qui, créée par lui, échappe à son contrôle, à tout contrôle, se soustrait aux finalités rationnelles qu’il lui avait assignées, pour le supplanter, l’asservir, peut-être, à sa marche irrésistible suivant une logique dévoyée.

Qui, à cette évocation, n’aura à l’esprit l’étrange visage de Frankenstein (ou le Prométhée moderne), créature mi-homme mi-monstre, enfantée il y a 201 ans déjà (1818) par Mary Shelley, épouse du grand poète rival de Lord Byron, ou encore la voix de métal, faussement rassurante, du « HAL 9000 » (CARL 500 dans la traduction française) du film « 2001, l’Odyssée de l’espace », réalisé par Stanley Kubrick en 1968, supercalculateur des voyages interplanétaires qui se retourne sournoisement et inexorablement contre ceux qu’il doit servir pour mieux les perdre.

Tout se passe comme si les vastes et sans doute trop optimistes attentes mises dans l’intelligence semi-autonome de dispositifs repoussant loin devant eux les limites humaines en prolongeant et en décuplant le cerveau humain, secrétaient, en contrepoint et comme par une sorte de balancement dialectique, le refus crispé des évolutions en cause.

Libérons-nous de ce stérile paradoxe et risquons quelques raisonnables anticipations.

Il est très vraisemblable que la conjonction du « big data » des décisions de justice et des techniques de « fouille textuelle » (« text mining ») permettra une connaissance plus vaste et de beaucoup –,plus rapide, plus affinée, peut-être, de la jurisprudence par les juges, par les parties et leurs conseils, comme par le citoyen.

Il est, de même, réaliste d’escompter qu’un tel savoir facilitera l’harmonisation de pans entiers de la jurisprudence dont on ne doit pas ignorer que, par la prévisibilité qu’elle engendre, elle sert efficacement la très légitime demande de sécurité juridique.

Faut-il redouter, à l’inverse, que ces instruments, en particulier les outils de justice dite « prédictive », en viennent, par un effet d’imitation, d’intimidation, de conformisme intellectuels, à brider la liberté de décision du juge, entendons par là ses facultés, dans l’exercice juridictionnel indépendant qui lui échoit, de créer le droit en renouvelant l’interprétation de la norme ? Le juge réduit à n’être plus que la bouche du robot, oserait-on dire en paraphrasant grossièrement Montesquieu ? Beaucoup le suggèrent. Quelques-uns l’affirment.

Quelle pâle et triste idée se fait-on de celui à qui une société et l’État délèguent l’honneur et la charge de juger en voulant croire qu’il perdrait demain sa capacité de hiérarchiser, de placer en confrontation, sinon en tension, les informations – toutes les informations – qui lui seront produites ? Dit autrement, l’office du juge, résumé à l’essentiel, n’est-il pas de recevoir, de trier, de pondérer, de peser, d’ordonner, enfin, dans l’irréductible singularité de l’espèce, les éléments – faits comme règles – par la juste mise en relation desquels il tranchera le litige ?

Comment, dès lors, imaginer sérieusement que ces mêmes juges, dont on vient de souligner les libres figures, se trouveraient, demain, retenus, liés, empêchés, par la jurisprudence massive et précise dont on exciperait auprès d’eux dans le dessein de contraindre leurs décisions ?

Ne mésestimons pas, en revanche, les risques, bien réels, de dérives, de dévoiements, de ces nouveaux outils et produits dont, dans la très grande majorité des cas, la naissance, le développement et la distribution suivent les logiques de profit qui sont le stimulus et la rançon des innovations.

Accepter de tirer parti de ces outils révolutionnaires ne postule nullement qu’on les croit sans danger, spontanément empreints de rigueur, dénués de biais. Loin de là !

Ne laissons pas de place à l’angélisme et donnons-nous les moyens d’une indispensable régulation que la Cour de cassation, en particulier, appelle de ses vœux depuis plusieurs années déjà.

C’est dans ce sens que s’est inscrite la proposition n° 20 du rapport de la mission dite « Cadiet » sur lopen data des décisions de justice de novembre 2017. Pour extraits : « réguler le recours aux nouveaux outils de justice dite "prédictive" par l’édiction d’une obligation de transparence des algorithmes, la mise en œuvre de mécanismes souples de contrôle par la puissance publique, l’adoption, enfin, d’un dispositif de certification de qualité par un organisme indépendant ».

C’est dans ce même esprit que, par une déclaration du 25 mars 2019, le Premier président Bertrand Louvel et Madame la bâtonnière Christiane Féral-Schuhl, présidente du Conseil national des barreaux (…) ont ensemble appelé à ce que leurs institutions et organes respectifs soient, aux côtés des juridictions du fond, associés à « la mise en œuvre des dispositifs de régulation et de contrôle, tant des algorithmes utilisés pour lexploitation des bases de données des décisions de justice, que de la réutilisation des informations quelles contiennent » et à ce que soit constituée, avec leur commune participation, linstance publique qui en serait chargée.

C’est, enfin, un encadrement de cette veine que recommande la très remarquable charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, adoptée en décembre 2018 par la Commission européenne pour l’efficacité de la justice (CEPEJ) (…).

Cette heureuse et significative convergence de vues de plusieurs des grands acteurs de notre justice dessine, on le voit, d’un trait assez ferme, les voies adaptées à emprunter.

(…)

Puissiez-vous, à quelques mois à peine de l’édiction du ou des décrets d’application de la loi Lemaire, par l’intelligence collective que vous allez vous efforcer d’appliquer à l’intelligence artificielle, « augmenter », en le réassurant, notre monde judiciaire de demain. (…) »
0 commentaire
Poster

Nos derniers articles