Article précédent

IA, droit souple, environnement, santé... Confronté aux évolutions de la société, le juge administratif a considérablement approfondi son contrôle, appelant à tracer de nouvelles frontières. Un constat qui a fait l’objet d’une série de tables rondes au Conseil d’état, en décembre dernier. Le JSS a notamment fait le choix, dans cette édition en date du 18 décembre, de s’intéresser au sujet de l’intelligence artificielle. Car face à la révolution technologique, le juge est aujourd’hui simultanément juge augmenté et juge bouclier.
|
|
Pour traiter ce premier sujet, Louis Boré, président de l’Ordre des avocats au Conseil d’état et à la Cour de cassation était entouré d’Antoine Louvaris, professeur à l’Université Paris-Dauphine, Carine Soulay, conseillère d’État, assesseure à la section du contentieux, et Henri Verdier, ambassadeur pour le numérique du ministère de l’Europe et des Affaires étrangères.
En introduction, Louis Boré a dressé un parallèle entre notre civilisation et celle de l’ancienne Égypte. Les pharaons d’aujourd’hui sont, selon lui, les GAFA, richissimes, détentrices des données et fortes des pouvoirs qu’elles recèlent. Les scribes sont les informaticiens, la caste qui maîtrise le support universel, incontournable. Enfin, restent les manants, c’est-à-dire les consommateurs qui utilisent les outils numériques, mais qui en ignorent les rouages. Ils se trouvent donc sous leur dépendance. Se sentant parfois pris au piège, asservi, le citoyen s’en remet à la puissance publique et au juge. Or, l’administration et le juge administratif occupent une position ambivalente vis-à-vis de cette technologie. La Commission nationale de l’informatique et des libertés (CNIL) régule l’utilisation qu’en font les opérateurs privés, mais lorsque c’est l’administration qui s’en sert, il revient au juge administratif de veiller à faire respecter les droits fondamentaux des individus. Le Conseil d’état encadre donc l’utilisation des moyens digitaux par les juridictions administratives.
Dans l’expression « intelligence artificielle », artificielle qualifie ce qui émane d’une machine et non d’un être humain. Quant à l’intelligence, une machine n’a pas, à ce jour, celle du cœur. Notre société devrait donc spécifier en matière de jugement la part à allouer à la rigueur de l’ordinateur, constant, impartial, et celle à allouer aux sentiments éprouvés par l’Homme ainsi qu’à son inventivité. Un système auto-apprenant contemporain construit sa propre logique interne, bornée par les contraintes que lui impose son programmeur. Les résultats délivrés sont certes statistiquement justes, mais le programmeur ignore comment ils sont calculés dans le détail. La technologie toujours plus précise et rapide joue un rôle central pour nombre d’activités. Sa valeur stratégique en fait une cible, et sa croissante sophistication multiplie ses fragilités. Sommes-nous prêts à nous soumettre aux injonctions d’un automate incompréhensible, vulnérable, poïkilotherme ? Comment contrôler son administrateur ?
Mise en place de systèmes
En préambule, Henri Verdier, ambassadeur pour le numérique, rappelle que dans « artificial intelligence » le mot « intelligence » est un faux-ami. « Intelligence » n’a pas toujours le même sens en anglais qu’en français, et dans ce cas, il signifie « renseignements ». « Artificial intelligence » n’est rien de plus, à l’origine, que le classement automatisé de données. Jamais ses premiers concepteurs n’ont projeté de créer une conscience artificielle, ils ont simplement programmé du tri d’informations. Tout juriste sénior le sait bien. Il a l’expérience du temps où fouiller la jurisprudence demandait des heures de recherche dans une bibliothèque. Le résultat n’était pas exhaustif. Désormais, avec quelques requêtes, un logiciel scanne des années d’affaires et de décisions en quelques minutes, un travail hors de portée du cerveau humain. L’outil numérique rend là un service complet et rapide, libérant l’homme d’une tâche fastidieuse.
La suprématie technologique est source de tensions internationales. L’Histoire nous a montré combien la révolution industrielle occidentale lui a fourni une capacité d’action qui a changé l’ordre social et économique dans le monde. Aujourd’hui, dans l’investissement en intelligence artificielle de certains pays émergents, se ressent une volonté de ne pas rater cette disruption-là. Car les meneurs dicteront à long terme leur vision normative aux suiveurs.
Dans la mise en place des systèmes numériques, plusieurs points sont à prendre en compte.
à la fois par recherche de démocratie, mais aussi pour éviter les biais, ils doivent être accessibles aux audits et aux contrôles. Le codeur n’a généralement pas la compétence dans une autre science que la sienne. Il doit donc demander à un référent les décisions à prendre. Si ce dernier ne répond pas, le codeur se retrouve obliger d’écrire seul la logique. Exemple : le système de portillons automatiques qui ne s’ouvre pas quand une personne de couleur noire veut entrer. Pourquoi ? Parce que le développeur n’a pas éduqué le modèle avec des photos qui représentaient la diversité des êtres humains. Un audit lui aurait signalé ce défaut ;
• La loi sur la République numérique fait obligation à l’administration de signaler et d’expliquer quand elle utilise des algorithmes. La loi informatique et libertés encadre la décision automatique et protège la vie privée. En somme, la France est plutôt mieux armée sur ces questions que beaucoup d’autres nations. Malgré cela, la tentation de la gouvernance algorithmique existe, c’est-à-dire celle de déléguer des décisions à la machine, alors que, rappelons-le, avec un réseau neuronal, le raisonnement suivi n’est pas connu et encore moins écrit. Pour l’heure, dans l’état de droit normal, la règle est connue et écrite, elle est accessible à tous. Tant qu’elle n’est pas publiée au Journal officiel (JO), ce n’est pas la loi. Cette méthode assure la sécurité de la loi mais a tendance à être concurrencée par les moyens modernes de communication (information continue, réseaux sociaux). Une source comme le JO légitime les décisions qu’il diffuse ;
• Avec la gouvernance algorithmique, un jour ou l’autre, un architecte bien intentionné pourrait, par exemple, concevoir un système embarqué qui empêcherait un individu suspecté de terrorisme d’entrer dans un établissement scolaire. Dans cette approche, la société substituerait, par la voie des considérations d’un designer des systèmes d’information, à des choix sécuritaires profonds des options techniques ;
• Par ailleurs, actuellement, beaucoup de questions tournent autour de la concentration et du monopole des fournisseurs d’équipements. Si un unique acteur mondial propose ses outils, la démocratie vacille. La responsabilité fait également débat. Bientôt, un véhicule sans chauffeur croisera le chemin d’une personne qui traverse sur un passage piéton. Dans la voiture autonome, l’enfant n’est pas attaché sur la banquette arrière. Alors l’algorithme déterminera la victime. Qui est responsable dans cette hypothèse ? Existe-t-il un cadre juridique ? Aux États-Unis, il semble que les développeurs d’intelligence artificielle réclament la responsabilité car, de leur point de vue, elle s’accompagne de grands pouvoirs. Le responsable pourrait dicter les standards de production des voitures, des passages piétons, etc ;
• Concernant la propriété intellectuelle, l’organisation mondiale de la propriété intellectuelle n’a pas encore tranché pour savoir si les créations d’une intelligence artificielle sont protégées par le copyright ou par un brevet. La masse des citoyens ne serait-elle pas fondée à réclamer sa part dans les systèmes qui vendent des informations obtenues à partir de ses données. Ne peut-on y voir une sorte de copropriété ?
Du point de vue géopolitique, se créent des coalitions. Chaque grande puissance a conscience qu’il se mène une bataille pour l’hégémonie de modèles complexes qui associent de la technique, du droit et des valeurs. Ceux qui seront adoptés s’exporteront dans leur entier. L’intelligence artificielle peut se comparer à un composant de bâtiment préfabriqué. Les pays émergents reçoivent des offres de système d’hébergement clé en main. Ils intègrent le droit de la vie privée, appliquent une tolérance variable au contrôle social. Les blocs culturels mondiaux majeurs commercialisent leur solution. En découlent des batailles diplomatiques souterraines qui se solderont en réflexions de droit international à l’ONU.
Juge bouclier
Nous vivons une évolution technologique qui affecte le système. Le juge devient juge augmenté et simultanément juge bouclier. La technique est profitable au système tant qu’elle reste sous contrôle. Cependant, sa complexité présente aussi l’inconvénient de le doter d’une certaine inertie.
Le droit occupe une fonction de garant et le juge l’assiste. Le juge administratif en particulier a accompagné les évolutions du pays depuis le 19e siècle jusqu’à maintenant. Désormais, au cœur de la régulation concernant les algorithmes, plusieurs interrogations s’imposent à lui, relève Antoine Novaris, professeur à l’Université Paris Dauphine. Le système technicien reposant sur l’intelligence artificielle utilise des données et des logiciels. Se posent donc les questions de la validation des données, de leur enregistrement, de leur exploitation et du contrôle des algorithmes. Le juge intervient à différents stades. Il est amené à constater ou à faire constater l’existence de vides législatifs, réglementaires ou de droit souple. Traditionnellement, en matière de droit, nous avons l’habitude d’adapter des concepts anciens pour résoudre des problèmes naissant. Notre stock normatif et l’ensemble des notions définies nous protègent sans doute, il va cependant falloir trouver des innovations, des principes inédits, des méthodes modernes.
L’intelligence artificielle augmente l’efficience, les connaissances, etc. De plus, elle génère des extensions de liberté, de communication, ou encore d’entreprise. Mais son caractère invasif est largement décrié, car elle peut chercher dans le big data des informations relatives à la vie privée des individus et se jouer de la protection des données personnelles. Pour le Conseil constitutionnel, les deux points entrent en ligne de compte sur la base de l’article 2 de la Déclaration de 1789. De leur côté, le droit de l’Union européenne et la CEDH distinguent vie privée et données personnelles. Mais une protection est bien là.
L’expression « intelligence artificielle » suggère pour les langues d’origine latine, l’idée de mimétisme par rapport à l’intelligence humaine. Notons qu’il se crée une distance entre l’auteur de la décision (organe compétent impératif) et l’entité qui décide. Ne prend-on pas le chemin d’une délégation du privilège du préalable vers un objet, un acte ?
Le Conseil d’état est à la fois gardien administratif de la légalité et gardien la légalité administrative. Le Conseil constitutionnel, le Conseil d’état, les juridictions appliquent le principe de proportionnalité. Les limites à l’utilisation de l’algorithme doivent se justifier par des nécessités d’intérêt public, conciliées avec d’autres droits fondamentaux sous les espèces de la proportionnalité. Le Conseil d’état a retenu le principe du secret des délibérés des jurys comme conséquence de sa souveraineté. C’est un motif d’intérêt général qui permet de déroger aux règles ordinaires de communication des documents administratifs.
Les décisions algorithmiques impliquent une mutation de la motivation explications. Il s’agit de préparer ab initio ses documents pour pouvoir ensuite motiver, expliquer, justifier la décision. Sans l’explication fournie par les données, point de justice. Quid du Code des relations entre le public et l’administration ? Rendre une décision individuelle exclusivement sur la base d’un algorithme, c’est déroger à l’article 47 de la loi informatique et libertés. La dérogation demande des garanties qui se justifient avant tout par l’article 16 de la Déclaration de 1789. Les garanties de droit, c’est notamment la précision à peine de nullité, vice formel radical.
Le juge et la machine
La combinaison des deux termes, « justice » et « prédictive » comporte une connotation quasi mystique. Mais la justice prédictive, concrètement, se résume à l’anticipation de la solution qu’une juridiction apporterait à un problème juridique, obtenue à partir de statistiques et de calculs probabilistes. Une des difficultés que rencontre cette technique tient au fait qu’il est très délicat de modéliser en chiffres des faits ou des moyens extrêmement divers.
Le juge est
soumis à la massification des contentieux et à leur complexité croissante quand
simultanément, la population et les institutions attendent des décisions de
qualité rendues rapidement. L’aide à la décision apparaît comme un des moyens
de répondre à ce contexte exigeant.
Le support technique ne doit cependant pas nous faire dériver vers une justice
automatisée.
Par-delà l’innovation technologique ou la révision des méthodes de travail du juge, l’intelligence artificielle appelle un défi éthique. Quelle voie suivre ? L’usage de l’intelligence artificielle doit se conformer aux droits fondamentaux. Elle n’autorise pas à bafouer le droit à la vie privée du justiciable. Elle ne doit pas d’avantage prédire les décisions ou les comportements des juges.
Karine Souley, conseillère d’état et assesseurs à la section du contentieux, souligne que la juridiction administrative, très engagée dans l’open data, garantit l’anonymat des justiciables (article L.10 du Code de justice administrative). Des projets se développent comme celui du Conseil d’Etat et de la Cour de cassation, nommé DataJust, établit une base de données en matière de responsabilité hospitalière. Il veut rendre transparentes les méthodologies d’évaluation des préjudices au sein de la juridiction administrative, sous l’égide du secrétariat général du Conseil d’Etat. Conjointement, les juges s’emparent du sujet au sein de la Société de législation comparée et de l’Institut européen, du droit. Un groupe de juges issus de plusieurs états européens, travaillent sur les sujets d’intelligence artificielle et d’administration publique.
La charte éthique de la Commission européenne pour l’efficacité de la justice énonce cinq principes à propos de l’usage de l’intelligence artificielle comme la transparence et la maîtrise par l’utilisateur. Les principes cardinaux de fonctionnement la juridiction administrative permettent de garantir la qualité humaine de la décision juridictionnelle. En aucun cas l’aide de l’intelligence artificielle dans la décision juridictionnelle ne saurait substituer une machine au juge. La collégialité permet d’ores et déjà de brasser les regards et d’assurer une contradiction à une solution qui pourrait paraître s’imposer de prime abord.
Le besoin d’amélioration de la connaissance des juges sur l’intelligence artificielle est évident. Leur acculturation en cette matière passe par la formation et la communication avec le métier informatique.
La dématérialisation, l’emploi courant des bases de données influent l’évolution du métier de juge et l’instruction des affaires. Le concours de l’intelligence artificielle n’est pas exclusif de l’humanité de la justice, encore faut-il le réguler au service du justiciable et de l’état de droit.
C2M
THÉMATIQUES ASSOCIÉES
Les plus vus
Au cœur de l'actualité !
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Abonnez-vous à la Newsletter !
Recevez gratuitement un concentré d’actualité chaque semaine.

0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *