SOCIÉTÉ

Après les Jeux olympiques, tous surveillés par les algorithmes ?

Après les Jeux olympiques, tous surveillés par les algorithmes ?
L'association la Quadrature de net est en pointe du combat contre la VSA
Publié le 13/06/2024 à 17:29
Le déploiement de la vidéosurveillance algorithmique grâce à la « loi JO » fait débat, notamment du côté des associations de défense des libertés fondamentales. Elles craignent que, sous couvert d'expérimentation, le recours à l'intelligence artificielle sur la période des jeux ouvre la voie à sa pérennisation. 

Le compte à rebours est lancé : dans quelques dizaines de jours, Paris accueillera en son sein les Jeux olympiques, et avec, seize millions de touristes attendus pour la fête. Une foule considérable, qui a poussé le gouvernement et la ville de Paris à développer de nouvelles politiques de gestion de l’espace public et de sécurité. Parmi elles, la fameuse « loi JO » autorisant l’utilisation de la vidéosurveillance algorithmique (ou VSA), promulguée en mai 2023. Celle-ci légalise le recours à cette technologie, « qui permet d’identifier les personnes pour des raisons de sécurité, par exemple des présumés auteurs d’infractions », explicite l’avocate spécialiste en droit du numérique Aurore Bonavia.

Les algorithmes présents sur des caméras de surveillance déjà existantes permettront de mieux identifier les comportements considérés comme suspects. Son objectif sécuritaire est d’ailleurs mis en avant par les porteurs de cette loi, comme le député Modem et membre de la CNIL, Philippe Latombe. « Nous avons été très sollicité, dès 2022, sur la question des JO et de sa protection. Ce dispositif va aider sur les fanzones, pour épargner et économiser les forces de l’ordre, et les utiliser au meilleur escient », développe-t-il.

Grâce aux algorithmes de ces appareils, les caméras de vidéosurveillance permettront ainsi de « vérifier la densité de la foule », et de « détecter les comportements suspects », selon le député à la tête d’une mission d’information sur « les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité ». Du mouvement de foule au malaise en passant par les risques d’attaques terroristes, la VSA serait donc l’outil préventif par excellence.

Pourtant, de nombreuses associations comme Amnesty International ou la Quadrature du net dénoncent un dispositif dangereux pour les libertés fondamentales. « Depuis les années 2000, on a vu une accélération des caméras de surveillance comme outil de sécurité publique », constate Noémie Levain, juriste à la Quadrature du net. Cela fait plusieurs années que certaines villes, comme celle de Nice, multiplient le nombre de caméras toujours plus innovantes, pour des enjeux sécuritaires. « En mettant des caméras, on montre qu’on se préoccupe de la sécurité des citoyens. Mais cette accélération se fait aussi par la création d’un marché privé, plutôt qu’un réel besoin », analyse la juriste. Un marché qui menacerait aussi les libertés individuelles.

Peur sur les libertés fondamentales

Appliquée dès la Coupe du monde de rugby et testée sur quelques marchés de Noël (« qui fonctionnent à peu près comme des fanzones », s’amuse Philippe Latombe), la VSA autorisée par la loi JO est présentée comme une « vraie expérimentation » : « elle ne va pas se pérenniser sans qu’elle ne soit revotée », assure le député Modem. Selon lui, si l’expérimentation dure, c’est « parce qu’il y a besoin de faire des retours, un bilan de ce qui s’est passé ».

Du côté de la Quadrature du net, on pense au contraire que les Jeux olympiques ne sont qu’une « vitrine sécuritaire », « un moment de laboratoire ». « On savait que l’acceptabilité sociale est plus facile à avoir en utilisant une situation exceptionnelle pour accélérer un agenda politique, estime Noémie Levain. Il n’y a pas eu de débat rationnel sur cette technologie, seulement une accumulation de croyances et de récits ». L’association dénonce une pente sécuritaire très glissante, et la peur que les données récoltées par ces fameuses caméras augmentées soient réutilisées par les forces de l’ordre. « On légalise une technologie ultra opaque, sans savoir qui l’utilise ni comment », dénonce Noémie Levain de la Quadrature du net.

La CNIL a donné son accord

Pourtant, certaines autorités indépendantes comme la Commission nationale informatique et libertés (CNIL), ont donné leur avis sur le texte, fin 2022. Comme le précise l’avocate en droit du numérique Aurore Bonavia, la CNIL a jugé que la loi JO prévoyait des garanties suffisantes de protection des données personnelles. « La loi prévoit un déploiement expérimental, limité dans le temps et l’espace, sans données biométriques ni rapprochement avec d’autres fichiers, et pas de décisions automatiques », détaille Aurore Bonavia.

Philippe Latombe tient à rassurer : « La VSA fait peur, mais à mon avis pour de mauvaises raisons. Les gens ont l’impression que c’est intrusif, alors que ça ne génère pas des images complémentaires ». Des arguments qui ne rassurent pas vraiment les associations ou les militants anti-Jeux olympiques, qui dénoncent du technosolutionnisme. « S’il y a vraiment des problèmes de densité, cela vient de l’organisation. Cela nous empêche de prendre du recul sur le problème qu’on veut vraiment résoudre », juge Noémie Levain.

Face aux craintes sur les libertés fondamentales, Philippe Latombe réassure que la VSA est cadrée, et surtout exclut la biométrie et la reconnaissance faciale, ce qui ne pose « pas de problème de liberté ». Pour lui, ce raisonnement de la pente glissante technologique ne tient pas. « Les usages privés changent : les gens mettent des caméras chez eux ou utilisent la reconnaissance faciale pour leur téléphone. Mais vu la pression de ces technologies dans d’autres pays, si on ne l’utilise pas en mettant nos limites, on va un jour se faire dépasser par la vague », estime le député.

Mais pour certains professionnels du droit, les garanties proposées par la loi sur les Jeux olympiques n’enlèvent pas tous les risques. « Il y a quand même de l’humain derrière : on ne sait pas qui aura accès à ces données, donc le risque zéro n’existe pas », appuie Aurore Bonavia.

Et après les Jeux ?

La loi JO est assez claire : le déploiement de la vidéosurveillance algorithmique est limitée dans le temps et l’espace par l'événement exceptionnel que sont les Jeux olympiques. « Mais ça permettrait d’avoir quelque chose d’expérimental pour peut-être le généraliser après », avance Aurore Bonavia.

Cette généralisation de la surveillance algorithmique pourrait bien venir cette fois du secteur des transports. La RATP et la SNCF ont été autorisées, elles aussi, à expérimenter la vidéosurveillance algorithmique en avril 2024 lors d’un match de football et d’un concert. Via une proposition de loi sénatoriale, la RATP pourrait même continuer à expérimenter jusqu’en 2027. Une demande qui laisse Philippe Latombe perplexe : « même si l’algorithmique permettrait de remplir plus vite les réquisitions des procureurs ou pour gérer les bagages abandonnés, ce qui m’embête, c’est que c’est une proposition parlementaire, sans étude d’impact, et sans qu’on ait eu de premiers retours des JO ». D’autant que le député aimerait que l’expérimentation reste, comme prévu, dans le cadre des JO, et ne s’éternise pas après la fin de l’année 2024. 

Pour la Quadrature du net, la loi JO n’est qu’une première étape. « Appliquée aux transports, en termes de vie privée, d’anonymat… C’est très intrusif. En passant par cette loi via la RATP et la SNCF, il y a une volonté de passer à l’étape d’après, qui est celle de la surveillance de l’espace public puis de la reconnaissance faciale », anticipe la juriste Noémie Levain.

« La crainte qu’on peut avoir du point de vue juridique, c’est la possibilité de la généralisation : d’abord les JO, la SNCF, la RATP, puis peut-être les lycées, les villes ? Il ne faut pas que ce soit la porte ouverte à des dérives, et qu’on dévoie cette technologie pour d’autres utilisations », note l’avocate Aurore Bonavia.

D’autant que la reconnaissance faciale est déjà utilisée en France : le média d’investigation Disclose a révélé que la vidéosurveillance algorithmique était déjà utilisée dans de nombreux commissariats, par l’intermédiaire d’un logiciel, Video Synopsis. Ce dernier, conçu par la société israélienne Briefcam, permet de suivre et d’identifier par reconnaissance faciale, les individus dans l’espace public. Et ce, hors de tout cadre légal et hors du contrôle de la CNIL. A la suite de ces révélations, le ministre de l’Intérieur, Gérald Darmanin, avait annoncé l’ouverture d’une enquête administrative.

L’Europe, garde-fou du technosolutionnisme français ?

Face aux craintes des associations comme la Quadrature du net, qui dénonce depuis des années les dérives sécuritaires et technologiques du gouvernement, les défenseurs de la loi JO tiennent leurs positions, et se veulent rassurants. « L’un des amendements que j’avais déposés [prévoyait] que les logiciels soient vérifiés en amont par la CNIL, qu’il y ait un contrôle du Règlement général de la protection des données. En clair, la CNIL peut sanctionner l’Etat s’il ne fait pas bien », détaille Philippe Latombe. Un contrôle extérieur et indépendant que conseille de suivre Aurore Bonavia, et d’aussi « suivre les avancées au niveau européen ».

Car les décisions française en matière de surveillance algorithmique des Jeux olympiques sont arrivées au moment où l’Europe votait l’AI Act, premier texte à réglementer l’usage de l’intelligence artificielle sur le Vieux Continent. « L’AI Act a acté la position française à avoir une approche différente, et intègre directement le rejet de la biométrie ou du crédit social », rappelle Philippe Latombe. Pourtant, la France a aussi largement œuvré pour que l’article 5 de l’AI Act comporte de nombreuses exceptions, ne fermant pas totalement la porte à cette technologie. Si la loi JO a été adoptée, le combat continue pour les associations : la Quadrature du net a porté plainte contre la CNIL ; quant à Amnesty International, elle demande une loi interdisant purement et simplement la reconnaissance faciale.

Pauline Ferrari

0 commentaire
Poster

Nos derniers articles