Le déploiement de la vidéosurveillance algorithmique grâce à la « loi
JO » fait débat, notamment du côté des associations de défense des
libertés fondamentales. Elles craignent que, sous couvert d'expérimentation, le recours à l'intelligence artificielle sur la période des jeux ouvre la voie à sa pérennisation.
Le compte à rebours est lancé
: dans quelques dizaines de jours, Paris accueillera en son sein les Jeux olympiques,
et avec, seize millions de touristes attendus pour la fête. Une foule
considérable, qui a poussé le gouvernement et la ville de Paris à développer de
nouvelles politiques de gestion de l’espace public et de sécurité. Parmi elles,
la fameuse « loi JO » autorisant l’utilisation de la
vidéosurveillance algorithmique (ou VSA), promulguée en mai 2023. Celle-ci
légalise le recours à cette technologie, « qui
permet d’identifier les personnes pour des raisons de sécurité, par exemple des
présumés auteurs d’infractions », explicite l’avocate spécialiste en
droit du numérique Aurore Bonavia.
Les algorithmes présents sur
des caméras de surveillance déjà existantes permettront de mieux identifier les
comportements considérés comme suspects. Son objectif sécuritaire est
d’ailleurs mis en avant par les porteurs de cette loi, comme le député Modem et
membre de la CNIL, Philippe Latombe. « Nous
avons été très sollicité, dès 2022, sur la question des JO et de sa protection.
Ce dispositif va aider sur les fanzones, pour épargner et économiser les forces
de l’ordre, et les utiliser au meilleur escient », développe-t-il.
Grâce aux algorithmes de ces
appareils, les caméras de vidéosurveillance permettront ainsi de « vérifier la densité de la foule »,
et de « détecter les comportements
suspects », selon le député à la tête d’une mission d’information sur « les enjeux de l’utilisation d’images
de sécurité dans le domaine public dans une finalité de lutte contre
l’insécurité ». Du mouvement de foule au malaise en passant par les
risques d’attaques terroristes, la VSA serait donc l’outil préventif par
excellence.
Pourtant, de nombreuses
associations comme Amnesty International ou la Quadrature du net dénoncent un
dispositif dangereux pour les libertés fondamentales. « Depuis les années 2000, on a vu une accélération des caméras de
surveillance comme outil de sécurité publique », constate Noémie
Levain, juriste à la Quadrature du net. Cela fait plusieurs années que
certaines villes, comme celle de Nice, multiplient le nombre de caméras
toujours plus innovantes, pour des enjeux sécuritaires. « En mettant des caméras, on montre qu’on se préoccupe de la
sécurité des citoyens. Mais cette accélération se fait aussi par la création
d’un marché privé, plutôt qu’un réel besoin », analyse la juriste. Un
marché qui menacerait aussi les libertés individuelles.
Peur
sur les libertés fondamentales
Appliquée dès la Coupe du monde
de rugby et testée sur quelques marchés de Noël (« qui fonctionnent à peu près comme des fanzones »,
s’amuse Philippe Latombe), la VSA autorisée par la loi JO est présentée comme
une « vraie expérimentation »
: « elle ne va pas se pérenniser
sans qu’elle ne soit revotée », assure le député Modem. Selon lui, si
l’expérimentation dure, c’est « parce
qu’il y a besoin de faire des retours, un bilan de ce qui s’est passé ».
Du côté de la Quadrature du net,
on pense au contraire que les Jeux olympiques ne sont qu’une « vitrine sécuritaire », « un
moment de laboratoire ». « On
savait que l’acceptabilité sociale est plus facile à avoir en utilisant une
situation exceptionnelle pour accélérer un agenda politique, estime Noémie
Levain. Il n’y a pas eu de débat
rationnel sur cette technologie, seulement une accumulation de croyances et de
récits ». L’association dénonce une pente sécuritaire très glissante,
et la peur que les données récoltées par ces fameuses caméras augmentées soient
réutilisées par les forces de l’ordre. « On
légalise une technologie ultra opaque, sans savoir qui l’utilise ni comment »,
dénonce Noémie Levain de la Quadrature du net.
La CNIL a donné son
accord
Pourtant, certaines autorités
indépendantes comme la Commission nationale informatique et libertés (CNIL),
ont donné leur avis sur le texte, fin 2022. Comme le précise l’avocate en droit
du numérique Aurore Bonavia, la CNIL a jugé que la loi JO prévoyait des
garanties suffisantes de protection des données personnelles. « La loi prévoit un déploiement
expérimental, limité dans le temps et l’espace, sans données biométriques ni
rapprochement avec d’autres fichiers, et pas de décisions automatiques »,
détaille Aurore Bonavia.
Philippe Latombe tient à
rassurer : « La VSA fait peur, mais
à mon avis pour de mauvaises raisons. Les gens ont l’impression que c’est
intrusif, alors que ça ne génère pas des images complémentaires ». Des
arguments qui ne rassurent pas vraiment les associations ou les militants
anti-Jeux olympiques, qui dénoncent du technosolutionnisme. « S’il y a vraiment des problèmes de
densité, cela vient de l’organisation. Cela nous empêche de prendre du recul
sur le problème qu’on veut vraiment résoudre », juge Noémie Levain.
Face aux craintes sur les
libertés fondamentales, Philippe Latombe réassure que la VSA est cadrée, et
surtout exclut la biométrie et la reconnaissance faciale, ce qui ne pose « pas de problème de liberté ». Pour
lui, ce raisonnement de la pente glissante technologique ne tient pas. « Les usages privés changent : les gens
mettent des caméras chez eux ou utilisent la reconnaissance faciale pour leur
téléphone. Mais vu la pression de ces technologies dans d’autres pays, si on ne
l’utilise pas en mettant nos limites, on va un jour se faire dépasser par la
vague », estime le député.
Mais pour certains
professionnels du droit, les garanties proposées par la loi sur les Jeux olympiques
n’enlèvent pas tous les risques. « Il
y a quand même de l’humain derrière : on ne sait pas qui aura accès à ces
données, donc le risque zéro n’existe pas », appuie Aurore Bonavia.
Et
après les Jeux ?
La loi JO est assez claire :
le déploiement de la vidéosurveillance algorithmique est limitée dans le temps
et l’espace par l'événement exceptionnel que sont les Jeux olympiques. « Mais ça permettrait d’avoir quelque
chose d’expérimental pour peut-être le généraliser après », avance
Aurore Bonavia.
Cette généralisation de la
surveillance algorithmique pourrait bien venir cette fois du secteur des
transports. La RATP et la SNCF ont été autorisées, elles aussi, à expérimenter
la vidéosurveillance algorithmique en avril 2024 lors d’un match de football et
d’un concert. Via une proposition de loi sénatoriale, la RATP pourrait même
continuer à expérimenter jusqu’en 2027. Une demande qui laisse Philippe Latombe
perplexe : « même si l’algorithmique
permettrait de remplir plus vite les réquisitions des procureurs ou pour gérer
les bagages abandonnés, ce qui m’embête, c’est que c’est une proposition
parlementaire, sans étude d’impact, et sans qu’on ait eu de premiers retours des
JO ». D’autant que le député aimerait que l’expérimentation reste,
comme prévu, dans le cadre des JO, et ne s’éternise pas après la fin de l’année
2024.
Pour la Quadrature du net, la
loi JO n’est qu’une première étape. « Appliquée
aux transports, en termes de vie privée, d’anonymat… C’est très intrusif. En
passant par cette loi via la RATP et la SNCF, il y a une volonté de passer à
l’étape d’après, qui est celle de la surveillance de l’espace public puis de la
reconnaissance faciale », anticipe la juriste Noémie Levain.
« La
crainte qu’on peut avoir du point de vue juridique, c’est la possibilité de la
généralisation : d’abord les JO, la SNCF, la RATP, puis peut-être les lycées,
les villes ? Il ne faut pas que ce soit la porte ouverte à des dérives, et
qu’on dévoie cette technologie pour d’autres utilisations », note
l’avocate Aurore Bonavia.
D’autant que la
reconnaissance faciale est déjà utilisée en France : le média d’investigation
Disclose a révélé que la vidéosurveillance algorithmique était déjà utilisée
dans de nombreux commissariats, par l’intermédiaire d’un logiciel, Video
Synopsis. Ce dernier, conçu par la société israélienne Briefcam, permet de
suivre et d’identifier par reconnaissance faciale, les individus dans l’espace
public. Et ce, hors de tout cadre légal et hors du contrôle de la CNIL. A la
suite de ces révélations, le ministre de l’Intérieur, Gérald Darmanin, avait
annoncé l’ouverture d’une enquête administrative.
L’Europe,
garde-fou du technosolutionnisme français ?
Face aux craintes des
associations comme la Quadrature du net, qui dénonce depuis des années les
dérives sécuritaires et technologiques du gouvernement, les défenseurs de la loi
JO tiennent leurs positions, et se veulent rassurants. « L’un des amendements que j’avais déposés [prévoyait] que les logiciels soient vérifiés en amont par la CNIL, qu’il y ait un
contrôle du Règlement général de la protection des données. En clair, la CNIL
peut sanctionner l’Etat s’il ne fait pas bien », détaille Philippe
Latombe. Un contrôle extérieur et indépendant que conseille de suivre Aurore
Bonavia, et d’aussi « suivre les
avancées au niveau européen ».
Car les décisions française
en matière de surveillance algorithmique des Jeux olympiques sont arrivées au
moment où l’Europe votait l’AI Act, premier texte à réglementer l’usage de
l’intelligence artificielle sur le Vieux Continent. « L’AI Act a acté
la position française à avoir une approche différente, et intègre directement
le rejet de la biométrie ou du crédit social », rappelle Philippe
Latombe. Pourtant, la France a aussi largement œuvré pour que l’article 5 de l’AI
Act comporte de nombreuses exceptions, ne fermant pas totalement la porte à
cette technologie. Si la loi JO a été adoptée, le combat continue pour les
associations : la Quadrature du net a porté plainte contre la CNIL ; quant à
Amnesty International, elle demande une loi interdisant purement et simplement
la reconnaissance faciale.
Pauline
Ferrari