Article précédent


Inquiètes des propositions
formulées par les commissions en charge de ce règlement, les quelque 60
autorités nationales indépendantes membres du Réseau
européen des organismes pour l’égalité et du Réseau européen des institutions nationales de droits de l’homme - dont font partie les deux institutions françaises - demandent, dans une déclaration commune du 20 novembre dernier, que
soient supprimés les systèmes biométriques dans les espaces publics.
Les discussions sur
l’élaboration d’un règlement européen sur l’intelligence artificielle (IA) se
poursuivent et sont loin de rassurer les autorités
nationales de défense des droits de l’homme.
En effet, après un avis
relatif à l’impact de l’IA sur les droits fondamentaux rédigé par la Commission
nationale consultative des droits de l'homme (CNCDH) le 7 avril 2022, qui demandait
notamment d’interdire les systèmes biométriques, et un communiqué du Défenseur des droits du 28 septembre 2023 dans lequel Claire Hédon appelait « à
replacer le principe de non-discrimination au cœur de tout projet sur l’IA »,
les trois commissions participant au processus législatif, à savoir la
Commission européenne, le Conseil de l’Union européenne et le Parlement
européen, ont été une nouvelle fois épinglés.
Le 20 novembre dernier, le Réseau
européen des organismes pour l’égalité (Equinet) et le Réseau européen des
institutions nationales de droits de l’homme (ENNHRI), dont sont
respectivement membres la Défenseure des droits et la Commission nationale
consultative des droits de l’homme (CNCDH) avec une soixantaine d’autres autorités
nationales indépendantes présentes dans d’autres pays de l’UE, ont, dans une
déclaration commune rédigée en anglais, attiré l’attention de ces institutions
sur l’atteinte portée à certains droits fondamentaux, et appellent « à la nécessaire prise en compte des droits
fondamentaux et du principe de non-discrimination ».
Parmi les sept
recommandations formulées et rapportées par les réseaux Equinet et ENNHRI dans
leur déclaration commune, la Défenseure des Droits et la CNCDH souhaitent
particulièrement attirer l’attention sur « quatre points cruciaux »,
est-il indiqué sur le site des deux organismes.
En premier lieu, les deux institutions insistent sur le retrait des systèmes biométriques qui permettent l’identification des personnes dans l’espace public, les catégorisent et « reconnaissent » leurs émotions. Une demande déjà formulée par la CNCDH en 2022 dans un avis, les jugeant « trop attentatoires aux droits fondamentaux ». Cette demande a donc été réitérée cette année dans la déclaration puisque ce système « présente [toujours] des risques majeurs d’atteinte aux droits fondamentaux des individus ».
À lire aussi : L’IA, « game changer » pour la gestion des contrats : l’exemple de Della dans Legisway
La déclaration pointe
notamment qu’un tel système ne s’avère pas entièrement efficace : « [Ces pratiques] ne sont pas proportionnées et
ne sont pas étayées par des preuves convaincantes quant à leur efficacité pour
soutenir l'ordre public et la sécurité nationale », est-il expliqué dans la
déclaration commune de l’Equinet et l’ENNHRI.
En outre, les deux
organisations françaises souhaitent également que soient garantis les droits de
recours individuels et collectifs auprès des futures autorités nationales
compétentes et du bureau européen de l’IA. Des garanties procédurales que la Défenseure
des droits et la CNCDH estiment « essentielles pour assurer la
cohérence avec les recours accordés aux individus ou aux groupes en vertu des
droits fondamentaux de l'UE et du droit de la non-discrimination ».
Autre priorité pour la
Défenseure des droits et la CNCDH : les entités qui déploient les systèmes
d’IA doivent suivre les propositions du Parlement européen qui sont « les
seules à même de prévenir et protéger contre les discriminations et les
atteintes aux droits fondamentaux d’une manière globale, transparente et
cohérente », estiment-elles.
L’Equinet et l’ENNHRI appellent d’ailleurs à ce que « les évaluations d’impact sur les droits fondamentaux soient adéquates », demandant ainsi l’adoption « de la proposition du Parlement européen relative aux analyses d’impact sur les droits fondamentaux pour les utilisateurs de systèmes d’IA, afin de prévenir et protéger contre les impacts négatifs sur l’égalité et les droits fondamentaux de manière systémique, transparente et cohérente ».
Le quatrième point crucial, selon Claire Hédon et la CNCDH, tient au « contrôle solide et indépendant des modèles de fondation ». En effet, entrainés « sur de très nombreuses données brutes », ces modèles présentent des dangers « largement documentés ». C’est pourquoi les contrôles de ces modèles sont importants pour la « prévention des discriminations et la protection des droits fondamentaux ». Il est notamment exigé dans la déclaration que la règlementation de ces modèles soit centralisée et harmonisée au niveau européen, et que « les obligations de contrôle indépendant et l’adoption de mesures d’atténuation soient étendues à tous les modèles d’IA à usage général et l’IA générative ».
Pour l’heure, les
négociations sur ce que sera le futur règlement européen sur l’IA se tiennent
dans le cadre du trilogue entre les trois commissions qui participent au
processus législatif. Outre les préconisations formulées par les institutions
pour garantir le respect des droits fondamentaux, la Défenseure des droits espère également que
la CNIL sera désignée « comme l’autorité de contrôle nationale pour
l’application du futur règlement » en France. Affaire à suivre…
Allison
Vaslin
THÉMATIQUES ASSOCIÉES
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Recevez gratuitement un concentré d’actualité chaque semaine.
0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *