DOSSIER. L'AI Act, meilleure gestionnaire de risques que gardienne des libertés


mardi 21 mai 202411 min
Écouter l'article

Notre série "AI Act : un règlement funambule"

Avec l’AI Act, adopté le 21 mai par le Conseil européen, l'UE a innové en matière de régulation numérique pour produire un compromis entre la protection des libertés fondamentales et la protection des start-ups. Mais en optant pour une approche pratique par les risques, elle pourrait avoir affaibli l’objectif de défense des droits individuels. Le JSS consacre un dossier à cette nouvelle législation qui constitue une première mondiale.
  • DOSSIER. L'AI Act, meilleure gestionnaire de risques que gardienne des libertés
  • Avec l’AI Act, adopté le 21 mai par le Conseil européen, l'UE a innové en matière de régulation numérique pour produire un compromis entre la protection des libertés fondamentales et la protection des start-ups. Mais en optant pour une approche pratique par les risques, elle pourrait avoir affaibli l’objectif de défense des droits individuels. Le JSS consacre un dossier à cette nouvelle législation qui constitue une première mondiale.


    Dossier AI Act : un règlement funambule

    -      L’AI Act, meilleure gestionnaire de risque que gardienne des libertés

    -      Droits d’auteur et droits voisins : l’AI Act ne rassure pas complètement

          -      Face aux cyberviolences, les timides progrès de l’AI Act


    La fin d’un long chemin de réflexions. Le texte européen sur l’intelligence artificielle (IA), adopté définitivement le 21 mai par le Conseil européen, était peut-être un des plus attendus de la législation communautaire de ces dernières années. Son parcours a débuté en février 2020 avec la parution, juste avant la crise sanitaire, d’un livre blanc de la Commission européenne. Intitulé « IA : Une approche axée sur l’excellence et la confiance », il annonçait dans les grandes lignes les intentions de Bruxelles déjà suggérées dans une note de 2018.

    Pour l’Europe, l’enjeu était clair. L’IA allait prendre de l’ampleur dans les années à venir, des dérives commençaient à émerger à travers le monde - en Chine notamment avec le contrôle social par reconnaissance faciale -, et l’Union apparaissait en léger retard par rapport à ses concurrents. Les 27 devaient se positionner sur cette révolution en marche. Comme souvent, leur réponse s’est tournée vers la régulation.

    Le maître-mot ? La confiance. Martelé par les commissaires européens pendant toute la gestation de l’AI Act, ce terme traduit la volonté de Bruxelles de bâtir une IA sûre, fiable, capable de rassurer les citoyens, mais également performante et innovante. Pour ce faire, le texte établit trois niveaux de risques pour classer les systèmes d’IA, définis ici comme « automatisés, conçus pour fonctionner à différents niveaux d’autonomie, capables d’adaptation après leur déploiement, [...] et pouvant influencer les environnements physiques ou virtuels ».

    Pensée comme une pyramide, cette échelle des risques trouve à son sommet des systèmes interdits. Ils correspondent d’une certaine manière à la priorité de la Commission quand, constatant des dérives en 2020, elle amorce une nouvelle régulation. Ces

    Vous souhaitez lire la suite ?

    Lisez cette article pour seulement 1 € ou abonnez-vous pour profiter de cet article en intégralité et de bien d'autres !

    Partager l'article


    0 Commentaire

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Abonnez-vous à la Newsletter !

    Recevez gratuitement un concentré d’actualité chaque semaine.