INTERVIEW. « L'IA générative pose de nouvelles questions éthiques au monde médical »


mardi 3 septembre 20242 min
Écouter l'article

En janvier 2023, le Comité consultatif national d’éthique (CCNE) rendait un avis sur les enjeux éthiques des systèmes d’intelligence artificielle (IA) à visée diagnostique. Plus d’un an et demi après, le 12 juillet dernier, le règlement européen sur l'IA, dit IA Act, est paru au Journal officiel de l'Union européenne. Ce règlement fixe ainsi, pour la première fois, un cadre juridique à l’IA. L’occasion pour Magali Clausener de faire le point sur les enjeux éthiques de l’IA dans le domaine médical avec Emmanuel Didier, rapporteur de l’avis du CCNE*, alors que l’innovation continue à avancer dans ce domaine.

Magali Clausener : Emmanuel Didier, vous êtes sociologue et rapporteur du Comité consultatif national d’éthique (CCNE) pour les sciences de la vie et de la santé. L’IA Act a été publié en juillet et entre progressivement en vigueur depuis le 1er août 2024. Quelles évolutions avez-vous pu observer depuis l’avis du CCNE ?

Emmanuel Didier : Le CCNE a été l’une des premières institutions en janvier 2023 à publier un avis éthique sur les systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM). Depuis cette date, les avis se sont démultipliés. Lorsque la question de l’IA a été soulevée concernant les diagnostics médicaux afin de savoir si elle influence les médecins sur leurs rapports avec les patients, toutes les institutions se sont penchées sur le sujet.

L’IA Act n’avait pas encore été publié, d’autant que nous avons travaillé sur cette question en novembre 2022. Mais nous avions déjà connaissance de certaines pistes de ce futur règlement européen. L’un des points très importants, que nous avons largement repris dans notre avis et qui figure dans l’IA Act, est la question du contrôle humain.

Nous avons défendu cette idée, pour les IA qui traitent de la médecine, qui consiste à avoir un contrôle humain à un moment de la production des systèmes d’IA. Ce contrôle, c’est-à-dire une vérification par l’humain de la qualité des résultats que le système d’IA est en train de produire, doit être mis en place dans le système d’IA lorsqu’il est conçu

Vous souhaitez lire la suite ?

Lisez cette article pour seulement 1 € ou abonnez-vous pour profiter de cet article en intégralité et de bien d'autres !

Partager l'article


0 Commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Abonnez-vous à la Newsletter !

Recevez gratuitement un concentré d’actualité chaque semaine.