Article précédent

INTERVIEW. Avec l’AI Act, l’Europe entend clarifier quand un contenu est généré par une intelligence artificielle et qui en est responsable. Mais ce cadre complexe, qui combine marquage technique, obligations d’information et exceptions, pourra-t-il réellement encadrer toutes les utilisations de l’IA ?

À partir du 2 août 2026, certaines obligations de transparence prévues par le règlement européen sur l’intelligence artificielle (AI Act) entreront en application. Fournisseurs et utilisateurs de systèmes d’IA devront notamment signaler lorsqu’un contenu est généré artificiellement ou lorsqu’un utilisateur interagit avec une machine.
L’objectif affiché est clair : permettre au public de distinguer les contenus authentiques des contenus synthétiques, dans un contexte marqué par la multiplication des deepfakes et des contenus générés par intelligence artificielle.
Mais derrière ce principe apparemment simple, le dispositif juridique se révèle plus nuancé et soulève déjà plusieurs interrogations, notamment sur son efficacité réelle. Décryptage avec Arnaud Dimeglio, avocat spécialiste du droit du numérique.
JSS : Pourquoi l’Union européenne a-t-elle fait de la transparence un pilier central de la régulation de l’intelligence artificielle ?
Arnaud Dimeglio : La logique du texte est relativement simple : les utilisateurs doivent pouvoir savoir s’ils interagissent avec un humain ou avec une machine. Les systèmes d’intelligence artificielle peuvent produire des biais ou des erreurs spécifiques. On parle notamment d’« hallucinations », c’est-à-dire de contenus qui peuvent être factuellement faux tout en étant générés de manière très crédible par le système.
L’objectif de la transparence est donc de donner une information essentielle à l’utilisateur : savoir si le contenu auquel il est confronté est artificiel ou non, afin qu’il ait toutes les clés en main pour exercer un regard critique sur l’information qu’il reçoit.
JSS : Le règlement distingue plusieurs acteurs. Pouvez-vous nous expliquer la différence qu’il opère entre fournisseur et déployeur d’un système d’IA ?
A.D. : Le fournisseur est celui qui développe ou met sur le marché un système d’intelligence artificielle. Le déployeur, lui, est l’acteur qui utilise ce système dans un service, un produit ou une activité.
Prenons un exemple concret. L’entreprise qui développe un modèle d’IA générative – comme OpenAI avec son système ChatGPT – est considérée comme un fournisseur : elle conçoit et met à disposition la technologie. En revanche, une entreprise, une plateforme ou un média qui utilise cet outil pour produire ou diffuser du contenu devient un déployeur. Si une société utilise ChatGPT pour générer un texte qu’elle publie ensuite sur son site, elle agit donc comme déployeur au sens du règlement. Cette distinction est importante car les obligations prévues par l’AI Act ne sont pas les mêmes.
JSS : Comment l’AI Act encadre-t-il la transparence des contenus générés par intelligence artificielle ?
A.D. : Le texte repose sur un mécanisme en deux temps. D’une part, les fournisseurs de systèmes capables de générer du texte, des images, de l’audio ou de la vidéo doivent mettre en place un marquage technique des contenus produits par leurs outils. Ce marquage doit être identifiable dans un format lisible par machine. L’idée est que les contenus générés par l’intelligence artificielle puissent être détectés automatiquement par d’autres systèmes, par exemple grâce à des métadonnées ou à des filigranes numériques.
D’autre part, les déployeurs ont une obligation d’information vis-à-vis des utilisateurs. Lorsqu’ils diffusent un contenu généré ou manipulé par une IA – notamment des images, des vidéos ou des contenus audio – ils doivent indiquer que ce contenu a été créé ou modifié par une intelligence artificielle.
JSS : Quelles règles s’appliquent lorsque des utilisateurs interagissent avec des chatbots ?
A.D. : Lorsqu’un système d’IA est destiné à interagir directement avec des personnes physiques, celles-ci doivent être informées qu’elles communiquent avec une intelligence artificielle. Cela vise notamment les chatbots ou les assistants automatisés utilisés dans les services clients ou sur les plateformes numériques. Cette obligation ne s’applique pas lorsque cela ressort clairement du contexte. En revanche, si ce n’est pas évident pour l’utilisateur, il doit être informé qu’il échange avec un système automatisé.
JSS : L’étiquetage des contenus générés par IA est souvent présenté comme un outil de lutte contre les deepfakes, mais est-ce bien l’objectif du texte ?
A.D. : En partie. Les contenus manipulés ou générés artificiellement, comme les deepfakes, sont clairement visés par l’article 50. Lorsqu’un contenu audiovisuel est généré ou manipulé par une intelligence artificielle, les déployeurs doivent indiquer aux utilisateurs qu’il s’agit d’un contenu artificiel. Cependant, le règlement ne vise pas à interdire ces contenus.
JSS : L’AI Act prévoit des exceptions à ces obligations de transparence. Pouvez-vous nous en dire plus ? Quelles questions leur application peut-elle soulever ?
A.D. : Certaines concernent les activités des autorités publiques. L’obligation de transparence ne s’applique pas lorsque l’utilisation du système d’IA est autorisée par la loi à des fins de prévention, de détection ou de poursuite des infractions pénales. Il existe également une exception pour les contenus manifestement artistiques, créatifs ou satiriques. Dans ces cas-là, l’obligation peut se limiter à une simple mention indiquant que l’œuvre contient des éléments générés par IA.
Cela peut toutefois soulever des questions d’interprétation. Le texte utilise notamment des notions comme « manifestement artistique » ou « analogue », qui peuvent être difficiles à apprécier dans certaines situations.
JSS : Le règlement traite par ailleurs différemment les contenus textuels et les contenus audiovisuels. De quelle façon ?
A.D. : En effet, le régime n’est pas exactement le même. Pour les contenus textuels, l’obligation d’indiquer l’usage de l’intelligence artificielle vise principalement les textes publiés dans le but d’informer le public sur des questions d’intérêt général.
Mais il existe une exception importante : lorsque le contenu fait l’objet d’un contrôle éditorial humain et qu’une personne physique ou morale assume la responsabilité de la publication, l’obligation d’identification peut ne pas s’appliquer. Concrètement, cela signifie qu’un média qui utilise l’intelligence artificielle dans son processus rédactionnel mais qui exerce un contrôle éditorial ne sera pas nécessairement tenu de signaler cet usage.
JSS : Certains observateurs estiment que ces obligations de transparence pourraient être facilement contournées. Qu’en pensez-vous ?
A.D. : Comme pour toute réglementation, il peut y avoir des contournements. Certains acteurs peuvent décider de ne pas respecter la loi ou utiliser des outils d’anonymisation pour diffuser des contenus. Mais dans ce cas, ils s’exposent à des sanctions, notamment administratives.
Dans certaines situations la responsabilité civile ou pénale peut également être engagée. Cela étant, la véritable difficulté pourrait être d’identifier les auteurs de contenus illicites. Sans identification, il devient difficile d’engager leur responsabilité.
JSS : L’efficacité de ces règles dépend aussi des moyens dont disposent les autorités pour faire respecter la loi…
A.D. : Oui, naturellement. Les règles juridiques existent déjà pour sanctionner certains contenus manipulés, par exemple en matière de diffamation ou d’atteinte à la réputation. Mais l’identification des auteurs reste souvent complexe, notamment lorsque des outils d’anonymisation sont utilisés.
Et même lorsque les auteurs sont identifiés, il faut ensuite mobiliser les moyens judiciaires nécessaires pour traiter ces affaires. Cela pose la question plus large des ressources dont dispose la justice pour faire face aux contentieux liés aux nouvelles technologies.
THÉMATIQUES ASSOCIÉES
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Recevez gratuitement un concentré d’actualité chaque semaine.
0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *