Article précédent

En leur offrant un « terrain de jeu » inédit, certaines plateformes d’intelligence artificielle donnent la possibilité aux criminels en ligne de créer et de monétiser une quantité infinie de contenus pédopornographiques. Face à cette déferlante, les associations de protection de l’enfance alertent sur un risque de banalisation de la pédocriminalité.
Alors qu’un nouveau cycle de négociations s’est ouvert le 12 septembre dernier au sein du Conseil de l’Union Européenne, pour tenter de mettre en place un règlement en faveur de la lutte contre les contenus pédopornographiques en ligne, les professionnels du droit et les associations de protection de l’enfance sont confrontés, au quotidien, à la nouvelle « arme » des pédocriminels : l’intelligence artificielle (IA).
A l’instar d’autres avancées technologiques, son expansion effrénée apporte un lot de dérives inquiétantes pour la protection de l’enfance. Elle participe à l’émergence d’un nouveau business aux conséquences dramatiques pour les victimes.
L’intervention de l’IA transforme ainsi les pratiques pédocriminelles en leur donnant un potentiel inédit de création de contenus. A commencer par les images produites avec l’IA générative, comme l’explique Angèle Lefranc, chargée de plaidoyer pour la Fondation pour l’Enfance et autrice du rapport « L’IA générative, nouvelle arme de la pédocriminalité » : « Il s’agit de toutes les photos, vidéos, textes, audios, qui dépeignent un enfant d’une manière sexualisée et qui sont créés de toute pièces, ex-nihilo, par l’IA ».
Ces supports tels que des vidéos d’enfants – qui n’existent pas dans la vraie vie – subissant des viols, profitent de modèles en open source. « C’est-à-dire que leurs codes de programmation sont accessibles à tous et modifiables par tous. Les instructions sont remaniées dans le but générer du contenu pédocriminel », précise Angèle Lefranc.
À lire aussi : Les professionnels du droit des mineurs alertent sur la dégradation des conditions de protection des enfants
Autre variante, les « deepfakes ». Des images générées à partir de contenus représentant des enfants (existant réellement), à caractère sexuel – ou même non-sexuel – présents sur Internet, les réseaux sociaux notamment. Ils sont issus de montages produits par des modèles d’IA ou d’applications de déshabillage.
Véronique Béchu, Directrice de l’Observatoire e-Enfance, qui lutte contre le harcèlement et les violences numériques faites aux mineurs, membre expert de la CIIVISE et ancienne cheffe du pôle stratégie de l’Office mineurs (OFMIN), souligne à ce titre l’inexactitude, selon elle, de cette dénomination. « Le terme de deepfake pornographique n’est pas approprié lorsqu’il s’agit de représenter un mineur, puisque la notion de pornographie implique généralement une dimension ludique et suppose l’existence d’un consentement, ce qui est impossible pour l’enfant. Nous militons ainsi pour parler plutôt de contenus pédocriminels générés par l’IA ».
Par leur réalisme impressionnant, les contenus pédocriminels générés par IA rendent la tâche extrêmement ardue pour les forces de l’ordre en charge de leur traque. Les images non générées par l’IA et celles générées par l’IA étant difficiles à distinguer, ils peinent à identifier les enfants victimes de violences.
Autre défi majeur : l’IA permet de créer un nombre incalculable de contenus. « Si vous demandez à un modèle d’IA de passer une journée à générer des contenus pédocriminels ou à modifier des photos pour leur donner un caractère sexuel, elle pourra passer 24 heures à s’y consacrer. Sachant qu’il lui suffit de quelques secondes pour générer une photo », illustre Angèle Lefranc de la Fondation pour l’enfance.
Avant la démocratisation de l’IA, on comptait déjà 85 millions de contenus pédocriminels circulant à travers le monde sur Internet. « 4 700 contenus pédocriminels impliquant l’IA générative ont été signalés à l’ONG américaine NCMEC en 2023. Cela représente seulement une infime quantité des contenus existant réellement », déplore-t-elle. L’OFMIN rapporte pour sa part 871 signalements de contenus pédocriminels échangés en ligne et transmis chaque jour en 2024, ce qui représente une augmentation de 12 000 % en dix ans !
« Si vous demandez à un modèle d’IA de passer une journée à générer des contenus pédocriminels ou à modifier des photos pour leur donner un caractère sexuel, elle le fait, et il lui suffit d’une seconde pour générer une photo »
Angèle Lefranc, chargée de plaidoyer pour la Fondation pour l’Enfance
Si les pédocriminels ont pour habitude de s’approprier très vite les nouvelles technologies, la multiplicité de canaux sur lesquels ils peuvent trouver des contenus ou les diffuser participe à l’expansion massive du phénomène. Une enquête récente menée par l’association finlandaise Suojellaan Lapsia – Protect Children démontre à ce titre que les contenus pédocriminels sont facilement accessibles sur le clear web, via des moteurs de recherche ordinaires.
Le rapport indique que plus de 3 auteurs présumés sur 4 les ont trouvés sur le web classique, 1 sur 3 sur des sites pornographiques et 1 sur 3 sur des réseaux sociaux tels qu’Instagram, Discord et TikTok. Les applications de messageries, comme Telegram et Whatsapp, qui chiffrent de bout en bout une part importante des échanges, entravent dans une même mesure les efforts de détection et de suppression de ces contenus.
Qu’elles soient virtuelles ou non, ces images d’exploitation sexuelles des mineurs sont souvent une première étape avant un passage à l’acte. « Au bout d’un moment, la consommation et la diffusion d’images ne suffiront plus au pédocriminel. Il aura besoin d’accéder à des contenus inédits, en se dirigeant notamment vers la sextorsion ou le grooming », expose Véronique Béchu.
La première désigne un chantage à la publication de photos ou de vidéos montrant la victime nue ou en train d’accomplir des actes sexuels ; la seconde, une pratique où un adulte se « lie d’amitié » avec un enfant dans le but de l’abuser sexuellement.
À lire aussi : Une loi pour mieux protéger le droit à l’image des enfants adoptée par l’Assemblée nationale
« Le pédocriminel envisagera ensuite de passer à l’acte sur les enfants. A ceux qui pensent que le contenu pédopornographique généré à partir d’une IA permet à ces criminels d’assouvir leurs fantasmes sans utiliser d’images de vrais enfants, il faut donc répondre que ces comportements augurent de toute façon de cheminements plus radicaux ».
Angèle Lefranc la rejoint sur ce point. « Sur les forums pédocriminels, on peut lire qu’il vaut mieux regarder une image ou une vidéo que de toucher un enfant. Nous réfutons totalement cet argument, puisque ces contenus représentent déjà une atteinte à l’intégrité de l’enfant ».
Sur le plan psychique, la création de contenus pédocriminels générés par l’IA à partir de vraies photos peut avoir des conséquences désastreuses pour les victimes. Bien qu’aucune recherche probante sur le sujet n’ait encore été publiée, Joanna Smith, psychologue clinicienne et Mélanie Dupont, docteur en psychologie, s’expriment sur la question dans le rapport de la Fondation pour l’Enfance.
« Il est difficile, voire impossible pour la victime de voir une fin à l’épisode traumatique, parce que le contenu continue de tourner sur Internet. Avec la cyber-pédocriminalité, il y a une permanence de l’agression, de multiples agresseurs et donc une permanence des conséquences et une revictimisation. La création de contenus pédocriminels par l’IA générative, et donc l’impossibilité de contrôler son image, va entraîner chez les victimes une intensification du sentiment de dépossession de soi », dénoncent-elles.
Angèle Lefranc alerte par ailleurs sur le danger d’une banalisation de la pédocriminalité auprès des mineurs eux-mêmes. « Avec leur propagation rapide, il y a un risque que ces contenus deviennent une sorte de normalité chez certains. On l’aperçoit notamment chez les jeunes. Des affaires récentes montrent qu’il n’est pas rare que les mis en cause soient des mineurs qui avaient créé des deepfakes de leurs camarades pour les partager ensuite. On sent qu’ils peinent à prendre conscience de leurs actes ».
À lire aussi : Loi sur la justice des mineurs : le Conseil constitutionnel sanctionne plusieurs articles centraux
Véronique Béchu confirme l’évolution des profils des auteurs de ces infractions. « Jusqu’à présent, même si l’âge baissait de plus en plus, on considérait qu’il s’agissait majoritairement d’adultes. Raison pour laquelle la loi du 21 avril 2021 envisage le phénomène uniquement de la part d’un adulte sur un mineur. Quatre ans plus tard, on s’aperçoit qu’une grosse part des infractions telles que les sextorsion émane aussi de mineurs. On se confronte à une nouvelle problématique, notamment de qualification et de poursuite ».
L’émergence des contenus pédocriminels générés par l’IA soulève évidemment des enjeux juridiques fondamentaux en matière de protection des enfants, débattus à la fois à l’échelle française et européenne. En France, les autorités législatives et règlementaires s’efforcent ainsi d’élaborer un cadre juridique efficace, bien qu’il n’existe, pour l’heure, pas de législation qui traite avec précision de la création, de la possession ou du partage d’un modèle d’IA générative conçu pour produire des contenus pédocriminels.
Mathias Darmon, avocat de l’association Innocence en danger, explique sur ce sujet que « l’IA générative ne modifie pas profondément la manière de juger les pédocriminels, le type d’infraction restant le même ». Les lois française et européenne qualifient donc ces contenus exactement de la même manière que ceux qui sont créés avec des enfants qui existent vraiment. « Je pense pourtant qu’il serait bénéfique que des propositions ou des amendements soit expressément proposés pour que la loi évolue avec les pratiques pédocriminels actuelles. Notamment pour que cela ne soit pas reproché à la justice plus tard », complète-t-il.
Véronique Péchu plaide aussi pour une attitude « pro-active ». « Pour tout ce qui se rapporte à la réalité virtuelle, nous devrions pouvoir penser les infractions dans leur globalité et non pas en réaction au cas par cas. Nous nous devons d’anticiper et d’être à la hauteur de l’évolution fulgurante de l’IA ». L’ancienne cheffe du pôle stratégies de l’OFMIN insiste également sur la nécessité de qualifier la création de contenus pédocriminels générés par l’intelligence artificielle en infraction pénale. « L’article 227-23 mentionne la consultation habituelle de contenus, de détention, de diffusion, de mise à disposition de l’offre, d’importation ou d’exportation… Mais jamais leur création ».
Face à cette vague, Maître Darmon rappelle également la particularité ces dossiers. « Dans le cas des affaires de pédocriminalité liées à de l’IA générative, il n’y a pas de personnes physiques qui soient à proprement parler victime. Le rôle des associations est fondamental, que ce soit dans des procès criminels ou correctionnels ».
Outre l’anticipation indéniable dont les juridictions doivent faire preuve, l’avocat rappelle l’importance du « problème d’origine » de ces délits. « Leurs auteurs ne devraient même pas pouvoir créer ce type d’images. C’est pourquoi il est essentiel de se saisir de cet enjeu à bras-le-corps et de collaborer avec les fondateurs des entreprises en cause. Des plateformes telles que Coco.gg (NDLR : plaque tournante de pratiques illicites, notamment pédopornographiques) ont été fermées, il faudrait au même titre que l’ensemble des logiciels puissent détecter et détruire immédiatement un contenu insoutenable, ou au moins le signaler automatiquement ».
Pour Angèle Lefranc, le législateur doit s’emparer de la question de la responsabilité des entreprises, et ce, à l’échelle européenne. « Nous menons actuellement un plaidoyer pour que les réglementations européennes puissent, dans certaines conditions respectueuses de la vie privée, obliger les plateformes à détecter les contenus pédocriminels. Les efforts volontaires des sociétés ne suffisent pas. Ces changements doivent par ailleurs se faire ressentir dans une optique de prévention. Dans la course à la publication du meilleur modèle d’IA générative que l’on observe actuellement, la protection des enfants n’est pas du tout pensée, alors qu’il faudrait qu’elle le soit dès la phase de développement d’une technologie ».
Très controversé, le projet de règlement européen « Chat Control », en cours d’étude au Conseil de l’Europe, entend lutter contre la pédocriminalité en ligne en obligeant les plateformes à scanner les messages privés, même chiffrés, qui s’échangent sur leur messagerie. Si une majorité d’états le soutiennent, certains pays comme l’Allemagne et les Pays-Bas s’y sont farouchement opposés. Réponse le 14 octobre, date prévue pour le vote.
THÉMATIQUES ASSOCIÉES
Infos locales, analyses et enquêtes : restez informé(e) sans limite.
Recevez gratuitement un concentré d’actualité chaque semaine.
0 Commentaire
Laisser un commentaire
Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *