Il y a un VRAI problème avec les nudes générés par IA chez les jeunes

Il y a un VRAI problème avec les nudes générés par IA chez les jeunes

Image :

© HBO

photo de profil

Par Donnia Ghezlane-Lala

Publié le

Selon une étude, un jeune sur dix aurait recours à l’intelligence artificielle pour créer des nudes d’autres mineur·e·s.

Une récente étude de Thorn montre qu’un jeune sur dix aurait eu recours à l’intelligence artificielle pour générer des photos dénudées d’autres mineur·e·s. L’association états-unienne, qui a pour “mission de protéger le droit de tous·tes les enfants à avoir une enfance joyeuse en créant un Internet plus sécurisé et en les défendant face aux agressions sexuelles”, est la première à enquêter sur ce problème, à chercher à en extraire des statistiques et données. 

À voir aussi sur Konbini

1 040 mineur·e·s faisaient partie de l’échantillon de personnes interrogées, dans une période allant du 3 novembre au 1er décembre 2023, nous dit un rapport intitulé “Perspectives des jeunes sur la sécurité en ligne, 2023”, que le média indépendant 404 a pu étudier. Ces jeunes avaient entre 9 et 17 ans et ont été sélectionné·e·s via leurs tuteur·rice·s légaux·les (donnant systématiquement une autorisation officielle) ou par l’intermédiaire des enfants déjà interrogé·e·s (toujours avec une autorisation officielle). Un·e mineur·e sur dix a déclaré que ses ami·e·s ou camarades de classe avaient eu recours à des IA, et dans cet échantillon, un enfant sur dix ne souhaitait pas se prononcer.

Une étude bancale mais…

Selon 404, cette étude menée en partenariat avec le cabinet de recherche BSG serait quelque peu approximative. 404 salue les conclusions tirées mais critique l’alarmisme et la méthodologie d’autres études de Thorn, comme celle qui enquêtait sur le partage de nudes auto-générées (donc, non trafiquées par un tiers via une IA). D’après le média indépendant, Thorn aurait produit une étude biaisée en prenant aussi en compte les sextos privés entre deux jeunes consentant·e·s, et qui ne sont donc pas envoyés sur l’Internet public.

© Thorn

Thorn est également un organisme qui n’a pas fait preuve de beaucoup d’éthique par le passé. En effet, l’association a par exemple donné aux forces de l’ordre leur outil permettant de répertorier les pubs en ligne de travailleuses du sexe. 404 a également enquêté sur la mystérieuse collaboration de Thorn avec des grosses boîtes de la tech comme Google, Meta ou encore Microsoft, qui ne courent qu’après vos données, toujours, bien sûr, avec la noble intention de “créer un Internet plus sécurisé” afin d’empêcher la diffusion d’images pédopornographiques…

Autre ironie : Thorn est l’association fondée par l’acteur Ashton Kutcher. Oui, le même qui a défendu son co-acteur de That ’70s Show et membre de l’Église de scientologie, Danny Masterson, accusé et condamné de viol (par soumission chimique) sur deux femmes également scientologues, survenus entre 2001 et 2003. Malgré le soutien d’Ashton Kutcher et Mila Kunis, l’acteur a écopé de la peine maximale en septembre 2023, soit trente ans de prison, et a fait appel auprès du tribunal de Los Angeles. Après ce scandale, Ashton Kutcher a démissionné de son poste chez Thorn, décrédibilisant totalement son association.

… il y a un vrai problème qu’il faut régler

Si l’étude est à prendre avec des pincettes, cela ne retire pas qu’il y a un vrai problème chez les jeunes, dont il faut se saisir. En d’autres termes, il faut un “cap clair” concernant l’IA, les deepfakes et la (pédo)pornographie, face à la multiplication des applications de nudification et leur utilisation par un jeune public. Chaque nouvelle application est de plus en plus simple à utiliser et ne nécessite pas de compétences spéciales, si bien que cette technique néfaste est devenue accessible à tous.

En août dernier, cinq jeunes étaient mis en cause pour des photos dénudées d’adolescentes générées par intelligence artificielle. Ces délits se sont produits en Espagne, et les photos de ces nudes artificiels circulaient dans des messageries en ligne, rapporte l’AFP. Plus tôt, en février 2023, un lycée de l’État de Washington a connu le chaos après que des élèves ont utilisé une application de nudification sur leurs profs et camarades, et ont fait circuler ces photos. Le recours à ces applications a contaminé d’autres écoles du pays, rapporte 404.

En 2020, on vous parlait d’une start-up qui générait des “nudes qui n’existent pas” pour un dollar. En 2019, on écrivait sur DeepNude, une terrifiante app capable de créer des faux nudes et de déshabiller les femmes. En avril dernier, c’est NUCA qui faisait parler d’elle, avec son appareil photo nudificateur. Pas plus tard qu’il y a deux jours, Jenna Ortega se confiait sur les deepfakes nudes d’elle-même, qu’elle a reçus quand elle avait 14 ans, et qui avaient été générés à l’aide de l’IA. C’était pour cette raison que l’enfant star avait quitté X/Twitter.

Il faudrait que les applications, réseaux sociaux et sites pornographiques – qui participent à la diffusion massive de ces deepfakes – entraînent leurs IA à discerner réellement le vrai du faux et suppriment automatiquement tout contenu suspecté. Face à la recrudescence des IA créatives, Instagram a tenté de créer une mention pour toutes les photos modifiées par IA mais son outil n’était malheureusement pas au point. Dans un monde idéal, il faudrait aussi que toute application de nudification ne puisse jamais voir le jour.