Face à l’exploitation sauvage de données par certains développeurs d’intelligence artificielle, des artistes piègent volontairement leurs créations pour les rendre inutilisables, avec l’aide de chercheur·se·s universitaires. Paloma McClain est une illustratrice états-unienne. Plusieurs logiciels d’IA générative permettent déjà de créer des images inspirées de son style, alors que l’artiste n’a jamais donné son accord et n’en tirera rien financièrement. “Cela me dérangeait”, explique la dessinatrice, basée à Houston. “Je ne suis pas une artiste connue, mais j’étais mal à l’aise à l’idée que mon travail serve à entraîner” un modèle d’IA, explique-t-elle.
À voir aussi sur Konbini
Pour y remédier, elle a passé ses œuvres à travers le logiciel Glaze, un programme qui ajoute à ses illustrations des pixels, invisibles à l’œil humain, pour perturber le travail de l’IA. Après ce traitement, les images créées sont floues, les visages brouillés, sans comparaison avec les originaux. “Nous essayons de fournir les outils technologiques pour protéger les artistes humain·e·s des abus des modèles d’IA générative”, explique Ben Zhao, chercheur à l’Université de Chicago, dont l’équipe a créé Glaze.
Alerté en novembre 2022, ce professeur d’informatique a développé le logiciel en quatre mois à peine, se servant de travaux antérieurs destinés à perturber la reconnaissance faciale. “On a travaillé à toute vitesse, parce que nous savions que le problème était grave”, raconte Ben Zhao. “Beaucoup de gens étaient en souffrance.” Des géants de l’IA générative ont passé des accords pour s’assurer des droits d’utilisation de certains contenus, mais la grande majorité des données, images, textes ou sons utilisés pour développer des modèles l’a été sans consentement explicite.
Depuis son lancement, Glaze a été téléchargé plus de 1,6 million de fois, selon le chercheur, dont l’unité s’apprête à lancer un nouveau programme, baptisé Nightshade. Il est axé sur les prompts que l’utilisateur·rice d’un modèle d’IA générative soumet pour obtenir une nouvelle image. Il vise à faire dérailler l’algorithme, qui proposera ensuite, par exemple, une image de chat alors qu’un chien a été demandé.
Autre initiative, celle de la start-up Spawning, qui a mis au point Kudurru, un logiciel qui détecte les tentatives de collecte massive sur des plateformes d’images. L’artiste a alors le choix de bloquer l’accès à ses travaux ou d’envoyer une autre image que celle qui était demandée, “ce qui revient à empoisonner” le modèle d’IA en développement et d’affecter sa fiabilité, décrit Jordan Meyer, cofondateur de Spawning. Plus de mille sites Internet sont déjà intégrés au réseau Kudurru. Spawning a aussi créé Have I Been Trained?, un site qui permet de savoir si des images ont alimenté un modèle d’IA et d’offrir à leur propriétaire la possibilité de les protéger contre de futures utilisations non autorisées.
Protéger aussi la voix
Au-delà de l’image, des chercheur·se·s de l’université de Washington à St. Louis se sont intéressé·e·s au son et ont mis au point AntiFake. Ce logiciel enrichit un fichier son de bruits supplémentaires, imperceptibles à l’oreille humaine, qui rendent impossible l’imitation crédible d’une voix humaine, détaille Zhiyuan Yu, thésard à l’origine du projet. Le programme vise notamment à empêcher les deepfakes. L’équipe, supervisée par le professeur Ning Zhang, a récemment été contactée par les producteur·rice·s d’un podcast à succès qui souhaitaient le protéger de détournements, selon Zhiyuan Yu.
S’il n’a, pour l’instant, été utilisé que pour du langage parlé, AntiFake pourrait également protéger les voix de chanteur·se·s, estime le chercheur, dont le logiciel est en accès libre et gratuit. L’unité de Ben Zhao a, elle, été approchée par “plusieurs sociétés qui veulent utiliser Nightshade pour préserver leurs images et leur propriété intellectuelle”, selon l’universitaire de Chicago. Il n’est pas opposé à ce que des entreprises, même importantes, utilisent son programme.
“Le but, c’est que les gens puissent protéger leurs contenus, qu’il s’agisse d’artistes individuellement ou de sociétés avec énormément de propriété intellectuelle”, fait valoir Ben Zhao. Dans le cas de Spawning, l’idée n’est pas seulement de faire obstruction mais, aussi, dans un second temps, de “permettre aux gens de s’organiser pour vendre leurs données moyennant rémunération”, précise Jordan Meyer, qui annonce le lancement d’une plateforme début 2024. “La meilleure solution”, selon lui, “serait un monde dans lequel toutes les données utilisées pour l’IA sont soumises à consentement et à paiement. Nous espérons pousser les développeurs dans cette direction.”