La classe politique états-unienne et les fans de Taylor Swift ont exprimé leur indignation alors que de fausses images pornographiques mettant en scène la chanteuse, créées grâce à l’IA générative, ont été largement partagées ces derniers jours sur X (ex-Twitter) et d’autres plateformes. L’une de ces images a ainsi été vue plus de 47 millions de fois sur le réseau social. Selon les médias locaux, l’image est restée sur X pendant plus de 17 heures avant d’être supprimée. Les fausses images (deepfakes) pornographiques de femmes célèbres, mais visant également beaucoup de personnes anonymes, ne sont pas nouvelles mais le développement de programmes d’intelligence artificielle générative risque de produire un flux incontrôlable de contenus dégradants, selon de nombreux activistes et régulateur·rice·s.
À voir aussi sur Konbini
Le fait que de telles images touchent cette fois-ci Taylor Swift, au deuxième rang des artistes les plus écouté·e·s au monde sur la plateforme Spotify, pourrait cependant aider à sensibiliser les autorités au problème, étant donné l’indignation de ses millions de fans. “Le seul ‘point positif’ à ce que cela arrive à Taylor Swift est qu’elle pèse suffisamment pour qu’une loi soit votée permettant d’éliminer ça. Vous êtes des malades”, a ainsi posté sur X Danisha Carter, une influenceuse disposant d’une audience de plusieurs centaines de milliers de personnes sur les réseaux sociaux.
“Alarmés”
La Maison-Blanche a également exprimé sa préoccupation sur le sujet. “Nous sommes alarmés par les informations faisant état de la circulation de ces fausses images”, a déclaré devant la presse Karine Jean-Pierre, la porte-parole de l’exécutif. Elle a rappelé le rôle important des réseaux sociaux dans la modération des contenus. “Malheureusement, trop souvent, nous savons que le manque d’application des règles a un impact disproportionné sur les femmes et les filles, qui sont les principales cibles du harcèlement en ligne”, a-t-elle ajouté.
X est connu pour avoir des règles sur la nudité moins strictes qu’Instagram ou Facebook. Apple et Google ont un droit de regard sur les contenus circulant sur les applications via les règles qu’ils imposent sur leurs systèmes d’exploitation mobile, mais ils ont toléré cette situation sur X, jusqu’à présent. Dans un communiqué, X a assuré avoir “une politique de tolérance zéro” sur la publication non consentie d’images de nudité. X a rendu inaccessible la recherche “Taylor Swift” dans son moteur pendant quelques heures afin de limiter la propagation. La plateforme a déclaré “retirer concrètement toutes les images identifiées” de la chanteuse et “prendre les mesures appropriées contre les comptes les ayant postées”. Les représentant·e·s de la chanteuse ne se sont, pour l’heure, pas exprimé·e·s.
“Ce qui est arrivé à Taylor Swift n’est pas nouveau, des femmes sont la cible de fausses images sans leur consentement depuis des années”, a rappelé pour sa part l’élue démocrate Yvette Clarke, qui a soutenu une loi pour lutter contre le phénomène. “Avec les avancées de l’IA, créer ces images est plus simple et moins cher.” Tom Kean Jr., membre républicain du Congrès, a averti que “l’IA progresse plus rapidement que les garde-fous nécessaires. Que la victime soit Taylor Swift ou n’importe quel jeune de notre pays, nous devons ériger des barrières pour lutter contre ce phénomène préoccupant”. Une étude réalisée en 2019 estimait que 96 % des vidéos deepfakes étaient de nature pornographique. Selon le magazine Wired, 113 000 vidéos de ce type ont été mises en ligne sur les principaux sites pornographiques pendant les neuf premiers mois de 2023.