Oui, vous pouvez payer pour obtenir des images de Gaza bombardée et de l’État d’Israël générées par IA

Publié le par Konbini arts,

© Mahmud Hams/AFP

Le flou juridique (et moral) autour des intelligences artificielles créatives ouvre la porte à toujours plus de désinformation et de propagande.

A voir aussi sur Konbini

L’essor des intelligences artificielles créatives a multiplié les possibilités iconographiques et, par conséquent, les interrogations quant aux images d’actualité qui inondent nos écrans chaque jour. Après le pape en Balenciaga, Macron encerclé de CRS ou un vieillard ensanglanté arrêté par la police en pleine manifestation contre les retraites, c’est la situation en Palestine qui a polarisé l’intérêt des créateur·rice·s d’images artificielles.

Publicité

Étrangement, Adobe Stock – qui a fini par céder aux sirènes de l’intelligence artificielle, tout comme Getty Images – voit pulluler sur sa plateforme de fausses images de Gaza et de l’État d’Israël. Si certains fichiers portent la précision “Illustration créative artificielle”, comme cette image d’“Immeubles détruits dans l’État d’Israël”, d’autres ne sont pas présentés comme faux, à l’instar de ces “Immeubles détruits par des bombes lancées depuis la bande de Gaza”. Une fois téléchargées depuis la plateforme, les images peuvent être partagées sur n’importe quel site, réseau et média sans que ne soit précisée leur nature artificielle.

Publicité

Photo générée artificiellement disponible sur la banque d’images Adobe Stock.

Il était évident que l’IA allait représenter un risque dans les contextes de conflits internationaux, notamment ceux qui, à l’instar de la Palestine, polarisent autant de débats, de propagande et de désinformation. Mais ici, il ne s’agit pas seulement d’anonymes qui créent des images dans leur coin : il s’agit de photos générées artificiellement qui se retrouvent en vente sur des banques d’images en ligne très consultées.

Publicité

Adobe ordonne à ses utilisateur·rice·s de “ne pas soumettre de travaux générés d’après des prompts basés sur des personnes, des lieux ou des propriétés sans avoir le droit de le faire”, souligne ViceFace à la multiplication de ces images, il semble urgent pour les plateformes d’intelligences artificielles créatives tout comme pour les banques d’images qui leur laisse le champ libre de clairement se positionner afin d’éviter davantage de désinformation et de propagande.