L’essor des intelligences artificielles créatives a multiplié les possibilités iconographiques et, par conséquent, les interrogations quant aux images d’actualité qui inondent nos écrans chaque jour. Après le pape en Balenciaga, Macron encerclé de CRS ou un vieillard ensanglanté arrêté par la police en pleine manifestation contre les retraites, c’est la situation en Palestine qui a polarisé l’intérêt des créateur·rice·s d’images artificielles.
Publicité
Étrangement, Adobe Stock – qui a fini par céder aux sirènes de l’intelligence artificielle, tout comme Getty Images – voit pulluler sur sa plateforme de fausses images de Gaza et de l’État d’Israël. Si certains fichiers portent la précision “Illustration créative artificielle”, comme cette image d’“Immeubles détruits dans l’État d’Israël”, d’autres ne sont pas présentés comme faux, à l’instar de ces “Immeubles détruits par des bombes lancées depuis la bande de Gaza”. Une fois téléchargées depuis la plateforme, les images peuvent être partagées sur n’importe quel site, réseau et média sans que ne soit précisée leur nature artificielle.
Publicité
Il était évident que l’IA allait représenter un risque dans les contextes de conflits internationaux, notamment ceux qui, à l’instar de la Palestine, polarisent autant de débats, de propagande et de désinformation. Mais ici, il ne s’agit pas seulement d’anonymes qui créent des images dans leur coin : il s’agit de photos générées artificiellement qui se retrouvent en vente sur des banques d’images en ligne très consultées.
Publicité
Adobe ordonne à ses utilisateur·rice·s de “ne pas soumettre de travaux générés d’après des prompts basés sur des personnes, des lieux ou des propriétés sans avoir le droit de le faire”, souligne Vice. Face à la multiplication de ces images, il semble urgent pour les plateformes d’intelligences artificielles créatives tout comme pour les banques d’images qui leur laisse le champ libre de clairement se positionner afin d’éviter davantage de désinformation et de propagande.