Une escroquerie utilisant l’image de l’acteur Alain Delon, récemment décédé, pour attirer les internautes vers un casino en ligne, a été visionnée plus de 2 millions de fois sur les réseaux sociaux, a constaté mercredi un journaliste de l’AFP. Dévoilée sur X/Twitter par un compte qui lutte contre les arnaques en ligne, cette vidéo usurpe l’identité du comédien décédé il y a dix jours, en utilisant sa voix et son image.
Publicité
“Si vous regardez cette vidéo, c’est que je suis déjà mort. Je vous donnerai 100 000 euros si vous ne pouvez pas gagner dans mon casino en ligne”, dit une imitation de l’acteur dans cette vidéo. Cette fausse publicité a depuis été désactivée, ont constaté mercredi des journalistes de l’AFP, mais des vidéos alternatives avec l’acteur et redirigeant vers le casino subsistent.
Publicité
Sollicité par l’AFP, Meta a rappelé qu’il était contraire aux règles de la plateforme de publier des publicités avec des images de personnalités publiques de façon trompeuse afin de tenter d’escroquer des gens. Le géant des réseaux sociaux a ainsi expliqué avoir créé des modèles visant à détecter spécifiquement les contenus viraux utilisant des images de célébrités afin de mieux lutter contre eux.
Les deepfakes, ces contenus truqués en utilisant l’intelligence artificielle (IA) qui pullulent sur Internet, alimentent une vague de désinformation qui touche de nombreuses personnalités comme la star de la chanson Taylor Swift et suscitent l’inquiétude avant des échéances électorales comme la présidentielle américaine.
Publicité
Fin juillet, le patron de X/Twitter, Elon Musk, avait fait face à une pluie de critiques après avoir partagé un deepfake à ses 192 millions d’abonnés. Elle montrait Kamala Harris et une voix imitant celle de la candidate démocrate qualifiant le président Joe Biden de sénile et l’accusant de “ne pas du tout savoir gérer le pays”.