Oups, l’IA de Google peut vous tuer si vous demandez une recette d’huile aromatisée

Publié le par Pierre Bazin,

Un utilisateur a bien fait de vérifier ce que lui proposait une IA pour une simple recette de cuisine.

A voir aussi sur Konbini

Mieux vaut ne pas accorder tout de suite sa pleine confiance aux IA. C’est ce qu’a découvert un utilisateur de Google Gemini, le modèle de langage du géant américain qui utilise l’IA générative de la même manière que ChatGPT. En effet, cet utilisateur a publié sur Reddit en titrant “Google Gemini a essayé de me tuer”, expliquant qu’il avait simplement demandé s’il pouvait infuser de l’ail dans de l’huile d’olive sans avoir besoin de la chauffer.

Publicité

Google Gemini lui a répondu par une suite d’instructions qui paraissent, sur le papier, plutôt sérieuses : préparer la gousse d’ail, la placer dans un récipient d’huile d’olive, fermer hermétiquement, patienter une semaine en laissant le récipient à température ambiante, filtrer le liquide obtenu et enfin transférer le résultat dans une bouteille.

Publicité

Le problème, c’est qu’en exécutant minutieusement ces étapes, l’utilisateur a commencé à voir apparaître de petites bulles de CO2 à la surface de son mélange. Après avoir recherché sur Google (le moteur de recherche, pas l’IA cette fois), il a compris qu’il venait de créer une culture de toxines botuliques, des neurotoxines bactériennes pouvant donc faire contracter le botulisme, une maladie paralytique extrêmement dangereuse.

L’ail peut souvent contenir ce genre de bactérie mais pour qu’elle se développe en toxine botulique, il faut plusieurs conditions : l’absence d’oxygène, une certaine humidité, peu d’acidité et une température relativement tempérée.

Publicité

Donc en proposant de faire un bocal hermétique rempli d’huile d’olive et d’ail, le tout placé à température ambiante, l’IA Google Gemini a proposé le parfait environnement pour cultiver des toxines botuliques, considérées comme les plus dangereuses des toxines trouvables à l’état naturel. Et oui, le botulisme peut effectivement être mortel.

En effet, on est donc bien loin du projet d’huile d’olive aromatisée à l’ail. “Si je n’avais pas vérifié 3-4 jours plus tard […], j’aurais ‘darwinné’ toute ma famille”, ironise l’utilisateur en faisant référence aux Darwin Awards, des “prix” officieux décernés aux morts les plus stupides de l’humanité.

Cela rappelle surtout qu’il ne faut pas accorder de confiance aveugle aux modèles de langage qui utilisent l’intelligence artificielle et que peu importe ce que les IA racontent, il faut toujours vérifier auprès de sources bien humaines – sur Google par exemple, malgré l’ironie de la situation.

Publicité