Depuis plusieurs jours, des utilisateurs d’Instagram tombent sur des vidéos particulièrement choquantes en scrollant leur feed. Meurtres, corps mutilés, accidents mortels… Ces images, qui n’auraient jamais dû se retrouver dans les recommandations, sont apparues dans les Reels de certains utilisateurs, y compris des mineurs.
À voir aussi sur Konbini
L’algorithme responsable dans tout ça ?
Tout a commencé avec des signalements d’internautes. Sur Twitter et Reddit, plusieurs utilisateurs racontent avoir vu des vidéos violentes dans leurs recommandations. Certaines montrent des scènes de guerre, d’autres des accidents ou des actes de torture. Un détail trouble encore plus : des personnes ayant activé le “contrôle du contenu sensible” affirment avoir tout de même reçu ces vidéos.
Comme souvent, l’algorithme d’Instagram a joué un rôle clé. Conçu pour maximiser l’engagement, il privilégie les contenus qui génèrent des réactions, même négatives. Résultat, ces vidéos ont accumulé des millions de vues en quelques heures, comme le rappelle le média américain TechCrunch.
Meta réagit
Face à la multiplication des témoignages, Meta a publié un communiqué. L’entreprise reconnaît une erreur et assure avoir corrigé le problème. Un porte-parole a déclaré : “Nous avons corrigé un bug qui a conduit certains utilisateurs à voir du contenu qui n’aurait pas dû être recommandé. Nous nous excusons pour cette erreur.” Aucune précision sur l’origine du bug ni sur la façon dont ces vidéos se sont retrouvées dans les recommandations.
Un problème qui dépasse ce bug
Comme le rappelle Reuters, ce n’est pas la première fois qu’Instagram est critiqué pour la gestion de son contenu. Le réseau social a déjà été pointé du doigt pour des recommandations douteuses, notamment sur des sujets liés à la violence ou à la désinformation.