L’éditeur de Pokémon GO aurait-il créé la plus grande feinte pour prendre toutes nos données personnelles ?

L’éditeur de Pokémon GO aurait-il créé la plus grande feinte pour prendre toutes nos données personnelles ?

Image :

PJPhoto69

Mauvaise nouvelle pour les dresseurs qui ont fait des dizaines de kilomètres pour avoir un Léviator.

Depuis son lancement en 2016, Pokémon GO, le jeu phare de Niantic, son éditeur, a attiré des millions de joueurs à travers le monde. Cependant, des révélations récentes ont secoué les 90 millions de joueurs mensuels, en novembre 2024. Les données collectées par les joueurs, via leurs déplacements et scans de lieux dans le jeu, sont utilisées pour entraîner une intelligence artificielle (IA) appelée Large Geospatial Model (LGM). Ce modèle vise à améliorer la compréhension spatiale des machines, avec des applications dans la robotique, les systèmes autonomes et la réalité augmentée. Une initiative en soi respectable, mais le fond du problème ne réside pas dans le modèle de cette intelligence artificielle mais dans la manière de l’entraîner.

À voir aussi sur Konbini

Niantic ou Ulysse et son cheval de Troie

Pokémon GO est un jeu d’une licence connue et reconnue, qui a marqué un nombre incalculable de personnes dans le monde. La promesse du jeu est donc inratable : pouvoir se balader dans les rues et chasser du Pokémon. Le concept est si novateur qu’à sa sortie Pokémon GO aurait enregistré 200 millions de joueurs en pic et en simultané à l’été 2016. Niantic a donc une base de données colossale pour opérer un processus malsain.

Ce processus repose sur des millions d’images et de scans fournis par les joueurs, souvent à leur insu. Niantic exploite notamment sa technologie Lightship VPS, qui permet de localiser avec précision des objets virtuels dans le monde réel. Si cela a permis des fonctionnalités franchement intéressantes comme les Pokémon Playgrounds, cela soulève aussi des questions éthiques. Selon 404 Media, les joueurs n’étaient pas informés que leur participation servirait à former une IA à des fins dépassant largement le cadre ludique. Parce que, certes, on autorise un tas de trucs pour avoir une expérience plutôt immersive, mais vraiment pas pour avoir des photos de famille sur des serveurs appartenant à des tiers.

Forcément, les critiques se multiplient face au manque de transparence. Des inquiétudes émergent aussi sur l’utilisation future de ces données, par exemple la revente à d’autres entreprises voulant faire du profit à outrance. Des scénarios controversés, comme un usage potentiel pour des technologies militaires, ont été évoqués. Niantic n’a pas précisé les limites qu’elle impose à l’utilisation de ces informations, alimentant ainsi un débat sur la vie privée et les dérives possibles de l’IA. Ceci étant, il faut avoir en tête que TOUTES nos applications prennent énormément de données avec un manque clair de transparence, notamment TikTok ; ce sera un sujet pour une autre chronique.