Début janvier, le New York Times révélait la puissance de l’entreprise Clearview AI. La “start-up spécialisée dans la reconnaissance faciale” aurait déjà aspiré plus de trois milliards de photographies, que ses algorithmes sont capables de recouper avec le maximum d’informations publiques disponibles sur Internet. L’entreprise se targue de rendre disponibles sept fois plus de visages que le FBI et 350 fois plus que la police de Los Angeles.
Publicité
Nombre d’institutions gouvernementales utiliseraient les services de Clearview pour enquêter sur des personnes de leur choix. Si le système aurait “aidé la police à résoudre de nombreux délits”, il permet aussi des recherches effectuées en sous-marin. Kashmir Hill, la journaliste en charge de l’enquête pour le New York Times, démontre que Clearview épie les personnes recherchées par la police via l’application.
Publicité
Récemment, l’entreprise aurait signé un contrat avec ICE (l’agence américaine, très controversée, de contrôle des frontières et de l’immigration), rapporte TechCrunch – preuve supplémentaire de son pouvoir et des problématiques éthiques qu’elle charrie.
Un contre-outil : mélanger pour fausser
Publicité
Dans une nouvelle enquête diffusée cet été, Kashmir Hill présente un outil pensé pour contrer ce système de pistage d’informations. Imaginé par une équipe de recherche de l’université de Chicago, Fawkes modifie (ou “masque”) de façon supposée imperceptible nos portraits, afin qu’ils ne puissent pas être reconnus par les logiciels de reconnaissance faciale. Le site a été créé dans “le but de faire disparaître Clearview”, déclare sans ambages Ben Zhao, un professeur d’informatique à l’origine de Fawkes.
Pour modifier les traits d’une personne, le logiciel intègre à son visage les éléments du visage d’une célébrité aux traits les plus différents possibles. Par exemple, pour modifier une photo de l’actrice Gwyneth Paltrow, c’est le visage de l’acteur Patrick Dempsey que Fawkes a sélectionné. Il est fréquent que le visage “mélangé” soit celui d’une personne du sexe opposé. Selon Kashmir Hill, cela donne malheureusement parfois des résultats peu probants :
“Pour essayer l’outil, j’ai demandé à l’équipe de masquer des images de ma famille et moi. J’ai publié les images originales et les images transformées sur Facebook pour voir si elles allaient tromper son système de reconnaissance faciale. Cela a fonctionné : Facebook m’a taguée dans la photo originale, mais pas dans la photo masquée. Cependant, les changements étaient visibles à l’œil nu. Sur les images altérées, j’ai l’air macabre, ma fille de 3 ans a une moustache à cause d’une ombre et on dirait que mon mari a un œil au beurre noir.”
Publicité
La reconnaissance faciale, un monstre indestructible ?
Malgré ces changements, le directeur général de Clearview, Hoan Ton-That, affirme que les altérations portées aux photos de Kashmir Hill n’ont pas empêché son logiciel de la reconnaître. Il déclare également que son entreprise pourrait utiliser les images transformées par Fawkes, afin d’améliorer sa faculté à reconnaître des photos modifiées. Somme toute, la bête ne ferait que grossir et se nourrir de ses opposant·e·s :
Publicité
“Il existe des milliards de photos non modifiées sur Internet, toutes sur des noms de domaines différents. Dans les faits, il est sûrement déjà trop tard pour perfectionner une technologie telle que Fawkes et l’utiliser à grande échelle”, ajoute Hoan Ton-That.
Malgré cela, le logiciel Fawkes aurait été téléchargé plus de 50 000 fois en deux semaines. La preuve que les utilisateur·rice·s ont encore l’espoir de conserver un peu d’anonymat sur les réseaux sociaux.
Publicité