À mesure que les dispositifs de vidéosurveillance se développent et se multiplient, Big Brother ne cesse d’inquiéter les populations civiles. L’année dernière, les intenses manifestations à Hong Kong avaient mis en lumière les systèmes de reconnaissance faciale utilisés par la police. Cette fois, c’est au tour des États-Unis et de leur système judiciaire d’être au cœur de ces mêmes préoccupations.
À voir aussi sur Konbini
Le New York Times vient de sortir une enquête révélant l’existence de l’entreprise Clearview AI, start-up spécialisée dans la reconnaissance faciale. Selon le journal, elle pourrait “mettre fin à la vie privée telle que nous la connaissons”, car cette technologie serait utilisée par des centaines d’institutions régaliennes à travers le pays, des simples commissariats au puissant FBI.
Une base de données orwellienne
L’utilisation de technologies de reconnaissance faciale par les forces de l’ordre n’est pas nouvelle. Mais la méthode Clearview AI, elle, est inédite. L’entreprise dispose d’une panoplie de plus de trois milliards d’images extraites d’Internet. Nul besoin d’être allé fouiner sur le dark web pour ça. Elles proviennent tout simplement de Facebook ou encore YouTube, et sont toutes compilées par leur robot d’indexation.
En faisant cela, la compagnie aurait violé toutes les conditions d’utilisation de ces sites Web relatives aux données personnelles. Le New York Times estime même que cette base de données “va bien plus loin que tout ce qui a été conçu ou même réfléchi par le gouvernement américain ou les géants de la Silicon Valley”.
© Clearview
Les instances qui utilisent cette application peuvent ainsi uploader une photo de n’importe quelle personne sur laquelle on voudrait enquêter. Les algorithmes de Clearview AI se chargent ensuite de faire des recoupements avec les informations publiques que l’on trouve sur Internet.
Le système aurait déjà aidé la police à résoudre de nombreux délits, des vols à l’étalage à l’usurpation d’identité, mais aussi des crimes – on parle de meurtre ou encore d’exploitation sexuelle d’enfants. La journaliste du New York Times, Kashmir Hill, qui a enquêté sur Clearview AI, a eu ainsi la surprise de savoir que son visage avait été recherché par la police suite aux questions qu’elle avait posées.
“Pendant que l’entreprise m’évitait, elle me surveillait également. À ma demande, un certain nombre de policiers avaient diffusé ma photo via l’application Clearview. Ils ont rapidement reçu des appels téléphoniques de représentants d’entreprises leur demandant s’ils parlaient aux médias – un signe que Clearview a la capacité de surveiller qui les forces de l’ordre recherchent.”
“Les possibilités d’armement sont infinies”
Les expert·e·s interrogé·e·s ont émis nombre d’inquiétudes. Eric Goldman, codirecteur du High Tech Law Institute de l’université de Santa Clara, estime que ces technologies pourraient servir des scenarii dystopiques : “Imaginez un officier de police qui voudrait traquer des partenaires romantiques potentiels, ou un gouvernement étranger qui l’utiliserait pour chercher des secrets sur les gens afin de les faire chanter ou de les jeter en prison.”
De plus, l’utilisation d’algorithmes de reconnaissance faciale est loin d’être exempte de failles. Images truquées, biais empiriques, faux positifs… Nombreuses pourraient être les erreurs commises. Les défenseur·e·s de la vie privée craignent, eux, une généralisation de ce qu’ils nomment un “état permanent de surveillance policière”.
Selon Woodrow Hartzog, professeur de droit et d’informatique à la Northeastern University de Boston, Clearview est la preuve ultime preuve que la reconnaissance faciale doit être radicalement bannie :
“Nous avons espéré que l’industrie fasse des efforts pour s’auto-contrôler et ne pas adopter de technologies aussi risquées, mais aujourd’hui ces barrières se brisent parce qu’il y a tellement d’argent sur la table […]. Je ne vois aucun chemin d’avenir où nous pourrions réellement tirer avantage de cette technologie de reconnaissance faciale sans qu’il n’y ait d’abus de la surveillance qui l’accompagne. La seule façon de l’arrêter est de l’interdire.”