Publicité
Joyeux Noël ! Si vous avez la chance d’être présentement à Londres pour faire des achats de Noël et que vous avez traîné vos guêtres du côté de Soho, Piccadilly et Leicester Square, votre visage a peut être été capturé par une caméra de surveillance, été analysé par un logiciel de reconnaissance faciale, comparé à une base de données biométriques de délinquants, criminels et terroristes et – qui sait ? – peut-être été stocké en lieu sûr dans les serveurs du gouvernement britannique, ou tout simplement été détruit. Pourquoi ? Comment ? Est-ce un cauchemar totalitaire ? Autant de questions qui vous traversent peut-être l’esprit si les notions de vie privée et de consentement vous tiennent à cœur, et c’est bien normal.
Publicité
Depuis hier, donc, le Metropolitan Police Service londonien (la Met, pour les intimes) teste son dispositif de reconnaissance faciale, nommé LFR (pour Live Facial Recognition), sur les foules. En théorie, le système peut scanner jusqu’à 300 visages par seconde, selon l’ONG Big Brother Watch.
Dans cette nouvelle itération, les caméras sont installées sur des van banalisés, et fonctionnent pendant huit heures. “La technologie sera utilisée ouvertement avec une présence claire d’uniforme et des dépliants informatifs seront distribués au public”, rassure la Met dans un communiqué, ajoutant que “des posters informatifs seront également placés dans la zone”.
Publicité
Ceux qui refusent de se soumettre à la reconnaissance faciale “ne seront pas perçus comme suspects”, conclut la Met dans sa grande miséricorde. Le cauchemar orwellien est donc évité, même si on ne voit pas comment quiconque pourra s’apercevoir qu’il a été scanné par le dispositif – d’autant que les posters sont particulièrement discrets, à en croire les photos prises par l’ONG Liberty.
100 % d’échec depuis le mois de mai
Outre le fait que ce genre de dispositif donne immédiatement envie de fuir la ville pour aller vivre seul dans la forêt, l’initiative de la Met pose deux autres problèmes de taille, résumés par The Register avec le sarcasme qui le caractérise : l’absence de gouvernance de la politique de surveillance de masse actuellement déployée et, pire encore, son taux d’efficacité parfaitement ridicule.
Publicité
À la suite des précédents tests effectués par la police lors du carnaval de Notting Hill et dans un centre commercial de Stratford, l’ONG Big Brother Watch a pu se procurer légalement les résultats de la surveillance : deux positifs, zéro arrestation, un taux de “faux positifs” – d’erreur, concrètement – de… 98 %.
En moyenne, selon l’ONG, le taux de “faux positif” est de 91 % et il atteindrait un 100 % parfait pour les signalement effectués depuis mai dernier. En mai 2017, la police galloise s’était illustrée en déployant le LFR lors de la finale de la Ligue des Champions à Cardiff, pour un taux d’erreur de 92 %.
Qu’importe : pour les services de police anglais et gallois, qui défendent activement la technologie au point de vanter ses résultats sur Twitter (quand elle en produit, c’est-à-dire rarement), ce taux d’échec est imputable aux opérateurs humains qui assurent une “contre-expertise” des données. Tout serait de la faute des humains, donc.
Publicité
Aux États-Unis, le basculement est déjà en cours
Au-delà de son apparente inefficacité à scanner correctement les visages, le LFR fonctionnerait mal avec les foules et en basse lumière, selon une étude de l’université de Cardiff, ce qui tombe doublement mal quand on souhaite le déployer dans les rues de Londres. D’autre part, précise The Register, il n’existe pour le moment aucun cadre légal pour réglementer le stockage et l’effacement des visages scannés (même s’il est en cours de rédaction), ce qui inquiète les ONG – une campagne de financement a été lancée début décembre par Crowd Watch en vue d’une future procédure légale.
Le gouvernement, lui, enquête sur la question depuis le 3 décembre via l’Information Commission Office. À l’heure actuelle, selon Big Brother Watch, les images sont conservées un mois dans les serveurs de la Met.
Publicité
Enfin, ce genre de dispositif bénéficie largement aux hommes blancs, à en croire plusieurs tests réalisés aux États-Unis. Ars Technica rappelle ainsi que les systèmes de reconnaissance faciale d’Amazon et de Microsoft, pourtant entraînés sur de plus grande bases de données, se sont révélés perméables à des biais ethniques qui désavantageaient certains profils. Un risque qui n’a pas empêché le système de se démocratiser petit à petit outre-Atlantique, soupire le magazine spécialisé. Avec dix tests effectués en 2018 et une évaluation prévue en 2019, la police britannique prend doucement le même chemin.