Le géant japonais de la technologie Hitachi a annoncé le lancement d’un programme de prédiction des crimes, basé sur l’analyse de données.
À l’heure où sort la version série de Minority Report, la réalité du présent se prend de plus en plus sérieusement pour l’univers de science-fiction imaginé en 1956 par Philip K.Dick. Un logiciel capable de prédire, avec une précision infaillible, les crimes sur le point de se produire ? La firme japonaise Hitachi, qui fabrique aussi bien des composants d’ordinateur que des ascenseurs, prétend l’avoir mis en place.
Baptisé Hitachi Visualization Predictive Crime Analytics (PCA), le système sera testé à partir d’octobre dans “une demi-douzaine de villes aux États-Unis… dont l’une pourrait très bien être Washington D.C”, rapporte Quartz. Le système de vidéosurveillance à l’œuvre dans la capitale américaine est en effet géré par Hitachi.
C’est bien beau, mais comment ça fonctionne, alors ? Selon l’entreprise, le PCA n’est rien d’autre qu’un puissant logiciel d’analyse de données couplé à un programme de machine learning, qui permet à l’ordinateur d’affiner ses résultats à chaque nouvelle quantité d’information reçue en apprenant tout seul. Ces données vont des conditions météorologiques au taux de fréquentation des transports en commun, en passant par les données de criminalité existantes et… les conversations sur les réseaux sociaux, par exemple.
À voir aussi sur Konbini
Twitter, la messagerie des gangs
Le machine learning, système anti-préjugés?
La France prépare aussi son Minority Report
La mise en place d’un tel système pose immédiatement deux questions éthiques. La première est de savoir dans quelle mesure les forces de l’ordre peuvent se fier à la prétendue infaillibilité d’un programme, la seconde concerne l’éventualité d’un échec. Comment, dans le cadre d’une prédiction criminelle, savoir si la personne arrêtée est coupable ou innocente, puisque le Droit se base sur la punition d’une action répréhensible commise par un individu ?
Pour Darrin Lipscomb, il faut laisser le PCA prouver tout seul son efficacité : lors des essais, un protocole en double aveugle sera mis en place (comme pour toute étude scientifique), certains commissariats travaillant comme d’habitude tandis que le système tournera en arrière-plan avant, ensuite, de comparer les résultats. D’autres villes, en revanche, suivront immédiatement les directives du PCA. Tous les résultats seront publics, assure Hitachi.
Si une telle initiative vous inquiète mais que vous vous rassurez en vous disant que cela se passe loin de nos frontières, détrompez-vous. Comme l’analysaient très justement Slate et Télérama au printemps dernier, la loi Renseignement (votée puis très largement validée par le Conseil constitutionnel fin juillet) intègre un dispositif qui ressemble dangereusement à la Division Précrime du roman de Philip K.Dick : une “boîte noire dans les équipements de réseau” pour “détecter automatiquement une succession suspecte de données de connexion”.
En langage humain, un algorithme de surveillance des flux de données privées, ou l’équivalent informatique d’une équipe cynophile. Sauf qu’au lieu de renifler l’odeur de la bombe artisanale comme son homologue canin, l’algorithme flaire lui l’odeur – beaucoup plus subtile – du terrorisme potentiel. Potentiel, pas avéré.
En France, depuis juillet, “prévention” et “répression” se rapprochent patiemment de la synonymie. Et apparaît le délit de “pré-terrorisme”, fondé sur la seule présomption de culpabilité et pourtant suffisant pour être écroué. Nouvelle terminologie, nouveaux critères pénaux, nouvelle utilisation de la technologie : tiens, on ne serait pas déjà dans un bouquin de SF ?