Partout dans le monde, les services de police utilisent des algorithmes de prédiction de la criminalité de plus en plus perfectionnés. Et non moins inquiétants.

Un œil surveille les 13 millions d’habitants de Canton, dans le sud de la Chine. Au nord de la rivière Zhuijang, dans le parc industriel de Thianhe, l’entreprise CloudWalk expérimente une technologie de reconnaissance faciale pour prévenir tout faux pas. Elle est, d’après ses concepteurs, en mesure d’évaluer le taux de dangerosité d’un individu en fonction de son comportement. « La police utilise un système de big data afin de dégager un groupe de personnes suspectes en fonction des endroits où elles vont », explique un porte-parole du groupe. Le risque augmente si quelqu’un « visite fréquemment des aéroports ou des magasins de couteaux. Bien sûr il n’y a rien de mal à acheter un couteau, mais si vous achetez aussi un sac et un marteau, vous devenez suspect. » Ce portrait peut être complété par les informations de la police.

Dans un pays qui compte 176 millions de caméras de vidéo-surveillance, la généralisation de ce système orwellien donnerait à la prévention des crimes un visage aussi tentaculaire qu’inquiétant. La reconnaissance faciale permet déjà de détecter les contrevenants au code de la route et d’offrir aussitôt leurs photos à la vindicte populaire sur des pancartes ou sur Internet. Et ce n’est qu’un début. La Chine prévoit d’investir 150 millions de dollars dans son industrie de l’intelligence artificielle d’ici 2030. Ailleurs dans le monde, des technologies de plus en plus élaborées – mais aussi plus intrusives – sont mises entre les mains de la police ou des agences de renseignement. Le roman de Philip K. Dick, Minority Report, adapté au cinéma en 2002, s’éloigne de la science-fiction.

ANACRIM

Vendredi 28 juillet, dans le bureau de la présidente de la chambre de l’instruction de Dijon, trois personnes interrogent le passé. À l’aube de la retraite, Claire Barbier est encore là, à épousseter un vieux dossier avec deux témoins. Trente ans après l’assassinat du petit Grégory Villemin, ses yeux bleu clair tentent de percer ce qui, parmi les mots de Murielle Bolle et Patrick F., décrit fidèlement les faits. Pour la première fois, leurs vérités se confrontent. De nouveau, chacun replonge dans le sac de souvenirs qu’il traîne depuis trois décennies. Le même maelstrom de dates, de personnages et de lieux est au cœur des conversations.

IBM ANACRIM

Murielle Bolle a-t-elle vu l’enfant, le jour de sa mort, dans la voiture d’un suspect, Bernard Laroche (tué en 1985), comme elle l’a d’abord raconté avant de changer de version ? Cet échange inédit avec son cousin et contradicteur, Patrick F., ne permet toujours pas de le dire. Mais chaque nouvelle information pèse plus lourd qu’avant. Désormais, la justice se sert d’un logiciel appelé ANACRIM afin de brasser et de faire le tri dans les milliers de données. C’est lui qui a poussé les enquêteurs à réexaminer ce dossier antédiluvien.

Conçu aux États-Unis dans les années 1970, ANACRIM s’appuie aujourd’hui sur le logiciel ANB (Analyst Notebook) d’IBM afin de « transformer les données en renseignements ». Pour le dire autrement, elle présente un panorama clarifié des événements à même d’en dégager les cohérences ou les contradictions. Capable d’intégrer à son analyse les appels téléphoniques ou les informations bancaires, ANACRIM a aidé à confondre Michel Fourniret et Emile Louis. Toute les affaires sensibles sont aujourd’hui passées au tamis du logiciel.

Grâce au deep learning (« l’apprentissage profond »), les gendarmes français espèrent lui faire « comprendre » la nature des informations traitées. La police des West Midlands, dans le centre de l’Angleterre, a déjà fixé cet objectif à VALCRI, un système émettant des hypothèses de travail à partir de rapports manuscrits, d’entretiens, de vidéos de surveillance ou de relevés automatiques de plaques minéralogiques. Ainsi, une machine peut-elle cerner un coupable. Mais il y a plus fou encore. Une nouvelle génération de logiciels se targue d’arriver à prédire les crimes, offrant aux forces de maintien de l’ordre les clés pour les déjouer ex ante.

Crédits : Valcri.org

PredPol

Le plus connu de ces programmes, PredPol, fonctionne depuis 2014 à Modesto, un quadrillage de barres grises perdu entre la baie de San Francisco et le Parc national Yosemite. Ville-dortoir sur la route qui relie Sacramento à Los Angeles, elle aurait dû prendre le nom de son fondateur, Ralston, s’il n’avait décliné l’honneur, en 1870. Après avoir été reniée, elle hérita donc de son caractère. Mise en lumière par l’enfant du coin, George Lucas, dans American Graffiti (1973), Modesto la modeste n’en traîne pas moins une sale réputation. Le taux de criminalité y est deux fois plus élevé que celui de la moyenne californienne. John Ridley a d’ailleurs tourné la série American Crime dans ses rues dépouillées.

Pour gérer cette violence, la police locale s’est abonnée aux services de PredPol, une société de prédiction basée non loin de là, dans la cité universitaire de Santa Cruz. Son modèle « emprunte l’idée que les crimes se répètent dans l’espace et le temps et qu’on peut modéliser ce processus de répétition », décrit Bilel Benbouzid, maître de conférences en sociologie au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS)À partir des éléments recueillis par les agents, la start-up conçoit un répertoire de crimes et délits qu’elle cartographie ensuite. Partant du postulat qu’ils sont susceptibles de se reproduire aux mêmes endroits, les agents organisent en conséquence ses patrouilles près des hotspots (les « points chauds »). À Milan, c’est KeyCrime qui est censé déterminer l’endroit où les larcins ont le plus de chances de survenir en fonction d’un historique. Un système similaire, PredVol, donne aux forces de l’ordre de l’Oise des indications sur les prochains vols de voiture.

Ces technologies qui fonctionnent à l’aide d’algorithmes s’inscrivent dans le champ de la « prévention situationnelle », indique Bilel Benbouzid. Aujourd’hui, elles fonctionnent soit au moyen de données spatiales et temporelles, comme PredPol, KeyCrime et PredVol, soit en tirant profit des données personnelles. Aux États-Unis, une kyrielle de sociétés vendent aux juridictions locales des logiciels armés pour évaluer la probabilité de récidive d’un prévenu au regard de son profil. C’est le cas de Compas, développé par la société Northpoint. D’autres solutions, à l’instar du programme Predictice, sont offerts aux justiciables qui veulent pondérer le risque avant d’aller en justice.

« Le marché fonctionne à trois niveau », analyse Bilel Benbouzid. « Il est composé de start-ups qui innovent, de spécialistes de l’analytics et de fournisseurs d’infrastructures informatiques comme IBM et Microsoft. » Il évolue néanmoins puisque ces derniers ont beaucoup absorbé les premiers. Motorola a acheté PublicEngines en 2015, Trimble a repris Omega Group en juillet 2014 et LexisNexis a pris le contrôle de BAIR Analytics. Ces plates-formes auxquelles on peut aussi ajouter Hitachi Visualization Predictive Crime Analytics, CivicScape, ArcMap, Hunchlab ou Mark43, font commerce d’une idée ancienne : les situations portent en elles les crimes.

La reconnaissance faciale est en plein boom en Chine

Palantir

Modesto a eu son équivalent en Angleterre. Située au nord dans Manchester, dans la banlieue de Rochdale, la petite ville de Kirkholt était touchée, au milieu des années 1980, par un taux de cambriolages deux fois plus élevé que celui des zones à « haut risque » du pays. Mandaté par le ministère de l’Intérieur pour trouver des solutions, le professeur de criminologie Ken Pease s’aperçoit rapidement que les victimes sont souvent les mêmes. Dès lors, il suggère de concentrer les moyens de lutte sur les zones à risques, c’est-à-dire d’y organiser les patrouilles, d’y dispenser des conseils de sécurité et d’y favoriser la surveillance de voisinage. Bien aidées par les habitants, ces techniques de « prévention situationnelle » font fortement baisser le nombre de cambriolages. Le chercheur se saisit alors des chiffres pour les transformer en statistiques donnant corps à son intuition : les cambriolages se répètent aux mêmes endroits.

Lorsque l’outil statistique se confronte au terrain, ce n’est cependant encore bien souvent qu’entre les mains des universitaires. Dans les années 1990, le FBI tente vainement de centraliser les informations sur les crimes violents et sexuels dans une base de donnée, ViCAP. Malgré l’intérêt pratique qu’il représente potentiellement, ce programme ne suscite guère l’enthousiasme. « La plupart des agences ne comprennent pas vraiment quel est le but de ViCAP », confie l’un de ses directeurs, Gregory Cooper. « J’ai l’impression d’avoir une voiture dans laquelle personne ne met d’essence. » Pour cibler leurs interventions, les policiers se réfèrent aux « hotspots » qu’ils connaissent sans avoir à employer une formule mathématique. Seule la police de New York commence à puiser dans les données pour mieux se déployer à l’aide du logiciel CompStat.

De l’autre côté de l’Atlantique, Ken Pease poursuit ses recherches. Associé aux chercheurs du Jill Dando Institute of Crime Science (JDICS), un laboratoire de recherche consacré à la prévention situationnelle, il développe, au début des années 2000, le Prospective Crime Mapping (Promap). Par le biais d’un algorithme, la répétition des faits dans l’espace et le temps fonde un ensemble de prédictions qu’il est ensuite facile de reporter sur une carte.

À l’heure de la « guerre contre le terrorisme » lancée sur les décombres du Wall Trade Center, après les attentats du 11 septembre 2001, les agences de renseignement américaines se montrent intéressées par le predictive policing. Mais plutôt que de balayer une mappemonde avec une loupe, la NSA scrute les connexions entre différents acteurs sur Internet dans le cadre du programme Total Information Awareness. Par sa portée globale, celui-ci se retrouve sous le feu des critiques. Avant la fin de sa première année d’existence, l’initiative orwellienne est stoppée par le Congrès. Et en 2004, elle renaît sous une autre forme : Peter Thiel donne naissance à Palantir, un outil qui traquera les terroristes présumés en traitant l’amas de métadonnées d’Internet.

À la fin des années 2000, Palantir tisse sa toile. Grâce à des financements d’In-Q-Tel, un fonds d’investissement lié à la CIA, elle est chargée par des acteurs comme la NSA ou la police de Los Angeles de cibler les menaces sur Internet. En 2007, une ONG s’en saisit pour mettre au jour les personnes impliquées, de près ou de loin, dans l’assassinat du journaliste Daniel Pearl au Pakistan. La start-up de la Sillicon Valley aurait aussi permis, à en croire le mythe, à traquer Oussama Ben Laden. Aujourd’hui, son cofondateur, Peter Thiel est conseiller numérique de Donald Trump.

 CloudWalk

L’année de la création de Palantir, un analyste de données du conglomérat de médias américain Scripps, Thomas Hargrove, se plonge à la demande de ses supérieurs dans les chiffres de la prostitution. En ouvrant le rapport du FBI sur le crime, il tombe sur un document répertoriant l’ensemble des homicides. « Je ne savais pas d’où tout ça venait », se rappelle-t-il, « mais, dans la seconde, je me suis dit : “Est-ce qu’il serait possible d’apprendre à un ordinateur à repérer les serial killers ?” » Après plusieurs années à essayer de convaincre ses supérieurs, le journaliste rentre le rapport des homicides dans un logiciel en 2008 avec l’aide d’un étudiant du Missouri. Ensemble, ils tentent de concevoir un algorithme dont le rôle est d’identifier les cas de meurtres non résolus ayant suffisamment de points commun avec un autre pour qu’ils soient commis par le même meurtrier. Licencié en 2015 dans le cadre d’un plan social, Hargrove crée le Murder Accountability Project.

Pendant ces mois passés à retisser les liens entre différents crimes, Hargrove a contacté plusieurs agents de police. À chaque fois, il s’est heurté à un mur. Par manque de moyen, de temps ou d’intérêt, les forces de l’ordre ne répondaient pas. À partir  de 2012, cependant, certaines ont été convaincues de l’intérêt d’utiliser leurs archives pour anticiper.

L’algorithme de Hargrove en action
Crédits : Cait Oppermann/Bloomberg

Parce qu’il leur fournissait un outil clé en main habilement marketé, PredPol a commencé à se faire connaître la même année. Financé par « une poignée de business angels », PredPol a bénéficié pour sa part du « travail de ses lobbyistes évoluant dans les réseaux démocrates californiens », pointe Bilel Benbouzid. Tenu secret, son algorithme emploie une méthode empruntée à la sismologie : comme les tremblements de terre, les crimes et délits auraient souvent les mêmes épicentres. Ainsi, un problème social est-il rapporté à un phénomène physique. « Si l’intérêt de PredPol devait être discuté seulement à l’aune de son algorithme, la start-up n’aurait pas lieu d’être », tranche le chercheur.

Puisqu’il se base sur les données issues des plaintes des victimes, le logiciel fait l’impasse sur les publics moins enclins à contacter la police. Non seulement PredPol se distingue de Minority Report en ce qu’il ne donne qu’une indication sur les endroits et les moments où les faits sont le plus susceptibles de se dérouler, mais il introduit donc une discrimination. C’est aussi le cas des machines utilisées aux États-Unis afin d’évaluer la probabilité de récidive, moins clémentes avec les Afro-Américains, selon une enquête de ProPublica. Le sexisme, le racisme par exemple, « sont introduits dans les algorithmes qui sous-tendent beaucoup de système “intelligents” », met en garde la chercheuse de Microsoft Kate Crawford. En outre, les algorithmes ne dispensent pas de maintenir une bonne connaissance du terrain. Mais la police ne sera-t-elle pas tentée de croire sur parole une machine présentée comme scientifique sans égard pour ses biais et limites ?

Si « pour l’instant », relativise Bilel Benbouzid, « ce grand assemblage d’algorithmes qui ferait une intelligence artificielle de la police est un mythe », le logiciel chinois CloudWalk, tel qu’il est présenté, donne à cette perspective une proximité inquiétante. Son logiciel est déjà mis en relation avec la base de données de plus de 50 villes et provinces du pays. Un autre acteur chinois, UniView, traque les personnes qui voyagent régulièrement dans des pays considérés comme « sensibles » tels que la Birmanie et le Vietnam. Sur la foi de ces informations, les autorités ont toute latitude pour arrêter quelqu’un. Mais cette décision pourrait elle-même être automatisée, autrement dit confiée à des robots. À Dallas, en juillet 2016, la police a bien envoyé un robot abattre un criminel retranché dans un parking.


Couverture : Les algorithmes s’en chargent. (Misha Friedman/Bloomberg)