fbpx

par Servan Le Janne | 30 juillet 2017

Un œil surveille les 13 millions d’ha­bi­tants de Canton, dans le sud de la Chine. Au nord de la rivière Zhuijang, dans le parc indus­triel de Thianhe, l’en­tre­prise CloudWalk expé­ri­mente une tech­no­lo­gie de recon­nais­sance faciale pour préve­nir tout faux pas. Elle est, d’après ses concep­teurs, en mesure d’éva­luer le taux de dange­ro­sité d’un indi­vidu en fonc­tion de son compor­te­ment. « La police utilise un système de big data afin de déga­ger un groupe de personnes suspectes en fonc­tion des endroits où elles vont », explique un porte-parole du groupe. Le risque augmente si quelqu’un « visite fréquem­ment des aéro­ports ou des maga­sins de couteaux. Bien sûr il n’y a rien de mal à ache­ter un couteau, mais si vous ache­tez aussi un sac et un marteau, vous deve­nez suspect. » Ce portrait peut être complété par les infor­ma­tions de la police. Dans un pays qui compte 176 millions de camé­ras de vidéo-surveillance, la géné­ra­li­sa­tion de ce système orwel­lien donne­rait à la préven­tion des crimes un visage aussi tenta­cu­laire qu’inquié­tant. La recon­nais­sance faciale permet déjà de détec­ter les contre­ve­nants au code de la route et d’of­frir aussi­tôt leurs photos à la vindicte popu­laire sur des pancartes ou sur Inter­net. Et ce n’est qu’un début. La Chine prévoit d’in­ves­tir 150 millions de dollars dans son indus­trie de l’in­tel­li­gence arti­fi­cielle d’ici 2030. Ailleurs dans le monde, des tech­no­lo­gies de plus en plus élabo­rées – mais aussi plus intru­sives – sont mises entre les mains de la police ou des agences de rensei­gne­ment. Le roman de Philip K. Dick, Mino­rity Report, adapté au cinéma en 2002, s’éloigne de la science-fiction.

ANACRIM

Vendredi 28 juillet, dans le bureau de la prési­dente de la chambre de l’ins­truc­tion de Dijon, trois personnes inter­rogent le passé. À l’aube de la retraite, Claire Barbier est encore là, à épous­se­ter un vieux dossier avec deux témoins. Trente ans après l’as­sas­si­nat du petit Grégory Ville­min, ses yeux bleu clair tentent de percer ce qui, parmi les mots de Murielle Bolle et Patrick F., décrit fidè­le­ment les faits. Pour la première fois, leurs véri­tés se confrontent. De nouveau, chacun replonge dans le sac de souve­nirs qu’il traîne depuis trois décen­nies. Le même mael­strom de dates, de person­nages et de lieux est au cœur des conver­sa­tions.

IBM ANACRIM

Murielle Bolle a-t-elle vu l’en­fant, le jour de sa mort, dans la voiture d’un suspect, Bernard Laroche (tué en 1985), comme elle l’a d’abord raconté avant de chan­ger de version ? Cet échange inédit avec son cousin et contra­dic­teur, Patrick F., ne permet toujours pas de le dire. Mais chaque nouvelle infor­ma­tion pèse plus lourd qu’a­vant. Désor­mais, la justice se sert d’un logi­ciel appelé ANACRIM afin de bras­ser et de faire le tri dans les milliers de données. C’est lui qui a poussé les enquê­teurs à réexa­mi­ner ce dossier anté­di­lu­vien. Conçu aux États-Unis dans les années 1970, ANACRIM s’ap­puie aujourd’­hui sur le logi­ciel ANB (Analyst Note­book) d’IBM afin de « trans­for­mer les données en rensei­gne­ments ». Pour le dire autre­ment, elle présente un pano­rama clari­fié des événe­ments à même d’en déga­ger les cohé­rences ou les contra­dic­tions. Capable d’in­té­grer à son analyse les appels télé­pho­niques ou les infor­ma­tions bancaires, ANACRIM a aidé à confondre Michel Four­ni­ret et Emile Louis. Toute les affaires sensibles sont aujourd’­hui passées au tamis du logi­ciel. Grâce au deep lear­ning (« l’ap­pren­tis­sage profond »), les gendarmes français espèrent lui faire « comprendre » la nature des infor­ma­tions trai­tées. La police des West Midlands, dans le centre de l’An­gle­terre, a déjà fixé cet objec­tif à VALCRI, un système émet­tant des hypo­thèses de travail à partir de rapports manus­crits, d’en­tre­tiens, de vidéos de surveillance ou de rele­vés auto­ma­tiques de plaques miné­ra­lo­giques. Ainsi, une machine peut-elle cerner un coupable. Mais il y a plus fou encore. Une nouvelle géné­ra­tion de logi­ciels se targue d’ar­ri­ver à prédire les crimes, offrant aux forces de main­tien de l’ordre les clés pour les déjouer ex ante.

Crédits : Valcri.org

PredPol

Le plus connu de ces programmes, PredPol, fonc­tionne depuis 2014 à Modesto, un quadrillage de barres grises perdu entre la baie de San Fran­cisco et le Parc natio­nal Yose­mite. Ville-dortoir sur la route qui relie Sacra­mento à Los Angeles, elle aurait dû prendre le nom de son fonda­teur, Ralston, s’il n’avait décliné l’hon­neur, en 1870. Après avoir été reniée, elle hérita donc de son carac­tère. Mise en lumière par l’en­fant du coin, George Lucas, dans Ameri­can Graf­fiti (1973), Modesto la modeste n’en traîne pas moins une sale répu­ta­tion. Le taux de crimi­na­lité y est deux fois plus élevé que celui de la moyenne cali­for­nienne. John Ridley a d’ailleurs tourné la série Ameri­can Crime dans ses rues dépouillées. Pour gérer cette violence, la police locale s’est abon­née aux services de PredPol, une société de prédic­tion basée non loin de là, dans la cité univer­si­taire de Santa Cruz. Son modèle « emprunte l’idée que les crimes se répètent dans l’es­pace et le temps et qu’on peut modé­li­ser ce proces­sus de répé­ti­tion », décrit Bilel Benbou­zid, maître de confé­rences en socio­lo­gie au Labo­ra­toire Inter­dis­ci­pli­naire Sciences Inno­va­tions Socié­tés (LISIS)À partir des éléments recueillis par les agents, la start-up conçoit un réper­toire de crimes et délits qu’elle carto­gra­phie ensuite. Partant du postu­lat qu’ils sont suscep­tibles de se repro­duire aux mêmes endroits, les agents orga­nisent en consé­quence ses patrouilles près des hots­pots (les « points chauds »). À Milan, c’est KeyC­rime qui est censé déter­mi­ner l’en­droit où les larcins ont le plus de chances de surve­nir en fonc­tion d’un histo­rique. Un système simi­laire, PredVol, donne aux forces de l’ordre de l’Oise des indi­ca­tions sur les prochains vols de voiture.

Ces tech­no­lo­gies qui fonc­tionnent à l’aide d’al­go­rithmes s’ins­crivent dans le champ de la « préven­tion situa­tion­nelle », indique Bilel Benbou­zid. Aujourd’­hui, elles fonc­tionnent soit au moyen de données spatiales et tempo­relles, comme PredPol, KeyC­rime et PredVol, soit en tirant profit des données person­nelles. Aux États-Unis, une kyrielle de socié­tés vendent aux juri­dic­tions locales des logi­ciels armés pour évaluer la proba­bi­lité de réci­dive d’un prévenu au regard de son profil. C’est le cas de Compas, déve­loppé par la société North­point. D’autres solu­tions, à l’ins­tar du programme Predic­tice, sont offerts aux justi­ciables qui veulent pondé­rer le risque avant d’al­ler en justice. « Le marché fonc­tionne à trois niveau », analyse Bilel Benbou­zid. « Il est composé de start-ups qui innovent, de spécia­listes de l’ana­ly­tics et de four­nis­seurs d’in­fra­struc­tures infor­ma­tiques comme IBM et Micro­soft. » Il évolue néan­moins puisque ces derniers ont beau­coup absorbé les premiers. Moto­rola a acheté PublicEn­gines en 2015, Trimble a repris Omega Group en juillet 2014 et LexisNexis a pris le contrôle de BAIR Analy­tics. Ces plates-formes auxquelles on peut aussi ajou­ter Hita­chi Visua­li­za­tion Predic­tive Crime Analy­tics, CivicS­cape, ArcMap, Hunchlab ou Mark43, font commerce d’une idée ancienne : les situa­tions portent en elles les crimes.

La recon­nais­sance faciale est en plein boom en Chine

Palan­tir

Modesto a eu son équi­valent en Angle­terre. Située au nord dans Manches­ter, dans la banlieue de Roch­dale, la petite ville de Kirkholt était touchée, au milieu des années 1980, par un taux de cambrio­lages deux fois plus élevé que celui des zones à « haut risque » du pays. Mandaté par le minis­tère de l’In­té­rieur pour trou­ver des solu­tions, le profes­seur de crimi­no­lo­gie Ken Pease s’aperçoit rapi­de­ment que les victimes sont souvent les mêmes. Dès lors, il suggère de concen­trer les moyens de lutte sur les zones à risques, c’est-à-dire d’y orga­ni­ser les patrouilles, d’y dispen­ser des conseils de sécu­rité et d’y favo­ri­ser la surveillance de voisi­nage. Bien aidées par les habi­tants, ces tech­niques de « préven­tion situa­tion­nelle » font forte­ment bais­ser le nombre de cambrio­lages. Le cher­cheur se saisit alors des chiffres pour les trans­for­mer en statis­tiques donnant corps à son intui­tion : les cambrio­lages se répètent aux mêmes endroits. Lorsque l’ou­til statis­tique se confronte au terrain, ce n’est cepen­dant encore bien souvent qu’entre les mains des univer­si­taires.

Dans les années 1990, le FBI tente vaine­ment de centra­li­ser les infor­ma­tions sur les crimes violents et sexuels dans une base de donnée, ViCAP. Malgré l’in­té­rêt pratique qu’il repré­sente poten­tiel­le­ment, ce programme ne suscite guère l’en­thou­siasme. « La plupart des agences ne comprennent pas vrai­ment quel est le but de ViCAP », confie l’un de ses direc­teurs, Gregory Cooper. « J’ai l’im­pres­sion d’avoir une voiture dans laquelle personne ne met d’es­sence. » Pour cibler leurs inter­ven­tions, les poli­ciers se réfèrent aux « hots­pots » qu’ils connaissent sans avoir à employer une formule mathé­ma­tique. Seule la police de New York commence à puiser dans les données pour mieux se déployer à l’aide du logi­ciel CompS­tat. De l’autre côté de l’At­lan­tique, Ken Pease pour­suit ses recherches. Asso­cié aux cher­cheurs du Jill Dando Insti­tute of Crime Science (JDICS), un labo­ra­toire de recherche consa­cré à la préven­tion situa­tion­nelle, il déve­loppe, au début des années 2000, le Pros­pec­tive Crime Mapping (Promap). Par le biais d’un algo­rithme, la répé­ti­tion des faits dans l’es­pace et le temps fonde un ensemble de prédic­tions qu’il est ensuite facile de repor­ter sur une carte. À l’heure de la « guerre contre le terro­risme » lancée sur les décombres du Wall Trade Center, après les atten­tats du 11 septembre 2001, les agences de rensei­gne­ment améri­caines se montrent inté­res­sées par le predic­tive poli­cing. Mais plutôt que de balayer une mappe­monde avec une loupe, la NSA scrute les connexions entre diffé­rents acteurs sur Inter­net dans le cadre du programme Total Infor­ma­tion Aware­ness. Par sa portée globale, celui-ci se retrouve sous le feu des critiques. Avant la fin de sa première année d’exis­tence, l’ini­tia­tive orwel­lienne est stop­pée par le Congrès. Et en 2004, elle renaît sous une autre forme : Peter Thiel donne nais­sance à Palan­tir, un outil qui traquera les terro­ristes présu­més en trai­tant l’amas de méta­don­nées d’In­ter­net. À la fin des années 2000, Palan­tir tisse sa toile. Grâce à des finan­ce­ments d’In-Q-Tel, un fonds d’in­ves­tis­se­ment lié à la CIA, elle est char­gée par des acteurs comme la NSA ou la police de Los Angeles de cibler les menaces sur Inter­net.

En 2007, une ONG s’en saisit pour mettre au jour les personnes impliquées, de près ou de loin, dans l’as­sas­si­nat du jour­na­liste Daniel Pearl au Pakis­tan. La start-up de la Silli­con Valley aurait aussi permis, à en croire le mythe, à traquer Oussama Ben Laden. Aujourd’­hui, son cofon­da­teur, Peter Thiel est conseiller numé­rique de Donald Trump.

 CloudWalk

L’an­née de la créa­tion de Palan­tir, un analyste de données du conglo­mé­rat de médias améri­cain Scripps, Thomas Hargrove, se plonge à la demande de ses supé­rieurs dans les chiffres de la pros­ti­tu­tion. En ouvrant le rapport du FBI sur le crime, il tombe sur un docu­ment réper­to­riant l’en­semble des homi­cides. « Je ne savais pas d’où tout ça venait », se rappelle-t-il, « mais, dans la seconde, je me suis dit : “Est-ce qu’il serait possible d’ap­prendre à un ordi­na­teur à repé­rer les serial killers ?” » Après plusieurs années à essayer de convaincre ses supé­rieurs, le jour­na­liste rentre le rapport des homi­cides dans un logi­ciel en 2008 avec l’aide d’un étudiant du Missouri. Ensemble, ils tentent de conce­voir un algo­rithme dont le rôle est d’iden­ti­fier les cas de meurtres non réso­lus ayant suffi­sam­ment de points commun avec un autre pour qu’ils soient commis par le même meur­trier. Licen­cié en 2015 dans le cadre d’un plan social, Hargrove crée le Murder Accoun­ta­bi­lity Project. Pendant ces mois passés à retis­ser les liens entre diffé­rents crimes, Hargrove a contacté plusieurs agents de police. À chaque fois, il s’est heurté à un mur. Par manque de moyen, de temps ou d’in­té­rêt, les forces de l’ordre ne répon­daient pas. À partir  de 2012, cepen­dant, certaines ont été convain­cues de l’in­té­rêt d’uti­li­ser leurs archives pour anti­ci­per.

L’al­go­rithme de Hargrove en action
Crédits : Cait Opper­mann/Bloom­berg

Parce qu’il leur four­nis­sait un outil clé en main habi­le­ment marketé, PredPol a commencé à se faire connaître la même année. Financé par « une poignée de busi­ness angels », PredPol a béné­fi­cié pour sa part du « travail de ses lobbyistes évoluant dans les réseaux démo­crates cali­for­niens », pointe Bilel Benbou­zid. Tenu secret, son algo­rithme emploie une méthode emprun­tée à la sismo­lo­gie : comme les trem­ble­ments de terre, les crimes et délits auraient souvent les mêmes épicentres. Ainsi, un problème social est-il rapporté à un phéno­mène physique. « Si l’in­té­rêt de PredPol devait être discuté seule­ment à l’aune de son algo­rithme, la start-up n’au­rait pas lieu d’être », tranche le cher­cheur. Puisqu’il se base sur les données issues des plaintes des victimes, le logi­ciel fait l’im­passe sur les publics moins enclins à contac­ter la police. Non seule­ment PredPol se distingue de Mino­rity Report en ce qu’il ne donne qu’une indi­ca­tion sur les endroits et les moments où les faits sont le plus suscep­tibles de se dérou­ler, mais il intro­duit donc une discri­mi­na­tion. C’est aussi le cas des machines utili­sées aux États-Unis afin d’éva­luer la proba­bi­lité de réci­dive, moins clémentes avec les Afro-Améri­cains, selon une enquête de ProPu­blica. Le sexisme, le racisme par exemple, « sont intro­duits dans les algo­rithmes qui sous-tendent beau­coup de système “intel­li­gents” », met en garde la cher­cheuse de Micro­soft Kate Craw­ford.

En outre, les algo­rithmes ne dispensent pas de main­te­nir une bonne connais­sance du terrain. Mais la police ne sera-t-elle pas tentée de croire sur parole une machine présen­tée comme scien­ti­fique sans égard pour ses biais et limites ? Si « pour l’ins­tant », rela­ti­vise Bilel Benbou­zid, « ce grand assem­blage d’al­go­rithmes qui ferait une intel­li­gence arti­fi­cielle de la police est un mythe », le logi­ciel chinois CloudWalk, tel qu’il est présenté, donne à cette pers­pec­tive une proxi­mité inquié­tante. Son logi­ciel est déjà mis en rela­tion avec la base de données de plus de 50 villes et provinces du pays. Un autre acteur chinois, UniView, traque les personnes qui voyagent régu­liè­re­ment dans des pays consi­dé­rés comme « sensibles » tels que la Birma­nie et le Viet­nam. Sur la foi de ces infor­ma­tions, les auto­ri­tés ont toute lati­tude pour arrê­ter quelqu’un. Mais cette déci­sion pour­rait elle-même être auto­ma­ti­sée, autre­ment dit confiée à des robots. À Dallas, en juillet 2016, la police a bien envoyé un robot abattre un crimi­nel retran­ché dans un parking. https://twit­ter.com/PopSci/status/751418925355831296


Couver­ture : Les algo­rithmes s’en chargent. (Misha Fried­man/Bloom­berg)


 

L’ex­tra­or­di­naire destin de l’emoji caca

178k 26 septembre 2018 stories . sans-categorie

Manger des pizzas est bon pour vous. Voici pourquoi

132k 12 avril 2018 stories . sans-categorie

30 histoires pour comprendre la Russie de Poutine

156k 20 août 2017 stories . sans-categorie