Depuis 2017, l'IA de Google TensorFlow est utilisée en secret par l'armée américaine pour perfectionner ses drones. La fuite de l'information ravive le débat sur les armes autonomes.

par   Servan Le Janne   | 9 min | 11/03/2018

La base

Toutes les 10 minutes, un appareil décolle d’Al Oudeid, à 32 kilomètres de Doha, la capitale du Qatar. Sur le tarmac chauffé par les 50 degrés du mercure, les Boeing KC-135 Stratotanker sont garés les uns à côté des autres. Depuis les années 1990, l’aviation américaine rayonne au Moyen-Orient à partir de cette base militaire de la taille d’un village qui a coûté un milliard de dollars. Plus de 10 000 militaires y sont stationnés. En 2003, 60 millions de dollars supplémentaires ont été investis pour construire un bunker qui « ressemble à un bâtiment sorti d’un film futuriste », d’après l’US Air Force.

La base militaire d’Al Oudeid
Crédits : US Gov

À l’intérieur de ce Combined Air Operations Center (CAOC), les couleurs américaines sont aujourd’hui accompagnées des drapeaux de pays européens et de la péninsule arabe. Une coalition internationale mène ici la guerre à l’État islamique. Au mur, une carte de la région est projetée sur laquelle naviguent de petit points verts. Il y a là des avions mais aussi des drones de combat. Derrière leurs ordinateurs, les soldats en consultent les images. Mais ils ne peuvent pas tout voir.

En 2014, Washington possédait plus de 8 000 aéronefs autonomes. L’année suivante, une étude du cabinet IHS-Jane promettait que le marché de ces appareils allait doubler d’ici à 2024. Car ils sont de moins en moins chers. Déjà, « pour le prix d’un avion haut-de-gamme, une armée pourrait acheter un million de drones », évalue le rapport Artificiel Intelligence and National Security de Gregory C. Allen et Taniel Chan, publié en juillet 2017. « Si la chute des prix se poursuit dans la robotique, elle pourrait en acquérir un milliard. Dans pareil scénario, les drones seraient moins chers que certaines munitions aujourd’hui. » Pour le chercheur du Center for a New American Security, Paul Scharre, « les mini-drones imprimé en 3D donneront aux États-Unis la possibilité de faire voler des milliards – oui, des milliards – d’appareils simili-insectes ».

Le flot d’images engendré par cette nuée échappe déjà au contrôle humain. C’est pourquoi l’ancien sous-secrétaire d’État à la Défense, Robert O. Work, a annoncé, le 26 avril 2017, la création d’une « équipe inter-fonctionnelle de guerre algorithmique » afin de travailler sur un projet baptisé Maven. « Comme plusieurs études l’ont montré, le Département de la Défense (DoD) doit intégrer l’intelligence artificielle et le machine learning plus efficacement dans ses opérations pour maintenir son avantage sur des adversaires de mieux en mieux dotés », écrit Work.

Un drone MQ-1C Gray
Crédits : US Air Force

En 2017, le DoD a investi 7,4 milliards d’euros dans l’intelligence artificielle et l’analyse de données. Une partie est allée à l’équipe de six personnes travaillant sur le projet Maven, dont la direction a été confiée au lieutenant général de l’US Air Force Jack Shanahan et au colonel des marines Drew Cukor. Des recherches avaient déjà été effectuées auparavant sur des systèmes semi-autonomes, mais c’est la première fois que le deep learning et les réseaux neuronaux « au niveau de l’intelligence artificielle de pointe » sont concernés, d’après Gregory C. Allen. Il faut bien ça pour analyser les vidéos aériennes envoyées par des drones comme le ScanEagle, le MQ-1C Gray ou le MQ-9 Reaper.

« Leurs capteurs produisent des images qui ressemblent à ce que vous pouvez voir sur Google Earth », explique Gregory C. Allen. « Un seul drone génère des téraoctets de données chaque jour. Avant l’intégration de l’intelligence artificielle, une équipe d’analystes devait travailler pendant 24 heures pour en exploiter une partie. » Cette tâche doit donc être automatisée. Et, si les drones sont capables de passer au cribles des images pour reconnaître des objectifs, ils pourraient bien être amenés à tirer sans qu’un ordre ait été donné. Les États-Unis ne sont d’ailleurs pas les seuls à plancher sur des robots tueurs.

Dans cette optique, l’équipe inter-fonctionnelle de guerre algorithmique s’est entourée d’experts en intelligence artificielle, et notamment Google. Début mars 2018, la collaboration avec le DoD a été intensément discutée sur le serveur interne du géant de la tech. Et certains destinataires, qui ont tenu à rester anonymes, ont fini par faire fuiter l’information. Ils étaient manifestement indignés par le fait que leur société aide à concevoir des technologies de surveillance pour drones militaires. Le projet soulève en effet de nombreuses questions éthiques.

Le sergent

Dans la nuit du 19 octobre 2001, deux compagnies du 3e bataillon du 75e régiment de rangers de l’armée américaine sautent en parachute au-dessus d’Objective Rhino, une zone au sud-ouest de l’Afghanistan. Sous le commandement du colonel Joseph Votel, 200 hommes posent le pied en plein désert, non loin de la ville de Kandahar, pour y mener une des premières opérations contre les talibans depuis les attentats du 11 septembre. Parmi eux se trouve l’agent de reconnaissance Paul Scharre, un sergent qui a fait ses classes à Washington.

Si cet ancien étudiant en sciences et ses collègues n’affrontent cette fois pas de grande résistance, cela change vite. Les attentats-suicides commis par l’ennemi relativisent la supériorité de l’armée américaine. « Depuis la Seconde Guerre mondiale, nous n’avons cessé de dire que ce n’était pas la quantité qui comptait, mais la qualité », retrace-t-il. « Cependant, dans les guerres actuelles, ce n’est pas suffisant, il faut aussi de la quantité. En cela, les systèmes autonomes en grand nombre peuvent aider. » Son état-major mène la même réflexion, conscient que la mobilisation d’un soldat en Afghanistan coûte cher (850 000 dollars par an).

En Irak, la mise en place d’un système de défense sol-air semi-autonome n’a du succès que la foudroyance. Le 2 avril, une douzaine de jours après l’invasion du territoire par les États-Unis, deux missiles PAC-3 abattent un appareil conduit par le lieutenant de la Navy Nathan D. White, tué sur le coup. Personne n’est tenu responsable. Après quatre ans en Afghanistan, Paul Scharre est justement affecté en Irak. Sa femme, Heather, d’un an son aînée, le voit partir de nouveau sans engouement : « Nous étions habitués à des déploiements de quatre mois et on nous dit maintenant d’attendre entre 14 et 16 mois », se lamente-t-elle.

Envoyé sur place en tant que spécialiste des affaires civiles en 2006, Paul n’en est pas moins touché par le conflit, alors à son point culminant. « Il y avait un gros problème de ceintures explosives dans la région », se souvient-il. Dans ce genre de situation, les armes susceptibles d’être déclenchées à distance peuvent s’avérer utiles. Cela dit, l’ambiguïté et la confusion qui règnent parfois, en cas d’insurrection, requièrent des décisions à la fois rapides et complexes. « L’intelligence artificielle actuelle est trop faible pour faire face à cela », juge-t-il.

Même si un traité était signé, il ne serait en lui-même pas suffisant.

À son retour à Washington, en 2008, le sergent Scharre trouve un emploi à l’Office of the Secretary of Defense, une unité qui, comme son nom l’indique, dépend du DoD. Il dirige un groupe de travail sur les armes autonomes. Cette notion existe véritablement depuis la création, par l’US Air Force, du premier drone capable de tirer des missiles Maverick en décembre 1971. Mais elle a gagné en popularité quand les Américains ont dû se doter de matériel autonome afin de ne pas s’exposer aux kamikazes en Irak. En 2007, ils y ont lancé la « première patrouille de robots armés », suscitant les craintes du professeur de robotique britannique Noël Sharkley. « Nous avançons comme des funambules dans un nouveau monde où les robots décident qui, où et quand tuer », écrivait-il cette année-là.

À Washington, Paul Scharre et ses collègues travaillent sur une directive afin de donner un cadre à la création de systèmes armés autonomes. Ce document est achevé en 2012. « Les armes autonomes et semi-autonomes doivent être conçues pour permettre aux commandants et aux opérateurs d’exercer un niveau approprié de jugement sur l’usage de la force », préconise-t-il. Sauf que les États-Unis ne sont pas seuls. La même année, l’Accountability Office du gouvernement américain note dans un rapport qu’en sept ans, « le nombre de pays a avoir acquis un véhicule aérien autonome est passé de 40 à 75 ».

Un intrus à la Maison-Blanche

Une pluie fine tombe sur Washington, ce lundi 26 janvier, à 3 heures du matin. C’est le moment idéal pour faire voler un drone, semble penser un employé d’une agence de renseignement américaine vivant à un jet de pierre de la Maison-Blanche. Ivre, l’homme actionne les quatre hélices du DJI Phantom et le voit décoller avant de le perdre de vue. Il envoie alors un texto inquiet à l’ami qui lui a prêté l’engin puis s’endort. Le lendemain, il apprend qu’un drone a été retrouvé dans la résidence officielle du président, pourtant équipée pour détecter les appareils volants intrus. Heureusement, celui-ci n’était pas mal intentionné – si tant est qu’un robot puisse l’être.

Crédits : Stop Killer Robots/Flickr

Depuis 2013, période à laquelle Paul Scharre a quitté son poste au DoD, la campagne Stop Killer Robots alerte sur la menace que représentent les armes autonomes. Le rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires réclame au même moment un moratoire sur leur développement. L’année suivante, Paul Scharre a commencé à étudier ces questions en qualité de chercheur au Center for a New American Security (CNAS). Il constate que les « armes autonomes supervisées par l’homme sont utilisées par au moins 30 pays. Elles le sont depuis des décennies et n’ont pas entraîné de “robopocalypse” ».

Néanmoins, l’amélioration de leur technologie tend à rendre toute supervision détaillée obsolète. En avril 2016, la machine de la société DeepMind, AlphaGo, étale son intelligence artificielle au public en battant le champion de go Lee Sedol en tête à tête. Mais alors, qui sera responsable si elle décide, plutôt que de déplacer des pions, d’appuyer sur la gâchette ? Rentrés aux casernes, ou réfugiés au Combined Air Operations Center (CAOC) d’Al Oudeid, les soldats n’auront certainement aucune envie d’assumer les bavures qu’ils n’ont pas provoquées. De leur côté, les décideurs politiques pourraient bien être plus enclins à se lancer dans la bataille, pourvu que les pertes humaines soient moindres.

« C’est peut-être vrai, mais à condition qu’il n’y ait absolument personne derrière les canons », tempère Paul Scharre. « Que les armes soient autonomes ou pas, c’est quelque chose de problématique. » Lors de la session annuelle de l’Assemblée générale des Nations Unies, en octobre 2016, 36 pays ont affiché leur volonté de donner un cadre légal international aux systèmes armés autonomes. Lors de la réunion de la Convention on Certain Conventional Weapons qui s’est tenue à l’automne 2017, la Russie a regretté le manque de progrès dans ce domaine : « La difficulté à distinguer clairement les domaines civils et militaires dans le développement de systèmes autonomes qui sont basés sur les mêmes technologies est un obstacle majeur à la discussion », constate Moscou.

Même si un traité était signé, il ne serait en lui-même pas suffisant. « Il y a un tas d’exemples, dans l’histoire, de traités prévoyant l’interdiction d’armes qui ont ensuite été utilisées », pointe Paul Scharre. En octobre dernier, DeepMind a publié un article félicitant AlphaGo Zero. Cette nouvelle machine se serait montrée capable d’apprendre le jeu de go elle-même, sans recevoir des données d’entraînement par un homme, et, après trois jours de jeu, de battre l’ancien programme 100 fois d’affilée.

Tout le monde n’est pas encore en position de bâtir une telle machine. Mais, de manière générale, « la technologie est tellement partagée qu’un développeur raisonnablement compétent pourrait fabriquer une arme autonome dans son garage », avertit Paul Scharre. « L’idée de mettre en place une sorte de régime de non-prolifération semble naïve. Dans ce genre de monde, il faut s’attendre à ce qu’il y ait, au minimum, des utilisations par des terroristes et des régimes voyous. » La prophétie n’est pas de nature à rassurer, alors que les gouvernements élus avancent souvent à couvert. Si Google assure ne travailler que sur des technologies non-offensives avec le DoD, le champ de ses recherches demeure sibyllin. Or, la firme possède une grande quantité d’informations personnelles sur ses utilisateurs.

Crédits : DR/Ulyces

D’ailleurs, son directeur exécutif, Milo Medin, ainsi que le président exécutif de la maison-mère, Alphabet, sont tout deux membre du Defense Innovation Board, qui conseille le Pentagone sur les questions de systèmes de données. Lorsque le groupe a racheté DeepMind en 2014, il s’est doté d’un comité d’éthique sur l’intelligence artificielle. Mais là encore, ses travaux sont restés secrets.


Couverture : Un drone Reaper MQ9. (US Army)


 

AILLEURS DANS LE MONDE