Alice et Bob

Pour certains, le 24 octobre dernier a sonné le glas de l’humanité. C’est un article paru dans le journal interne de Google Brain qui a mis le feu aux poudres. Deux chercheurs du projet de recherche de deep learning de Google, Martín Abadi et David G. Andersen, y relatent une expérience qu’ils ont élaboré pour apprendre à des intelligences artificielles à créer leur propre forme de chiffrement. Deux d’entre elles, Alice et Bob, devaient s’envoyer un message chiffré qu’une troisième IA baptisée Eve tentait de décrypter. Chaque fois qu’elle y parvenait, Alice transformait le message pour tenter de le rendre indéchiffrable et Bob s’adaptait progressivement pour comprendre son langage. Après plusieurs milliers d’échanges décodés, Eve a fini par ne plus en être capable : Alice et Bob communiquaient dans un langage connu seulement d’eux-mêmes, incompréhensible pour Eve mais aussi pour l’humanité toute entière. Si les IA de Google Brain sont capables d’apprendre de leurs erreurs pour s’améliorer, c’est parce qu’elles reposent sur des réseaux de neurones artificiels, qui leur permettent en quelque sorte de raisonner pour évoluer. L’article a semé la panique dans les rangs des journalistes, qui y ont vu l’étincelle qui conduira selon toute probabilité à l’annihilation de l’espèce humaine par un réseau de machines inarrêtables. Google affirme qu’il s’agit d’un moyen de se prémunir contre le hacking : chaque cyberattaque entraînera un réajustement du système de sécurité par l’IA aux commandes, qui renforcera automatiquement son chiffrement. Pour les observateurs alarmés, la firme de Mountain View déroule le tapis rouge aux conspirations futures des machines contre l’humanité.

ulyces-sentientai-02

Le schéma de l’expérience
Crédits : Google Brain

Antoine Blondeau, lui, hausse les épaules. « Ça ne m’étonne pas », dit-il placidement. Pour le cofondateur et PDG de Sentient Technologies, il s’agit d’une suite logique dans la recherche sur les réseaux neuronaux. « Créer des intelligences non-humaines est le principe même de la recherche sur l’intelligence artificielle. » Éclipsé par les silhouettes titanesques de Google ou Facebook, vous n’avez peut-être jamais entendu parler de Sentient. Ils s’agit pourtant des concepteurs de la plus vaste plateforme d’intelligence artificielle du monde. Soutenus par des investisseurs iconiques du domaine de l’IA comme Li Ka-shing et son fonds personnel Horizon Ventures – Siri, DeepMind – ou des géants des télécommunications comme Access Industries – les propriétaires de Warner Music Group – et Tata Communications, ils totalisent 143 millions de dollars d’investissement. Il s’agit de la plus importante levée de fonds réalisée par une société privée dans le domaine de l’IA. À en croire Antoine Blondeau, cela n’a rien de surprenant. « L’intelligence, c’est le business model ultime. Tout est un problème d’intelligence dans le monde – d’intelligence humaine », dit-il. « Si vous parvenez à faire entrer progressivement de l’IA dans ces processus, il est possible de créer une grande société, très valorisée et capable de changer beaucoup de choses sur la planète – on espère en bien. » Sentient a pour ambition de créer des évolutions et des améliorations successives qui toucheront de nombreuses industries différentes et pas seulement le trading et l’e-commerce, son cœur de cible actuel. Leurs intelligences artificielles pourraient sauver de nombreuses vies et durablement changer la nôtre. Tant qu’ils les gardent sous contrôle.

Sentient

En ce lundi midi, la foule est éparse aux abords de la MEO Arena de Lisbonne. De grands nuages blancs dérivent paresseusement au-dessus de la baie de la capitale portugaise. À l’horizon, le pont Vasco da Gama enjambe la mer de Paille. Les cabines blanches du Teleférico da Expo glissent lentement le long des câbles qui surplombent les aménagements du Parc des Nations, hérités de l’Exposition internationale 1998. Ce décor apaisant, baigné de soleil, ferait presque oublier que l’endroit accueille cette semaine l’un des événements tech les plus importants de la planète : le Web Summit. Lancé en 2009 et organisé jusque là à Dublin, la conférence a été délocalisée cette année à Lisbonne, où plus de 50 000 personnes sont attendues pour assister aux talks de près de 700 intervenants. Certains d’entre eux représentent les firmes les plus emblématiques du monde de la tech, de Facebook à Amazon en passant par Tinder. banniere-facebook-sansthecamp L’effervescence sera palpable dès demain, quand les conférences battront leur plein, mais pour l’heure les participants fraîchement munis de leur pass tuent le temps en terrasse. Il est un peu plus de midi lorsque Antoine Blondeau me retrouve au premier étage d’une cafétéria de zone industrielle à deux pas des pavillons du Web Summit. Un décor étrange pour discuter d’une des formes de technologies les plus avancées qui soient. Cela ne semble pas troubler le PDG de Sentient. Grand et mince, les cheveux poivre et sel coupés court, Antoine Blondeau annonce avec décontraction qu’il ne parle pas souvent français et qu’il a perdu l’habitude du vouvoiement. Derrière ses lunettes légèrement fumées, au design élégant, ses yeux sourient ou m’observent avec attention. Nous parlons brièvement d’Ulyces, il a fait ses recherches. « Vous publiez de longs reportages qui sont en fait des histoires », résume-t-il. Pas mieux. En entrepreneur expérimenté, il comprend immédiatement la fonction d’un service et le réduit d’instinct à son plus simple dénominateur. Une expérience qui rejaillit jusque dans le nom de sa société. Le mot sentient vient du latin sentiens, « ressentant », et désigne la capacité « d’éprouver des choses subjectivement, d’avoir des expériences vécues ». Appliqué à l’intelligence artificielle, son ambition est évidente mais plus profonde qu’il n’y paraît. « Le concept de sentience est central en éthique animale car un être sentient ressent la douleur, le plaisir et diverses émotions ; ce qui lui arrive lui importe. » Une définition qui correspond bien à l’approche de l’IA qu’a adopté Sentient Technologies, qui reproduit les mécaniques de l’évolution pour élaborer ses systèmes. C’est aussi une notion chère à la philosophie bouddhiste, ce qui nous en dit peut-être davantage sur Antoine Blondeau lui-même.

Cela fait 16 ans qu’il vit entre Hong Kong et San Francisco. Si son entreprise « est à 90 % en Californie », son cœur est à Hong Kong, où il vit avec sa famille. C’est de là-bas qu’à la fin des années 1990, il s’est embarqué dans le domaine de l’IA en s’envolant pour la Silicon Valley. Ce qui l’y a poussé ? « L’attrait de pouvoir régler des problèmes que personne d’autre ne peut résoudre. » « J’ai pris la tête d’une entreprise qui s’appelait Dejima. Jusqu’au début des 2000, nous avons développé un logiciel de language processing qui permettait d’interagir avec des machines en utilisant un réseau d’agents intelligents. C’est cette technologie qui a donné naissance à Siri des années après », raconte-t-il. « Nous avons été partie prenante d’un projet financé par la DARPA et géré par SRI International. » Le centre de recherche de Palo Alto dirigeait ce qui demeure encore aujourd’hui le plus grand projet d’intelligence artificielle jamais financé – 250 millions de dollars. Après cinq ans de travail pour développer un agent intelligent ultra-sophistiqué, dans un but militaire et civil, Dejima a été rachetée. « Puis SRI a demandé à la DARPA s’ils pouvaient faire un spin-off du projet pour le grand public, et c’est comme ça qu’est né Siri. »

ulyces-sentientai-01

L’accueil des bureaux de Sentient
Crédits : Sentient Technologies

Blondeau a gagné une visibilité et une réputation considérables au passage, et en 2008, il a voulu étendre son expertise à d’autres horizons. Il a lancé Sentient avec la même équipe. « L’idée était de prendre le nec plus ultra en matière d’IA et de l’augmenter en le distribuant massivement », dit-il. « En mariant l’intelligence artificielle à une énorme capacité de traitement, on crée un système évolutif extrêmement valorisé. En trading ou en e-commerce, un système qui apprend et continue à performer dans le temps provoque des investissements toujours plus importants. » La plateforme qu’ils ont bâtie est colossale. Huit ans après le lancement de la société, Sentient a donné naissance au plus vaste système d’IA du monde : il équipe environ deux millions de cœurs de processeurs, 5 000 cartes graphiques et 4 000 sites de traitement dans le monde. Et maintenant qu’il est établi, ils ont investi des champs d’activité très différents. « Nous travaillons aussi dans les domaines de la santé et de l’agriculture. On a créé une application dérivée de notre travail dans le trading pour prévenir les chocs septiques. »

 

La septicémie, une violente infection du sang déclenchée par un agent infectieux, est la première cause de mortalité dans les services d’urgences américains. « Quand on la contracte, on a une chance sur deux de mourir. » Avant Sentient, il n’y avait aucun moyen de prévenir l’infection : les médecins la détectent lorsque la pression artérielle du patient chute brutalement. Il a alors 50 % de chances de ne pas en réchapper. En partenariat avec le MIT, Sentient a développé une IA capable de prédire l’infection 30 minutes avant qu’elle n’advienne. Pour y parvenir, le système examine les courbes de la pression artérielle et y décèle les signes avant-coureurs du choc. « On a atteint 91 % de réussite. La santé étant un domaine très régulé, il faudra du temps avant que le produit voie le jour, mais c’est une application qui peut sauver des vies. Elle prouve aussi qu’on peut faire autre chose que de l’argent avec nos systèmes. »

Dans le même ordre d’idée, c’est avec le MIT Media Lab que Sentient a développé un système de containers intelligents destinés à l’agriculture. Petits ou de la taille d’un camion, ces environnements sont intégralement contrôlés par une IA : lumière, humidité, température, engrais, rien ne lui échappe. Et cette fois, elle n’est pas seulement prédictive. « L’IA qu’on injecte dans le système contrôle les régulateurs et observe la croissance des plantes », explique-t-il. « En fonction de la croissance ou de la non-croissance, le système auto-ajuste les paramètres pour arriver au protocole de croissance optimal. » Une fonction applicable à de nombreux domaines différents, qui implique que l’IA observe son environnement et apprenne de ses erreurs pour s’améliorer jusqu’à atteindre la perfection. Une logique que suivent aussi Alice et Bob, les IA bavardes de Google, héritée de comportements qui nous ressemblent. Mais comment éduque-t-on une intelligence artificielle ? p4amy

Les stratégies gagnantes

Les IA de Sentient Technologies reposent sur des algorithmes évolutionnistes qui leur permettent d’être prédictives mais aussi décisionnaires. Une fonction extrêmement utile dans un système en boucle, car « elles peuvent auto-apprendre de leurs erreurs ». Ce système décisionnel repose sur un concept inventé par un pilote de chasse de l’US Air Force en 1960. Baptisé boucle OODA, pour  Observe, Orient, Decide and Act (« observer, s’orienter, décider et agir »), il expliquait pourquoi John Boyd battait systématiquement ses élèves à l’entraînement et formalise le cycle de décisions qu’il faut adopter pour vaincre ses ennemis. « Observer, c’est utiliser ses sens pour comprendre le monde et le percevoir ; orienter, c’est bâtir un modèle en fonction des circonstances dans lesquelles on se trouve et l’orienter en fonction de ses propres repères et modèles ; décider, c’est établir des stratégies qui permettent d’atteindre ses objectifs ; et une fois qu’on a opté pour ce qu’on juge être la meilleure d’entre elles, on agit », explique Blondeau. Il s’agit ensuite de répéter ce cycle jusqu’à parvenir à des résultats optimaux.

Selon les étapes, Sentient met à profit différents modèles d’IA. « Les réseaux neuronaux (le deep learning) sont parfaits pour observer et orienter, car ils excellent à percevoir des données non-structurées (images, vidéos, textes) », dit-il. « Ils créent des abstractions comme on pourrait le faire dans notre cerveau, puis construisent des modèles pour les deux premières étapes. » Pour ce qui est d’établir des stratégies d’action, Sentient s’en remet aux systèmes évolutifs, dont la fonction est d’établir des « stratégies gagnantes ». « Sur la planète Terre, l’espèce humaine est une stratégie gagnante : sa capacité à survivre dans son environnement et le dominer est sans égale », dit-il. « L’une des raisons à cela, c’est que notre code génétique a évolué de façon à nous le permettre. » Sentient reproduit ce qu’on observe dans la nature en appliquant la même logique de sélection naturelle, afin de produire des IA évolutives et parfaitement adaptées. À ce détail près qu’ils compriment cinq milliards d’années d’évolution en quelques minutes ou quelques mois.

« Quand on parle d’IA, il y a un code déontologique à respecter »

« Au stade initial, on crée d’énormes populations d’êtres artificiels. Au départ, ils sont très simples, ce sont en quelque sorte des bactéries. Un petit nombre d’entre eux performent mieux que les autres. Pas très bien au départ, car c’est un processus entièrement hasardeux, mais il est important pour nous de les repérer. On prend alors leur code génétique, on les recombine et on leur donne une place un peu plus importante qu’aux autres dans une deuxième génération d’êtres artificiels. » Répété sur des milliards et des milliards d’ « êtres » et sur des milliers de générations, « une espèce émerge progressivement qui représente dans son ensemble une forme d’intelligence. Elle est la mieux armée pour survivre et dominer son environnement », dit Antoine Blondeau. Il y a sans aucun doute un immense bénéfice à tirer des aspects prédictifs de l’intelligence artificielle. Sa puissance de calcul et d’analyse surpasse de loin la nôtre, comme le prouvent les résultats de Sentient en matière de prédiction des chocs septiques. Son aspect décisionnaire, en revanche, a quelque chose d’instinctivement effrayant. Chez les êtres humains, il n’est pas rare que certaines stratégies gagnantes favorisent un groupe d’individus au détriment d’un autre. Dans l’écosystème capitaliste au sein duquel nous évoluons, les stratégies qui ont permis à 1 % de la population mondiale de posséder davantage que les 99 % restants se sont pour le moins avérées  « gagnantes ». La domination est totale, les conséquences désastreuses.

Pourquoi les intelligences artificielles obéissant à cette logique agiraient-elles différemment ? Dans le documentaire de Werner Herzog Lo and Behold, sorti l’été dernier, le PDG de SpaceX et Tesla Elon Musk émet de sérieuses réserves quant au pouvoir décisionnaire des IA. « Je crois que le plus grand risque n’est pas que l’IA développe une volonté propre, mais plutôt qu’elle suive à la lettre la volonté des gens qui définissent ses fonctions d’optimisation », confie-t-il au cinéaste allemand. « Si ces fonctions ne sont pas bien pensées, même si l’erreur en elle-même est bénigne, elles peuvent avoir des conséquences très graves. » Le milliardaire imagine une situation dans laquelle un fonds d’investissement privé demanderait uniquement à son IA de maximiser son portefeuille. « L’IA pourrait décider que la meilleure façon d’y parvenir est de réduire les biens de consommation, d’augmenter ceux de la défense et de déclarer une guerre », dit-il. Comment empêcher qu’un tel scénario catastrophe ait lieu ? « Il est clair que lorsqu’on parle d’intelligence, il y a un code déontologique à respecter », reconnaît Antoine Blondeau. « C’est d’ailleurs une des rares industries au monde à avoir été proactive en ce sens. » À l’hiver 2015, la Future of Life Institute, une organisation de recherche bénévole basée à Boston, a publié une charte intitulée « Priorités de recherche pour une intelligence artificielle robuste et bénéfique ». Signée par près de 8 000 acteurs du milieu – Antoine Blondeau et Sentient étaient parmi les premiers –, elle vise à « maximiser les bénéfices de l’IA tout en évitant les écueils potentiels ».

ulyces-sentientai-03

Elon Musk dans Lo and Behold
Crédits : Magnolia Pictures

« Il est du devoir des chercheurs dans le domaine de l’IA d’assurer que son impact futur sera bénéfique », conclut l’étude. Mais comment s’en assurer d’un point de vue technique ? « On peut contenir cette prise de décision dans un cadre défini par l’homme », explique le PDG de Sentient. Un cadre qu’on devine mieux défini par Antoine Blondeau et son équipe que tout ce que pourrait craindre Elon Musk. « Nous contrôlons totalement notre système », assure-t-il. Un autre risque majeur est cependant à craindre : « Le risque existentiel adviendra le jour où les machines prendront conscience de ces contraintes et qu’elles chercheront à les dépasser. » Ce jour-là, il vaudra mieux disposer d’un bouton off efficace. On peut craindre qu’il approche à grands pas au vu des avancées impressionnantes du deep learning, mais Antoine Blondeau affirme pour sa part qu’il n’est pas prêt d’arriver. « Ce sera très, très long. Si on regarde la liste des menaces qui pèsent sur l’humanité, l’IA est loin d’être la première », dit-il en souriant. « Le garde-fou, c’est le cadre déontologique dont j’ai parlé. Tant qu’on supervisera efficacement l’IA et qu’on empêchera qu’elle tombe aux mains de quelques personnes, on ne court pas de risque fondamental. Plus elle sera démocratisée, moins il y aura d’abus. »

~

Pour Antoine Blondeau, la peur de l’intelligence artificielle réside essentiellement dans la peur de l’inconnu. Ce même inconnu qui est au cœur des dernières avancées du domaine. « Les IA sont aujourd’hui capables d’un mode d’apprentissage qui nous est inconnu. Nous comprenons à quoi il sert, nous comprenons les données injectées dans l’IA et les résultats qui en ressortent, mais nous ne sommes pas en mesure d’expliquer le processus qui permet aux réseaux neuronaux d’évoluer des données aux résultats. » Nous allons de plus en plus être confrontés à des êtres artificiels comme Alice et Bob, qui ont inventé seuls leur propre langage indéchiffrable à force d’expériences, après leur avoir appris les bases de la communication chiffrée. « Le problème qui se pose aux êtres humains est de parvenir à faire confiance à des modèles incompréhensibles », résume Antoine Blondeau. « La seule solution qui s’offre à nous, c’est de vérifier que ça marche et que cela nous est bénéfique. Ce n’est pas différent d’une conversation entre deux scientifiques extrêmement spécialisés. Je fais confiance aux spécialistes pour me soigner, même si je ne comprends pas ce qu’ils se disent. C’est la même chose pour les IA. » À présent que la machine est enclenchée, il faut espérer qu’Antoine Blondeau dise vrai et que les corbeaux qui croassent leurs chants d’apocalypse à chaque nouvelle partie de go remportée par un être artificiel aient tort. Il faut inspirer un grand coup. Après tout, qu’est-ce qui pourrait aller de travers ? jgkgqf


Entretien préparé par Antoine Coste Dombre. Couverture : Antoine Blondeau. (Sentient Technologies)


INTERVIEW D’ELON MUSK, L’HOMME QUI VEUT EMPÊCHER LES MACHINES DE PRENDRE LE POUVOIR

ulyces-openai-couv Untitled-2

En créant OpenAI, une équipe de recherche à but non lucratif, Musk et Y Combinator espèrent limiter les risques de dérive en matière d’intelligence artificielle.

Comme si le domaine de l’intelligence artificielle (IA) n’était pas déjà assez compétitif – avec des géants comme Google, Apple, Facebook, Microsoft et même des marques automobiles comme Toyota qui se bousculent pour engager des chercheurs –, on compte aujourd’hui un petit nouveau, avec une légère différence cependant. Il s’agit d’une entreprise à but non lucratif du nom d’OpenAI, qui promet de rendre ses résultats publics et ses brevets libres de droits afin d’assurer que l’effrayante perspective de voir les ordinateurs surpasser l’intelligence humaine ne soit pas forcément la dystopie que certains redoutent.

ulyces-openai-01

L’équipe d’OpenAI
Crédits : OpenAI

Les fonds proviennent d’un groupe de sommités du monde de la tech, parmi lesquels Elon Musk, Reid Hoffman, Peter Thiel, Jessica Livingston et Amazon Web Services. À eux tous, ils ont promis plus d’un milliard de dollars destinés à être versés au fur et à mesure. Les co-présidents de l’entreprise sont Musk et Sam Altman, le PDG d’Y Combinator, dont le groupe de recherche fait aussi partie des donateurs – ainsi qu’Altman lui-même. Musk est célèbre pour ses critiques de l’IA, et il n’est pas surprenant de le retrouver ici. Mais Y Combinator, ça oui. Le Y Combinator est l’incubateur qui a démarré il y a dix ans comme un projet estival en finançant six startups et en « payant » leurs fondateurs en ramens et en précieux conseils, afin qu’ils puissent rapidement lancer leur business. Depuis, YC a aidé à lancer plus de mille entreprises, dont Dropbox, Airbnb et Stripe, et a récemment inauguré un département de recherche.

Ces deux dernières années, l’entreprise est dirigée par Altman, dont la société, Loopt, faisait partie des startups lancées en 2005 – elle a été vendue en 2012 pour 43,4 millions de dollars. Mais si YC et Altman font partie des bailleurs et qu’Altman est co-président, OpenAI est néanmoins une aventure indépendante et bien séparée. En gros, OpenAI est un laboratoire de recherche censé contrer les corporations qui pourraient gagner trop d’influence en utilisant des systèmes super-intelligents à des fins lucratives, ou les gouvernements qui risqueraient d’utiliser des IA pour asseoir leur pouvoir ou même oppresser les citoyens. Cela peut sembler idéaliste, mais l’équipe a déjà réussi à embaucher plusieurs grands noms, comme l’ancien directeur technique de Stripe, Greg Brockman (qui sera le directeur technique d’OpenAI) et le chercheur de renommée internationale Ilya Sutskever, qui travaillait pour Google et faisait partie d’un groupe renommé de jeunes scientifiques étudiant à Toronto sous la houlette du pionnier du système neuronal Geoff Hinton. Il sera le directeur de recherche d’OpenAI. Le reste des recrues comprend la crème des jeunes talents du milieu, dont les CV incluent des expériences au sein des plus grands groupes d’étude, à Facebook AI et DeepMind, la société d’IA que Google a récupérée en 2014. Open AI dispose aussi d’un prestigieux panel de conseillers dont Alan Kay, un scientifique pionnier de l’informatique. Les dirigeants d’OpenAI m’ont parlé du projet et de leurs aspirations. Les interviews se sont déroulées en deux parties, d’abord avec Altman seul, ensuite avec Altman, Musk et Brockman. J’ai édité et mixées les deux interviews dans un souci de clarté et de longueur.

IL VOUS RESTE À LIRE 85 % DE L’HISTOIRE