par Legs McNeil | 0 min | 9 novembre 2016

Alice et Bob

Pour certains, le 24 octobre dernier a sonné le glas de l’hu­­ma­­nité. C’est un article paru dans le jour­­nal interne de Google Brain qui a mis le feu aux poudres. Deux cher­­cheurs du projet de recherche de deep lear­­ning de Google, Martín Abadi et David G. Ander­­sen, y relatent une expé­­rience qu’ils ont élaboré pour apprendre à des intel­­li­­gences arti­­fi­­cielles à créer leur propre forme de chif­­fre­­ment. Deux d’entre elles, Alice et Bob, devaient s’en­­voyer un message chif­­fré qu’une troi­­sième IA bapti­­sée Eve tentait de décryp­­ter. Chaque fois qu’elle y parve­­nait, Alice trans­­for­­mait le message pour tenter de le rendre indé­­chif­­frable et Bob s’adap­­tait progres­­si­­ve­­ment pour comprendre son langage. Après plusieurs milliers d’échanges déco­­dés, Eve a fini par ne plus en être capable : Alice et Bob commu­­niquaient dans un langage connu seule­­ment d’eux-mêmes, incom­­pré­­hen­­sible pour Eve mais aussi pour l’hu­­ma­­nité toute entière. Si les IA de Google Brain sont capables d’ap­­prendre de leurs erreurs pour s’amé­­lio­­rer, c’est parce qu’elles reposent sur des réseaux de neurones arti­­fi­­ciels, qui leur permettent en quelque sorte de raison­­ner pour évoluer. L’ar­­ticle a semé la panique dans les rangs des jour­­na­­listes, qui y ont vu l’étin­­celle qui conduira selon toute proba­­bi­­lité à l’an­­ni­­hi­­la­­tion de l’es­­pèce humaine par un réseau de machines inar­­rê­­tables. Google affirme qu’il s’agit d’un moyen de se prému­­nir contre le hacking : chaque cybe­­rat­­taque entraî­­nera un réajus­­te­­ment du système de sécu­­rité par l’IA aux commandes, qui renfor­­cera auto­­ma­­tique­­ment son chif­­fre­­ment. Pour les obser­­va­­teurs alar­­més, la firme de Moun­­tain View déroule le tapis rouge aux conspi­­ra­­tions futures des machines contre l’hu­­ma­­nité.

ulyces-sentientai-02
Le schéma de l’ex­­pé­­rience
Crédits : Google Brain

Antoine Blon­­deau, lui, hausse les épaules. « Ça ne m’étonne pas », dit-il placi­­de­­ment. Pour le cofon­­da­­teur et PDG de Sentient Tech­­no­­lo­­gies, il s’agit d’une suite logique dans la recherche sur les réseaux neuro­­naux. « Créer des intel­­li­­gences non-humaines est le prin­­cipe même de la recherche sur l’in­­tel­­li­­gence arti­­fi­­cielle. » Éclipsé par les silhouettes tita­­nesques de Google ou Face­­book, vous n’avez peut-être jamais entendu parler de Sentient. Ils s’agit pour­­tant des concep­­teurs de la plus vaste plate­­forme d’in­­tel­­li­­gence arti­­fi­­cielle du monde. Soute­­nus par des inves­­tis­­seurs iconiques du domaine de l’IA comme Li Ka-shing et son fonds person­­nel Hori­­zon Ventures – Siri, DeepMind – ou des géants des télé­­com­­mu­­ni­­ca­­tions comme Access Indus­­tries – les proprié­­taires de Warner Music Group – et Tata Commu­­ni­­ca­­tions, ils tota­­lisent 143 millions de dollars d’in­­ves­­tis­­se­­ment. Il s’agit de la plus impor­­tante levée de fonds réali­­sée par une société privée dans le domaine de l’IA. À en croire Antoine Blon­­deau, cela n’a rien de surpre­­nant. « L’in­­tel­­li­­gence, c’est le busi­­ness model ultime. Tout est un problème d’in­­tel­­li­­gence dans le monde – d’in­­tel­­li­­gence humaine », dit-il. « Si vous parve­­nez à faire entrer progres­­si­­ve­­ment de l’IA dans ces proces­­sus, il est possible de créer une grande société, très valo­­ri­­sée et capable de chan­­ger beau­­coup de choses sur la planète – on espère en bien. » Sentient a pour ambi­­tion de créer des évolu­­tions et des amélio­­ra­­tions succes­­sives qui touche­­ront de nombreuses indus­­tries diffé­­rentes et pas seule­­ment le trading et l’e-commerce, son cœur de cible actuel. Leurs intel­­li­­gences arti­­fi­­cielles pour­­raient sauver de nombreuses vies et dura­­ble­­ment chan­­ger la nôtre. Tant qu’ils les gardent sous contrôle.

Sentient

En ce lundi midi, la foule est éparse aux abords de la MEO Arena de Lisbonne. De grands nuages blancs dérivent pares­­seu­­se­­ment au-dessus de la baie de la capi­­tale portu­­gaise. À l’ho­­ri­­zon, le pont Vasco da Gama enjambe la mer de Paille. Les cabines blanches du Tele­­fé­­rico da Expo glissent lente­­ment le long des câbles qui surplombent les aména­­ge­­ments du Parc des Nations, héri­­tés de l’Ex­­po­­si­­tion inter­­­na­­tio­­nale 1998. Ce décor apai­­sant, baigné de soleil, ferait presque oublier que l’en­­droit accueille cette semaine l’un des événe­­ments tech les plus impor­­tants de la planète : le Web Summit. Lancé en 2009 et orga­­nisé jusque là à Dublin, la confé­­rence a été délo­­ca­­li­­sée cette année à Lisbonne, où plus de 50 000 personnes sont atten­­dues pour assis­­ter aux talks de près de 700 inter­­­ve­­nants. Certains d’entre eux repré­­sentent les firmes les plus emblé­­ma­­tiques du monde de la tech, de Face­­book à Amazon en passant par Tinder. banniere-facebook-sansthecamp L’ef­­fer­­ves­­cence sera palpable dès demain, quand les confé­­rences battront leur plein, mais pour l’heure les parti­­ci­­pants fraî­­che­­ment munis de leur pass tuent le temps en terrasse. Il est un peu plus de midi lorsque Antoine Blon­­deau me retrouve au premier étage d’une café­­té­­ria de zone indus­­trielle à deux pas des pavillons du Web Summit. Un décor étrange pour discu­­ter d’une des formes de tech­­no­­lo­­gies les plus avan­­cées qui soient. Cela ne semble pas trou­­bler le PDG de Sentient. Grand et mince, les cheveux poivre et sel coupés court, Antoine Blon­­deau annonce avec décon­­trac­­tion qu’il ne parle pas souvent français et qu’il a perdu l’ha­­bi­­tude du vouvoie­­ment. Derrière ses lunettes légè­­re­­ment fumées, au design élégant, ses yeux sourient ou m’ob­­servent avec atten­­tion. Nous parlons briè­­ve­­ment d’Ulyces, il a fait ses recherches. « Vous publiez de longs repor­­tages qui sont en fait des histoires », résume-t-il. Pas mieux. En entre­­pre­­neur expé­­ri­­menté, il comprend immé­­dia­­te­­ment la fonc­­tion d’un service et le réduit d’ins­­tinct à son plus simple déno­­mi­­na­­teur. Une expé­­rience qui rejaillit jusque dans le nom de sa société. Le mot sentient vient du latin sentiens, « ressen­­tant », et désigne la capa­­cité « d’éprou­­ver des choses subjec­­ti­­ve­­ment, d’avoir des expé­­riences vécues ». Appliqué à l’in­­tel­­li­­gence arti­­fi­­cielle, son ambi­­tion est évidente mais plus profonde qu’il n’y paraît. « Le concept de sentience est central en éthique animale car un être sentient ressent la douleur, le plai­­sir et diverses émotions ; ce qui lui arrive lui importe. » Une défi­­ni­­tion qui corres­­pond bien à l’ap­­proche de l’IA qu’a adopté Sentient Tech­­no­­lo­­gies, qui repro­­duit les méca­­niques de l’évo­­lu­­tion pour élabo­­rer ses systèmes. C’est aussi une notion chère à la philo­­so­­phie boud­d­histe, ce qui nous en dit peut-être davan­­tage sur Antoine Blon­­deau lui-même. Cela fait 16 ans qu’il vit entre Hong Kong et San Fran­­cisco. Si son entre­­prise « est à 90 % en Cali­­for­­nie », son cœur est à Hong Kong, où il vit avec sa famille. C’est de là-bas qu’à la fin des années 1990, il s’est embarqué dans le domaine de l’IA en s’en­­vo­­lant pour la Sili­­con Valley. Ce qui l’y a poussé ? « L’at­­trait de pouvoir régler des problèmes que personne d’autre ne peut résoudre. » « J’ai pris la tête d’une entre­­prise qui s’ap­­pe­­lait Dejima. Jusqu’au début des 2000, nous avons déve­­loppé un logi­­ciel de language proces­­sing qui permet­­tait d’in­­te­­ra­­gir avec des machines en utili­­sant un réseau d’agents intel­­li­­gents. C’est cette tech­­no­­lo­­gie qui a donné nais­­sance à Siri des années après », raconte-t-il. « Nous avons été partie prenante d’un projet financé par la DARPA et géré par SRI Inter­­na­­tio­­nal. » Le centre de recherche de Palo Alto diri­­geait ce qui demeure encore aujourd’­­hui le plus grand projet d’in­­tel­­li­­gence arti­­fi­­cielle jamais financé – 250 millions de dollars. Après cinq ans de travail pour déve­­lop­­per un agent intel­­li­gent ultra-sophis­­tiqué, dans un but mili­­taire et civil, Dejima a été rache­­tée. « Puis SRI a demandé à la DARPA s’ils pouvaient faire un spin-off du projet pour le grand public, et c’est comme ça qu’est né Siri. »

ulyces-sentientai-01
L’ac­­cueil des bureaux de Sentient
Crédits : Sentient Tech­­no­­lo­­gies

Blon­­deau a gagné une visi­­bi­­lité et une répu­­ta­­tion consi­­dé­­rables au passage, et en 2008, il a voulu étendre son exper­­tise à d’autres hori­­zons. Il a lancé Sentient avec la même équipe. « L’idée était de prendre le nec plus ultra en matière d’IA et de l’aug­­men­­ter en le distri­­buant massi­­ve­­ment », dit-il. « En mariant l’in­­tel­­li­­gence arti­­fi­­cielle à une énorme capa­­cité de trai­­te­­ment, on crée un système évolu­­tif extrê­­me­­ment valo­­risé. En trading ou en e-commerce, un système qui apprend et conti­­nue à perfor­­mer dans le temps provoque des inves­­tis­­se­­ments toujours plus impor­­tants. » La plate­­forme qu’ils ont bâtie est colos­­sale. Huit ans après le lance­­ment de la société, Sentient a donné nais­­sance au plus vaste système d’IA du monde : il équipe envi­­ron deux millions de cœurs de proces­­seurs, 5 000 cartes graphiques et 4 000 sites de trai­­te­­ment dans le monde. Et main­­te­­nant qu’il est établi, ils ont investi des champs d’ac­­ti­­vité très diffé­­rents. « Nous travaillons aussi dans les domaines de la santé et de l’agri­­cul­­ture. On a créé une appli­­ca­­tion déri­­vée de notre travail dans le trading pour préve­­nir les chocs septiques. » La septi­­cé­­mie, une violente infec­­tion du sang déclen­­chée par un agent infec­­tieux, est la première cause de morta­­lité dans les services d’ur­­gences améri­­cains. « Quand on la contracte, on a une chance sur deux de mourir. » Avant Sentient, il n’y avait aucun moyen de préve­­nir l’in­­fec­­tion : les méde­­cins la détectent lorsque la pres­­sion arté­­rielle du patient chute bruta­­le­­ment. Il a alors 50 % de chances de ne pas en réchap­­per. En parte­­na­­riat avec le MIT, Sentient a déve­­loppé une IA capable de prédire l’in­­fec­­tion 30 minutes avant qu’elle n’ad­­vienne. Pour y parve­­nir, le système examine les courbes de la pres­­sion arté­­rielle et y décèle les signes avant-coureurs du choc. « On a atteint 91 % de réus­­site. La santé étant un domaine très régulé, il faudra du temps avant que le produit voie le jour, mais c’est une appli­­ca­­tion qui peut sauver des vies. Elle prouve aussi qu’on peut faire autre chose que de l’argent avec nos systèmes. » Dans le même ordre d’idée, c’est avec le MIT Media Lab que Sentient a déve­­loppé un système de contai­­ners intel­­li­­gents desti­­nés à l’agri­­cul­­ture. Petits ou de la taille d’un camion, ces envi­­ron­­ne­­ments sont inté­­gra­­le­­ment contrô­­lés par une IA : lumière, humi­­dité, tempé­­ra­­ture, engrais, rien ne lui échappe. Et cette fois, elle n’est pas seule­­ment prédic­­tive. « L’IA qu’on injecte dans le système contrôle les régu­­la­­teurs et observe la crois­­sance des plantes », explique-t-il. « En fonc­­tion de la crois­­sance ou de la non-crois­­sance, le système auto-ajuste les para­­mètres pour arri­­ver au proto­­cole de crois­­sance opti­­mal. » Une fonc­­tion appli­­cable à de nombreux domaines diffé­­rents, qui implique que l’IA observe son envi­­ron­­ne­­ment et apprenne de ses erreurs pour s’amé­­lio­­rer jusqu’à atteindre la perfec­­tion. Une logique que suivent aussi Alice et Bob, les IA bavardes de Google, héri­­tée de compor­­te­­ments qui nous ressemblent. Mais comment éduque-t-on une intel­­li­­gence arti­­fi­­cielle ? p4amy

Les stra­­té­­gies gagnantes

Les IA de Sentient Tech­­no­­lo­­gies reposent sur des algo­­rithmes évolu­­tion­­nistes qui leur permettent d’être prédic­­tives mais aussi déci­­sion­­naires. Une fonc­­tion extrê­­me­­ment utile dans un système en boucle, car « elles peuvent auto-apprendre de leurs erreurs ». Ce système déci­­sion­­nel repose sur un concept inventé par un pilote de chasse de l’US Air Force en 1960. Baptisé boucle OODA, pour  Observe, Orient, Decide and Act (« obser­­ver, s’orien­­ter, déci­­der et agir »), il expliquait pourquoi John Boyd battait systé­­ma­­tique­­ment ses élèves à l’en­­traî­­ne­­ment et forma­­lise le cycle de déci­­sions qu’il faut adop­­ter pour vaincre ses enne­­mis. « Obser­­ver, c’est utili­­ser ses sens pour comprendre le monde et le perce­­voir ; orien­­ter, c’est bâtir un modèle en fonc­­tion des circons­­tances dans lesquelles on se trouve et l’orien­­ter en fonc­­tion de ses propres repères et modèles ; déci­­der, c’est établir des stra­­té­­gies qui permettent d’at­­teindre ses objec­­tifs ; et une fois qu’on a opté pour ce qu’on juge être la meilleure d’entre elles, on agit », explique Blon­­deau. Il s’agit ensuite de répé­­ter ce cycle jusqu’à parve­­nir à des résul­­tats opti­­maux. Selon les étapes, Sentient met à profit diffé­­rents modèles d’IA. « Les réseaux neuro­­naux (le deep lear­­ning) sont parfaits pour obser­­ver et orien­­ter, car ils excellent à perce­­voir des données non-struc­­tu­­rées (images, vidéos, textes) », dit-il. « Ils créent des abstrac­­tions comme on pour­­rait le faire dans notre cerveau, puis construisent des modèles pour les deux premières étapes. » Pour ce qui est d’éta­­blir des stra­­té­­gies d’ac­­tion, Sentient s’en remet aux systèmes évolu­­tifs, dont la fonc­­tion est d’éta­­blir des « stra­­té­­gies gagnantes ». « Sur la planète Terre, l’es­­pèce humaine est une stra­­té­­gie gagnante : sa capa­­cité à survivre dans son envi­­ron­­ne­­ment et le domi­­ner est sans égale », dit-il. « L’une des raisons à cela, c’est que notre code géné­­tique a évolué de façon à nous le permettre. » Sentient repro­­duit ce qu’on observe dans la nature en appliquant la même logique de sélec­­tion natu­­relle, afin de produire des IA évolu­­tives et parfai­­te­­ment adap­­tées. À ce détail près qu’ils compriment cinq milliards d’an­­nées d’évo­­lu­­tion en quelques minutes ou quelques mois.

« Quand on parle d’IA, il y a un code déon­­to­­lo­­gique à respec­­ter »

« Au stade initial, on crée d’énormes popu­­la­­tions d’êtres arti­­fi­­ciels. Au départ, ils sont très simples, ce sont en quelque sorte des bacté­­ries. Un petit nombre d’entre eux performent mieux que les autres. Pas très bien au départ, car c’est un proces­­sus entiè­­re­­ment hasar­­deux, mais il est impor­­tant pour nous de les repé­­rer. On prend alors leur code géné­­tique, on les recom­­bine et on leur donne une place un peu plus impor­­tante qu’aux autres dans une deuxième géné­­ra­­tion d’êtres arti­­fi­­ciels. » Répété sur des milliards et des milliards d’ « êtres » et sur des milliers de géné­­ra­­tions, « une espèce émerge progres­­si­­ve­­ment qui repré­­sente dans son ensemble une forme d’in­­tel­­li­­gence. Elle est la mieux armée pour survivre et domi­­ner son envi­­ron­­ne­­ment », dit Antoine Blon­­deau. Il y a sans aucun doute un immense béné­­fice à tirer des aspects prédic­­tifs de l’in­­tel­­li­­gence arti­­fi­­cielle. Sa puis­­sance de calcul et d’ana­­lyse surpasse de loin la nôtre, comme le prouvent les résul­­tats de Sentient en matière de prédic­­tion des chocs septiques. Son aspect déci­­sion­­naire, en revanche, a quelque chose d’ins­­tinc­­ti­­ve­­ment effrayant. Chez les êtres humains, il n’est pas rare que certaines stra­­té­­gies gagnantes favo­­risent un groupe d’in­­di­­vi­­dus au détri­­ment d’un autre. Dans l’éco­­sys­­tème capi­­ta­­liste au sein duquel nous évoluons, les stra­­té­­gies qui ont permis à 1 % de la popu­­la­­tion mondiale de possé­­der davan­­tage que les 99 % restants se sont pour le moins avérées  « gagnantes ». La domi­­na­­tion est totale, les consé­quences désas­­treuses. Pourquoi les intel­­li­­gences arti­­fi­­cielles obéis­­sant à cette logique agiraient-elles diffé­­rem­­ment ? Dans le docu­­men­­taire de Werner Herzog Lo and Behold, sorti l’été dernier, le PDG de SpaceX et Tesla Elon Musk émet de sérieuses réserves quant au pouvoir déci­­sion­­naire des IA. « Je crois que le plus grand risque n’est pas que l’IA déve­­loppe une volonté propre, mais plutôt qu’elle suive à la lettre la volonté des gens qui défi­­nissent ses fonc­­tions d’op­­ti­­mi­­sa­­tion », confie-t-il au cinéaste alle­­mand. « Si ces fonc­­tions ne sont pas bien pensées, même si l’er­­reur en elle-même est bénigne, elles peuvent avoir des consé­quences très graves. » Le milliar­­daire imagine une situa­­tion dans laquelle un fonds d’in­­ves­­tis­­se­­ment privé deman­­de­­rait unique­­ment à son IA de maxi­­mi­­ser son porte­­feuille. « L’IA pour­­rait déci­­der que la meilleure façon d’y parve­­nir est de réduire les biens de consom­­ma­­tion, d’aug­­men­­ter ceux de la défense et de décla­­rer une guerre », dit-il. Comment empê­­cher qu’un tel scéna­­rio catas­­trophe ait lieu ? « Il est clair que lorsqu’on parle d’in­­tel­­li­­gence, il y a un code déon­­to­­lo­­gique à respec­­ter », recon­­naît Antoine Blon­­deau. « C’est d’ailleurs une des rares indus­­tries au monde à avoir été proac­­tive en ce sens. » À l’hi­­ver 2015, la Future of Life Insti­­tute, une orga­­ni­­sa­­tion de recherche béné­­vole basée à Boston, a publié une charte inti­­tu­­lée « Prio­­ri­­tés de recherche pour une intel­­li­­gence arti­­fi­­cielle robuste et béné­­fique ». Signée par près de 8 000 acteurs du milieu – Antoine Blon­­deau et Sentient étaient parmi les premiers –, elle vise à « maxi­­mi­­ser les béné­­fices de l’IA tout en évitant les écueils poten­­tiels ».

ulyces-sentientai-03
Elon Musk dans Lo and Behold
Crédits : Magno­­lia Pictures

« Il est du devoir des cher­­cheurs dans le domaine de l’IA d’as­­su­­rer que son impact futur sera béné­­fique », conclut l’étude. Mais comment s’en assu­­rer d’un point de vue tech­­nique ? « On peut conte­­nir cette prise de déci­­sion dans un cadre défini par l’homme », explique le PDG de Sentient. Un cadre qu’on devine mieux défini par Antoine Blon­­deau et son équipe que tout ce que pour­­rait craindre Elon Musk. « Nous contrô­­lons tota­­le­­ment notre système », assure-t-il. Un autre risque majeur est cepen­­dant à craindre : « Le risque exis­­ten­­tiel advien­­dra le jour où les machines pren­­dront conscience de ces contraintes et qu’elles cher­­che­­ront à les dépas­­ser. » Ce jour-là, il vaudra mieux dispo­­ser d’un bouton off effi­­cace. On peut craindre qu’il approche à grands pas au vu des avan­­cées impres­­sion­­nantes du deep lear­­ning, mais Antoine Blon­­deau affirme pour sa part qu’il n’est pas prêt d’ar­­ri­­ver. « Ce sera très, très long. Si on regarde la liste des menaces qui pèsent sur l’hu­­ma­­nité, l’IA est loin d’être la première », dit-il en souriant. « Le garde-fou, c’est le cadre déon­­to­­lo­­gique dont j’ai parlé. Tant qu’on super­­­vi­­sera effi­­ca­­ce­­ment l’IA et qu’on empê­­chera qu’elle tombe aux mains de quelques personnes, on ne court pas de risque fonda­­men­­tal. Plus elle sera démo­­cra­­ti­­sée, moins il y aura d’abus. »

~

Pour Antoine Blon­­deau, la peur de l’in­­tel­­li­­gence arti­­fi­­cielle réside essen­­tiel­­le­­ment dans la peur de l’in­­connu. Ce même inconnu qui est au cœur des dernières avan­­cées du domaine. « Les IA sont aujourd’­­hui capables d’un mode d’ap­­pren­­tis­­sage qui nous est inconnu. Nous compre­­nons à quoi il sert, nous compre­­nons les données injec­­tées dans l’IA et les résul­­tats qui en ressortent, mais nous ne sommes pas en mesure d’ex­­pliquer le proces­­sus qui permet aux réseaux neuro­­naux d’évo­­luer des données aux résul­­tats. » Nous allons de plus en plus être confron­­tés à des êtres arti­­fi­­ciels comme Alice et Bob, qui ont inventé seuls leur propre langage indé­­chif­­frable à force d’ex­­pé­­riences, après leur avoir appris les bases de la commu­­ni­­ca­­tion chif­­frée. « Le problème qui se pose aux êtres humains est de parve­­nir à faire confiance à des modèles incom­­pré­­hen­­sibles », résume Antoine Blon­­deau. « La seule solu­­tion qui s’offre à nous, c’est de véri­­fier que ça marche et que cela nous est béné­­fique. Ce n’est pas diffé­rent d’une conver­­sa­­tion entre deux scien­­ti­­fiques extrê­­me­­ment spécia­­li­­sés. Je fais confiance aux spécia­­listes pour me soigner, même si je ne comprends pas ce qu’ils se disent. C’est la même chose pour les IA. » À présent que la machine est enclen­­chée, il faut espé­­rer qu’An­­toine Blon­­deau dise vrai et que les corbeaux qui croassent leurs chants d’apo­­ca­­lypse à chaque nouvelle partie de go rempor­­tée par un être arti­­fi­­ciel aient tort. Il faut inspi­­rer un grand coup. Après tout, qu’est-ce qui pour­­rait aller de travers ? jgkgqf


Entre­­tien préparé par Antoine Coste Dombre. Couver­­ture : Antoine Blon­­deau. (Sentient Tech­­no­­lo­­gies)

INTERVIEW D’ELON MUSK, L’HOMME QUI VEUT EMPÊCHER LES MACHINES DE PRENDRE LE POUVOIR

ulyces-openai-couv Untitled-2

En créant OpenAI, une équipe de recherche à but non lucra­­tif, Musk et Y Combi­­na­­tor espèrent limi­­ter les risques de dérive en matière d’in­­tel­­li­­gence arti­­fi­­cielle.

Comme si le domaine de l’in­­tel­­li­­gence arti­­fi­­cielle (IA) n’était pas déjà assez compé­­ti­­tif – avec des géants comme Google, Apple, Face­­book, Micro­­soft et même des marques auto­­mo­­biles comme Toyota qui se bous­­culent pour enga­­ger des cher­­cheurs –, on compte aujourd’­­hui un petit nouveau, avec une légère diffé­­rence cepen­­dant. Il s’agit d’une entre­­prise à but non lucra­­tif du nom d’OpenAI, qui promet de rendre ses résul­­tats publics et ses brevets libres de droits afin d’as­­su­­rer que l’ef­­frayante pers­­pec­­tive de voir les ordi­­na­­teurs surpas­­ser l’in­­tel­­li­­gence humaine ne soit pas forcé­­ment la dysto­­pie que certains redoutent.

ulyces-openai-01
L’équipe d’OpenAI
Crédits : OpenAI

Les fonds proviennent d’un groupe de sommi­­tés du monde de la tech, parmi lesquels Elon Musk, Reid Hoff­­man, Peter Thiel, Jessica Living­s­ton et Amazon Web Services. À eux tous, ils ont promis plus d’un milliard de dollars desti­­nés à être versés au fur et à mesure. Les co-prési­­dents de l’en­­tre­­prise sont Musk et Sam Altman, le PDG d’Y Combi­­na­­tor, dont le groupe de recherche fait aussi partie des dona­­teurs – ainsi qu’Alt­­man lui-même. Musk est célèbre pour ses critiques de l’IA, et il n’est pas surpre­­nant de le retrou­­ver ici. Mais Y Combi­­na­­tor, ça oui. Le Y Combi­­na­­tor est l’in­­cu­­ba­­teur qui a démarré il y a dix ans comme un projet esti­­val en finançant six star­­tups et en « payant » leurs fonda­­teurs en ramens et en précieux conseils, afin qu’ils puissent rapi­­de­­ment lancer leur busi­­ness. Depuis, YC a aidé à lancer plus de mille entre­­prises, dont Drop­­box, Airbnb et Stripe, et a récem­­ment inau­­guré un dépar­­te­­ment de recherche. Ces deux dernières années, l’en­­tre­­prise est diri­­gée par Altman, dont la société, Loopt, faisait partie des star­­tups lancées en 2005 – elle a été vendue en 2012 pour 43,4 millions de dollars. Mais si YC et Altman font partie des bailleurs et qu’Alt­­man est co-président, OpenAI est néan­­moins une aven­­ture indé­­pen­­dante et bien sépa­­rée. En gros, OpenAI est un labo­­ra­­toire de recherche censé contrer les corpo­­ra­­tions qui pour­­raient gagner trop d’in­­fluence en utili­­sant des systèmes super-intel­­li­­gents à des fins lucra­­tives, ou les gouver­­ne­­ments qui risque­­raient d’uti­­li­­ser des IA pour asseoir leur pouvoir ou même oppres­­ser les citoyens. Cela peut sembler idéa­­liste, mais l’équipe a déjà réussi à embau­­cher plusieurs grands noms, comme l’an­­cien direc­­teur tech­­nique de Stripe, Greg Brock­­man (qui sera le direc­­teur tech­­nique d’OpenAI) et le cher­­cheur de renom­­mée inter­­­na­­tio­­nale Ilya Suts­­ke­­ver, qui travaillait pour Google et faisait partie d’un groupe renommé de jeunes scien­­ti­­fiques étudiant à Toronto sous la houlette du pion­­nier du système neuro­­nal Geoff Hinton. Il sera le direc­­teur de recherche d’OpenAI. Le reste des recrues comprend la crème des jeunes talents du milieu, dont les CV incluent des expé­­riences au sein des plus grands groupes d’étude, à Face­­book AI et DeepMind, la société d’IA que Google a récu­­pé­­rée en 2014. Open AI dispose aussi d’un pres­­ti­­gieux panel de conseillers dont Alan Kay, un scien­­ti­­fique pion­­nier de l’in­­for­­ma­­tique. Les diri­­geants d’OpenAI m’ont parlé du projet et de leurs aspi­­ra­­tions. Les inter­­­views se sont dérou­­lées en deux parties, d’abord avec Altman seul, ensuite avec Altman, Musk et Brock­­man. J’ai édité et mixées les deux inter­­­views dans un souci de clarté et de longueur.

IL VOUS RESTE À LIRE 85 % DE L’HISTOIRE

Down­load WordP­ress Themes Free
Down­load Best WordP­ress Themes Free Down­load
Free Down­load WordP­ress Themes
Down­load Best WordP­ress Themes Free Down­load
udemy course down­load free
Premium WordPress Themes Download
Download WordPress Themes
Premium WordPress Themes Download
Download Best WordPress Themes Free Download
download udemy paid course for free

PLUS DE SCIENCE

Rencontre avec les inven­teurs de l’ex­pé­rience qui fait tomber amou­reux

209k 14 février 2019 stories . science

Peut-on soigner son corps en soignant son esprit ?

258k 12 février 2019 stories . science

Peut-on vivre jusqu’à 200 ans ?

179k 30 janvier 2019 stories . science