fbpx

par James Somers | 30 décembre 2014

IA

« Tout dépend de ce que vous enten­dez par “intel­li­gence arti­fi­cielle”. » Douglas Hofstad­ter se tient dans une épice­rie de Bloo­ming­ton, dans l’In­diana, il choi­sit des ingré­dients pour prépa­rer une salade. « Si par intel­li­gence arti­fi­cielle on désigne le projet de comprendre l’es­prit, ou de créer quelque chose de simi­laire à l’es­prit humain, alors on peut dire – on n’est pas obligé d’al­ler jusque-là –, mais on peut dire qu’il s’agit d’un des seuls travaux viables dans ce sens. »

ulyces-ia-01
Crédits

Hofstad­ter prononce ces mots avec une désin­vol­ture assu­mée, car il ne fait aucun doute pour lui que les projets les plus stimu­lants dans le domaine de l’in­tel­li­gence arti­fi­cielle moderne, ceux que le public consi­dère comme autant de jalons vers un monde inspiré de la science-fiction – tels que Watson, le super-ordi­na­teur d’IBM qui joue au Jeopardy!, ou Siri, l’as­sis­tant vocal de l’iP­hone – n’ont en réalité que bien peu à voir avec l’in­tel­li­gence. Depuis trente ans, le plus souvent dans une vieille maison sur le campus de l’uni­ver­sité de l’In­diana, lui et ses étudiants de master ont pris les choses en main : ils s’em­ploient à essayer de comprendre le fonc­tion­ne­ment de notre pensée, en déve­lop­pant des programmes infor­ma­tiques qui pensent. L’hy­po­thèse sous-jacente est simple : l’es­prit est un logi­ciel inso­lite, et le meilleur moyen de déchif­frer un logi­ciel consiste à le déve­lop­per soi-même. Les ordi­na­teurs sont assez souples pour modé­li­ser les étranges convo­lu­tions de notre pensée, tout en n’obéis­sant qu’à des instruc­tions précises. Si cette tenta­tive est couron­née de succès, la victoire sera double : nous serons enfin parve­nus à comprendre préci­sé­ment la méca­nique de notre esprit, et nous aurons fabriqué des machines intel­li­gentes. L’idée qui a changé la vie d’Hof­stad­ter, comme il l’a plusieurs fois expliqué au fil des ans, lui est venue sur la route des vacances, alors qu’il était étudiant en physique des parti­cules. Décou­ragé par la tour­nure que prenait sa thèse à l’uni­ver­sité d’Ore­gon, il se sentait « profon­dé­ment désem­paré » et avait décidé de plier bagages et de rouler vers l’est, lors de cet été 1972, à travers les terres au volant de sa voiture – qu’il avait bapti­sée Quick­sil­ver (« Vif-argent »). Toutes les nuits, il instal­lait sa tente à un nouvel empla­ce­ment, « parfois dans une forêt, parfois au bord d’un lac », et lisait à la lueur d’une lampe-torche. Il était libre de penser à ce qu’il voulait, et avait choisi d’orien­ter ses pensées sur la pensée elle-même. Depuis le moment où, vers 14 ans, il avait décou­vert que sa petite sœur Molly avait « quelque chose de défec­tueux dans son cerveau » et ne pouvait accé­der au langage (son trouble neuro­lo­gique, proba­ble­ment de nais­sance, n’a jamais été diagnos­tiqué), Hofstad­ter avait été pris d’une obses­sion discrète pour les rela­tions entre l’es­prit et la matière. Le père de la psycho­lo­gie, William James, décri­vait en 1890 ce problème comme « la chose la plus mysté­rieuse du monde » : comment la conscience peut-elle être physique ? Comment quelques livres de géla­tine grise peuvent-elles donner nais­sance à nos pensées et à nos iden­ti­tés propres ? Errant au volant de sa Mercury 1956, Hofstad­ter pensa avoir trouvé la réponse – elle rési­dait, entre tous les endroits possibles, au cœur d’une preuve mathé­ma­tique. En 1931, le célèbre logi­cien d’ori­gine autri­chienne Kurt Gödel avait montré comment un système mathé­ma­tique permet­tait d’éta­blir des véri­tés non seule­ment sur les nombres, mais aussi sur le système lui-même. La conscience, pour Hofstad­ter, émerge à travers le même type de « boucle de rétro­ac­tion avec traver­sées de niveaux ». Il avait pris une après-midi pour donner forme à son idée dans une lettre adres­sée à un ami. Au bout de trente pages manus­crites, il avait renoncé à l’en­voyer, préfé­rant lais­ser les idées germer un moment. Sept ans plus tard, elles avaient moins germé que méta­stasé, donnant lieu à un livre de 777 pages pesant 1,3 kilo­gramme inti­tulé Gödel, Escher, Bach : Les Brins d’une Guir­lande Éter­nelle, qui lui vaudrait d’ob­te­nir le prix Pulit­zer de l’es­sai en 1980, à seule­ment 35 ans et pour un premier ouvrage.

ulyces-ia-02-1
Mercury 1956
Crédits : Alden Jewell

GEB, comme on surnomma le livre, fit sensa­tion. Son succès fut cata­lysé par Martin Gard­ner, célèbre chro­niqueur du maga­zine Scien­ti­fic Ameri­can, qui décida, fait pour le moins inha­bi­tuel, de dédier l’en­semble de sa rubrique du numéro de juillet 1979 à ce seul ouvrage. Sa critique, dithy­ram­bique, commençait ainsi : « Tous les dix ans, un auteur inconnu sort un livre dont la profon­deur, la clarté, la portée, l’es­prit, la beauté et l’ori­gi­na­lité sont tels qu’il est reconnu d’em­blée comme un événe­ment litté­raire majeur. » John Holland, qui fut le premier Améri­cain titu­laire d’un docto­rat en infor­ma­tique (à l’époque sous l’étiquette « sciences de la commu­ni­ca­tion ») se remé­more l’évé­ne­ment en ces termes : « Dans mon entou­rage, la réac­tion géné­rale s’ap­pa­ren­tait à de l’émer­veille­ment. » Hofstad­ter semblait sur le point de lais­ser une marque indé­lé­bile dans la culture contem­po­raine. GEB n’était pas seule­ment un ouvrage influent, il portait en lui les folles promesses de l’ave­nir. Les gens le consi­dé­raient comme la bible de l’in­tel­li­gence arti­fi­cielle, cette disci­pline nais­sante à l’in­ter­sec­tion de l’in­for­ma­tique, des sciences cogni­tives, des neuros­ciences et de la psycho­lo­gie. La descrip­tion par Hofstad­ter de programmes infor­ma­tiques capables de faire preuve de créa­ti­vité au lieu de se montrer seule­ment effi­caces, sa feuille de route pour mettre au jour « les struc­tures logi­cielles secrètes de notre esprit », ont propulsé une géné­ra­tion entière de jeunes étudiants enthou­siastes dans le champ de l’IA. Puis l’IA évolua et Hofstad­ter, qui n’ap­prou­vait pas cette évolu­tion, dispa­rut presque tota­le­ment.

Force brute

L’en­trée en scène de GEB corres­pond à un tour­nant dans l’his­toire de l’IA. Au début des années 1980, le champ était en déclin : les finan­ce­ments desti­nés à la recherche fonda­men­tale à long terme étaient en train de fondre, tandis que l’at­ten­tion se portait vers la concep­tion de systèmes pratiques. La recherche ambi­tieuse en IA avait acquis une mauvaise répu­ta­tion. Les promesses candides et irréa­listes étaient deve­nues la norme, à commen­cer par la confé­rence de Dart­mouth de l’été 1956, événe­ment fonda­teur de la disci­pline. ulyces-ia-03-1Les orga­ni­sa­teurs – au nombre desquels John McCar­thy, l’in­ven­teur du terme intel­li­gence arti­fi­cielle – décla­rèrent que « si un groupe de scien­ti­fiques choi­sis avec précau­tion y travaillait durant tout un été », il réali­se­rait d’im­por­tants progrès en vue de créer des machines capables d’uti­li­ser le langage, de former des concepts, de s’amé­lio­rer ou de résoudre des problèmes pour le moment réser­vés aux humains. McCar­thy recon­nut plus tard leur échec : « l’IA est plus diffi­cile que nous ne pensions. » Dans un contexte géopo­li­tique de plus en plus tendu (lié à la guerre du Viet­nam), l’un des prin­ci­paux bailleurs de fond de la recherche en IA, l’Agence pour les projets de recherche avan­cée (Arpa) du dépar­te­ment de la Défense améri­cain commença à se montrer plus sélec­tive. En 1969, le Congrès vota l’amen­de­ment Mans­field, qui restrei­gnait le soutien finan­cier de la Défense aux seuls projets « en rela­tion directe et mani­feste avec une opéra­tion ou un objec­tif mili­taires ». En 1972, l’Arpa devint la Darpa, avec un D pour « Défense », de façon à reflé­ter ses nouvelles prio­ri­tés de finan­ce­ment. Au milieu des années 1970, l’agence s’in­ter­ro­geait : quelles avan­cées concrètes en matière de défense natio­nale avait-elle obtenu, au prix de dix années et 50 millions de dollars inves­tis dans la recherche préli­mi­naire ? Au début des années 1980, la pres­sion devint suffi­sante pour que l’IA commence à mûrir – ou muter, selon les points de vue. Née comme une tenta­tive de réponse posi­tive à la fameuse ques­tion d’Alan Turing « Les machines peuvent-elles penser ? », elle amorçait sa trans­for­ma­tion en une sous-disci­pline de l’in­gé­nie­rie logi­cielle, mue par une logique de recherche appliquée. De plus en plus, le travail se faisait dans une pers­pec­tive de court terme, avec des ache­teurs poten­tiels à la clé. Les mili­taires privi­lé­giaient des projets tels que des systèmes de comman­de­ment et de contrôle, un logi­ciel d’as­sis­tance embarqué pour les pilotes de chasse, ou des programmes desti­nés à iden­ti­fier auto­ma­tique­ment les éléments stra­té­giques (routes, ponts, réser­voirs, silos) d’une photo­gra­phie aérienne. Dans le secteur privé, la mode était aux « systèmes experts », des produits de niche comme des systèmes de sélec­tion de pieux, desti­nés à aider les archi­tectes à choi­sir les maté­riaux pour des fonda­tions, ou le programme d’Ex­per­tise auto­ma­ti­sée du câble, destiné à trai­ter et synthé­ti­ser les rapports de main­te­nance du réseau télé­pho­nique. Dans GEB, Hofstad­ter défend une concep­tion de l’IA qui se destine moins à résoudre intel­li­gem­ment les problèmes humains qu’à comprendre l’in­tel­li­gence humaine – et ce au moment précis où une telle approche, consi­dé­rée comme peu fruc­tueuse, était en voie d’aban­don. Son étoile déclina rapi­de­ment. Il s’éloi­gna progres­si­ve­ment d’un courant majo­ri­taire soumis à l’im­pé­ra­tif de fabriquer des machines perfor­mantes, sans trop d’égards pour les ques­tions de vrai­sem­blance psycho­lo­gique.

ulyces-ia-04
Kaspa­rov vs Deep Blue
Défaite de Garry Kaspa­rov, 1997
Crédits : Compu­ter History Museum

Prenez Deep Blue, le super­cal­cu­la­teur d’IBM qui a surpassé le grand maître Garry Kaspa­rov aux échecs. Sa victoire est fondée sur la force brute. À son tour de jeu, Deep Blue calcule les éven­tuelles ripostes de son adver­saire à chacun de ses coups poten­tiels, puis évalue ses propres ripostes, et ainsi de suite sur au moins six niveaux de prévi­sion. À l’aide d’une fonc­tion d’éva­lua­tion effi­cace, il calcule ensuite un score asso­cié à chaque posi­tion, puis choi­sit de jouer le coup qui conduit au meilleur score. C’est donc la puis­sance de calcul seule qui a permis à Deep Blue de vaincre les meilleurs joueurs humains de la planète. Il pouvait évaluer jusqu’à 330 millions de posi­tions par seconde avant de prendre une déci­sion, quand Kaspa­rov devait s’en tenir à quelques dizaines. Mais pour Hofstad­ter, à quoi bon accom­plir une tâche s’il n’y a aucun éclai­rage à la clef ? « D’ac­cord, Deep Blue joue très bien aux échecs – et alors ? Cela nous apprend-il quoi que ce soit sur la façon dont nous jouons aux échecs ? Non. Cela nous dit-il comment Kaspa­rov appré­hende et analyse une posi­tion de jeu ? » Une variété d’IA, aussi impres­sion­nante soit-elle, qui n’a pas pour ambi­tion de répondre à de telles ques­tions n’est de son point de vue qu’une distrac­tion. Devenu un acteur de la disci­pline, Hofstad­ter a presque aussi­tôt pris ses distances avec elle. « En tant que cher­cheur néophyte en IA, il était clair que je ne voulais pas prendre part à cette super­che­rie. C’était une évidence : faire passer le compor­te­ment de programmes fantai­sistes pour de l’in­tel­li­gence alors que ça n’a rien à voir, très peu pour moi. J’ignore pourquoi il n’y a pas plus de gens dans mon cas. » Une réponse possible réside dans le fait qu’entre le début des années 1980 et la fin de la décen­nie, le marché de l’IA est passé de quelques millions de dollars à plusieurs milliards. Après la victoire de Deep Blue en 1997, la valeur bour­sière d’IBM a grimpé de 18 milliards de dollars. À mesure que l’IA se trans­for­mait en une morne disci­pline d’in­gé­nie­rie, ses accom­plis­se­ments sont allés crois­sant. Aujourd’­hui, sur la base de tech­niques n’ayant rien à voir avec la pensée humaine, l’IA semble connaître une sorte d’âge d’or. Elle a envahi l’in­dus­trie lourde, les trans­ports et la finance. On la retrouve derrière beau­coup des fonc­tions clefs de Google, les recom­man­da­tions de films de Netflix, Watson, Siri, les drones auto­nomes, ou encore la voiture auto-pilo­tée. « La quête du “vol arti­fi­ciel” a été couron­née de succès quand les frères Wright et les autres cessèrent d’imi­ter les oiseaux et commen­cè­rent… à comprendre l’aé­ro­dy­na­mique », écrivent Stuart Russell et Peter Norvig dans leur manuel de réfé­rence, Intel­li­gence arti­fi­cielle. Les recherches en IA ont commencé à décol­ler à partir du moment où le modèle humain a été aban­donné, et du fait de ce chan­ge­ment de cap. C’est la force de l’ana­lo­gie : si les avions ne battent pas des ailes, pourquoi les ordi­na­teurs devraient-ils penser ?

ulyces-ia-05
50 ans de super­or­di­na­teurs

L’ar­gu­ment est convain­cant. Mais il perd de son acuité quand on consi­dère nos besoins : un Google qui saurait, à l’ins­tar d’un autre être humain, ce que vous avez en tête quand vous formu­lez une requête. « Quel est la valeur marchande combi­née de tous les moteurs de recherche du web ? » commente Russell, profes­seur d’in­for­ma­tique à Berke­ley. « Proba­ble­ment quatre ou cinq cents milliards de dollars. Des systèmes capables d’ex­traire toutes ces infor­ma­tions et de les comprendre vaudraient dix fois plus. » C’est donc la ques­tion à mille milliards : l’ap­proche qui sous-tend l’IA contem­po­raine, moins fondée sur l’es­prit que sur les données et l’in­gé­nie­rie de masse, nous conduit-elle à bon port ? Comment mettre au point un moteur de recherche capable de discer­ne­ment quand on ne sait même pas comment nous compre­nons les choses ? Comme Russell et Norvig le recon­naissent poli­ment dans le dernier chapitre de leur ouvrage, le tour­nant pratique de l’IA n’est pas sans évoquer cet homme qui tente d’al­ler sur la lune en grim­pant à un arbre : « Jusqu’ici, on peut noter une progres­sion régu­lière. » Consi­dé­rez la diffi­culté qu’ont toujours les ordi­na­teurs actuels à recon­naître une simple lettre A écrite à la main. Cette tâche est si ardue qu’elle sert de base aux « Capt­cha » (de l’an­glais comple­tely auto­ma­ted public Turing test to tell compu­ters and humans apart, « test de Turing entiè­re­ment auto­ma­tisé pour diffé­ren­cier les ordi­na­teurs et les humains »), ces appli­ca­tions qui requièrent de déchif­frer du texte déformé et d’en reco­pier les carac­tères afin, par exemple, de pouvoir s’ins­crire sur un site web. Pour Hofstad­ter, il n’y a là rien de surpre­nant. Savoir ce que tous les A ont en commun, explique-t-il dans un essai de 1982, néces­site de « comprendre la nature fluide des caté­go­ries mentales ». Une apti­tude qui est au cœur de l’in­tel­li­gence humaine. « Connaître, c’est recon­naître », aime-t-il à dire. Pour Hofstad­ter, l’acte cogni­tif fonda­men­tal consiste à « voir comme » : nous voyons des lignes comme « un A », des bouts de bois comme « une table », une réunion comme « une situa­tion où le roi est nu », un ami qui boude comme « un enfan­tillage », un style vesti­men­taire comme « un look de hips­ter », et ainsi de suite, de manière inces­sante. C’est cela, comprendre. Mais comment cela fonc­tionne-t-il ? Depuis trente ans, Hofstad­ter et ses étudiants essaient de résoudre cette énigme, en construi­sant des « modèles infor­ma­tiques des méca­nismes fonda­men­taux de la pensée ». « À tous moments, nous faisons face à un nombre infini de situa­tions qui se recoupent et s’en­tre­mêlent », écrit Hofstad­ter dans L’Ana­lo­gie, cœur de la pensée, son dernier ouvrage écrit en colla­bo­ra­tion avec Emma­nuel Sander (cher­cheur français en psycho­lo­gie cogni­tive, ndt). C’est notre rôle, en tant qu’or­ga­nismes vivants, de créer du sens à partir de ce chaos. Nous nous en acquit­tons lorsque les concepts appro­priés nous viennent à l’es­prit, ce qui se produit auto­ma­tique­ment et en perma­nence. Grâce à l’ana­lo­gie. Dans ce livre orné de A en couver­ture, Hofstad­ter soutient que l’ana­lo­gie est au cœur de la pensée, qu’elle repré­sente l’al­pha et l’oméga de notre vie mentale quoti­dienne.

ulyces-ia-06
Cerveau humain contre super­or­di­na­teur

« Penchez-vous sur vos conver­sa­tions. Vous serez surpris de consta­ter qu’il s’agit d’un procédé de fabri­ca­tion d’ana­lo­gies. » Quelqu’un mentionne quelque chose, ce qui vous rappelle autre chose ; vous inter­ve­nez à votre tour, ce qui évoque autre chose à votre inter­lo­cu­teur – voilà ce qu’est une conver­sa­tion. Impos­sible de faire plus simple. Mais chaque étape, affirme Hofstad­ter, corres­pond à une analo­gie, un saut mental si éton­nam­ment complexe qu’il s’agit d’un vrai miracle compu­ta­tion­nel. D’une manière ou d’une autre, notre cerveau est capable de faire abstrac­tion des détails non perti­nents pour extraire l’idée géné­rale, « le sque­lette essen­tiel » d’un énoncé, et puiser l’his­toire ou le commen­taire le plus appro­prié dans son propre réper­toire d’idées et d’ex­pé­riences. « Faites atten­tion aux phrases inno­centes du genre : “Ah oui, il m’est arrivé exac­te­ment la même chose !écrit Hofstad­ter. Sous leurs airs inno­cents se cache tout le mystère de l’es­prit humain. » Dans les années qui ont suivi la sortie de GEB, Hofstad­ter et l’IA ont conti­nué leur route sépa­ré­ment. Aujourd’­hui, le nom d’Hof­stad­ter ne se trouve nulle part dans les mille pages du manuel Intel­li­gence arti­fi­cielle de Russel et Norvig. Ses collègues parlent de lui au passé. Les nouveaux admi­ra­teurs de GEB, quand ils découvrent la date de publi­ca­tion du livre, sont surpris d’ap­prendre que son auteur est toujours en vie. Bien sûr, pour Hofstad­ter, l’his­toire ressemble plutôt à ça : au moment où tous les cher­cheurs en IA se sont mis à déve­lop­per des produits, son équipe et lui se sont attaqués au vrai problème, dans l’ombre – « patiem­ment, systé­ma­tique­ment, brillam­ment », ainsi que l’a écrit son ami, le philo­sophe Daniel Dennett. « Très peu de gens s’in­té­ressent réel­le­ment à la façon dont l’in­tel­li­gence humaine fonc­tionne, déplore Hofstad­ter. C’est la ques­tion qui nous inté­resse : “Qu’est-ce que penser veut dire ?” Et nous ne nous en lais­sons pas détour­ner. » « Qui sait ? pour­suit-il. Un jour peut-être, les gens diront : “Hofstad­ter a déjà dit et fait ce que nous sommes tout juste en train de décou­vrir.” » Voilà ce qui ressemble à la tenta­tive de s’auto-récon­for­ter de celui qui a perdu la partie. Mais Hofstad­ter a le genre de person­na­lité qui invite à se deman­der si les meilleures idées en matière d’in­tel­li­gence arti­fi­cielle – « l’in­tel­li­gence arti­fi­cielle authen­tique », comme il dit en s’ex­cu­sant pour l’oxy­more – ne seraient pas en train de jaunir dans un carton à Bloo­ming­ton.

Traquer les erreurs

Dès son plus jeune âge, Douglas R. Hofstad­ter a bercé dans la pensée comme d’autres bercent dans le crime. Il a grandi dans les années 1950 à l’Uni­ver­sité de Stan­ford, dans une maison du campus, juste au sud d’un quar­tier baptisé Profes­sor­ville. Son père Robert, physi­cien nucléaire, a décro­ché un prix Nobel de physique en 1961. ulyces-ia-07Sa mère, Nancy, passion­née de poli­tique, a milité pour les enfants atteints de troubles du déve­lop­pe­ment et siégé au comité d’éthique du Centre d’ac­cueil Agnews (insti­tu­tion psychia­trique près de San Fran­cisco, ndt), où sa sœur Molly a résidé pendant vingt ans. Pendant son temps libre, Nancy suivait, comme elle dit sur le ton de l’hu­mour, « une carrière de femme de profes­seur » : elle tenait un salon pour une commu­nauté soudée d’amis, venus écou­ter du jazz et avoir des conver­sa­tions stimu­lantes – une fête intel­lec­tuelle sur fond « d’in­ter­pé­né­tra­tion de la science et de l’art ». Le petit Doug était aux anges. Il adorait les amis de ses parents et leurs étranges discus­sions sur « les choses les plus petites et les plus gigan­tesques ». À 8 ans, il avait un jour déclaré que son rêve était de deve­nir « un neutrino de masse nulle et de spin un et demi ». Il se rendait au dépar­te­ment de physique pour le thé de quatre heures, comme « un petit étudiant de master de 12 ans ». Il était curieux, insa­tiable, inépui­sable – « un enfant fasciné unique­ment par les idées ». Son style intel­lec­tuel était, tout comme aujourd’­hui, basé sur l’ex­cès : il pouvait pratiquer le piano sept heures par jours ou déci­der d’ap­prendre par cœur 1 200 vers d’Eugène Onéguine. Une fois, il avait passé plusieurs semaines avec un magné­to­phone à cassette pour s’en­traî­ner à parler à l’en­vers : lu à rebours, son chara­bia deve­nait de l’an­glais stan­dard. Pendant plusieurs mois d’af­fi­lée, il s’im­mer­geait dans des expres­sions françaises, déve­lop­pait des programmes infor­ma­tiques capables de géné­rer des histoires insen­sées, ou bien étudiait une quin­zaine de preuves du théo­rème de Pytha­gore afin de « se repré­sen­ter pourquoi il était vrai ». Il passait « pratique­ment tout son temps à explo­rer ce genre de choses, inca­pable de se rete­nir d’ex­plo­rer. Il était possédé, complè­te­ment possédé par cela. » Hofstad­ter a 68 ans. Mais il y a quelque chose d’en­fan­tin dans une vie vécue à ce point sur papier, sur ordi­na­teur ou dans sa propre tête. Comment quelqu’un comme lui peut-il vieillir norma­le­ment ? Hofstad­ter a des cheveux gris en bataille qui lui descendent en-dessous des oreilles, une silhouette fragile et voûtée, et un sillon entre la lèvre supé­rieure et le nez qui évoque celui du Grinch. Mais sa façon de se prendre au sérieux, sa gravité insis­tante sont celles d’un très jeune homme. Avec lui, les enjeux sont élevés, et il n’est pas facile à vivre. Il est le genre de végé­ta­rien capable de supplier tous les convives à table de se confor­mer au même régime, le genre d’ora­teur sour­cilleux qui corrige son inter­lo­cu­teur lorsqu’il emploie « un langage sexiste » en sa présence. « Il observe beau­coup de règles », confirme son ami Peter Jones, qui connaît Hofstad­ter depuis cinquante-neuf ans. « Par exemple, il déteste l’ex­pres­sion “you guys” (« vous les gars », couram­ment utilisé en anglais, ndt). C’est non négo­ciable. Quand vous discu­tez avec lui, il vaut mieux éviter cette tour­nure. »

ulyces-ia-08
Le campus à l’au­tomne
À Bloo­ming­ton, dans l’In­diana
Crédits

Depuis plus de trente ans, Hofstad­ter est profes­seur à l’Uni­ver­sité de l’In­diana à Bloo­ming­ton. Il vit dans une maison située à deux pas du campus, avec Baofen Li, son épouse depuis septembre 2013. Les deux enfants de son précé­dent mariage, Danny et Monica, sont grands à présent. Bien qu’il entre­tienne des liens forts avec la recherche en sciences cogni­tives et soit affi­lié à plusieurs dépar­te­ments – dont infor­ma­tique, psycho­lo­gie et neuros­ciences, litté­ra­ture compa­rée et philo­so­phie –, il n’a pas d’obli­ga­tions offi­cielles. « Je crois que j’ai le travail le plus confor­table qu’on puisse imagi­ner, me confie-t-il. Je fais exac­te­ment ce que je veux. » Il passe le plus clair de son temps dans son étude, consti­tuée de deux pièces recou­vertes de moquette au dernier étage de sa maison, un peu étouf­fantes et plus désor­don­nées qu’il ne le souhai­te­rait. C’est là le centre de son univers, où il lit, écoute de la musique, étudie, dessine, écrit ses livres et ses e-mails (Hofstad­ter passe quatre heures par jour à écrire des mails. « Pour moi, un e-mail, c’est comme une lettre, tout aussi formel, raffiné, écrit avec soin… Je réécris, réécris et réécris sans cesse tous mes e-mails »). Son acti­vité mentale se déploie dans cette étude, et cela se voit. Livres, dessins, cahiers et clas­seurs s’y amon­cellent, comme des pensées fossi­li­sées. On dirait le musée de ses innom­brables obses­sions intel­lec­tuelles. « Tout ce à quoi je réflé­chis devient partie inté­grante de ma vie profes­sion­nelle », explique Hofstad­ter. Pour Daniel Dennett, qui a co-écrit avec lui The Mind’s I (« Le Je de l’es­prit », non traduit en français, ndt), « Douglas Hofstad­ter est tout simple­ment un phéno­mé­no­logue, un phéno­mé­no­logue en action, et il fait cela très bien. Mieux que personne. » Il étudie les phéno­mènes – les sensa­tions, les actions inté­rieures – de son propre esprit. « Et la raison pour laquelle il fait cela mieux que quiconque, conti­nue-t-il, c’est qu’il essaie à tout prix d’ar­ri­ver à une théo­rie de ce qui se passe en coulisses, de la manière dont la pensée se produit réel­le­ment dans le cerveau. »

ulyces-ia-09
26 août 1910, Univer­sité de Harvard

Dans sa poche arrière, Hofstad­ter garde depuis toujours un stylo Bic quatre couleurs et un petit cahier. Il a des étagères pleines de ces petits cahiers, dans une salle de bain adja­cente à son étude trans­for­mée en espace de range­ment supplé­men­taire. Il me sort l’un d’eux, qui date de la fin des années 1950, entiè­re­ment rempli d’er­reurs de pronon­cia­tion. Depuis son adoles­cence, Hofstad­ter a noté quelques dix mille exemples d’in­ver­sions de phonèmes (« soringue hypeu­der­mique »), d’im­pro­prié­tés de langage (« il y a anguille sous cloche »), d’idiomes mélan­gés (« se creu­ser la tête de Turc »), etc., dont la moitié sont de lui. Il fait des photo­co­pies des pages du cahier, les découpe avec des ciseaux puis conserve les erreurs dans des clas­seurs ou des boîtes de range­ment. Pour Hofstad­ter, ces erreurs sont autant d’in­dices. « Nous ne sommes pas très fiables en ce qui concerne nos acti­vi­tés cogni­tives qui sont, par défi­ni­tion, subcons­cientes, écrit-il. C’est ce qui rend les vastes collec­tions d’er­reurs si impor­tantes. Les erreurs isolées ne livrent que de légères indi­ca­tions sur les méca­nismes sous-jacents, mais dans une grande collec­tion les traces s’ad­di­tionnent jusqu’à deve­nir des preuves solides en faveur (ou en défa­veur) d’un méca­nisme parti­cu­lier. » Le langage correct n’est pas aussi inté­res­sant : comme un tour de magie réussi, il n’est effi­cace que parce qu’il esca­mote la manière dont il fonc­tionne. Hofstad­ter préfère traquer « l’oreille du lapin qui dépasse, l’in­dice d’une trappe déro­bée ». Il se comporte ainsi comme une version moderne de William James : grâce à un mélange d’in­tros­pec­tions limpides – James est l’in­ven­teur du concept de flux de conscience – et d’ex­pli­ca­tions inci­sives, James avait écrit en 1890 un ouvrage fonda­teur, Prin­cipes de psycho­lo­gie. « La masse de nos pensées dispa­raît pour toujours, sans espoir de récu­pé­ra­tion, écri­vait-il, et la psycho­lo­gie ne récu­père que quelques-unes des miettes du festin ». Comme Hofstad­ter, James a passé sa vie sous la table, à inspec­ter les miettes avec jubi­la­tion. À ceci près qu’il n’avait que ses yeux, quand Hofstad­ter possède un genre de micro­scope.

Analo­gies fluides

Le déve­lop­pe­ment de l’avia­tion peut être attri­bué non pas aux vols planés des frères Wright à Kitty Hawk, en Caro­line du Nord, mais à la souf­fle­rie de 1,80 mètres de long qu’ils avaient construite dans leur maga­sin de bicy­clettes, avec de la ferraille et des rayons de roues de vélo de récu­pé­ra­tion. Tandis que leurs concur­rents testaient leurs idées de voilure à l’échelle 1:1, les frères Wright effec­tuaient des essais aéro­dy­na­miques ciblés pour un coût réduit. Pour leur biographe Fred Howard, il s’agit là « des expé­riences aéro­nau­tiques les plus cruciales et fécondes jamais menées avec si peu de temps, de maté­riel et d’argent ». Dans une vieille bâtisse située sur North Fess Avenue à Bloo­ming­ton, Hofstad­ter dirige le Groupe de recherche en analo­gies fluides (Fluid Analo­gies Research Group), surnommé affec­tueu­se­ment le Farg. Son budget annuel est de 100 000 dollars et l’in­té­rieur est convi­vial, douillet même. On peut faci­le­ment passer à côté des meubles à range­ment entre­po­sés à côté du cellier, de la photo­co­pieuse qui vrom­bit dans le salon, ou des étiquettes biblio­gra­phiques (Neuros­ciences, MATHÉMATIQUES, Percep­tion) qui garnissent les étagères. Mais depuis vingt-cinq ans, cet endroit accueille un ambi­tieux projet visant, pour le petit groupe de scien­ti­fiques qui y travaille, à « décou­vrir, tout d’abord, les secrets de la créa­ti­vité, et dans un second temps ceux de la conscience ».

ulyces-ia-10
Le bureau de Hofstad­ter à Bloo­ming­ton
Siège du Groupe de recherche en analo­gies fluides
Crédits : Google

L’or­di­na­teur est au Farg ce que la souf­fle­rie était aux frères Wright. Le chaos fugi­tif et incons­cient de l’es­prit peut être ralenti sur ordi­na­teur, rembo­biné, mis sur « pause », et même modi­fié. Telle est, pour Hofstad­ter, la grande force de l’in­tel­li­gence arti­fi­cielle. Des parties d’un programme peuvent être isolées et désac­ti­vées de façon à comprendre leur rôle dans le fonc­tion­ne­ment global, des para­mètres modi­fiés pour voir si les perfor­mances en sortent amélio­rées ou dégra­dées. Quand l’or­di­na­teur se comporte de manière inat­ten­due, en étant parti­cu­liè­re­ment créa­tif ou obtus, il est possible de visua­li­ser préci­sé­ment pourquoi. « J’ai toujours pensé que le seul espoir des humains pour comprendre plei­ne­ment la complexité de leur esprit consis­tait à modé­li­ser leurs proces­sus mentaux sur des ordi­na­teurs et à apprendre des échecs inévi­tables de tels modèles », écrit Hofstad­ter. Trans­for­mer un proces­sus mental iden­ti­fié et cata­lo­gué dans la maison d’Hof­stad­ter en un programme infor­ma­tique fonc­tion­nel prend entre cinq et neuf ans à un étudiant de master spécia­le­ment dédié à la tâche, à quelques centaines de mètres de là. Tous les programmes partagent la même archi­tec­ture de base : un ensemble de compo­sants et un style de program­ma­tion qui remontent au logi­ciel Jumbo, implé­menté par Hofstad­ter en 1982. Jumbo était destiné à jouer au pêle-mêle, ce jeu qu’on trouve dans les jour­naux et qui consiste à retrou­ver un mot à partir de ses lettres mélan­gées. La première pensée qui vient à l’es­prit, s’agis­sant d’un programme de pêle-mêle, est proba­ble­ment : « N’est-ce pas là une tâche triviale pour un ordi­na­teur ? » Et ça l’est, en effet : je viens de déve­lop­per un programme qui peut trai­ter n’im­porte quel mot, et cela m’a pris quatre minutes. Il fonc­tionne en prenant le mot mélangé en entrée et en essayant chaque recom­bi­nai­son de lettres jusqu’à tomber sur un mot du diction­naire. ulyces-ia-11Il a fallu deux ans à Hofstad­ter pour program­mer Jumbo : il s’in­té­res­sait moins à la réso­lu­tion du problème qu’à comprendre ce qui se passait quand il le résol­vait lui-même. « Je pouvais sentir les lettres se combi­ner dans ma tête, par elles-mêmes, sautant par petits groupes, se sépa­rant pour former de nouveaux groupes, des amas éphé­mères. Ce n’est pas moi qui mani­pu­lais tout ça, mais elles qui menaient la danse. Elles essayaient des combi­nai­sons par elles-mêmes. » L’ar­chi­tec­ture déve­lop­pée par Hofstad­ter pour modé­li­ser cette danse de lettres s’ins­pire de l’ac­ti­vité d’une cellule biolo­gique. Les lettres sont combi­nées et sépa­rées par diffé­rents types d’« enzymes », comme il les appelle, qui s’agitent et s’ac­colent aux struc­tures qu’elles rencontrent, cata­ly­sant les réac­tions. Certaines enzymes réar­rangent (pang-loss devient pan-gloss ou lang-poss), d’autres assemblent (g et n devient le groupe gn, pele et mele deviennent pele­mele), d’autres enfin disso­cient (ment est séparé en me et nt). Chaque réac­tion en produit de nouvelles, tandis que la popu­la­tion globale d’en­zymes fluc­tue à chaque instant afin de reflé­ter l’état du pêle-mêle. C’est un mode de calcul inha­bi­tuel, qui se démarque par sa flui­dité. Bien sûr, Hofstad­ter propose une analo­gie : une colo­nie de four­mis marchant en forêt, guidée par des four­mis qui partent en recon­nais­sance dans toutes les direc­tions possibles. Ces éclai­reurs rapportent leurs décou­vertes au groupe, de façon à opti­mi­ser la recherche de nour­ri­ture. Une telle manière de procé­der est solide – marchez sur une poignée de four­mis et le reste de la colo­nie s’en remet­tra vite – et, de ce fait, capable d’adap­ta­tion. À la lecture de Fluid Concepts and Crea­tive Analo­gies: Compu­ter Models of the Funda­men­tal Mecha­nisms of Thought (Concepts fluides et analo­gies créa­tives : modèles compu­ta­tion­nels des méca­nismes fonda­men­taux de la pensée – non traduit en français, ndt), qui décrit en détail cette archi­tec­ture ainsi que la logique et la struc­ture des programmes qui l’uti­lisent, on en vient à se deman­der si Hofstad­ter n’est pas devenu célèbre pour le mauvais livre. Comme l’a écrit un critique du New York Times en 1995 : « Le lecteur de Fluid Concepts & Crea­tive Analo­gies ne peut s’em­pê­cher de penser que le groupe de l’Uni­ver­sité de l’In­diana touche là à quelque chose d’his­to­rique. »

ulyces-ia-12
Seul en scène
Douglas Hofstad­ter n’est suivi par personne
Crédits

Mais très peu de gens, même chez les admi­ra­teurs de GEB, connaissent ce livre ou le programme de recherche qu’il décrit. La raison en est peut-être que les programmes du Farg sont extrê­me­ment peu commodes : ils opèrent sur la base de « micro-domaines » presque enfan­tins, et se montrent moins effi­caces qu’un être humain.

Candide

L’ère contem­po­raine de la recherche en IA, faite de progrès continu et de succès commer­ciaux, a commencé à l’aube des années 1990 et conti­nue à ce jour. Ce long prin­temps impro­bable suit une période qu’on a surnom­mée l’« hiver de l’IA », qui a pratique­ment vu la disci­pline dispa­raître. Ceci résulte d’un dilemme de fond. D’une part, les logi­ciels que nous savons conce­voir sont très métho­diques : la plupart d’entre eux sont orga­ni­sés comme une armée d’élite, avec des couches de comman­de­ment qui commu­niquent leurs instruc­tions aux couches immé­dia­te­ment infé­rieures, et des routines qui appellent des sous-routines. D’un autre côté, nous voudrions pouvoir écrire des logi­ciels capables de s’adap­ter – et pour cela, un système de règles hiérar­chiques est une très mauvaise idée. Hofstad­ter a résumé la situa­tion en ces termes : « L’intel­li­gence arti­fi­cielle dans son ensemble est une tenta­tive pour combattre la rigi­dité des ordi­na­teurs. » À la fin des années 1980, le courant domi­nant de la recherche en IA voyait s’en­vo­ler les subven­tions, l’in­fluence, les places dans les colloques, les publi­ca­tions scien­ti­fiques et la couver­ture média­tique, parce qu’il était en train de perdre ce combat.

ulyces-ia-17
Gödel, Escher, Bach : Les Brins d’une Guir­lande Éter­nelle (1979)

Les « systèmes experts », autre­fois consi­dé­rés comme les fleu­rons de la disci­pline, étaient en train de sombrer du fait de leur absence de robus­tesse. Leur approche était fonda­men­ta­le­ment minée. Prenons la traduc­tion auto­ma­tique d’une langue vers une autre, qui a long­temps repré­senté le Graal de l’IA. L’ap­proche stan­dard consis­tait à rassem­bler dans une pièce des linguistes et des traduc­teurs, et d’es­sayer de conver­tir leurs connais­sances en un ensemble de règles que le programme doit suivre. Cette approche a échoué pour les raisons qu’on peut imagi­ner : aucun système de règles ne peut captu­rer une langue car le langage humain est trop vaste et protéi­forme. Pour chaque règle à suivre, il y a une règle à trans­gres­ser. Si la traduc­tion auto­ma­tique voulait survivre en tant qu’en­tre­prise commer­ciale – et l’IA survivre en tant que disci­pline –, il deve­nait néces­saire de trou­ver une nouvelle approche. Ou mieux : un raccourci. Et c’est ce qui s’est produit. Le tour­nant a commencé en 1988, avec un projet d’IBM appelé Candide. Pour mettre au point ce système de traduc­tion auto­ma­tique, il a fallu commen­cer par admettre que l’ap­proche fondée sur les règles néces­site une connais­sance trop appro­fon­die du langage : il faut comprendre comment la séman­tique, la syntaxe et la morpho­lo­gie fonc­tionnent, comment les mots se combinent pour former des phrases puis des para­graphes, sans parler des idées véhi­cu­lées à travers les énon­cés. Les ingé­nieurs d’IBM ont jeté cette approche par la fenêtre. Ils l’ont rempla­cée par quelque chose de brillant mais d’in­croya­ble­ment simple. La tech­nique s’ap­pelle « appren­tis­sage auto­ma­tique ». Il s’agit de créer un dispo­si­tif qui accepte une phrase d’an­glais en entrée et génère une phrase française en sortie. Le cerveau humain, bien sûr, est un exemple de ce genre de dispo­si­tif, mais tout l’enjeu consiste à s’af­fran­chir de la complexité du cerveau. À la place, on commence avec une machine telle­ment simple qu’elle fonc­tionne à peine : disons une machine qui recrache aléa­toi­re­ment des mots de français pour les mots anglais qu’on lui four­nit. Imagi­nez une boîte couverte de boutons de réglage. Certains d’entre eux contrôlent des para­mètres géné­raux : pour un mot anglais, combien de mots français devraient, en moyenne, être produits ? D’autres sont liés à des para­mètres spéci­fiques, comme la proba­bi­lité qu’a­près le mot Christ­mas (« Noël ») vienne le mot tree (« sapin »). En jouant sur ces boutons, est-il possible d’ob­te­nir une machine qui conver­tisse de l’an­glais correct en français correct ? Il s’avère que oui. Pour cela, il faut alimen­ter la machine avec des phrases d’an­glais dont la traduc­tion française est déjà connue. (Pour Candide, par exemple, il a fallu 2,2 millions de paires de phrases, issues pour la plupart de comptes rendus de débats du Parle­ment cana­dien.) Procé­dez une paire à la fois. Après avoir entré une paire de phrases, prenez la partie anglaise et donnez-la à la machine pour voir ce qui sort en français. Si cette phrase est diffé­rente de ce que vous atten­diez – c’est-à-dire la traduc­tion correcte –, votre machine n’est pas au point. Tour­nez les boutons et recom­men­cez. Au bout d’un nombre consé­quent d’es­sais par tâton­ne­ment, vous vous serez suffi­sam­ment fami­lia­risé avec les réglages pour pouvoir géné­rer l’équi­valent français de votre phrase en anglais. ulyces-ia-18En répé­tant le procédé avec un million de paires de phrases, vous cali­bre­rez progres­si­ve­ment la machine, au point de pouvoir entrer une phrase dont vous igno­rez la traduc­tion et d’ob­te­nir un résul­tat raison­nable. Et la beauté de cette méthode, c’est que vous n’avez jamais eu à program­mer expli­ci­te­ment la machine : vous n’avez jamais eu besoin de savoir pourquoi les boutons devaient se trou­ver dans cette posi­tion. Candide n’a pas inventé l’ap­pren­tis­sage auto­ma­tique. En fait, le concept avait été testé dans les années 1960, sur une forme primi­tive de traduc­tion auto­ma­tique. Mais jusque-là, aucun essai ne s’était avéré fruc­tueux. Ce n’est donc pas la réso­lu­tion du problème qui était révo­lu­tion­naire, mais le fait qu’un programme si simple ait pu y parve­nir. Comme l’écrit Adam Berger – membre de l’équipe de déve­lop­pe­ment – dans un résumé du projet Candide, la traduc­tion auto­ma­tique était « large­ment consi­dé­rée comme la tâche la plus diffi­cile dans le trai­te­ment du langage natu­rel et dans l’in­tel­li­gence arti­fi­cielle en géné­ral, car une traduc­tion conve­nable semble impos­sible sans compré­hen­sion préa­lable du texte à traduire ». Qu’un programme aussi élémen­taire que Candide se montre à la hauteur suggé­rait qu’une traduc­tion auto­ma­tique effec­tive peut se passer de compré­hen­sion – il suffit d’avoir une quan­tité suffi­sante de textes bilingues à dispo­si­tion. Le succès du projet a ainsi servi de preuve de concept pour une approche qui allait être amenée à faire florès dans la recherche en IA. L’ef­fi­ca­cité spec­ta­cu­laire de Candide repose sur une trans­for­ma­tion du problème : plutôt que de dénouer les fils d’un proces­sus complexe, il fallait désor­mais trou­ver un très grand nombre d’exemples de ce proces­sus en action. Or, si repro­duire les proces­sus céré­braux reste un défi, le problème des données s’est simpli­fié au cours du temps – en parti­cu­lier depuis le tour­nant des années 1990, quand ce qui n’était qu’un para­dis pour physi­ciens férus d’in­for­ma­tique est devenu le World Wide Web. Ce n’est donc pas une coïn­ci­dence si l’IA a connu son renou­veau ces années-la. Pas éton­nant non plus que Google, la plus grande firme numé­rique, soit aussi « le plus grand système d’IA du monde », selon les mots de Peter Norvig, co-auteur d’Intel­li­gence arti­fi­cielle avec Stuart Russell. D’après lui, l’IA contem­po­raine peut se résu­mer à « des données, des données, des données », et Google est maître en la matière.

ulyces-ia-19-1
Cerveau méca­nique
The Subrep­tion of A Chess-Player Gone Mad
Crédits : Derrick Tyson

Josh Estelle est ingé­nieur logi­ciel pour Google Traduc­tion, une plate­forme qui se fonde sur les mêmes prin­cipes que Candide et consti­tue désor­mais le premier système de traduc­tion auto­ma­tique au monde. « Prenez l’un de ces algo­rithmes d’ap­pren­tis­sage tout simple qu’on apprend dès les premières semaines d’un cours d’IA : le monde univer­si­taire les a délais­sés, les consi­dé­rant comme inef­fi­caces, explique-t-il. Mais quand vous passez de dix mille essais à dix milliards lors de la phase d’ap­pren­tis­sage, d’un seul coup, cela commence à fonc­tion­ner. Les données surpassent tout. » Cette tech­nique est si effi­cace que les membres de l’équipe de Google Traduc­tion ne connaissent pas la plupart des langues prises en charge par le système. « C’est une ques­tion de renta­bi­lité », pour­suit Estelle : « mieux vaut embau­cher des ingé­nieurs » que des locu­teurs natifs. Dans un monde où la traduc­tion est deve­nue un exer­cice d’ex­plo­ra­tion de données à grand échelle, ce sont les ingé­nieurs qui comptent. Ce qui fait de l’ap­pren­tis­sage auto­ma­tique une telle aubaine, c’est qu’elle permet d’éva­cuer le problème initial de la compré­hen­sion au profit d’une approche d’in­gé­nie­rie pratique. « Cette façon de penser s’est diffu­sée dans tout Google, explique Norvig. Si on peut rendre une tâche plus rapide de 10 %, et que cela permet d’éco­no­mi­ser des millions de dollars par an, eh bien allons-y. Comment ? Il n’y a qu’à exami­ner les données et utili­ser une approche statis­tique ou d’ap­pren­tis­sage auto­ma­tique, on arri­vera bien à quelque chose de meilleur. » Google a égale­ment des projets qui visent à une compré­hen­sion plus profonde : amélio­rer l’ap­pren­tis­sage auto­ma­tique en s’ins­pi­rant de la struc­ture biolo­gique du cerveau, construire un « graphe de connais­sance » destiné à faire le lien entre des mots, comme Obama, et des personnes, des lieux ou des objets. Mais Google possède une clien­tèle d’un milliard de personnes à satis­faire, ce qui a le don de lui faire préfé­rer l’ef­fi­ca­cité à une démarche compré­hen­sive. Pas besoin de pous­ser Google Traduc­tion dans ses retran­che­ments pour obser­ver les compro­mis qu’ont dû faire les déve­lop­peurs afin obte­nir un système géné­ra­liste, rapide et simple d’uti­li­sa­tion. Bien que Google Traduc­tion capture, à sa manière, les fruits de l’in­tel­li­gence humaine, il n’a lui-même rien d’in­tel­li­gent. Il est plutôt comme une formi­dable pierre de Rosette, dont les inscrip­tions capturent l’ac­ti­vité figée d’es­prits autre­fois actifs.

Watson

« Quand on a conçu Watson, est-ce qu’on s’est creusé la tête pour essayer de modé­li­ser la cogni­tion humaine ? » Dave Ferrucci, qui dirige l’équipe du projet Watson chez IBM, marque une pause pour mieux marquer son effet. « Abso­lu­ment pas. On a juste essayé de créer une machine capable de gagner au Jeopardy!. » Pour Ferrucci, la défi­ni­tion de l’in­tel­li­gence est simple : c’est ce qu’un programme est capable de faire. Deep Blue était intel­li­gent puisqu’il a battu Garry Kaspa­rov aux échecs. Watson était intel­li­gent puisqu’il a battu Ken Jennings au Jeopardy!. « On fait de l’in­tel­li­gence arti­fi­cielle, non ? Cela revient presque à dire de l’in­tel­li­gence non-humaine. Pourquoi voudriez-vous que la science de l’in­tel­li­gence arti­fi­cielle produise de l’in­tel­li­gence humaine ? »

ulyces-ia-13
« Qui est Bram Stoker ? »
Watson, vainqueur de Jeopardy!
Crédits : IBM

Ferrucci ne nie pas la diffé­rence. Il aime à racon­ter qu’a­lors qu’il faut à Watson une salle pleine de proces­seurs et vingt tonnes d’équi­pe­ment de refroi­dis­se­ment pour fonc­tion­ner, ses concur­rents utilisent une machine qui tient dans une boîte à chaus­sures et peut tour­ner pendant des heures avec un sand­wich au thon. Une machine qui leur permet, excu­sez du peu, de se lever quand le jeu est terminé, de tenir une conver­sa­tion, manger un crois­sant, soute­nir un point de vue, danser, penser… Pendant ce temps, Watson conti­nue à vrom­bir dans un coin, brûlant, stupide et inanimé, en répon­dant à des ques­tions sur des prési­dents et des schmil­blicks. « Ce que ces systèmes mani­pulent n’est même pas l’ombre de ce qu’ils sont censés repré­sen­ter, admet Ferrucci. Dans la recherche en IA, que ce soit dans les années 1950 ou aujourd’­hui, nous sous-esti­mons constam­ment la complexité de ce qui se passe dans un cerveau humain. » La ques­tion que pose Hofstad­ter à Ferrucci et à tous ceux qui travaillent dans le courant domi­nant de l’IA est la suivante : dans ce cas, pourquoi ne pas étudier le cerveau humain ? « J’ai un avis partagé à ce propos », a admis Ferrucci quand je lui ai posé la ques­tion. « En tant qu’in­di­vidu, on est limité dans le nombre de choses qu’on peut faire, et je pense qu’au moment de consa­crer sa vie à quelque chose, on doit se poser la ques­tion : dans quel but ? Je crois bien m’être posé la ques­tion à un moment donné, et il s’avère que je suis fasciné par la manière dont l’es­prit humain fonc­tionne. Ce serait fantas­tique de comprendre la cogni­tion, j’adore lire des livres sur le sujet, me frot­ter à cela », a-t-il pour­suivi, en préci­sant que le travail d’Hof­stad­ter était pour lui une source d’ins­pi­ra­tion. « Mais où cela me condui­rait-il ? Ce que je veux vrai­ment, c’est conce­voir des systèmes infor­ma­tiques qui font vrai­ment quelque chose. Et je ne pense pas que les théo­ries de la cogni­tion soient le plus court moyen pour y parve­nir. » La réac­tion de Peter Norvig, direc­teur de recherche chez Google, ressemble presque mot pour mot à celle de Ferrucci. « Je trou­vais qu’Hof­stad­ter s’at­taquait à un problème parti­cu­liè­re­ment diffi­cile. Et je suppose que je voulais trai­ter un problème plus facile. »

ulyces-ia-14
Watson, le super­or­di­na­teur d’IBM

On peut discer­ner la trace des échecs passés de l’IA dans ces réponses : la recherche sur les problèmes fonda­men­taux a l’odeur nauséa­bonde des vieux jours. Comme l’écrit Nils Nils­son dans son ouvrage histo­rique The Quest for Arti­fi­cial Intel­li­gence (La Quête de l’in­tel­li­gence arti­fi­cielle –non traduit en français, ndt), « le souci de respec­ta­bi­lité a eu un effet téta­ni­sant sur une partie des cher­cheurs en IA ». Stuart Russel, co-auteur du manuel de réfé­rence Intel­li­gence arti­fi­cielle avec Peter Norvig, va plus loin. « Un grand nombre de travaux actuels ne sont pas très ambi­tieux. En appren­tis­sage auto­ma­tique, l’un des grands progrès des années 1980 a consisté à dire : “Voilà des données réelles, est-ce que je peux faire en sorte que mon programme puisse prédire correc­te­ment une partie d’entre elles ?” Mais main­te­nant, les gens consi­dèrent qu’il s’agit de la seule tâche possible. » Étrange comme on peut étouf­fer de son propre succès. Tandis que nos ordi­na­teurs gagnent en vitesse et englou­tissent de plus en plus de données, nous nous lais­sons glis­ser sur la voie de la stupi­dité. Au lieu de nous attaquer sérieu­se­ment à nos problèmes de fond, nous pouvons nous borner à four­nir des milliards d’exemples à nos machines. C’est un peu comme utili­ser une calcu­la­trice graphique pour faire ses devoirs d’arith­mé­tique au lycée : ça marche du tonnerre, jusqu’au moment où il faut vrai­ment comprendre le calcul. Il y a peu de chances qu’a­li­men­ter Google Traduc­tion avec mille milliards de docu­ments au lieu de dix milliards lui donne soudain le niveau de compé­tence d’un traduc­teur humain. Il en va de même pour la recherche web et la recon­nais­sance d’images, ou lorsqu’il s’agit de répondre à des ques­tions, plani­fier, lire, écrire ou conce­voir : ce sont des problèmes pour lesquels on préfère se fier à l’in­tel­li­gence humaine qu’à celle des machines. Norvig, comme tous les acteurs de l’IA commer­ciale, est bien conscient de cette réalité, voire vague­ment anxieux à son propos. « On pour­rait tracer une courbe pour répondre à la ques­tion : “L’aug­men­ta­tion de la quan­tité de données dispo­nibles a-t-elle toujours un impact sur la qualité de nos systèmes ?” explique-t-il. La réponse, c’est que nos systèmes conti­nuent de s’amé­lio­rer, mais moins vite que par le passé. » Pour James Marshall, un ancien étudiant de master d’Hof­stad­ter, la situa­tion est simple : « Finale­ment, seul le chemin diffi­cile nous conduira où nous voulons aller. »

L’At­trape-cœurs

Hofstad­ter a eu sa première rela­tion sérieuse à l’âge de 35 ans. Il est né avec « une courbe de réso­nance étroite », précise-t-il, emprun­tant à la physique pour décrire ses goûts très sélec­tifs. « Certaines femmes ont eu un impact énorme sur moi, leur visage me faisaient un effet incroyable. Je ne peux pas donner une recette pour ce genre de visa­ges… mais c’est très rare. » En 1980, après ce qu’il quali­fie de « quinze années horri­ble­ment mornes sur le plan amou­reux », il rencontre Carol Brush. « Elle était pile au centre de ma courbe de réso­nance », dira-t-il. Peu après leur rencontre, ils se sont mariés et ont eu deux enfants. Mais quelques temps plus tard, alors qu’ils étaient en vacances en Italie, Carol est décé­dée des suites d’une tumeur au cerveau. C’était en 1993, Danny et Monica avaient respec­ti­ve­ment cinq et deux ans. « J’ai l’im­pres­sion qu’il est resté égaré un long moment après la mort de Carol », me confie Pentti Kanerva, un ami de longue date. ulyces-ia-16Hofsta­der n’a pas mis les pieds dans un colloque de cher­cheurs en IA depuis trente ans. « Il n’y a pas de commu­ni­ca­tion entre ces gens-là et moi, affirme-t-il. Rien. Zéro. Je n’ai pas envie de parler à des collègues que je trouve extrê­me­ment intran­si­geants et diffi­ciles à convaincre sur tout. Vous savez, j’uti­lise ce terme mais ce ne sont pas à propre­ment parler des collègues – nous n’ar­ri­vons pas à commu­niquer. » Malgré son calme, Hofstad­ter me semble doté d’un carac­tère diffi­cile. Il est affable mais n’a pas cette faculté des gens loquaces ou des ensei­gnants appré­ciés de ne rete­nir que le meilleur de ce que vous dites. Ainsi vous guident-ils dans leur raison­ne­ment tel un précieux allié, comme si leur conclu­sion dépen­dait de votre contri­bu­tion. Je me souviens d’avoir assisté à une discus­sion entre Hofstad­ter et ses étudiants, et d’avoir été frappé de voir à quel point son avis chan­geait peu. Il semblait vouloir obte­nir à tout prix un consen­sus sur sa posi­tion. La conver­sa­tion avait commencé à propos d’un e-mail qu’il avait envoyé à une large liste de desti­na­taires, et il parais­sait plus enclin à aller vers ceux dont les réponses avaient été les plus enthou­siastes. « Je n’aime pas ça, m’avoue-t-il.  Je n’aime pas aller à des colloques et tomber sur des gens bornés et acquis à des idées que j’es­time être inexactes, qui ne comprennent rien à mes idées. Je préfère parler aux gens plus compré­hen­sifs. » Depuis l’âge de 15 ans, Hofstad­ter relit L’At­trape-cœurs tous les dix ans. À l’au­tomne 2011, il a tenu un sémi­naire de licence inti­tulé « Pourquoi L’At­trape-cœurs est-il un grand roman ? ». Il se sent des affi­ni­tés profondes avec Holden Caul­field, le héros adoles­cent de J. D. Salin­ger. Quand j’ai mentionné que la plupart des élèves de ma classe de lycée n’ai­maient pas Holden – ils le trouvent pleur­ni­chard –, Hofstad­ter m’a répondu qu’ils ne devaient alors pas « prendre la mesure de sa vulné­ra­bi­lité ». On se prend à l’ima­gi­ner comme Holden, seul debout sur une colline, obser­vant ses cama­rades de classe en train de s’ébattre sur le terrain de foot­ball en contre­bas. « J’ai déjà trop d’idées, pour­suit-il. Je n’ai pas besoin des stimu­la­tions du monde exté­rieur. » Bien sûr, il y a là une forme de dérai­son : à rester au-dessus de la mêlée, on se main­tient à l’écart. « En science, il y a très peu d’idées qui sont assez claires et nettes pour que les gens se disent : “Mon Dieu, pourquoi n’y avons-nous pas pensé plus tôt ?» estime Bob French, un ancien d’élève d’Hof­stad­ter qui le connaît depuis trente ans. « De la tecto­nique des plaques à l’évo­lu­tion, il a fallu que quelqu’un se batte pour impo­ser ces idées, car les gens n’étaient pas d’ac­cord. Si vous ne vous joignez pas à la lutte, à la foire d’em­poigne univer­si­taire, vos idées fini­ront par être margi­na­li­sées au profit d’autres idées moins bonnes mais défen­dues avec plus d’ar­deur. »

ulyces-ia-15-1
L’ob­ses­sion récur­rente du héros de L’At­trape-cœurs
Crédits

Hofstad­ter n’a jamais vrai­ment voulu se battre, et, c’est peut-être le revers de sa brillante carrière, n’en a jamais vrai­ment eu besoin. En rempor­tant le prix Pulit­zer à l’âge de 35 ans, il est instan­ta­né­ment devenu une précieuse ressource pour son univer­sité, et a obtenu un poste de profes­seur perma­nent. Il n’a jamais eu besoin de soumettre ses articles à des revues scien­ti­fiques, d’être évalué par ses pairs et de répondre aux critiques. Son éditeur, Basic Books, accep­tait tous ses manus­crits. Stuart Russell le dit sans ambages : « Le monde univer­si­taire n’est pas un envi­ron­ne­ment où l’on peut rester allongé dans son bain et s’at­tendre à ce que tout le monde coure en tous sens en criant au génie. Il est possible que dans cinquante ans nous regret­tions de n’avoir pas plus écouté Doug Hofstad­ter. Mais il incombe au mini­mum à tous les scien­ti­fiques de réflé­chir à ce qu’il faut faire pour que les gens comprennent leurs idées. » « Ars longa, vita brevis », aime à dire Hofstad­ter. « Je pars du prin­cipe que la vie est courte, donc je travaille. Je n’es­saie pas de me faire de la publi­cité et encore moins de me battre. » Hofstad­ter a eu recours à une analo­gie au cours de l’une de nos conver­sa­tions. Einstein, m’a-t-il raconté, a proposé l’hy­po­thèse des quanta de lumière en 1905. Mais personne n’a accepté cette théo­rie avant 1923. « Abso­lu­ment personne, souligne-t-il. Einstein a vécu complè­te­ment isolé dans sa convic­tion que la lumière était consti­tuée de parti­cules pendant dix-huit ans. » « Ce devait être une immense soli­tude. »


Traduit de l’an­glais par Yvan Pandelé d’après l’ar­ticle « The Man Who Would Teach Machines to Think », paru dans The Atlan­tic. Couver­ture : Garry Kaspa­rov contre Deep Blue, archives du Compu­ter History Museum. Créa­tion graphique par Ulyces.

PLUS DE SCIENCE