par James Somers | 30 décembre 2014

IA

« Tout dépend de ce que vous enten­­dez par “intel­­li­­gence arti­­fi­­cielle”. » Douglas Hofstad­­ter se tient dans une épice­­rie de Bloo­­ming­­ton, dans l’In­­diana, il choi­­sit des ingré­­dients pour prépa­­rer une salade. « Si par intel­­li­­gence arti­­fi­­cielle on désigne le projet de comprendre l’es­­prit, ou de créer quelque chose de simi­­laire à l’es­­prit humain, alors on peut dire – on n’est pas obligé d’al­­ler jusque-là –, mais on peut dire qu’il s’agit d’un des seuls travaux viables dans ce sens. »

ulyces-ia-01
Crédits

Hofstad­­ter prononce ces mots avec une désin­­vol­­ture assu­­mée, car il ne fait aucun doute pour lui que les projets les plus stimu­­lants dans le domaine de l’in­­tel­­li­­gence arti­­fi­­cielle moderne, ceux que le public consi­­dère comme autant de jalons vers un monde inspiré de la science-fiction – tels que Watson, le super-ordi­­na­­teur d’IBM qui joue au Jeopardy!, ou Siri, l’as­­sis­­tant vocal de l’iP­­hone – n’ont en réalité que bien peu à voir avec l’in­­tel­­li­­gence. Depuis trente ans, le plus souvent dans une vieille maison sur le campus de l’uni­­ver­­sité de l’In­­diana, lui et ses étudiants de master ont pris les choses en main : ils s’em­­ploient à essayer de comprendre le fonc­­tion­­ne­­ment de notre pensée, en déve­­lop­­pant des programmes infor­­ma­­tiques qui pensent. L’hy­­po­­thèse sous-jacente est simple : l’es­­prit est un logi­­ciel inso­­lite, et le meilleur moyen de déchif­­frer un logi­­ciel consiste à le déve­­lop­­per soi-même. Les ordi­­na­­teurs sont assez souples pour modé­­li­­ser les étranges convo­­lu­­tions de notre pensée, tout en n’obéis­­sant qu’à des instruc­­tions précises. Si cette tenta­­tive est couron­­née de succès, la victoire sera double : nous serons enfin parve­­nus à comprendre préci­­sé­­ment la méca­­nique de notre esprit, et nous aurons fabriqué des machines intel­­li­­gentes. L’idée qui a changé la vie d’Hof­s­tad­­ter, comme il l’a plusieurs fois expliqué au fil des ans, lui est venue sur la route des vacances, alors qu’il était étudiant en physique des parti­­cules. Décou­­ragé par la tour­­nure que prenait sa thèse à l’uni­­ver­­sité d’Ore­­gon, il se sentait « profon­­dé­­ment désem­­paré » et avait décidé de plier bagages et de rouler vers l’est, lors de cet été 1972, à travers les terres au volant de sa voiture – qu’il avait bapti­­sée Quick­­sil­­ver (« Vif-argent »). Toutes les nuits, il instal­­lait sa tente à un nouvel empla­­ce­­ment, « parfois dans une forêt, parfois au bord d’un lac », et lisait à la lueur d’une lampe-torche. Il était libre de penser à ce qu’il voulait, et avait choisi d’orien­­ter ses pensées sur la pensée elle-même. Depuis le moment où, vers 14 ans, il avait décou­­vert que sa petite sœur Molly avait « quelque chose de défec­­tueux dans son cerveau » et ne pouvait accé­­der au langage (son trouble neuro­­lo­­gique, proba­­ble­­ment de nais­­sance, n’a jamais été diagnos­­tiqué), Hofstad­­ter avait été pris d’une obses­­sion discrète pour les rela­­tions entre l’es­­prit et la matière. Le père de la psycho­­lo­­gie, William James, décri­­vait en 1890 ce problème comme « la chose la plus mysté­­rieuse du monde » : comment la conscience peut-elle être physique ? Comment quelques livres de géla­­tine grise peuvent-elles donner nais­­sance à nos pensées et à nos iden­­ti­­tés propres ? Errant au volant de sa Mercury 1956, Hofstad­­ter pensa avoir trouvé la réponse – elle rési­­dait, entre tous les endroits possibles, au cœur d’une preuve mathé­­ma­­tique. En 1931, le célèbre logi­­cien d’ori­­gine autri­­chienne Kurt Gödel avait montré comment un système mathé­­ma­­tique permet­­tait d’éta­­blir des véri­­tés non seule­­ment sur les nombres, mais aussi sur le système lui-même. La conscience, pour Hofstad­­ter, émerge à travers le même type de « boucle de rétro­ac­­tion avec traver­­sées de niveaux ». Il avait pris une après-midi pour donner forme à son idée dans une lettre adres­­sée à un ami. Au bout de trente pages manus­­crites, il avait renoncé à l’en­­voyer, préfé­­rant lais­­ser les idées germer un moment. Sept ans plus tard, elles avaient moins germé que méta­s­tasé, donnant lieu à un livre de 777 pages pesant 1,3 kilo­­gramme inti­­tulé Gödel, Escher, Bach : Les Brins d’une Guir­­lande Éter­­nelle, qui lui vaudrait d’ob­­te­­nir le prix Pulit­­zer de l’es­­sai en 1980, à seule­­ment 35 ans et pour un premier ouvrage.

ulyces-ia-02-1
Mercury 1956
Crédits : Alden Jewell

GEB, comme on surnomma le livre, fit sensa­­tion. Son succès fut cata­­lysé par Martin Gard­­ner, célèbre chro­­niqueur du maga­­zine Scien­­ti­­fic Ameri­­can, qui décida, fait pour le moins inha­­bi­­tuel, de dédier l’en­­semble de sa rubrique du numéro de juillet 1979 à ce seul ouvrage. Sa critique, dithy­­ram­­bique, commençait ainsi : « Tous les dix ans, un auteur inconnu sort un livre dont la profon­­deur, la clarté, la portée, l’es­­prit, la beauté et l’ori­­gi­­na­­lité sont tels qu’il est reconnu d’em­­blée comme un événe­­ment litté­­raire majeur. » John Holland, qui fut le premier Améri­­cain titu­­laire d’un docto­­rat en infor­­ma­­tique (à l’époque sous l’étiquette « sciences de la commu­­ni­­ca­­tion ») se remé­­more l’évé­­ne­­ment en ces termes : « Dans mon entou­­rage, la réac­­tion géné­­rale s’ap­­pa­­ren­­tait à de l’émer­­veille­­ment. » Hofstad­­ter semblait sur le point de lais­­ser une marque indé­­lé­­bile dans la culture contem­­po­­raine. GEB n’était pas seule­­ment un ouvrage influent, il portait en lui les folles promesses de l’ave­­nir. Les gens le consi­­dé­­raient comme la bible de l’in­­tel­­li­­gence arti­­fi­­cielle, cette disci­­pline nais­­sante à l’in­­ter­­sec­­tion de l’in­­for­­ma­­tique, des sciences cogni­­tives, des neuros­­ciences et de la psycho­­lo­­gie. La descrip­­tion par Hofstad­­ter de programmes infor­­ma­­tiques capables de faire preuve de créa­­ti­­vité au lieu de se montrer seule­­ment effi­­caces, sa feuille de route pour mettre au jour « les struc­­tures logi­­cielles secrètes de notre esprit », ont propulsé une géné­­ra­­tion entière de jeunes étudiants enthou­­siastes dans le champ de l’IA. Puis l’IA évolua et Hofstad­­ter, qui n’ap­­prou­­vait pas cette évolu­­tion, dispa­­rut presque tota­­le­­ment.

Force brute

L’en­­trée en scène de GEB corres­­pond à un tour­­nant dans l’his­­toire de l’IA. Au début des années 1980, le champ était en déclin : les finan­­ce­­ments desti­­nés à la recherche fonda­­men­­tale à long terme étaient en train de fondre, tandis que l’at­­ten­­tion se portait vers la concep­­tion de systèmes pratiques. La recherche ambi­­tieuse en IA avait acquis une mauvaise répu­­ta­­tion. Les promesses candides et irréa­­listes étaient deve­­nues la norme, à commen­­cer par la confé­­rence de Dart­­mouth de l’été 1956, événe­­ment fonda­­teur de la disci­­pline. ulyces-ia-03-1Les orga­­ni­­sa­­teurs – au nombre desquels John McCar­­thy, l’in­­ven­­teur du terme intel­­li­­gence arti­­fi­­cielle – décla­­rèrent que « si un groupe de scien­­ti­­fiques choi­­sis avec précau­­tion y travaillait durant tout un été », il réali­­se­­rait d’im­­por­­tants progrès en vue de créer des machines capables d’uti­­li­­ser le langage, de former des concepts, de s’amé­­lio­­rer ou de résoudre des problèmes pour le moment réser­­vés aux humains. McCar­­thy recon­­nut plus tard leur échec : « l’IA est plus diffi­­cile que nous ne pensions. » Dans un contexte géopo­­li­­tique de plus en plus tendu (lié à la guerre du Viet­­nam), l’un des prin­­ci­­paux bailleurs de fond de la recherche en IA, l’Agence pour les projets de recherche avan­­cée (Arpa) du dépar­­te­­ment de la Défense améri­­cain commença à se montrer plus sélec­­tive. En 1969, le Congrès vota l’amen­­de­­ment Mans­­field, qui restrei­­gnait le soutien finan­­cier de la Défense aux seuls projets « en rela­­tion directe et mani­­feste avec une opéra­­tion ou un objec­­tif mili­­taires ». En 1972, l’Arpa devint la Darpa, avec un D pour « Défense », de façon à reflé­­ter ses nouvelles prio­­ri­­tés de finan­­ce­­ment. Au milieu des années 1970, l’agence s’in­­ter­­ro­­geait : quelles avan­­cées concrètes en matière de défense natio­­nale avait-elle obtenu, au prix de dix années et 50 millions de dollars inves­­tis dans la recherche préli­­mi­­naire ? Au début des années 1980, la pres­­sion devint suffi­­sante pour que l’IA commence à mûrir – ou muter, selon les points de vue. Née comme une tenta­­tive de réponse posi­­tive à la fameuse ques­­tion d’Alan Turing « Les machines peuvent-elles penser ? », elle amorçait sa trans­­for­­ma­­tion en une sous-disci­­pline de l’in­­gé­­nie­­rie logi­­cielle, mue par une logique de recherche appliquée. De plus en plus, le travail se faisait dans une pers­­pec­­tive de court terme, avec des ache­­teurs poten­­tiels à la clé. Les mili­­taires privi­­lé­­giaient des projets tels que des systèmes de comman­­de­­ment et de contrôle, un logi­­ciel d’as­­sis­­tance embarqué pour les pilotes de chasse, ou des programmes desti­­nés à iden­­ti­­fier auto­­ma­­tique­­ment les éléments stra­­té­­giques (routes, ponts, réser­­voirs, silos) d’une photo­­gra­­phie aérienne. Dans le secteur privé, la mode était aux « systèmes experts », des produits de niche comme des systèmes de sélec­­tion de pieux, desti­­nés à aider les archi­­tectes à choi­­sir les maté­­riaux pour des fonda­­tions, ou le programme d’Ex­­per­­tise auto­­ma­­ti­­sée du câble, destiné à trai­­ter et synthé­­ti­­ser les rapports de main­­te­­nance du réseau télé­­pho­­nique. Dans GEB, Hofstad­­ter défend une concep­­tion de l’IA qui se destine moins à résoudre intel­­li­­gem­­ment les problèmes humains qu’à comprendre l’in­­tel­­li­­gence humaine – et ce au moment précis où une telle approche, consi­­dé­­rée comme peu fruc­­tueuse, était en voie d’aban­­don. Son étoile déclina rapi­­de­­ment. Il s’éloi­­gna progres­­si­­ve­­ment d’un courant majo­­ri­­taire soumis à l’im­­pé­­ra­­tif de fabriquer des machines perfor­­mantes, sans trop d’égards pour les ques­­tions de vrai­­sem­­blance psycho­­lo­­gique.

ulyces-ia-04
Kaspa­­rov vs Deep Blue
Défaite de Garry Kaspa­­rov, 1997
Crédits : Compu­­ter History Museum

Prenez Deep Blue, le super­­­cal­­cu­­la­­teur d’IBM qui a surpassé le grand maître Garry Kaspa­­rov aux échecs. Sa victoire est fondée sur la force brute. À son tour de jeu, Deep Blue calcule les éven­­tuelles ripostes de son adver­­saire à chacun de ses coups poten­­tiels, puis évalue ses propres ripostes, et ainsi de suite sur au moins six niveaux de prévi­­sion. À l’aide d’une fonc­­tion d’éva­­lua­­tion effi­­cace, il calcule ensuite un score asso­­cié à chaque posi­­tion, puis choi­­sit de jouer le coup qui conduit au meilleur score. C’est donc la puis­­sance de calcul seule qui a permis à Deep Blue de vaincre les meilleurs joueurs humains de la planète. Il pouvait évaluer jusqu’à 330 millions de posi­­tions par seconde avant de prendre une déci­­sion, quand Kaspa­­rov devait s’en tenir à quelques dizaines. Mais pour Hofstad­­ter, à quoi bon accom­­plir une tâche s’il n’y a aucun éclai­­rage à la clef ? « D’ac­­cord, Deep Blue joue très bien aux échecs – et alors ? Cela nous apprend-il quoi que ce soit sur la façon dont nous jouons aux échecs ? Non. Cela nous dit-il comment Kaspa­­rov appré­­hende et analyse une posi­­tion de jeu ? » Une variété d’IA, aussi impres­­sion­­nante soit-elle, qui n’a pas pour ambi­­tion de répondre à de telles ques­­tions n’est de son point de vue qu’une distrac­­tion. Devenu un acteur de la disci­­pline, Hofstad­­ter a presque aussi­­tôt pris ses distances avec elle. « En tant que cher­­cheur néophyte en IA, il était clair que je ne voulais pas prendre part à cette super­­­che­­rie. C’était une évidence : faire passer le compor­­te­­ment de programmes fantai­­sistes pour de l’in­­tel­­li­­gence alors que ça n’a rien à voir, très peu pour moi. J’ignore pourquoi il n’y a pas plus de gens dans mon cas. » Une réponse possible réside dans le fait qu’entre le début des années 1980 et la fin de la décen­­nie, le marché de l’IA est passé de quelques millions de dollars à plusieurs milliards. Après la victoire de Deep Blue en 1997, la valeur bour­­sière d’IBM a grimpé de 18 milliards de dollars. À mesure que l’IA se trans­­for­­mait en une morne disci­­pline d’in­­gé­­nie­­rie, ses accom­­plis­­se­­ments sont allés crois­­sant. Aujourd’­­hui, sur la base de tech­­niques n’ayant rien à voir avec la pensée humaine, l’IA semble connaître une sorte d’âge d’or. Elle a envahi l’in­­dus­­trie lourde, les trans­­ports et la finance. On la retrouve derrière beau­­coup des fonc­­tions clefs de Google, les recom­­man­­da­­tions de films de Netflix, Watson, Siri, les drones auto­­nomes, ou encore la voiture auto-pilo­­tée. « La quête du “vol arti­­fi­­ciel” a été couron­­née de succès quand les frères Wright et les autres cessèrent d’imi­­ter les oiseaux et commen­­cè­­rent… à comprendre l’aé­­ro­­dy­­na­­mique », écrivent Stuart Russell et Peter Norvig dans leur manuel de réfé­­rence, Intel­­li­­gence arti­­fi­­cielle. Les recherches en IA ont commencé à décol­­ler à partir du moment où le modèle humain a été aban­­donné, et du fait de ce chan­­ge­­ment de cap. C’est la force de l’ana­­lo­­gie : si les avions ne battent pas des ailes, pourquoi les ordi­­na­­teurs devraient-ils penser ?

ulyces-ia-05
50 ans de super­­or­­di­­na­­teurs

L’ar­­gu­­ment est convain­­cant. Mais il perd de son acuité quand on consi­­dère nos besoins : un Google qui saurait, à l’ins­­tar d’un autre être humain, ce que vous avez en tête quand vous formu­­lez une requête. « Quel est la valeur marchande combi­­née de tous les moteurs de recherche du web ? » commente Russell, profes­­seur d’in­­for­­ma­­tique à Berke­­ley. « Proba­­ble­­ment quatre ou cinq cents milliards de dollars. Des systèmes capables d’ex­­traire toutes ces infor­­ma­­tions et de les comprendre vaudraient dix fois plus. » C’est donc la ques­­tion à mille milliards : l’ap­­proche qui sous-tend l’IA contem­­po­­raine, moins fondée sur l’es­­prit que sur les données et l’in­­gé­­nie­­rie de masse, nous conduit-elle à bon port ? Comment mettre au point un moteur de recherche capable de discer­­ne­­ment quand on ne sait même pas comment nous compre­­nons les choses ? Comme Russell et Norvig le recon­­naissent poli­­ment dans le dernier chapitre de leur ouvrage, le tour­­nant pratique de l’IA n’est pas sans évoquer cet homme qui tente d’al­­ler sur la lune en grim­­pant à un arbre : « Jusqu’ici, on peut noter une progres­­sion régu­­lière. » Consi­­dé­­rez la diffi­­culté qu’ont toujours les ordi­­na­­teurs actuels à recon­­naître une simple lettre A écrite à la main. Cette tâche est si ardue qu’elle sert de base aux « Capt­­cha » (de l’an­­glais comple­­tely auto­­ma­­ted public Turing test to tell compu­­ters and humans apart, « test de Turing entiè­­re­­ment auto­­ma­­tisé pour diffé­­ren­­cier les ordi­­na­­teurs et les humains »), ces appli­­ca­­tions qui requièrent de déchif­­frer du texte déformé et d’en reco­­pier les carac­­tères afin, par exemple, de pouvoir s’ins­­crire sur un site web. Pour Hofstad­­ter, il n’y a là rien de surpre­­nant. Savoir ce que tous les A ont en commun, explique-t-il dans un essai de 1982, néces­­site de « comprendre la nature fluide des caté­­go­­ries mentales ». Une apti­­tude qui est au cœur de l’in­­tel­­li­­gence humaine. « Connaître, c’est recon­­naître », aime-t-il à dire. Pour Hofstad­­ter, l’acte cogni­­tif fonda­­men­­tal consiste à « voir comme » : nous voyons des lignes comme « un A », des bouts de bois comme « une table », une réunion comme « une situa­­tion où le roi est nu », un ami qui boude comme « un enfan­­tillage », un style vesti­­men­­taire comme « un look de hips­­ter », et ainsi de suite, de manière inces­­sante. C’est cela, comprendre. Mais comment cela fonc­­tionne-t-il ? Depuis trente ans, Hofstad­­ter et ses étudiants essaient de résoudre cette énigme, en construi­­sant des « modèles infor­­ma­­tiques des méca­­nismes fonda­­men­­taux de la pensée ». « À tous moments, nous faisons face à un nombre infini de situa­­tions qui se recoupent et s’en­­tre­­mêlent », écrit Hofstad­­ter dans L’Ana­­lo­­gie, cœur de la pensée, son dernier ouvrage écrit en colla­­bo­­ra­­tion avec Emma­­nuel Sander (cher­­cheur français en psycho­­lo­­gie cogni­­tive, ndt). C’est notre rôle, en tant qu’or­­ga­­nismes vivants, de créer du sens à partir de ce chaos. Nous nous en acquit­­tons lorsque les concepts appro­­priés nous viennent à l’es­­prit, ce qui se produit auto­­ma­­tique­­ment et en perma­­nence. Grâce à l’ana­­lo­­gie. Dans ce livre orné de A en couver­­ture, Hofstad­­ter soutient que l’ana­­lo­­gie est au cœur de la pensée, qu’elle repré­­sente l’al­­pha et l’oméga de notre vie mentale quoti­­dienne.

ulyces-ia-06
Cerveau humain contre super­­or­­di­­na­­teur

« Penchez-vous sur vos conver­­sa­­tions. Vous serez surpris de consta­­ter qu’il s’agit d’un procédé de fabri­­ca­­tion d’ana­­lo­­gies. » Quelqu’un mentionne quelque chose, ce qui vous rappelle autre chose ; vous inter­­­ve­­nez à votre tour, ce qui évoque autre chose à votre inter­­­lo­­cu­­teur – voilà ce qu’est une conver­­sa­­tion. Impos­­sible de faire plus simple. Mais chaque étape, affirme Hofstad­­ter, corres­­pond à une analo­­gie, un saut mental si éton­­nam­­ment complexe qu’il s’agit d’un vrai miracle compu­­ta­­tion­­nel. D’une manière ou d’une autre, notre cerveau est capable de faire abstrac­­tion des détails non perti­­nents pour extraire l’idée géné­­rale, « le sque­­lette essen­­tiel » d’un énoncé, et puiser l’his­­toire ou le commen­­taire le plus appro­­prié dans son propre réper­­toire d’idées et d’ex­­pé­­riences. « Faites atten­­tion aux phrases inno­­centes du genre : “Ah oui, il m’est arrivé exac­­te­­ment la même chose !écrit Hofstad­­ter. Sous leurs airs inno­­cents se cache tout le mystère de l’es­­prit humain. » Dans les années qui ont suivi la sortie de GEB, Hofstad­­ter et l’IA ont conti­­nué leur route sépa­­ré­­ment. Aujourd’­­hui, le nom d’Hof­s­tad­­ter ne se trouve nulle part dans les mille pages du manuel Intel­­li­­gence arti­­fi­­cielle de Russel et Norvig. Ses collègues parlent de lui au passé. Les nouveaux admi­­ra­­teurs de GEB, quand ils découvrent la date de publi­­ca­­tion du livre, sont surpris d’ap­­prendre que son auteur est toujours en vie. Bien sûr, pour Hofstad­­ter, l’his­­toire ressemble plutôt à ça : au moment où tous les cher­­cheurs en IA se sont mis à déve­­lop­­per des produits, son équipe et lui se sont attaqués au vrai problème, dans l’ombre – « patiem­­ment, systé­­ma­­tique­­ment, brillam­­ment », ainsi que l’a écrit son ami, le philo­­sophe Daniel Dennett. « Très peu de gens s’in­­té­­ressent réel­­le­­ment à la façon dont l’in­­tel­­li­­gence humaine fonc­­tionne, déplore Hofstad­­ter. C’est la ques­­tion qui nous inté­­resse : “Qu’est-ce que penser veut dire ?” Et nous ne nous en lais­­sons pas détour­­ner. » « Qui sait ? pour­­suit-il. Un jour peut-être, les gens diront : “Hofstad­­ter a déjà dit et fait ce que nous sommes tout juste en train de décou­­vrir.” » Voilà ce qui ressemble à la tenta­­tive de s’auto-récon­­for­­ter de celui qui a perdu la partie. Mais Hofstad­­ter a le genre de person­­na­­lité qui invite à se deman­­der si les meilleures idées en matière d’in­­tel­­li­­gence arti­­fi­­cielle – « l’in­­tel­­li­­gence arti­­fi­­cielle authen­­tique », comme il dit en s’ex­­cu­­sant pour l’oxy­­more – ne seraient pas en train de jaunir dans un carton à Bloo­­ming­­ton.

Traquer les erreurs

Dès son plus jeune âge, Douglas R. Hofstad­­ter a bercé dans la pensée comme d’autres bercent dans le crime. Il a grandi dans les années 1950 à l’Uni­­ver­­sité de Stan­­ford, dans une maison du campus, juste au sud d’un quar­­tier baptisé Profes­­sor­­ville. Son père Robert, physi­­cien nucléaire, a décro­­ché un prix Nobel de physique en 1961. ulyces-ia-07Sa mère, Nancy, passion­­née de poli­­tique, a milité pour les enfants atteints de troubles du déve­­lop­­pe­­ment et siégé au comité d’éthique du Centre d’ac­­cueil Agnews (insti­­tu­­tion psychia­­trique près de San Fran­­cisco, ndt), où sa sœur Molly a résidé pendant vingt ans. Pendant son temps libre, Nancy suivait, comme elle dit sur le ton de l’hu­­mour, « une carrière de femme de profes­­seur » : elle tenait un salon pour une commu­­nauté soudée d’amis, venus écou­­ter du jazz et avoir des conver­­sa­­tions stimu­­lantes – une fête intel­­lec­­tuelle sur fond « d’in­­ter­­pé­­né­­tra­­tion de la science et de l’art ». Le petit Doug était aux anges. Il adorait les amis de ses parents et leurs étranges discus­­sions sur « les choses les plus petites et les plus gigan­­tesques ». À 8 ans, il avait un jour déclaré que son rêve était de deve­­nir « un neutrino de masse nulle et de spin un et demi ». Il se rendait au dépar­­te­­ment de physique pour le thé de quatre heures, comme « un petit étudiant de master de 12 ans ». Il était curieux, insa­­tiable, inépui­­sable – « un enfant fasciné unique­­ment par les idées ». Son style intel­­lec­­tuel était, tout comme aujourd’­­hui, basé sur l’ex­­cès : il pouvait pratiquer le piano sept heures par jours ou déci­­der d’ap­­prendre par cœur 1 200 vers d’Eugène Onéguine. Une fois, il avait passé plusieurs semaines avec un magné­­to­­phone à cassette pour s’en­­traî­­ner à parler à l’en­­vers : lu à rebours, son chara­­bia deve­­nait de l’an­­glais stan­­dard. Pendant plusieurs mois d’af­­fi­­lée, il s’im­­mer­­geait dans des expres­­sions françaises, déve­­lop­­pait des programmes infor­­ma­­tiques capables de géné­­rer des histoires insen­­sées, ou bien étudiait une quin­­zaine de preuves du théo­­rème de Pytha­­gore afin de « se repré­­sen­­ter pourquoi il était vrai ». Il passait « pratique­­ment tout son temps à explo­­rer ce genre de choses, inca­­pable de se rete­­nir d’ex­­plo­­rer. Il était possédé, complè­­te­­ment possédé par cela. » Hofstad­­ter a 68 ans. Mais il y a quelque chose d’en­­fan­­tin dans une vie vécue à ce point sur papier, sur ordi­­na­­teur ou dans sa propre tête. Comment quelqu’un comme lui peut-il vieillir norma­­le­­ment ? Hofstad­­ter a des cheveux gris en bataille qui lui descendent en-dessous des oreilles, une silhouette fragile et voûtée, et un sillon entre la lèvre supé­­rieure et le nez qui évoque celui du Grinch. Mais sa façon de se prendre au sérieux, sa gravité insis­­tante sont celles d’un très jeune homme. Avec lui, les enjeux sont élevés, et il n’est pas facile à vivre. Il est le genre de végé­­ta­­rien capable de supplier tous les convives à table de se confor­­mer au même régime, le genre d’ora­­teur sour­­cil­leux qui corrige son inter­­­lo­­cu­­teur lorsqu’il emploie « un langage sexiste » en sa présence. « Il observe beau­­coup de règles », confirme son ami Peter Jones, qui connaît Hofstad­­ter depuis cinquante-neuf ans. « Par exemple, il déteste l’ex­­pres­­sion “you guys” (« vous les gars », couram­­ment utilisé en anglais, ndt). C’est non négo­­ciable. Quand vous discu­­tez avec lui, il vaut mieux éviter cette tour­­nure. »

ulyces-ia-08
Le campus à l’au­­tomne
À Bloo­­ming­­ton, dans l’In­­diana
Crédits

Depuis plus de trente ans, Hofstad­­ter est profes­­seur à l’Uni­­ver­­sité de l’In­­diana à Bloo­­ming­­ton. Il vit dans une maison située à deux pas du campus, avec Baofen Li, son épouse depuis septembre 2013. Les deux enfants de son précé­dent mariage, Danny et Monica, sont grands à présent. Bien qu’il entre­­tienne des liens forts avec la recherche en sciences cogni­­tives et soit affi­­lié à plusieurs dépar­­te­­ments – dont infor­­ma­­tique, psycho­­lo­­gie et neuros­­ciences, litté­­ra­­ture compa­­rée et philo­­so­­phie –, il n’a pas d’obli­­ga­­tions offi­­cielles. « Je crois que j’ai le travail le plus confor­­table qu’on puisse imagi­­ner, me confie-t-il. Je fais exac­­te­­ment ce que je veux. » Il passe le plus clair de son temps dans son étude, consti­­tuée de deux pièces recou­­vertes de moquette au dernier étage de sa maison, un peu étouf­­fantes et plus désor­­don­­nées qu’il ne le souhai­­te­­rait. C’est là le centre de son univers, où il lit, écoute de la musique, étudie, dessine, écrit ses livres et ses e-mails (Hofstad­­ter passe quatre heures par jour à écrire des mails. « Pour moi, un e-mail, c’est comme une lettre, tout aussi formel, raffiné, écrit avec soin… Je réécris, réécris et réécris sans cesse tous mes e-mails »). Son acti­­vité mentale se déploie dans cette étude, et cela se voit. Livres, dessins, cahiers et clas­­seurs s’y amon­­cellent, comme des pensées fossi­­li­­sées. On dirait le musée de ses innom­­brables obses­­sions intel­­lec­­tuelles. « Tout ce à quoi je réflé­­chis devient partie inté­­grante de ma vie profes­­sion­­nelle », explique Hofstad­­ter. Pour Daniel Dennett, qui a co-écrit avec lui The Mind’s I (« Le Je de l’es­­prit », non traduit en français, ndt), « Douglas Hofstad­­ter est tout simple­­ment un phéno­­mé­­no­­logue, un phéno­­mé­­no­­logue en action, et il fait cela très bien. Mieux que personne. » Il étudie les phéno­­mènes – les sensa­­tions, les actions inté­­rieures – de son propre esprit. « Et la raison pour laquelle il fait cela mieux que quiconque, conti­­nue-t-il, c’est qu’il essaie à tout prix d’ar­­ri­­ver à une théo­­rie de ce qui se passe en coulisses, de la manière dont la pensée se produit réel­­le­­ment dans le cerveau. »

ulyces-ia-09
26 août 1910, Univer­­sité de Harvard

Dans sa poche arrière, Hofstad­­ter garde depuis toujours un stylo Bic quatre couleurs et un petit cahier. Il a des étagères pleines de ces petits cahiers, dans une salle de bain adja­­cente à son étude trans­­for­­mée en espace de range­­ment supplé­­men­­taire. Il me sort l’un d’eux, qui date de la fin des années 1950, entiè­­re­­ment rempli d’er­­reurs de pronon­­cia­­tion. Depuis son adoles­­cence, Hofstad­­ter a noté quelques dix mille exemples d’in­­ver­­sions de phonèmes (« soringue hypeu­­der­­mique »), d’im­­pro­­prié­­tés de langage (« il y a anguille sous cloche »), d’idiomes mélan­­gés (« se creu­­ser la tête de Turc »), etc., dont la moitié sont de lui. Il fait des photo­­co­­pies des pages du cahier, les découpe avec des ciseaux puis conserve les erreurs dans des clas­­seurs ou des boîtes de range­­ment. Pour Hofstad­­ter, ces erreurs sont autant d’in­­dices. « Nous ne sommes pas très fiables en ce qui concerne nos acti­­vi­­tés cogni­­tives qui sont, par défi­­ni­­tion, subcons­­cientes, écrit-il. C’est ce qui rend les vastes collec­­tions d’er­­reurs si impor­­tantes. Les erreurs isolées ne livrent que de légères indi­­ca­­tions sur les méca­­nismes sous-jacents, mais dans une grande collec­­tion les traces s’ad­­di­­tionnent jusqu’à deve­­nir des preuves solides en faveur (ou en défa­­veur) d’un méca­­nisme parti­­cu­­lier. » Le langage correct n’est pas aussi inté­­res­­sant : comme un tour de magie réussi, il n’est effi­­cace que parce qu’il esca­­mote la manière dont il fonc­­tionne. Hofstad­­ter préfère traquer « l’oreille du lapin qui dépasse, l’in­­dice d’une trappe déro­­bée ». Il se comporte ainsi comme une version moderne de William James : grâce à un mélange d’in­­tros­­pec­­tions limpides – James est l’in­­ven­­teur du concept de flux de conscience – et d’ex­­pli­­ca­­tions inci­­sives, James avait écrit en 1890 un ouvrage fonda­­teur, Prin­­cipes de psycho­­lo­­gie. « La masse de nos pensées dispa­­raît pour toujours, sans espoir de récu­­pé­­ra­­tion, écri­­vait-il, et la psycho­­lo­­gie ne récu­­père que quelques-unes des miettes du festin ». Comme Hofstad­­ter, James a passé sa vie sous la table, à inspec­­ter les miettes avec jubi­­la­­tion. À ceci près qu’il n’avait que ses yeux, quand Hofstad­­ter possède un genre de micro­­scope.

Analo­­gies fluides

Le déve­­lop­­pe­­ment de l’avia­­tion peut être attri­­bué non pas aux vols planés des frères Wright à Kitty Hawk, en Caro­­line du Nord, mais à la souf­­fle­­rie de 1,80 mètres de long qu’ils avaient construite dans leur maga­­sin de bicy­­clettes, avec de la ferraille et des rayons de roues de vélo de récu­­pé­­ra­­tion. Tandis que leurs concur­­rents testaient leurs idées de voilure à l’échelle 1:1, les frères Wright effec­­tuaient des essais aéro­­dy­­na­­miques ciblés pour un coût réduit. Pour leur biographe Fred Howard, il s’agit là « des expé­­riences aéro­­nau­­tiques les plus cruciales et fécondes jamais menées avec si peu de temps, de maté­­riel et d’argent ». Dans une vieille bâtisse située sur North Fess Avenue à Bloo­­ming­­ton, Hofstad­­ter dirige le Groupe de recherche en analo­­gies fluides (Fluid Analo­­gies Research Group), surnommé affec­­tueu­­se­­ment le Farg. Son budget annuel est de 100 000 dollars et l’in­­té­­rieur est convi­­vial, douillet même. On peut faci­­le­­ment passer à côté des meubles à range­­ment entre­­po­­sés à côté du cellier, de la photo­­co­­pieuse qui vrom­­bit dans le salon, ou des étiquettes biblio­­gra­­phiques (Neuros­­ciences, MATHÉMATIQUES, Percep­­tion) qui garnissent les étagères. Mais depuis vingt-cinq ans, cet endroit accueille un ambi­­tieux projet visant, pour le petit groupe de scien­­ti­­fiques qui y travaille, à « décou­­vrir, tout d’abord, les secrets de la créa­­ti­­vité, et dans un second temps ceux de la conscience ».

ulyces-ia-10
Le bureau de Hofstad­­ter à Bloo­­ming­­ton
Siège du Groupe de recherche en analo­­gies fluides
Crédits : Google

L’or­­di­­na­­teur est au Farg ce que la souf­­fle­­rie était aux frères Wright. Le chaos fugi­­tif et incons­­cient de l’es­­prit peut être ralenti sur ordi­­na­­teur, rembo­­biné, mis sur « pause », et même modi­­fié. Telle est, pour Hofstad­­ter, la grande force de l’in­­tel­­li­­gence arti­­fi­­cielle. Des parties d’un programme peuvent être isolées et désac­­ti­­vées de façon à comprendre leur rôle dans le fonc­­tion­­ne­­ment global, des para­­mètres modi­­fiés pour voir si les perfor­­mances en sortent amélio­­rées ou dégra­­dées. Quand l’or­­di­­na­­teur se comporte de manière inat­­ten­­due, en étant parti­­cu­­liè­­re­­ment créa­­tif ou obtus, il est possible de visua­­li­­ser préci­­sé­­ment pourquoi. « J’ai toujours pensé que le seul espoir des humains pour comprendre plei­­ne­­ment la complexité de leur esprit consis­­tait à modé­­li­­ser leurs proces­­sus mentaux sur des ordi­­na­­teurs et à apprendre des échecs inévi­­tables de tels modèles », écrit Hofstad­­ter. Trans­­for­­mer un proces­­sus mental iden­­ti­­fié et cata­­lo­­gué dans la maison d’Hof­s­tad­­ter en un programme infor­­ma­­tique fonc­­tion­­nel prend entre cinq et neuf ans à un étudiant de master spécia­­le­­ment dédié à la tâche, à quelques centaines de mètres de là. Tous les programmes partagent la même archi­­tec­­ture de base : un ensemble de compo­­sants et un style de program­­ma­­tion qui remontent au logi­­ciel Jumbo, implé­­menté par Hofstad­­ter en 1982. Jumbo était destiné à jouer au pêle-mêle, ce jeu qu’on trouve dans les jour­­naux et qui consiste à retrou­­ver un mot à partir de ses lettres mélan­­gées. La première pensée qui vient à l’es­­prit, s’agis­­sant d’un programme de pêle-mêle, est proba­­ble­­ment : « N’est-ce pas là une tâche triviale pour un ordi­­na­­teur ? » Et ça l’est, en effet : je viens de déve­­lop­­per un programme qui peut trai­­ter n’im­­porte quel mot, et cela m’a pris quatre minutes. Il fonc­­tionne en prenant le mot mélangé en entrée et en essayant chaque recom­­bi­­nai­­son de lettres jusqu’à tomber sur un mot du diction­­naire. ulyces-ia-11Il a fallu deux ans à Hofstad­­ter pour program­­mer Jumbo : il s’in­­té­­res­­sait moins à la réso­­lu­­tion du problème qu’à comprendre ce qui se passait quand il le résol­­vait lui-même. « Je pouvais sentir les lettres se combi­­ner dans ma tête, par elles-mêmes, sautant par petits groupes, se sépa­­rant pour former de nouveaux groupes, des amas éphé­­mères. Ce n’est pas moi qui mani­­pu­­lais tout ça, mais elles qui menaient la danse. Elles essayaient des combi­­nai­­sons par elles-mêmes. » L’ar­­chi­­tec­­ture déve­­lop­­pée par Hofstad­­ter pour modé­­li­­ser cette danse de lettres s’ins­­pire de l’ac­­ti­­vité d’une cellule biolo­­gique. Les lettres sont combi­­nées et sépa­­rées par diffé­­rents types d’« enzymes », comme il les appelle, qui s’agitent et s’ac­­colent aux struc­­tures qu’elles rencontrent, cata­­ly­­sant les réac­­tions. Certaines enzymes réar­­rangent (pang-loss devient pan-gloss ou lang-poss), d’autres assemblent (g et n devient le groupe gn, pele et mele deviennent pele­­mele), d’autres enfin disso­­cient (ment est séparé en me et nt). Chaque réac­­tion en produit de nouvelles, tandis que la popu­­la­­tion globale d’en­­zymes fluc­­tue à chaque instant afin de reflé­­ter l’état du pêle-mêle. C’est un mode de calcul inha­­bi­­tuel, qui se démarque par sa flui­­dité. Bien sûr, Hofstad­­ter propose une analo­­gie : une colo­­nie de four­­mis marchant en forêt, guidée par des four­­mis qui partent en recon­­nais­­sance dans toutes les direc­­tions possibles. Ces éclai­­reurs rapportent leurs décou­­vertes au groupe, de façon à opti­­mi­­ser la recherche de nour­­ri­­ture. Une telle manière de procé­­der est solide – marchez sur une poignée de four­­mis et le reste de la colo­­nie s’en remet­­tra vite – et, de ce fait, capable d’adap­­ta­­tion. À la lecture de Fluid Concepts and Crea­­tive Analo­­gies: Compu­­ter Models of the Funda­­men­­tal Mecha­­nisms of Thought (Concepts fluides et analo­­gies créa­­tives : modèles compu­­ta­­tion­­nels des méca­­nismes fonda­­men­­taux de la pensée – non traduit en français, ndt), qui décrit en détail cette archi­­tec­­ture ainsi que la logique et la struc­­ture des programmes qui l’uti­­lisent, on en vient à se deman­­der si Hofstad­­ter n’est pas devenu célèbre pour le mauvais livre. Comme l’a écrit un critique du New York Times en 1995 : « Le lecteur de Fluid Concepts & Crea­­tive Analo­­gies ne peut s’em­­pê­­cher de penser que le groupe de l’Uni­­ver­­sité de l’In­­diana touche là à quelque chose d’his­­to­­rique. »

ulyces-ia-12
Seul en scène
Douglas Hofstad­­ter n’est suivi par personne
Crédits

Mais très peu de gens, même chez les admi­­ra­­teurs de GEB, connaissent ce livre ou le programme de recherche qu’il décrit. La raison en est peut-être que les programmes du Farg sont extrê­­me­­ment peu commodes : ils opèrent sur la base de « micro-domaines » presque enfan­­tins, et se montrent moins effi­­caces qu’un être humain.

Candide

L’ère contem­­po­­raine de la recherche en IA, faite de progrès continu et de succès commer­­ciaux, a commencé à l’aube des années 1990 et conti­­nue à ce jour. Ce long prin­­temps impro­­bable suit une période qu’on a surnom­­mée l’« hiver de l’IA », qui a pratique­­ment vu la disci­­pline dispa­­raître. Ceci résulte d’un dilemme de fond. D’une part, les logi­­ciels que nous savons conce­­voir sont très métho­­diques : la plupart d’entre eux sont orga­­ni­­sés comme une armée d’élite, avec des couches de comman­­de­­ment qui commu­­niquent leurs instruc­­tions aux couches immé­­dia­­te­­ment infé­­rieures, et des routines qui appellent des sous-routines. D’un autre côté, nous voudrions pouvoir écrire des logi­­ciels capables de s’adap­­ter – et pour cela, un système de règles hiérar­­chiques est une très mauvaise idée. Hofstad­­ter a résumé la situa­­tion en ces termes : « L’intel­­li­­gence arti­­fi­­cielle dans son ensemble est une tenta­­tive pour combattre la rigi­­dité des ordi­­na­­teurs. » À la fin des années 1980, le courant domi­­nant de la recherche en IA voyait s’en­­vo­­ler les subven­­tions, l’in­­fluence, les places dans les colloques, les publi­­ca­­tions scien­­ti­­fiques et la couver­­ture média­­tique, parce qu’il était en train de perdre ce combat.

ulyces-ia-17
Gödel, Escher, Bach : Les Brins d’une Guir­­lande Éter­­nelle (1979)

Les « systèmes experts », autre­­fois consi­­dé­­rés comme les fleu­­rons de la disci­­pline, étaient en train de sombrer du fait de leur absence de robus­­tesse. Leur approche était fonda­­men­­ta­­le­­ment minée. Prenons la traduc­­tion auto­­ma­­tique d’une langue vers une autre, qui a long­­temps repré­­senté le Graal de l’IA. L’ap­­proche stan­­dard consis­­tait à rassem­­bler dans une pièce des linguistes et des traduc­­teurs, et d’es­­sayer de conver­­tir leurs connais­­sances en un ensemble de règles que le programme doit suivre. Cette approche a échoué pour les raisons qu’on peut imagi­­ner : aucun système de règles ne peut captu­­rer une langue car le langage humain est trop vaste et protéi­­forme. Pour chaque règle à suivre, il y a une règle à trans­­gres­­ser. Si la traduc­­tion auto­­ma­­tique voulait survivre en tant qu’en­­tre­­prise commer­­ciale – et l’IA survivre en tant que disci­­pline –, il deve­­nait néces­­saire de trou­­ver une nouvelle approche. Ou mieux : un raccourci. Et c’est ce qui s’est produit. Le tour­­nant a commencé en 1988, avec un projet d’IBM appelé Candide. Pour mettre au point ce système de traduc­­tion auto­­ma­­tique, il a fallu commen­­cer par admettre que l’ap­­proche fondée sur les règles néces­­site une connais­­sance trop appro­­fon­­die du langage : il faut comprendre comment la séman­­tique, la syntaxe et la morpho­­lo­­gie fonc­­tionnent, comment les mots se combinent pour former des phrases puis des para­­graphes, sans parler des idées véhi­­cu­­lées à travers les énon­­cés. Les ingé­­nieurs d’IBM ont jeté cette approche par la fenêtre. Ils l’ont rempla­­cée par quelque chose de brillant mais d’in­­croya­­ble­­ment simple. La tech­­nique s’ap­­pelle « appren­­tis­­sage auto­­ma­­tique ». Il s’agit de créer un dispo­­si­­tif qui accepte une phrase d’an­­glais en entrée et génère une phrase française en sortie. Le cerveau humain, bien sûr, est un exemple de ce genre de dispo­­si­­tif, mais tout l’enjeu consiste à s’af­­fran­­chir de la complexité du cerveau. À la place, on commence avec une machine telle­­ment simple qu’elle fonc­­tionne à peine : disons une machine qui recrache aléa­­toi­­re­­ment des mots de français pour les mots anglais qu’on lui four­­nit. Imagi­­nez une boîte couverte de boutons de réglage. Certains d’entre eux contrôlent des para­­mètres géné­­raux : pour un mot anglais, combien de mots français devraient, en moyenne, être produits ? D’autres sont liés à des para­­mètres spéci­­fiques, comme la proba­­bi­­lité qu’a­­près le mot Christ­­mas (« Noël ») vienne le mot tree (« sapin »). En jouant sur ces boutons, est-il possible d’ob­­te­­nir une machine qui conver­­tisse de l’an­­glais correct en français correct ? Il s’avère que oui. Pour cela, il faut alimen­­ter la machine avec des phrases d’an­­glais dont la traduc­­tion française est déjà connue. (Pour Candide, par exemple, il a fallu 2,2 millions de paires de phrases, issues pour la plupart de comptes rendus de débats du Parle­­ment cana­­dien.) Procé­­dez une paire à la fois. Après avoir entré une paire de phrases, prenez la partie anglaise et donnez-la à la machine pour voir ce qui sort en français. Si cette phrase est diffé­­rente de ce que vous atten­­diez – c’est-à-dire la traduc­­tion correcte –, votre machine n’est pas au point. Tour­­nez les boutons et recom­­men­­cez. Au bout d’un nombre consé­quent d’es­­sais par tâton­­ne­­ment, vous vous serez suffi­­sam­­ment fami­­lia­­risé avec les réglages pour pouvoir géné­­rer l’équi­­valent français de votre phrase en anglais. ulyces-ia-18En répé­­tant le procédé avec un million de paires de phrases, vous cali­­bre­­rez progres­­si­­ve­­ment la machine, au point de pouvoir entrer une phrase dont vous igno­­rez la traduc­­tion et d’ob­­te­­nir un résul­­tat raison­­nable. Et la beauté de cette méthode, c’est que vous n’avez jamais eu à program­­mer expli­­ci­­te­­ment la machine : vous n’avez jamais eu besoin de savoir pourquoi les boutons devaient se trou­­ver dans cette posi­­tion. Candide n’a pas inventé l’ap­­pren­­tis­­sage auto­­ma­­tique. En fait, le concept avait été testé dans les années 1960, sur une forme primi­­tive de traduc­­tion auto­­ma­­tique. Mais jusque-là, aucun essai ne s’était avéré fruc­­tueux. Ce n’est donc pas la réso­­lu­­tion du problème qui était révo­­lu­­tion­­naire, mais le fait qu’un programme si simple ait pu y parve­­nir. Comme l’écrit Adam Berger – membre de l’équipe de déve­­lop­­pe­­ment – dans un résumé du projet Candide, la traduc­­tion auto­­ma­­tique était « large­­ment consi­­dé­­rée comme la tâche la plus diffi­­cile dans le trai­­te­­ment du langage natu­­rel et dans l’in­­tel­­li­­gence arti­­fi­­cielle en géné­­ral, car une traduc­­tion conve­­nable semble impos­­sible sans compré­­hen­­sion préa­­lable du texte à traduire ». Qu’un programme aussi élémen­­taire que Candide se montre à la hauteur suggé­­rait qu’une traduc­­tion auto­­ma­­tique effec­­tive peut se passer de compré­­hen­­sion – il suffit d’avoir une quan­­tité suffi­­sante de textes bilingues à dispo­­si­­tion. Le succès du projet a ainsi servi de preuve de concept pour une approche qui allait être amenée à faire florès dans la recherche en IA. L’ef­­fi­­ca­­cité spec­­ta­­cu­­laire de Candide repose sur une trans­­for­­ma­­tion du problème : plutôt que de dénouer les fils d’un proces­­sus complexe, il fallait désor­­mais trou­­ver un très grand nombre d’exemples de ce proces­­sus en action. Or, si repro­­duire les proces­­sus céré­­braux reste un défi, le problème des données s’est simpli­­fié au cours du temps – en parti­­cu­­lier depuis le tour­­nant des années 1990, quand ce qui n’était qu’un para­­dis pour physi­­ciens férus d’in­­for­­ma­­tique est devenu le World Wide Web. Ce n’est donc pas une coïn­­ci­­dence si l’IA a connu son renou­­veau ces années-la. Pas éton­­nant non plus que Google, la plus grande firme numé­­rique, soit aussi « le plus grand système d’IA du monde », selon les mots de Peter Norvig, co-auteur d’Intel­­li­­gence arti­­fi­­cielle avec Stuart Russell. D’après lui, l’IA contem­­po­­raine peut se résu­­mer à « des données, des données, des données », et Google est maître en la matière.

ulyces-ia-19-1
Cerveau méca­­nique
The Subrep­­tion of A Chess-Player Gone Mad
Crédits : Derrick Tyson

Josh Estelle est ingé­­nieur logi­­ciel pour Google Traduc­­tion, une plate­­forme qui se fonde sur les mêmes prin­­cipes que Candide et consti­­tue désor­­mais le premier système de traduc­­tion auto­­ma­­tique au monde. « Prenez l’un de ces algo­­rithmes d’ap­­pren­­tis­­sage tout simple qu’on apprend dès les premières semaines d’un cours d’IA : le monde univer­­si­­taire les a délais­­sés, les consi­­dé­­rant comme inef­­fi­­caces, explique-t-il. Mais quand vous passez de dix mille essais à dix milliards lors de la phase d’ap­­pren­­tis­­sage, d’un seul coup, cela commence à fonc­­tion­­ner. Les données surpassent tout. » Cette tech­­nique est si effi­­cace que les membres de l’équipe de Google Traduc­­tion ne connaissent pas la plupart des langues prises en charge par le système. « C’est une ques­­tion de renta­­bi­­lité », pour­­suit Estelle : « mieux vaut embau­­cher des ingé­­nieurs » que des locu­­teurs natifs. Dans un monde où la traduc­­tion est deve­­nue un exer­­cice d’ex­­plo­­ra­­tion de données à grand échelle, ce sont les ingé­­nieurs qui comptent. Ce qui fait de l’ap­­pren­­tis­­sage auto­­ma­­tique une telle aubaine, c’est qu’elle permet d’éva­­cuer le problème initial de la compré­­hen­­sion au profit d’une approche d’in­­gé­­nie­­rie pratique. « Cette façon de penser s’est diffu­­sée dans tout Google, explique Norvig. Si on peut rendre une tâche plus rapide de 10 %, et que cela permet d’éco­­no­­mi­­ser des millions de dollars par an, eh bien allons-y. Comment ? Il n’y a qu’à exami­­ner les données et utili­­ser une approche statis­­tique ou d’ap­­pren­­tis­­sage auto­­ma­­tique, on arri­­vera bien à quelque chose de meilleur. » Google a égale­­ment des projets qui visent à une compré­­hen­­sion plus profonde : amélio­­rer l’ap­­pren­­tis­­sage auto­­ma­­tique en s’ins­­pi­­rant de la struc­­ture biolo­­gique du cerveau, construire un « graphe de connais­­sance » destiné à faire le lien entre des mots, comme Obama, et des personnes, des lieux ou des objets. Mais Google possède une clien­­tèle d’un milliard de personnes à satis­­faire, ce qui a le don de lui faire préfé­­rer l’ef­­fi­­ca­­cité à une démarche compré­­hen­­sive. Pas besoin de pous­­ser Google Traduc­­tion dans ses retran­­che­­ments pour obser­­ver les compro­­mis qu’ont dû faire les déve­­lop­­peurs afin obte­­nir un système géné­­ra­­liste, rapide et simple d’uti­­li­­sa­­tion. Bien que Google Traduc­­tion capture, à sa manière, les fruits de l’in­­tel­­li­­gence humaine, il n’a lui-même rien d’in­­tel­­li­gent. Il est plutôt comme une formi­­dable pierre de Rosette, dont les inscrip­­tions capturent l’ac­­ti­­vité figée d’es­­prits autre­­fois actifs.

Watson

« Quand on a conçu Watson, est-ce qu’on s’est creusé la tête pour essayer de modé­­li­­ser la cogni­­tion humaine ? » Dave Ferrucci, qui dirige l’équipe du projet Watson chez IBM, marque une pause pour mieux marquer son effet. « Abso­­lu­­ment pas. On a juste essayé de créer une machine capable de gagner au Jeopardy!. » Pour Ferrucci, la défi­­ni­­tion de l’in­­tel­­li­­gence est simple : c’est ce qu’un programme est capable de faire. Deep Blue était intel­­li­gent puisqu’il a battu Garry Kaspa­­rov aux échecs. Watson était intel­­li­gent puisqu’il a battu Ken Jennings au Jeopardy!. « On fait de l’in­­tel­­li­­gence arti­­fi­­cielle, non ? Cela revient presque à dire de l’in­­tel­­li­­gence non-humaine. Pourquoi voudriez-vous que la science de l’in­­tel­­li­­gence arti­­fi­­cielle produise de l’in­­tel­­li­­gence humaine ? »

ulyces-ia-13
« Qui est Bram Stoker ? »
Watson, vainqueur de Jeopardy!
Crédits : IBM

Ferrucci ne nie pas la diffé­­rence. Il aime à racon­­ter qu’a­­lors qu’il faut à Watson une salle pleine de proces­­seurs et vingt tonnes d’équi­­pe­­ment de refroi­­dis­­se­­ment pour fonc­­tion­­ner, ses concur­­rents utilisent une machine qui tient dans une boîte à chaus­­sures et peut tour­­ner pendant des heures avec un sand­­wich au thon. Une machine qui leur permet, excu­­sez du peu, de se lever quand le jeu est terminé, de tenir une conver­­sa­­tion, manger un crois­­sant, soute­­nir un point de vue, danser, penser… Pendant ce temps, Watson conti­­nue à vrom­­bir dans un coin, brûlant, stupide et inanimé, en répon­­dant à des ques­­tions sur des prési­­dents et des schmil­­blicks. « Ce que ces systèmes mani­­pulent n’est même pas l’ombre de ce qu’ils sont censés repré­­sen­­ter, admet Ferrucci. Dans la recherche en IA, que ce soit dans les années 1950 ou aujourd’­­hui, nous sous-esti­­mons constam­­ment la complexité de ce qui se passe dans un cerveau humain. » La ques­­tion que pose Hofstad­­ter à Ferrucci et à tous ceux qui travaillent dans le courant domi­­nant de l’IA est la suivante : dans ce cas, pourquoi ne pas étudier le cerveau humain ? « J’ai un avis partagé à ce propos », a admis Ferrucci quand je lui ai posé la ques­­tion. « En tant qu’in­­di­­vidu, on est limité dans le nombre de choses qu’on peut faire, et je pense qu’au moment de consa­­crer sa vie à quelque chose, on doit se poser la ques­­tion : dans quel but ? Je crois bien m’être posé la ques­­tion à un moment donné, et il s’avère que je suis fasciné par la manière dont l’es­­prit humain fonc­­tionne. Ce serait fantas­­tique de comprendre la cogni­­tion, j’adore lire des livres sur le sujet, me frot­­ter à cela », a-t-il pour­­suivi, en préci­­sant que le travail d’Hof­s­tad­­ter était pour lui une source d’ins­­pi­­ra­­tion. « Mais où cela me condui­­rait-il ? Ce que je veux vrai­­ment, c’est conce­­voir des systèmes infor­­ma­­tiques qui font vrai­­ment quelque chose. Et je ne pense pas que les théo­­ries de la cogni­­tion soient le plus court moyen pour y parve­­nir. » La réac­­tion de Peter Norvig, direc­­teur de recherche chez Google, ressemble presque mot pour mot à celle de Ferrucci. « Je trou­­vais qu’Hof­s­tad­­ter s’at­­taquait à un problème parti­­cu­­liè­­re­­ment diffi­­cile. Et je suppose que je voulais trai­­ter un problème plus facile. »

ulyces-ia-14
Watson, le super­­or­­di­­na­­teur d’IBM

On peut discer­­ner la trace des échecs passés de l’IA dans ces réponses : la recherche sur les problèmes fonda­­men­­taux a l’odeur nauséa­­bonde des vieux jours. Comme l’écrit Nils Nils­­son dans son ouvrage histo­­rique The Quest for Arti­­fi­­cial Intel­­li­­gence (La Quête de l’in­­tel­­li­­gence arti­­fi­­cielle –non traduit en français, ndt), « le souci de respec­­ta­­bi­­lité a eu un effet téta­­ni­­sant sur une partie des cher­­cheurs en IA ». Stuart Russel, co-auteur du manuel de réfé­­rence Intel­­li­­gence arti­­fi­­cielle avec Peter Norvig, va plus loin. « Un grand nombre de travaux actuels ne sont pas très ambi­­tieux. En appren­­tis­­sage auto­­ma­­tique, l’un des grands progrès des années 1980 a consisté à dire : “Voilà des données réelles, est-ce que je peux faire en sorte que mon programme puisse prédire correc­­te­­ment une partie d’entre elles ?” Mais main­­te­­nant, les gens consi­­dèrent qu’il s’agit de la seule tâche possible. » Étrange comme on peut étouf­­fer de son propre succès. Tandis que nos ordi­­na­­teurs gagnent en vitesse et englou­­tissent de plus en plus de données, nous nous lais­­sons glis­­ser sur la voie de la stupi­­dité. Au lieu de nous attaquer sérieu­­se­­ment à nos problèmes de fond, nous pouvons nous borner à four­­nir des milliards d’exemples à nos machines. C’est un peu comme utili­­ser une calcu­­la­­trice graphique pour faire ses devoirs d’ari­th­­mé­­tique au lycée : ça marche du tonnerre, jusqu’au moment où il faut vrai­­ment comprendre le calcul. Il y a peu de chances qu’a­­li­­men­­ter Google Traduc­­tion avec mille milliards de docu­­ments au lieu de dix milliards lui donne soudain le niveau de compé­­tence d’un traduc­­teur humain. Il en va de même pour la recherche web et la recon­­nais­­sance d’images, ou lorsqu’il s’agit de répondre à des ques­­tions, plani­­fier, lire, écrire ou conce­­voir : ce sont des problèmes pour lesquels on préfère se fier à l’in­­tel­­li­­gence humaine qu’à celle des machines. Norvig, comme tous les acteurs de l’IA commer­­ciale, est bien conscient de cette réalité, voire vague­­ment anxieux à son propos. « On pour­­rait tracer une courbe pour répondre à la ques­­tion : “L’aug­­men­­ta­­tion de la quan­­tité de données dispo­­nibles a-t-elle toujours un impact sur la qualité de nos systèmes ?” explique-t-il. La réponse, c’est que nos systèmes conti­­nuent de s’amé­­lio­­rer, mais moins vite que par le passé. » Pour James Marshall, un ancien étudiant de master d’Hof­s­tad­­ter, la situa­­tion est simple : « Finale­­ment, seul le chemin diffi­­cile nous conduira où nous voulons aller. »

L’At­­trape-cœurs

Hofstad­­ter a eu sa première rela­­tion sérieuse à l’âge de 35 ans. Il est né avec « une courbe de réso­­nance étroite », précise-t-il, emprun­­tant à la physique pour décrire ses goûts très sélec­­tifs. « Certaines femmes ont eu un impact énorme sur moi, leur visage me faisaient un effet incroyable. Je ne peux pas donner une recette pour ce genre de visa­­ges… mais c’est très rare. » En 1980, après ce qu’il quali­­fie de « quinze années horri­­ble­­ment mornes sur le plan amou­­reux », il rencontre Carol Brush. « Elle était pile au centre de ma courbe de réso­­nance », dira-t-il. Peu après leur rencontre, ils se sont mariés et ont eu deux enfants. Mais quelques temps plus tard, alors qu’ils étaient en vacances en Italie, Carol est décé­­dée des suites d’une tumeur au cerveau. C’était en 1993, Danny et Monica avaient respec­­ti­­ve­­ment cinq et deux ans. « J’ai l’im­­pres­­sion qu’il est resté égaré un long moment après la mort de Carol », me confie Pentti Kanerva, un ami de longue date. ulyces-ia-16Hofsta­­der n’a pas mis les pieds dans un colloque de cher­­cheurs en IA depuis trente ans. « Il n’y a pas de commu­­ni­­ca­­tion entre ces gens-là et moi, affirme-t-il. Rien. Zéro. Je n’ai pas envie de parler à des collègues que je trouve extrê­­me­­ment intran­­si­­geants et diffi­­ciles à convaincre sur tout. Vous savez, j’uti­­lise ce terme mais ce ne sont pas à propre­­ment parler des collègues – nous n’ar­­ri­­vons pas à commu­­niquer. » Malgré son calme, Hofstad­­ter me semble doté d’un carac­­tère diffi­­cile. Il est affable mais n’a pas cette faculté des gens loquaces ou des ensei­­gnants appré­­ciés de ne rete­­nir que le meilleur de ce que vous dites. Ainsi vous guident-ils dans leur raison­­ne­­ment tel un précieux allié, comme si leur conclu­­sion dépen­­dait de votre contri­­bu­­tion. Je me souviens d’avoir assisté à une discus­­sion entre Hofstad­­ter et ses étudiants, et d’avoir été frappé de voir à quel point son avis chan­­geait peu. Il semblait vouloir obte­­nir à tout prix un consen­­sus sur sa posi­­tion. La conver­­sa­­tion avait commencé à propos d’un e-mail qu’il avait envoyé à une large liste de desti­­na­­taires, et il parais­­sait plus enclin à aller vers ceux dont les réponses avaient été les plus enthou­­siastes. « Je n’aime pas ça, m’avoue-t-il.  Je n’aime pas aller à des colloques et tomber sur des gens bornés et acquis à des idées que j’es­­time être inexactes, qui ne comprennent rien à mes idées. Je préfère parler aux gens plus compré­­hen­­sifs. » Depuis l’âge de 15 ans, Hofstad­­ter relit L’At­­trape-cœurs tous les dix ans. À l’au­­tomne 2011, il a tenu un sémi­­naire de licence inti­­tulé « Pourquoi L’At­­trape-cœurs est-il un grand roman ? ». Il se sent des affi­­ni­­tés profondes avec Holden Caul­­field, le héros adoles­cent de J. D. Salin­­ger. Quand j’ai mentionné que la plupart des élèves de ma classe de lycée n’ai­­maient pas Holden – ils le trouvent pleur­­ni­­chard –, Hofstad­­ter m’a répondu qu’ils ne devaient alors pas « prendre la mesure de sa vulné­­ra­­bi­­lité ». On se prend à l’ima­­gi­­ner comme Holden, seul debout sur une colline, obser­­vant ses cama­­rades de classe en train de s’ébattre sur le terrain de foot­­ball en contre­­bas. « J’ai déjà trop d’idées, pour­­suit-il. Je n’ai pas besoin des stimu­­la­­tions du monde exté­­rieur. » Bien sûr, il y a là une forme de dérai­­son : à rester au-dessus de la mêlée, on se main­­tient à l’écart. « En science, il y a très peu d’idées qui sont assez claires et nettes pour que les gens se disent : “Mon Dieu, pourquoi n’y avons-nous pas pensé plus tôt ?» estime Bob French, un ancien d’élève d’Hof­s­tad­­ter qui le connaît depuis trente ans. « De la tecto­­nique des plaques à l’évo­­lu­­tion, il a fallu que quelqu’un se batte pour impo­­ser ces idées, car les gens n’étaient pas d’ac­­cord. Si vous ne vous joignez pas à la lutte, à la foire d’em­­poigne univer­­si­­taire, vos idées fini­­ront par être margi­­na­­li­­sées au profit d’autres idées moins bonnes mais défen­­dues avec plus d’ar­­deur. »

ulyces-ia-15-1
L’ob­­ses­­sion récur­­rente du héros de L’At­­trape-cœurs
Crédits

Hofstad­­ter n’a jamais vrai­­ment voulu se battre, et, c’est peut-être le revers de sa brillante carrière, n’en a jamais vrai­­ment eu besoin. En rempor­­tant le prix Pulit­­zer à l’âge de 35 ans, il est instan­­ta­­né­­ment devenu une précieuse ressource pour son univer­­sité, et a obtenu un poste de profes­­seur perma­nent. Il n’a jamais eu besoin de soumettre ses articles à des revues scien­­ti­­fiques, d’être évalué par ses pairs et de répondre aux critiques. Son éditeur, Basic Books, accep­­tait tous ses manus­­crits. Stuart Russell le dit sans ambages : « Le monde univer­­si­­taire n’est pas un envi­­ron­­ne­­ment où l’on peut rester allongé dans son bain et s’at­­tendre à ce que tout le monde coure en tous sens en criant au génie. Il est possible que dans cinquante ans nous regret­­tions de n’avoir pas plus écouté Doug Hofstad­­ter. Mais il incombe au mini­­mum à tous les scien­­ti­­fiques de réflé­­chir à ce qu’il faut faire pour que les gens comprennent leurs idées. » « Ars longa, vita brevis », aime à dire Hofstad­­ter. « Je pars du prin­­cipe que la vie est courte, donc je travaille. Je n’es­­saie pas de me faire de la publi­­cité et encore moins de me battre. » Hofstad­­ter a eu recours à une analo­­gie au cours de l’une de nos conver­­sa­­tions. Einstein, m’a-t-il raconté, a proposé l’hy­­po­­thèse des quanta de lumière en 1905. Mais personne n’a accepté cette théo­­rie avant 1923. « Abso­­lu­­ment personne, souligne-t-il. Einstein a vécu complè­­te­­ment isolé dans sa convic­­tion que la lumière était consti­­tuée de parti­­cules pendant dix-huit ans. » « Ce devait être une immense soli­­tude. »


Traduit de l’an­­glais par Yvan Pandelé d’après l’ar­­ticle « The Man Who Would Teach Machines to Think », paru dans The Atlan­­tic. Couver­­ture : Garry Kaspa­­rov contre Deep Blue, archives du Compu­­ter History Museum. Créa­­tion graphique par Ulyces.

Down­load Nulled WordP­ress Themes
Down­load WordP­ress Themes Free
Free Down­load WordP­ress Themes
Premium WordP­ress Themes Down­load
udemy course down­load free
Free Download WordPress Themes
Download Nulled WordPress Themes
Download Best WordPress Themes Free Download
Download WordPress Themes Free
free online course

PLUS DE SCIENCE

Pourquoi les riches sont-ils si méchants ?

210k 9 octobre 2019 stories . science

Peut-on être atti­ré·e par un cerveau ?

246k 26 septembre 2019 stories . science

Les robots du futur seront-ils faits de chair et d’os ?

252k 24 septembre 2019 stories . science