IA

« Tout dépend de ce que vous entendez par “intelligence artificielle”. » Douglas Hofstadter se tient dans une épicerie de Bloomington, dans l’Indiana, il choisit des ingrédients pour préparer une salade. « Si par intelligence artificielle on désigne le projet de comprendre l’esprit, ou de créer quelque chose de similaire à l’esprit humain, alors on peut dire – on n’est pas obligé d’aller jusque-là –, mais on peut dire qu’il s’agit d’un des seuls travaux viables dans ce sens. »

Hofstadter prononce ces mots avec une désinvolture assumée, car il ne fait aucun doute pour lui que les projets les plus stimulants dans le domaine de l’intelligence artificielle moderne, ceux que le public considère comme autant de jalons vers un monde inspiré de la science-fiction – tels que Watson, le super-ordinateur d’IBM qui joue au Jeopardy!, ou Siri, l’assistant vocal de l’iPhone – n’ont en réalité que bien peu à voir avec l’intelligence. Depuis trente ans, le plus souvent dans une vieille maison sur le campus de l’université de l’Indiana, lui et ses étudiants de master ont pris les choses en main : ils s’emploient à essayer de comprendre le fonctionnement de notre pensée, en développant des programmes informatiques qui pensent. L’hypothèse sous-jacente est simple : l’esprit est un logiciel insolite, et le meilleur moyen de déchiffrer un logiciel consiste à le développer soi-même. Les ordinateurs sont assez souples pour modéliser les étranges convolutions de notre pensée, tout en n’obéissant qu’à des instructions précises. Si cette tentative est couronnée de succès, la victoire sera double : nous serons enfin parvenus à comprendre précisément la mécanique de notre esprit, et nous aurons fabriqué des machines intelligentes. L’idée qui a changé la vie d’Hofstadter, comme il l’a plusieurs fois expliqué au fil des ans, lui est venue sur la route des vacances, alors qu’il était étudiant en physique des particules. Découragé par la tournure que prenait sa thèse à l’université d’Oregon, il se sentait « profondément désemparé » et avait décidé de plier bagages et de rouler vers l’est, lors de cet été 1972, à travers les terres au volant de sa voiture – qu’il avait baptisée Quicksilver (« Vif-argent »). Toutes les nuits, il installait sa tente à un nouvel emplacement, « parfois dans une forêt, parfois au bord d’un lac », et lisait à la lueur d’une lampe-torche. Il était libre de penser à ce qu’il voulait, et avait choisi d’orienter ses pensées sur la pensée elle-même. Depuis le moment où, vers 14 ans, il avait découvert que sa petite sœur Molly avait « quelque chose de défectueux dans son cerveau » et ne pouvait accéder au langage (son trouble neurologique, probablement de naissance, n’a jamais été diagnostiqué), Hofstadter avait été pris d’une obsession discrète pour les relations entre l’esprit et la matière. Le père de la psychologie, William James, décrivait en 1890 ce problème comme « la chose la plus mystérieuse du monde » : comment la conscience peut-elle être physique ? Comment quelques livres de gélatine grise peuvent-elles donner naissance à nos pensées et à nos identités propres ? Errant au volant de sa Mercury 1956, Hofstadter pensa avoir trouvé la réponse – elle résidait, entre tous les endroits possibles, au cœur d’une preuve mathématique. En 1931, le célèbre logicien d’origine autrichienne Kurt Gödel avait montré comment un système mathématique permettait d’établir des vérités non seulement sur les nombres, mais aussi sur le système lui-même. La conscience, pour Hofstadter, émerge à travers le même type de « boucle de rétroaction avec traversées de niveaux ». Il avait pris une après-midi pour donner forme à son idée dans une lettre adressée à un ami. Au bout de trente pages manuscrites, il avait renoncé à l’envoyer, préférant laisser les idées germer un moment. Sept ans plus tard, elles avaient moins germé que métastasé, donnant lieu à un livre de 777 pages pesant 1,3 kilogramme intitulé Gödel, Escher, Bach : Les Brins d’une Guirlande Éternelle, qui lui vaudrait d’obtenir le prix Pulitzer de l’essai en 1980, à seulement 35 ans et pour un premier ouvrage.

ulyces-ia-02-1

Mercury 1956
Crédits : Alden Jewell

GEB, comme on surnomma le livre, fit sensation. Son succès fut catalysé par Martin Gardner, célèbre chroniqueur du magazine Scientific American, qui décida, fait pour le moins inhabituel, de dédier l’ensemble de sa rubrique du numéro de juillet 1979 à ce seul ouvrage. Sa critique, dithyrambique, commençait ainsi : « Tous les dix ans, un auteur inconnu sort un livre dont la profondeur, la clarté, la portée, l’esprit, la beauté et l’originalité sont tels qu’il est reconnu d’emblée comme un événement littéraire majeur. » John Holland, qui fut le premier Américain titulaire d’un doctorat en informatique (à l’époque sous l’étiquette « sciences de la communication ») se remémore l’événement en ces termes : « Dans mon entourage, la réaction générale s’apparentait à de l’émerveillement. » Hofstadter semblait sur le point de laisser une marque indélébile dans la culture contemporaine. GEB n’était pas seulement un ouvrage influent, il portait en lui les folles promesses de l’avenir. Les gens le considéraient comme la bible de l’intelligence artificielle, cette discipline naissante à l’intersection de l’informatique, des sciences cognitives, des neurosciences et de la psychologie. La description par Hofstadter de programmes informatiques capables de faire preuve de créativité au lieu de se montrer seulement efficaces, sa feuille de route pour mettre au jour « les structures logicielles secrètes de notre esprit », ont propulsé une génération entière de jeunes étudiants enthousiastes dans le champ de l’IA. Puis l’IA évolua et Hofstadter, qui n’approuvait pas cette évolution, disparut presque totalement.

Force brute

L’entrée en scène de GEB correspond à un tournant dans l’histoire de l’IA. Au début des années 1980, le champ était en déclin : les financements destinés à la recherche fondamentale à long terme étaient en train de fondre, tandis que l’attention se portait vers la conception de systèmes pratiques. La recherche ambitieuse en IA avait acquis une mauvaise réputation. Les promesses candides et irréalistes étaient devenues la norme, à commencer par la conférence de Dartmouth de l’été 1956, événement fondateur de la discipline. ulyces-ia-03-1Les organisateurs – au nombre desquels John McCarthy, l’inventeur du terme intelligence artificielle – déclarèrent que « si un groupe de scientifiques choisis avec précaution y travaillait durant tout un été », il réaliserait d’importants progrès en vue de créer des machines capables d’utiliser le langage, de former des concepts, de s’améliorer ou de résoudre des problèmes pour le moment réservés aux humains. McCarthy reconnut plus tard leur échec : « l’IA est plus difficile que nous ne pensions. » Dans un contexte géopolitique de plus en plus tendu (lié à la guerre du Vietnam), l’un des principaux bailleurs de fond de la recherche en IA, l’Agence pour les projets de recherche avancée (Arpa) du département de la Défense américain commença à se montrer plus sélective. En 1969, le Congrès vota l’amendement Mansfield, qui restreignait le soutien financier de la Défense aux seuls projets « en relation directe et manifeste avec une opération ou un objectif militaires ». En 1972, l’Arpa devint la Darpa, avec un D pour « Défense », de façon à refléter ses nouvelles priorités de financement. Au milieu des années 1970, l’agence s’interrogeait : quelles avancées concrètes en matière de défense nationale avait-elle obtenu, au prix de dix années et 50 millions de dollars investis dans la recherche préliminaire ? Au début des années 1980, la pression devint suffisante pour que l’IA commence à mûrir – ou muter, selon les points de vue. Née comme une tentative de réponse positive à la fameuse question d’Alan Turing « Les machines peuvent-elles penser ? », elle amorçait sa transformation en une sous-discipline de l’ingénierie logicielle, mue par une logique de recherche appliquée. De plus en plus, le travail se faisait dans une perspective de court terme, avec des acheteurs potentiels à la clé. Les militaires privilégiaient des projets tels que des systèmes de commandement et de contrôle, un logiciel d’assistance embarqué pour les pilotes de chasse, ou des programmes destinés à identifier automatiquement les éléments stratégiques (routes, ponts, réservoirs, silos) d’une photographie aérienne. Dans le secteur privé, la mode était aux « systèmes experts », des produits de niche comme des systèmes de sélection de pieux, destinés à aider les architectes à choisir les matériaux pour des fondations, ou le programme d’Expertise automatisée du câble, destiné à traiter et synthétiser les rapports de maintenance du réseau téléphonique. Dans GEB, Hofstadter défend une conception de l’IA qui se destine moins à résoudre intelligemment les problèmes humains qu’à comprendre l’intelligence humaine – et ce au moment précis où une telle approche, considérée comme peu fructueuse, était en voie d’abandon. Son étoile déclina rapidement. Il s’éloigna progressivement d’un courant majoritaire soumis à l’impératif de fabriquer des machines performantes, sans trop d’égards pour les questions de vraisemblance psychologique.

ulyces-ia-04

Kasparov vs Deep Blue
Défaite de Garry Kasparov, 1997
Crédits : Computer History Museum

Prenez Deep Blue, le supercalculateur d’IBM qui a surpassé le grand maître Garry Kasparov aux échecs. Sa victoire est fondée sur la force brute. À son tour de jeu, Deep Blue calcule les éventuelles ripostes de son adversaire à chacun de ses coups potentiels, puis évalue ses propres ripostes, et ainsi de suite sur au moins six niveaux de prévision. À l’aide d’une fonction d’évaluation efficace, il calcule ensuite un score associé à chaque position, puis choisit de jouer le coup qui conduit au meilleur score. C’est donc la puissance de calcul seule qui a permis à Deep Blue de vaincre les meilleurs joueurs humains de la planète. Il pouvait évaluer jusqu’à 330 millions de positions par seconde avant de prendre une décision, quand Kasparov devait s’en tenir à quelques dizaines. Mais pour Hofstadter, à quoi bon accomplir une tâche s’il n’y a aucun éclairage à la clef ? « D’accord, Deep Blue joue très bien aux échecs – et alors ? Cela nous apprend-il quoi que ce soit sur la façon dont nous jouons aux échecs ? Non. Cela nous dit-il comment Kasparov appréhende et analyse une position de jeu ? » Une variété d’IA, aussi impressionnante soit-elle, qui n’a pas pour ambition de répondre à de telles questions n’est de son point de vue qu’une distraction. Devenu un acteur de la discipline, Hofstadter a presque aussitôt pris ses distances avec elle. « En tant que chercheur néophyte en IA, il était clair que je ne voulais pas prendre part à cette supercherie. C’était une évidence : faire passer le comportement de programmes fantaisistes pour de l’intelligence alors que ça n’a rien à voir, très peu pour moi. J’ignore pourquoi il n’y a pas plus de gens dans mon cas. » Une réponse possible réside dans le fait qu’entre le début des années 1980 et la fin de la décennie, le marché de l’IA est passé de quelques millions de dollars à plusieurs milliards. Après la victoire de Deep Blue en 1997, la valeur boursière d’IBM a grimpé de 18 milliards de dollars. À mesure que l’IA se transformait en une morne discipline d’ingénierie, ses accomplissements sont allés croissant. Aujourd’hui, sur la base de techniques n’ayant rien à voir avec la pensée humaine, l’IA semble connaître une sorte d’âge d’or. Elle a envahi l’industrie lourde, les transports et la finance. On la retrouve derrière beaucoup des fonctions clefs de Google, les recommandations de films de Netflix, Watson, Siri, les drones autonomes, ou encore la voiture auto-pilotée. « La quête du “vol artificiel” a été couronnée de succès quand les frères Wright et les autres cessèrent d’imiter les oiseaux et commencèrent… à comprendre l’aérodynamique », écrivent Stuart Russell et Peter Norvig dans leur manuel de référence, Intelligence artificielle. Les recherches en IA ont commencé à décoller à partir du moment où le modèle humain a été abandonné, et du fait de ce changement de cap. C’est la force de l’analogie : si les avions ne battent pas des ailes, pourquoi les ordinateurs devraient-ils penser ?

ulyces-ia-05

50 ans de superordinateurs

L’argument est convaincant. Mais il perd de son acuité quand on considère nos besoins : un Google qui saurait, à l’instar d’un autre être humain, ce que vous avez en tête quand vous formulez une requête. « Quel est la valeur marchande combinée de tous les moteurs de recherche du web ? » commente Russell, professeur d’informatique à Berkeley. « Probablement quatre ou cinq cents milliards de dollars. Des systèmes capables d’extraire toutes ces informations et de les comprendre vaudraient dix fois plus. » C’est donc la question à mille milliards : l’approche qui sous-tend l’IA contemporaine, moins fondée sur l’esprit que sur les données et l’ingénierie de masse, nous conduit-elle à bon port ? Comment mettre au point un moteur de recherche capable de discernement quand on ne sait même pas comment nous comprenons les choses ? Comme Russell et Norvig le reconnaissent poliment dans le dernier chapitre de leur ouvrage, le tournant pratique de l’IA n’est pas sans évoquer cet homme qui tente d’aller sur la lune en grimpant à un arbre : « Jusqu’ici, on peut noter une progression régulière. » Considérez la difficulté qu’ont toujours les ordinateurs actuels à reconnaître une simple lettre A écrite à la main. Cette tâche est si ardue qu’elle sert de base aux « Captcha » (de l’anglais completely automated public Turing test to tell computers and humans apart, « test de Turing entièrement automatisé pour différencier les ordinateurs et les humains »), ces applications qui requièrent de déchiffrer du texte déformé et d’en recopier les caractères afin, par exemple, de pouvoir s’inscrire sur un site web. Pour Hofstadter, il n’y a là rien de surprenant. Savoir ce que tous les A ont en commun, explique-t-il dans un essai de 1982, nécessite de « comprendre la nature fluide des catégories mentales ». Une aptitude qui est au cœur de l’intelligence humaine. « Connaître, c’est reconnaître », aime-t-il à dire. Pour Hofstadter, l’acte cognitif fondamental consiste à « voir comme » : nous voyons des lignes comme « un A », des bouts de bois comme « une table », une réunion comme « une situation où le roi est nu », un ami qui boude comme « un enfantillage », un style vestimentaire comme « un look de hipster », et ainsi de suite, de manière incessante. C’est cela, comprendre. Mais comment cela fonctionne-t-il ? Depuis trente ans, Hofstadter et ses étudiants essaient de résoudre cette énigme, en construisant des « modèles informatiques des mécanismes fondamentaux de la pensée ». « À tous moments, nous faisons face à un nombre infini de situations qui se recoupent et s’entremêlent », écrit Hofstadter dans L’Analogie, cœur de la pensée, son dernier ouvrage écrit en collaboration avec Emmanuel Sander (chercheur français en psychologie cognitive, ndt). C’est notre rôle, en tant qu’organismes vivants, de créer du sens à partir de ce chaos. Nous nous en acquittons lorsque les concepts appropriés nous viennent à l’esprit, ce qui se produit automatiquement et en permanence. Grâce à l’analogie. Dans ce livre orné de A en couverture, Hofstadter soutient que l’analogie est au cœur de la pensée, qu’elle représente l’alpha et l’oméga de notre vie mentale quotidienne.

ulyces-ia-06

Cerveau humain contre superordinateur

« Penchez-vous sur vos conversations. Vous serez surpris de constater qu’il s’agit d’un procédé de fabrication d’analogies. » Quelqu’un mentionne quelque chose, ce qui vous rappelle autre chose ; vous intervenez à votre tour, ce qui évoque autre chose à votre interlocuteur – voilà ce qu’est une conversation. Impossible de faire plus simple. Mais chaque étape, affirme Hofstadter, correspond à une analogie, un saut mental si étonnamment complexe qu’il s’agit d’un vrai miracle computationnel. D’une manière ou d’une autre, notre cerveau est capable de faire abstraction des détails non pertinents pour extraire l’idée générale, « le squelette essentiel » d’un énoncé, et puiser l’histoire ou le commentaire le plus approprié dans son propre répertoire d’idées et d’expériences. « Faites attention aux phrases innocentes du genre : “Ah oui, il m’est arrivé exactement la même chose !écrit Hofstadter. Sous leurs airs innocents se cache tout le mystère de l’esprit humain. » Dans les années qui ont suivi la sortie de GEB, Hofstadter et l’IA ont continué leur route séparément. Aujourd’hui, le nom d’Hofstadter ne se trouve nulle part dans les mille pages du manuel Intelligence artificielle de Russel et Norvig. Ses collègues parlent de lui au passé. Les nouveaux admirateurs de GEB, quand ils découvrent la date de publication du livre, sont surpris d’apprendre que son auteur est toujours en vie. Bien sûr, pour Hofstadter, l’histoire ressemble plutôt à ça : au moment où tous les chercheurs en IA se sont mis à développer des produits, son équipe et lui se sont attaqués au vrai problème, dans l’ombre – « patiemment, systématiquement, brillamment », ainsi que l’a écrit son ami, le philosophe Daniel Dennett. « Très peu de gens s’intéressent réellement à la façon dont l’intelligence humaine fonctionne, déplore Hofstadter. C’est la question qui nous intéresse : “Qu’est-ce que penser veut dire ?” Et nous ne nous en laissons pas détourner. » « Qui sait ? poursuit-il. Un jour peut-être, les gens diront : “Hofstadter a déjà dit et fait ce que nous sommes tout juste en train de découvrir.” » Voilà ce qui ressemble à la tentative de s’auto-réconforter de celui qui a perdu la partie. Mais Hofstadter a le genre de personnalité qui invite à se demander si les meilleures idées en matière d’intelligence artificielle – « l’intelligence artificielle authentique », comme il dit en s’excusant pour l’oxymore – ne seraient pas en train de jaunir dans un carton à Bloomington.

Traquer les erreurs

Dès son plus jeune âge, Douglas R. Hofstadter a bercé dans la pensée comme d’autres bercent dans le crime. Il a grandi dans les années 1950 à l’Université de Stanford, dans une maison du campus, juste au sud d’un quartier baptisé Professorville. Son père Robert, physicien nucléaire, a décroché un prix Nobel de physique en 1961. ulyces-ia-07Sa mère, Nancy, passionnée de politique, a milité pour les enfants atteints de troubles du développement et siégé au comité d’éthique du Centre d’accueil Agnews (institution psychiatrique près de San Francisco, ndt), où sa sœur Molly a résidé pendant vingt ans. Pendant son temps libre, Nancy suivait, comme elle dit sur le ton de l’humour, « une carrière de femme de professeur » : elle tenait un salon pour une communauté soudée d’amis, venus écouter du jazz et avoir des conversations stimulantes – une fête intellectuelle sur fond « d’interpénétration de la science et de l’art ». Le petit Doug était aux anges. Il adorait les amis de ses parents et leurs étranges discussions sur « les choses les plus petites et les plus gigantesques ». À 8 ans, il avait un jour déclaré que son rêve était de devenir « un neutrino de masse nulle et de spin un et demi ». Il se rendait au département de physique pour le thé de quatre heures, comme « un petit étudiant de master de 12 ans ». Il était curieux, insatiable, inépuisable – « un enfant fasciné uniquement par les idées ». Son style intellectuel était, tout comme aujourd’hui, basé sur l’excès : il pouvait pratiquer le piano sept heures par jours ou décider d’apprendre par cœur 1 200 vers d’Eugène Onéguine. Une fois, il avait passé plusieurs semaines avec un magnétophone à cassette pour s’entraîner à parler à l’envers : lu à rebours, son charabia devenait de l’anglais standard. Pendant plusieurs mois d’affilée, il s’immergeait dans des expressions françaises, développait des programmes informatiques capables de générer des histoires insensées, ou bien étudiait une quinzaine de preuves du théorème de Pythagore afin de « se représenter pourquoi il était vrai ». Il passait « pratiquement tout son temps à explorer ce genre de choses, incapable de se retenir d’explorer. Il était possédé, complètement possédé par cela. » Hofstadter a 68 ans. Mais il y a quelque chose d’enfantin dans une vie vécue à ce point sur papier, sur ordinateur ou dans sa propre tête. Comment quelqu’un comme lui peut-il vieillir normalement ? Hofstadter a des cheveux gris en bataille qui lui descendent en-dessous des oreilles, une silhouette fragile et voûtée, et un sillon entre la lèvre supérieure et le nez qui évoque celui du Grinch. Mais sa façon de se prendre au sérieux, sa gravité insistante sont celles d’un très jeune homme. Avec lui, les enjeux sont élevés, et il n’est pas facile à vivre. Il est le genre de végétarien capable de supplier tous les convives à table de se conformer au même régime, le genre d’orateur sourcilleux qui corrige son interlocuteur lorsqu’il emploie « un langage sexiste » en sa présence. « Il observe beaucoup de règles », confirme son ami Peter Jones, qui connaît Hofstadter depuis cinquante-neuf ans. « Par exemple, il déteste l’expression “you guys” (« vous les gars », couramment utilisé en anglais, ndt). C’est non négociable. Quand vous discutez avec lui, il vaut mieux éviter cette tournure. »

ulyces-ia-08

Le campus à l’automne
À Bloomington, dans l’Indiana
Crédits

Depuis plus de trente ans, Hofstadter est professeur à l’Université de l’Indiana à Bloomington. Il vit dans une maison située à deux pas du campus, avec Baofen Li, son épouse depuis septembre 2013. Les deux enfants de son précédent mariage, Danny et Monica, sont grands à présent. Bien qu’il entretienne des liens forts avec la recherche en sciences cognitives et soit affilié à plusieurs départements – dont informatique, psychologie et neurosciences, littérature comparée et philosophie –, il n’a pas d’obligations officielles. « Je crois que j’ai le travail le plus confortable qu’on puisse imaginer, me confie-t-il. Je fais exactement ce que je veux. » Il passe le plus clair de son temps dans son étude, constituée de deux pièces recouvertes de moquette au dernier étage de sa maison, un peu étouffantes et plus désordonnées qu’il ne le souhaiterait. C’est là le centre de son univers, où il lit, écoute de la musique, étudie, dessine, écrit ses livres et ses e-mails (Hofstadter passe quatre heures par jour à écrire des mails. « Pour moi, un e-mail, c’est comme une lettre, tout aussi formel, raffiné, écrit avec soin… Je réécris, réécris et réécris sans cesse tous mes e-mails »). Son activité mentale se déploie dans cette étude, et cela se voit. Livres, dessins, cahiers et classeurs s’y amoncellent, comme des pensées fossilisées. On dirait le musée de ses innombrables obsessions intellectuelles. « Tout ce à quoi je réfléchis devient partie intégrante de ma vie professionnelle », explique Hofstadter. Pour Daniel Dennett, qui a co-écrit avec lui The Mind’s I (« Le Je de l’esprit », non traduit en français, ndt), « Douglas Hofstadter est tout simplement un phénoménologue, un phénoménologue en action, et il fait cela très bien. Mieux que personne. » Il étudie les phénomènes – les sensations, les actions intérieures – de son propre esprit. « Et la raison pour laquelle il fait cela mieux que quiconque, continue-t-il, c’est qu’il essaie à tout prix d’arriver à une théorie de ce qui se passe en coulisses, de la manière dont la pensée se produit réellement dans le cerveau. »

ulyces-ia-09

26 août 1910, Université de Harvard

Dans sa poche arrière, Hofstadter garde depuis toujours un stylo Bic quatre couleurs et un petit cahier. Il a des étagères pleines de ces petits cahiers, dans une salle de bain adjacente à son étude transformée en espace de rangement supplémentaire. Il me sort l’un d’eux, qui date de la fin des années 1950, entièrement rempli d’erreurs de prononciation. Depuis son adolescence, Hofstadter a noté quelques dix mille exemples d’inversions de phonèmes (« soringue hypeudermique »), d’impropriétés de langage (« il y a anguille sous cloche »), d’idiomes mélangés (« se creuser la tête de Turc »), etc., dont la moitié sont de lui. Il fait des photocopies des pages du cahier, les découpe avec des ciseaux puis conserve les erreurs dans des classeurs ou des boîtes de rangement. Pour Hofstadter, ces erreurs sont autant d’indices. « Nous ne sommes pas très fiables en ce qui concerne nos activités cognitives qui sont, par définition, subconscientes, écrit-il. C’est ce qui rend les vastes collections d’erreurs si importantes. Les erreurs isolées ne livrent que de légères indications sur les mécanismes sous-jacents, mais dans une grande collection les traces s’additionnent jusqu’à devenir des preuves solides en faveur (ou en défaveur) d’un mécanisme particulier. » Le langage correct n’est pas aussi intéressant : comme un tour de magie réussi, il n’est efficace que parce qu’il escamote la manière dont il fonctionne. Hofstadter préfère traquer « l’oreille du lapin qui dépasse, l’indice d’une trappe dérobée ». Il se comporte ainsi comme une version moderne de William James : grâce à un mélange d’introspections limpides – James est l’inventeur du concept de flux de conscience – et d’explications incisives, James avait écrit en 1890 un ouvrage fondateur, Principes de psychologie. « La masse de nos pensées disparaît pour toujours, sans espoir de récupération, écrivait-il, et la psychologie ne récupère que quelques-unes des miettes du festin ». Comme Hofstadter, James a passé sa vie sous la table, à inspecter les miettes avec jubilation. À ceci près qu’il n’avait que ses yeux, quand Hofstadter possède un genre de microscope.

Analogies fluides

Le développement de l’aviation peut être attribué non pas aux vols planés des frères Wright à Kitty Hawk, en Caroline du Nord, mais à la soufflerie de 1,80 mètres de long qu’ils avaient construite dans leur magasin de bicyclettes, avec de la ferraille et des rayons de roues de vélo de récupération. Tandis que leurs concurrents testaient leurs idées de voilure à l’échelle 1:1, les frères Wright effectuaient des essais aérodynamiques ciblés pour un coût réduit. Pour leur biographe Fred Howard, il s’agit là « des expériences aéronautiques les plus cruciales et fécondes jamais menées avec si peu de temps, de matériel et d’argent ». Dans une vieille bâtisse située sur North Fess Avenue à Bloomington, Hofstadter dirige le Groupe de recherche en analogies fluides (Fluid Analogies Research Group), surnommé affectueusement le Farg. Son budget annuel est de 100 000 dollars et l’intérieur est convivial, douillet même. On peut facilement passer à côté des meubles à rangement entreposés à côté du cellier, de la photocopieuse qui vrombit dans le salon, ou des étiquettes bibliographiques (Neurosciences, MATHÉMATIQUES, Perception) qui garnissent les étagères. Mais depuis vingt-cinq ans, cet endroit accueille un ambitieux projet visant, pour le petit groupe de scientifiques qui y travaille, à « découvrir, tout d’abord, les secrets de la créativité, et dans un second temps ceux de la conscience ».

ulyces-ia-10

Le bureau de Hofstadter à Bloomington
Siège du Groupe de recherche en analogies fluides
Crédits : Google

L’ordinateur est au Farg ce que la soufflerie était aux frères Wright. Le chaos fugitif et inconscient de l’esprit peut être ralenti sur ordinateur, rembobiné, mis sur « pause », et même modifié. Telle est, pour Hofstadter, la grande force de l’intelligence artificielle. Des parties d’un programme peuvent être isolées et désactivées de façon à comprendre leur rôle dans le fonctionnement global, des paramètres modifiés pour voir si les performances en sortent améliorées ou dégradées. Quand l’ordinateur se comporte de manière inattendue, en étant particulièrement créatif ou obtus, il est possible de visualiser précisément pourquoi. « J’ai toujours pensé que le seul espoir des humains pour comprendre pleinement la complexité de leur esprit consistait à modéliser leurs processus mentaux sur des ordinateurs et à apprendre des échecs inévitables de tels modèles », écrit Hofstadter. Transformer un processus mental identifié et catalogué dans la maison d’Hofstadter en un programme informatique fonctionnel prend entre cinq et neuf ans à un étudiant de master spécialement dédié à la tâche, à quelques centaines de mètres de là. Tous les programmes partagent la même architecture de base : un ensemble de composants et un style de programmation qui remontent au logiciel Jumbo, implémenté par Hofstadter en 1982. Jumbo était destiné à jouer au pêle-mêle, ce jeu qu’on trouve dans les journaux et qui consiste à retrouver un mot à partir de ses lettres mélangées. La première pensée qui vient à l’esprit, s’agissant d’un programme de pêle-mêle, est probablement : « N’est-ce pas là une tâche triviale pour un ordinateur ? » Et ça l’est, en effet : je viens de développer un programme qui peut traiter n’importe quel mot, et cela m’a pris quatre minutes. Il fonctionne en prenant le mot mélangé en entrée et en essayant chaque recombinaison de lettres jusqu’à tomber sur un mot du dictionnaire. ulyces-ia-11Il a fallu deux ans à Hofstadter pour programmer Jumbo : il s’intéressait moins à la résolution du problème qu’à comprendre ce qui se passait quand il le résolvait lui-même. « Je pouvais sentir les lettres se combiner dans ma tête, par elles-mêmes, sautant par petits groupes, se séparant pour former de nouveaux groupes, des amas éphémères. Ce n’est pas moi qui manipulais tout ça, mais elles qui menaient la danse. Elles essayaient des combinaisons par elles-mêmes. » L’architecture développée par Hofstadter pour modéliser cette danse de lettres s’inspire de l’activité d’une cellule biologique. Les lettres sont combinées et séparées par différents types d’« enzymes », comme il les appelle, qui s’agitent et s’accolent aux structures qu’elles rencontrent, catalysant les réactions. Certaines enzymes réarrangent (pang-loss devient pan-gloss ou lang-poss), d’autres assemblent (g et n devient le groupe gn, pele et mele deviennent pelemele), d’autres enfin dissocient (ment est séparé en me et nt). Chaque réaction en produit de nouvelles, tandis que la population globale d’enzymes fluctue à chaque instant afin de refléter l’état du pêle-mêle. C’est un mode de calcul inhabituel, qui se démarque par sa fluidité. Bien sûr, Hofstadter propose une analogie : une colonie de fourmis marchant en forêt, guidée par des fourmis qui partent en reconnaissance dans toutes les directions possibles. Ces éclaireurs rapportent leurs découvertes au groupe, de façon à optimiser la recherche de nourriture. Une telle manière de procéder est solide – marchez sur une poignée de fourmis et le reste de la colonie s’en remettra vite – et, de ce fait, capable d’adaptation. À la lecture de Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought (Concepts fluides et analogies créatives : modèles computationnels des mécanismes fondamentaux de la pensée – non traduit en français, ndt), qui décrit en détail cette architecture ainsi que la logique et la structure des programmes qui l’utilisent, on en vient à se demander si Hofstadter n’est pas devenu célèbre pour le mauvais livre. Comme l’a écrit un critique du New York Times en 1995 : « Le lecteur de Fluid Concepts & Creative Analogies ne peut s’empêcher de penser que le groupe de l’Université de l’Indiana touche là à quelque chose d’historique. »

ulyces-ia-12

Seul en scène
Douglas Hofstadter n’est suivi par personne
Crédits

Mais très peu de gens, même chez les admirateurs de GEB, connaissent ce livre ou le programme de recherche qu’il décrit. La raison en est peut-être que les programmes du Farg sont extrêmement peu commodes : ils opèrent sur la base de « micro-domaines » presque enfantins, et se montrent moins efficaces qu’un être humain.

Candide

L’ère contemporaine de la recherche en IA, faite de progrès continu et de succès commerciaux, a commencé à l’aube des années 1990 et continue à ce jour. Ce long printemps improbable suit une période qu’on a surnommée l’« hiver de l’IA », qui a pratiquement vu la discipline disparaître. Ceci résulte d’un dilemme de fond. D’une part, les logiciels que nous savons concevoir sont très méthodiques : la plupart d’entre eux sont organisés comme une armée d’élite, avec des couches de commandement qui communiquent leurs instructions aux couches immédiatement inférieures, et des routines qui appellent des sous-routines. D’un autre côté, nous voudrions pouvoir écrire des logiciels capables de s’adapter – et pour cela, un système de règles hiérarchiques est une très mauvaise idée. Hofstadter a résumé la situation en ces termes : « L’intelligence artificielle dans son ensemble est une tentative pour combattre la rigidité des ordinateurs. » À la fin des années 1980, le courant dominant de la recherche en IA voyait s’envoler les subventions, l’influence, les places dans les colloques, les publications scientifiques et la couverture médiatique, parce qu’il était en train de perdre ce combat.

ulyces-ia-17

Gödel, Escher, Bach : Les Brins d’une Guirlande Éternelle (1979)

Les « systèmes experts », autrefois considérés comme les fleurons de la discipline, étaient en train de sombrer du fait de leur absence de robustesse. Leur approche était fondamentalement minée. Prenons la traduction automatique d’une langue vers une autre, qui a longtemps représenté le Graal de l’IA. L’approche standard consistait à rassembler dans une pièce des linguistes et des traducteurs, et d’essayer de convertir leurs connaissances en un ensemble de règles que le programme doit suivre. Cette approche a échoué pour les raisons qu’on peut imaginer : aucun système de règles ne peut capturer une langue car le langage humain est trop vaste et protéiforme. Pour chaque règle à suivre, il y a une règle à transgresser. Si la traduction automatique voulait survivre en tant qu’entreprise commerciale – et l’IA survivre en tant que discipline –, il devenait nécessaire de trouver une nouvelle approche. Ou mieux : un raccourci. Et c’est ce qui s’est produit. Le tournant a commencé en 1988, avec un projet d’IBM appelé Candide. Pour mettre au point ce système de traduction automatique, il a fallu commencer par admettre que l’approche fondée sur les règles nécessite une connaissance trop approfondie du langage : il faut comprendre comment la sémantique, la syntaxe et la morphologie fonctionnent, comment les mots se combinent pour former des phrases puis des paragraphes, sans parler des idées véhiculées à travers les énoncés. Les ingénieurs d’IBM ont jeté cette approche par la fenêtre. Ils l’ont remplacée par quelque chose de brillant mais d’incroyablement simple. La technique s’appelle « apprentissage automatique ». Il s’agit de créer un dispositif qui accepte une phrase d’anglais en entrée et génère une phrase française en sortie. Le cerveau humain, bien sûr, est un exemple de ce genre de dispositif, mais tout l’enjeu consiste à s’affranchir de la complexité du cerveau. À la place, on commence avec une machine tellement simple qu’elle fonctionne à peine : disons une machine qui recrache aléatoirement des mots de français pour les mots anglais qu’on lui fournit. Imaginez une boîte couverte de boutons de réglage. Certains d’entre eux contrôlent des paramètres généraux : pour un mot anglais, combien de mots français devraient, en moyenne, être produits ? D’autres sont liés à des paramètres spécifiques, comme la probabilité qu’après le mot Christmas (« Noël ») vienne le mot tree (« sapin »). En jouant sur ces boutons, est-il possible d’obtenir une machine qui convertisse de l’anglais correct en français correct ? Il s’avère que oui. Pour cela, il faut alimenter la machine avec des phrases d’anglais dont la traduction française est déjà connue. (Pour Candide, par exemple, il a fallu 2,2 millions de paires de phrases, issues pour la plupart de comptes rendus de débats du Parlement canadien.) Procédez une paire à la fois. Après avoir entré une paire de phrases, prenez la partie anglaise et donnez-la à la machine pour voir ce qui sort en français. Si cette phrase est différente de ce que vous attendiez – c’est-à-dire la traduction correcte –, votre machine n’est pas au point. Tournez les boutons et recommencez. Au bout d’un nombre conséquent d’essais par tâtonnement, vous vous serez suffisamment familiarisé avec les réglages pour pouvoir générer l’équivalent français de votre phrase en anglais. ulyces-ia-18En répétant le procédé avec un million de paires de phrases, vous calibrerez progressivement la machine, au point de pouvoir entrer une phrase dont vous ignorez la traduction et d’obtenir un résultat raisonnable. Et la beauté de cette méthode, c’est que vous n’avez jamais eu à programmer explicitement la machine : vous n’avez jamais eu besoin de savoir pourquoi les boutons devaient se trouver dans cette position. Candide n’a pas inventé l’apprentissage automatique. En fait, le concept avait été testé dans les années 1960, sur une forme primitive de traduction automatique. Mais jusque-là, aucun essai ne s’était avéré fructueux. Ce n’est donc pas la résolution du problème qui était révolutionnaire, mais le fait qu’un programme si simple ait pu y parvenir. Comme l’écrit Adam Berger – membre de l’équipe de développement – dans un résumé du projet Candide, la traduction automatique était « largement considérée comme la tâche la plus difficile dans le traitement du langage naturel et dans l’intelligence artificielle en général, car une traduction convenable semble impossible sans compréhension préalable du texte à traduire ». Qu’un programme aussi élémentaire que Candide se montre à la hauteur suggérait qu’une traduction automatique effective peut se passer de compréhension – il suffit d’avoir une quantité suffisante de textes bilingues à disposition. Le succès du projet a ainsi servi de preuve de concept pour une approche qui allait être amenée à faire florès dans la recherche en IA. L’efficacité spectaculaire de Candide repose sur une transformation du problème : plutôt que de dénouer les fils d’un processus complexe, il fallait désormais trouver un très grand nombre d’exemples de ce processus en action. Or, si reproduire les processus cérébraux reste un défi, le problème des données s’est simplifié au cours du temps – en particulier depuis le tournant des années 1990, quand ce qui n’était qu’un paradis pour physiciens férus d’informatique est devenu le World Wide Web. Ce n’est donc pas une coïncidence si l’IA a connu son renouveau ces années-la. Pas étonnant non plus que Google, la plus grande firme numérique, soit aussi « le plus grand système d’IA du monde », selon les mots de Peter Norvig, co-auteur d’Intelligence artificielle avec Stuart Russell. D’après lui, l’IA contemporaine peut se résumer à « des données, des données, des données », et Google est maître en la matière.

ulyces-ia-19-1

Cerveau mécanique
The Subreption of A Chess-Player Gone Mad
Crédits : Derrick Tyson

Josh Estelle est ingénieur logiciel pour Google Traduction, une plateforme qui se fonde sur les mêmes principes que Candide et constitue désormais le premier système de traduction automatique au monde. « Prenez l’un de ces algorithmes d’apprentissage tout simple qu’on apprend dès les premières semaines d’un cours d’IA : le monde universitaire les a délaissés, les considérant comme inefficaces, explique-t-il. Mais quand vous passez de dix mille essais à dix milliards lors de la phase d’apprentissage, d’un seul coup, cela commence à fonctionner. Les données surpassent tout. » Cette technique est si efficace que les membres de l’équipe de Google Traduction ne connaissent pas la plupart des langues prises en charge par le système. « C’est une question de rentabilité », poursuit Estelle : « mieux vaut embaucher des ingénieurs » que des locuteurs natifs. Dans un monde où la traduction est devenue un exercice d’exploration de données à grand échelle, ce sont les ingénieurs qui comptent. Ce qui fait de l’apprentissage automatique une telle aubaine, c’est qu’elle permet d’évacuer le problème initial de la compréhension au profit d’une approche d’ingénierie pratique. « Cette façon de penser s’est diffusée dans tout Google, explique Norvig. Si on peut rendre une tâche plus rapide de 10 %, et que cela permet d’économiser des millions de dollars par an, eh bien allons-y. Comment ? Il n’y a qu’à examiner les données et utiliser une approche statistique ou d’apprentissage automatique, on arrivera bien à quelque chose de meilleur. » Google a également des projets qui visent à une compréhension plus profonde : améliorer l’apprentissage automatique en s’inspirant de la structure biologique du cerveau, construire un « graphe de connaissance » destiné à faire le lien entre des mots, comme Obama, et des personnes, des lieux ou des objets. Mais Google possède une clientèle d’un milliard de personnes à satisfaire, ce qui a le don de lui faire préférer l’efficacité à une démarche compréhensive. Pas besoin de pousser Google Traduction dans ses retranchements pour observer les compromis qu’ont dû faire les développeurs afin obtenir un système généraliste, rapide et simple d’utilisation. Bien que Google Traduction capture, à sa manière, les fruits de l’intelligence humaine, il n’a lui-même rien d’intelligent. Il est plutôt comme une formidable pierre de Rosette, dont les inscriptions capturent l’activité figée d’esprits autrefois actifs.

Watson

« Quand on a conçu Watson, est-ce qu’on s’est creusé la tête pour essayer de modéliser la cognition humaine ? » Dave Ferrucci, qui dirige l’équipe du projet Watson chez IBM, marque une pause pour mieux marquer son effet. « Absolument pas. On a juste essayé de créer une machine capable de gagner au Jeopardy!. » Pour Ferrucci, la définition de l’intelligence est simple : c’est ce qu’un programme est capable de faire. Deep Blue était intelligent puisqu’il a battu Garry Kasparov aux échecs. Watson était intelligent puisqu’il a battu Ken Jennings au Jeopardy!. « On fait de l’intelligence artificielle, non ? Cela revient presque à dire de l’intelligence non-humaine. Pourquoi voudriez-vous que la science de l’intelligence artificielle produise de l’intelligence humaine ? »

ulyces-ia-13

« Qui est Bram Stoker ? »
Watson, vainqueur de Jeopardy!
Crédits : IBM

Ferrucci ne nie pas la différence. Il aime à raconter qu’alors qu’il faut à Watson une salle pleine de processeurs et vingt tonnes d’équipement de refroidissement pour fonctionner, ses concurrents utilisent une machine qui tient dans une boîte à chaussures et peut tourner pendant des heures avec un sandwich au thon. Une machine qui leur permet, excusez du peu, de se lever quand le jeu est terminé, de tenir une conversation, manger un croissant, soutenir un point de vue, danser, penser… Pendant ce temps, Watson continue à vrombir dans un coin, brûlant, stupide et inanimé, en répondant à des questions sur des présidents et des schmilblicks. « Ce que ces systèmes manipulent n’est même pas l’ombre de ce qu’ils sont censés représenter, admet Ferrucci. Dans la recherche en IA, que ce soit dans les années 1950 ou aujourd’hui, nous sous-estimons constamment la complexité de ce qui se passe dans un cerveau humain. » La question que pose Hofstadter à Ferrucci et à tous ceux qui travaillent dans le courant dominant de l’IA est la suivante : dans ce cas, pourquoi ne pas étudier le cerveau humain ? « J’ai un avis partagé à ce propos », a admis Ferrucci quand je lui ai posé la question. « En tant qu’individu, on est limité dans le nombre de choses qu’on peut faire, et je pense qu’au moment de consacrer sa vie à quelque chose, on doit se poser la question : dans quel but ? Je crois bien m’être posé la question à un moment donné, et il s’avère que je suis fasciné par la manière dont l’esprit humain fonctionne. Ce serait fantastique de comprendre la cognition, j’adore lire des livres sur le sujet, me frotter à cela », a-t-il poursuivi, en précisant que le travail d’Hofstadter était pour lui une source d’inspiration. « Mais où cela me conduirait-il ? Ce que je veux vraiment, c’est concevoir des systèmes informatiques qui font vraiment quelque chose. Et je ne pense pas que les théories de la cognition soient le plus court moyen pour y parvenir. » La réaction de Peter Norvig, directeur de recherche chez Google, ressemble presque mot pour mot à celle de Ferrucci. « Je trouvais qu’Hofstadter s’attaquait à un problème particulièrement difficile. Et je suppose que je voulais traiter un problème plus facile. »

ulyces-ia-14

Watson, le superordinateur d’IBM

On peut discerner la trace des échecs passés de l’IA dans ces réponses : la recherche sur les problèmes fondamentaux a l’odeur nauséabonde des vieux jours. Comme l’écrit Nils Nilsson dans son ouvrage historique The Quest for Artificial Intelligence (La Quête de l’intelligence artificielle –non traduit en français, ndt), « le souci de respectabilité a eu un effet tétanisant sur une partie des chercheurs en IA ». Stuart Russel, co-auteur du manuel de référence Intelligence artificielle avec Peter Norvig, va plus loin. « Un grand nombre de travaux actuels ne sont pas très ambitieux. En apprentissage automatique, l’un des grands progrès des années 1980 a consisté à dire : “Voilà des données réelles, est-ce que je peux faire en sorte que mon programme puisse prédire correctement une partie d’entre elles ?” Mais maintenant, les gens considèrent qu’il s’agit de la seule tâche possible. » Étrange comme on peut étouffer de son propre succès. Tandis que nos ordinateurs gagnent en vitesse et engloutissent de plus en plus de données, nous nous laissons glisser sur la voie de la stupidité. Au lieu de nous attaquer sérieusement à nos problèmes de fond, nous pouvons nous borner à fournir des milliards d’exemples à nos machines. C’est un peu comme utiliser une calculatrice graphique pour faire ses devoirs d’arithmétique au lycée : ça marche du tonnerre, jusqu’au moment où il faut vraiment comprendre le calcul. Il y a peu de chances qu’alimenter Google Traduction avec mille milliards de documents au lieu de dix milliards lui donne soudain le niveau de compétence d’un traducteur humain. Il en va de même pour la recherche web et la reconnaissance d’images, ou lorsqu’il s’agit de répondre à des questions, planifier, lire, écrire ou concevoir : ce sont des problèmes pour lesquels on préfère se fier à l’intelligence humaine qu’à celle des machines. Norvig, comme tous les acteurs de l’IA commerciale, est bien conscient de cette réalité, voire vaguement anxieux à son propos. « On pourrait tracer une courbe pour répondre à la question : “L’augmentation de la quantité de données disponibles a-t-elle toujours un impact sur la qualité de nos systèmes ?” explique-t-il. La réponse, c’est que nos systèmes continuent de s’améliorer, mais moins vite que par le passé. » Pour James Marshall, un ancien étudiant de master d’Hofstadter, la situation est simple : « Finalement, seul le chemin difficile nous conduira où nous voulons aller. »

L’Attrape-cœurs

Hofstadter a eu sa première relation sérieuse à l’âge de 35 ans. Il est né avec « une courbe de résonance étroite », précise-t-il, empruntant à la physique pour décrire ses goûts très sélectifs. « Certaines femmes ont eu un impact énorme sur moi, leur visage me faisaient un effet incroyable. Je ne peux pas donner une recette pour ce genre de visages… mais c’est très rare. » En 1980, après ce qu’il qualifie de « quinze années horriblement mornes sur le plan amoureux », il rencontre Carol Brush. « Elle était pile au centre de ma courbe de résonance », dira-t-il. Peu après leur rencontre, ils se sont mariés et ont eu deux enfants. Mais quelques temps plus tard, alors qu’ils étaient en vacances en Italie, Carol est décédée des suites d’une tumeur au cerveau. C’était en 1993, Danny et Monica avaient respectivement cinq et deux ans. « J’ai l’impression qu’il est resté égaré un long moment après la mort de Carol », me confie Pentti Kanerva, un ami de longue date. ulyces-ia-16Hofstader n’a pas mis les pieds dans un colloque de chercheurs en IA depuis trente ans. « Il n’y a pas de communication entre ces gens-là et moi, affirme-t-il. Rien. Zéro. Je n’ai pas envie de parler à des collègues que je trouve extrêmement intransigeants et difficiles à convaincre sur tout. Vous savez, j’utilise ce terme mais ce ne sont pas à proprement parler des collègues – nous n’arrivons pas à communiquer. » Malgré son calme, Hofstadter me semble doté d’un caractère difficile. Il est affable mais n’a pas cette faculté des gens loquaces ou des enseignants appréciés de ne retenir que le meilleur de ce que vous dites. Ainsi vous guident-ils dans leur raisonnement tel un précieux allié, comme si leur conclusion dépendait de votre contribution. Je me souviens d’avoir assisté à une discussion entre Hofstadter et ses étudiants, et d’avoir été frappé de voir à quel point son avis changeait peu. Il semblait vouloir obtenir à tout prix un consensus sur sa position. La conversation avait commencé à propos d’un e-mail qu’il avait envoyé à une large liste de destinataires, et il paraissait plus enclin à aller vers ceux dont les réponses avaient été les plus enthousiastes. « Je n’aime pas ça, m’avoue-t-il.  Je n’aime pas aller à des colloques et tomber sur des gens bornés et acquis à des idées que j’estime être inexactes, qui ne comprennent rien à mes idées. Je préfère parler aux gens plus compréhensifs. » Depuis l’âge de 15 ans, Hofstadter relit L’Attrape-cœurs tous les dix ans. À l’automne 2011, il a tenu un séminaire de licence intitulé « Pourquoi L’Attrape-cœurs est-il un grand roman ? ». Il se sent des affinités profondes avec Holden Caulfield, le héros adolescent de J. D. Salinger. Quand j’ai mentionné que la plupart des élèves de ma classe de lycée n’aimaient pas Holden – ils le trouvent pleurnichard –, Hofstadter m’a répondu qu’ils ne devaient alors pas « prendre la mesure de sa vulnérabilité ». On se prend à l’imaginer comme Holden, seul debout sur une colline, observant ses camarades de classe en train de s’ébattre sur le terrain de football en contrebas. « J’ai déjà trop d’idées, poursuit-il. Je n’ai pas besoin des stimulations du monde extérieur. » Bien sûr, il y a là une forme de déraison : à rester au-dessus de la mêlée, on se maintient à l’écart. « En science, il y a très peu d’idées qui sont assez claires et nettes pour que les gens se disent : “Mon Dieu, pourquoi n’y avons-nous pas pensé plus tôt ?» estime Bob French, un ancien d’élève d’Hofstadter qui le connaît depuis trente ans. « De la tectonique des plaques à l’évolution, il a fallu que quelqu’un se batte pour imposer ces idées, car les gens n’étaient pas d’accord. Si vous ne vous joignez pas à la lutte, à la foire d’empoigne universitaire, vos idées finiront par être marginalisées au profit d’autres idées moins bonnes mais défendues avec plus d’ardeur. »

ulyces-ia-15-1

L’obsession récurrente du héros de L’Attrape-cœurs
Crédits

Hofstadter n’a jamais vraiment voulu se battre, et, c’est peut-être le revers de sa brillante carrière, n’en a jamais vraiment eu besoin. En remportant le prix Pulitzer à l’âge de 35 ans, il est instantanément devenu une précieuse ressource pour son université, et a obtenu un poste de professeur permanent. Il n’a jamais eu besoin de soumettre ses articles à des revues scientifiques, d’être évalué par ses pairs et de répondre aux critiques. Son éditeur, Basic Books, acceptait tous ses manuscrits. Stuart Russell le dit sans ambages : « Le monde universitaire n’est pas un environnement où l’on peut rester allongé dans son bain et s’attendre à ce que tout le monde coure en tous sens en criant au génie. Il est possible que dans cinquante ans nous regrettions de n’avoir pas plus écouté Doug Hofstadter. Mais il incombe au minimum à tous les scientifiques de réfléchir à ce qu’il faut faire pour que les gens comprennent leurs idées. » « Ars longa, vita brevis », aime à dire Hofstadter. « Je pars du principe que la vie est courte, donc je travaille. Je n’essaie pas de me faire de la publicité et encore moins de me battre. » Hofstadter a eu recours à une analogie au cours de l’une de nos conversations. Einstein, m’a-t-il raconté, a proposé l’hypothèse des quanta de lumière en 1905. Mais personne n’a accepté cette théorie avant 1923. « Absolument personne, souligne-t-il. Einstein a vécu complètement isolé dans sa conviction que la lumière était constituée de particules pendant dix-huit ans. » « Ce devait être une immense solitude. »


Traduit de l’anglais par Yvan Pandelé d’après l’article « The Man Who Would Teach Machines to Think », paru dans The Atlantic. Couverture : Garry Kasparov contre Deep Blue, archives du Computer History Museum. Création graphique par Ulyces.