fbpx

En captant ou stimulant l'activité neuronale, les dernières interfaces cerveau-machine donnent un supplément d'intelligence à l'être humain.

par Servan Le Janne | 18 juillet 2019

Et la lumière fut

Assis devant une table ronde du Baylor College of Medi­cine, à Hous­ton, Benja­min James Spen­cer pose une paire de lunettes sur son nez. Un voile sombre recouvre les deux lunes blanches qui filtrent derrière ses paupières mi-closes. Pour lui, ça ne change rien. À sept ans, ce Texan a commencé à avoir d’in­tenses maux de crâne. Puis, en septembre 1992, alors qu’il était à l’école, le garçon a perdu la vue. En ce mois de juin 2019, il la retrouve en partie.

Lorsqu’un carré lumi­neux appa­raît à l’écran en face de lui, Benja­min Spen­cer est capable de poin­ter le stylet au bon endroit. De l’autre côté, sur un ordi­na­teur portable, une cher­cheuse aligne les obser­va­tions posi­tives. Afin de se repé­rer, le patient utilise la petite camé­ras fixée sur ses lunettes. Envoyées le long d’un câble vers un boîtier dans sa poche, les images sont trans­for­mées en signaux élec­triques, eux-mêmes réex­pé­diés vers une antenne des lunettes. De là, ils abou­tissent (sans fil) à 60 élec­trodes implan­tées dans le cerveau de Benja­min Spen­cer. Une stimu­la­tion du cortex visuel est alors enclen­chée de manière à lui donner une carto­gra­phie lumi­neuse du paysage.

« Quand je regarde quelque chose avec les lunettes, je suis capable de savoir où elle se trouve et quelle est sa taille approxi­ma­tive », se réjouit-il. « Mon cerveau la voit comme elle est censée appa­raître. » Avec lui, cinq autres personnes malvoyantes ont testé la prothèse visuelle Orion, dont les résul­tats ont été publiés le 27 juin 2019 par le Baylor College of Medi­cine, en colla­bo­ra­tion avec l’uni­ver­sité de Cali­for­nie et la société Second Sight.

« La vision est commu­né­ment asso­ciée aux yeux, mais une grande part du travail est effec­tuée par le cerveau », explique le neuro­chi­rur­gien Daniel Yoshor. « La lumière proje­tée sur la rétine est conver­tie en signaux neuro­naux qui sont trans­mis à des parties du cerveau par le nerf optique. » Jusqu’ici, certains aveugles fondaient leurs espoirs sur un hypo­thé­tique œil bionique, suscep­tible de fonc­tion­ner à condi­tion que le nerf optique soit opéra­tion­nel. En le contour­nant, les implants céré­braux changent le para­digme et élar­gissent le champ des possibles.

La prothèse Orion laisse toute­fois les personnes atteintes de cécité à la nais­sance dans le noir, leur cortex visuel ne pouvant pas être activé aussi aisé­ment. Pour ceux dont il est seule­ment en sommeil, « nous pour­rions produire une image riche au moyen de centaines de milliers d’élec­trodes dans le cerveau », suggère Yoshor. « Pensez au poin­tillisme, qui dessine une image à partir d’une foule de petits points. Nous pour­rions faire la même chose en stimu­lant le lobe occi­pi­tal du cerveau. » Mais cette descrip­tion ne donne qu’une partie du tableau dessiné petite touche après petite touche par cette tech­no­lo­gie.

Les élec­trodes placées au contact d’un cerveau ne sont pas seule­ment capable de le stimu­ler, elles peuvent aussi en inter­pré­ter l’ac­ti­vité. Pour commu­niquer entre eux, les neurones modi­fient leur charge élec­trique par un méca­nisme appelé dépo­la­ri­sa­tion. Ils libèrent ainsi un « poten­tiel d’ac­tion » qui se traduit par des échanges d’ions. En utili­sant les capteurs que repré­sentent les élec­trodes, l’élec­troen­cé­pha­lo­gra­phie permet de mesu­rer cette acti­vité élec­trique depuis les années 1920.

Crédits : Neura­link

Un siècle plus tard, nous sommes désor­mais capables de les inter­pré­ter avec une certaines finesse. Le 24 avril dernier, des cher­cheurs de l’uni­ver­sité de San Fran­cisco ont présenté dans la revue Nature une inter­face cerveau-machine assez habile pour produire une voix synthé­tique contrô­lée par l’ac­ti­vité céré­brale. Elle pour­rait donc donner la parole à ceux qui en sont privés. Et il y a déjà plusieurs années que ce type de dispo­si­tif offre aux para­ly­sés le moyen de comman­der des membres robo­tiques. En juin, il a même fonc­tionné sans implant, d’après des cher­cheurs de l’uni­ver­sité Carne­gie Mellon de Pitts­burgh et de l’uni­ver­sité du Minne­sota à Minnea­po­lis.

Le poten­tiel de ces appa­reils dépasse de loin le cadre médi­cal. « Je pense que ce sera impor­tant à l’échelle de la civi­li­sa­tion », juge Elon Musk, jamais avare de super­la­tifs. En juillet 2016, le milliar­daire a lancé Neura­link, une start-up de nano-biote­­ch­­­no­­­lo­­­gies vouée à « conce­­­voir des inter­­­­­faces cerveau-machine pour connec­­­ter les êtres humains aux ordi­­­na­­­teurs ». À notre enve­loppe corpo­relle, il entend ajou­ter une « couche numé­rique » asso­ciant l’in­tel­li­gence humaine à celle des machines (IA). Mardi 16 juillet 2019, il a présenté son premier modèle.

Le singe et les élec­trodes

Avec le ton saccadé d’un programme infor­ma­tique, Elon Musk donne d’em­blée la raison de sa venue sur la scène de l’Aca­dé­mie des sciences de San Fran­cisco. « Je fais cette présen­ta­tion avant tout pour recru­ter », annonce-t-il devant une grande toile de projec­tion. « Nous voulons vrai­ment avoir les meilleurs talents au monde chez Neura­link », preuve que le patron de SpaceX et Tesla croit encore au génie humain.

Il est cepen­dant très préoc­cupé par la montée en puis­sance de l’in­tel­li­gence arti­fi­cielle, dont la force de calcul menace en premier lieu des emplois, et en seconde instance la civi­li­sa­tion. « Je m’in­té­resse de près à l’IA de pointe et cela me fait très peur », alerte-t-il. « Elle est capable de faire beau­coup plus que ce qu’on imagine et ses pers­pec­tives d’amé­lio­ra­tion sont expo­nen­tielles. » Afin d’évi­ter que l’être humain se retrouve sur le bas-côté, distancé par sa propre créa­tion, Musk formule donc le souhait étrange de fusion­ner avec. « Sans le savoir, les gens sont déjà des cyborgs », argue-t-il en faisant réfé­rence à l’ap­pa­reillage tech­no­lo­gique (smart­phones, ordi­na­teurs) qui nous seconde. Neura­link va donc les en rappro­cher.

Crédits : Neura­link

Dans un premier temps, la société cali­for­nienne veut mettre les ordi­na­teurs et les télé­phones à la portée des para­plé­giques. Grâce aux poly­imides, un maté­riau appar­te­nant aux poly­mères, elle a conçu des élec­trodes plus fines qu’un cheveu, ce qui réduit le risque de dommage pour le système nerveux central au contact d’im­plants. Ces 37 072 mini-capteurs sont grou­pés en 96 threads ou « fils d’exé­cu­tion » au sein desquels ils partagent une « mémoire virtuelle ». Il peuvent ensuite être implan­tés par un robot déve­loppé par Neura­link, sous le contrôle d’un neuro­chi­rur­gien.

Ça a déjà été fait, lâche Musk à l’Aca­dé­mie des sciences de San Fran­cisco : « Un singe a été capable de contrô­ler l’or­di­na­teur avec son cerveau. » Cerveau qui présente d’ailleurs tant de simi­li­tude avec celui de l’être humain que les primates ont été les premiers, à leur corps défen­dant, à expé­ri­men­ter les inter­faces cerveau-machine. En 1969, un cher­cheur de l’uni­ver­sité de Washing­ton, à Seat­tle, a montré qu’un singe pouvait contrô­ler une aiguille par la force de l’es­prit. Eberhard Fetz a ensuite étudié le contrôle des muscles de l’avant-bras par le cortex moteur et élaboré des implants céré­braux à même de détec­ter l’ac­ti­vité neuro­nale.

En 2008, son labo­ra­toire est parvenu à enclen­cher le mouve­ment d’un poignet de macaque para­lysé en utili­sant des élec­trodes logées dans le cerveau de l’ani­mal. Avec ce procédé, des bras robo­tiques ont été action­nés à la même période. Inspi­rée par ces travaux, la Natio­nal Science Foun­da­tion, une agence publique de santé améri­caine, a mis 18,5 millions de dollars sur la table en 2011 pour créer un centre de recherche sur les prothèses robo­tiques auquel Fetz a été asso­cié. Les promesses du secteur n’ont pas tardé à atti­rer l’at­ten­tion et l’argent du milliar­daire Elon Musk.

Coup sur coup, en 2015 et 2016, l’en­tre­pre­neur a lancé un projet pour démo­cra­ti­ser l’in­tel­li­gence arti­fi­cielle, OpenAI, et une société qui veut l’uti­li­ser pour augmen­ter l’être humain, Neura­link. Aujourd’­hui, il assure que son inter­face « préser­­vera et amélio­­rera votre cerveau » et, à terme, « réali­­sera une sorte de symbiose avec l’in­­tel­­li­­gence arti­­fi­­cielle ». Cet hori­zon est-il proche ? Pour Nima Mesga­rani, profes­seur en neuro-acous­tique à l’uni­ver­sité de Colum­bia, il va falloir attendre un peu. En janvier dernier, le cher­cheur a décrit le fonc­tion­ne­ment d’un appa­reil qui trans­forme les pensées simples en texte dans la revue Nature.

Crédits : Neura­link

« Un des objec­tifs est de créer une inter­ac­tion alter­na­tive entre l’homme et l’or­di­na­teur, qui pour­rait engen­drer une inter­face entre un smart­phone et son proprié­taire », indique-t-il. « Mais c’est loin d’être possible car il va nous falloir mieux comprendre la repré­sen­ta­tion du langage par le cerveau pour raffi­ner nos méthode de déco­dage. » Le Baylor College of Medi­cine va égale­ment devoir amélio­rer la sensi­bi­lité de ses lunettes s’il veut que ses patients voient des formes claires et non des rayon­ne­ments lumi­neux.

De son côté, Musk assure faire un grand pas vers l’hu­main augmenté par l’in­ter­mé­diaire de son robot, qui permet une implan­ta­tion rapide et sans faille, ainsi que ses élec­trodes d’une grande finesse. Mais si Neura­link obtient l’au­to­ri­sa­tion de tester sa tech­no­lo­gie sur un être humain en 2020, elle ne fera encore que l’ap­pliquer dans un cadre médi­cal. Une première étape sur la voie de l‘exten­sion céré­brale dont rêve le patron de SpaceX.

Ce « casque de magi­cien » relève pour l’heure d’une hypo­thèse sédui­sante : pourquoi une inter­face cerveau-machine ne pour­rait-elle pas nous connec­ter direc­te­ment à Google et aux calculs d’une IA ? La ques­tion devien­dra brûlante lorsque les rues seront remplies de singes coif­fés d’élec­trodes.


Couver­ture : Neura­link


 

Plus de turfu