Selon le modèle théorique du professeur Karl Friston, l'évolution mènera immanquablement à la création de robots domestiqués et doués de conscience.

par Laura Boudoux | 0 min | 29 janvier 2019

Karl Fris­­ton est le neuros­­cien­­ti­­fique le plus cité au monde. L’im­­pact de ses publi­­ca­­tions serait deux fois plus élevé que celles d’Al­­bert Einstein. La raison d’un tel succès ? Son prin­­cipe de l’éner­­gie libre, présenté par certains comme la théo­­rie multi-disci­­pli­­naire la plus révo­­lu­­tion­­naire depuis celle de Charles Darwin. Des mathé­­ma­­tiques au trai­­te­­ment des mala­­dies mentales, en passant par l’in­­tel­­li­­gence arti­­fi­­cielle (IA) : son prin­­cipe de mini­­mi­­sa­­tion de l’éner­­gie libre pour­­rait s’ap­­pliquer à presque tous les domaines.

D’après le Britan­­nique, notre cerveau est une machine à faire des prédic­­tions, dans le but de se main­­te­­nir, mais surtout de s’adap­­ter à un envi­­ron­­ne­­ment en perpé­­tuel chan­­ge­­ment. Une propriété dont pour­­raient s’ins­­pi­­rer les IA pour déve­­lop­­per un réel discer­­ne­­ment du monde qui les entoure. D’ici dix ans, Karl Fris­­ton s’at­­tend donc à voir des agents arti­­fi­­ciels curieux, doués de conscience et capables d’ap­­prendre en auto­­no­­mie. Rencontre avec le neuros­­cien­­ti­­fique dont les théo­­ries pour­­rait donner nais­­sance aux robots de demain.

Le Pr Karl Fris­­ton
Crédits : British Coun­­cil

Qu’est-ce que le prin­­cipe de l’éner­­gie libre ?

L’éner­­gie libre est une théo­­rie géné­­rale selon laquelle nous devons, d’une manière ou d’une autre, mini­­mi­­ser notre surprise pour nous adap­­ter au chan­­ge­­ment. L’une des mesures de cette surprise, c’est la prédic­­tion de l’er­­reur, autre­­ment dit la diffé­­rence entre ce que nous obser­­vons et ce que nous avions prévu d’ob­­ser­­ver. Cela nous mène à la formule parti­­cu­­lière de la mini­­mi­­sa­­tion d’éner­­gie libre telle que le codage prédic­­tif, qui est l’un des moyens les plus popu­­laires de comprendre le prin­­cipe d’éner­­gie libre en terme de trai­­te­­ment prédic­­tif.

Pour résu­­mer : le cerveau est le produit d’un procédé d’op­­ti­­mi­­sa­­tion, dont l’objec­­tif est de s’as­­su­­rer de la bonne inté­­gra­­tion du sujet au sein de son envi­­ron­­ne­­ment.

Utili­­sons-nous plei­­ne­­ment le poten­­tiel du cerveau ?

Oui, contrai­­re­­ment à ce qui se dit dans certaines œuvres de science-fiction, nous l’uti­­­­li­­­­sons à 100 % et il existe une raison mathé­­ma­­tique à cela. Un système qui navigue avec succès dans un monde réel essaie de mini­­mi­­ser son éner­­gie libre, ou disons plus simple­­ment qu’il cherche la preuve de son exis­­tence. Mathé­­ma­­tique­­ment, on décom­­pose la preuve en deux éléments : la préci­­sion et la complexité. Une bonne apti­­tude adap­­ta­­tive est la préci­­sion moins la complexité. Cela signi­­fie que dans tout ce que nous faisons, nous cher­­chons à four­­nir des expli­­ca­­tions très précises sur nos échanges senso­­riels avec le monde, avec le moins de complexité possible.

Nous essayons toujours de prédire le monde le plus effi­­ca­­ce­­ment possible. Le coût de cette complexité, mathé­­ma­­tique­­ment, c’est le nombre de degrés de liberté et de convic­­tion qu’il me faut chan­­ger avant et après avoir été confronté à de nouvelles preuves, de nouvelles données. Si je le fais avec un maxi­­mum d’ef­­fi­­ca­­cité, je déplace mes croyances le moins possible.

 

« Pour qu’une IA survive, il lui faudra être très simi­­laire à nous »

Le cerveau fait tout ce qu’il peut pour four­­nir une expli­­ca­­tion précise de ses échanges senso­­riels avec le monde, en utili­­sant le plus petit nombre d’élé­­ments neuro­­naux, le moins d’éner­­gie et le moins de connexions possibles. On peut donc dire qu’il utilise toutes les ressources dispo­­nibles, de la manière la plus effi­­cace possible. Cela revien­­drait, pour un ordi­­na­­teur, à fonc­­tion­­ner avec le moins d’élec­­tri­­cité possible. Cette pers­­pec­­tive de mini­­mi­­sa­­tion de la complexité, qui trouve l’ex­­pli­­ca­­tion la plus simple aux choses, a d’ailleurs une impli­­ca­­tion très pratique dans la concep­­tion de l’in­­tel­­li­­gence arti­­fi­­cielle.

Comment ce prin­­cipe s’ap­­plique-t-il au déve­­lop­­pe­­ment de l’in­­tel­­li­­gence arti­­fi­­cielle ?

Pour le moment, nous sommes bien trop foca­­li­­sés sur l’op­­ti­­mi­­sa­­tion des machines à faire des choses que nous jugeons quali­­ta­­tives, sans nous deman­­der ce que sont ces quali­­tés. Mais si vous partez du prin­­cipe que ces quali­­tés se résument à résoudre l’in­­cer­­ti­­tude, à la mini­­mi­­ser, vous réali­­sez que tout ce que doit faire un robot, c’est de vous comprendre. Lorsqu’on applique le prin­­cipe d’éner­­gie libre à ce que devrait être idéa­­le­­ment l’IA, on en arrive à la conclu­­sion qu’il devrait s’agir d’une intel­­li­­gence incroya­­ble­­ment curieuse à propos de vous et moi. Elle devrait tout faire pour nous comprendre au mieux, et par là se comprendre elle-même.

Je ne vois aucun obstacle fonda­­men­­tal qui empê­­che­­rait le déve­­lop­­pe­­ment d’une conscience arti­­fi­­cielle au cours des dix prochaines années. Dans un futur proche, nous assis­­te­­rons à la prochaine vague d’avan­­cées dans le domaine de l’ap­­pren­­tis­­sage auto­­nome, de la robo­­tique et de l’in­­tel­­li­­gence arti­­fi­­cielle. Des créa­­tures en sili­­cone vont être créées, et domes­­tiquées pour jouer le rôle de nos animaux domes­­tiques. Nous pour­­rons nous proje­­ter à travers elles, et nous appré­­cie­­ront nos inter­­ac­­tions avec elles. Elles semble­­ront avoir exac­­te­­ment les mêmes états d’es­­prit que nous, les mêmes inten­­tions.

À quand remonte votre rencontre avec l’in­­tel­­li­­gence arti­­fi­­cielle ?

J’avais 15 ans et j’étais un des premiers adoles­­cents à tester un ordi­­na­­teur censé être capable de donner des conseils d’orien­­ta­­tion. Nous devions répondre à beau­­coup de ques­­tions, sur nos apti­­tudes et sur le genre de chose que nous aimions faire. Toutes ces données étaient envoyées à un ordi­­na­­teur installé à Liver­­pool, avant d’être analy­­sées pendant des heures, pour ensuite nous dévoi­­ler le métier fait pour nous.

Il s’est avéré que je devais être monteur d’an­­tennes de télé­­vi­­sion, et je crois que cela se basait sur le fait que j’avais dit que j’ai­­mais la méca­­nique élec­­trique et la vie en plein air. L’or­­di­­na­­teur a donc pensé que je devais faire de la main­­te­­nance d’an­­tennes télé­­vi­­sées !

Crédits : British Coun­­cil

À la suite de cela, j’ai reçu d’autres conseils d’orien­­ta­­tion. Person­­nel­­le­­ment, je voulais deve­­nir par-dessus tout psycho­­logue des mathé­­ma­­tiques, mais à cette époque, la termi­­no­­lo­­gie qui dési­­gnait ce que je voulais faire n’exis­­tait pas vrai­­ment. Moi et mon conseiller d’orien­­ta­­tion humain nous sommes très mal compris, et il a pensé que je voulais dire psychiatre. J’ai donc fait méde­­cine, alors que j’au­­rais dû étudier la psycho­­lo­­gie… C’était une heureuse erreur, qui a tout de même donné lieu à huit ans d’études. J’ai décou­­vert bien plus tard la « psycho­­lo­­gie mathé­­ma­­tique » et j’ai réalisé que cette disci­­pline réunis­­sait tous les ingré­­dients pour me garder actif, heureux, et animé par une envie de me dépas­­ser.

D’où tenez-vous cet inté­­rêt pour les mathé­­ma­­tiques ?

Mon père était ingé­­nieur civil, il avait un esprit mathé­­ma­­tique et il insis­­tait pour mettre en place des moyens amusants d’uti­­li­­ser son cerveau. Cela passait notam­­ment par des livres de physique, compliqués et stimu­­lants… qu’il me faisait lire ensuite. Il y en avait notam­­ment un sur la rela­­ti­­vité géné­­rale qu’il m’a fait lire quand j’étais pré-adoles­cent. J’ai ensuite décou­­vert qu’il l’avait d’abord offert à ma pauvre mère quand elle prépa­­rait ses concours d’in­­fir­­mière. Il s’agis­­sait d’Espace, Temps et Gravi­­ta­­tion, d’Ar­­thur Edding­­ton : il lui a fait lire avant même de lui avouer son amour. Elle devait avoir entre 16 et 18 ans.

Ma mère, de son côté, était très passion­­née par la psycho­­lo­­gie et les proces­­sus qui permettent d’iden­­ti­­fier d’où viennent les problèmes des gens. Mon père avait donc des livres de mathé­­ma­­tiques, très tech­­niques, et ma mère des livres de psycho­­lo­­gie, grand public ou acadé­­miques. J’ai grandi en étant plongé dans les maths par mon père et en piquant les livres de l’éta­­gère de ma mère, ce qui a donné un parfait mélange entre maths et psycho­­lo­­gie. Pour moi, les maths ont toujours été un jeu duquel les règles sont simple­­ment très strictes.

Cela explique pourquoi vous travaillez sur votre temps libre.

En effet. Le dimanche après-midi, quand je ne suis pas en famille, je travaille sur un agent arti­­fi­­ciel, un sujet en sili­­cone synthé­­tique avec qui je peux avoir une conver­­sa­­tion. Je fais cela pour tenter de comprendre les carac­­té­­ris­­tiques de l’ar­­chi­­tec­­ture fonda­­men­­tale, le modèle géné­­ra­­teur (un ensemble de plusieurs variables) néces­­saire pour qu’il existe un échange. Cela nous amène à nous deman­­der à quelle échéance, dans le futur, ces modèles seront déve­­lop­­pés, parti­­cu­­liè­­re­­ment d’un point de vue du langage et de la commu­­ni­­ca­­tion. Jusqu’à quel point les modèles géné­­ra­­teurs peuvent-ils être pous­­sés ?

« Si l’on ne parvient pas à mini­­mi­­ser l’éner­­gie libre, on dispa­­raît. »

Cela pose aussi la ques­­tion de l’in­­ter­­face physique : comment obte­­nir que la recon­­nais­­sance vocale, la prédic­­tion vocale inter­­­fère avec ces modèles géné­­ra­­teurs profonds, ces concep­­tions profondes du monde ? Il ne peut pas exis­­ter de langage sans compré­­hen­­sion, il faut donc qu’il existe un récit partagé. Une scène, un univers, doivent être présents dans la tête de cet agent, mais aussi dans la vôtre, pour que vous puis­­siez échan­­ger. La notion d’em­­pa­­thie, et toutes ces construc­­tions qui animent les créa­­tures que nous sommes, sont liées au fait que 99 % de notre cerveau est dédié à la compré­­hen­­sion des autres. Il faudra qu’il en aille de même pour les intel­­li­­gences arti­­fi­­cielles.

Doivent-elles immanqua­­ble­­ment avoir l’être humain pour modèle ?

Pour qu’une intel­­li­­gence arti­­fi­­cielle survive dans ce monde, il lui faudra être très simi­­laire à nous. Si l’im­­pé­­ra­­tif qui préside à l’exis­­tence est simple­­ment de mini­­mi­­ser les incer­­ti­­tudes en appre­­nant tout ce qu’on peut sur la nature de notre monde, nous devons mode­­ler d’autres êtres. La même chose s’ap­­plique pour les appa­­reils arti­­fi­­ciels : il n’exis­­tera de commu­­ni­­ca­­tion éloquente entre un agent arti­­fi­­ciel et un agent humain que s’ils sont suffi­­sam­­ment simi­­laires.

Cela signi­­fie que le modèle de cet agent arti­­fi­­ciel peut aussi être utilisé comme un modèle de moi-même, et vice-versa. Sinon, il n’existe pas de commu­­ni­­ca­­tion, pas d’em­­pa­­thie, pas d’his­­toire parta­­gée. Sans ce récit commun, les IA vont dispa­­raître et s’éteindre. La quasi-tota­­lité de mon modèle est dédié à la réso­­lu­­tion de l’in­­cer­­ti­­tude concer­­nant les autres, et ce qu’ils vont faire. Cela peut aller du fait de marcher dans la rue en anti­­ci­­pant vers quelle direc­­tion les conduc­­teurs et les cyclistes se dirigent, jusqu’à l’an­­ti­­ci­­pa­­tion des réponses émotion­­nelles de quelqu’un dont je suis amou­­reux. Nous essayons constam­­ment de récol­­ter de preuves desti­­nées à résoudre notre incer­­ti­­tude quant à ce qu’il se passe au-dehors.

Les robots japo­­nais, ou les tech­­no­­lo­­gies commer­­ciales telles que Siri, avec lesquels on ne peut pas lier de rela­­tion, fini­­ront donc par s’éteindre, car ils ne nous ressemblent pas assez. Ils ne possèdent pas de vraie cohé­­rence, ni de compas­­sion, ou de quali­­tés humaines. Pour que les IA survivent, il leur faudra être proches de nous en termes de forme, de croyances, d’at­­ti­­tudes et de struc­­ture.

Crédits : Apple/Ulyces

Si l’on ne parvient pas à mini­­mi­­ser l’éner­­gie libre, on dispa­­raît litté­­ra­­le­­ment, car cela signi­­fie que les fron­­tières entre ce qui nous défi­­nit et ce qui défi­­nit le monde dans lequel on évolue se désin­­tègrent. Par exemple, le fait de main­­te­­nir notre tempé­­ra­­ture à un degré humai­­ne­­ment sain, 37°C, est une forme de présence prédic­­tive. Si l’on n’y parve­­nait pas, on mour­­rait d’hy­­po­­ther­­mie ou d’hy­­per­­ther­­mie. Il en va de même pour les intel­­li­­gences arti­­fi­­cielles : elles s’étein­­dront si leur modèle ne s’adapte pas au monde qui les entoure.


Couver­­ture : Le cerveau d’une machine.


 

Premium WordP­ress Themes Down­load
Down­load Best WordP­ress Themes Free Down­load
Down­load Premium WordP­ress Themes Free
Down­load Premium WordP­ress Themes Free
free online course
Premium WordPress Themes Download
Download WordPress Themes Free
Download Best WordPress Themes Free Download
Download WordPress Themes Free
free download udemy course

Plus de turfu