Selon le modèle théorique du professeur Karl Friston, l'évolution mènera immanquablement à la création de robots domestiqués et doués de conscience.

par Laura Boudoux | 29 janvier 2019

Karl Fris­­ton est le neuros­­cien­­ti­­fique le plus cité au monde. L’im­­pact de ses publi­­ca­­tions serait deux fois plus élevé que celles d’Al­­bert Einstein. La raison d’un tel succès ? Son prin­­cipe de l’éner­­gie libre, présenté par certains comme la théo­­rie multi-disci­­pli­­naire la plus révo­­lu­­tion­­naire depuis celle de Charles Darwin. Des mathé­­ma­­tiques au trai­­te­­ment des mala­­dies mentales, en passant par l’in­­tel­­li­­gence arti­­fi­­cielle (IA) : son prin­­cipe de mini­­mi­­sa­­tion de l’éner­­gie libre pour­­rait s’ap­­pliquer à presque tous les domaines.

D’après le Britan­­nique, notre cerveau est une machine à faire des prédic­­tions, dans le but de se main­­te­­nir, mais surtout de s’adap­­ter à un envi­­ron­­ne­­ment en perpé­­tuel chan­­ge­­ment. Une propriété dont pour­­raient s’ins­­pi­­rer les IA pour déve­­lop­­per un réel discer­­ne­­ment du monde qui les entoure. D’ici dix ans, Karl Fris­­ton s’at­­tend donc à voir des agents arti­­fi­­ciels curieux, doués de conscience et capables d’ap­­prendre en auto­­no­­mie. Rencontre avec le neuros­­cien­­ti­­fique dont les théo­­ries pour­­rait donner nais­­sance aux robots de demain.

Le Pr Karl Fris­­ton
Crédits : British Coun­­cil

Qu’est-ce que le prin­­cipe de l’éner­­gie libre ?

L’éner­­gie libre est une théo­­rie géné­­rale selon laquelle nous devons, d’une manière ou d’une autre, mini­­mi­­ser notre surprise pour nous adap­­ter au chan­­ge­­ment. L’une des mesures de cette surprise, c’est la prédic­­tion de l’er­­reur, autre­­ment dit la diffé­­rence entre ce que nous obser­­vons et ce que nous avions prévu d’ob­­ser­­ver. Cela nous mène à la formule parti­­cu­­lière de la mini­­mi­­sa­­tion d’éner­­gie libre telle que le codage prédic­­tif, qui est l’un des moyens les plus popu­­laires de comprendre le prin­­cipe d’éner­­gie libre en terme de trai­­te­­ment prédic­­tif.

Pour résu­­mer : le cerveau est le produit d’un procédé d’op­­ti­­mi­­sa­­tion, dont l’objec­­tif est de s’as­­su­­rer de la bonne inté­­gra­­tion du sujet au sein de son envi­­ron­­ne­­ment.

Utili­­sons-nous plei­­ne­­ment le poten­­tiel du cerveau ?

Oui, contrai­­re­­ment à ce qui se dit dans certaines œuvres de science-fiction, nous l’uti­­­­li­­­­sons à 100 % et il existe une raison mathé­­ma­­tique à cela. Un système qui navigue avec succès dans un monde réel essaie de mini­­mi­­ser son éner­­gie libre, ou disons plus simple­­ment qu’il cherche la preuve de son exis­­tence. Mathé­­ma­­tique­­ment, on décom­­pose la preuve en deux éléments : la préci­­sion et la complexité. Une bonne apti­­tude adap­­ta­­tive est la préci­­sion moins la complexité. Cela signi­­fie que dans tout ce que nous faisons, nous cher­­chons à four­­nir des expli­­ca­­tions très précises sur nos échanges senso­­riels avec le monde, avec le moins de complexité possible.

Nous essayons toujours de prédire le monde le plus effi­­ca­­ce­­ment possible. Le coût de cette complexité, mathé­­ma­­tique­­ment, c’est le nombre de degrés de liberté et de convic­­tion qu’il me faut chan­­ger avant et après avoir été confronté à de nouvelles preuves, de nouvelles données. Si je le fais avec un maxi­­mum d’ef­­fi­­ca­­cité, je déplace mes croyances le moins possible.

 

« Pour qu’une IA survive, il lui faudra être très simi­­laire à nous »

Le cerveau fait tout ce qu’il peut pour four­­nir une expli­­ca­­tion précise de ses échanges senso­­riels avec le monde, en utili­­sant le plus petit nombre d’élé­­ments neuro­­naux, le moins d’éner­­gie et le moins de connexions possibles. On peut donc dire qu’il utilise toutes les ressources dispo­­nibles, de la manière la plus effi­­cace possible. Cela revien­­drait, pour un ordi­­na­­teur, à fonc­­tion­­ner avec le moins d’élec­­tri­­cité possible. Cette pers­­pec­­tive de mini­­mi­­sa­­tion de la complexité, qui trouve l’ex­­pli­­ca­­tion la plus simple aux choses, a d’ailleurs une impli­­ca­­tion très pratique dans la concep­­tion de l’in­­tel­­li­­gence arti­­fi­­cielle.

Comment ce prin­­cipe s’ap­­plique-t-il au déve­­lop­­pe­­ment de l’in­­tel­­li­­gence arti­­fi­­cielle ?

Pour le moment, nous sommes bien trop foca­­li­­sés sur l’op­­ti­­mi­­sa­­tion des machines à faire des choses que nous jugeons quali­­ta­­tives, sans nous deman­­der ce que sont ces quali­­tés. Mais si vous partez du prin­­cipe que ces quali­­tés se résument à résoudre l’in­­cer­­ti­­tude, à la mini­­mi­­ser, vous réali­­sez que tout ce que doit faire un robot, c’est de vous comprendre. Lorsqu’on applique le prin­­cipe d’éner­­gie libre à ce que devrait être idéa­­le­­ment l’IA, on en arrive à la conclu­­sion qu’il devrait s’agir d’une intel­­li­­gence incroya­­ble­­ment curieuse à propos de vous et moi. Elle devrait tout faire pour nous comprendre au mieux, et par là se comprendre elle-même.

Je ne vois aucun obstacle fonda­­men­­tal qui empê­­che­­rait le déve­­lop­­pe­­ment d’une conscience arti­­fi­­cielle au cours des dix prochaines années. Dans un futur proche, nous assis­­te­­rons à la prochaine vague d’avan­­cées dans le domaine de l’ap­­pren­­tis­­sage auto­­nome, de la robo­­tique et de l’in­­tel­­li­­gence arti­­fi­­cielle. Des créa­­tures en sili­­cone vont être créées, et domes­­tiquées pour jouer le rôle de nos animaux domes­­tiques. Nous pour­­rons nous proje­­ter à travers elles, et nous appré­­cie­­ront nos inter­­ac­­tions avec elles. Elles semble­­ront avoir exac­­te­­ment les mêmes états d’es­­prit que nous, les mêmes inten­­tions.

À quand remonte votre rencontre avec l’in­­tel­­li­­gence arti­­fi­­cielle ?

J’avais 15 ans et j’étais un des premiers adoles­­cents à tester un ordi­­na­­teur censé être capable de donner des conseils d’orien­­ta­­tion. Nous devions répondre à beau­­coup de ques­­tions, sur nos apti­­tudes et sur le genre de chose que nous aimions faire. Toutes ces données étaient envoyées à un ordi­­na­­teur installé à Liver­­pool, avant d’être analy­­sées pendant des heures, pour ensuite nous dévoi­­ler le métier fait pour nous.

Il s’est avéré que je devais être monteur d’an­­tennes de télé­­vi­­sion, et je crois que cela se basait sur le fait que j’avais dit que j’ai­­mais la méca­­nique élec­­trique et la vie en plein air. L’or­­di­­na­­teur a donc pensé que je devais faire de la main­­te­­nance d’an­­tennes télé­­vi­­sées !

Crédits : British Coun­­cil

À la suite de cela, j’ai reçu d’autres conseils d’orien­­ta­­tion. Person­­nel­­le­­ment, je voulais deve­­nir par-dessus tout psycho­­logue des mathé­­ma­­tiques, mais à cette époque, la termi­­no­­lo­­gie qui dési­­gnait ce que je voulais faire n’exis­­tait pas vrai­­ment. Moi et mon conseiller d’orien­­ta­­tion humain nous sommes très mal compris, et il a pensé que je voulais dire psychiatre. J’ai donc fait méde­­cine, alors que j’au­­rais dû étudier la psycho­­lo­­gie… C’était une heureuse erreur, qui a tout de même donné lieu à huit ans d’études. J’ai décou­­vert bien plus tard la « psycho­­lo­­gie mathé­­ma­­tique » et j’ai réalisé que cette disci­­pline réunis­­sait tous les ingré­­dients pour me garder actif, heureux, et animé par une envie de me dépas­­ser.

D’où tenez-vous cet inté­­rêt pour les mathé­­ma­­tiques ?

Mon père était ingé­­nieur civil, il avait un esprit mathé­­ma­­tique et il insis­­tait pour mettre en place des moyens amusants d’uti­­li­­ser son cerveau. Cela passait notam­­ment par des livres de physique, compliqués et stimu­­lants… qu’il me faisait lire ensuite. Il y en avait notam­­ment un sur la rela­­ti­­vité géné­­rale qu’il m’a fait lire quand j’étais pré-adoles­cent. J’ai ensuite décou­­vert qu’il l’avait d’abord offert à ma pauvre mère quand elle prépa­­rait ses concours d’in­­fir­­mière. Il s’agis­­sait d’Espace, Temps et Gravi­­ta­­tion, d’Ar­­thur Edding­­ton : il lui a fait lire avant même de lui avouer son amour. Elle devait avoir entre 16 et 18 ans.

Ma mère, de son côté, était très passion­­née par la psycho­­lo­­gie et les proces­­sus qui permettent d’iden­­ti­­fier d’où viennent les problèmes des gens. Mon père avait donc des livres de mathé­­ma­­tiques, très tech­­niques, et ma mère des livres de psycho­­lo­­gie, grand public ou acadé­­miques. J’ai grandi en étant plongé dans les maths par mon père et en piquant les livres de l’éta­­gère de ma mère, ce qui a donné un parfait mélange entre maths et psycho­­lo­­gie. Pour moi, les maths ont toujours été un jeu duquel les règles sont simple­­ment très strictes.

Cela explique pourquoi vous travaillez sur votre temps libre.

En effet. Le dimanche après-midi, quand je ne suis pas en famille, je travaille sur un agent arti­­fi­­ciel, un sujet en sili­­cone synthé­­tique avec qui je peux avoir une conver­­sa­­tion. Je fais cela pour tenter de comprendre les carac­­té­­ris­­tiques de l’ar­­chi­­tec­­ture fonda­­men­­tale, le modèle géné­­ra­­teur (un ensemble de plusieurs variables) néces­­saire pour qu’il existe un échange. Cela nous amène à nous deman­­der à quelle échéance, dans le futur, ces modèles seront déve­­lop­­pés, parti­­cu­­liè­­re­­ment d’un point de vue du langage et de la commu­­ni­­ca­­tion. Jusqu’à quel point les modèles géné­­ra­­teurs peuvent-ils être pous­­sés ?

« Si l’on ne parvient pas à mini­­mi­­ser l’éner­­gie libre, on dispa­­raît. »

Cela pose aussi la ques­­tion de l’in­­ter­­face physique : comment obte­­nir que la recon­­nais­­sance vocale, la prédic­­tion vocale inter­­­fère avec ces modèles géné­­ra­­teurs profonds, ces concep­­tions profondes du monde ? Il ne peut pas exis­­ter de langage sans compré­­hen­­sion, il faut donc qu’il existe un récit partagé. Une scène, un univers, doivent être présents dans la tête de cet agent, mais aussi dans la vôtre, pour que vous puis­­siez échan­­ger. La notion d’em­­pa­­thie, et toutes ces construc­­tions qui animent les créa­­tures que nous sommes, sont liées au fait que 99 % de notre cerveau est dédié à la compré­­hen­­sion des autres. Il faudra qu’il en aille de même pour les intel­­li­­gences arti­­fi­­cielles.

Doivent-elles immanqua­­ble­­ment avoir l’être humain pour modèle ?

Pour qu’une intel­­li­­gence arti­­fi­­cielle survive dans ce monde, il lui faudra être très simi­­laire à nous. Si l’im­­pé­­ra­­tif qui préside à l’exis­­tence est simple­­ment de mini­­mi­­ser les incer­­ti­­tudes en appre­­nant tout ce qu’on peut sur la nature de notre monde, nous devons mode­­ler d’autres êtres. La même chose s’ap­­plique pour les appa­­reils arti­­fi­­ciels : il n’exis­­tera de commu­­ni­­ca­­tion éloquente entre un agent arti­­fi­­ciel et un agent humain que s’ils sont suffi­­sam­­ment simi­­laires.

Cela signi­­fie que le modèle de cet agent arti­­fi­­ciel peut aussi être utilisé comme un modèle de moi-même, et vice-versa. Sinon, il n’existe pas de commu­­ni­­ca­­tion, pas d’em­­pa­­thie, pas d’his­­toire parta­­gée. Sans ce récit commun, les IA vont dispa­­raître et s’éteindre. La quasi-tota­­lité de mon modèle est dédié à la réso­­lu­­tion de l’in­­cer­­ti­­tude concer­­nant les autres, et ce qu’ils vont faire. Cela peut aller du fait de marcher dans la rue en anti­­ci­­pant vers quelle direc­­tion les conduc­­teurs et les cyclistes se dirigent, jusqu’à l’an­­ti­­ci­­pa­­tion des réponses émotion­­nelles de quelqu’un dont je suis amou­­reux. Nous essayons constam­­ment de récol­­ter de preuves desti­­nées à résoudre notre incer­­ti­­tude quant à ce qu’il se passe au-dehors.

Les robots japo­­nais, ou les tech­­no­­lo­­gies commer­­ciales telles que Siri, avec lesquels on ne peut pas lier de rela­­tion, fini­­ront donc par s’éteindre, car ils ne nous ressemblent pas assez. Ils ne possèdent pas de vraie cohé­­rence, ni de compas­­sion, ou de quali­­tés humaines. Pour que les IA survivent, il leur faudra être proches de nous en termes de forme, de croyances, d’at­­ti­­tudes et de struc­­ture.

Crédits : Apple/Ulyces

Si l’on ne parvient pas à mini­­mi­­ser l’éner­­gie libre, on dispa­­raît litté­­ra­­le­­ment, car cela signi­­fie que les fron­­tières entre ce qui nous défi­­nit et ce qui défi­­nit le monde dans lequel on évolue se désin­­tègrent. Par exemple, le fait de main­­te­­nir notre tempé­­ra­­ture à un degré humai­­ne­­ment sain, 37°C, est une forme de présence prédic­­tive. Si l’on n’y parve­­nait pas, on mour­­rait d’hy­­po­­ther­­mie ou d’hy­­per­­ther­­mie. Il en va de même pour les intel­­li­­gences arti­­fi­­cielles : elles s’étein­­dront si leur modèle ne s’adapte pas au monde qui les entoure.


Couver­­ture : Le cerveau d’une machine.


 

Down­load Nulled WordP­ress Themes
Down­load WordP­ress Themes Free
Down­load Premium WordP­ress Themes Free
Down­load WordP­ress Themes
free down­load udemy course
Download Best WordPress Themes Free Download
Download WordPress Themes
Premium WordPress Themes Download
Free Download WordPress Themes
free online course

Plus de turfu