Crédits : NASA/Ulyces.co « Il n’y a qu’une seule entreprise d’intelligence artificielle qui m’effraie », avait déclaré Elon Musk lors de la conférence Recode il y a maintenant plus d’un an, sans citer Google. Il y aurait pourtant tout lieu de penser que ses inquiétudes sont taries, après l’annonce d’une alliance entre OpenAI, le groupe de recherche bénévole fondé par le milliardaire pour empêcher une montée en puissance incontrôlée de l’intelligence artificielle, et Google DeepMind, la branche consacrée à l’IA la plus avancée du groupe Alphabet. Dans une étude coécrite par des chercheurs issus des deux organismes, repérée par Wired ce vendredi 7 juillet, OpenAI et DeepMind se focalisent sur la création d’un système de machine learning qui s’appuierait sur des indications humaines pour apprendre de nouvelles taches plutôt que de ne se fier qu’à lui seul – pour des résultats potentiellement imprévisibles. « Dans le domaine de la sécurité de l’IA, nous devons établir les meilleures pratiques et les faire adopter par autant d’organisations que possible », a confié Jonathan Fildes, porte-parole de Google DeepMind, au journaliste Tom Simonite. L’objectif d’un tel projet est d’empêcher que les progrès fulgurants de l’IA n’engendrent de mauvaises surprises. Car si les machines intelligentes sont capables d’apprendre par elles-mêmes de nouvelles tâches, qui sait ce qu’il pourrait arriver si elles décident que le moyen le plus efficace d’y parvenir est d’éliminer l’obstacle humain qui se dresse sur son passage ? Sans céder au catastrophisme, il semble important « de se pencher sur les choses relativement bénignes qui ne vont pas dans les systèmes d’IA d’aujourd’hui », plutôt que d’agir dans 50 ans quand il sera trop tard, résume Dario Amodei, chercheur chez OpenAI. Le premier problème sur lequel vont se pencher DeepMind et OpenAI est le fait que les systèmes dits d’ « apprentissage par renforcement » ne font pas toujours ce que leurs maîtres voudraient, et ont même pour certains été surpris à tricher. Par exemple, lorsque OpenAI a fait jouer une telle IA au jeu de course de bateau Coast Runners, ses créateurs ont été surpris de constater qu’elle avait trouvé le moyen de marquer des points – son but ultime – en tournant en rond plutôt qu’en suivant le tracé du circuit. Et il faut que ça cesse. C’est pourquoi les chercheurs travaillent actuellement au développement de systèmes plus en phase avec nos conceptions humaines. Ils espèrent que ce travail posera les bases d’une relation entre les êtres humains et les machines intelligentes basée sur la confiance plutôt que sur la peur. Source : Wired