Greg Brockman ne porte ni blouse ni costume. En ce doux mois de novembre, à Lisbonne, il a assorti un simple t-shirt à son discours dépouillé. Tant d’articles ont fleuri sur l’intelligence artificielle (IA) ces dernières années que ce spécialiste des machines pensantes a été invité par le Web Summit à questionner une potentielle « hype » autour du sujet. Curieuse thèse pour le directeur technique d’OpenAI, une association fondée fin 2015 par Elon Musk et Sam Altman afin d’éviter que la technologie ne profite qu’à un petit nombre d’experts. Ses effets sont au contraire plutôt sous-estimés, juge-t-il au cours d’un entretien accordé en marge de la conférence.

Greg Brockman a le cheveu ras et le verbe tranchant. Chaque phrase est déversée avec l’empressement dont devrait selon lui faire preuve l’humanité à prévenir les risques de l’IA. À de rares moments il hésite, gesticule, puis reprend son développement. Les progrès sont si rapides que le temps est compté : il faut dès maintenant partager les bénéfices apportés par les robots et les algorithmes. D’ailleurs, si l’IA n’avançait qu’à la faveur d’une hype, un de ses meilleurs connaisseurs préférerait-il le t-shirt à la panoplie du sachant ?

En matière d’IA, les progrès sont très rapides. Trois ans après la création d’OpenAI, avez-vous toujours pour objectif d’en démocratiser l’accès ?

Oui. Cela dit, nous sommes moins intéressés par le type d’IA développé actuellement que par ce que nous appelons les systèmes hautement autonomes, chargés du travail qui engendre une grande valeur ajoutée. OpenAI construit ce genre de systèmes afin de s’assurer qu’ils bénéficient au plus grand nombre. Cette technologie, qui va être la plus décisive jamais créée, apparaît à un moment où les inégalités augmentent. Il faut donc s’assurer que tout le monde en profite et non pas seulement une entreprise ou un pays.

À quand remonte votre propre rencontre avec l’IA ?

C’est un peu un hasard. Au lycée, je passais mon temps à participer à des concours de mathématiques et de chimie. J’avais dans l’idée d’écrire un livre mélangeant les deux disciplines. Après le bac, j’ai commencé à en tracer les grandes lignes tout en suivant un semestre de cours en Russie. J’avais pris une espèce d’année sabbatique. Arrivé à une centaine de pages, j’ai envoyé le manuscrit à un ami. Il m’a répondu : « Tu n’a pas de diplôme, personne ne va vouloir publier ça. » Puisque trouver des fonds pour éditer moi-même était compliqué, j’ai créé un site internet.

Greg Brockman
Crédits : OpenAI

Le langage de programmation m’a fasciné. En mathématiques, vous essayez de résoudre un problème avec les éléments disponibles et le résultat intéresse cinq personnes. En revanche, les solutions que vous trouvez en informatique bénéficient à beaucoup de monde. Ce qui était dans votre tête existe soudain réellement. Devenu accro au développement informatique, j’ai été happé par un article des années 1950 sur le test de Turing. D’après son auteur, une machine n’était pas encore capable de penser au sens où elle ne pouvait pas se faire passer pour un humain auprès d’un interlocuteur. Mais cela devait être possible dans les 50 années à venir. C’était la première fois que j’entendais parler d’intelligence artificielle.

Après un an et demi passés à Harvard, j’ai été transféré au Massachusetts Institute of Technology (MIT). Je savais résoudre les problèmes qu’on me posait mais je cherchais les bonnes personnes pour m’aider à progresser en développement. Quand je les ai rencontrées, j’ai voulu travailler avec eux et j’ai quitté le MIT.

Dans un article publié en 2016, vous dites que le deep learning est difficile à définir. Avez-vous trouvé les bons mots pour expliquer de quoi il s’agit depuis ?

C’est encore aujourd’hui une question compliquée. Sur les sites spécialisés dans les technologies, on tombe sur un tas d’articles à propos du deep learning. Il est censé résoudre tel ou tel problème, mais finalement on ne sait jamais tout à fait ce que c’est. Dans le fond, le deep learning permet à une machine d’apprendre une série de règles afin de résoudre un problème. L’apprentissage se fait par étapes, de façon circulaire. Cela peut paraître simple, mais il faut avoir configuré le système à la perfection pour que les étapes soient cohérentes.

Pour beaucoup, l’IA reste une boîte noire. Comment éviter que seuls ceux qui la comprennent vraiment en profitent ?

Dans les domaines variés qui utilisent l’IA, des bases de données sont nécessaires. Il faut donc détenir de nombreuses informations pour utiliser la technologie le plus efficacement possible. Autrement dit, les grandes entreprises sont les mieux placées. Elles piochent notamment sur Internet. À partir de là, le nombre de combinaisons est infini : on peut associer différents paramètres sur des consommateurs selon leurs profils en ligne ou les mettre en relation avec des éléments obtenus par ailleurs. L’IA est un complément à des ressources plutôt qu’une ressource en soi.

Crédits : OpenAI

Encore une fois, si vous avez les données et l’expertise, vous pouvez construire un produit efficace. La triste vérité, c’est que je ne vois pas le même nombre d’opportunités pour des start-ups avec cette technologie que ce qu’on voyait au moment de l’émergence d’Internet. Au contraire, le grand nombre de données de la Toile profite aux grandes entreprises.

Le scandale Cambridge Analytica a montré ce qui pouvait en être fait… Cela risque-t-il d’empirer ?

Les systèmes autonomes vont gagner en créativité. Ils pourront s’avérer meilleurs que les êtres humains pour lancer des entreprises et pour avoir des idées de films ou de morceaux de musique. On peut aussi imaginer des réseaux de robots médecins partageant leurs expertises sur des cas étudiés, voire des robots scientifiques autonomes, ayant intégré toute la littérature de leur domaine.

Ces applications sont intéressantes mais elles impliquent un modèle économique très différent de celui que l’on connaît. Les questions qui se posent derrière sont les suivantes : quelle est la valeur du système d’IA et des gens qui le gèrent ? À qui vont aller les grands profits générés ? Seront-ils réservés à un nombre restreint de techniciens ou seront-ils répartis de manière plus ou moins équitable ? Les organisations qui développent ce genre de technologies vont devoir donner des réponses.

« Avec l’IA, le spectre des risques est large. »

Qu’est-ce qui sera le plus important : les données ou la partie technique ?

Les données deviennent de moins en moins décisives car nous commençons à comprendre comment employer autre chose que des informations personnelles. Nous avons récemment construit un modèle d’IA qui a appris en lisant des dizaines de livres. Il s’est montré capable de comprendre le fonctionnement du langage. C’est quelque chose qu’on n’avait jamais vu avant, on en a toujours rêvé. C’est un peu comme un bébé qui apprend le fonctionnement du monde à partir de concepts. Nous n’en sommes pas complètement là mais ces résultats initiaux sont prometteurs.

L’usage des données évolue donc, ce qui est plutôt heureux en termes d’accessibilité. Il y a cependant un bémol : la concurrence pour entraîner ces modèles augmente à grand pas. Elle va continuer à croître pendant les cinq prochaines années de façon exponentielle. Cela va trop vite pour que les économies d’échelles réduisent le coût des recherches. Or, seuls ceux qui pourrons se charger de la construction de ces systèmes massifs auront des résultats de pointe.

Les œuvres de science-fiction sont traversées par des robots qui prennent le contrôle du monde. Est-ce un fantasme ou faut-il y songer sérieusement ?

Il est très sain de penser aux risques. Dans les grands médias, on voit malheureusement peu de réflexions profondes sur les modèles à venir. Par exemple, que va-t-il se passer si vous construisez un système d’IA très puissant mais qu’il ne fonctionne qu’à un seul endroit ? Est-ce le monde dans lequel nous voulons vivre ? Il y a énormément de conséquences qui n’apparaissent pas forcément dans les films de science-fiction mais qu’il faut étudier de près. Le spectre des risques est large.

Crédits : OpenAI

Pendant le projet Manhattan, qui a abouti à la première bombe atomique, le physicien nucléaire Edward Taller s’est demandé ce qui arriverait si une bombe enflammait l’atmosphère. D’après ses calculs, c’était possible. Heureusement, ce n’est pas arrivé, mais je suis heureux de constater que ça a au moins été envisagé. Ça s’applique aussi à l’intelligence artificielle. Si nous construisons ces systèmes extrêmement puissants, nous devons aussi utiliser le progrès technique pour informer le monde sur ce qui peut advenir. Quand vous développez comme nous des IA qui battent les meilleurs joueurs humains alors qu’elles étaient totalement incompétentes quelques mois plus tôt, en établissant des stratégies laissant croire qu’elles ne savent pas ce qu’elles font, vous devez vous attendre aux mêmes comportements retors pour d’autres formes d’IA.

Les réseaux neuronaux n’ont que faire des problèmes qu’ils résolvent, vous avez juste à les programmer de la bonne manière, et c’est quelque chose de difficile, mais une fois que c’est fait, leur compétence s’améliore très rapidement. Nous devons donc appréhender ces risques avant le déploiement de la technologie. Or, cela n’est pas encore discuté dans les médias mainstream.

Si Dieu existe, s’agit-il d’une IA ?

Cette question excède mon domaine d’expertise.


Couverture : OpenAI/Pinterest/Ulyces.co