Les récents progrès de l’IA la rapprochent peu à peu du génie créatif, et de plus en plus de chercheurs se rapprochent du chef-d’œuvre.

Quand revient l’été, il y a peu de choses plus appréciables que de rouler le long d’une route côtière avec un morceau de Revolver dans les oreilles. Mais d’une saison à l’autre, les Beatles ne sortant plus de nouveaux albums depuis un certain temps, il arrive que l’instant perde un peu de sa magie. Une solution, bien sûr, serait qu’un nouveau single des quatre garçons de Liverpool descende de l’au-delà jusqu’à nos enceintes pour réenchanter nos road trips estivaux. Mais en dépit des récentes avancées de la physique quantique, ça ne semble pas près d’arriver. Pourtant, à trois jours de la fin de l’été dernier, le miracle a en partie eu lieu.

Le 19 septembre 2016, la chaîne YouTube des laboratoires de science informatique de Sony, le CSL Paris, a mis en ligne un morceau intitulé « Daddy’s Car », dont les trois minutes fleurent bon la pop britannique de la fin des Sixties. Le titre de la chanson s’accompagnait d’une audacieuse déclaration : « Les scientifiques du laboratoire de recherche Sony CSL de Paris ont créé les toutes premières chansons composées par une intelligence artificielle. » Et « Daddy’s Car » l’avait été « dans le style des Beatles ». Mais comment une machine peut-elle saisir ce qui fait le style des Beatles ? Et comment peut-elle être assez créative pour le reproduire ?

À en croire certains spécialistes de l’industrie musicale et du développement informatique, ça n’a rien de sorcier. Il va falloir s’y faire : l’été prochain, il se pourrait qu’on danse sur des tubes entièrement concoctés par des robots.

IA vintage

Les machines n’ont pas attendu l’année dernière pour s’essayer à la musique. En 1956, le compositeur américain Lejaren Hiller a été le premier à utiliser un ordinateur pour composer une pièce musicale. Chercheur en chimie à la faculté des sciences de l’université de l’Illinois, le Professeur Hiller avait accès pour ses travaux au superordinateur ILLIAC, une machine extrêmement perfectionnée à l’époque qui occupait une pièce entière. Dans la première moitié des années 1950, lui et son collègue chimiste et compositeur Leonard Issacson ont commencé à explorer les possibilités musicales du système. En exploitant certaines décisions de l’ordinateur, ils ont généré Illiac Suite, une série de mouvements pour quatuor à cordes. Depuis lors, les expériences de ce type se sont multipliées, dont certaines ont réussi au-delà de tout ce qu’on imaginait possible.

Le 11 novembre 1997, un public d’amateurs de musique classique a été réuni dans un auditorium de l’université de Stanford, en Californie. L’audience avait été conviée par le Professeur Douglas Hofstadter, théoricien mondialement réputé de l’intelligence artificielle, à écouter trois compositions interprétées par la pianiste Winifred Kerner. La première était de Bach, la seconde était composée dans le style de Bach par un professeur de théorie musicale du nom de Steve Larson, et la troisième avait été créée par un programme informatique baptisé EMI (prononcer « Emmy »), pour Experiments in Musical Intelligence. Les experts avaient pour mission de reconnaître laquelle des trois œuvres avait été composée par l’ordinateur.

David Cope en 1995
Crédits : UCSC

Lorsque le verdict est tombé, le Dr Larson a été blessé d’apprendre que les auditeurs avaient unanimement désigné sa composition comme étant celle écrite par l’ordinateur. « Bach est un de mes compositeurs favoris », a-t-il déclaré à l’époque. « J’ai une admiration profonde et cosmique pour sa musique. Que le public ait pu être dupé par un programme informatique est très déconcertant ! » Mais le plus fou dans l’histoire, ce n’est pas simplement que ces paires d’oreilles aguerries se soient méprises sur le morceau généré par l’ordinateur. À l’écoute du prélude composé par EMI, les auditeurs avait eu l’impression sincère d’écouter un inédit de Bach, révélé pour la première fois à un public trié sur le volet.

Cette impression déroutante s’est répétée à la sortie de l’album Classical Music Composed by Computer, qui rassemble des compositions originales d’EMI dans le style d’autres grands compositeurs disparus (une sonate à la Beethov’, une mazurka façon Chopin, une suite mozartienne…). Sans une oreille avertie, difficile de distinguer ces imitations de véritables gemmes égarées pendant des siècles. Évidemment, le prodige ne s’est pas accompli tout seul. Il est l’œuvre d’un ambitieux compositeur du nom de David Cope. Âgé de 76 ans aujourd’hui, le Professeur se rappelle comment il a donné naissance à EMI.

« C’était au début des années 1980, on m’avait commandé un opéra et je souffrais d’un manque d’inspiration terrible », raconte-t-il. Pris par l’angoisse de la deadline, David Cope n’en finissait plus de procrastiner. « Je n’arrivais pas à savoir par quoi commencer – do ou do dièse ? mineur ou majeur ? » Plutôt que de se rouler en boule au pied du mur de son impasse créative en attendant l’apocalypse, le Professeur a fait ce que tout compositeur fasciné par la musique générée par ordinateur aurait fait à sa place : il s’est mis en devoir de programmer un logiciel capable de composer son opéra pour lui.

L’affaire l’a occupé deux jours, durant lesquels il a constitué une base de données musicale de laquelle la machine devait s’inspirer pour créer une composition fidèle au style général, mais sans reprendre d’éléments préexistants. « Comme je peinais à identifier mon style, j’ai fait en sorte qu’EMI imite Bach », dit-il. Elle a donc recombiné les éléments fondateurs de la musique de Bach, d’une façon totalement nouvelle. « Elle s’est exclusivement appuyée sur la base de données de Bach, pas sur ma conception de ce qu’il fallait qu’elle fasse. » Quinze ans plus tard, le programme était d’une telle finesse qu’il a semé le doute chez les plus grands spécialistes de Bach et Mozart.

Cette approche basée sur l’analyse de données n’est pas sans rappeler la façon dont fonctionne le machine learning de nos jours, mais curieusement, les mélodies créées par EMI dans les années 1980 sont de très loin supérieures à celles générées par l’IA de Google aujourd’hui. Il y a pourtant une différence entre les deux : l’IA de Google est capable d’improviser en temps réel avec de vrais musiciens.

Le logo de Magenta

La radio du cerveau

En juin dernier, l’équipe de Google Brain a annoncé le lancement d’un nouveau projet baptisé Magenta. Son but ? Explorer les possibilités du machine learning, une technique poussée et partiellement mystérieuse d’apprentissage automatique appliquée à l’intelligence artificielle. Il s’agit, schématiquement, de gaver l’IA de données et de laisser ses réseaux neuronaux artificiels les analyser. Le processus de traitement des informations par l’IA est obscur, même pour ses créateurs, et ce qu’il en ressort est souvent surprenant. Pour les chercheurs de Google, recourir à cette méthode avec Magenta est une façon de voir si l’IA est capable de créer des morceaux de musique « convaincants et artistiques ».

Un vaste programme dont on ne peut pas dire que les premiers essais soient concluants. En huit mois, l’équipe de Magenta a posté quatre vidéos sur sa chaîne YouTube, constituées de trois arrangements de la même mélodie sans suite (très vite agaçante) et d’une séance d’improvisation durant laquelle Magenta répond en temps réel aux notes jouées sur un clavier par une main humaine. Résultat ? Bonne chance pour aller jusqu’au bout.

« Les ordinateurs sont très mauvais quand il s’agit d’écouter de la musique », s’amuse Adam Hewett, le cofondateur de Brain.fm. « À ce jeu-là, un seul d’entre nous est meilleur que tous les superordinateurs du monde réunis. Nous sommes la seule espèce vraiment sensible à la musique, et le fait qu’elle nous affecte si profondément est toujours un mystère. » Selon lui, c’est la raison pour laquelle les compositions de Google Magenta sont inaudibles : l’IA est encore incapable de savoir si ce qu’elle produit est de la « bonne musique ». Pour autant, Adam Hewett n’est pas allergique à l’intelligence artificielle, loin s’en faut. L’IA est au cœur de sa création, une plateforme sur laquelle on peut écouter en streaming de la musique composée par une machine. Mais la musique de Brain.fm n’a pas pour vocation à animer vos soirées : elle recalibre vos ondes cérébrales pour vous aider à vous concentrer, vous relaxer ou vous endormir.

Le leitmotiv de Brain.fm

Adam Hewett est ingénieur, mais il vient d’une famille de musiciens. « J’ai étudié la musique toute ma vie », raconte-t-il. « Mais mon père était aussi programmeur, donc j’ai appris à coder tout jeune. » À 20 ans, Adam a assisté à une conférence sur la méditation pendant laquelle l’audience avait quelque difficulté à se plonger dans l’état de relaxation adéquat. Les organisateurs ont fini par demander aux gens de cesser de se concentrer et de se contenter d’écouter un enregistrement sonore. « Ils appelaient ça le “son alpha”. Je m’attendais à ce qu’ils diffusent de la musique relaxante, un morceau de Sigur Rós par exemple, mais pas du tout. Ça ressemblait au martèlement d’un moteur », se souvient-il. « Et le plus incroyable, c’est que ça a marché : après quelques minutes, tout le monde était détendu. »

Fasciné par ce qu’il venait de se produire, le jeune Hewett a entrepris des recherches sur le sujet et a rapidement découvert que c’était un terrain vierge. Il a eu l’idée de développer un logiciel permettant de recréer ces sons relaxants. En 2003, il a monté une société baptisée Transparent, pour vendre sa création à des scientifiques désireux de créer leurs propres sons. Il étudie lui-même les neurosciences auditives depuis 14 ans maintenant. « Les gens n’ont aucune idée d’à quel point la musique est puissante », affirme-t-il. « Avec la synchronisation des ondes cérébrales, il est possible d’utiliser des fréquences sonores et rythmiques pour altérer votre état de conscience. » Vous voyez l’extase qu’il vous arrive de ressentir en écoutant vos morceaux préférés ? Adam Hewett se dit capable de vous plonger dans des états beaucoup plus intenses, « similaires à ceux de certaines drogues, mais sans effets secondaires ». Une énigme dont la clé repose dans une zone précise de notre cerveau, le cortex auditif.

« C’est la partie du cerveau qui analyse l’essentiel des informations auditives », explique-t-il. « Elle se situe juste à côté de la zone liée aux expériences spirituelles. Cela pourrait expliquer pourquoi la musique et certains sons ont un effet si puissant sur nous. » L’attrait de ses recherches n’a cependant pas suffi à faire marcher ses affaires. « Je suis un piètre businessman. Quand j’ai rencontré mon cofondateur, j’allais mettre la clé sous la porte », dit-il. Lui aussi musicien, Junaid Kalmadi a sauvé l’ingénieur du marasme dans lequel il se trouvait. C’est à lui qu’il doit l’idée d’une plateforme ouverte au grand public, qui a permis à Hewett et son équipe d’approfondir leurs recherches tout en leur offrant la possibilité de vendre le résultat au plus grand nombre.

Les effets de Brain.fm sont cliniquement prouvés, et immédiats. « Lors des tests que nous avons réalisés sur électroencéphalogramme ou IRM, on voit la zone du cortex auditif “s’allumer” après quelques minutes d’écoute. C’est dû à l’apparition d’un phénomène qu’on appelle le “recrutement neuronal”, au cours duquel le cortex auditif agglomère des cellules qui stimulent vos performances », explique-t-il. Un prodige biologique rendu possible par l’action d’une intelligence artificielle, qu’Adam Hewett a lui-même développé.

Adam Hewett et Junaid Kalmadi

« C’est une IA très différente de celles utilisées par les équipes de Google : elle n’utilise pas le deep learning », dit-il. Le système conçu par Hewett est ce qu’on appelle une IA émergente. « On peut se le représenter comme une graine qu’on plante et qui donne naissance à un bel arbre : je lui donne de minuscules instructions, très précises, et il en ressort quelque chose de magique. » Il crée en quelque sorte des bots dont chacun tisse une partie de la musique. Puis ces bots interagissent entre eux constamment, de façon à ce que le rythme créé par les beat bots et les mélodies jouées par les synth bots dessinent des motifs qui évoluent progressivement sur toute la durée du morceau. « Ces bots sont constamment en mouvement, et ils sont dotés d’un cycle de vie », résume Adam Hewett. Ainsi, lorsqu’un des bots « meurt », cela peut donner lieu à des pauses dramatiques dans la musique.

Bien que les compositions de Brain.fm n’aient pas pour but de divertir leur auditoire, Adam Hewett voit l’inclusion de l’intelligence artificielle dans la musique comme un bouleversement profond. « C’est la première révolution musicale depuis l’invention du synthétiseur modulaire dans les années 1950 », affirme-t-il. « Il ne s’est rien passé depuis d’aussi fondamental. » Il est convaincu que les compositeurs l’utiliseront de plus en plus pour créer de la musique à destination du grand public. Et il n’est pas le seul à le penser.

Des machines très concentrées

Lorsque Ed Newton-Rex est arrivé sur scène lors du festival Slush d’Helsinki en décembre dernier, il a proposé au public de participer à un test de Turing un peu particulier. Le test doit son nom au mathématicien britannique Alan Turing, qui a proposé dans un article publié en 1950 de mettre en place une série d’épreuves visant à déterminer si une machine dite intelligente est véritablement douée de pensée. Ed Newton-Rex, lui, a demandé à son auditoire d’écouter deux morceaux de musique electro et de déterminer lequel des deux avait été écrit par un être humain, et lequel était l’œuvre d’une machine. Au terme des deux extraits, un nombre à peu près équivalent de mains se sont levées dans l’assistance.

Ed Newton-Rex, à gauche, et son cofondateur Patrick Stobbs
Crédits : Andrew Testa

« C’est généralement ce que j’obtiens quand je pose la question », a-t-il dit en scrutant la foule plongée dans l’obscurité. « Le premier morceau était celui créé par un être humain, bravo à ceux d’entre vous qui ont trouvé la bonne réponse. Le second a été créé par notre technologie, chez Jukedeck. »

Musicien et compositeur de formation, le Londonien a fondé Jukedeck en 2014. Le site propose aux particuliers et aux entreprises de recourir aux services de leur intelligence artificielle pour créer en un rien de temps des morceaux de musique libres de droits, paramétrables à l’envi. « J’ai toujours été intéressé par le côté technique de la musique », dit Ed Newton-Rex, qui a étudié la perception de la musique à l’université de Cambridge. « Je me suis très vite demandé s’il serait possible de créer un compositeur artificiel. » Il s’est ensuite penché sur les sciences informatiques pour pouvoir élaborer lui-même une machine capable de telles prouesses.

À son lancement il y a bientôt trois ans, voilà ce dont l’IA de Jukedeck était capable :

Parfait pour introduire un épisode 8 bits de Zelda. Maintenant, voilà ce qu’elle pouvait faire en août dernier :

Outre le son du piano, c’est la complexité de la structure du morceau qui est bluffante. D’autant qu’elle a été paramétrée selon les goûts de l’utilisateur. « Actuellement sur notre site, vous pouvez demander à l’IA de composer un morceau d’1’30, avec un climax à 50 s et du genre que vous souhaitez », explique-t-il. Mais il reconnaît lui aussi que l’intelligence artificielle a encore du chemin à faire avant de produire d’elle-même de la musique de qualité. « Pour le moment, elle est incapable de créer quelque chose de vraiment bon sans être guidée. » À vrai dire, Ed Newton-Rex et son équipe ont commencé à faire des recherches sur le deep learning, la méthode affectionnée par Google, il y a moins de six mois.

En décembre dernier, ils ont publié le premier résultat de leurs expériences :

« À notre connaissance, il s’agit du premier morceau composé et interprété de A à Z par une intelligence artificielle », commente Ed Newton-Rex. De quoi faire de l’ombre aux tentatives de Magenta et laisser penser que des musiciens dans l’âme sont peut-être mieux placés que des ingénieurs pour insuffler de la créativité dans les machines. « Je suis convaincu que l’intelligence artificielle va transformer toutes les industries, et la musique ne fait pas exception », affirme le fondateur de Jukedeck.

Il est persuadé que dans un futur proche, nous entendrons des chefs-d’œuvre qui auront été composés par des intelligences non-humaines. « C’est dû à ma perception de ce qu’est le génie et la créativité. J’ai tendance à penser qu’il s’agit pour une bonne part de recombiner des idées préexistantes d’une façon nouvelle, et il ne fait aucun doute que les IA vont exceller à cela », dit-il. Adam Hewett, le fondateur de Brain.fm, est du même avis. « Je pense qu’elles finiront par acquérir des émotions, ou du moins par être capables de les imiter à la perfection », prophétise-t-il. « Mais pour le moment, je crois surtout que l’intelligence artificielle va aider les compositeurs. » Flow Machines en est actuellement l’exemple le plus probant.

François Pachet
Crédits : DR

Le pôle de recherche musicale des laboratoires Sony CSL de Paris a été créé en 1997 par l’ingénieur français François Pachet, l’année où le « génie » d’EMI a atteint les oreilles du grand public. Vingt ans de recherches passionnées qui ont donné lieu à de nombreux projets, dont le dernier en date  est Flow Machines. Le « flow » est l’état mental dans lequel est plongée une personne lorsqu’elle est très concentrée, comme un musicien en train de composer un morceau. Pour ce projet, François Pachet mise particulièrement sur la collaboration entre musiciens et IA nourrie au deep learning. Le système est ainsi capable de générer automatiquement des chorals harmonisés dans le style de Bach, faisant écho aux créations d’EMI sous l’impulsion de David Cope.

Mais c’est avec la publication à la rentrée dernière de deux morceaux résolument pop, « Daddy’s Car » et « Mr Shadow », que Flow Machines a fait parler de lui à l’international. Arrangées et produites par le compositeur français Benoît Carré, les deux singles sont tirés d’un album à paraître, constitué de morceaux composés par l’intelligence artificielle, puis arrangés et interprétés par Benoît Carré et ses musiciens. Au vu du résultat, on n’a aucun mal à imaginer un futur imminent où les tubes de Katy Perry ou Lady Gaga seront au moins en partie composés par des beatmakers artificiels. Une chose est sûre, ce n’est qu’un début.


L’interview d’Adam Hewett a été réalisée par Antoine Coste Dombre.

Couverture : AI × Music (Ulyces.co)