par Theo Padnos | 0 min | 19 mars 2017

Quand revient l’été, il y a peu de choses plus appré­­ciables que de rouler le long d’une route côtière avec un morceau de Revol­­ver dans les oreilles. Mais d’une saison à l’autre, les Beatles ne sortant plus de nouveaux albums depuis un certain temps, il arrive que l’ins­­tant perde un peu de sa magie. Une solu­­tion, bien sûr, serait qu’un nouveau single des quatre garçons de Liver­­pool descende de l’au-delà jusqu’à nos enceintes pour réen­­chan­­ter nos road trips esti­­vaux. Mais en dépit des récentes avan­­cées de la physique quan­­tique, ça ne semble pas près d’ar­­ri­­ver. Pour­­tant, à trois jours de la fin de l’été dernier, le miracle a en partie eu lieu. Le 19 septembre 2016, la chaîne YouTube des labo­­ra­­toires de science infor­­ma­­tique de Sony, le CSL Paris, a mis en ligne un morceau inti­­tulé « Daddy’s Car », dont les trois minutes fleurent bon la pop britan­­nique de la fin des Sixties. Le titre de la chan­­son s’ac­­com­­pa­­gnait d’une auda­­cieuse décla­­ra­­tion : « Les scien­­ti­­fiques du labo­­ra­­toire de recherche Sony CSL de Paris ont créé les toutes premières chan­­sons compo­­sées par une intel­­li­­gence arti­­fi­­cielle. » Et « Daddy’s Car » l’avait été « dans le style des Beatles ». Mais comment une machine peut-elle saisir ce qui fait le style des Beatles ? Et comment peut-elle être assez créa­­tive pour le repro­­duire ? https://www.youtube.com/watch?v=LSHZ_b05W7o À en croire certains spécia­­listes de l’in­­dus­­trie musi­­cale et du déve­­lop­­pe­­ment infor­­ma­­tique, ça n’a rien de sorcier. Il va falloir s’y faire : l’été prochain, il se pour­­rait qu’on danse sur des tubes entiè­­re­­ment concoc­­tés par des robots.

IA vintage

Les machines n’ont pas attendu l’an­­née dernière pour s’es­­sayer à la musique. En 1956, le compo­­si­­teur améri­­cain Leja­­ren Hiller a été le premier à utili­­ser un ordi­­na­­teur pour compo­­ser une pièce musi­­cale. Cher­­cheur en chimie à la faculté des sciences de l’uni­­ver­­sité de l’Il­­li­­nois, le Profes­­seur Hiller avait accès pour ses travaux au super­­or­­di­­na­­teur ILLIAC, une machine extrê­­me­­ment perfec­­tion­­née à l’époque qui occu­­pait une pièce entière. Dans la première moitié des années 1950, lui et son collègue chimiste et compo­­si­­teur Leonard Issac­­son ont commencé à explo­­rer les possi­­bi­­li­­tés musi­­cales du système. En exploi­­tant certaines déci­­sions de l’or­­di­­na­­teur, ils ont généré Illiac Suite, une série de mouve­­ments pour quatuor à cordes. Depuis lors, les expé­­riences de ce type se sont multi­­pliées, dont certaines ont réussi au-delà de tout ce qu’on imagi­­nait possible. Le 11 novembre 1997, un public d’ama­­teurs de musique clas­­sique a été réuni dans un audi­­to­­rium de l’uni­­ver­­sité de Stan­­ford, en Cali­­for­­nie. L’au­­dience avait été conviée par le Profes­­seur Douglas Hofstad­­ter, théo­­ri­­cien mondia­­le­­ment réputé de l’in­­tel­­li­­gence arti­­fi­­cielle, à écou­­ter trois compo­­si­­tions inter­­­pré­­tées par la pianiste Wini­­fred Kerner. La première était de Bach, la seconde était compo­­sée dans le style de Bach par un profes­­seur de théo­­rie musi­­cale du nom de Steve Larson, et la troi­­sième avait été créée par un programme infor­­ma­­tique baptisé EMI (pronon­­cer « Emmy »), pour Expe­­ri­­ments in Musi­­cal Intel­­li­­gence. Les experts avaient pour mission de recon­­naître laquelle des trois œuvres avait été compo­­sée par l’or­­di­­na­­teur.

David Cope en 1995
Crédits : UCSC

Lorsque le verdict est tombé, le Dr Larson a été blessé d’ap­­prendre que les audi­­teurs avaient unani­­me­­ment dési­­gné sa compo­­si­­tion comme étant celle écrite par l’or­­di­­na­­teur. « Bach est un de mes compo­­si­­teurs favo­­ris », a-t-il déclaré à l’époque. « J’ai une admi­­ra­­tion profonde et cosmique pour sa musique. Que le public ait pu être dupé par un programme infor­­ma­­tique est très décon­­cer­­tant ! » Mais le plus fou dans l’his­­toire, ce n’est pas simple­­ment que ces paires d’oreilles aguer­­ries se soient méprises sur le morceau généré par l’or­­di­­na­­teur. À l’écoute du prélude composé par EMI, les audi­­teurs avait eu l’im­­pres­­sion sincère d’écou­­ter un inédit de Bach, révélé pour la première fois à un public trié sur le volet. Cette impres­­sion dérou­­tante s’est répé­­tée à la sortie de l’al­­bum Clas­­si­­cal Music Compo­­sed by Compu­­ter, qui rassemble des compo­­si­­tions origi­­nales d’EMI dans le style d’autres grands compo­­si­­teurs dispa­­rus (une sonate à la Beethov’, une mazurka façon Chopin, une suite mozar­­tien­­ne…). Sans une oreille aver­­tie, diffi­­cile de distin­­guer ces imita­­tions de véri­­tables gemmes égarées pendant des siècles. Évidem­­ment, le prodige ne s’est pas accom­­pli tout seul. Il est l’œuvre d’un ambi­­tieux compo­­si­­teur du nom de David Cope. Âgé de 76 ans aujourd’­­hui, le Profes­­seur se rappelle comment il a donné nais­­sance à EMI. « C’était au début des années 1980, on m’avait commandé un opéra et je souf­­frais d’un manque d’ins­­pi­­ra­­tion terrible », raconte-t-il. Pris par l’an­­goisse de la dead­­line, David Cope n’en finis­­sait plus de procras­­ti­­ner. « Je n’ar­­ri­­vais pas à savoir par quoi commen­­cer – do ou do dièse ? mineur ou majeur ? » Plutôt que de se rouler en boule au pied du mur de son impasse créa­­tive en atten­­dant l’apo­­ca­­lypse, le Profes­­seur a fait ce que tout compo­­si­­teur fasciné par la musique géné­­rée par ordi­­na­­teur aurait fait à sa place : il s’est mis en devoir de program­­mer un logi­­ciel capable de compo­­ser son opéra pour lui. L’af­­faire l’a occupé deux jours, durant lesquels il a consti­­tué une base de données musi­­cale de laquelle la machine devait s’ins­­pi­­rer pour créer une compo­­si­­tion fidèle au style géné­­ral, mais sans reprendre d’élé­­ments préexis­­tants. « Comme je peinais à iden­­ti­­fier mon style, j’ai fait en sorte qu’EMI imite Bach », dit-il. Elle a donc recom­­biné les éléments fonda­­teurs de la musique de Bach, d’une façon tota­­le­­ment nouvelle. « Elle s’est exclu­­si­­ve­­ment appuyée sur la base de données de Bach, pas sur ma concep­­tion de ce qu’il fallait qu’elle fasse. » Quinze ans plus tard, le programme était d’une telle finesse qu’il a semé le doute chez les plus grands spécia­­listes de Bach et Mozart. Cette approche basée sur l’ana­­lyse de données n’est pas sans rappe­­ler la façon dont fonc­­tionne le machine lear­­ning de nos jours, mais curieu­­se­­ment, les mélo­­dies créées par EMI dans les années 1980 sont de très loin supé­­rieures à celles géné­­rées par l’IA de Google aujourd’­­hui. Il y a pour­­tant une diffé­­rence entre les deux : l’IA de Google est capable d’im­­pro­­vi­­ser en temps réel avec de vrais musi­­ciens.

Le logo de Magenta

La radio du cerveau

En juin dernier, l’équipe de Google Brain a annoncé le lance­­ment d’un nouveau projet baptisé Magenta. Son but ? Explo­­rer les possi­­bi­­li­­tés du machine lear­­ning, une tech­­nique pous­­sée et partiel­­le­­ment mysté­­rieuse d’ap­­pren­­tis­­sage auto­­ma­­tique appliquée à l’in­­tel­­li­­gence arti­­fi­­cielle. Il s’agit, sché­­ma­­tique­­ment, de gaver l’IA de données et de lais­­ser ses réseaux neuro­­naux arti­­fi­­ciels les analy­­ser. Le proces­­sus de trai­­te­­ment des infor­­ma­­tions par l’IA est obscur, même pour ses créa­­teurs, et ce qu’il en ressort est souvent surpre­­nant. Pour les cher­­cheurs de Google, recou­­rir à cette méthode avec Magenta est une façon de voir si l’IA est capable de créer des morceaux de musique « convain­­cants et artis­­tiques ». Un vaste programme dont on ne peut pas dire que les premiers essais soient concluants. En huit mois, l’équipe de Magenta a posté quatre vidéos sur sa chaîne YouTube, consti­­tuées de trois arran­­ge­­ments de la même mélo­­die sans suite (très vite agaçante) et d’une séance d’im­­pro­­vi­­sa­­tion durant laquelle Magenta répond en temps réel aux notes jouées sur un clavier par une main humaine. Résul­­tat ? Bonne chance pour aller jusqu’au bout. « Les ordi­­na­­teurs sont très mauvais quand il s’agit d’écou­­ter de la musique », s’amuse Adam Hewett, le cofon­­da­­teur de Brain.fm. « À ce jeu-là, un seul d’entre nous est meilleur que tous les super­­or­­di­­na­­teurs du monde réunis. Nous sommes la seule espèce vrai­­ment sensible à la musique, et le fait qu’elle nous affecte si profon­­dé­­ment est toujours un mystère. » Selon lui, c’est la raison pour laquelle les compo­­si­­tions de Google Magenta sont inau­­dibles : l’IA est encore inca­­pable de savoir si ce qu’elle produit est de la « bonne musique ». Pour autant, Adam Hewett n’est pas aller­­gique à l’in­­tel­­li­­gence arti­­fi­­cielle, loin s’en faut. L’IA est au cœur de sa créa­­tion, une plate­­forme sur laquelle on peut écou­­ter en strea­­ming de la musique compo­­sée par une machine. Mais la musique de Brain.fm n’a pas pour voca­­tion à animer vos soirées : elle reca­­libre vos ondes céré­­brales pour vous aider à vous concen­­trer, vous relaxer ou vous endor­­mir.

Le leit­­mo­­tiv de Brain.fm

Adam Hewett est ingé­­nieur, mais il vient d’une famille de musi­­ciens. « J’ai étudié la musique toute ma vie », raconte-t-il. « Mais mon père était aussi program­­meur, donc j’ai appris à coder tout jeune. » À 20 ans, Adam a assisté à une confé­­rence sur la médi­­ta­­tion pendant laquelle l’au­­dience avait quelque diffi­­culté à se plon­­ger dans l’état de relaxa­­tion adéquat. Les orga­­ni­­sa­­teurs ont fini par deman­­der aux gens de cesser de se concen­­trer et de se conten­­ter d’écou­­ter un enre­­gis­­tre­­ment sonore. « Ils appe­­laient ça le “son alpha”. Je m’at­­ten­­dais à ce qu’ils diffusent de la musique relaxante, un morceau de Sigur Rós par exemple, mais pas du tout. Ça ressem­­blait au martè­­le­­ment d’un moteur », se souvient-il. « Et le plus incroyable, c’est que ça a marché : après quelques minutes, tout le monde était détendu. » Fasciné par ce qu’il venait de se produire, le jeune Hewett a entre­­pris des recherches sur le sujet et a rapi­­de­­ment décou­­vert que c’était un terrain vierge. Il a eu l’idée de déve­­lop­­per un logi­­ciel permet­­tant de recréer ces sons relaxants. En 2003, il a monté une société bapti­­sée Trans­­parent, pour vendre sa créa­­tion à des scien­­ti­­fiques dési­­reux de créer leurs propres sons. Il étudie lui-même les neuros­­ciences audi­­tives depuis 14 ans main­­te­­nant. « Les gens n’ont aucune idée d’à quel point la musique est puis­­sante », affirme-t-il. « Avec la synchro­­ni­­sa­­tion des ondes céré­­brales, il est possible d’uti­­li­­ser des fréquences sonores et ryth­­miques pour alté­­rer votre état de conscience. » Vous voyez l’ex­­tase qu’il vous arrive de ressen­­tir en écou­­tant vos morceaux préfé­­rés ? Adam Hewett se dit capable de vous plon­­ger dans des états beau­­coup plus intenses, « simi­­laires à ceux de certaines drogues, mais sans effets secon­­daires ». Une énigme dont la clé repose dans une zone précise de notre cerveau, le cortex audi­­tif. « C’est la partie du cerveau qui analyse l’es­­sen­­tiel des infor­­ma­­tions audi­­tives », explique-t-il. « Elle se situe juste à côté de la zone liée aux expé­­riences spiri­­tuelles. Cela pour­­rait expliquer pourquoi la musique et certains sons ont un effet si puis­­sant sur nous. » L’at­­trait de ses recherches n’a cepen­­dant pas suffi à faire marcher ses affaires. « Je suis un piètre busi­­ness­­man. Quand j’ai rencon­­tré mon cofon­­da­­teur, j’al­­lais mettre la clé sous la porte », dit-il. Lui aussi musi­­cien, Junaid Kalmadi a sauvé l’in­­gé­­nieur du marasme dans lequel il se trou­­vait. C’est à lui qu’il doit l’idée d’une plate­­forme ouverte au grand public, qui a permis à Hewett et son équipe d’ap­­pro­­fon­­dir leurs recherches tout en leur offrant la possi­­bi­­lité de vendre le résul­­tat au plus grand nombre. Les effets de Brain.fm sont clinique­­ment prou­­vés, et immé­­diats. « Lors des tests que nous avons réali­­sés sur élec­­troen­­cé­­pha­­lo­­gramme ou IRM, on voit la zone du cortex audi­­tif “s’al­­lu­­mer” après quelques minutes d’écoute. C’est dû à l’ap­­pa­­ri­­tion d’un phéno­­mène qu’on appelle le “recru­­te­­ment neuro­­nal”, au cours duquel le cortex audi­­tif agglo­­mère des cellules qui stimulent vos perfor­­mances », explique-t-il. Un prodige biolo­­gique rendu possible par l’ac­­tion d’une intel­­li­­gence arti­­fi­­cielle, qu’A­­dam Hewett a lui-même déve­­loppé.

Adam Hewett et Junaid Kalmadi

« C’est une IA très diffé­­rente de celles utili­­sées par les équipes de Google : elle n’uti­­lise pas le deep lear­­ning », dit-il. Le système conçu par Hewett est ce qu’on appelle une IA émer­­gente. « On peut se le repré­­sen­­ter comme une graine qu’on plante et qui donne nais­­sance à un bel arbre : je lui donne de minus­­cules instruc­­tions, très précises, et il en ressort quelque chose de magique. » Il crée en quelque sorte des bots dont chacun tisse une partie de la musique. Puis ces bots inter­­a­gissent entre eux constam­­ment, de façon à ce que le rythme créé par les beat bots et les mélo­­dies jouées par les synth bots dessinent des motifs qui évoluent progres­­si­­ve­­ment sur toute la durée du morceau. « Ces bots sont constam­­ment en mouve­­ment, et ils sont dotés d’un cycle de vie », résume Adam Hewett. Ainsi, lorsqu’un des bots « meurt », cela peut donner lieu à des pauses drama­­tiques dans la musique. Bien que les compo­­si­­tions de Brain.fm n’aient pas pour but de diver­­tir leur audi­­toire, Adam Hewett voit l’in­­clu­­sion de l’in­­tel­­li­­gence arti­­fi­­cielle dans la musique comme un boule­­ver­­se­­ment profond. « C’est la première révo­­lu­­tion musi­­cale depuis l’in­­ven­­tion du synthé­­ti­­seur modu­­laire dans les années 1950 », affirme-t-il. « Il ne s’est rien passé depuis d’aussi fonda­­men­­tal. » Il est convaincu que les compo­­si­­teurs l’uti­­li­­se­­ront de plus en plus pour créer de la musique à desti­­na­­tion du grand public. Et il n’est pas le seul à le penser.

Des machines très concen­­trées

Lorsque Ed Newton-Rex est arrivé sur scène lors du festi­­val Slush d’Hel­­sinki en décembre dernier, il a proposé au public de parti­­ci­­per à un test de Turing un peu parti­­cu­­lier. Le test doit son nom au mathé­­ma­­ti­­cien britan­­nique Alan Turing, qui a proposé dans un article publié en 1950 de mettre en place une série d’épreuves visant à déter­­mi­­ner si une machine dite intel­­li­­gente est véri­­ta­­ble­­ment douée de pensée. Ed Newton-Rex, lui, a demandé à son audi­­toire d’écou­­ter deux morceaux de musique elec­­tro et de déter­­mi­­ner lequel des deux avait été écrit par un être humain, et lequel était l’œuvre d’une machine. Au terme des deux extraits, un nombre à peu près équi­­valent de mains se sont levées dans l’as­­sis­­tance.

Ed Newton-Rex, à gauche, et son cofon­­da­­teur Patrick Stobbs
Crédits : Andrew Testa

« C’est géné­­ra­­le­­ment ce que j’ob­­tiens quand je pose la ques­­tion », a-t-il dit en scru­­tant la foule plon­­gée dans l’obs­­cu­­rité. « Le premier morceau était celui créé par un être humain, bravo à ceux d’entre vous qui ont trouvé la bonne réponse. Le second a été créé par notre tech­­no­­lo­­gie, chez Juke­­deck. » Musi­­cien et compo­­si­­teur de forma­­tion, le Londo­­nien a fondé Juke­­deck en 2014. Le site propose aux parti­­cu­­liers et aux entre­­prises de recou­­rir aux services de leur intel­­li­­gence arti­­fi­­cielle pour créer en un rien de temps des morceaux de musique libres de droits, para­­mé­­trables à l’envi. « J’ai toujours été inté­­ressé par le côté tech­­nique de la musique », dit Ed Newton-Rex, qui a étudié la percep­­tion de la musique à l’uni­­ver­­sité de Cambridge. « Je me suis très vite demandé s’il serait possible de créer un compo­­si­­teur arti­­fi­­ciel. » Il s’est ensuite penché sur les sciences infor­­ma­­tiques pour pouvoir élabo­­rer lui-même une machine capable de telles prouesses. À son lance­­ment il y a bien­­tôt trois ans, voilà ce dont l’IA de Juke­­deck était capable : Parfait pour intro­­duire un épisode 8 bits de Zelda. Main­­te­­nant, voilà ce qu’elle pouvait faire en août dernier : Outre le son du piano, c’est la complexité de la struc­­ture du morceau qui est bluf­­fante. D’au­­tant qu’elle a été para­­mé­­trée selon les goûts de l’uti­­li­­sa­­teur. « Actuel­­le­­ment sur notre site, vous pouvez deman­­der à l’IA de compo­­ser un morceau d’1’30, avec un climax à 50 s et du genre que vous souhai­­tez », explique-t-il. Mais il recon­­naît lui aussi que l’in­­tel­­li­­gence arti­­fi­­cielle a encore du chemin à faire avant de produire d’elle-même de la musique de qualité. « Pour le moment, elle est inca­­pable de créer quelque chose de vrai­­ment bon sans être guidée. » À vrai dire, Ed Newton-Rex et son équipe ont commencé à faire des recherches sur le deep lear­­ning, la méthode affec­­tion­­née par Google, il y a moins de six mois. En décembre dernier, ils ont publié le premier résul­­tat de leurs expé­­riences : « À notre connais­­sance, il s’agit du premier morceau composé et inter­­­prété de A à Z par une intel­­li­­gence arti­­fi­­cielle », commente Ed Newton-Rex. De quoi faire de l’ombre aux tenta­­tives de Magenta et lais­­ser penser que des musi­­ciens dans l’âme sont peut-être mieux placés que des ingé­­nieurs pour insuf­­fler de la créa­­ti­­vité dans les machines. « Je suis convaincu que l’in­­tel­­li­­gence arti­­fi­­cielle va trans­­for­­mer toutes les indus­­tries, et la musique ne fait pas excep­­tion », affirme le fonda­­teur de Juke­­deck. Il est persuadé que dans un futur proche, nous enten­­drons des chefs-d’œuvre qui auront été compo­­sés par des intel­­li­­gences non-humaines. « C’est dû à ma percep­­tion de ce qu’est le génie et la créa­­ti­­vité. J’ai tendance à penser qu’il s’agit pour une bonne part de recom­­bi­­ner des idées préexis­­tantes d’une façon nouvelle, et il ne fait aucun doute que les IA vont excel­­ler à cela », dit-il. Adam Hewett, le fonda­­teur de Brain.fm, est du même avis. « Je pense qu’elles fini­­ront par acqué­­rir des émotions, ou du moins par être capables de les imiter à la perfec­­tion », prophé­­tise-t-il. « Mais pour le moment, je crois surtout que l’in­­tel­­li­­gence arti­­fi­­cielle va aider les compo­­si­­teurs. » Flow Machines en est actuel­­le­­ment l’exemple le plus probant.

François Pachet
Crédits : DR

Le pôle de recherche musi­­cale des labo­­ra­­toires Sony CSL de Paris a été créé en 1997 par l’in­­gé­­nieur français François Pachet, l’an­­née où le « génie » d’EMI a atteint les oreilles du grand public. Vingt ans de recherches passion­­nées qui ont donné lieu à de nombreux projets, dont le dernier en date  est Flow Machines. Le « flow » est l’état mental dans lequel est plon­­gée une personne lorsqu’elle est très concen­­trée, comme un musi­­cien en train de compo­­ser un morceau. Pour ce projet, François Pachet mise parti­­cu­­liè­­re­­ment sur la colla­­bo­­ra­­tion entre musi­­ciens et IA nour­­rie au deep lear­­ning. Le système est ainsi capable de géné­­rer auto­­ma­­tique­­ment des chorals harmo­­ni­­sés dans le style de Bach, faisant écho aux créa­­tions d’EMI sous l’im­­pul­­sion de David Cope. Mais c’est avec la publi­­ca­­tion à la rentrée dernière de deux morceaux réso­­lu­­ment pop, « Daddy’s Car » et « Mr Shadow », que Flow Machines a fait parler de lui à l’in­­ter­­na­­tio­­nal. Arran­­gées et produites par le compo­­si­­teur français Benoît Carré, les deux singles sont tirés d’un album à paraître, consti­­tué de morceaux compo­­sés par l’in­­tel­­li­­gence arti­­fi­­cielle, puis arran­­gés et inter­­­pré­­tés par Benoît Carré et ses musi­­ciens. Au vu du résul­­tat, on n’a aucun mal à imagi­­ner un futur immi­nent où les tubes de Katy Perry ou Lady Gaga seront au moins en partie compo­­sés par des beat­­ma­­kers arti­­fi­­ciels. Une chose est sûre, ce n’est qu’un début.


L’in­­ter­­view d’Adam Hewett a été réali­­sée par Antoine Coste Dombre. Couver­­ture : AI × Music (Ulyces.co)
 
Free Down­load WordP­ress Themes
Free Down­load WordP­ress Themes
Down­load WordP­ress Themes
Down­load Premium WordP­ress Themes Free
down­load udemy paid course for free
Download WordPress Themes Free
Download Nulled WordPress Themes
Download Nulled WordPress Themes
Download Best WordPress Themes Free Download
online free course

PLUS DE SCIENCE