En milieu de semaine, les chercheurs de l’équipe AI Research de Facebook, aussi connu sous l’acronyme FAIR, ont dévoilé leur dernière création, issue de plusieurs mois de recherche sur l’intelligence artificielle. Il s’agit d’un réseau de neurones capable de faire évoluer le style d’un morceau de musique en un autre, comme le ferait un traducteur avec des mots.

Au-delà du caractère très innovant du projet, on doit bien admettre que le fonctionnement de cette intelligence artificielle capable de transformer un style de musique en un autre, est tout bonnement révolutionnaire. Tout d’abord, car si l’on en croit le livre blanc publié en ligne : il s’agit d’une grande première, car aucune équipe de recherche en intelligence artificielle n’avait encore créé une méthode d’apprentissage non supervisée permettant de recréer de la musique grâce à un réseau de neurones. Ensuite, parce que les premiers tests, qui ont été réalisés dans le cadre de ce projet baptisé « A Universal Music Translation Network » ont démontré qu’il était très difficile de reconnaître le morceau de base de celui généré tant la qualité est au rendez-vous.

Sur le plan technique, rien n’a été laissé au hasard par l’équipe AI Research de Facebook et le niveau d’exigence a été placé très haut. En effet, les chercheurs ont décidé d’utiliser une méthode complexe d’auto-encodage, qui permet au réseau de neurones de traiter l’audio à partir d’entrées sonores sur lesquelles il n’a jamais été formé, plutôt que d’essayer de lui faire mémoriser un large panel de notes de musique. Ce fonctionnement n’est pas sans rappeler les prouesses réalisées par une poignée de musiciens professionnels capables de rejouer un morceau à l’oreille, sans avoir la partition sous les yeux. D’ici à ce qu’un morceau sifflé sous la douche se transforme en symphonie à l’aide d’une intelligence artificielle, il n’y a qu’un pas…