L’IA peut-elle produire la musique et la création sonore de demain ? |
La newsletter de la radio de demain #274… Abonnez-vous Est-ce que la musique créée par une intelligence artificielle est en mesure de provoquer les mêmes émotions que celle composée par un cerveau humain ? Les instruments, la mélodie, les combinaisons d’accords, l’écriture, les vibrations sont les leviers émotionnels de la musique quand elle atteint notre cerveau. Les œuvres générées par une intelligence artificielle (IA) ne semble pas encore pouvoir rivaliser avec les créations humaines. L’IA génère – aujourd’hui – presque uniquement des mélodies et des accords aléatoires basés sur les règles de la théorie musicale. Elle ne peut pas correspondre à l’émotion ou à l’ambiance souhaitée sans une intervention humaine conséquente. Par ailleurs, la musique est également moins indulgente que l’image : un mauvais pixel sur votre écran sera difficilement repérable, mais une simple fausse note ou un malheureux choix de mot sont tout de suite dissonants à vos oreilles. . Alors, comment sonne la musique composée par l’IA et comment naissent les collaborations humain-machine aujourd’hui ? L’Intelligence Artificielle pour aider la musique et la production audio L’IA ouvre un vaste champ visant au service de l’amélioration de la qualité sonore. Bien que les technologies qui génèrent les idées musicales soient assez sophistiquées, la synthèse d’instruments réels à l’aide d’un logiciel est encore loin de produire une copie parfaite de l’instrument réel. En outre, les meilleures librairies numériques sonores sont sous clé, protégées par l’industrie du logiciel musical, qui pèse plus de 300 millions de dollars. La plupart des projets de musique par IA utilisent des banques de sons d’instruments libres de droits ou développés par les IA elles-mêmes – et leur qualité est loin d’égaler celle des meilleurs instruments, sans parler des prises de son musicales enregistrées en studio. La qualité sonore a un effet immédiat sur la manière dont vous ressentez la musique, c’est justement l’apport déterminant des professionnels de la production audio et de leur maîtrise des outils de création. Parmi les exemples, citons les plug-ins Magenta de Google qui utilisent l’IA pour aider les producteurs à faire de la musique, RX 10 d’iZotope qui restaure l’audio par machine learning ou AudioShake qui utilise l’IA pour créer des pistes séparées à partir d’un enregistrement et ainsi en extraire les pistes des voix et de chaque machine ou instrument… ou encore le récent codec proposé par Meta, ainsi que les derniers travaux du côté de Google AI avec AudioLM. La musique auto-générée La synthèse vocale générée par de l’IA progresse chaque jour, y compris pour nous piéger avec des deepfakes. Des nouveaux horizons aussi passionnants que sources de questionnements éthiques dont de nombreuses failles juridiques restent à combler. Utilisés au service de la création audio, ces hypertrucages permettent d’immortaliser des voix disparues ou encore de donner naissance à des rencontres improbables, voire impossibles, comme celles mises en scènes dans un podcast entièrement généré par IA. Des artistes avatars, à la voix et au corps artificiels, mais dont les paroles et la musique restent le fruit d’une collaboration humaine, sont déjà sur le devant de la scène musicale – à l’instar de Hatsune Miku, dont l’hologramme chantait à l’occasion du festival Coachella et a même une série de jeux vidéo à son effigie. Ces technologies sont résolument un premier pas vers de la musique entièrement auto-générée par IA, de la composition à l’incarnation auprès d’une fanbase. Hybridité des formats : entre virtuel et réel, à qui appartient la musique ? Mais il ne faut pas négliger l’épineux champ du droit d’auteur dans l’industrie musicale. Cette évolution de la musique fait naître de nouveaux usages misant sur une approche hybride. Les créateurs et les fans non-musiciens pourront désormais manipuler la musique sans aucune compétence technique. Les pratiques sont difficiles à prévoir, mais on peut imaginer un monde où l’IA alimente les remixes, les mashups, les collaborations avec des artistes qui ne se sont jamais rencontrés et les dérivés créés par les fans qui seraient dotées d’une existence à part entière, laissant palpable la patte de chacun des collaborateurs humains de l’œuvre rendue collective par l’IA. Malgré des preuves de concept abondantes et d’autant plus de promesses, l’IA se heurte à encore bien des limites technologiques, juridiques et humaines. En somme, comme pour une recette de cuisine, la recette d’une œuvre sonore réussie ne semble pas encore tout à fait à portée de code… |
Cette semaine
Amazon réévalue de près Alexa, jugeant son offre trop peu rentable. En savoir plus Rachat de Twitter : quel avenir pour les Twitter Spaces ? En savoir plus Meta va proposer d’acheter des NFT sur Instagram. En savoir plus Apple travaille sur une révision de la commande vocale pour accéder à Siri : un adieu à la fameuse formule « dis Siri » . En savoir plus |
En bref @ Radio France
Guerre en Ukraine : la sélection de podcasts pour comprendre le déroulement et les enjeux du conflit entre la Russie et l’Ukraine.
En savoir plus
Lancement de la seconde édition de Sounds of New York : Radio France est partenaire de ce programme initié par la Villa Albertine pour accompagner le développement des podcasts français à l’international. Candidatures ouvertes jusqu’au 15 décembre prochain.
En savoir plus
Le Talk de franceinfo, c’est à 18h tous les jours sur Twitch, mais c’est aussi à réécouter sur l’application Radio France.
En savoir plus
Radio France vous donne rendez-vous les 20, 21 et 22 janvier 2023 pour la 2e édition de l’Hyper Weekend Festival.
En savoir plus
C’est la 10e édition du Prix Philippe Chaffanjon du reportage, en partenariat avec Radio France. Vous pouvez candidater d’ici le 20 décembre prochain en présentant un reportage diffusé cette année sur un site de presse français ou haïtien. En savoir plus |