Accueil du site > Vie de la recherche > Actualités scientifiques




Recherchez sur ce site


L’ordinateur musicien : les apports du langage Esterel, conçu par Gérard Berry, à la musique mixte

Le langage informatique Esterel, conçu par Gérard Berry à partir des années 1980, est aujourd’hui utilisé en informatique musicale pour synchroniser les interactions « homme-machine ». Arshia Cont, chercheur de l’équipe Sciences et Technologies de la Musique et du Son (STMS, CNRS/IRCAM/Université Pierre et Marie Curie/Ministère de la culture), a notamment développé le logiciel Antescofo, capable d’écouter les musiciens et de les accompagner en temps réel. Ce logiciel, qui utilise le langage Esterel, est aujourd’hui utilisé dans de nombreux concerts à travers le monde. Arshia Cont revient sur les principes et défis du dialogue entre le musicien et l’ordinateur, ainsi que sur les contributions de Gérard Berry dans ce domaine de recherche.

Cet article est publié dans le cadre de notre série consacrée aux travaux de Gérard Berry, lauréat de la médaille d’or du CNRS en 2014.

Qu’est-ce que la musique mixte ?

Arshia Cont : La musique mixte est l’association, sur scène, des musiciens humains et les supports informatiques. Cette branche très active de l’informatique musicale essaie de mettre l’ordinateur sur le même plan que des musiciens humains. De ce fait, une association entre l’ordinateur et l’homme est créée à la fois au moment de l’écriture (ou composition) et de la performance (en temps réel). Cette association en musique, à la fois dans la conception et l’exécution, est appelée la musique mixte.

Déjà, l’association des hommes dans un contexte musical est un phénomène qui suscite beaucoup de mystères : comment les musiciens se synchronisent-ils entre eux ? Comment coordonnent-ils leurs actions en temps réel pour que chaque interprétation soit unique, mais qu’on entende la même œuvre ? Comment gèrent-ils les fautes éventuelles (“The show must go on”) ? Comment faire jouer simplement plus de 100 personnes ensemble dans un orchestre ? Et comment garder la cohérence de l’œuvre compte-tenu des changements dans la propagation du son, d’un musicien vers l’ensemble de la pièce ?

Toutes ces questions, sur lesquelles travaillent les scientifiques, en neurosciences notamment, rendent le principe de la musique mixte très intéressant pour les sciences informatiques : comment est-ce que des ordinateurs pourront se synchroniser entre eux et avec les humains ? Comment gérer les erreurs pour ne pas stopper la musique et garder la cohérence pendant un concert de musique mixte ? Comment coordonner les actions de l’ordinateur avec celle de l’humain ? Et beaucoup d’autres questions se posent encore.

Ce sont des questions et des défis que l’équipe-projet MuTant, conjointe entre l’Ircam, le CNRS et Inria, tente de résoudre et qui ont donné naissance au logiciel Antescofo.

Qu’est-ce que le langage Esterel, et plus généralement les travaux de Gérard Berry, ont apporté à l’informatique musicale ?

A.C. : On utilise généralement les langages informatiques pour exprimer des tâches à exécuter pour la machine. Il en existe beaucoup et chaque langage est plus ou moins spécialisé pour répondre à certaines questions spécifiques. Quand il s’agit des tâches comportant une interaction entre un environnement et la machine, et en temps réel, deux questions deviennent centrales : le “quand” et le “comment”. Il est facile d’imaginer que ces deux questions deviennent très importantes dans le contexte de la musique mixte. Il faudra donc avoir un langage capable d’exprimer explicitement le temps et les événements, capable également de les gérer en temps réel malgré toutes les variations de son environnement.

Il se trouve qu’en informatique, nous avons un réel déficit quand il s’agit du “temps et événement” ! Nous pouvons certes programmer le temps avec beaucoup de langages, mais celui-ci reste toujours implicite et sujet à beaucoup d’erreurs et de catastrophes !

Parmi les langages informatiques, Esterel est particulièrement fort et intéressant pour les questions de “temps et événement”. Il permet non seulement d’écrire des concepts temporels d’une façon intuitive et simple, mais aussi de garantir leur exécution en temps réel. C’est important ici de préciser qu’Esterel sert non seulement à s’exprimer (programmer, composer), mais aussi à assurer la bonne exécution. C’est pour ces deux raisons, parmi d’autres, que le logiciel s’est retrouvé dans beaucoup d’applications réelles et industrielles telles que les avions, les centrales nucléaires, le train, etc.

Or en informatique musicale et pour la musique mixte, en dehors de la question d’expressivité sur le temps, nous cherchons depuis toujours à rapprocher le temps écrit (la composition) du temps produit (le concert).

Notre passage au langage synchrone, avec une attention particulière à Esterel, nous a permis de franchir un cap très important dans le développement de la musique mixte. Depuis le lancement d’Antescofo, elle est utilisée dans des centaines de concerts et créations à travers le monde. Ce qui montre que l’intuition et la simplicité du langage Esterel dans ce cas étaient plus que naturelles !

Quelles ont été les évolutions scientifiques dans le domaine de la musique mixte ?

A.C. : La plus grande avancée scientifique dans ce domaine reste la création des premiers ordinateurs capables de traiter le son en temps réel dans les années 1980 à l’Ircam. La musique, dans toutes ses formes, se joue en fin de compte en temps réel. Cela a ouvert une nouvelle dimension musicale pour tous les genres de musique.

Cette étape franchie, il a fallu réfléchir à créer de nouvelles pratiques et éventuellement les réconcilier avec celles de la musique existante. Là, on rentre dans l’âge d’or de l’informatique musicale qui a largement dépassé tous les arts dans son utilisation et intégration des nouvelles technologies dans les années 1980 et 1990.

Pour moi, une évolution majeure vient également vers la fin des années 1990 avec la “perception artificielle”. Pour établir un véritable dialogue entre l’ordinateur et l’humain, le premier doit avoir une perception de son environnement proche, et cela dans un environnement incertain. Les avancées en intelligence artificielle et apprentissage automatique (probabiliste) ont permis aux chercheurs d’avancer à grands pas. Antescofo a pleinement profité de cet essor : le logiciel intègre une “machine d’écoute” capable d’écouter les autres musiciens en temps réel.

Doter la machine d’une capacité “perceptive” permettra à ces scientifiques de concevoir des programmes non seulement avec des concepts “mathématiques”, mais aussi avec des “concepts humains.” Ceci est possible quand l’intelligence de la machine et son pouvoir d’expressivité et d’exécution se réunissent explicitement. Cette réunification constitue aujourd’hui une autre grande évolution scientifique désignée sous le nom de “système cyberphysique” dont Antescofo fait partie.

Quelles sont les difficultés et défis à relever pour développer le dialogue « musicien-machine » ?

A.C. : Si on revient aux questions posées au début de cet article autour de la musique mixte, il est clair que nous ne sommes qu’au début de l’aventure. Un compositeur humain est capable d’écrire, chez lui, une œuvre pour une centaine de musiciens sur scène et souvent sans fautes. Nous n’avons toujours pas de langages informatiques qui soient capables d’une telle expressivité sans erreurs. Et dans ce procédé, le compositeur ne se pose pas une seule question sur le “quand” et “comment”, mais plusieurs. Autrement dit, il y a plusieurs temps et plusieurs événements de natures diverses qui sont en jeu lors de la composition musicale. Cette hétérogénéité de calcul est aussi au cœur des défis posés pour des systèmes cyberphysiques en général et il est clair que la musique n’a pas encore dit sa dernière “note” pour l’évolution des sciences dans ce cas.

Outre la question d’expressivité des programmes (ou composition musicale), la performance en temps réel qui nécessite synchronie et coordination reste une question largement ouverte. La perception humaine est presque parfaite parce qu’elle utilise plusieurs facultés de perception, chacune faillible, pour arriver à un résultat acceptable. Il faudra davantage doter les ordinateurs de ces facultés de multi-perceptions. Ensuite, reste toujours la question de sûreté en temps réel des systèmes multi-agents, critiques, et temporels.

Dans toutes ces questions, nous sommes toujours au croisement de plusieurs disciplines : les mathématiques pour des méthodes de résolution des problèmes liés à la physique, les neurosciences pour nous révéler le fonctionnement de l’homme dans des situations complexes, et les sciences informatiques pour les adapter aux machines, mais aussi aux artistes qui ont réuni de façon globale toute faculté humaine.

A voir en vidéo : Partition pour Ordinateur
Partition pour ordinateur par CNRS

Retrouvez les autres articles de notre série :
- Programmer le matériel : contributions du langage Esterel de Gérard Berry (avec Jean Vuillemin)
- Gérard Berry et la preuve par ordinateur (avec Christine Paulin-Mohring)
- L’informatique au service de l’aéronautique : les contributions de Gérard Berry (avec Emmanuel Ledinot, et Gérard Ladier)
- L’ordinateur musicien : les apports du langage Esterel, conçu par Gérard Berry, à la musique mixte (avec Arshia Cont)
- Gérard Berry et les neurosciences (avec Yves Frégnac et Sophie Denève)