Représentations Musicales

Gérard Assayag, Camilo Rueda. IRCAM.

Revue Intermedia. Septembre 1993.

Le groupe de recherche sur les Représentations Musicales de l'IRCAM a été fondé en Juin 1986. Autour d'un noyau permanent de chercheurs -- Gérard Assayag, Gerhardt Eckel, Camilo Rueda -- des compositeurs invités -- Tristan Murail, Antoine Bonnet, Claudy Malherbe etc. -- apportent leur expertise musicale et leurs directions ce recherche; l'objectif général est la définition de modèles informatisés utilisables dans des situations où le compositeur désire préparer des matériaux musicaux complexes et structurés, relativement à une certaine formalisation ou un certain ensemble de contraintes qui lui sont propres et qu'il est en mesure d'exprimer d'une façon cohérente.

De tels modèles seront utilisables aussi bien pour la production que pour l'analyse musicale. Cette conception de l'assistance informatique comme un aller retour permanent entre analyse et production est solidement établie dans le domaine de la synthèse sonore, mais beaucoup moins développée en ce qui concerne l'aide à la composition; nous espérons développer ce secteur d'une façon significative dans le futur.

Nous sommes concernés principalement -- mais pas limités -- par l'écriture instrumentale. Ceci explique que nous accordons une grande importance aux paradigmes de la formalisation discrète et du calcul symbolique. Nous développons cependant de plus en plus nos activités dans le domaine de la musique mixte (instruments / synthèse) et , à cet égard, nous sommes particulièrement interessés par la relation dialectique entre d'une part la structuration discrète, symbolique, des paramètres musicaux, notamment le temps, et les effets continus inhérents à la synthèse et au traitement des sons. Cette dichotomie implique des systèmes de spécification et de contrôle inédits, et représente un enjeu majeurs de la recherche musicale telle que nous la concevons à l'IRCAM.

Il est par conséquent critique pour nous de nous situer à un niveau où des catégories musicales abstraites peuvent être définies et manipulées indépendamment de leurs actualisation sonore. Précisons de surcroît que ces catégories peuvent être a-temporelles -- c'est là une chose commune dans la démarche compositionnelle : pensons par exemple à un graphe exprimant des relations harmoniques potentielles. Ce coté a-temporel est des plus difficiles à accéder dans les systèmes de synthèse sonore ou encore dans les programmes dédiés au pilotage de dispositifs MIDI[1] tels que les séquenceurs.

L'ensemble de ces expertises a été concentrée dans un logiciel sur lequel l'IRCAM travaille depuis 1990 en collaboration avec un chercheur finlandais, Mikael Larson. PatchWork[2] est un environnement de programmation visuel et ouvert, aisément accessible au non-informaticien, qui permet de programmer un modèle susceptible d'engendrer des structures musicales puis de visualiser ces dernières sous diverses formes graphiques dont la notation musicale traditionnelle. La composante visuelle permet d'avoir une appréhension schématique de la structure considérée et constitue un excellent apport pédagogique.

Ainsi dans la figure 1, un modèle pour une section de Melodien pour orchestre de G. Ligeti a été réalisé en PatchWork par Marc Chemillier. Chaque module vertical représente un instrument (piccolo, xylophone, celesta, violon). Dans la partie supérieure se trouve l'entrée des paramètres du modèle, ici un réservoir de notes figuré en notation musicale. Dans la partie inférieure, la boite processus représente l'algorithme qui engendre le flux mélodique, et la boîte rythmes détermine la structure rythmique de la pièce. Ces deux boîtes sont des abstractions au sens informatique du terme : elles masquent des structures plus complexes, accessibles à travers l'interface utilisateur de PatchWork, et qui se présentent de la même manière que le schéma montré ici. Les divers niveaux d'abstraction peuvent être ainsi articulés et limités visuellement au strict nécessaire pour la compréhension d'un niveau d'analyse[3]. La boîte en bas à droite collecte le résultat de la simulation. Elle peut être ouverte elle aussi, livrant le résultat final en notation musical (figure 2.)

Pour illustrer le type d'opérations qu'un compositeur peut être amené à effectuer dans un environnement d'aide à la composition, nous avons choisi un exemple de quantification rythmique. Ce problème, bien connu des compositeurs contemporains, consiste en la transcription selon la notation traditionnelle de la musique d'un flux de durées disponibles sous la forme de valeurs numériques réelles. L'intérêt de la question provient du fait que beaucoup de compositeurs utilisent des formalismes à sortie numérique pour engendrer algorithmiquement des configurations complexes de durées. Ainsi, dans la séquence illustrée par la figure 3 , due à Tristan Murail, des courbes mathématiques (sinus et exponentielle combinées) ont permis de construire un processus d'accélération et de décélérations rythmiques locales enveloppées dans une accélération progressive et globale. Les durées sont figurées de manières proportionnelle. Dans la figure 4, un traitement automatique des données d'entrée a permis de déceler les éléments de structure qui permettent d'en donner une représentation en notation musicale. Une technique de segmentation automatique a mis à jour un découpage logique de la séquence en fonction des tassements locaux des évènements sonores. La métrique (le découpage en mesure) en découle directement. La recherche d'un tempo (une pulsation de base) découle elle aussi de cette segmentation. Pour cela, les mesures sont considérées comme des super-évènements ayant leur durée propre et un calcul de plus grand diviseur commun est appliqué à ces durées, fixant l'unité de temps qui détermine la cohérence de l'ensemble (ici la noire à 69 sur le métronome).

La validité de la solution proposée peut être mesurée au fait que des éléments de structure saillants (redondance des deux premiers groupes et des quatre derniers groupes par exemple) sont conservés et mis en valeur par le découpage métrique et que la notation finale reste relativement simple. L'esquisse peut ensuite être retravaillée par le compositeur qui dispose là d'un matériau plus proche du langage auquel il est accoutumé.

Hemos mencionado ya nuestro interés fundamental en desarrollar sistemas de ayuda para la construcciòn de material musical estructurado. La idea es proporcionar al compositor los medios de definir unidades apropiadas para concebir su modelo particular de composiciòn. En la mayorìa de los casos tales unidades no corresponden a paràmetros simples de la nota (altura, intensidad, duraciòn) sino a conjuntos hetrogéneos de elementos (armònicos, rìtmicos, dinàmicos, etc.) regidos por una serie de relaciones predeterminadas. Un conjunto de esta naturaleza constituye para el compositor una unidad precisamente en la posibilidad que tiene de transformarlo globalmente accionando sobre una o varias de sus relaciones. La especificidad de los elementos constitutivos de la estructura puede tener entonces un grado de importancia menor que las reglas que rigen sus interacciones. En el caso lìmite podrìa hacerse completa abstracciòn de los elementos y considerar la unidad como el conjunto de las relaciones. Estructuras de este tipo, que podemos llamar implìcitas o parcialmente instanciadas , tienen el gran atractivo de poder representar mùltiples realizaciones de un mismo principio composicional.

Esta manera de concebir unidades musicales ha dado lugar a la elaboraciòn de un programa de ordenador llamado Nìobe[4] que permite calcular una o varias realizaciones de estructuras parcialmente instanciadas. Nìobe, unido a PatchWork, proporciona al compositor un ambiente gràfico para establecer fàcilmente las relaciones (o restricciones , en el lenguaje de la informàtica) que definen la estructura y visualizar en notaciòn musical sus posibles realizaciones.

En la figura 5, las diferentes entradas de la caja harmonic-constraints definen distintas relaciones entre los elementos de la estructura que en este ejemplo consiste de una secuencia de 89 acordes. La entrada ambitus establece una relaciòn que guìa el àmbito global de la progresiòn de acordes en la secuencia. La secuencia debe comenzar con acordes contenidos dentro de dos octavas a partir de la nota RE3 (62 en còdigo MIDI), expandirse progresivamente sobre nueve octavas a partir de DO1 y finalmente estrecharse de nuevo sobre tres octavas en el registro grave (de 0 a 36 en còdigo MIDI). La entrada int-vert , define la relaciòn intervàlica entre notas sucesivas de cada acorde. Inicialmente se permiten intervalos de tercera mayor, quinta y septima mayor (4, 7 y 11 en semitonos) para progresivamente llegar en la mitad de la secuencia a los mismos intervalos pero doblados sobre tres octavas (47, 51 y 58 en semitonos) y finalmente descender de nuevo a los intervalos del comienzo. La entrada density establece la progresion de la densidad (nùmero de notas) de los acordes: Entre 4 y 5 notas al comienzo, 3 notas en el medio y de nuevo entre 4 y 5 notas al final de la secuencia. int-hor define el movimiento melòdico posible de las voces extremas: Intervalos de tercera quinta y sèptima al principio (4 ,7 y 11), de segunda, tercera menor y cuarta en el medio (2, 3 y 5) y nuevamente tercera quinta y sèptima al final. Otras entradas de harmonic-constraints pueden definir perfiles melòdicos globales o establecer restricciones sobre encadenamientos armònicos. El compositor puede ademàs establecer reglas adicionales mediante encadenamientos de cajas PatchWork apropiadas. Una realizaciòn posible de la estructura definida en este ejemplo, obtenida por Nìobe, se muestra en la figura 6.

Cabe anotar finalmente que aunque el ejemplo define estructuras armònicas, el modelo de base es suficientemente general para poder aplicarse en otros dominios. El compositor Antoine Bonnet ha utilizado provechosamente Nìobe para la generaciòn de material armònico y rìtmico en su obra Epitafio , para grupo orquestal y dispositivo electrònico, que serà creada en el IRCAM en 1994.

Figure 1.

Figure 2.

Figure 3.

Figure 4.