Chapitre 2

METHODES DE TRAVAIL ET OUTILS

 

Quelles démarches, quelles méthodes, quels outils, quels logiciels, et ce pour quels types de résultats: voilà l'objet de ce chapitre.

 


1. Pour commencer, voici la méthode la plus simple dans son principe.

SCHEMA n°1


(Flux de données numériques en BLEU)

(Chemin de l'audio en ROUGE)

(OUT = sorties audio vers le cube)

 

Une séquence audio, spatialisée par un patch Max, les paramètres de ce patch liés à la spatialisation étant contrôlés manuellement lors du playback de la séquence.

 



2. On peut aussi, à l'aide d'un patch approprié, jouer simultanément plusieurs séquences spatialisées différemment, comme illustré ci-dessous:

SCHEMA n°2

 

Problèmes : difficultés dans le cas d'une spatialisation "dynamique" (mouvement des positions / directivités liées à chaque séquence qui évoluent dans le temps), car il faudrait pouvoir gérer toutes les trackballs en même temps. De ce fait, toute spatialisation un peu soignée apparaît difficile à réaliser.

 


3. Un perfectionnement consiste à modifier les patchs pour que ceux-ci permettent l'enregistrement sur le disque des 6 sorties audio X+ X- Y+ Y- Z+ Z- dans 6 fichiers différents. Ces fichiers peuvent être ainsi conservés et relus à l'aide de ProTools.

Enregistrement des fichiers :

SCHEMA n°3-1

Avec :

SCHEMA n°3-2

Playback :

SCHEMA n°3-3

Inconvénients : l'écriture simultanée de 6 pistes sur le disque dur peut, dans certaines configurations, poser de très gros problèmes de lenteur et de consommation CPU. Il est alors impératif de prendre un certain nombre de précautions, la première étant de contrôler soigneusement la fragmentation des disques de destination.

 


4. Une alternative à l'enregistrement des 6 pistes de sortie de patch est l'enregistrement des mouvements de sliders ou de trackball, données alors stockées dans des fichiers MIDI.

Pour ce faire, on synchronise Max et StudioVision par MTC, et on utlise StudioVision pour enregistrer, puis rejouer des fichiers MIDI contenant les mouvements des sliders et de la trackball.

Dans ce cas, à chaque slider du patch est associé un numéro de contrôleur MIDI, les paramètres liés à la trackball utilisant la place de 3 contrôleurs.

Enregistrement :

SCHEMA n°4-1

Playback :

SCHEMA n°4-2

 

On peut donc imaginer d'importer la forme d'onde de la séquence à spatialiser dans StudioVision, de dessiner le mouvement d'un ou plusieurs sliders, ou même de la trackball, et ensuite d'utiliser cette méthode 4-2 pour relire les fichiers MIDI ainsi crées.

De cette manière, il est théoriquement possible d'obtenir une spatialisation très correctement corrélée à la musique.

 

Malheureusement… Inconvénients : (GROS inconvénients) !

1. La mise en œuvre d'une telle méthode est très lourde, très peu conviviale, lente à l'usage, et, de surcroît, instable.

2. Les paramètres qui permettent de gérer la trackball sont des valeurs RELATIVES. Il n'y a pas de paramètres absolus de position, ce qui rend bien délicate toute tentative de dessin des trajectoires, à moins d'utiliser des subterfuges qui ne font que compliquer une configuration déjà très lourde .

 


5. Un autre perfectionnement consiste à intégrer une reverb au patch Max, reverb pouvant être spatialisée de façon indépendante au son d'origine. Cette reverb peut être celle du Spat, ou une reverb VST quelconque.

Dans le schéma 5-1, on voit le traitement simultané du son direct et du son révérbéré, par deux trackballs distinctes.

 

SCHEMA n°5-1

Où :

SCHEMA n°5-2

 

Problème : la reverb du Spat, intégrée au départ dans les patchs "TheRevCube" généralement utilisés, s'avère peu satisfaisante en terme de résultats. En effet, et on peut s'en convaincre en lisant le chapitre "Reverb et spatialisation", il serait préférable d'utiliser une reverb plus réaliste. On peut citer, par exemple, la reverb incluse dans le pack Waves VST.

 



6. Autre méthode d'intégration de reverb : création préliminaire d'un fichier son contenant le son réverbéré, puis utilisation de la méthode n°2 pour la spatialisation.

 

SCHEMA n°6

 

Avec cette méthode, on évite les problèmes de consommation CPU qui pourraient survenir lors de la méthode 5. De plus, on a une plus grande latitude dans le choix de la reverb, et cette utilisation "temps différé" nous permet un meilleur soin du son.

Inconvénient : il faut d'abord fabriquer un second fichier, et ça prend un peu de temps. De plus, ce procédé ne peut être utilisé dans le cadre de systèmes type "temps réel".

Note : évidemment, n'importe quel logiciel audio peut être utilisé pour la fabrication du fichier wet, mais l'utilisation d'un système ProTools, notamment TDM, permet l'utilisation des meilleures reverbs disponibles en format plug-in, comme par exemple la Lexiverb.

 


7. Autre direction de recherche : on voudrait spatialiser différemment l'attaque et le reste d'un son.

 

Pour cela, on fabrique un patch Max permettant de modifier rapidement et facilement certains paramètres de la trackball, par exemple un patch avec lequel on puisse passer facilement de l'étape "cardio face" à "bi latéral", afin d'obtenir un son qui "s'ouvre".

SCHEMA n°7

Problème :

Du fait de la durée extrêmement réduite d'une attaque, il est bien difficile d'effectuer à la main les mouvements permettant d'obtenir un bon résultat.

 


 

8. Dans l'optique de surmonter l'inconvénient lié à la méthode 7, on va préparer un peu le son avant de le passer à la "moulinette-Max".

Ce qui nous donne :

SCHEMA n°8

Ici, ADSR veut bien dire Attack - Decay - Sustain - Release, selon une terminologie habituelle de morphologie du son. On veut seulement dire par là qu'ici, on a séparé "A" de "DSR", mais qu'il est bien évidemment possible de faire d'autres séparations.

Inconvénient : les deux étapes ProTools prennent un peu de temps, même si elles permettent un travail très précis. Plus grave, cette méthode interdit tout type de "temps réel", comme une utilisation en direct avec des instruments acoustiques.

Il est utile de noter que les méthodes 7 comme 8 introduisent tout naturellement la notion de spatialisation comme une des caractéristiques de l'objet sonore au sens de Pierre Schaeffer. Cet aspect sera développé plus longuement quand on abordera la méthode 11.

Disons seulement qu'ici, l'introduction ne se fait qu'à petite dimension (échelle de la seconde ou moins), et sans s'inscrire dans une démarche musicale ou de composition.

 


9. En rapport avec la problématique "spatialisation corrélée à la musique", on peut imaginer des procédés "automatiques" produisant des paramètres de spatialisation fonctions de la nature de la séquence à spatialiser. De façon théorique :

 

SCHEMA n°9

 

Dit plus simplement, le premier exemple est "plus c'est fort, plus c'est bidirectionnel", donc, par exemple, un son très faible en omni, moyennement fort en cardio, très fort en bi, avec une fonction de transfert linéaire par morceaux.

C'est effectivement ce principe qui a été retenu en pratique, avec quelques perfectionnements : la puissance RMS du signal d'entrée gère non seulement le coefficient de cardioicité, mais aussi la vitesse de rotation de la trackball.

… et ça ne marche pas mal du tout… autant au niveau du résultat brut que de la corrélation musique / spatialisation.

 

Problèmes :

1. Les résultats obtenus à partir de patchs reposant sur ce seul principe de puissance RMS montrent qu'en dépit d'une très grande richesse perceptive à petite échelle - quelques secondes, le résultat à l'échelle de la minute est un peu uniforme, voire informe.

Cet inconvénient peut être résolu par l'utilisation de la méthode 10, et est en partie dû à l'inconvénient suivant.

2. Encore une fois, l'accès à la position de la trackball par des paramètres numériques ne peut se faire que de manière relative, c'est-à-dire qu'on ne peut gérer la trackball que par des paramètres de mouvement, non de position. Ceci ne facilite en aucun cas le problème de l'uniformité obtenue par, donc, une gestion de vitesse de rotation et non de position.

Si l'on pouvait, à un moment donné, décréter numériquement une position précise de trackball, cela faciliterait grandement le problème.

Du fait de cette conception de la trackball, on est obligé, pour obtenir une position déterminée et donc une brisure de la monotonie, de réinitialiser la trackball, puis d'effectuer le déplacement nécessaire. Ceci est naturellement incompatible avec tout souci lié à la musique.

 


10. Restons dans la problématique "spatialisation corrélée à la musique". Pour l'instant, les seuls résultats à peu près satisfaisants sont obtenus par l'usage de la méthode 9 - par "satisfaisants", il est entendu "résultat très bon par certains côtés, obtenus pour une séquence longue au bout d'un temps de travail raisonnable, la méthode utilisée s'avérant suffisamment conviviale, et étant susceptible de fonctionner avec plusieurs types de séquences musicales".

On va donc tenter une autre approche :

SCHEMA n°10

 

Cette méthode, quoiqu'un peu pédestre, permet un excellent suivi de la phrase musicale au niveau "macroscopique" - à l'échelle d'une phrase, ou même d'un constituant de phrase.

De plus, elle permet d'obtenir des contrastes autant spectaculaires que maîtrisés au niveau de la spatialisation, ce qui restait difficile autrement.

Combinée à la méthode 9, elle est à l'origine d'excellents résultats, la méthode 9 assurant une grande richesse perceptive au niveau microscopique, et la méthode 10 au niveau macroscopique.

 


11. Un perfectionnement de la méthode 10.

Si l'on nomme "spatialisation de la séquence" la méthode 10, voici en quoi consiste la méthode 11 :

SCHEMA N°11

 

Regardons un peu ce qui se passe : la séquence de départ est découpée, puis spatialisée par morceaux, puis reconstruite. Cette étape est de type

"musique conditionne spatialisation"

Ensuite, la séquence est déconstruite, puis recomposée en tenant compte de la spatialisation. On a maintenant

" spatialisation conditionne musique "

Cet aller-retour permet logiquement la création d'une musique composée d'objets sonores dont une des caractéristiques est la spatialisation.

Bien évidemment, on pourrait arriver à ce résultat tout autrement. Voir en particulier, la méthode 9, par le fait qu'elle met en jeu une corrélation puissance RMS - spatialisation, et les méthodes 7-8.

 

Néanmoins, cette méthode 11 nous permet une importante innovation.

En effet, les méthodes 7-8 étaient à l'origine d'objets sonores schématiques, dont la caractéristique "spatialisation" n'intervenait qu'à petite échelle, et de surcroît hors de tout cadre compositionnel.

La méthode 9, quant à elle, apportait des résultats plus riches, la caractéristique "spatialisation" intervenait de manière plus vivante, et la corrélation musique-spatialisation se faisait d'une manière plus musicale, moins analytique, et à plus grande échelle.

Malheureusement, les résultats étaient toujours trop uniformes, justement à grande échelle.

Cette méthode 11, quant à elle, du fait de la démarche concrète (toujours au sens de Pierre Schaeffer) concernant la spatialisation qu'elle met en œuvre, nous fait arriver tout naturellement au type d'objets sonores cherché, et ce dans le cadre de la composition.

Il devient alors possible de créer une musique tirant pleinement parti du cube, celui-ci devenant ainsi plus qu'un objet de diffusion: un objet de création.