ACOUSTIQUE
DES SALLES
Responsable
: Olivier Warusfel
La mission de l'équipe
d’acoustique des salles est l’étude du comportement et du
contrôle des espaces acoustiques et électroacoustiques. Ses
activités couvrent à la fois la recherche fondamentale,
menée dans le cadre de thèses, et la recherche appliquée
qui fait généralement l’objet de conventions ou de
collaborations avec des organismes externes (Cnet, Espaces Nouveaux, Renault,
...). Les recherches pures s’organisent autour des 4 axes suivants : la
caractérisation objective et perceptive de la qualité acoustique
des salles, la modélisation physique de la propagation acoustique dans
les salles (acoustique prévisionnelle), les techniques de codage et de
restitution du son et les algorithmes de synthèse de la localisation et
de l’effet de salle. Les applications pratiques sont, notamment, le
développement de logiciels d’aide à la conception architecturale,
et le développement d’un processeur d’acoustique virtuelle :
le Spatialisateur. Ce logiciel, fruit d’une collaboration avec Espaces
Nouveaux, permet de reconstruire et contrôler, en temps réel, les
effets de localisation et les effets de salle en pilotant différents
systèmes de diffusion électroacoustique de complexités
diverses : casque, paire de haut-parleurs, systèmes multi-HP... Son
exploitation couvre les domaines de la spatialisation dans le contexte de la
composition musicale ou de la post-production d’enregistrement, ainsi que
les domaines de la réalité virtuelle et de la communication de
groupe.
·
Comparaison
de deux techniques de spatialisation multi haut-parleurs.
Les potentiomètres panoramiques (panpots) discrets
s’appuient sur la différence de gains entre deux haut-parleurs
pour créer l’image d’une source virtuelle. Cette source peut
être animée d’un mouvement le long du dispositif de
haut-parleurs en alimentant successivement chaque paire de haut-parleurs
encadrant la position de la source virtuelle. Les techniques Ambisonic ont
l’objectif plus ambitieux de reconstruire le champ de pression au centre
du dispositif de diffusion. A cette fin, les caractéristiques spatiales
du champ sont décomposées sur la base des harmoniques
sphériques : les quatre premières pour un encodage
d’ordre 1, les neuf premières pour un encodage d’ordre 2. A
la restitution, tous les haut-parleurs contribuent à tout instant
à la création de la source virtuelle.
La qualité de l’image spatiale offerte par ces deux
techniques pour une diffusion sur 6 haut-parleurs dans le plan horizontal, a
été comparée en termes de critères de localisation
objectifs, faisant intervenir les vecteurs vélocité en basses
fréquences et énergie en hautes fréquences, et en termes
de critères de localisation subjectifs (retard interaural et indices
monauraux).
Cette étude a permis d’observer que le retard
interaural, qui est l’indice de localisation prépondérant,
a des variations continues dans le cas des systèmes Ambisonic, par
opposition au retard reconstruit par les systèmes discrets sautant par
pallier d’une position de haut-parleur à l’autre. Toutefois,
la qualité de reconstruction globale est meilleure pour les panpots
discrets. Ce résultat confirme le diagnostic souvent
évoqué selon lequel les systèmes discrets permettent une
localisation plus stable dans le cas de sources virtuelles fixes, tandis que
les systèmes Ambisonic créent des trajectoires dynamiques plus
régulières pour des sources en mouvement. En outre, cette
étude a permis de quantifier l’apport d’un encodage
Ambisonic au second ordre par rapport à un encodage simple du premier
ordre. Ces résultats
fournissent un éclairage sur la qualité de localisation fournie
par le décodage “ traditionnel ” de techniques de
panpots pour une écoute au casque, utilisant le principe des
haut-parleurs virtuels. Les canaux de diffusion obtenus par les deux techniques
constituent à ce titre des exemples de formats d’encodage
multi-canal pour la synthèse binaurale, qui s’intègrent
dans l’étude suivante, plus générale.
Cette étude a été
menée avec Jean-Marc Jot, et a permis la rédaction de
l’article [Jot99].
·
Définition
et étude d’un format d’encodage binaural multi-canal.
Une réduction du coût d’implantation de la
synthèse binaurale peut être obtenue par une décomposition
linéaire des HRTF sur une base de fonctions spatiales ou sur une base de
filtres. Trois décompositions ont été comparées,
différant sur le type de contrainte imposée. Dans le premier cas,
on fixe la base de fonctions spatiales comme étant les harmoniques
sphériques du 3ème ordre, dont l’expression
analytique fournit une solution pour l’interpolation des HRTF aux
positions non mesurées. Le format d’encodage issu de cette
décomposition est désigné par Binaural B. La seconde
méthode fixe la base de filtres comme étant un sous-ensemble de
HRTF, l’objectif étant de pouvoir engendrer toutes les HRTF
à partir de la mesure de peu d’entre elles. Enfin, la
troisième méthode réalise la décomposition sans
contrainte ni sur les fonctions spatiales ni sur les filtres, et obtient les
composantes minimisant l’erreur de reconstruction par une méthode
d’analyse statistique (Analyse en Composantes Principales).
Ces méthodes ont été comparées au
regard de trois critères : la précision de reconstruction
des HRTF, l’efficacité en coût de calcul de l’encodeur
(support disjoint des fonctions spatiales), le caractère
“ universel ” de l’encodeur (indépendant du
sujet dont les HRTF sont décomposées). L’optimisation de
ces critères a conduit à proposer de nouvelles modalités
de décomposition, s’appliquant à un ensemble
agrégé de sujets pour dériver des fonctions spatiales
universelles, et utilisant un algorithme de maximisation du contraste (Analyse
en Composantes Indépendantes) pour dériver des fonctions
spatiales discrètes.
La précision de reconstruction est en faveur du Binaural B,
dont le décodeur est universel mais non discret. Toutefois, l’erreur donnée
par l’ACI, bien que légèrement supérieure, semble
globalement faible, et ce qui fait de cette méthode de décomposition,
fournissant un décodeur universel et peu coûteux, une approche
encourageante.
Cette étude a été menée pour partie au
Creative Advanced Technology Center, avec Jean-Marc Jot, et a permis la
rédaction de l’article [Larcher00].
·
Comparaison
subjective de deux techniques de prise de son binaurale.
Nous avons souhaité comparer la qualité de deux
prises de sons binaurales : la prise de son bi-canal standard, utilisant
deux microphones omnidirectionnels insérés dans les conduits
auditifs d’une tête, et la prise de son multi-canal au format
Binaural B du premier ordre, à l’aide de deux microphones
Soundfield ST250 non coïncidents.
Des enregistrements ont donc été
réalisés dans la chambre anéchoïque de l’Ircam,
pour sept positions de source sonore dans le plan horizontal. Un test perceptif
a été mis en place pour comparer les deux approches en termes de
précision de localisation en azimut, distance perçue, taux de
localisation intracrânienne, taux de confusion avant-arrière. Ce
test a été passé par 18 sujets, auxquels il était
demandé de positionner la source virtuelle sur une interface graphique bidimensionnelle.
Ce test a permis de vérifier que le taux de localisation
intracrânienne ainsi que le taux de confusion avant/arrière
étaient supérieurs pour le Binaural B. En revanche, la
localisation en azimut ainsi que la distance moyenne des sons extériorisés
ne semblent pas significativement différentes de celles obtenues pour le
binaural bi-canal.
·
Hiérarchie
des indices morphologiques impliqués dans le processus de localisation
auditive
Des études extérieures suggèrent que les
différences interindividuelles des HRTF sont déterminantes pour
la qualité de reproduction des systèmes binauraux. Nous
souhaitons explorer une approche visant à atténuer ou contourner
la dégradation introduite par l’écoute de signaux binauraux
non individuels. Cette approche s’appuie sur les paramètres
morphologiques prépondérants dans le processus de localisation
auditive, dont nous souhaiterions identifier les effets en termes de filtrage
afin de les adapter à l’auditeur. Une première étape
a consisté à définir un protocole de mesure d’un
ensemble large de paramètres candidats, puis à recenser ces 17
paramètres sur 15 sujets. Une analyse statistiques (ACP) a permis
d’éliminer les paramètres corrélés, et il
apparaît que notre échantillon de sujets mesurés nous fournit
6 paramètres orthogonaux, comprenant les dimensions de la tête, du
pavillon, et la pente des épaules.
Ces deux dernières études ont fait l’objet
d’un mémoire de fin d’étude de l’Ecole
Nationale Supérieure Louis Lumière, réalisé par
Bruno Auzet.
Participants :
Ircam : V. Larcher,
Collaboration E-Mu : J.-M. Jot
L'objectif de ce travail est, d'une part,
l'étude des distorsions fréquentielles et spatiales des
systèmes de reproduction dans l'habitacle d'un véhicule
automobile et, d'autre part, le développement de solutions de traitement
du signal dédiées à la correction de ces défauts.
Une première partie de
l'étude avait été consacrée à la validation
d'une procédure d'auralisation de la qualité acoustique de
l'habitacle permettant de mener des tests subjectifs sur la base de stimuli
auditifs reconstruits à partir de la mesure de réponses
impulsionnelles binaurales dans le véhicule. La principale conclusion
était que la conduite optimale des tests nécessitait l'inversion
numérique du casque d'écoute mesuré sur le mannequin ayant
servi à relever les mesures de réponses impulsionnelles dans
l'habitacle. Cette procédure assure une garantie suffisante de
fidélité pour l'évaluation, sur écouteurs, de la
qualité de restitution dans l'habitacle.
La seconde étape du travail est
orientée vers la caractérisation objective de la chaîne
audio et de la qualité acoustique de l'habitacle. Cette phase avait
été l’occasion de faire un bilan des techniques de mesure
de réponse impulsionnelle au regard de certaines contraintes pratiques
liées au contexte de mesure. En particulier, nous avons
étudié et démontré la possibilité de
réaliser une mesure asynchrone, c’est-à-dire avec un
dispositif d’enregistrement découplé du dispositif de
lecture. Ce travail s’est poursuivi chez Renault par un stage qui a
permis l’écriture d’une procédure de mesure
automatique (détection de dérive d’horloge
d’échantillonnage, conversion de fréquence
d’échantillonnage, et récupération des temps de
propagation relatifs entre plusieurs sources mesurées de manière
séquentielle).
Un ensemble d’indices objectifs a
ensuite été calculé à partir des réponses
impulsionnelles mesurées dans un grand nombre de véhicules avec
trois capteurs différents : omnidirectionnel, micro Soundfield,
tête artificielle. Les mesures effectuées avec un microphone
omnidirectionnel ont été analysées à l’aide
d’une procédure permettant de calculer une distribution
temps-fréquence. La recherche d'informations sur la distribution
directionnelle de l’énergie à l’intérieur de
l’habitacle a recours soit aux mesures effectuées avec la
tête artificielle soit aux mesures directionnelles accessibles avec le
micro Soundfield.
Si l'on tente de caractériser
l'effet d'habitacle par un temps de réverbération associé,
on observe des valeurs extrêmement faibles (de 150 à 50 ms variant
peu avec la fréquence) et différant peu entre véhicules.
Il faut cependant souligner que, en dessous de 1500 Hz, l’analyse
temps-fréquence est délicate, car on ne rentre plus dans le cadre
du formalisme sous-entendu : la densité fréquentielle de
modes est faible (à cause du volume réduit) et, par
conséquent, les iso-fréquences du relief de décroissance
sont parfois peu assimilables à des exponentielles décroissantes.
Outre le Tr et le spectre initial de
puissance (P0), il est possible de caractériser fréquentiellement
le son direct, le champ réverbéré et le rapport entre les
deux. En d’autres termes, on peut séparer l’information de
timbre entre la puissance rayonnée par la source, et la
caractéristique propre de l’habitacle. Les spectres de
l’énergie du son direct et du champ réverbéré
peuvent présenter de fortes variations, mais surtout les
différences entre les deux sont très marquées (entre 6 et
10 dB) ce qui laisse présager des effets de coloration importante
à l’écoute ; de plus, le résultat varie de manière
importante d’un point de mesure à un autre.
Ces travaux de caractérisation
doivent permettre de dégager des pistes concernant les traitements
à mettre en place pour améliorer l’écoute dans les
habitacles de voiture. Le premier traitement envisagé est une correction
de la réponse en fréquence de l’habitacle. Compte tenu des
observations réalisées pendant l'étape de
caractérisation, la question se pose de la stratégie à
adopter pour mener l'égalisation fréquentielle. En effet,
étant donné l'ordre de grandeur du support temporel de la
réponse (environ 50ms) il peut paraître inutile, a priori, de
distinguer la réponse spectrale liée au son direct de celle qui
est liée à l'habitacle. Pour s'en assurer, un test
psychoacoustique a été réalisé à partir de
réponses impulsionnelles synthétiques permettant de
contrôler de manière fine les contenus spectraux du son direct et
de l'effet d'habitacle. L'enjeu est de savoir si, dans le contexte de
réponses courtes, les sujets distinguent, à spectre total
constant, des variations de répartition temps-fréquence. Trois
tests ont été effectués, se distinguant par
l'évolution fréquentielle du temps de
réverbération, et par la distribution spatiale de la
réverbération. Chaque test a été conduit sous forme
de comparaisons par paires, pour lesquelles la notion de dissemblance perceptive
a été explicitement demandée. L’analyse des
résultats a été effectuée avec les outils
statistiques classiques (anova)
mais aussi avec l’aide d’outils statistiques multidimensionnels (IndScal). Il ressort de cette
étude que, malgré la durée très courte de l'effet
d'habitacle, notre perception distingue la répartition
temps-fréquence de l'énergie et n'est pas uniquement sensible au
contenu fréquentiel global. Bien que la perception du contenu
fréquentiel lié au son direct prédomine, l'étude
fait apparaître deux facteurs perceptifs liés à des indices
objectifs se rapportant au son direct et à l'effet d'habitacle.
Cependant l'étude montre que cette distinction s'appuie sur la
distribution spatiale. En effet, la répétition de ce test en
imposant une direction de provenance identique pour le son direct et l'effet
d'habitacle, montre que les sujets ne sont plus en mesure de distinguer les
modifications fréquentielles effectuées sur l’une ou
l’autre de ces deux entités. Dans ce cas, il y a fusion (mais
pas masquage) entre les contenus fréquentiels du son direct et de la
réverbération.
L'étape suivante consiste à
développer un simulateur des conditions d'écoute en habitacle
afin de tester différentes modalités de correction. Le choix
s’est porté sur l'environnement Max et la bibliothèque
d’objets du Spatialisateur, à l’aide desquels, dans un
premier temps, un simulateur des différentes composantes audio d'un
véhicule sera élaboré puis, dans un deuxième temps,
seront implantés et testés les différents traitements
envisagés.
Ces recherches se poursuivent dans le
cadre de la thèse de Guillaume Vandernoot , débutée en
avril 97.
Participants :
Ircam : G. Vandernoot, O. Warusfel
Renault : E. Le Chevalier
L'objectif est d'implémenter une version du
Spatialisateur sur l’outil de montage numérique PRO-TOOLS de
DIGIDESIGN (DSP Motorola 56002 et 56300). Ce portage nécessite cependant
d'adapter le traitement (localisation, effet de salle) en fonction de la
puissance des DSP disponible.
L'architecture reprend les différents modules
élémentaires de la librairie du Spatialisateur :
-
Des modules
d’entrée sous forme de filtres IIR pour le son direct et le signal
alimentant l'effet de salle;
-
Un module
Early pour la création de réflexions précoces et
constitué de huit retards, et de deux sorties filtrées;
-
Un module
Cluster pour la création de réflexions diffuses et constitué
d'un matriçage des signaux précédents, de huit retards et
de deux sorties filtrées.
-
Un module de
réverbération constitué de huit délais
rebouclés et contrôlés par filtres IIR et matriçage;
-
Un module de
retard variable par interpolateur de Lagrange d’ordre 3, selon la
structure modifiée de Farrow. Celui-ci est utilisé pour la
simulation de l'effet Doppler pour le son direct ou pour la gestion du retard
interaural dans le panoramique de sortie.
-
Un module de
localisation binaural où les fonctions de transfert d'oreille (HRTF)
sont modélisées par 2 paires de filtres IIR d’ordre 12.
-
Des
contrôles logiques: ProcessOnOff, StepByStep, bypass individuels, etc.
Tous les modules de traitement sont compilés et
assemblés conditionnellement et exécutés sous
contrôle de bypass individuels.
Actuellement, trois plugIns distincts peuvent tourner sur
56002:
-
Réverbération complète constitué de 8 canaux de
rebouclage, sans le son direct.
-Tranche
"direct" et traitement binaural, avec réverbération
à 4 canaux, sans Cluster.
-
Version à 4 canaux contenant tout sauf la réverbération
proprement dite.
3 itérations de ces PlugIns peuvent tourner sur une
carte DigiDesign à base de 56002. Une estimation de la puissance de
calcul disponible sur carte à base de 56300 prévoit la
possibilité d'instancier une dizaine de ces plugIns.
L’interface propose le contrôle du positionnement
de la source dans un espace cartésien ou par ses coordonnées
polaires. Ce contrôle peut être déconnecté pour
donner accès directement aux paramètres de traitement.L'effet de
salle est contrôlable par facteurs perceptifs ou par des
paramètres de bas-niveau.
L'implémentation se heurte aux limitations du temps de
traitement et de la taille mémoire disponible. L'ensemble du traitement
d'un Spatialisateur de haute qualité (réverbération sur 8
canaux et restitution binaurale) ne rentre pas dans la fenêtre de temps
d'un dsp 56002.
Par ailleurs,
l'ensemble du code ne rentre pas dans la mémoire programme
interne, d'où un accroissement du temps d'exécution. Seuls les
DSP 56300 des nouveaux dispositifs DigiDesign permettront une
implémentation complète du SPAT sous ProTools.
Spécificité:
Par rapport à d’autres Plug-Ins, celui-ci
présente la particularité de ne pas être
répétitif. Il n’est pas question d’implémenter
n itérations d’un même traitement, mais
d’implémenter la version la plus complète d’un seul
traitement, sous la forme de plusieurs modules distincts, avec du code
inter-module pour lequel un dsp n'est pas optimisé.
Une interface de manipulation de
scènes sonores symboliques a été développée
pour l'environnement jMax. Cette interface permet de représenter une
scène constituée d'un ensemble de zones symbolisant des espaces
aux qualités acoustiques réglables. Dans un second temps,
l'utilisateur peut introduire des sources sonores dont il contrôle
principalement la position et l'orientation. Afin de faciliter la tâche
de l'utilisateur, les ressources de traitement du signal nécessaires
à la spatialisation sont automatiquement chargées au fur et
à mesure de la construction de la scène sonore. L'utilisateur
peut choisir le module de traitement associé à chaque symbole.
L'interface peut donc être considérée également
comme un éditeur graphique de patch, ceux-ci n'étant pas
forcément restreints à des fonctions de spatialisation.
Dans le cas le plus courant, les sources
sont associées à un module de spatialisation traitant la
réponse précoce (son direct, réflexions discrètes
et diffuses), tandis que le récepteur se verra associer un patch
"collecteur" constitué d'un module de
réverbération recevant les signaux émis par les
différentes sources situées dans la zone courante.
Au fur et à mesure du
déplacement du récepteur ou des sources, les informations de
position et orientation relatives sont traitées par les modules
"sources", tandis que la réverbération associée
au récepteur "capte" les informations liées aux zones traversées.
L'interface comporte également un
module d'édition de trajectoires pour l'automation des
déplacements des sources ou récepteurs.
Participants à l'Ircam :
[développement]
V. Larcher, Ricardo Borghesi, O. Warusfel
[portage sur
environnement Digidesign] P. Prévot
Collaboration externe :
CNET: M. Emerit
L'étude des différentes
modalités de représentation et de manipulation d'une scène
sonore spatialisée, a donné lieu au développement d'une
librairie appelée VASR (Virtual Audio Scene Rendering). Celle-ci peut
être considérée comme la base d'un décodeur de
scènes sonores décrites selon les différents modes
proposés par le standard MPEG4.
Deux parties sont réalisées.
Tout d'abord une architecture générale qui permet d'organiser les
liens entre interfaces de manipulation et les opérateurs de rendu
sonore, et ce afin de proposer une utilisation simple par un programmeur
d'applications. Puis, une attention particulière a été
portée au développement concernant le traitement
géométrique de l'effet de salle.
La librairie possède les
propriétés suivantes :
- écrite en C
ANSI, elle est donc portable et
compilable sur différentes plateformes et systèmes
opérationnels ;
- la librairie
présente une structure d'organisation des fichiers ; l'implantation
particulière d'une fonction peut cependant varier. Ce point est à
mettre en relation avec le précédent : en effet, la contrainte de
portabilité peut entraîner des non-optimisations concernant
certains traitements, qui devraient alors être réimplantés.
On pourra citer, entre autres, les opérations de gestion de la
mémoire, reliées au système opérationnel, et
surtout les opérations de type mathématique. Celles-ci pourront
être réécrites pour certains processeurs (AMD, jeu
d'extension MMX, Altivec) ;
- organisation orientée objet :
bien que le langage choisi ne soit pas un langage objet, VASR est
organisée autour d'objets élémentaires relatifs au traitement
de l'effet de salle.
On s'est intéressé
particulièrement au contrôle de l'effet de salle par une interface
géométrique. De plus, le moteur de rendu utilisé
(Spatialisateur) reposant sur une représentation bas-niveau de type
morphologique, ce sont principalement les fonctions de traitement relatives
à cette option qui ont été implantées.
Néanmoins, VASR peut servir de cadre pour l'implantation d'autres
représentations d'une scène sonore (approche perceptive ou
convolution par une réponse impulsionnelle).
Malgré le caractère
général de la librairie, certaines restrictions ont
été opérées. Ainsi les géométries de
salles utilisées sont supposées fixes et, seules, les situations
à une source et un récepteur ont été
considérées. Le traitement multi-sources nécessiterait la
mise en commun de certaines ressources, suivant la configuration choisie : par
exemple, dans le cas où deux canaux acoustiques auraient en commun une
même salle, il serait nécessaire d'établir un lien afin de
n'effectuer le calcul du temps de réverbération qu'une seule
fois.
Organisation
Différents objets sont présents :
- les objets
manipulables par l'utilisateur : ce sont principalement les transducteurs;
- les objets relatifs
au traitement acoustique géométrique: salle, parois ;
- les objets de
représentation relative au canal acoustique selon les deux types de
représentation bas-niveau (réponse impulsionnelle ou
représentation morphologique).
A chaque objet est associé un fichier
source traitant les opérations élémentaires :
- Création et
destruction d'objets : la mémoire est allouée suivant le contexte
de traitement;
- Accession et mise
à jour des champs de données ;
- Calcul de
données internes : par exemple, dans le cas d'un rendu
géométrique de la réverbération, un jeu de
fonctions permettra le calcul des matrices de Markov directe et indirecte;
- Interrogation
indirecte sur les propriétés d'un objet comme, par exemple, la
directivité d'une source.
Les interactions entre les objets (lors par
exemple d'une manipulation par un utilisateur) sont regroupées dans un
fichier particulier. Enfin, deux fichiers sources regroupent un ensemble de
fonctions utilisées par les routines de VASR : ce sont les utilitaires
mathématiques (particulièrement géométrique) et les
fonctions de tri.
Selon l'interface de manipulation choisie, le
traitement effectué variera. Afin d'identifier le traitement à
effectuer, chaque objet manipulable est doté d'un champ de contexte
précisant le type de manipulation (géométrique, physique
statistique ou perceptive).
Démonstrateur
Un démonstrateur de cette librairie
a été développé sous forme d'objet externe de
l'environnement Max/MSP. Il permet de lire un fichier décrivant la
discrétisation architecturale d'une salle et de contrôler le rendu
sonore à l'aide du Spatialisateur. Le rendu sonore est effectué
en fonction d'une modélisation physique de l'effet de salle basée
sur la méthode des sources-images pour l'énergie précoce
et sur la méthode de radiosité pour la partie tardive de la
réponse de la salle.
Participants : L. Cerveau
L'objectif de ce travail,
réalisé dans le contexte d'un stage d'une école
d'ingénieur du son, est la restitution d'une scène musicale
grâce à la gestion indépendante de chaque
élément participant à notre perception de l'espace sonore.
Il s'agit de pouvoir contrôler indépendamment les informations
provenant de la source et de l'environnement acoustique, en respectant leurs
propriétés. L'enjeu est de pouvoir transposer cette
démarche, originellement développée dans le cadre de la
synthèse, dans un contexte traditionnel de prise de son. A terme,
l'ambition est que cette approche de la composition d'une scène sonore
puisse aboutir aux développements de nouveaux outils pour le preneur de
son.
Le principe de la
recherche consiste à adopter une démarche scientifique, afin de
caractériser les propriétés physiques de chaque contribution
participant à notre perception de la scène sonore. Celle-ci est
décomposable sous la forme de signaux provenant directement de
l'instrument, de premières réflexions et de réflexions
tardives qui constituent la réverbération. La technique de prise
de son tente, par conséquent, de capter ces différents
événements de manière indépendante afin
d'autoriser, au moment de la post-production, le contrôle de la
scène sonore par combinaison ou retraitement de ces signaux.
A titre d'exemple, on évalue le spectre
de puissance d'un instrument, à partir d'un balayage chromatique,
considéré comme une référence du spectre
rayonné. L'utilité de cette mesure est de permettre un
contrôle, d'une part, des informations en provenance de la source et
d'autre part des signaux qui donnent naissance à l'effet de salle. On
dispose alors d'une grandeur qui permet de gérer indépendamment
les contributions dues à l'effet de salle et celles dues au rayonnement
de l'instrument.
Le stage a fourni l'occasion d'illustrer les
possibilités offertes par cette approche, dans le cadre de
réalisations sonores. Ces expériences ont porté
séparément sur seize instruments de la base de données
instrumentale SOL. Le premier objectif était de restituer la
scène sonore en gérant indépendamment le son direct, les
premières réflexions, et le champ diffus, à partir du
protocole de prise de son défini pour l'enregistrement de cette base de
données. Le deuxième objectif était de transposer les
possibilités de décomposition de la scène sonore aux
techniques de spatialisation 3-D. Les traitements de signaux utilisés
visaient notamment à compenser les effets de proximité induits
par l'utilisation de microphones de champ proche et à éliminer
les contributions spectrales de la salle. Pour chaque instrument un filtre de
correction spectrale a été calculé afin de reconstituer un
signal révélateur du spectre de puissance de l'instrument
à partir du signal capté par un microphone de grande proximité
ou de contact.
Participants:
A. Bassuet
- La collaboration avec
France-Télécom a été poursuivie dans le cadre de
l'étude “ Techniques de spatialisation sonore pour la
réalité virtuelle appliquée aux
télécommunications”.
Participants : L. Cerveau, V. Larcher, O. Warusfel
- La collaboration avec la Direction
d'Etudes et de Recherches de Renault (caractérisation et optimisation de
la qualité de la restitution sonore dans l'habitacle d'un
véhicule automobile) s’est poursuivie dans le cadre d'une convention
CIFRE (thèse de G. Vandernoot, Février 1997).
Participants : G. Vandernoot, O. Warusfel
Publications
et rapports d'étude en 1999
[Bassuet99] A. Bassuet, Analyse du spectre de puissance des
instruments de musique et applications pour la restitution d'une scène
sonore, Mémoire
d'Ingénieur. ENS Louis Lumière. Juin 99.
[Cruz99] F. Cruz, Validation d'un environnement informatique
d'acoustique prévisionnelle, Thèse de l'Université du Maine, décembre 99.
[Cerveau99] L. Cerveau, Couplage temps-réel d’outils
d’acoustique prévisionnelle et de dispositifs
d’auralisation, Thèse
de l'Université Paris 6. Décembre 99.
[Jot99] Jot J.-M., Larcher V., Pernaux, J.M. "A comparative
study of 3D audio encoding and rendering techniques". 16th AES
conference. Rovaniemi . April 1999.
[Larcher99] Larcher V., Jot J.-M., Guyard J., Warusfel O.,
"Study and comparison of efficient methods for 3D audio spatialization
based on linear decomposition of HRTF data", 108th AES in Paris, Feb.
2000.
Conférences
et communications
O. Warusfel, F. Cruz : Predictive
acoustics softwares and their applications for the architectural design and
virtual reality. 1st
Meeting on Room and Building acoustics", Braunschweig, Novembre 1999
Jury de
thèse
Chrysanthie Nathanail, Influence des informations visuelles
sur la perception auditive. Conséquences sur la caractérisation
de la qualité acoustique des salles, Thèse de l'Université du Maine Octobre 1999.
F. Cruz, Validation d'un environnement
informatique d'acoustique prévisionnelle, Thèse de l'Université du
Maine, décembre 1999.
L. Cerveau, Couplage temps-réel
d’outils d’acoustique prévisionnelle et de dispositifs
d’auralisation, Thèse
de l'Université Paris 6. Décembre 1999.
Applications
du Spatialisateur en production musicale et en post-production
Collaborations à la
création de nouvelles oeuvres :
Manuel Poletti
pour xxxx de E.Campion / F.
Raffinot
S. le Mouton pour K. de P. Manoury
Collaboration à la production
d'enregistrements ou de concert :
Andrew Gerzso
pour Répons de P. Boulez
Equipe
Acoustique des salles
Olivier Warusfel Responsable
Philippe Prvot Chercheur
détaché du Ministère de la Culture (depuis déc.
1996)
Ricardo Borghesi Développeur
[janvier-juin 99]
.Chercheurs stagiaires et
étudiants
Bruno Auzet ENS
Louis Lumière
Alban Bassuet ENS
Louis Lumière
Laurent Cerveau Université
Paris VI
Federico Cruz Université
du Maine
Vronique Larcher Université
Paris VI
Guillaume
Vandernoot Université
Paris VI
. Collaborations internes
René
Caussé Acoustique
instrumentale
Louis Dandrel Design
sonore
Nicolas Misdariis Design
sonore
Cécile Lenoir Design
sonore
Serge Lemouton Production
Manuel Poletti Production
. Collaborations externes
Chrysanthie
Nathanail L.A.M.
Marc Emerit Cnet
Jean-Marc Jot Creative
Advanced Technology Center