Caractérisation des signaux sonores
Le travail de thèse de S. Rossignol (contrat CTI-CCETT) concerne
la
caractérisation -- c'est-à-dire la segmentation et l'indexation
-- des
signaux sonores musicaux, aussi bien pour des applications multimedia
que pour des manipulations de sons. Jusqu'en avril 1999, le travail
s'est poursuivi à
Supelec -- Campus de Metz, en vertu de la collaboration menée
avec le
CCETT et Supelec. Ensuite, le travail de recherche
s'est poursuivi à l'IRCAM . Il a concerné la détection
de la polyphonie ; l'étude
des corrélations entre les fonctions d'observation (par exemple
celles
qui sont utilisées pour la segmentation voix parlée/musique),
ceci
principalement dans le but de réduire leur nombre, mais aussi
d'essayer
de les caractériser psycho-acoustiquement; et la separation
de sources.
Un système de segmentation et d'indexation, quasi complet, a
dès lors
été défini. Ce système a fait l'objet de
deux présentations, l'une lors
de la réunion des théoriciens des circuits de langue
francaise (RTCLF)
en octobre, et l'autre lors de la réunion du groupe Européen
CUIDAD de décembre.
Les travaux sur la détection du vibrato,
l'estimation de ses paramètres
et sa suppression du trajet de la fréquence fondamentale ont
donné lieu à une
communication internationale, DAFX99, en décembre [Rossignol99a].
Ils font partie
intégrante du système de segmentation et d'indexation,
d'abord puisque
l'étiquette << signal avec vibrato/signal sans vibrato
>> est l'un des
index proposés dans le systeme, et ensuite parce que la suppression
du
vibrato est nécessaire pour la segmentation [Rossignol99a].
Un article a été accepté pour publication dans
la revue "Journal of New Music Research", concernant la
caractérisation des signaux sonores musicaux.
Le système de segmentation et d'indexation étant défini,
la rédaction de
la thèse a pu commencer dès juin. Le pré-rapport
de thèse a été envoyé
aux membres du jury en novembre. La thèse sera soutenue au début
de l'année 2000.
Responsable : Rodet X.
Participant : Rossignol S. (thèse)
Collaborations externes : Soumagne J. (Ecole Supélec-Metz),
Philippe P. (CCETT-CNET)
Etude de Descripteurs de sons stationaires
Ce travail a été mené par Geoffroy Peeters
en collaboration avec le Département Valorisation,
le Département PCM (Perception et Cognition Musicales, A. de
Cheveigné) et l'Institut Audiovisuel de l'Université Pompeu
Fabra de Barcelone [Peeters99c]. Il est effectué dans le cadre du
groupe Européen CUIDAD et pour le développement du standard
MPEG-7. Il s'agit de définir le standard de description du contenu
Audio des médias Audio - Visuel. Cela se fait souns forme de descripteurs
(Descriptors), de schémas de description du contenu des données
et de relations entre les descripteurs (Descriptor Schemes) et de language
de description des données (Data Description Language), par exemple
fondé sur XML.
L'Ircam a établi des propositions et entrepris des validations
des propositions à travers une phase d'expérimentation (Core
Experiment) sur la description du timbre des instruments (Core Experiment
on Timbre Similarity). Cette procédure permet de comparer la structure
fine de sons quelque soit la classe d'appartenance du son (famille d'instruments).
Ce travail est fondé sur des base perceptives (expériences
psycho-acoustique sur la percpetion du timbre, collaboration avec l'équipe
PCM)
Quatre espaces de similarité ont été définis
suivant les caractéristiques des sons. Le premier est défini
par les caractéristiques: Harmonique, Tenu, Cohérent.
Le second est défini par les caractéristiques: Non-Harmonique,
Tenu, Cohérent. Le troisième est défini par la caractéristique:
Non-Tenu. Le quatrième est défini par les caractéristiques:
Tenu, Non-Cohérent.
Les dimensions perceptives les plus importantes ont été
déterminées suivant les dimensions perceptives principales
extraites dans des expériences de Krumhansl, McAdams et Lakatos
notamment.
L'analyse du son permet d'obtenir des descripteurs temporels et fréquentiels
de bas niveau tels que le logarithme du temps d'attaque, le centre de gravité
du spectre, la durée effective ou la déviation standard du
spectre.
L'étude des corrélations de ces paramètres du
son aux dimensions perceptives a permis la création d'un modèle
de distance perceptive entre les sons [Peeters99d]. L'ensembles de ces
travaux a été proposé dans les conférences
MPEG-7, Lancaster, Février 1999, Vancouver, Juillet 1999, Melbourne,
Octobre, Hawaii, Décembre 1999
(http://www.ircam.fr/produits/techno/multimedia/Cuidad//Internal/MPEG7_interne.html)
Responsable : Puig V.
Participant : Peeters G. (thèse)
Collaborations internes : Département Valorisation, de Cheveigné
A. (équipe Perception et Cognition Musicales)
Collaboration extérieure : Herrera P. (Institut Audiovisuel
de l'Université Pompeu Fabra de Barcelone)
Etude du rôle des transitions entres notes dans la reconnaissance des instruments
Cette étude a été menée en collaboration avec l'Equipe Perception et Cognition Musicales par un stagiaire de DEA Sciences Cognitives (S. Dupuis). Le buit est d'examiner de façon critique les rôles respectifs des parties tenues et des transitions des notes de musique dans la reconnaissance de l'instrument qui les joue. Des expériences psycho-acoustiques ont montré le rôle non-négligeable des transitions entres notes dans la reconnaissance des instruments [Dupuis99a].
Responsable : Rodet X. et MacAdams S.
Participant : Dupuis S. (stage)
Collaboration interne : Equipe Perception et Cognition Musicales
Analyse, modèlisation et synthèse pour une étude expérimentale de bruits de climatisation.
Cette recherche vise à étudier de façon expérimentale
les structures perceptives qui sous-tendent la comparaison et la préférence
de bruits d'unités intérieures de climatisation. Le travail
concernant la perception a été effectué par l'Equipe
Perception et Cognition Musicales (P. Susini). Le travail d'analyse des
signaux, de développement du modèle et de synthèse
a été effectué par un stagiaire dans l'Equipe Analyse
et Synthèse des Sons (I. Perry) [Susini99c].
La première phase a consisté principalement à
déterminer un corpus de sons à partir d'enregistrements de
bruits de différents modèles et marques d'appareils. La constitution
du corpus a été faite de telle manière que la distribution
des sons selon des dimensions continues de l'espace perceptif associé
soit homogène.
A partir du corpus initial, soit 43 sons, un groupe de dix-huit sons
a été sélectionné. Une analyse multidimensionnelle
a révélé la représentation spatiale associée
aux jugements de dissemblance. L'espace ainsi obtenu présente une
répartition des sons déséquilibrée sur chacune
des dimensions.
Afin d'obtenir une répartition homogène des sons suivant
chacune des dimensions, de nouveaux sons ont été crèés
par une technique d'analyse/synthèse. L'analyse des signaux a conduit
au développement d'un modèle ayant une partie tonale (raies
émergentes dues au moteur) et une partie bruitée (due aux
turbulences de la ventilation). Les sons de synthèse peuvent alors
être crèés par interpolation entre différents
sons de l'espace. Ceci est fait en interpolant les enveloppes spectrales
des parties tonales d'un coté et des parties bruitées de
l'autre. La cohérence perceptive des sons de synthèse avec
l'ensemble des sons enregistrés a alors été vérifiée.
Un nouvel espace a ainsi été pronostiqué en projetant
les sons obtenus par synthèse.
Dans la dernière étape, un test de dissemblance à
partir du nouveau corpus de sons a permis de vérifier l'homogénéité
de la répartition des échantillons sur les dimensions perceptives.
Responsable : Rodet X. et MacAdams S.
Participant : Perry I. (stage)
Collaborations internes : Susini P. (équipe Perception et Cognition
Musicales)
Collaboration extérieure : EDF
Recherche d'extraits sonores dans une large base de données
Ce travail de stage a étudié la reconnaissance d'extraits
sonores dans une très large base de données d'oeuvres sonores,
d'une
taille équivalente à celle de 15000 CDs (soit 15000 heures
de musique). Il s'agit de retrouver l'oeuvre et la position dans l'oeuvre
d'un court extrait d'une de ces oeuvres.
L'une des conséquences du développement
des techniques de numérisation et du multimédia est la très
forte utilisation d'oeuvres musicales sans autorisation. Il en résulte
une nouvelle difficulté pour tous les organismes chargés
de collecter les droits d'auteurs, puisqu'il faut être en mesure
d'identifier ces utilisations, en particulier sur les réseaux numériques
interactifs tel Internet, afin d'effectuer de façon satisfaisante
la perception et la répartition des rémunérations
dues aux auteurs. Ainsi, à l'heure où la transmission et
la reproduction d'oeuvres musicales sont à la portée de tout
possesseur d'ordinateur personnel relié au réseau Internet,
on peut imaginer qu'un logiciel de reconnaissance d'extraits sonores dans
une base de données puisse résoudre ce problème.
Plus précisément, étant donné
un court extrait (typiquement dix secondes) d'une des oeuvres, il s'agit
de retrouver l'oeuvre et la position dans l'oeuvre de cet extrait. Pour
cela, chaque oeuvre et ses différentes parties sont caractérisées
par un code sonore, c'est-à-dire des paramètres spécifiques
en nombre suffisamment réduit. Ces codes sonores sont ensuite classés
sous forme hiérarchique de façon à permettre une recherche
et une comparaison rapides de l'extrait inconnu avec l'ensemble des oeuvres
de la base. Enfin, un programme de recherche dans la base de données
a été écrit. Il est capable, à partir d'un
extrait d'une dizaine de secondes issu d'un des compacts disques de notre
base, de retrouver l'oeuvre et la position dans l'oeuvre de cet extrait
dans un temps raisonnable (quelques minutes). Une seconde partie du stage
a porté sur l'amélioration des performances du programme
de recherche dans la base, notamment lors des procédures de sélection
de caractéristiques et de classification qui sont, bien entendu,
intimement liées l'une à l'autre. Pour cela, les composantes
les plus pertinentes du code sonore sont sélectionnées. Ensuite,
un nouvel algorithme de classification nettement plus rapide a été
écrit en mettant en oeuvre des procédures d'optimisation.
Responsable : Rodet X.
Participant : Worms L. (stage)
Collaborations internes : Rossignol S., Peeters G. (équipe Analyse
et Synthèse Musicales)
Analyse sinusoïdale
L'analyse sinusoïdale est une méthode désormais classique
qui permet de décrire avec succès une large classe de signaux
sonores. Néanmoins, les algorithmes d'analyse couramment utilisés
souffrent de certaines limitations. En particulier, le modèle qui
sous-tend la plupart de ces algorithmes exige que les fréquences
et les amplitudes des sinusoïdes varient lentement au cours du temps,
ce qui n'est pas toujours le cas. Certaines améliorations ont été
proposées, afin de tenir compte de variations plus rapides des sinusoïdes.
Pour cela, des paramètres supplémentaires doivent être
introduits dans le modèle, au risque de perdre en robustesse.
Le travail effectué au cours d'un stage de
DEA [Corson99a] a conduit à proposer une formulation du modèle
sinusoïdal qui permet d´étudier plus en détail
le problème de la régularité des sinusoïdes et
la fiabilité de l'analyse. Ce modèle est invariant par modulation
linéaire de fréquence et par changement d´échelle.
Il conduit à une mesure de l'irrégularité des trajectoires
de fréquence en termes de la dérivée seconde de la
fréquence et de la durée des fenêtres d'analyse, qui
est elle-même ajustée aux modulations d'amplitude. Afin d'assurer
une analyse fiable, on impose que cette irrégularité ne dépasse
pas un certain seuil. Les paramètres du modèle sont alors
extraits en utilisant un algorithme de suivi de partiels adaptatif.
La méthode d'analyse obtenue n'est pas encore
parfaitement satisfaisante, mais il semble qu'une étude plus complète
du modèle proposé permette de s'en rapprocher. Cette étude
se poursuit dans le cadre d'une thèse.
Un des principaux inconvénients de la méthode
précédente est que le seuil de régularité imposé
aux sinuoïdes l'est encore de manière arbitraire, ainsi que
le pas de temps du suivi de partiels. Une étude approfondie du modèle
a permis de déterminer une valeur de ce seuil qui n'est plus arbitraire
mais déterminée en fonction du voisinage de chaque sinusoïde
dans le plan temps fréquence. Il est alors possible de calculer
le plus grand pas de temps qui permette une représentation suffisamment
précise
de la trajectoire de fréquence.
En utilisant ces valeurs, il devrait être
possible de développer un algorithme qui fournisse une analyse fiable
sans intervention de l'utilisateur.
Responsable : Rodet X.
Participant : Corson F. (stage)
Collaborations internes : Peeters G. (équipe Analyse et Synthèse
Musicales)
Analyse-Synthèse PSOLA et Additive
Au cours de l'année 1999, trois grands axes de recherche ont
été traités dans le cadre de la thèse de G.
Peeters [Peeters99a]. Le premier concerne l'étude de l'estimation
de la
sinusoidalité. L'utilisation des décalages fréquentiels,
obtenus par
ré-assignement des points du spectre par calcul de l'évolution
temporelle du spectre de phase, a donné lieu à une nouvelle
méthode
rapide de détection des composantes sinusoidales.
Le deuxième axe de recherche concerne le
développement d'un
nouveau modèle sinusoidal [Peeters99a]. Celui-ci inclut, dés
l'analyse,
l'estimation des variations des paramètres du modèle
sinusoidal
(variations de fréquence et d'amplitude) ceci à l'intérieur
même de la
fenêtre d'analyse. Ce modèle, fondé sur l'analyse
des déformations du
spectre complexe, permet une estimation plus précise et apporte
un
gain considérable d'informations pour la création des
trajets de
sinusoides. Un nouvel algorithme de «partial-tracking»
prenant en
compte ces informations a été présenté.
Le troisième axe de recherche concerne la
méthode PSOLA (Pitch Synchronous
Overlapp Add, c'est à dire recouvrement-addition synchrone à
la période fondamentale)
[Peeters99a]. Une nouvelle
méthode de placement des marques basée sur l'analyse
du retard de
groupe et une résolution des contraintes énergie / périodicité
par
minimisation d'un critère d'erreur a été proposée.
Au niveau de la
synthèse, PSOLA bénéficie maintenant de la possibilité
de modifier
l'enveloppe spectrale indépendamment de la fréquence,
ceci grâce à un
algorithme appelé «FS-PSOLA» (pour Frequency-Shift
PSOLA).
Toutes ces innovations ont été rassemblées
dans le cadre d'une méthode
d'analyse / synthèse sinusoidal / recouvrement-addition,
appelée SINOLA [Peeters99a]. Celle-ci traite les différentes
parties du signal en
temps et en fréquence par l'algorithme le plus aproprié
aux
caractéristiques locales du signal.
Responsable : Rodet X.
Participant : Peeters G. (thèse)
Collaboration interne : Gribonval R. (équipe Analyse et Synthèse
Musicales)
Analyse par Matching Pursuit
L'année 1999 a vu la fin de la thèse de R. Gribonval (Ecole Polytechnique) sur l'Analyse-Synthèse par Matching Pursuit et la caractérisation des attaques et transitoires [Gribonva99a]. En utilisant les techniques d'analyse temps-fréquence adaptative par Matching Pursuit développées lors des premières années de thèse, la caractérisation de transitoires de signaux musicaux a été étudiée en termes de chirps (sinusoides de fréquence varible). L'estimation de la pente de composantes localisées dans le plan temps-fréquence (atomes) a facilité largement le regroupement des ces atomes en structures de plus haut niveau, tels que les trajets de partiels, les signaux presque harmoniques ou les attaques en général. Ces méthodes peuvent s'appliquer à l'analyse-transformation-synthèse, à la classification, à la reconnaissance et donc à la recherche dans les bases de données également.
Responsable : Rodet X. et Mallat S.
Participant : Gribonval R. (Thèse)
Collaboration interne : Peeters G. (équipe Analyse et Synthèse
Musicales)
Collaborations externes : Mallat S. et Bacry E. (Ecole Polytechnique)
Synthèse par sélection d'unités sonores et transformation
Les différents aspects de ce travail sont l'estimation, la classification
et la structuration de paramètres, l'utilisation d'une base de donnés
hétérogènes de sons et de caractéristiques,
et une recherche sur la conception et l'architecture logicielles fondées
sur des composants réutilisables
Dans les systèmes de "synthèse de la parole à
partir du texte", une nouvelle technique, nommée "sélection
d'unités", connait un grand succès: en effet, les techniques
précédentes, malgré des dizaines d'années de
recherches intensives n'ont jamais permis d'obtenir une qualité
acceptable; un accroissement de qualité considérable a été
obtenu au contraire par cette méthode. Il est donc fondamental de
chercher comment des méthodes de "sélection d'unités"
peuvent être également appliquées à la synthèse
sonore et musicale de haute qualité. La méthode utilise une
large base de données hétérogène de sons choisis
(soit des notes séparées, soit des phrases complètes)
et de caractéristiques, classés et segmentés suivant
des paramètres estimés sur le signal sonore. Le segment qui
ressemble le mieux - au sens d'un critère donné - au résultat
désiré, est trouvé par des méthodes efficaces
de recherche et d'extraction utilisées par l'algorithme de sélection
d'unités. Pour répondre aux exigences concernant les paramètres
de synthèse nécessaires, le segment sonore trouvé
est transformé par des techniques temporelles ou fréquentielles
de re-synthèse telles que PSOLA, re-synthèse additive, vocodeur
de phase et filtrage. Le segment sonore est enchaîné avec
les segments trouvés pour les autres parties du signal à
construire, en appliquant des techniques d'interpolation pour former les
transitions, et des transformations de niveaux plus élevés.
L'analyse des signaux choisis pour la constitution de la base de données
(segmentation et classification automatiques), et l'extraction des paramètres
utilisent des méthodes de pointe de traitement du signal (estimations
statistiques, etc..), de traitement des données (arbres de classification,
analyse factorielle, etc..), et d'intelligence artificielle (réseaux
de neurones, modèles de Markov cachés, algorithmes génétiques,
etc..). Pour faciliter les recherches et développements en collaboration
inter-équipes et en regard d'une applicabilité facile au
marché multimédia en croissance rapide, des interfaces et
formats d'échange ouverts et standardisés seront développés
et utilisés. La clé de la réussite du développement
d'un système logiciel complexe comme proposé, est de le fonder
sur les principes du génie logiciel. L'architecture du système
logiciel sera établie selon une conception orientée-objet
et consistera de composants réutilisables pour un développement,
une flexibilité et une maintenance améliorés.
Responsable : Rodet X.
Participant : Schwarz D. (thèse)
Collaboration interne : Peeters G., Rossignol S. (équipe Analyse
et Synthèse Musicales)
Systèmes dynamiques et modèles physiques de trompette
L'année 1999 a vu s'achever la thèse de Christophe Vergez
[Vergez00a]. Le document de
thèse est intitulé "Trompette et Trompettiste: un système
dynamique non
linéaire analysé, modélisé et simulé
dans un contexte musical".
Le but de ce travail est de proposer un modèle physique de la
production du son pour les instruments de musique de type
trompette. L'aboutissement de cette recherche permet de fournir au
musicien un véritable
instrument de musique reproduisant le comportement d'un cuivre, tout
en offrant des libertés et des possibilités d'expression
nouvelles. La
réalisation de cet objectif nécessite une approche pluridisciplinaire
articulée autour de mesures, de modélisation et de simulations
numériques.
Il est montré qu'un modèle simple,
complété par des relations
semi-empiriques, reproduit une grande partie des comportements de la
trompette. De même, certaines relations empiriques
peuvent être justifiées par la prise en compte d'hypothèses
plus
complexes. Une interface de contrôle, permettant l'interaction
en
temps réel avec le modèle, met en évidence sa
richesse de
comportements et rend possible son utilisation dans un cadre musical.
Un étude théorique du modèle selon le formalisme
des systèmes
dynamiques a été également menée.
Elle permet d'expliquer,
d'identifier ou même de prévoir certains comportements
du modèle, ce
qui est nécessaire pour une utilisation musicale.
Ont été étudiées, en particulier, les différentes
bifurcations depuis le point fixe jusqu'aux oscillations quasi-stationaires
et au chaos qui apparait dans le modèle.
La collaboration avec S. Serafin (Cf. ci-après)
sur les modèles physiques de
violon s'est concrétisée par un article à l'ICMC
(Beijing). Cet article
présente des résultats de simulation obtenus avec un
modèle de friction
plus complexe que ceux habituellement utilisés en synthèse
sonore.
Le travail entrepris avec Thomas Hélie (qui
poursuit sa thèse dans
l'équipe) concernant l'inversion du modèle physique de
trompette a donné
lieu à deux articles à l'ICMC (Beijing) et au CDC (Conference
on
Decision and Control, Phoenix). Ces deux articles présentent
une méthode
d'inversion développée pendant le stage de DEA de T.
Hélie ainsi que les
premiers résultats obtenus qui valident le principe de la méthode.
Une demande de brevet francais a été
rédigée et déposée. Ce brevet est
relatif à un procédé de simulation de la propagation
non linéaire d'une
onde acoustique (selon l'équation de Burgers sans dissipation)
dans un
résonateur cylindrique de forme quelconque. Ce procédé
a ensuite été
décrit dans un article accepté pour publication dans
la revue "Journal
of Signal Processing".
Un travail sur une interface gestuelle dédiée
aux trompettistes a été
entrepris en collaboration avec Alain Terrier et Patrice Pierrot. Ce
travail a abouti à la réalisation d'un premier prototype.
Le développement
de cette interface se poursuit.
Deux articles co-écrits avec X. Rodet, on été
publiés dans un numéro
spécial de "Computer Music Journal" consacré à
l'Ircam [Rodet99a, Rodet99b]. Un article a été accepté
pour publication dans la revue "Acustica united with Acta Acustica", concernant
la prévision théorique du comportement du modèle de
trompette par application du théorème de Hopf. Enfin la thèse
de Stéphan Tassart a été soutenue à l'Ircam
en Décembre 1999 [Tassart99a].
Responsable : Rodet X.
Participant : Vergez C.
Collaborations internes : Serafin S. et Hélie T. (équipe
Analyse et Synthèse Musicales), Terrrier A. (Atelier de Mécanique),
Pierrot P. (Service Informatique), Caussé R. (équipe Acoustique
Instrumentale)
Méthodes d'inversion de systèmes dynamiques,
modèles de la production de la voix et d'instruments de musique
Au cours du stage de DEA de T. Hélie en 1998 [Helie98b], plusieurs
méthodes d'inversion d'un modèle physique ont été
testées. Il s'agit de retrouver les paramètres d'un modèle
(le jeu d'un instrument) lorsque sa sortie (le signal sonore) est connue.
De telles méthodes sont extrêmement prometteuses mais difficiles
à mettre en oeuvre, tant pour des raisons théoriques que
pour des problèmes de stabilité, de précision numérique
et de résistance au bruit [Helie99a] et [Helie99b]. Ce travail a
été poursuivi dans une
thèse ATS qui a débuté en octobre 1999 et
a pour but de mettre
au point des outils d'estimation automatique des paramètres
et/ou des
entrées de systèmes dynamiques non-linéaires représentant
l'appareil
phonatoire et des instruments de musique. L'intérêt est
de construire des
méthodes d'analyse de modèles physiques, modèles
qui ont l'avantage d'engendrer
directement les caractéristiques sonores de l'instrument, et
leurs variations
(telles que les attaques et transitoires).
Durant les premiers mois de cette thèse, une étude bibliographique
sur la modélisation
physique d'instrument, sur les sytèmes dynamiques et sur la
commande optimale a été commencée.
D'autre part, plusieurs contacts ont été pris avec l'INRIA,
les Mines de Paris et l'ENST,
dans le but d'éventuelles collaborations au cours de la thèse.
Responsable : Rodet X.
Participant : T. Hélie
Collaboration interne : Vergez C. (équipe Analyse et Synthèse
Musicales)
Oscillateur non-linéaire modèle du violon
L'année 1999 a vu le début de la thèse de S. Serafin
sur un modèle
non-linéaire de Violon et son contrôle gestuel. Le travail
a commencé
avec l'amélioration du modèle simple implémenté
pendant son stage de DEA Atiam sur la base des travaux
de McIntyre, Schumacher and Woodhouse dans les années
80.
En particulier, l'étude a porté sur l'estimation plus
précise des paramètres connexes à la partie linéaire
du modèle (filtres des pertes au niveau du chevalet et du sillet)
et la partie non-linéaire (interaction entre la corde et l'archet).
Une partie du travail a été focalisé sur l'étude
de differents modèles
de friction pour modeéiser l'interaction corde-archet [Serafin99a].
En particulier, une solution analytique a été trouvée
pour le modèle
classique, qui considère que la friction dépend seulement
de la vitesse
relative entre la corde et l'archet. Cette solution analytique améliore
considérablement
l'efficacité du modèle dans le cadre d'une implementation
en temps-reel.
En plus, d'autres modèles de friction ont été
etudiés , comme le modèle de
Dahl, qui considère les micro-déplacements entre objets.
Ce modèle est capable de reproduire le cycle d'hysteresis que
l'on voit
dans les expériences avec une vrai violon.
En plus, la jouabilité du modèle a été
etudiée, pour déterminer les
régions de l'espace des parametres où un bon
signal, qui normalment est le mouvement de Helmholtz, est obtenu.
De plus, le violon présente un cas particulièrement intéressant
de problème de contrôle. Le travail a donc porté aussi
sur l'utilisation d'une tablette
graphique avec un stylo qui représente l'archet en collaboration
avec M. Wanderley (Cf. paragraphe Contrôle gestuel). Il apparait
que le stylo est capable de reproduire une partie
des coups d'archet, avec le même type de mouvement que l'on voit
dans
le jeu d'un instrument réel.
Responsable : Rodet X.
Participant : Serafin S. (thèse)
Collaborations internes : Vergez C., Wanderley M. (équipe Analyse
et Synthèse Musicales)
Pendant l'année 1999, M. Wanderley a poursuivi ses travaux de
thèse sur le contrôle de
la musique par ordinateur dans les directions suivantes. Le premier
thème de recherche est l'étude des gestes d'un instrumentiste
en vue de leur modélisation. Plus spécifiquement,
l'étude des gestes d'un clarinettiste pendant le jeu. L'analyse
vidéo de plusieurs séquences
et la discussion sur l'origine de ces mouvements ont été
présentées dans Wanderley99a. L'étude
des gestes dits "instrumentaux" a été développée
en collaboration avec C. Cadoz et est
disponible dans Wanderley99b.
Un autre thème de recherche est l'influence des gestes de l'instrumentiste
dans le son enregistré. Cette étude, menée encollaboration
avec l'équipe Acoustique de Salles a été publiée
dans Wanderley99c.
La modélisation des instruments dits "virtuels" ou composés
constitue également un thème de recherche étudié
en 1999. L'importance de chaque partie de l'instrument - contrôleur,
algorithme de synthèse, lien instrumental a été mise
en valeur dans Wanderley99d. Une implantation de ces concepts a été
faite dans l'environnement de synthèse jMax, de façon à
construire un outil d'expérimentation dans le domaine de l'interaction
homme-machine appliquée à la musique.
En 1999, M. Wanderley a débuté une collaboration avec
l'Université de Nijmegen
(Pays-Bas) sur l'acquisition de positions en 3-dimensions en vue de
la modélisation des mouvements
d'un clarinettiste. Cette collaboration continuera en 2000. Finalement,
pendant l'année 1999, M. Wanderley a co-édité avec
M. Battier le livre électronique "Trends in Gestural Control of
Music". La sortie de ce livre est prévue pour le mois de Mars-2000.
Responsable : Rodet X.
Participant : Wanderley M.
Collaborations internes : Warusfel O. (équipe Acoustique des
Salles), Battier M. (Valorisation)
Collaborations externes : Depalle Ph. (McGill Univ.), Cadoz C. (ACROE),
Vertegaal R. (Twente Univ. - Enschede) et Desain P. (Nijmegen Univ.)
Dispositif de contrôle gestuel
L'étude des dispositifs de contrôle gestuel a été
menée dans le cadre d'une bourse du fond France-Berkeley en
collaboration avec le Cnmat de l'Université de Berkeley. Des dispositifs
de contrôle, comme une tablette Wacom, sont connectés à
des algorithmes de synthèse temps-réel sur station SGI ou
sur Macintosh. Cela permet d'explorer l'importance du geste au cours de
l'exécution musicale en situation déterminée, et l'adéquation
de divers types de gestes à divers types de contrôle. Ce travail
a été mené par deux stagiaires et en collaboration
avec le travail de thèse de M. Wanderley sur le geste musical:
Une étude de contrôleurs gestuels a été
développée en collaboration avec X. Rodet
dans le stage de DEA ATIAM de J.-Ph. Viollet et le stage de DESS d'ergonomie
(l'Université
Paris V) de F. Isart. Cette étude a été développée
à partir des travaux de R. Vertegaal à l'Université
de Twente aux Pays-Bas et est disponible dans [Viollet99a[, [Isart99a]
et [Viollet99b].
L'utilisation de contrôleurs alternatifs dans le contrôle
d'un modèle physique de violon a été menée
en
collaboration avec X. Rodet, R. Dudas dans le cadre de la thèse
de Doctorat de S. Serafin. Cette
démarche a été présentée dans [Serafin99b].
Enfin, C. Vergez a développé un interface gestuel de
contrôle pour le trompettiste qui vient complémenter
son travil de thèse sur un modèle de trompette (voir
le paragraphe Systèmes dynamiques et modèles physiques
de trompette) en collaboration avec Alain Terrier et Patrice Pierrot.
Responsable : Rodet X.
Participants : Viollet J.-Ph. (stage) et Isart F. (stage)
Collaborations internes : Wanderley M. et Serafin S. (équipe
Analyse et Synthèse Musicales)
Collaboration externe : Wright M. (Cnmat, Université de Berkeley)
3.2.1 Le format de fichier SDIF
SDIF est un standard de format de fichiers de paramètres d'analyse
et de synthèse (Exemples: FFT, additive, filtres, fondamental...)
pour différents logiciels et différents centres de recherche
(Cnmat, Université de Berkeley, CCRMA, Université de Stanford,
IUA, Université de Barcelone, etc., plus de 13 Centres). Le standard
SDIF est élaboré en collaboration notamment avec le CNMAT,
Berkeley. En 1999, le développement de ce standard et de la
bibliothèque ont
été poursuivis (http://www.ircam.fr/sdif). La nouvelle
version de la bibliothèque devrait, très prochainement, être
mise en accès libre (non-commercial) sur le serveur de l'Ircam.
Pari les nombreux dévelopements effectués a l'Ircam par D.
Schwarz, on peut citer l'intégration du format SDIF pour écriture
et lecture dans la bibliothèque Pm (http://www.ircam.fr/anasyn/pm),
dans le logiciel Additive, dans le logiciel de détection de fréquence
fondamentale f0 , pour la conversion des sorties d'eneveloppes spectrales
de Super VP (I. Perry), la création d'un mécanisme élaboré
de sélection, et d'outils (http://www.ircam.fr/anasyn/sdif/extern/utilities-main.html),
une documentation utilisateur et programmeur détaillée (http://www.ircam.fr/sdif),
l'intégration de la nouvelle version dans Diphones (avec A. Lefèvre)
et des outils de conversion SDIF/ancien-format sur Macintosch (A. Ricci).
De même, un stagiaire de l'ENST, P. Chose a intègré
les entrées/sorties SDIF dans le logiciel HMM (http://iii/analyse_synthese/documentation/docHmmLis/index.html,
Cf. paragraphe Mise au point du logiciel HMM), dans son logiciel
d'analyse PARTIAL++ (http://iii/analyse_synthese/documentation/docPartial++/index.html)
et a développé un logiciel de visualisation graphique de
données SDIF, Sview (http://iii/analyse_synthese/documentation/docSview/index.html).
Responsable : Rodet X.
Participant : Schwarz D.
Collaborations internes : Chose P. et Perry I. (équipe Analyse
et Synthèse Musicales)
Collaborations externes : Wright M. (Cnmat, Université de Berkeley)
3.2.2 Synergie de développement sur Macintosh
Le développement de logiciels constitue une charge de travail extrêmement lourde en termes d'hommes-années. Pour optimiser au mieux ce travail, une stratégie nouvelle sera mise en place en 1999. Les développements sur Macintosh concernant plusieurs logiciels seront traités ensembles, de façon à bénéficier d'une synergie plus efficace et de composants logiciels communs à plusieurs applications. Ce sera le cas en particulier pour le logiciel Diphone et pour la nouvelle version du logiciel AudioSculpt.
Logiciel AudioSculpt
Une toute nouvelle version de ce logiciel a été mise en chantier en 1999. En effet, la version actuelle souffre de nombreux problèmes liés, en particulier à la date ancienne à laquelle elle a été commencée, les sytèmes de développement ayant beaucoup évolué depuis. L'expérience acquise durant des années d'utilisation, pourtant pleine de succès, milite également en faveur d'une refonte importante. Une réflexion de fond, entamée en 1998, a été poursuivie sur l'avenir d'AudioSculpt, sa structure et les plateformes cibles. En collaboration avec les musiciens, les équipes de Production et de Pédagogie ainsi que les nombreux utilisateurs, un nouveau cahier des charges a été élaboré et l'écriture du logiciel a commencé en collaboration avec le développement de Diphone. En particulier, a été repensée l'architecture d'AudioSculpt ainsi que la communication d'AudioSculpt avec d'autres logiciels de l'institut ou externes. Le cahier des charges de la version 2, AudioSculpt V.2 a été écrit par A. Ricci [Ricci99a]. Une bibliothèque de base "formesutils" a été développée par D. Schwarz et A. Ricci. Avec l'aide de D. Schwarz, les logiciels UDI et SuperVP ont été maintenus notamment dans leur installation et dans leurs capacités Cross-Platform.
Responsable : Rodet X.
Participant : Ricci A.
Collaborations internes : Lefèvre A. (équipe Analyse
et Synthèse Musicales), Tutschku H. (département Production)
Collaborations externes : Depalle D. (Université de Montréal),
Lithaud A.
Logiciels Diphone Studio
Le logiciel Diphone a déjà rencontré
un grand succès, notamment pour les oeuvres produites à l'Ircam.
Conformément au plan de développement prévu, des avancées
importantes ont été entamées en 1999, en collaboration
avec les autres développeurs Macintosh, A. Ricci en particulier
pour AudioSculpt. En 1998, les applications AddAn et Diphone représentaient
les deux maillons de la chaine de traitements Analyse, Contrôle et
Synthèse sur Macintosh. AddAn pour l'analyse additive, Diphone pour
le contrôle et ses Plugins pour la resynthèse. Le passage
des données se faisait par fichiers aux formats propriétaires,
puis progressivement par le format générique Sdif. Aujourd'hui
en 1999, cette série est étoffée avec une nouvelle
application d'analyse, ResAn, qui permet l'extraction des modèles
de résonnance et une resynthèse de ces modèles grâce
au synthétiseur Chant. A l'instar du couple AddAn/Diphone pour la
synthèse additive, ResAn/Diphone permet le traitement des modèles
de résonnance. C'est dans ce cadre que le format générique
Sdif prend tout son sens et impose l'échange direct de données
spectrales de manière implicite entre applications. Les composants
AddAn, ResAn et Diphone pour Macintosh sont contruits globalement sur le
même schéma: une interface utilisateur, un générateur
de script, et un système de "shell" qui émule de manière
minimum Unix. En effet, l'équipe Analyse/Synthèse effectue
ses recherches en premier lieu sous environnement Unix. Le développement
d'une API solide (Application Programming Interface) pour porter ces moteurs
de calcul Unix sur Macintosh s'imposait. C'est le cas aujourd'hui, avec
un système multi-consoles/multi-tâches qu'intègrent
les trois applications. Sous l'appellation "Diphone Studio", a été
regroupé l'ensemble des applications et moteurs de calcul d'analyse/synthèse.
Dans cette multitude de types de données différents (spectre,
fondamentale, énergie, partiels, fonction d'onde formantique, etc.)
souvent incompréhensibles pour l'utilisateur nouveau, des fonctions
de haut niveaux sont apportées progressivement dans les interfaces,
notamment par des préréglages de certains paramètres
de bas niveaux, des accès graphiques à tiroir du plus
simple au plus complexe, des retours d'actions immédiats du type
"je fais, j'écoute", etc. C'est ce dernier point qui a amené
à développer des pré-écoutes à synthèse
temps réél dans Diphone. Finalement, avec Sdif, cette série
"Diphone Studio" n'est pas seulement un regroupement d'applications autour
du thème analyse/synthèse, mais plus un environnement intégré
de contrôle de la synthèse dont Sdif est le ciment et qui
mène petit à petit vers la notion beaucoup plus générale
de composant. Enfin trois manuels pour Diphone Studio ont été
écrits en Français par G. Loizillon. Un totoriel décrit
l'utilisation de Diphone Studio [Loizillon99a]. Les analyses addditive
(AddAn), [Loizillon99b], et par Modèles de Résonnance (ResAn),
[Loizillon99c], sont décrites également.
Responsable : Rodet X.
Participant : Lefevre A.
Collaborations internes : Ricci A. et Schwarz D. (équipe Analyse
et Synthèse Musicales), Faia C. et Tutschku H. (département
Production), Loizillon G.
3.2.3 Développements sur Unix: Outils d'analyse et de synthèse
Le développement de divers outils sur Unix sera mené en commun par plusieurs informaticien et stagiaires, avec la même volonté que dans le cas de la plateforme Macintosh, d'optimiser le coût d'écriture logicielle grâce à un travail mieux partagé, des composants logiciels réutilisables et une documentation en ligne et adaptée.
Modèle sinusoides et bruit
La première tâche accomplie est le développement du résultat de la thèse de M. Oudot-Campedel, Étude du modèle sinusoides et bruit pour le traitement de la parole. Estimation robuste de l'enveloppe spectrale [Oudot98a]. Cette thèse est consacrée à l'analyse/synthese des signaux de parole à partir d'un modèle de sinusoides et de bruit et l'application au codage bas débit et aux transformations prosodiques (http://www.ircam.fr/anasyn/oudot/demo.html). Le développement a été assurée par D. Schwarz et vient en complément de son travail de Maîtrise sur les Enveloppes Spectrales et la synthèse du bruit [Schwarz99a]. D'une part les logiciels d'Analyse Synthèse et Transformation Additives issus des travaux de thèse ont été remis en forme, constitués en bibliothèque sous le gestionnaire de version CVS, documentés, installés et délivrés au CNET (http://www.ircam.fr/anasyn/marine/). D'autre part, la partie synthèse a été portée sur le système temps-réel jMax de l'Ircam grâce à une collaboration avec l'équipe Systèmes Temps-Réel (N. Schnell) et testée par S. Lemouton (équipe Production) pour des études sur un opéra de P. Manoury.
Responsable : Rodet X.
Participant : Schwarz D.
Collaborations internes : Schnell N. (équipe Systèmes
Temps-Réel), Lemouton S. (Département Production)
Collaborations externes : Wright M. (Cnmat, Université de Berkeley)
Logiciel Additive
Un travail de développement, de documentation et de mise au point
des logiciels Additive et F0 a été effectué par un
stagiaire de l'Université de Glasgow bénéficiaire
d'une bourse du programme Européen Leonardo (I. Perry). La nouvelle
version de Additive utilisant la bibliothèque Pm (http://www.ircam.fr/anasyn/pm/index.html)
a été mise au point et testée en conformité
avec l'ancienne version qui a donc pu être abandonnée, ce
qui simplifie beaucoup la maintenance et les développement à
venir. Diverses améliorations ont également été
apportées (Perry99a).
http://iii.ircam.fr/analyse_synthese/documentation/Additive_test_script.html
http://iii.ircam.fr/analyse_synthese/documentation/pmformatmix.html
http://iii.ircam.fr/analyse_synthese/documentation/pminterpformat.html
http://iii.ircam.fr/analyse_synthese/documentation/uflag.html
Dans le cadre de ce travail et de la recherche mentionnée dans
le paragraphe Analyse, modèlisation et synthèse pour une
étude expérimentale de bruits de climatisation, I. Perry
a mis au point une méthode d'interpollation de sons utilisant l'interpolation
des enveloppes spectrales des parties tonales d'un coté et des parties
bruitées de l'autre.
http://www.ircam.fr/anasyn/perry/spectralenv/spectralenv.html
http://iii.ircam.fr/analyse_synthese/documentation/spectralenvinterp.html
L'outil d'interpolation (Interpolator) qu'il a ainsi développé
et mis à la disposition des chercheurs et musicien se révèle
extrêmement intéressant pour les sons instrumentaux en particulier
(http://www.ircam.fr/anasyn/perry/interpolator/interpolator.html). Sur
cett URL, on peut entendre des sons instrumentaux et divers sons hybrides.
Participant : Perry I. (stage)
Collaborations internes : Schwarz D. et Chose P. (équipe Analyse
et Synthèse Musicales)
Mise au point du logiciel HMM et autres logiciels associés
Un stagiaire de l'ENST, P. Chose, a refait l'architecture et a mis au point le logiciel de suivi de trajets sinusoidaux par Modèle de Markov Cachés, HMM (http://iii/analyse_synthese/documentation/docHmm.html). Dans le même temps, il a écrit un nouveau logiciel d'analyse additive non-nécessairement harmonique, PARTIAL++ (http://iii/analyse_synthese/documentation/docPartial++/index.html) et a développé un logiciel de visualisation graphique de données SDIF, Sview (http://iii/analyse_synthese/documentation/docSview/index.html).
Responsable : Rodet X.
Participant : Chose P. (stage)
Collaborations internes : Schwarz D. (équipe Analyse et Synthèse
Musicales)
Collaborations externes : Wilson R. (Université de Warwick,
U.K.)
Modèles physiques en temps-réel sous jMax
Le portage sous jMax en temps-réel de deux modèles physiques
mis au point dans l'équipe [Tisserand99a] a été assuré
par un stagiaire de l'Ecole Nationale Supèrieure d'Electricité
et de Mécanique (ENSEM) de Nancy (P. Tisserand) avec l'aide de C.
Vergez et une collaboration avec l'équipe Systèmes Temps-Réel
(N. Schnell). Un modèle de base de clarinette, système dynamique
simple avec une non-linéarité rationelle, une boucle de rétrocation
linéaire, filtre et délai fractionnaire a été
implanté, documenté [Tisserand99b] et testé (E. Daubresse,
équipe Production). Le modèle trompette de C. Vergez (Cf.
paragraphe Systèmes dynamiques et modèles physiques de
trompette , a également été porté
sur jMax [Tisserand99c] et peut être utilisé en particulier
avec des contrôleurs MIDI du commerce come le Yamaha-WX5. A cette
occasion, P. Tisserand a écrit un Guide de l'utilisation de jMax
[Tisserand99d] pour aider les futurs implémenteurs. Enfin, pour
aider à la mise qu point des patchs jMax, P. Tisserand a écrit
un objet jMax qui permet de visualiser graphiquement les signaux transitant
entre les objet jMax, tels que les signaux sonores ou leurs transformées
de Fourier.
http://www.ircam.fr/anasyn/rappTisserand99/index.html
http://iii/analyse_synthese/rapports/rappTisserand99/
Responsable : Rodet X.
Participant : Tisserand P. (stage)
Collaborations internes : Vergez C. (équipe Analyse et Synthèse
Musicales), Schnell N. (équipe Systèmes Temps-Réel)
Analyse en Modèles de Résonnance
Le travail de recherche autour des modèles de résonance a été mené à l'IRCAM en 1985 et 1986 par Y. Potard, P.-F. Baisnée, et J.-B. Barrière. Des outils ont été développés en LISP dans l'environnement CHANT-FORMES pour l'obtention et l'utilisation de modèles. En 1989, une version en C de l'analyse comportant quelques améliorations a été écrite par P.-F. Baisnée. Cette version a été adaptée à l'IRCAM pour fonctionner dans un environnement UNIX ou MPW. En 1999, F. Marti, stagiaire de Master in Digital Arts de l' Institut Universitari de l'Audiovisual (IUA) de Barcelone, a récupéré ce code, l'a déverminé et l'a adapté pour fonctionner dans l'environnement UNIX sous le nom ModeRes [Marti99a]. En plus, il a ajouté de petites modifications et améliorations comme la sortie dans le format SDIF. Adrien Lefevre a adapté ce code pour l'environnement Mac et construit une version pour fonctionner dans le package Diphone Studio comme une nouvelle application d'analyse, ResAn. Le format pour la sauvegarde des modèles de résonance peut être format binaire, SDIF (pour faire la resynthese avec FOF ou Filtres avec CHANT) et ascii (deux formats, l'un avec toute l'information des analyses et l'autre pour utiliser directement le fichier avec MAX. La documention et le mode d'emploi de ModeRes sont disponibles en ligne sur http://www.ircam.fr/anasyn/AnaModRes/anamod.html
Responsable : Rodet X.
Participant : Marti F. (stage)
Collaborations internes : Schwarz D. et Lefèvre A. (équipe
Analyse et Synthèse Musicales)
Synthèse PSOLA temps réel sous jMax
La synthèse PSOLA mise développée par G. Peeters dans sa thèse (Cf. paragraphe Analyse-Synthèse PSOLA et Additive) a été portée en temps réel sous jMax en collaboration avec N. Schnell (Equipe Systèmes Temps Réel). Cet outil d'analyse-synthèse est mis a la disposition des musiciens et en cours d'utilisation, avec l'aide de S. Lemouton (Département Production) pour l'opéra 'K' de P. Manoury, en cours de réalisation.
Responsable : Rodet X.
Participant : Peeters G. (Thèse)
Collaboration interne : Schnell N. (équipe Systèmes Temps-Réel)
Assistantes, secrétaires. Elles apparaissent dans la rubrique
direction scientifique.
Chercheurs invités
Préciser le nom complet de leur institution d'appartenance.
Stagiaires et étudiants
Pour les thésards, préciser : Thèse, si possible
nom de la formation
doctorale, nom de l'université. Ex : Jean
Faitreau Thèse, DEA Atiam, Université Paris 6
Pour les autres préciser si possible le niveau de scolarité(année
d'école, maîtrise, DEA), le cas échéant
le nom
du DEA et le nom de l'école ou université.
Compositeurs en recherche
Autres collaborations (interprètes, consultants, etc).
Responsable : Xavier Rodet
Chargés de recherche : Stéphane Rossignol, Diemo Schwarz
Chargés de développement : Adrien Lefèvre, Alberto
Ricci
Thésards
Stéphan Tassart, DEA Atiam, Thèse Université Paris-6
Geoffroy Peeters, DEA Atiam, Thèse Université Paris-6
Marcello Wanderley, Thèse, Université Paris-6
Stefania Serafin, DEA Atiam, Thèse Université Paris-6
Christophe Vergez, Thèse Université Paris-6
Diemo Schwarz, Thèse Université Paris-6
Thomas Hélie, DEA Atiam, Thèse Université Paris-6
Etudiants
Laurent Worms, stage, ENSP-Marseille
Yvan Perry, Master de l'Université de Glasgow
Francis Corson, DEA Atiam, Université Paris-6
Francesc Marti, Master in Digital Arts de l' Institut Universitari
de l'Audiovisual (IUA) de Barcelone
Philippe Chose, Master de l'Ecole Télécom Paris
Consultants
Alain Lithaud, compositeur
3.4 Informations annexes
3.4.1 Publications
Articles parus dans des revues à comité de lecture
[Rodet99a] X. Rodet and C. Vergez, "Nonlinear Dynamics in Physical Models:
Simple
Feedback-Loop Systems and Properties". Computer Music Journal,
Vol. 23, No 3., pp18:34
[Rodet99b] X. Rodet and C. Vergez, "Nonlinear Dynamics in Physical Models:
From
Basic Models to True Musical Instruments", Computer Music Journal,
Vol. 23, No 3., pp35:49
Ouvrages
...
Direction d'ouvrages collectifs et de numéros spéciaux
de revues à
comité de lecture
...
Chapitres dans des ouvrages collectifs
...
Actes de congrès avec comité de lecture
[Hélie99a] T. Hélie, C. Vergez, J. Lévine, X. Rodet,
"Inversion of a physical model
of trumpet", Proceedings of ICMC99, Beijing, China.
[Hélie99b] T. Hélie, C. Vergez, J. Lévine, X. Rodet,
"Inversion of a physical model
of a trumpet", Proceedings of CDC99, Phoenix, USA, December 1999.
[Peeters99a] G. Peeters, X. Rodet, Non-Stationary Analysis/Synthesis using Spectrum Peak Shape Distortion, Phase and Reassignement, ICSPAT (DSP-World), (Orlando, USA, Novembre 1999).
[Peeters99b] G. Peeters, X. Rodet, SINOLA : A New Method for Analysis/Synthesis using Spectrum Distorsion, Phase and Reassigned Spectrum, ICMC: International Computer Music Conference, (Pekin, Chine, Octobre 1999).
[Peeters99c] Perfecto Herrera, Xavier Serra, Geoffroy Peeters , Audio Descriptors and Descriptors Schemes in the Context of MPEG-7 , ICMC: International Computer Music Conference, (Pekin, Chine, Octobre 1999).
[Peeters99d] Perfecto Herrera, Xavier Serra, Geoffroy Peeters, A proposal for the description of audio in the context of MPEG-7, (CBMI, Toulouse (France), october 1999)
[Schwarz99a] D. Schwarz, X.Rodet , "Spectral envelope estimation, representation, and morphing for sound analysis, transformation, and synthesis.", ICMC: International Computer Music Conference, (Pekin, Chine, Octobre 1999).
[Serafin99a] S. Serafin, C. Vergez, X. Rodet, "Friction and Application
to Real-time
Physical Modelling of a Violin", Proceedings of ICMC99, Beijing, China.
[Serafin99b] S. Serafin, R. Dudas , M. Wanderley , X. Rodet, "Gestural
control of a real-time physical
model of a bowed string instrument", ICMC: International Computer Music
Conference, (Pékin, Chine, Octobre 1999).
[Viollet99b] J.-P. Viollet, F. Isart , M. Wanderley , X. Rodet, "On the Choice of Transducer Technologies for Specific Musical Functions : A study on gestural control applied to sound synthesis". Rapport interne, Novembre 1999. 22 p.
[Wanderley99a] M. Wanderley, Ph. Depalle, O. Warusfel, "Improving instrumental sound synthesis by modeling the effects of performer gesture", ICMC: International Computer Music Conference, (Pékin, Chine, Octobre 1999).
[Wanderley99b] M. Wanderley, "Non-obvious Performer Gestures in Instrumental
Music". - in Gesture-Based
Communication in Human-Computer Interaction: International Gesture
Workshop, GW'99, Gif-sur-Yvette, France, March 17-19, 1999 Proceedings,
pp. 33 - 44, Heidelberg, Allemagne, Springer Verlag, Novembre 1999.
[Wanderley99c] M. Wanderley, P. Depalle, "Controle gestuel de la synthese
sonore". - in Interfaces
Homme-Machine et Création Musicale, pp. 145 - 164, Paris, France,
Hermès Science Publications, Décembre 1999.
Actes de congrès sans comité de lecture
...
Travaux universitaires; ex: mémoires, thèses, habilitations
[Gribonval99a] R. Gribonval, "Approximations non-linéaires pour l'analyse des signaux sonores". - Thèse: Mathématiques Appliquées, soutenue en Septembre 1999, Université Paris IX.
[Tassart00a] Stéphan Tassart, "Modélisation, simulation
et analyse des
instruments à vent avec retards fractionnaires". - Thèse:
ATIAM, Décembre 2000, Ircam.
[Vergez00a] C. Vergez, "Trompette et Trompettiste: un système dynamique non linéaire analysé, modélisé et simulé dans un contexte musical". - Thèse: ATIAM, soutenue en Janvier 2000, Ircam.
[Chose99a] P. Chose, "Développement et mise au point de logiciels d'analyse-synthèse sonore". - Mémoire de stage: Master Télécom, Ircam, Décembre 1999.
[Corson99a] F. Corson, "Etude de l'analyse synthèse sinusoidale". - Mémoire de stage: DEA ATIAM, Ircam, Juillet 1999.
[Dupuis99a] S. Dupuis, "Le rôle des transitions legato entre notes dans la reconnaissance des instruments de musique". Mémoire de stage: DEA Sciences cognitives, Ircam, Juin 1999.
[Isart99a] F. Isart, "Analyse d'une Interface Gestuelle pour le contrôle de la synthèse sonore". - Mémoire de stage: Stage DESS d'Ergonomie Informatique, Ircam, Octobre 1999.
[Perry99a] I. Perry, Development and debugging of
Additive and further analysis/synthesis software
Rapport de stage de l'Université de Glasgow,
Ircam, 1999.
[Tisserand99a] P. Tisserand, "Description des fichiers du modèle physique de trompette ". Rapport de stage: stage de l'Ecole ENSEM de Nancy, Ircam, Juillet 1999.
[Tisserand99b] P. Tisserand, "Documentation de l'objet non_linéarité_rationelle ". Rapport de stage: stage de l'Ecole ENSEM de Nancy, Ircam, Juillet 1999.
[Tisserand99c] P. Tisserand, "Implémentation de Modèles Physiques sous environnement temps-réel jMax". Rapport de stage: stage de l'Ecole ENSEM de Nancy, Ircam, Juillet 1999.
[Tisserand99d] P. Tisserand, "Utilisation de jMax ". Rapport de stage: stage de l'Ecole ENSEM de Nancy, Ircam, Juillet 1999.
[Worms99a] L. Worms, "Recherche d'extraits sonores dans une large base de données". - Mémoire de stage: Diplôme d'Ingénieur de l'ENSPM, Ircam, Août 1999.
Rapports de recherche; ex: rapports de fin de contrat, rapports pour
des instances nationales
[Loizillon99a] G. Loizillon, Diphone Studio
V 2.8, Manuel d'utilisation et tutoriel, Rapport interne,
Ircam, Octobre 1999.
[Loizillon99b] G. Loizillon, "Diphone Studio V 2.8, analyse additive et séquencement, tutoriel". Rapport interne, Ircam, Octobre 1999.
[Loizillon99c] G. Loizillon, Diphone Studio V 2.8, Obtention de Modèles de Résonnance, Rapport interne, Ircam, Octobre 1999.
[Susini99c] Patrick Susini , Stephen McAdams, Ivan Perry, Xavier Rodet
"Etude Psychoacoustique de Bruits d'Unités Intérieures de
Climatisation". Rapport interne, Novembre 1999. 60 p.
Diffusion de connaissances
Interview de Xavier Rodet, Keyboards No. 139, Janvier 2000.
Contrats
Contrat avec le CNET-CCETT : Caractérisation et Segmentation
des sons.
Contrat avec EDF : Analyse, modèlisation et synthèse
pour une étude expérimentale de bruits de climatisation.
Soutenance de thèse
Thèse de R. Gribonval, X. Rodet membre du jury
Thèse de S. Tassart, X. Rodet Directeur de thèse
Thèse de C. Vergez, X. Rodet Directeur de thèse
Jurys d'habilitation à diriger des recherches
Habilitation de C. Montacie, Mars 1999, X. Rodet membre du jury.
Habilitation de M.J. Caraty, Avril 1999, X. Rodet membre du jury.
Cours
Analyse et synthèse de la voix, X. Rodet, Centro Ricerche Musicali, Rome, 19-20 Novembre 1999
Conférences
Démonstrations de Audiosculrt et Diphone à AppleExpo par A. Ricci et A. Lefèvre.
Analyse et synthèse sonore, X. Rodet, Académie d'ete de l'Ircam, 17 et 21 Juin 99.
Outils de traitement du signal sonore et application musicales, X. Rodet, Journées Portes Ouvertes de l'Ircam, Juin 1999.
Emissions de Télévision
Emission pour funTV, "La musique électronique en 2005", X. Rodet, décembre 1999.
Invitation de X. Rodet à l'émission Le CercleDeMinuit,
France 2, 30 mars 99 sur la
synthèse de la voix chantée dans le film Farinelli.
Emission pour la télévision hollandaise VPRO, "La voix
et le vibrato", Avril 1999.
Oeuvres réalisées avec Diphone
D. Cohen : Voile
A. Viñao : Epitafios
J. Wood : Mountain Language
Brevet
C. Vergez et X. Rodet : ``Procédé de simulation de la
propagation non linéaire d'une onde de
pression dans un résonateur'' [n.ref.mf/ema-bff 980272].