Comme promis la suite !
LA journée à l’IRCAM sur la spatialisation sonore.
Arrivé un peu en avance le matin et attendant mes amis kokoa et pdobdob du forum AudioAddict, je remarque que plusieurs personnes se présentent à l’accueil pour donner leur nom à une charmante hôtesse qui s’empresse de vérifier qu’ils sont bien sur LA liste…
Intrigué je m’approche pour demander le pourquoi de cette liste et on me réponds : « C’est pour ceux qui se sont inscrit à l’atelier d’écoutes de 17H »
Ah bon , il fallait s’inscrire ? …
La gentille hôtesse me propose de marquer mon nom dans l’absence éventuelle de quelqu’un. Soit. Mes deux amis arrivent et nous descendons pour assister aux conférences du matin. Je découvre pour la première fois le fameux « Espace de projection » et son acoustique variable, un peu trop réverbérante à mon goût ce jour là (Plafond trop haut ? Trop de réflexions et pas assez d’absorption ou de diffusion ?)
Concernant les conférences du matin, on a pu entre autre découvrir les outils de composition sonore et de spatialisation de l’IRCAM, notamment les plugins IRCAM TOOLS réalisés en partenariat avec la société :Flux: et un aperçu (théorique uniquement) du Wave Field Synthesis et de la prise de son en Ambisonic.
Première conférence après celle d’introduction et c’est d’abord Olivier Warusfel de l’IRCAM qui nous a dressé un portrait des différents formats multicanaux, essayant de nous faire comprendre les distinctions entre Son 1D, 2D et 3D (ce que ce terme peut être est à la mode en ce moment…).
Pour faire simple, la stéréo est considérée comme du 1D, les systèmes multicanaux 5.1, 10.2, 22.2 et même la WFS sont des systèmes 2D, mais par contre le binaural et l’HOA (higher order ambisonic) sont considérés comme des systèmes 3D.
S’en suit une rapide explication de ce que sont la WFS, l’Ambisonic et l’HOA.
Enfin il nous expliqué comment à l’IRACM les chercheurs/musiciens géraient les espaces sonores, soit par le biais de la convolution avec des IR pré enregistrées, soit par la modélisation virtuelle d’espaces acoustiques un peu comme on le ferait en acoustique architecturale avec à la fin une réverbération calculée par le biais d’algorithmes et enfin comment certains de leurs outils leur permettent de gérer les panoramiques ainsi que la synthèse sonore (avec des outils comme MAX/MSP ou équivalents).
Tout ça nous amène à la présentation du SPAT de l’IRCAM et fait une transition habile avec la conférence suivante animée par Gaël Martinet de la société :Flux: et Frederick Rousseau de l’IRCAM au sujet des fameux IRCAM TOOLS.
En bref, pas de grandes nouveautés par rapport aux informations que l’on peut déjà trouver sur le net au sujet de SPAT, VERB et TRAX, on quand même eu droit à une petite démonstration des possibilité de SPAT et ma foi ça ouvre un assez large éventail de possibilités, je pense en particulier au travail du Son à l’image (possibilité de définir la diffusion d’une source sonore et liberté totale pour la placer dans l’espace par exemple).
La conférence suivante avait pour titre : « Captation et traitement des scènes sonores en Ambisonics ». Vaste programme !
C’est Markus à Noisternig, de l’IRCAM, que revenait la tâche de nous expliquer pourquoi l’Ambisonics est l’un des meilleurs candidats dans le domaine de la captation et du traitement du champ sonore.
D’abord, il nous a montré qu’il fallait distinguer trois grandes familles dans la restitution sonore spatiale :
- La stéréophonie, ses extensions surround et le VBAP (Vector Base Amplitude Panning, voir su ce site par exemple :
http://www.acoustics.hut.fi/research/cat/vbap/)
- La synthèse du champ acoustique : WFS, Ambisonics, Boundary Surface Control
- Les techniques Binaurales et Transaurales
Sans rentrer dans des détails que je ne maîtrise pas totalement (corrigez-moi tout de suite si je dis des bêtises) et pour simplifier, l’Ambisonics repose sur la théorie de la décomposition des ondes sonores en harmoniques sphériques. Les micro Ambisonics type Soundfield sont des microphone dits d’ordre 1, ordre minimum pour pouvoir commencer à recréer le champ sonore. (l’ordre 0 correspond au microphone omnidirectionnel et l’ordre 1 au microphone bidirectionnel, les autres directivités comme la directivité cardioide résultant de l’addition ou de la soustraction des deux autre).
La conférence allait bien sûr plus loin en nous présentant les systèmes d’ordre supérieur, ceux qu’on appelle HOA ou High(er) Order Ambisonics, exemple concret l’Eigenmike (plus certains prototypes pas encore sortis des laboratoires). Les recherches dans ce domaine montrent qu’il faut des microphones d’ordre 3 au moins pour commencer à avoir une représentation correcte du champ sonore. Ce qui signifie forcément plus de canaux à enregistrer car on est loin des 4 capsules des Soundfield (32 capsules pour l’Eigenmike).
Je m’arrête ici sur le sujet car bien qu’extrêmement intéressant il est au demeurant fort complexe et de toute façon je compte mettre en ligne les photos que j’ai prise (des captures d’écran en somme !) et qui illustreront mieux tout cela.
Dernière conférence du matin, Jean Bresson, autre représentant de l’IRCAM qui lui nous a parlé de « L’écriture de la spatialisation en composition assistée par ordinateur ».
Là encore une image vaut mieux que mille paroles, je vous renvoi donc au diaporama en ligne. Brièvement, focus sur la composition assistée par ordinateur à l’aide de solutions maison comme le logiciel OpenMusic (encore une fois similaire dans sa présentation à MAX/MSP) qui effectue entre autre des opérations de synthèse, de re-synthèse, de spatialisation avancée, etc…
Quelques exemples sonores avec des sons qui tournaient de plus en plus vite et de plus en plus vite et de plus en plus vite…bref, de la musique concrète voire savante, un peu trop savante pour moi hélas mais quand même digne d’intérêt, ne serait-ce que pour le côté « recherche » de la chose .
Ha oui ! J’allais presque oublier, avant de terminer sur la partie du matin, de vous parler du système de diffusion. Ce dernier était composé de 11 enceintes au total (12 en fait mais celle qui était suspendue au milieu du plafond n’émettait rien à priori) 5 frontales espacées apparemment de 30°, 2 side, 2 surround et enfin 2 en hauteur. Les sons étaient diffusés par le biais d’un lecteur Blu-Ray (pour les conférences de l’après-midi) et d’ordinateurs reliés à des cartes son que j’ai cru reconnaitre comme étant des RME Fireface 800 et 400.
Il y avait bien aussi un système (ou plus LE système) WFS mais malheureusement il était en mode « tu peux pas test ! »…
La matinée de conférences s’est terminée par une petite synthèse animée par Jean-Philippe Boisson, directeur de la SAE Paris.
Au terme de cette matinée kokoa et moi-même retrouvons Dorian et haleks pour déjeuner et débriefer un peu avant d’enchainer sur les conférences de l’après-midi.
Suite au prochain épisode...