WFS : 3ème journée d’acoustique virtuelle

Le 7 juin 2011 s'est déroulée une journée de rencontre autour de la WFS, conjointement organisée par Euphonia et le CFPTS 

Thème de la journée : la WFS (Wave Field Synthesis)


La Wave Field Synthesis propose, sur la base d’un réseau de haut-parleurs, la construction d’un champ sonore non pas en adoptant une perspective particulière, mais en déployant des sources virtuelles synthétisées autour des auditeurs. Le résultat est que le champ sonore est perçu comme stable par l’ensemble de l’auditoire. Cantonnée il y a peu de temps encore aux seuls laboratoires de recherche, la technique acquiert aujourd’hui une maturité qui la propulse en situation de production.

L'objet de cette 3° journée d’acoustique virtuelle, conjointement organisée par Euphonia et le CFPTS, était donc de faire le point sur l’actualité et le devenir de cette technique par le biais d’une série de présentations et d’écoutes de contenus variés, dans le contexte du spectacle vivant.

L’événement s'est déroulé en 2 demi-journées au programme identique, accueillant chacune une cinquantaine de participants, préalablament inscrits sur le site d’Euphonia.


Le déroulement des séances

Présentations

  • Après le mot de bienvenue prononcé par Sébastien Noly, référent pédagogique secteur son du CFPTS, modérateur et co-organisateur de la journée, Arnault Damien, a fait, au nom d'Euphonia, une présentation de l'offre actuelle de WFS de sonic emotion pour l'audio pro, en attirant naturellement l'attention des auditeurs sur les avantages de cette technique.


  • Accéder à une version pdf de la présentation


  • Markus Noisternig, de l'RCAM, a pour sa part, présenté les activités de l'institut de recherche autour de la WFS; l'IRCAM a participé, au travers du projet Carrouso, dans les années 2000, à d'importants développements de ces techniques, jusqu'à son utilisation à Avignon dans la cour du Palais des Papes en 2010. Il a également présenté son utilisation dans des applications interactives.


  • Etienne Corteel, principal développeur chez sonic emotion, a enfin présenté, outre l'historique de la société et ses activités dans le domaine des applications grand public, les évolutions futures des techniques pro, à savoir : à court terme : intégration de la composante verticale et à moyen terme : déploiement d'outils de mise en espace acoustique (gestion de l'effet de salle).


Après une conviviale pause café, l'heure des écoutes, moment de vérité attendu, est venu...

  • Arnault Damien a dans un premier temps fait entendre 2 pièces pour flûtes à bec de Marcelo Milchberg spatialisées en sources virtuelles WFS, la première pour flûté soprano seule, "Prélude à Wang Fô", la seconde, "Fugue Wang Fô", pour 5 flûtes basses qui dialoguaient de manière fuguée.

  • Les auditeurs ont ensuite pu juger de la capacité du système à reproduire des mixages réalisés en 5.1, sur des extraits de pièces éxécutées par la classe de jazz du CNSMDP, enregistrés et mixés par JM Lyzwa, ingénieur du son au CNSMDP qui a accepté leur diffusion (qu'il en soit remercié).

Les auditeurs, en se déplaçant, ont pu juger de la stabilité des images sonores produites et de la vaste étendue de la zone d'écoute.

Un autre effet bénéfique remarqué par de nombreux auditeurs est l'absence d'effet de masquage des auditeurs entre eux, ceci étant imputable à la mise à contribution de plusieurs enceintes acoustiques pour reproduire chaque source virtuelle.


  • Cécile Le Prado, que nous remercions également, nous a permis d'entendre un extrait de son "Triangle d'incertitudes", dans une version sur 6 sources virtuelles réparties en hexagone, obtenues par décodage du mixage ambisonique.

  • Quelques minutes du documentaire “Je vous écris du Havre”, ré́alisation : Françoise Poulin Jacob, enregistrement des sons et mixage version ambisonique Jean-Marc L’Hotel, ont ensuite été projetées; cette version de mixage du film permet d'interroger sur les rapports entre univers visuel, délimité par un cadre (celui de l'écran) et univers sonore qui ici emplit tout l'espace et place le spectateur au coeur d'un univers au pouvoir évocateur extrêmement puissant.

  • Etienne Bultingaire nous a enfin fait l'honneur et la joie d'une performance musicale en direct, ou plus exactement 2 : une le matin, une l'après-midi. Les sources sonores, captées sur scène en très grande proximité, étaient mises en espace et leurs déplacements gérés à la souris dans le logiciel Wave Performer de sonic emotion depuis la régie. Démonstration a été faite de l'intérêt du système pour les formes artistiques mettant en jeu des sources sonores spatialisées.


Le dispositif


La gestion de la mise en espace était assurée par un seul processeur sonic emotion Wave 1, en mesure de gérer 16 sources en entrée vers les 24 sorties, associé à un convertisseur analogique-numérique SSL Aphalink, les 2 dialoguant via liaison MADI. La diffusion sur haut-parleurs était assurée par 22 enceintes large bande suspendues à un truss d'une dizaine de mètres de côté installé dans le grand plateau du CFPTS et 2 subwoofers répartis comme suit :

  • 10 Tannoy V8 régulièrement réparties en rampe frontale, placées en partie derrière l'écran de projection
  • 12 Tannoy Precision 8 réparties en 3 groupes de 4 pour les côtés et les arrières
  • l'amplification était assurée par 6 amplificateurs Labgruppen iP 1150 à canaux
  • 2 Subwoofers L-acoustics amplifiés placés de part et d'autre de l'estrade

Retour vers la page de présentation du processeur de Wave Field Synthesis

Vers le site du CFPTS