Page 3 sur 4

Publié : 28 août 2011, 17:12
par hamanacarcas
Aucun souci Dorian
Pour revenir à mon premier post j'ai testé ma méthode en mettant la perche côté gauche, le cravate côté droit et en envoyant tout ça dans un phase metre. Et bien d'apres mes petites oreilles pas forcement très entrainées à ce genre d'exercice, le résultat m'a l'air pas mal une fois les phases corrigées et le tout remis au centre.
Alors encore une fois je ne suis absolument pas spécialiste mais j'ai bien l'impression que cette méthode peut servir d'aide surtout à un débutant comme moi.

Publié : 29 août 2011, 18:16
par wf
hamanacarcas a écrit : je ne suis absolument pas spécialiste mais j'ai bien l'impression que cette méthode peut servir d'aide surtout à un débutant comme moi.
Alors revenons sur ce qu'est la phase en acoustique,

Longueur d'onde, vitesse de propagation et distance entre deux ou plusieurs micros en sont les clefs.

En résumé et en simplifiant, un signal composé de multiples fréquences sera plus ou moins en phase sur certaines bandes de fréquences par rapport aux distances en question.

Le phasing se situe approximativement entre 3 et 12 millisecondes (à 15 millisec. c'est le début du "fla" pour une batterie ou du doublage pour les voix)

Acoustiquement: fréquences + vitesse du son vont nous donner quelques indications....

On va lire, sur un DAW quelconque, des "images" sinusoïdales, ce qui va nous permettre de remettre en phase des signaux décalés dans le temps... (mais quelles en sont donc ces fréquences ? Sans doute les hauts médium ?)

Bien évidement, cela aura pour conséquence d'augmenter le niveau de la somme des deux micros.
Ainsi que d'en améliorer, apparemment dans la plupart des cas, la couleur...

Bien sûr, depuis l'apparition des HF, il y a des cas (comme celui que raconte Dorian) où il n'y a pas grand chose à faire.
J'ai mixé un film avec cinq comédiens principaux tous équipés de HF toujours en mouvement et caméra à l'épaule aussi toujours en mouvement. Résultat: un mix de merde !
Il y a aussi des HF chers et de qualité et des HF daubesques...

C'est pourquoi il est difficile de généraliser, chaque film demande ses propres recettes et il ne faut pas trop se tromper sur les potions à appliquer...
Quelquefois même, certains enregistrements peuvent paraître médiocres et se révèlent facilement manipulables...
Certains autres semblent de qualité mais se détériorent au fil de la postproduction... :dm1000:

Publié : 29 août 2011, 18:47
par Labroue
Bonjour à tous,

C'est bien vite résumé, cher Willliam. On est d'accord sur le fond.

Je soulignerai quelques points dans un cas simple où il s'agit de mélanger deux microphones :

quand on compense par un délai la proximité du microphone le plus proche, pour que les signaux des deux microphones arrivent en même temps et puissent être confondus, dans l'absolu on est sensé obtenir les deux modulations (formées d'un spectre large) en phase et cela pour toutes les fréquences du spectre sonore. Ce cas n'existe pas, on ne peut s'approcher que très imparfaitement de l'absolu.

On remarquera toujours des différences de phase pour certaines fréquences, même avec un délai parfaitement exacte; pourquoi ? Les causes sont diverses; elles sont surtout acoustiques :

- ce ne sont pas les mêmes microphones, avec pour chacun d'eux leur propre courbe de phase et d'EQ;
- en cas de microphones à gradient de pression, les effets de proximité ne sont pas les mêmes, et sur ce point il y a des variations de phase considérables dans le bas du spectre en dessous de 1kHz;
- la position des microphones est différente pour chacun d'eux, et l'acoustique de la salle leur envoie des premières réflexions bien différentes (dans le temps, car positionné à des endroits différents);
- les obscales proches des sources ou des capteurs vont amener des diffractions entrainant des égalisateurs acoustiques, donc des modifications de phase non-négligeables;

Et aussi, le délai lui-même ne peut pas se maintenir précis au cours de l'évolution de la scène :

- car la perche bouge, alors que le micro de corps est fixe.

Tout ceci pour définir le recalage comme une opération empirique, basé surtout sur l'appréciation de l'esthétique du resultat obtenue.

Bien amicalement.

Publié : 29 août 2011, 19:33
par Foxp2
Et pour ne rien simplifier il y a plus de bruit que d'harmonique, en francais , dans les paroles..d'ailleurs si j'avais ce travail a faire, que le Grand UBU m'en preserve, je fitrerais prealablement les hautes et en basse frequences autour de disons .. au hasard...1khz ...soit la zone ou l'effet du filtre en peigne est la plus sensible..evidement une fois les signaux realignés ne pas oublié de re-ouvrir le filtre :) .

Publié : 29 août 2011, 19:53
par wf
Labroue a écrit :C'est bien vite résumé, cher Willliam. On est d'accord sur le fond.
Oui, Mon Cher Philippe,

J'ai voulu faire simple, donc inexact et en commençant par la lettre A de l'alphabet. :bounce:
Mixeur est décidément un métier bien difficile :wink:

Publié : 30 août 2011, 08:26
par Labroue
Tout cela pour dire qu'il faudrait traiter le problème en deux temps :

1) d'abord déterminer le délai nécessaire le plus juste possible;
2) ensuite essayer de compenser les différences de phase dans les signaux, avec 1, 2 ou voire plus, point de fréquence de rotation de phase constaté.

Enfin, notons que l'on peut faire cette derniere étape que si le délai est exacte et préalablement déterminé.

J'avais tenté cette expérience avec une machine à délai numérique associé à la boite de remise en phase analogique : l'IBP de LittleLabs. Bien qu'étant un sacré casse-tête et peu pratique lors de situation mouvante, j'obtenais un resultat fort intéressant : plus de filtre en peigne résiduel, plus de détimbrage.

Si manuellement il est délicat de processéder avec cette méthode, un plug-ins savamment développé pourrait faire le travail (une sorte de Vocalign qui considérait la compensation de plusieurs rotation de phase aprés avoir déterminé le délai nécessaire) avec une certaine automatisation et précision.

J'aimerais participer à l'idée d'un tel développement.

---

Pourquoi on a du mal à déterminer manuellement le délai ?

On le fait habituellement de manière esthétique, en ajustant finement la valeur du délai pour entendre un moindre mal (le décalage des formes d'onde sur le DAW revient au même).

Or dans cette opération on ne considère pas le redressement les rotations de phase (la 2ème étape) qui viennent s'ajouter au problème de délai. En occultant cela, on ne peut qu'obtenir un compromis d'une valeur de delai plus ou moins valable.

Ce n'est qu'en considérant avec précision les deux étapes que l'on obtiendrait un ajustement exacte. L'informatique apportera une grande aide.

Bien amicalement.

Publié : 30 août 2011, 15:09
par Mix7
Et bien moi qui me retrouve avec 1h30' de film a éditer ...
2 perches, 4 HF et un couple MS

J'ai pas fini !

Effectivement, au vue de ces explications, un plug-in "savamment développé" pourrait m'intéresser :)

A+

Publié : 30 août 2011, 16:34
par bengeron
Un plugin miracle cela ferais beaucoup d'heureux !

Surtout le preneur de son et ses pistes, en cinéma, en docu, en musique ...
Vous imaginez en captation direct pouvoir mettre c'est problème de phase de côté ...
Mais bon c'est aussi et cela a été une partie de notre métier de faire pour un mieux ...
Mais en 2011, avec les processeurs de nos machines, cela serais bien un plugin avec une latence proche de zéro !!!

Je remet quelques liens intra et extra muros !

http://www.sounddesigners.org/index.php ... highlight=

http://www.sounddesigners.org/index.php ... sc&start=0

http://www.sounddesigners.org/index.php ... highlight=

http://www.perchman.com/phorum/read.php ... eply_10628

http://www.perchman.com/phorum/read.php ... eply_17243

a +

Publié : 31 août 2011, 07:29
par hamanacarcas
J'étend un peu le sujet : la remise en phase est elle également nécessaire pour des prises de son musique (une prise de batterie par exemple) ?

Publié : 31 août 2011, 09:43
par Labroue
Bonjour,

C'est un exemple tiré du monde de l'enregistrement de la musique qui ne touche pas forcement celui des sound-designers et de la post-prod, qui néanmoins apporte des éléments de réponse transposables.

Sur une batterie, il n'est pas exclue d'introduire un retard sur la piste du microphone de proximité d'une caisse claire afin de l'aligner avec les overhead. Or on ne le fait pas, pourquoi ?

Le problème de l'enregistrement d'une caisse réside dans la brièveté de son impact, difficilement reproductible si on est pas en pleine dynamique réelle. Et a priori on ne le sera jamais dans le cadre de la reproduction de nos enregistrements sonores, car il faudrait énormément de puissance.

Or on trouve des subterfuges pour étaler le son de l'impact dans le temps, c'est à dire le rendre plus long, plus persistant en augmentant son épaisseur. Il y a beaucoup de méthode inventée, jusqu'à celle d'ajouter un fort taux de distorsion harmonique, méthode très utilisée de nos jours.

Le fait de corriger les délais entre les microphones n'irait pas dans ce sens d'augmenter l'épaisseur sonore et la durée de l'impact, car au contraire il serait encore plus bref et percussif, et cela ferait encore moins notre affaire.

Plus encore, certains preneurs de son de musique vont jusqu'à rajouter des petits délais avec des processeurs pour encore plus épaissir dans le temps le son de l'impact. J'ai connu cette pratique dans les années 80.

Distorsion harmonique, délai, déphasage entre microphones, etc., on peut appliquer ces méthodes à la post-prod des armes à feu.

Bien amicalement.