Un Bon Son … au service de Belles Émotions !
"Old school Mix" à l'époque du "tout numérique"
6 déc. 2020
Introduction
Maintenant que le numérique est bien installé chez un très grand nombre de musiciens, il est amusant de constater ce retour progressif à l’âge d’or de l’analogique, soit en Hardware (neuf ou vintage en occasion) soit en Emulation (ex : émulation « tape »)
Si le traitement numérique du signal audio permet une bonne précision, une répétabilité et un faible niveau de distorsion, on peut lui reprocher comparativement avec l’analogique une certaine « froideur », une absence de tolérance aux excès de niveaux et un petit manque de caractère.
Il me semble bienveillant de signaler aux jeunes générations (moins de 40 ans) que l’achat de matériel analogique et/ou de plug-in d’émulation sera — certes un petit pas dans la direction voulu — mais bien insuffisant si vous n’adoptez par également la manière de penser le travail pratiquée à l’époque du « tout analogique ».
Cette manière est — pour moi — bien plus importante que l’utilisation du « produit » qui « fait-le-bon-son-de-l’analogique ». Hors il me semble qu’en France on s’est précipité sur la technologie (l’outil), et que l’on a souvent oublié le « comment-on-faisait-avant », c.a.d. la méthode.
Mon propos n’est pas de dire que « c’était mieux avant » (car je suis un gros utilisateur des 2 mondes), mais plutôt que la gestion des contraintes du « passé » nous a apporté (il me semble) une méthodologie et une efficience qui sert la qualité et la créativité; données plutôt rare en ces jours en comparaison de l’abondance démesurées des possibilités technologiques disponibles à bas coût.
Rappel du contexte.
- Tout coûtait beaucoup plus cher !
- Le matériel était rare et coûteux, nécessitait une maintenance régulière (usure, calibration) , il y avait le coût élevé des bandes et une durée maximale enregistrable (selon la vitesse), …
- Le matériel n’était pas « extensible » à volonté.
- Si on n’avait qu’un 8 piste (16, 24 ou 32 selon les moyens), il fallait loger toutes les prises sur la bande. Idem pour les consoles, pour les périphériques, …
- Il fallait donc réfléchir en AMONT — avant d’agir — pour organiser et optimiser le travail !
LES TROIS ÉTAPES NÉCESSAIRES À LA PÉRIODE ANALOGIQUE
- Réfléchir avant d'Agir
- Anticipation & Préparation
- Exigence & Parcimonie
1 - RÉFLÉCHIR AVANT D'AGIR
On se posait en préalable 3 questions (toujours applicable à notre époque numérique)
- Qu’est-ce qu'on a ?
- … comme « matière », conditions, temps, budget, …
- Qu’est-ce qu'on veut ?
- Résultats attendus : couleur, style,
- Comment y arriver ?
- Quelles sont les contraintes ?
- Quels sont les moyens disponibles ?
- Quelles sont les méthodes à mettre en œuvre ?
La connaissance est indispensable, … mais la bonne solution (technique et créative) se trouve toujours à l’issue de cette démarche d'interrogation, … et non dans la possession de « connaissances »
2 - ANTICIPATION & PRÉPARATION
On ne se disait pas « on fait la prise et on verra après ». Pour gérer les limites de la bande magnétique (bruit de fond, niveau max), on peaufinait beaucoup plus le son en amont, via la console (Préamp, EQ) et des périphériques (compresseur, noise-gate, …) avant et pendant la prise de son.
Ensuite, on ne disposait pas d’une vingtaine de compresseurs, noise-gate à utiliser « sans compter » au moment du mixage. Donc, on réfléchissait au moment de les utiliser pour gérer la disponibilité : à la prise, à partir de la prise (tape to tape avec traitement), au niveau du Buss, …
Il est interessant de noter qu’actuellement un très grand nombre d’interface AD sont « direct » XLR to USB et ne possèdent même pas un filtre passe-haut.
La possibilité d’avoir « sans limitation » (sauf celle du processeur) un nombre très élevé d’effets lors du mixage est finalement un frein au simple fait de se poser les bonnes questions AVANT, pour travailler sur l’intentionnalité de la couleur et du style attendu.
Dans la pratique, il se vérifie rapidement que l’on obtient bien plus facilement la couleur recherché par le choix intentionnel d’un autre microphone, d’un autre pré-ampli, de l’utilisation d’un traitement analogique « à la prise » (avant conversion et stockage en numérique).
On me dira alors : « Oui, mais on prends le risque de se retrouver coincé avec un traitement qui ne convient pas, sans possibilité de retour en arrière et d'essayer des traitements différents (autrement dit : on préfère faire ça après en numérique car on a la fonction « annuler ») ».
Oui, c’est justement l’intérêt de se poser les bonnes questions AVANT, et de travailler l’intentionnalité au bon moment et au bon endroit. On y gagnera en temps, qualité et fluidité pour la suite du projet.
3 - EXIGENCE & PARCIMONIE
Même avec du matériel de qualité, on savait que l’on avait une perte à chaque étape (bruit de fond, distorsion, coloration, restriction de la bande passante, non linéarité, …). Ces étapes étant tous les process analogiques utilisés dans les différentes étapes de l’enregistrement au mixage-mastering.
- Pour illustrer (exemple, chiffres fictifs), si l’on voulait une qualité de ( 10 ), il fallait partir en début de process avec un signal à un niveau de qualité de ( 12 ) parce que l’on savait que l’on allait perdre environ ( 2 ) points de qualité dans la somme de toutes les étapes.
- Donc pas question de partir d’un niveau de qualité ( 8 ) puis en perdre ( 1 ) +( 1 ) + ( 1 ) +( 1 ) soit (4) points lors des différents traitement, car on arrivait alors inéluctablement à une qualité finale de 4 au lieu des 10 points souhaités.
Comme c’était une vrai « guerre » continuelle contre les limitations de la technique, tout était important et chaque détail comptait. Donc, la notion d’EXCELLENCE était continuellement en tête. On ne se disait pas « on verra au mixage » ou « au mastering » (comme j’ai déjà entendu).
- En connaissance de tous ces paramètres, le question de l'enregistrement ne venait que lorsque la prestation musicale le permettait : on ne pensait à enregistrer que quand le morceau « sonnait » suffisamment bien (musiciens au point techniquement et émotionnellement, maîtrise des structures...).
- Si la prise n’est pas bonne sur un aspect d’interprétation (jeu, justesse,placement rythmique) il y a aura un temps d’éditing plus long (donc plus coûteux) avant le mixage et il ne sera pas forcément possible de tout rattraper. C’est la même chose sur la captation sonore si le bon micro n’a pas été choisi en amont, le post-traitement sera plus complexe.
- De même si le mixage n’a pas été réfléchi pour la diffusion, le mastering ne pourra pas tout sauver.
Concrètement — même si nombre de ces contraintes ont été très fortement réduites en numérique — rester dans cette culture et méthode de l’Excellence « dès le début » et à chaque étape du process sert largement le projet.
CONCLUSIONS
Aujourd’hui, le numérique permet d’avoir un nombre « illimité » de pistes et de traitements de qualité, pour un budget très réduit.
- Ce n’est plus l’outil qui est « rare et cher »
De même, on a maintenant accès à quasiment toute l’information/formation voulue gratuitement ou chez soi, à bas prix (MOOC, cours en ligne). Plus besoin d’être abonné à des revues papiers, d’aller dans des dans salons Pro, d’acheter des livres spécialisés et coûteux, de suivre des formations données par un très petit nombre d’écoles …
- Ce n’est plus l’accès à l’information qui est « rare et chère »
Si l’outil et l’information sont facilement accessible, mais que la qualité n’est pas proportionnellement au rendez-vous, c’est que l’on a n’a pas capté « la méthode », le savoir-faire qui consiste à savoir utiliser les outils et l’information au bon moment et de la bonne manière, créative et technologique.
- Ce savoir-faire, c’est l’opposé de la « recette ». C’est savoir s’interroger, savoir écouter, savoir apprendre de ses expérimentations et des contraintes.
- « La connaissance n’est qu’une rumeur tant qu’elle n’est pas dans le muscle »
Voilà ce qui me semble être le secret des bons mix « old school » applicable à la période du tout-numérique