Navigation | HISTORIQUE ET DEFINITION DU MASTERING

HISTORIQUE ET DEFINITION DU MASTERING

« Le mastering est l’ensemble des activités situées, dans la chaîne audio, entre la production finale de la musique sur un support intermédiaire et son portage sur un support de distribution. »

En français courant :

Le mastering permet de rendre compatible votre mix fraîchement achevé en studio ou à la maison à tout système d’écoute grand public.HISTORIQUE ET DEFINITION DU MASTERING spacer

Le succès du custom mastering explique en partie pourquoi l’avènement du CD, en 1982, loin de causer le déclin du studio de mastering – puisqu’il n’y a plus de « gravure » à faire – en précipite au contraire le développement.

Affranchis des compromis imposés par les limitations du vinyle, les ingénieurs peuvent aller « plus loin », n’hésitant pas, par exemple, à accentuer au besoin les extrêmes, graves et aiguës, ou encore à élargir la plage dynamique, démarches exactement contraires à ce qu’il y aurait eu à faire, peu auparavant, en gravure analogique.

En fait, toute intervention sur le signal n’est plus désormais dictée que par le souci d’optimiser le son, ce qui place d’autant plus de responsabilités directes entre les mains de l’ingénieur de gravure.

D’autres phénomènes parallèles, tels que le déclin de la radio AM et la généralisation des systèmes de reproduction en stéréo, notamment dans les voitures, leur permettent bientôt d’ignorer également les limitations imposées par les besoins de la sommation en mono.

On laisse passer des signaux hors phase présents dans le signal, on déphase même parfois sciemment les fréquences aiguës pour élargir l’image stéréo.

La seconde explication du maintien de l’importance du studio de gravure après l’arrivée du CD tient au fait qu’il est demeuré, jusqu’à la fin des années 1990, un passage obligé entre le studio de mixage et l’étape de la fabrication du CD. Les usines de pressage n’ont en effet longtemps accepté pour pressage que des médias audionumériques spécialisés, encadrés d’une procédure de vérification d’erreurs complexe. Ces médias, comme la cassette vidéo 3/4″ U-matic générée par le système Sony 1630, ou la cassette 8mm Exabyte du système DDP, nécessitent l’achat et l’entretien d’une machinerie aussi onéreuse que fragile.

Parallèlement à toutes ces évolutions, une nouvelle tendance voyait le jour, qui allait affecter très négativement la réputation du mastering dans certains milieux, notamment ceux de la musique électroacoustique . Cette attitude perdure encore aujourd’hui, et nous allons nous attacher à en démystifier les racines.

À partir du milieu des années 1970, avant donc la fin de la période du vinyle, la partie la plus rentable de l’industrie de l’audio, plus particulièrement dans les styles pop, rock, disco, etc (mais le phénomène ne tardera pas à se répandre au country-western et au jazz-rock), se lance dans une escalade qui sera souvent appelée « guerre du volume ».

Il avait été remarqué que les auditeurs à la recherche d’un poste de radio à syntoniser avaient tendance à se fixer sur les stations affichant un volume sonore plus élevé. Questionnés, les gens répondaient que cela leur semblait « sonner mieux ». Cette découverte était un pas de plus dans la systématisation de la recherche du profit, un ajout dans la trousse des outils « scientifiques » permettant de contrôler à coup sûr les réactions du consommateur de musique. Dans ce climat d’exubérance collective, personne ne s’empressait de se questionner sur ce qui pouvait bien se passer dans l’esprit dudit consommateur après quelques secondes d’exposition à cette douche ininterrompue de décibels.

Pourtant les observations sur le sujet ne manquent pas, concernant notamment la fatigabilité progressive de l’oreille aux volumes élevés et aux hautes fréquences, concernant aussi la sensation d’intrusion provoquée par des niveaux de compression soutenus. On sait qu’un volume plus élevé permet de se détacher du niveau du bruit ambiant, et donc de percevoir davantage de détails dans la musique, mais dans des systèmes à la dynamique limitée – la transmission radio, le disque vinyle – il y a peu de marge de manœuvre si l’on veut conserver une réserve raisonnable de puissance – headroom – pour la reproduction adéquate des transitoires.

Ce principe s’applique bientôt à la gravure du disque vinyle, et les ingénieurs de mastering se voient rapidement incités par les producteurs à appliquer les taux de compression les plus ridicules. La situation dégénère au point que le temps de studio devient exclusivement alloué à la recherche de tous les moyens possibles d’obtenir du gain, au mépris de toutes les techniques d’optimisation qui avaient fait le succès du mastering. Certains s’en sont même fait une spécialité, utilisant le semblant de correctif qu’une compression forcenée, en nivelant radicalement l’amplitude, semble appliquer aux problèmes d’enveloppe fréquentielle.

Et c’est ainsi qu’il est devenu courant, pour certains, d’associer surcompression avec mastering. Il faut cependant savoir que la grande majorité des ingénieurs de mastering considère la guerre du volume comme une pratique fortement préjudiciable à la qualité sonore, et qu’ils ont continué à exercer leur métier sans cette contrainte dans les productions de musiques classique, jazz, ethnique,nouvel âge, etc. lesquelles n’ont jamais suivi cette tendance.

À l’avènement de l’audionumérique, certains ont cru que le CD, avec sa gamme dynamique étendue, ses hautes et ses basses fréquences pouvant s’étendre jusqu’aux limites de l’audition et surtout ses transitoires virtuellement instantanées rendrait superflue et caduque cette guerre du volume, tant on escomptait tirer d’excitation musicale de ce médium.

Hélas, le miracle ne se produit pas, pour diverses raisons, parmi lesquelles :

• l’immaturité technologique des premiers convertisseurs et outils audionumériques de production

• la méconnaissance des ingénieurs de son des faiblesses inhérentes du nouveau médium, entre autres au niveau de la fidélité de reproduction des hautes fréquences

• le fait qu’une bonne partie des équipements analogiques utilisés dans l’enregistrement, le traitement et le mixage souffrent encore à l’époque de faiblesses inhérentes : bruit propre, distorsion,dynamique sévèrement limitée, coloration… mises en exergue  par la relative transparence du nouveau médium.

En fin de compte, les CD de la première génération sont largement affectés par un son figé et métallique particulièrement crispant, qui réussit à faire oublier les avantages du son audio numérique.

La guerre du volume se poursuit donc, alimentée maintenant par une nouvelle génération de compresseurs/limiteurs numériques capables, en appliquant un court délai au signal entrant, d’anticiper en quelque sorte les pics d’amplitude –fonction look ahead – et donc d’écraser les transitoires ultra rapides que les circuits analogiques laissaient encore passer.

Résultat :

par rapport aux marges pratiquées en 1980, on a réduit en moyenne de 17dB le niveau de headroom sur les CD, qui n’est plus, en 2000,que de 3dB.

En définitive, les producteurs de musique, dans leur désir d’accrocher en quelques secondes l’attention des DJs et des directeurs de la programmation des stations de radio / télévision, des responsables des achats, des détaillants, bref, de l’ensemble des décideurs et personnes clés des circuits de diffusion et de distribution, ont imposé aux acheteurs de CD, leurs véritables clients, la situation suivante :

• passant innocemment d’un CD à l’autre, sans prendre la précaution de toucher à son réglage de volume, le consommateur peut être victime d’une véritable explosion de l’amplitude moyenne de l’ordre de 10 à 12dB !

• certains lecteurs CD bas de gamme produisent systématiquement une distorsion audible, à tous les réglages, en reproduisant une partie des CD pop les plus récents

• même dans le cas de lecteurs capables de soutenir des niveaux prolongés, la combinaison d’une basse résolution dynamique réelle et d’une surcompression quasi permanente est physiquement éprouvante pour l’oreille

Toutes ces contrariétés tendent à rendre rebutante la moindre séance d’écoute de CD entre amis. Dans ces conditions, il n’est pas étonnant que les ventes de CD soient en chute libre, d’autant que des observations récentes tendent à disculper Internet, en associant notamment l’apparition d’un produit en distribution gratuite sous format MP3 avec une augmentation de ses ventes de CD. L’industrie de l’audio risque donc d’avoir à se chercher d’autres raisons qu’Internet pour expliquer ses déconvenues actuelles.

Quelques uns de ses décideurs commencent enfin à soupçonner, entre autres marques d’un relâchement généralisé de la vigilance au niveau de la qualité du son, les effets de la guerre du volume.

L’arrivée des nouveaux formats audio, haute densité et multicanaux, aurait pu être considérée comme une occasion de repartir sur de nouvelles bases,
plus respectueuses de l’intégrité sonore des produits audio et des oreilles des consommateurs.

Hélas ! Aux yeux des décideurs, cette arrivée représente de toutes autres opportunités.

C’est un autre genre de conflit qui vient s’ajouter aux causes de déréliction de l’industrie de l’audio, appelé la « guerre des formats ». Provoquée – comme la guerre du volume – par l’appât du gain et poursuivie, tout comme elle, au mépris de l’intérêt des consommateurs, cette bataille-ci n’est pas initiée par les producteurs de contenu mais par les fabricants de matériel électronique de reproduction.

Les exemples de luttes pour le pouvoir de ce genre abondent dans le passé récent : Mac vs Windows, VHS vs ßeta, DBX vs
Dolby, etc. mais jamais auparavant elles n’avaient atteint l’ampleur, le degré d’absurdité et le pouvoir paralysant qui caractérise en ce moment leur impact sur la situation en audio.

Même s’il a réussi à surmonter rapidement ses défaillances initiales en matière de sonorité, grâce notamment à l’oversampling et à une sophistication croissante des convertisseurs N/A, le CD n’est jamais parvenu à convaincre les audiophiles, qui lui reprochent surtout sa froideur.

Malgré cela, aucun nouveau médium analogique n’a été proposé pour supplanter le CD au niveau des consommateurs. Les studios commerciaux, quant à eux,qui avaient rapidement abandonné le DAT 16 bits comme support master, au profit du ruban analogique 1/2 pouce, roulant à 30 pouces / seconde, avec ou sans Dolby SR, se sont ralliés massivement, dès que cela est devenu possible, à l’audio numérique haute densité, lequel menace maintenant de supplanter tous les autres formats, multipistes et master.

On le voit, malgré les carences éthiques et normatives des fabricants, une forme de consensus se dégage, tant chez les producteurs que du côté des consommateurs,
autour d’un meilleur audio numérique.
Cela n’empêche pas les amateurs de « débats » de remettre en question, ces temps-ci, l’utilité réelle des formats audio haute densité. Il peut être intéressant de relever les arguments invoqués :

• l’échantillonnage à plus de 44.1kHz est inutile, puisque l’audition humaine est limitée à 20 kHz

• pourquoi aller au-delà de 16 bits de quantisation, puisque la gammedynamique utile, dans l’immense majorité des contextes d’écoute,n’atteint même pas les 96dB actuellement offerts ?

Il s ’agit là de constats spectaculaires, mettant l’emphase uniquement sur les caractéristiques extrêmes et marginales de la haute densité. De plus, ils ne sont que partiellem ent exacts.

Ainsi :

• des tweeters dont la courbe de réponse en fréquence est identique jusqu’ à 18 kHz, mais dissemblable au-delà,sont aisément différenciés à l’écoute par la plupart des té moins

• même s’il était avéré que l’ oreille ne perçoive pas les ultra hautes fréquences, d’ autres zones du corps , nottement certaines parties de la structure osseuse, y réagissent

• la sensation d ’une écoute ouverte et aérée est universellement rapportée lors d’auditions de matériel comportant des ultra hautes fréquences

• la plupart des casques d’écoute de grande consommation développent facilement 11 0 d B

• des milliers de personnes s’ entassent dans des discothèques et des raves devant des systèmes de son projetant 120 dB et au-delà

 Bien entendu, la principale raison pour laquelle on échantillonne à 96 kHz plutôt qu’à 48 kHz, par exemple – est qu’on dispose de deux fois plus d’échantillons pour « décrire » le contenu audio, et ce à toutes les fréquences. La numérisation n’en est donc que plus fine et plus réaliste.

Sur une onde de 48 cycles, il peut sembler superflu de passer de 1000 à 2000 échantillons par cycle, mais que dire d’un sinus de12000 cycles, lequel ne dispose pour sa description à 48 kHz que de 4échantillons par cycle ?

Avons-nous encore bien, à la reconstruction de l’onde, un sinus ?

Le raisonnement est le même en ce qui concerne la structure en bits. Quel que soit le volume de départ, un changement subtil vers le haut ou vers le bas sera décrit plus fidèlement par le nombre supérieur de « paliers » offerts par l’enregistrement en 24 bits.

Techniquement réalisable depuis le milieu des années 1990, mais paralysé par de nombreuses discussions de nature commerciale au sein du consortium le parrainant, le DVD-Audio n’a été officiellement introduit que vers la fin de l’année 2000. La publicité maladroite donnée à ce délai et au contenu même des discussions a fortement agacé le public, qui ne lui a donc accordé à sa sortie qu’un intérêt marginal. Dans ce climat, même l’extrême versatilité du médium a été mal perçue, se transformant en source deconfusion. Il devait s’agir au départ d’un médium haute définition et multicanal, capable d’offrir 6 canaux d’audio linéaire à 24 bits / 96kHz.

Or :

• ce résultat nécessiterait une largeur de bande de 13,8 Mb / seconde,laquelle excède les 9,6 Mb/s finalement fixés pour le médium. On
recourt donc à une compression de données non destructive, du type zip utilisé en informatique, appelée MLP9, et qui reconstitue« bit pour bit » le signal initial, tout en offrant un taux de compression de 1,85 :1

 

• mais… la norme DVD-A permet aussi l’usage de protocoles decompression de données de type destructif, basés sur des principesde psychoacoustique, comme le Dolby Digital, aussi appelé AC-3, et le DTS !

• un signal linéaire à 24 bits / 192kHz est également possible, mais en stéréo seulement, et occupant alors tout l’espace disponible sur le
DVD-A

• en fin de compte, dans la limite de l’espace disque et de la bande passante offerts, presque toutes les combinaisons sont possibles,du nombre de canaux – de 2 à 6 – à la structure même de chacun de ces canaux : 16, 20 ou 24 bits, de 44.1 à 192 kHz, encodage linéaire, MLP, AC-3, DTS, etc.

• le producteur peut aussi afficher, pour chaque piste audio, quelques images fixes : informations sur les interprètes, paroles de chansons, etc. Mais pour ajouter à la confusion déjà régnante dans l’esprit de beaucoup avec le DVD-Vidéo, une zone vidéo dédiée est aussi prévue, bien que de capacité limitée.

Les ingénieurs de mastering, pour la plupart, effectuaient déjà une conversion de toutes les bandes audio numériques reçues aux formats 44.1et 48kHz vers les formats 24bits / 88.2kHz et 24bits / 96 kHz avant tout traitement, parce qu’ils avaient tout simplement constaté que cela en améliorait d’emblée la qualité sonore. La plupart des appareils de traitements audionumériques dont ils disposent travaillent de toute façon à ces fréquences. La réception de masters – ou, rappelons-le, de stems ou de prémixages multipistes – déjà enregistrés à ces formats est évidemment une amélioration supplémentaire. Il n’existe encore que peu de média de transfert de type professionnel capables de supporter ces formats, si bien que la tendance actuelle est de tout simplement transférer le matériel sur plusieurs CD-ROM de données, méthode peu coûteuse et qui semble parfaitement acceptable aux points de vue fiabilité et intégrité du signal.
Avec un synchronisme impeccable, Sony et Philips, multinationales déjà rompues à l’exercice puisque partiellement responsables du lamentable épisode VHS vs ßeta, ont attendu que les déboires du DVD-Audio portent l’intérêt pour l’audio haute densité à son niveau le plus bas, pour venir écoeurer encore davantage le public en lançant leur propre format. Il s’agit d’une extension de la technique de l’oversampling, appelée DSD10, et capable d’offrir, grâce à un échantillonnage de 2,8224mHz à 1 bit, une plage de fréquence allant de courant continu à 100kHz et une gamme dynamique de 120dB. Cela dit, le manque d’à-propos du Super Audio CD est consternant :

• il est basé sur une technologie en rupture complète avec la LPCM 11 utilisée dans tous les systèmes audionumériques à ce jour. Aucun système d’enregistrement actuel, logiciel, insérable, etc. ne s’y adapte, et les outils spécifiques pour son enregistrement et son traitement, rarissimes, sont hors de prix

• bien que largement considéré, du point de vue de la qualité sonore,comme égal ou très marginalement supérieur aux formats LPCM 24bits / 96kHz et 24bits / 192kHz, le SACD, comme avant lui le CD-Audio – mais contrairement à ses concurrents haute densité du monde LPCM – est un format fermé, n’offrant que très peu de possibilités d’intégration pour d’éventuelles améliorations

• contrairement aux lecteurs DVD-Audio, pour lesquels une sortie audionumérique au format FireWire est prévue, offrant ainsi la possibilité d’une conversion N/A par un appareil externe spécialisé, tous les lecteurs SACD, à une exception près, ne sont équipés que de sorties analogiques. Une contradiction aberrante avec la vocation audiophile du format

• et bien entendu, il est hors de question pour un lecteur SACD de lire les DVD-A, et vice-versa. Quant à la possibilité de lire un SACD sur un lecteur CD-Audio, elle n’est qu’illusoire : pour un prix bien supérieur au CD, on obtient une performance exactement équivalente, puisque qu’il ne s’agit ici que de lire sur le SACD une couche bien distincte d’information, à la norme Red Book !Même si ce conflit passe, aux yeux et aux oreilles du public lassé, pour une course de plus pour le contrôle monopolistique entre deux formats équivalents, la guerre médiatique entre le DVD-Audio et le SACD se poursuit,régulièrement alimentée par la nouvelle du ralliement de l’une ou l’autre
multinationale de la musique à l’un ou l’autre camp. Des deux côtés, les ventes de disques et de lecteurs sont insignifiantes, et plusieurs observateurs considèrent d’ores et déjà que l’introduction de l’audio haute densité est un échec.

Nombre de facteurs – matériels et humains – se combinent entre eux pour aboutir à la situation suivante : le niveau général de la qualité d’écoute, dans les studios de mastering, conserve toujours nécessairement quelques longueurs d’avance par rapport à celui des studios d’enregistrement.

produit comme un tout, à pouvoir poser un jugement inclusif, englobant tousAinsi l’ingénieur de mastering est en mesure non seulement de percevoir, mais aussi de subodorer, voire d’anticiper, des caractéristiques allant des plus infimes détails aux tendances fréquentielles les plus générales, caractéristiques qui sont demeurées inaudibles ou tout simplement opaques au preneur de son et à l’ingénieur de mixage. Qu’entend donc exactement l’ingénieur de mastering, qui aurait échappé aux professionnels l’ayant précédé sur un projet donné ? Il ne connaît généralement pas le projet, et n’a jamais entendu la musique : il dispose donc déjà d’un recul, d’une fraîcheur de point de vue appréciable par rapport à ceux qui l’ont précédé. Et contrairement à ceux qui ont eu à enregistrer les pistes, une à une ou par groupe, ou au mixeur qui a eu à juger de l’interaction de ces pistes l’une avec l’autre, il est le premier à pouvoir appréhender le les aspects sonores du produit.

Plus spécifiquement encore, il entend :

• les déficiences des systèmes d’écoute des studios de prise de son et de mixage, reflétés à l’endroit ou à l’envers sur le signal

• il entend également les erreurs dûes à des habitudes acoustiques prises tout au long d’un projet et qui ont tendance à devenir autant d’ornières creusées par une accoutumance progressive. Il est très difficile, pour ceux qui y sont exposés tout au long d’un projet, d’en sortir

• il entend même à quoi le mènera, une fois qu’il aura remédié à ces problèmes, l’optimisation plus poussée que le son, désormais ouvert, lui permettra

• il confronte également le résultat projeté de toutes ces manipulations avec ce qu’il connaît de la sonorité de produits similaires, pas tant pour plagier – ce qui est en fait extrêmement difficile à faire – mais pour tenter de pousser le produit vers les limites de ce qu’il sait d’expérience qu’il est possible de réaliser dans ce style de sonorité.

Les méthodes de travail en mastering varient énormément d’un ingénieur à l’autre, et même d’un projet à l’autre. Il serait vain de tenter ici de schématiser tout cela en un processus. Une simple présentation sous forme de liste non structurée donnera déjà une idée de l’abondance des possibilités :

• certains ingénieurs commencent par essayer de trouver la combinaison de lecteurs et / ou de convertisseurs qui convient le mieux au produit ; il arrive même – rarement – que ce subtil procédé soit considéré comme suffisant

l’égalisation demeure l’outil par excellence. Utilisée pour compenserles faiblesses de l’écoute des studios précédents, et / ou lesdéfaillances d’attention des ingénieurs précédents, elle aplanit les bosses irritantes et comble les trous injustifiés. Des corrections de l’ordre de 9 – 12 dB, sur des plages fréquentielles très larges ne sont pas rares ici • quant cela est possible, l’égalisation intervient encore pour sculpter un profil fréquentiel plus agréable, pour mettre en valeur ou pour masquer certaines portions du spectre audio. À cette étape, les interventions peuvent être plus fines : 1 ou même 1/2 dB suffisent souvent pour obtenir l’effet voulu ;
• encore au chapitre de l’égalisation, mentionnons le relèvement des fréquences extrêmes, encore une fois souvent rendu nécessaire par des déficiences d’écoute dans les studios en amont ;

le contrôle de la dynamique est également vital. Dès lors qu’il ne s’agit pas de concourir pour la première place au royaume de l’onde carrée, un monde de possibilités s’ouvre avec un maniement compétent des seuls réglages des temps d’attaque et de retour, des seuils d’intervention et des rapports de compression.

l’expandeur est un instrument plus subtil, tantôt utilisé pour conférer de l’envergure à un mixage trop timide, tantôt pour accentuer le contraste musique / silence. De plus en plus souvent, on aura aussi recours à l’expandeur pour tenter de redonner un peu de souffle à un mixage trop écrasé, victime d’un réalisateur qui ne pouvait attendre l’étape du mastering pour se sécuriser quant à la place de son produit sur le podium des olympiques du hurlement audio ;
• la combinaison compresseur / expandeur peut sembler paradoxale, mais en variant les réglages de temps respectifs des deux fonctions, on peut obtenir une mouvance de l’amplitude, une manière de respiration interne capable d’adoucir des ambiances trop figées.
Dans le cas des mixages affectés d’un bruit de fond tapi juste sous le seuil d’audibilité, ce couple devient essentiel pour empêcher la compression de porter le bruit de fond au-delà de ce seuil.

le limiteur remplit, en mastering, un rôle essentiel, presque toujours confié à un appareil dédié, presque toujours audio numérique. Il faut savoir que, bien que leur définition varie de ce qu’est exactement un dépassement en audio numérique en terme du nombre d’échantillons successifs à 0dB, les installations de pressage rejettent
immanquablement tout produit qui y contrevient ;
le séquençage – pacing – demeure la fonction la plus traditionnelle du mastering. Il se décompose en plusieurs tâches :

• déterminer l’ordre d’exécution des pièces sur le produit final

• décider des temps d’attente à insérer entre les pièces

• nettoyer les débuts et les fins, souvent bâclés lors de sessions de mixage trop …enthousiastes

• d ’une manière générale, veiller à ce que l’écoute du projet entier soit une expérience agréable et cohérente. On ne doit pas ici hésiter à retoucher l’ égalisation d’une pièce co rrecte en elle-même, mais qui s’ insère mal dans le profil fréquentiel de l’ensemble. Mêmes remarques pour ce qui est du volume perçu et de l’ espace acoustique d’ensemble .

Quelques rares ingénieurs de mastering ont décrit leur activité comme une passerelle entre les environnements d’écoute professionnels et les conditions de diffusion moyennes qu’expérimentent les consommateurs. Ambiguë et démagogique, cette façon de présenter les choses contient le germe d’un malentendu important.

En effet, s’il est possible, comme nous l’avons expliqué dans la première section, d’anticiper ce que le compresseur multibande de marque ABCD, partie intégrante de l’équipement de mise en onde de la station EFGH-FM, aura comme effet sur un mixage, prédire comment le tout « sonnera » dans le salon de Mr. et Mme Tremblay est une toute autre affaire. Les systèmes de son « domestiques » n’ont en fait en commun qu’un ensemble de faiblesses par rapport aux installations professionnelles : placés tant bien que mal dans des pièces aux niveaux de bruit élevés et à l’acoustique intrusive, ils affichent tous une déficience de la réponse dans les fréquences extrêmes, un manque de puissance de réserve et une lenteur de réponse des transitoires. Cela dit, leur défaut le plus lourd de conséquences reste une coloration accentuée de leur courbe de réponse en fréquence et là, les similitudes stoppent tout net ! Sur la quantité, la forme et la répartition de tous ces trous et de toutes ces bosses, il y a autant de variables que de marques et de modèles de lecteurs, d’amplificateurs et de haut-parleurs, sans compter les combinaisons possibles entre tous ces éléments !

Voici quelques autres préjugés tenaces, concernant des systèmes ou des pratiques d’écoute censés permettre de sauter l’étape du mastering :

• les shit box : bien qu’ils soient largement inutilisés, et pour cause, dans les salles de mastering, ils demeurent encore bien ancrés dans la tradition des studios d’enregistrement. Yamaha NS-10M, ProAc et autres Auratone sont censés présenter des courbes de réponse en fréquences « représentatives » des haut-parleurs de niveau consommateur, ce qui relève, on le comprend maintenant, de la pure superstition. Quelles informations applicables les ingénieurs
peuvent-ils bien espérer glaner de ce fameux aller-retour entre les haut-parleurs principaux et les shit box, voilà une énigme qui a toujours dépassé les ressources imaginatives de l’auteur.

Leur unique utilité serait de rassurer – tout en les trompant de manière éhontée – les producteurs et les musiciens inexpérimentés,dépaysés par une toute première exposition à une écoute professionnelle ;
• l’opération tournée des salons est une variante particulièrement laborieuse de la même idée. Elle consiste à aller écouter le mixage dans une série d’environnements « réels », en général les salons et autos d’amis et de connaissances. Un véritable enfer, d’une profonde inutilité : la mémoire auditive, reconnue pour son court terme, ne peut tirer aucune conclusion synthétique de cette exposition à des écoutes toutes aussi différemment erronées que
semblablement déprimantes ;

• largement pratiqué en électroacoustique, comme on le verra plus tard, l’auto-mastering consiste à tenter, sur les lieux même de la production, de faire son propre mastering. Il n’y a, dans cette situation, pas la moindre condition permettant d’espérer autre chose qu’un aggravation de la situation : totalement privé de recul, le producteur a ici toutes les chances de compenser une troisième fois pour les mêmes erreurs d’écoute qu’à la prise de son et au mixage

• également un favori en production indépendante, l’ami-mastering, pratiqué dans une installation analogue à la sienne, par soi-même ou par un pair, soumet un mixage effectué sur une écoute colorée à un traitement non-professionnel dicté par une écoute différemment colorée. Les avantages par rapport à l’auto-mastering sont question d’inclination : préfère-t-on enfoncer les mêmes clous, ou créer des problèmes ailleurs dans le spectre fréquentiel ? C’est selon…

• le recours aux haut-parleurs à champ rapproché minimise dans une certaine mesure l’interaction intrusive de la pièce, qui demeure néanmoins, dans un local non traité acoustiquement, à un niveau trop élevé pour permettre un travail de mastering non compensatoire. Et même si l’on assume que les moniteur choisis sont en eux-mêmes fiables ( !), le problème des basses fréquences,extrêmement crucial, n’est pas pour autant résolu : on est tenu de recourir à un subwoofer, lequel nous remet devant le problème de l’acoustique de la pièce…

• les écouteurs, même de très haute qualité, posent encore plus de problèmes. Opérant sur une mode acoustique extrêmement différent de celui des haut-parleurs, ils ne permettent aucun transfert fiable vers ces derniers, surtout au niveau de l’espace stéréo. Ils ne règlent pas non plus le problème des sous-graves, et leur niveau typique d’utilisation, de 110dB, est dangereux pour l’oreille. On ne peut s’y exposer plus d’une demi heure par jour sans risquer une perte d’audition permanente.
Nous avons décrit des systèmes tentant de produire, en dehors du circuit des salles de mastering, une émulation efficace des écoutes de niveau consommateur. Il nous reste à aborder deux types de tentatives plus professionnelles, réalisées cette fois-ci dans des salles de mastering, et même dans des studios d’enregistrement conventionnels :

• les courbes spéciales : plutôt que d’aller « vérifier » chaque mixage en situation de consommation, on a pensé qu’il serait plus pratique de tenter de reproduire un environnement moyen à l’aide d’une courbe d’égalisation appliquée directement aux moniteurs principaux. Un douloureux processus du type essai erreur, destiné à mettre au point pareille courbe, n’a apporté que des améliorations discutables dans un petit nombre de cas, et de très nets reculs dans toutes les autres situations. Encore un échec cuisant, à cause bien sûr du principe de base, mais aussi des inconvénients spécifiques reliés au fait de travailler sur des moniteurs égalisés : problèmes de phase, nature changeante de la réponse globale, lenteur de stransitoires, etc.

• l’acoustique en diffusion prétend atteindre trois objectifs : elle élargit considérablement le sweet-spot, elle se sert des réflexions des murs pour corriger naturellement les faiblesses des haut-parleurs,et elle se rapproche du niveau de réverbération prévalant dans la salle d’écoute moyenne. Ambitieuse, cette conception acoustique se révèle extrêmement complexe à réussir. Seul le premier objectif est pleinement atteint. Les réflexions des murs se refusent obstinément à se colorer de manière appropriée, tandis que la variété des conditions de réverbération demeure réfractaire à toute schématisation.
L’accumulation de toutes ces expériences et de tous ces échecs nous mène directement à la vision contemporaine du mastering, qui exclut à la fois toutes les variantes de l’idée de réaliser une moyenne des écoutes de niveau consommateur, et tous les raccourcis possibles pour obtenir une écoute de référence :

Le seul mastering efficace se pratique sur une écoute plate, qui n’est elle-même réalisable que dans un local aux dimensions appropriées, traité acoustiquement et parfaitement isolé. On y installe une amplification de très haute qualité, développant au minimum 1000 watts par canal, reliée à
de véritables haut-parleurs de référence.
Un système d’analyse de réponse acoustique de niveau professionnel, manipulé par un acousticien de métier, est ensuite utilisé pour visualiser la performance finale, et pour entreprendre les correctifs jugés nécessaires.

Par theaudiodomain le 3 novembre, 2008 dans

  1. Quel article. Clair, précis, complet. J’adore !

    Commentaire by maniT4c — 30 novembre, 2009 @ 11:19

  2. Salut,
    merci pour cet article,il me rassure :)
    la vulgarisation des métiers du son et la démocratisation de ses techniques ajouté à ça tous les « je veux être » bernés par les fausses promesses de l’informatique musicale,on est en pleine 21eme siècle !!!
    le son et l’âme,voilà ce qu’il nous reste à réconcilier,encore merci
    Cordialement

    Commentaire by MAD SCIENZ — 6 janvier, 2010 @ 5:30

Laisser un commentaire

rockdico |
Source #1 sur P!nk |
NICKY ARTISTE |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | Please don't stop the ...
| del_dydy
| musique electro