Mac Music  |  Pc Music  |  440Software  |  440Forums  |  440tv  |  Zicos

Partager cette page
Bienvenue visiteur
Nos Partenaires

La pratique du Mastering - 1 : Historique

Avant-propos
    Dans tous les styles musicaux, l'essentiel de la production musicale destinée à une distribution commerciale subit de nos jours un processus ultime de vérification et de transformation avant pressage appelé mastering. Étape incontournable pour les personnes travaillant dans l'industrie de l'audio, ce processus est largement inconnu du grand public et souvent incompris, voire méprisé par les personnes œuvrant en marge des circuits commerciaux. Face à une telle disparité de positions, il nous a semblé important de proposer une remise en contexte d'ordre général, assortie d'explications techniques et d'éclaircissements pratiques sur le sujet. Concrètement dirigée vers les rapports entre le mastering et l'électroacoustique, cette étude repose tout d'abord sur une recherche documentaire portant sur la pratique professionnelle du mastering. L'expérience de son auteur dans les deux domaines considérés a aussi été mise à contribution, de même que deux enquêtes informelles menées durant l'automne 2002. La première de ces enquêtes consistait à interroger sur leur recours au mastering les responsables d'organisations impliquées dans la publication d'œuvres électroacoustiques, et la seconde les compositeurs membres de la CEC / Communauté Électroacoustique Canadienne.
Définition du Mastering
    L'auteur de ce document est facilement hérissé par toute discussion n'ayant pas au moins le potentiel d'aboutir à une pratique, ce qui est le cas de la plupart des arguties tournant autour des définitions préalables. La sécheresse de la définition ci-dessous a pour but de décourager toute initiative de cet ordre. Une élaboration progressive, dans l'esprit des lecteurs, du concept de mastering est un des buts de cette étude.

    "Le mastering est l'ensemble des activités situées, dans la chaîne audio, entre la production finale de la musique sur un support intermédiaire et son portage sur un support de distribution."
Références
    Présenter le mastering oblige, avant tout, à une discussion portant sur le matériel requis et sur les standards utilisés. Or nous traversons en ce moment une période extrêmement confuse de l'histoire de l'industrie de l'audio, marquée par une prolifération des formats et par l'abandon concomitant d'un certain nombre de pratiques normatives. Au premier rang des responsables de cette situation figure la quantité de guerres commerciales de grande envergure actuellement en cours, livrées à grand renfort de manipulation mentale et de désinformation. Dans ce contexte, les seules références utilisables pour le développement d'une étude qui prétend ne se consacrer qu'aux tendances et aux pratiques courantes sont de trois ordres :

    - la propagande publicitaire directe des manufacturiers ;

    - les « analyses de tendance » publiées par les revues spécialisées dans l'audio. Quand elles ne sont pas directement sponsorisées, elles sont construites à partir des seules informations disponibles à leurs auteurs, c'est-à-dire encore une fois les documents généreusement distribués à la presse par les fabricants.

    Les occasions pour de telles distributions sont multiples et variées : lancements de nouveaux produits et de nouveaux formats, foires commerciales et autres événements diversement nommés mais toujours organisés dans le même but de présentation et de vente. Ajoutons à cela les « rapports de la situation » régulièrement publiés par les mêmes compagnies;

    - les informations, impressions et opinions provenant d'usagers, de producteurs et de consommateurs de l'entourage direct du « chercheur ».

    Maintenant que toute illusion de scientificité est sainement dissipée, le lecteur comprendra que cette manie - par ailleurs pompeuse - de préciser ses sources à tout bout de champ serait ici parfaitement futile. Dans cette étude, il n'y a pas de véritable source : la moindre information doit être déchiffrée, réinterprétée et confrontée le plus souvent à une version symétriquement contraire provenant de la concurrence.

    Offrir une synthèse de tout cela serait rigoureusement impossible sans une position idéologique, une véritable vision préalable de l'auteur. Cette vision est, en toute honnêteté, ce qui est véritablement présenté ici, avec le soutien d'une sélection de faits. Précisons d'entrée de jeu, pour épargner au moins un effort d'interprétation : le point de vue présenté ici est celui d'un sympathisant de gauche, qui éprouve un froid mépris envers les méthodes et idéologies actuelles de l'industrie, qu'il qualifie de cyniques et d'irresponsables. Mais qui a aussi l'oreille qui regimbe à l'écoute des constructions sonores expérimentales et engagées de certains camarades. Crispé par leur son épars, malingre et ténu, il ne voit, dans les verbeuses explications de contenu et dans les étalages racoleurs de créativité, que de fastidieuses démonstrations d'incompétence.

    La teneur informative - ou une illusion stylistique d'icelle - sera donc maintenue ou abandonnée au gré des capacités d'écriture et de dissimulation de l'auteur. Sous couvert de caprice, il veillera à entremêler des informations réelles avec des extensions abusives destinées à étayer ses idéaux.

    Et, bien sûr, pas la moindre référence.
Historique du mastering commercial, du vinyle au DVD
    Objectif de cette section : permettre au lecteur de se faire une idée précise de ce qu'a été et de ce qu'est devenu le contexte général du mastering. En conséquence : Les détails sur les étapes de la production audio situées en amont et en aval de l'étape du mastering ne sont donnés qu'en fonction de la nécessité d'éclairer le propos principal ; La question des arguments justifiant à l'heure actuelle l'intervention de l'ingénieur de mastering n'est qu'abordée ici : elle fait l'objet de l'essentiel de la section suivante.
La période analogique
    Le mastering, en tant qu'activité distincte de l'enregistrement, n'apparaît qu'en 1948, avec l'introduction du premier magnétophone commercial à ruban, immédiatement adopté comme alternative au procédé antérieur. Avant cette date, tous les enregistrements sont faits en gravant directement sur vinyle en temps réel, à l'exclusion de toute possibilité de montage. Les premiers ingénieurs de mastering – le nom exact était transcription engineer - étaient des débutants dans la profession, à qui l'on confiait la tâche ingrate de transformer les rubans master provenant des studios d'enregistrement en un produit susceptible de survivre au processus de gravure. Après quelques années, une promotion devenait possible vers les postes plus créatifs et plus prestigieux d'ingénieurs de son spécialisés dans l'enregistrement ou, très lentement après 1955, date à laquelle apparaît la possibilité de l'enregistrement multipiste, dans le mixage.
Les problèmes du vinyle
    Il s'agit, à l'époque et encore aujourd'hui, de viser à sauvegarder la plus grande part possible de la qualité sonore de la bande maîtresse, en naviguant entre les nombreux écueils causés par la nature même du médium, et en tentant de circonvenir un ensemble de limitations assez drastiques. Le sillon, de l'épaisseur d'un cheveu, comporte latéralement les informations de hauteur, et verticalement les informations d'amplitude.

    - les fréquences basses affectent donc la largeur totale que monopolise le sillon, au détriment de la longueur du programme ;
    - tandis que l'épaisseur du vinyle affecte la plage dynamique disponible.

    Lorsque la gravure en stéréo fait son apparition, en 1957, le problème se complique : si l'information des deux canaux est hors phase, surtout dans les fréquences basses, l'aiguille est confrontée à un sillon qui se dilate et se contracte en largeur, ce qu'elle ne peut manifestement pas lire, à moins que la hauteur du sillon, coïncidant par miracle – et en proportion inverse - à la topologie latérale, ne le lui permette.

    L'autre problème de taille concerne les très hautes fréquences, forcément limitées par la vitesse maximale du bras graveur, mais devenant tout simplement impossibles à graver lorsque l'accélération de la fréquence devient trop importante, autrement dit lorsque le saut instantané à exécuter entre deux hautes fréquences devient trop large. Les transitoires sont un exemple évident, partiellement contrôlé par des circuits ralentisseurs, mais le phénomène affecte également certaines consonnes – les sons s, ch, z, etc. – et tout un assortiment de sons produits par – ou ressemblant à – des instrument de musique comme le hi-hat ou la kabassa.

    L'ensemble de ces limitations physiques se répercute inéluctablement sur la qualité de reproduction du contenu audio :

    - pas de signal stéréo possible à partir d'un certain seuil dans les graves ;

    - filtrage obligatoire dès l'apparition de percussions à fort contenu en hautes fréquences : cymbales, maracas, etc.

    - contrôle obligatoire des sibilantes, par de-esseur dans les meilleurs des cas, sinon encore par filtrage passif;

    - limitations absolues affectant la vitesse des transitoires ;

    - compromis entre la plage fréquentielle maximale et la durée du programme ;

    - compromis entre la plage dynamique maximale et les coûts liés à l'épaisseur du vinyle ;

    - compromis entre la longévité du microsillon fini et les coûts liés à la qualité du vinyle. (1)


    L'actuel mouvement de « retour » au vinyle a entraîné une nouvelle crédulité envers les vertus de ce médium. Que l'on sache cependant que, si la puissance des tours à graver est passée d'une dizaine de watts dans les années cinquante à un maximum de près de 500 watts vers 1975, ce qui a permis une meilleure prise en charge des transitoires et des sibilantes, la qualité de l'audio produit a parallèlement évolué, notamment par des formulations de rubans magnétiques de plus en plus performantes au niveau des hautes fréquences. Si bien que la quantité de compromis à effectuer pour pouvoir graver sur vinyle est demeurée sensiblement la même. D'autre part, il faut savoir que le dernier tour à graver sorti des usines Neumann, vers 1990, ne présentait que des différences cosmétiques avec les modèles produits 15 ans plus tôt, ce qui laisse songeur quand aux affirmations portant sur les « progrès » accomplis dans ce domaine depuis lors.

    --------------------------------------

    1) Par souci d'exhaustivité, et bien que ce ne soit qu'indirectement en rapport avec le mastering, il convient d'ajouter à cette liste les problèmes qui surgissent à la lecture du microsillon :
    - pleurage et scintillement ;
    - faiblesse de la séparation stéréo ;
    - bruits de moteur, directement transmis à l'aiguille, et/ou induits à la suite de faiblesses dans l'isolation électrique ;
    - bruits de surface, etc.

L'introduction de la notion d'art en gravure
    Si les premiers studios de gravure appartenaient tous aux principales compagnies de disques, la fin des années soixante voit l'émergence de studios indépendants, lesquels, dans un effort pour se constituer une clientèle, commencent à proposer d'améliorer le son des bandes maîtresses. Cette pratique, appelée à l'époque custom mastering, devient progressivement perçue comme une spécialité prestigieuse, auréole que le petit nombre de praticiens disponibles – à peine 150 recensés aux États-Unis en 1978 – tend à renforcer.

    Car il ne s'agit plus ici de seulement parer aux limitations de la gravure analogique, mais aussi d'intervenir sur certains aspects de l'enveloppe fréquentielle et dynamique du produit, en vue d'obtenir un son plus « propre », une meilleure séparation entre les instruments, un champ stéréo plus étendu, plus de mordant et de vigueur apparents pour les percussions, etc. La réputation de certains grands du mastering se construit dès cette époque, d'abord basée sur des choix précis et raffinés d'équipements de reproduction, de haut parleurs et même de conception acoustique des studios. Certaines combinaisons se révèlent plus efficaces que d'autres, et une frontière définie sépare désormais les studios d'enregistrement des studios de gravure.

    De la même manière, le profil de compétence requis pour devenir un ingénieur de mastering devient de plus en plus spécifique, et le temps de formation de plus en plus long : il ne s'agit plus seulement de connaître à fond l'équipement utilisé, mais aussi d'identifier instantanément les fréquences problématiques de chaque mixage, de pressentir les taux de compression à appliquer, en bref de faire en sorte qu'au bout du processus, l'auditeur perçoive une bonification sonore appréciable par rapport au mixage non retouché.

    Nous allons revenir, au cours de la prochaine section, sur les arguments invoqués en renforcement de ce type d'intervention, de même que sur les moyens généralement pris pour parvenir aux résultats visés. Qu'il suffise ici de dire que, quelques années plus tard, la pratique s'était généralisée au point qu'il était devenu absolument impensable pour une production audio commerciale, même de très moyenne envergure, de ne pas en passer par l'étape de la gravure « optimisatrice ».
Les débuts de l'audionumérique
    Le succès du custom mastering explique en partie pourquoi l'avènement du CD, en 1982, loin de causer le déclin du studio de mastering – puisqu'il n'y a plus de « gravure » à faire (2) - en précipite au contraire le développement. Affranchis des compromis imposés par les limitations du vinyle, les ingénieurs peuvent aller « plus loin », n'hésitant pas, par exemple, à accentuer au besoin les extrêmes, graves et aiguës, ou encore à élargir la plage dynamique, démarches exactement contraires à ce qu'il y aurait eu à faire, peu auparavant, en gravure analogique. En fait, toute intervention sur le signal n'est plus désormais dictée que par le souci d'optimiser le son, ce qui place d'autant plus de responsabilités directes entre les mains de l'ingénieur de gravure. D'autres phénomènes parallèles, tels que le déclin de la radio AM et la généralisation des systèmes de reproduction en stéréo, notamment dans les voitures, leur permettent bientôt d'ignorer également les limitations imposées par les besoins de la sommation en mono. On laisse passer des signaux hors phase présents dans le signal, on déphase même parfois sciemment les fréquences aiguës pour élargir l'image stéréo.

    La seconde explication du maintien de l'importance du studio de gravure après l'arrivée du CD tient au fait qu'il est demeuré, jusqu'à la fin des années 1990, un passage obligé entre le studio de mixage et l'étape de la fabrication du CD. Les usines de pressage n'ont en effet longtemps accepté pour pressage que des médias audionumériques spécialisés, encadrés d'une procédure de vérification d'erreurs complexe. Ces médias, comme la cassette vidéo 3/4" U-matic générée par le système Sony 1630, ou la cassette 8mm Exabyte du système DDP, nécessitent l'achat et l'entretien d'une machinerie aussi onéreuse que fragile. Aucun studio d'enregistrement à notre connaissance n'a jamais entrepris de se lancer dans cette aventure.


    ----------------------------
    Le glass master, équivalent pour le CD du stamper en analogique, est lui aussi fabriqué à l'usine de pressage, mais simplement à partir d'un signal audionumérique sur bande ou cassette. Pour le disque vinyle, l'original est un médium purement mécanique, un disque maître, appelé lacquer ou souple, obligatoirement gravé au studio de mastering.
Extensions du rôle du mastering
    On en est donc venu à confier aux studios de gravure des décisions de plus en plus lourdes de conséquences, assorties à des tâches de plus en plus complexes, liées entre autres au montage. On demande par exemple au mixeur de fournir plusieurs versions master de la même pièce, comportant des différences mineures du niveau d'un instrument ou d'un groupe d'instruments critiques, ou, plus souvent encore, de la voix. Il revient alors à l'ingénieur de mastering de sélectionner la version qui lui offre le plus de latitude pour travailler, ou même, au besoin, de remonter la pièce par sections en combinant ces versions. L'installation dans les studios de consoles à chemin doublé lui offre en outre la possibilité de prérégler une seconde série de traitements d'avance, à enclencher manuellement au moment propice. On peut ainsi basculer, en temps réel, d'un ensemble A de traitements, prévus par exemple pour les couplets, à un ensemble B spécifique aux refrains.

    Une étape significative de cette extension du rôle de l'ingénieur de gravure, bien qu'éphémère et exclusivement liée à un seul style musical, a été la vogue du dance mix, aujourd'hui dévolu, sous une forme modifiée, aux DJ. Une chanson pop rythmée est livrée au studio de gravure avec, parallèlement à son mixage officiel, une série d'extraits, de sous-mixages de sections rythmiques, de voix seules, etc. L'ingénieur de gravure construit une version allongée de la chanson, destinée entre autres aux discothèques, rajoutant au besoin des effets supplémentaires et même des sons d'autres provenances.

    Cette sophistication de son rôle place l'ingénieur de mastering dans une situation où il doit trancher entre les bienfaits à tirer d'une intervention supplémentaire sur la bande et les inconvénients liés à la multiplication des générations. Un exemple : le plus souvent équipé d'un égalisateur paramétrique à trois ou quatre bandes, il peut être tenté d'appliquer un première égalisation tout en en copiant le mixage sur une bande intermédiaire, pour pouvoir libérer l'égalisateur et bénéficier ainsi d'un nouvel ensemble de trois ou quatre fréquences sur lesquelles intervenir. Mais les inconvénients d'une telle démarche doivent être pris en compte : augmentation du bruit de fond et du taux de distorsion, altération de l'enveloppe fréquentielle, etc. De la même manière, et avec les mêmes inconvénients, on peut souhaiter soumettre le mixage à deux passes de compression, effectuées à des réglages différents.

    Certains artistes et producteurs, plus en moyen, refusant les termes de ce dilemme, mettent au point un processus de travail qui leur permet de profiter au maximum des possibilités offertes par le mastering, sans pour autant faire subir à leur produit la dégradation résultant des copies multiples. En un temps où les consoles de mixage ne sont pas encore capables de la mise en mémoire et du rappel des configurations, la solution consiste à retenir le studio de mixage pour une période de temps excédant le temps du mixage, et surtout, interrompue. Après chaque mixage, la console est laissée telle quelle, avec tous ses réglages, et la bande est écoutée au studio de mastering. Là, l'ingénieur fait quelques manipulations d'essai, puis dresse, avec le producteur, une liste des modifications à apporter à la configuration de la console de mixage, conçues :

    - pour éviter d'avoir à faire des égalisations qui entraîneraient une forme quelconque de compromis ; Exemple : après avoir déterminé que l'excédent perçu à une fréquence donnée provient surtout d'une piste particulière, on demandera au mixeur d'égaliser ou de baisser seulement la piste concernée, ce qui permet de ne pas faire de correction globale à cette fréquence.

    - ou au contraire pour permettre de faire des égalisations sans préjudice à l'ensemble ; Exemple : on observe que l'ensemble manque de rondeur, et que le mixage bénéficierait réellement, au mastering, d'une intervention à la hausse dans les fréquences graves, si seulement la piste XYZ ne prenait pas alors des proportions disgracieuses : il s'agit encore là d'égaliser ou de baisser une piste isolée, non plus en fonction de ce qui est entendu au studio de mixage, mais en fonction de ce que l'on prévoit faire au mastering.

    Le mixeur fait les changements demandés et produit un nouveau master, qui est encore une fois acheminé au mastering. Ce processus d'aller-retour peut se répéter plusieurs fois, jusqu'à ce que l'on décide que le mixage est maintenant parfaitement modelé en vue d'un mastering exclusivement esthétique, et que les seuls changements qui demeurent à effectuer ne peuvent être faits qu'au mastering. Si l'on ajoute aux coûts de cette opération le temps d'attente pendant lequel l'artiste et / ou le producteur, ayant ramené des acétates à la maison, évaluent l'étape accomplie dans un environnement sonore familier, on aura une bonne idée de l'extravagance des investissements mis en jeu. Que dire alors des cas ou la production, jugeant que le son des acétates (Gravure témoin à durée de vie limitée), trop éloigné de celui du produit industriel fini, ne donne pas une idée assez fidèle du résultat final, commandera et écoutera des pressages test avant de libérer le studio de mixage ?
Le CD-R, master pour la gravure
    A l'opposé de ces producteurs dont la recherche d'une certaine perfection audio ne semble pas connaître de frein financier, on trouve un certain nombre d'intervenants pour lesquels le budget supplémentaire obligatoirement affecté au mastering représente un poids trop lourd. Pour ces groupes, la possibilité de contourner effectivement le studio de gravure ne s'est en fait présentée qu'à partir de la fin des années 1990, lorsque les usines de pressage se sont mises en mesure d'accepter les CD-R. Or le processus de gravure que ce médium engendre, et auquel n'ont recours, encore aujourd'hui, que les productions à budget extrêmement limité - l'électroacoustique en fait grand usage - est en fait extrêmement limitatif au niveau de la qualité, et ce, sans même que les intervenants ne semblent en avoir conscience :

    - on croit généralement que la gravure de tout CD-R peut se faire, sans préjudice, à la vitesse maximale offerte par le graveur. Cela n'est vrai que pour les CD-R à la norme Yellow Book, utilisée pour les données, et qui effectue une vérification bit pour bit. La norme du CD-audio, dite Red Book, plus ancienne, est aussi beaucoup plus permissive envers les erreurs. Or ce nombre d'erreurs, de même que le taux d'errance - jitter - augmente avec la vitesse de gravure ;

    - même à 1x, le taux d'erreurs est très élevé. Le protocole de gravure d'un CD-R audio permet un niveau d'erreur allant jusqu'à 3%, ce qui représente le chiffre impressionnant de 220 erreurs par seconde. Or un CD de haute qualité présente en général un taux d'erreur par seconde situé entre 20 et 30…

    - enfin, le CD-R est encouragé par les usines de pressage parce qu'il leur permet de produire un glass master directement à 2 ou 4x, ce qui représente une importante économie de temps, qui n'est bien entendu pas répercutée sur la facture transmise au client. En comparaison, le Sony 1630 n'autorise ce transfert qu'à 1x, à moins de faire une copie intermédiaire vers un autre format. Or les glass master à 1x sont les seuls dont on puisse dire qu'ils permettent une ressemblance raisonnable avec le master original.

    Encore une fois, les faiblesses du CD-R, d'autant plus qu'elles sont ignorées par ses tenants, ne suffisent pas à expliquer la pérennité des studios de gravure : la confiance généralisée de l'industrie en la capacité de ces derniers d'optimiser la qualité du produit audio s'est maintenue. Nous verrons même que l'arrivée du DVD-Audio et du SACD, les nouveaux formats audio à haute densité, augmentera cette dépendance.
Les stations de travail audionumériques
    Les studios de gravure ont longtemps été des environnements exclusivement stéréo. L'arrivée sur le marché de stations de travail audionumériques - les Digital Audio Workstations, ou DAW - de niveau haut de gamme(SonicStudio de Sonic Solutions, Dyaxis de Studer, SADiE, et tout récemment Nuendo de Steinberg) a ouvert la porte à une extension encore plus grande de leurs possibilités d'intervention, en leur donnant accès au mixage stéréo de sources multipistes. Ce nouveau recours prend en fait deux formes :

    - le studio reçoit sur un CD-ROM de données un ensemble de pistes stéréo synchronisées, contenant chacune un sous-groupe d'instruments entièrement prémixé, aussi appelés stems. Le mixage d'origine est reconstitué intégralement simplement en calant chacun de ces sous-groupes à un temps unique de référence, et en les reproduisant à gain unitaire. L'ingénieur peut maintenant traiter des groupes d'instruments séparés, chaque intervention étant moins préjudiciable à l'ensemble tout en permettant un travail plus en profondeur ;

    - le même principe est poussé encore plus loin : le studio obtient sur CD-ROM un fichier dédié contenant toutes les pistes du mixage original, encore une fois sous forme prémixée. Ce procédé implique toutefois que les deux studios possèdent chacun un exemplaire du système utilisé. Les ensembles ProTools, bien que systématiquement décriés par les ingénieurs de mastering pour la qualité médiocre de leurs traitements et pour la dégradation causée à l'audio par le moindre calcul demandé, reviennent souvent dans ce type de collaboration à cause de leur haut niveau de pénétration dans les studios d'enregistrement de moyenne gamme. Dans ces cas, avant toute intervention, le mixage est bien entendu immédiatement exporté vers un système plus conforme aux normes de qualité pratiquées en mastering professionnel.

    Il est important de préciser que l'ingénieur de mastering ne tente nullement ici de se substituer au mixeur. Il ne se donne en fait que la possibilité d'intervenir plus finement et de façon moins préjudiciable à l'ensemble du mixage. On voyait autrefois, par exemple, des situations où l'égalisation d'une voix trop criarde pouvait entraîner l'affadissement d'une guitare, proche de la voix dans le domaine fréquentiel mais auparavant correctement ajustée : dans ce cas, on pourrait maintenant intervenir uniquement sur la voix, ce qui permet en fait de conserver intacte une plus grande proportion du mixage original.
La guerre du volume
    Parallèlement à toutes ces évolutions, une nouvelle tendance voyait le jour, qui allait affecter très négativement la réputation du mastering dans certains milieux - encore une fois, notamment ceux de la musique électroacoustique -. Cette attitude perdure encore aujourd'hui, et nous allons nous attacher à en démystifier les racines.

    À partir du milieu des années 1970, avant donc la fin de la période du vinyle, la partie la plus rentable de l'industrie de l'audio, plus particulièrement dans les styles pop, rock, disco, etc (mais le phénomène ne tardera pas à se répandre au country-western et au jazz-rock), se lance dans une escalade qui sera souvent appelée « guerre du volume ». Il avait été remarqué que les auditeurs à la recherche d'un poste de radio à syntoniser avaient tendance à se fixer sur les stations affichant un volume sonore plus élevé. Questionnés, les gens répondaient que cela leur semblait « sonner mieux ». Cette découverte était un pas de plus dans la systématisation de la recherche du profit, un ajout dans la trousse des outils « scientifiques » permettant de contrôler à coup sûr les réactions du consommateur de musique. Dans ce climat d'exubérance collective, personne ne s'empressait de se questionner sur ce qui pouvait bien se passer dans l'esprit dudit consommateur après quelques secondes d'exposition à cette douche ininterrompue de décibels.

    Pourtant les observations sur le sujet ne manquent pas, concernant notamment la fatigabilité progressive de l'oreille aux volumes élevés et aux hautes fréquences, concernant aussi la sensation d'intrusion provoquée par des niveaux de compression soutenus. On sait qu'un volume plus élevé permet de se détacher du niveau du bruit ambiant, et donc de percevoir davantage de détails dans la musique, mais dans des systèmes à la dynamique limitée – la transmission radio, le disque vinyle – il y a peu de marge de manœuvre si l'on veut conserver une réserve raisonnable de puissance - headroom - pour la reproduction adéquate des transitoires.
Les justifications
    À ces réserves rabat-joie, on préférera la théorie – encore en vogue aujourd'hui, et largement utilisée par les tenants des technologies vintage – selon laquelle certaines formes de distorsion fascinent davantage l'oreille qu'un même programme reproduit avec un son plus pur. L'étage d'amplification qui est situé juste après celui qui effectue la syntonisation radio (et bientôt, on le verra, les cartouches des tables tournantes) , est attaqué par un signal en moyenne égal ou supérieur à la limite prévue. Il produit alors obligeamment la distorsion attendue, et l'auditeur, titillé, se précipite chez le détaillant pour acquérir le disque. Dans ce scénario tout imbibé de lourdeur mercantile, il importe peu que les auditeurs se lassent du produit au bout d'un temps x ou y, dans la mesure où les décisions d'achat des consommateurs ont été déterminées, à l'aide de multiples études sur le sujet, comme étant essentiellement impulsives. On ne voit donc pas de problème à aller chercher dans la réserve les décibels qui manquent pour écraser à la fois les transitoires et la concurrence commerciale, et les manufacturiers d'équipements s'empresseront dès ce moment de concevoir des compresseurs / limiteurs de plus en plus « transparents », c'est à dire de plus en plus capables de permettre au volume moyen de se rapprocher du plafond absolu.
Les résistances
    Ce principe s'applique bientôt à la gravure du disque vinyle, et les ingénieurs de mastering se voient rapidement incités par les producteurs à appliquer les taux de compression les plus ridicules. La situation dégénère au point que le temps de studio devient exclusivement alloué à la recherche de tous les moyens possibles d'obtenir du gain, au mépris de toutes les techniques d'optimisation qui avaient fait le succès du mastering. Certains s'en sont même fait une spécialité, utilisant le semblant de correctif qu'une compression forcenée, en nivelant radicalement l'amplitude, semble appliquer aux problèmes d'enveloppe fréquentielle. Et c'est ainsi qu'il est devenu courant, pour certains, d'associer surcompression avec mastering. Il faut cependant savoir que la grande majorité des ingénieurs de mastering considère la guerre du volume comme une pratique fortement préjudiciable à la qualité sonore, et qu'ils ont continué à exercer leur métier sans cette contrainte dans les productions de musiques classique, jazz, ethnique, nouvel âge, etc. lesquelles n'ont jamais suivi cette tendance.

    Une autre exception à souligner est le mixage audio pour le cinéma, domaine dans lequel des normes, tant pour le plafond absolu que pour le niveau moyen ont été rapidement adoptées. Le mouvement actuel de promotion d'un retour vers un équilibre des niveaux dans la production musicale des genres liés au pop s'inspire d'ailleurs, on le verra, de ces procédures.
Vers la limite absolue
    À l'avènement de l'audionumérique, certains ont cru que le CD, avec sa gamme dynamique étendue, ses hautes et ses basses fréquences pouvant s'étendre jusqu'aux limites de l'audition et surtout ses transitoires virtuellement instantanées rendrait superflue et caduque cette guerre du volume, tant on escomptait tirer d'excitation musicale de ce médium. Hélas, le miracle ne se produit pas, pour diverses raisons, parmi lesquelles :

    - l'immaturité technologique des premiers convertisseurs et outils audionumériques de production ;

    - la méconnaissance des ingénieurs de son des faiblesses inhérentes du nouveau médium, entre autres au niveau de la fidélité de reproduction des hautes fréquences ;

    - le fait qu'une bonne partie des équipements analogiques utilisés dans l'enregistrement, le traitement et le mixage souffrent encore à l'époque de faiblesses inhérentes : bruit propre, distorsion, dynamique sévèrement limitée, coloration, etc. rendues plus perceptibles par la relative transparence du nouveau médium.

    En fin de compte, les CD de la première génération sont largement affectés par un son figé et métallique particulièrement crispant, qui réussit à faire oublier les avantages du son audionumérique. La guerre du volume se poursuit donc, alimentée maintenant par une nouvelle génération de compresseurs / limiteurs audionumériques capables, en appliquant un court délai au signal entrant, d'anticiper en quelque sorte les pics d'amplitude – fonction look ahead – et donc d'écraser les transitoires ultra rapides que les circuits analogiques laissaient encore passer.

    Résultat : par rapport aux marges pratiquées en 1980, on a réduit en moyenne de 17dB le niveau de headroom sur les CD, qui n'est plus, en 2000, que de 3dB. Les tracés d'amplitude des pages suivantes, tirés d'une variété de productions étalées entre 1956 et 2002, permettent de visualiser ce phénomène :









    Quelques remarques à propos de ces tracés. L'échelle verticale étant linéaire, la marque de 50% ne représente que 6dB sous le maximum absolu, ce qui donne l'impression que les productions enregistrées avec une réserve appropriée « sous-utilisent » en quelque sorte l'espace disponible. En réalité, ce sont les enregistrements se tenant trop proche de la limite qui profitent le moins de la finesse dynamique offerte, puisqu'ils n'utilisent en fait qu'une plage de 5 à 6dB. Techniquement, on peut les comparer à des produits « basse résolution ». La première page (en bleu) regroupe des tracés de référence, c'est à dire se rapportant à des productions en principe peu ou pas affectées par la guerre du volume :

    - St.Thomas affiche un maximum à 0.0dB, ce qui est surprenant pour un enregistrement jazz de cette qualité, au son souple et aéré. Ce niveau n'est cependant atteint que sur un seul et unique pic, situé à la fin du premier tiers ;

    - la faiblesse des maxima du 1er mouvement de la symphonie de Beethoven et de La colombe ne doit pas surprendre, étant donné qu'il s'agit ici d'extraits d'œuvres plus longues, dont les parties subséquentes atteignent des niveaux plus élevés.

    Bien que les pages suivantes soient consacrées à des productions pop glanées un peu au hasard, on remarquera qu'elles illustrent pourtant très fidèlement l'escalade des niveaux.

    - 1968/1986 : Glass Onion et Woodstock sont des remasterisations CD datant du début des années 1990, ce qui explique que leur niveau moyen soit plus élevé que celui des deux autres tracés de la même période ;

    - 1987/1994 : Slave to the rhythm est une production de Trevor Horn, réalisateur dont la réputation est celle d'un audiophile. Entièrement enregistré et mixé en audionumérique sur système Synclavier II - fait rarissime pour l'époque - le CD est longtemps demeuré une référence pour les professionnels de l'audio ;

    - 1995/2002 : afin d'en arriver à un niveau d'écoute subjectivement comparable à celui des productions immédiatement précédentes, l'auteur de cette étude a dû, pour cette période, diminuer de 9dB le niveau de sortie de son convertisseur N/A. Malgré cela, et malgré la relative variété des styles représentés, l'audition s'est révélée uniformément désagréable, voire même, et au risque de paraître maniéré, angoissante ;

    - dans les limites de la musique pop, Shakira et Peter Gabriel peuvent être considérés comme appartenant à des tendances très opposées, tant au niveau des techniques d'enregistrement que des modes de diffusion et des publics visés. La similarité dans l'aberration des niveaux n'en est que plus troublante…

    - remarquons l'évolution du tracé des trois chansons de Prince, lequel passe du plus aéré de sa période pour Kiss, au plus écrasé de sa période pour les deux autres chansons. Le tracé de So far, So pleased ressemble en fait à une onde carrée : on atteint ici la limite absolue de ce qu'il est possible d'injecter sur un CD.

Enfin, un retour du balancier ?
    En définitive, les producteurs de musique, dans leur désir d'accrocher en quelques secondes l'attention des DJs et VJs, des directeurs de la programmation des stations de radio / télévision, des responsables des achats des détaillants, bref, de l'ensemble des décideurs et personnes clés des circuits de diffusion et de distribution, ont imposé aux acheteurs de CD, leurs véritables clients, la situation suivante :

    - passant innocemment d'un CD à l'autre, sans prendre la précaution de toucher à son réglage de volume, le consommateur peut être victime d'une véritable explosion de l'amplitude moyenne de l'ordre de 10 à 12dB (Un rappel : chaque tranche de 6dB double le volume perçu !)

    - certains lecteurs CD bas de gamme produisent systématiquement une distorsion audible, à tous les réglages, en reproduisant une partie des CD pop les plus récents ;

    - même dans le cas de lecteurs capables de soutenir des niveaux prolongés, la combinaison d'une basse résolution dynamique réelle et d'une surcompression quasi permanente est physiquement éprouvante pour l'oreille ;


    Toutes ces contrariétés tendent à rendre rebutante la moindre séance d'écoute de CD entre amis. Dans ces conditions, il n'est pas étonnant que les ventes de CD soient en chute libre, d'autant que des observations récentes tendent à disculper Internet, en associant notamment l'apparition d'un produit en distribution gratuite sous format MP3 avec une augmentation de ses ventes de CD. L'industrie de l'audio risque donc d'avoir à se chercher d'autres raisons qu'Internet pour expliquer ses déconvenues actuelles. Quelques uns de ses décideurs commencent enfin à soupçonner, entre autres marques d'un relâchement généralisé de la vigilance au niveau de la qualité du son, les effets de la guerre du volume.

    L'arrivée des nouveaux formats audio, haute densité et multicanaux, aurait pu être considérée comme une occasion de repartir sur de nouvelles bases, plus respectueuses de l'intégrité sonore des produits audio et des oreilles des consommateurs. Las ! Aux yeux des décideurs, cette arrivée représente de toutes autres opportunités.
Les nouveaux formats
    C'est un autre genre de conflit qui vient s'ajouter aux causes de déréliction de l'industrie de l'audio, appelé la « guerre des formats ». Provoquée - comme la guerre du volume - par l'appât du gain et poursuivie, tout comme elle, au mépris de l'intérêt des consommateurs, cette bataille-ci n'est pas initiée par les producteurs de contenu mais par les fabricants de matériel électronique de reproduction. Les exemples de luttes pour le pouvoir de ce genre abondent dans le passé récent : Mac vs Windows, VHS vs ßeta, DBX vs Dolby, etc. mais jamais auparavant elles n'avaient atteint l'ampleur, le degré d'absurdité et le pouvoir paralysant qui caractérise en ce moment leur impact sur la situation en audio.

    Encore une fois l'enjeu est à courte vue, mais cette fois-ci les conséquences, même à court terme, sont désastreuses pour tous, y compris pour les fabricants de tous les camps. Il semble pourtant que la perspective d'imposer un nouveau format, couvert par une série de patentes, puis d'en retirer des dividendes à vie - pour chaque appareil fabriqué même par la concurrence - remplace ici toute autre forme de raisonnement ou de motivation.

    Là où, en toute logique, il aurait suffi, pour succéder au CD, d'un seul format, multicanal et haut de gamme, nous nous retrouvons, depuis 2000, avec deux principaux aspirants au titre de nouveau médium audio haute densité, le DVD-Audio et le SACD, et deux autres systèmes prétendant s'imposer comme norme multicanal, Surround et Ambisonic. Et il ne s'agit ici que d'une extrême schématisation de la situation réelle, qui n'entre ni dans le détail des diverses combinaisons possibles entre les systèmes susnommés, ni dans le dédale des sous-scénarios également en lice : compression de données, cryptages de sécurité, nombre et placement des haut-parleurs, densité de l'information audionumérique, etc. Si la plupart des professionnels de l'audio s'y perdent, les consommateurs, perdant totalement confiance en l'industrie, optent pour une conduite prudente : ils freinent leurs achats de CD conventionnels - une autre raison « non-Internet » pour expliquer la chute des ventes - mais retiennent également leur investissement en matière de nouveaux équipements de reproduction audio pour la maison. Comparée à la rapidité de la pénétration dans les foyers de standards cohérents comme le CD-Audio et le DVD-Vidéo, les nouveaux formats audio, englués dans les conflits et les contradictions, stagnent depuis bientôt une décennie.
L'audio haute densité : généralités
    Même s'il a réussi à surmonter rapidement ses défaillances initiales en matière de sonorité, grâce notamment à l'oversampling et à une sophistication croissante des convertisseurs N/A, le CD n'est jamais parvenu à convaincre les audiophiles, qui lui reprochent surtout sa froideur. Malgré cela, aucun nouveau médium analogique n'a été proposé pour supplanter le CD au niveau des consommateurs. Les studios commerciaux, quant à eux, qui avaient rapidement abandonné le DAT 16 bits comme support master, au profit du ruban analogique 1/2 pouce, roulant à 30 pouces / seconde, avec ou sans Dolby SR, se sont ralliés massivement, dès que cela est devenu possible, à l'audionumérique haute densité, lequel menace maintenant de supplanter tous les autres formats, multipistes et master. On le voit, malgré les carences éthiques et normatives des fabricants, une forme de consensus se dégage, tant chez les producteurs que du côté des consommateurs, autour d'un meilleur audionumérique.

    Cela n'empêche pas les amateurs de « débats » de remettre en question, ces temps-ci, l'utilité réelle des formats audio haute densité. Il peut être intéressant de relever les arguments invoqués :

    - l'échantillonnage à plus de 44.1kHz est inutile, puisque l'audition humaine est limitée à 20 kHz ;

    - pourquoi aller au-delà de 16 bits de quantisation, puisque la gamme dynamique utile, dans l'immense majorité des contextes d'écoute, n'atteint même pas les 96dB actuellement offerts ?

    Il s'agit là de constats spectaculaires, mettant l'emphase uniquement sur les caractéristiques extrêmes et marginales de la haute densité. De plus, ils ne sont que partiellement exacts. Ainsi :

    - des tweeters dont la courbe de réponse en fréquence est identique jusqu'à 18 kHz, mais dissemblable au-delà, sont aisément différenciés à l'écoute par la plupart des témoins ;

    - même s'il était avéré que l'oreille ne perçoive pas les ultra hautes fréquences, d'autres zones du corps, nommément certaines parties de la structure osseuse, y réagissent ;

    - la sensation d'une écoute ouverte et aérée est universellement rapportée lors d'auditions de matériel comportant des ultra hautes fréquences ;

    - la plupart des casques d'écoute de grande consommation développent facilement 110 dB ;

    - des milliers de personnes s'entassent dans des discothèques et des raves devant des systèmes de son projetant 120dB et au-delà ;

    Bien entendu, la principale raison pour laquelle on échantillonne à 96 kHz - plutôt qu'à 48 kHz, par exemple - est qu'on dispose de deux fois plus d'échantillons pour « décrire » le contenu audio, et ce à toutes les fréquences. La numérisation n'en est donc que plus fine et plus réaliste. Sur une onde de 48 cycles, il peut sembler superflu, dans ce même exemple, de passer de 1000 à 2000 échantillons par cycle, mais que dire d'un sinus de 12000 cycles, lequel ne dispose pour sa description à 48 kHz que de 4 échantillons par cycle ? Avons-nous encore bien, à la reconstruction de l'onde, un sinus ? Le raisonnement est le même en ce qui concerne la structure en bits. Quel que soit le volume de départ, un changement subtil vers le haut ou vers le bas sera décrit plus fidèlement par le nombre supérieur de « paliers » offerts par l'enregistrement en 24 bits. Les tracés d'amplitude suivants schématisent cette notion :



    Précisons d'emblée que ces courbes ne sont qu'une illustration conçue pour aider à visualiser le processus de numérisation. Elles ne prétendent pas être un reflet exact de la réalité de la reproduction : ainsi, dans les lecteurs CD, divers mécanismes correcteurs, notamment des filtres passe-bas, sont introduits dans le circuit pour « raboter » en quelque sorte la distorsion produite par les fréquences d'échantillonnage trop justes, en éliminant les harmoniques supérieures produites par les ondes carrées, ce qui les ramène vers le sinus. Mais ces filtres restent évidemment en fonction même si l'onde de départ était réellement de forme carrée ! On le voit : tous ces mécanismes demeurent des béquilles, elles-mêmes génératrices de problèmes. En fin de compte, l'information d'origine n'est tout simplement pas présente dans ces enregistrements tronqués, et on laisse à un circuit électronique le soin d'effectuer une approximation de l'onde d'origine.
Le DVD-Audio : caractéristiques
    Techniquement réalisable depuis le milieu des années 1990, mais paralysé par de nombreuses discussions de nature commerciale au sein du consortium le parrainant, le DVD-Audio n'a été officiellement introduit que vers la fin de l'année 2000. La publicité maladroite donnée à ce délai et au contenu même des discussions a fortement agacé le public, qui ne lui a donc accordé à sa sortie qu'un intérêt marginal. Dans ce climat, même l'extrême versatilité du médium a été mal perçue, se transformant en source de confusion.

    Il devait s'agir au départ d'un médium haute définition et multicanal, capable d'offrir 6 canaux d'audio linéaire à 24 bits / 96kHz. Or :

    - ce résultat nécessiterait une largeur de bande de 13,8 Mb / seconde, laquelle excède les 9,6 Mb/s finalement fixés pour le médium. On recourt donc à une compression de données non destructive, du type zip utilisé en informatique, appelée MLP (pour Meridian Lossless Packing), et qui reconstitue « bit pour bit » le signal initial, tout en offrant un taux de compression de 1,85 :1 ;

    - mais… la norme DVD-A permet aussi l'usage de protocoles de compression de données de type destructif, basés sur des principes de psychoacoustique, comme le Dolby Digital, aussi appelé AC-3, et le DTS !

    - un signal linéaire à 24 bits / 192kHz est également possible, mais en stéréo seulement, et occupant alors tout l'espace disponible sur le DVD-A ;

    - en fin de compte, dans la limite de l'espace disque et de la bande passante offerts, presque toutes les combinaisons sont possibles, du nombre de canaux – de 2 à 6 - à la structure même de chacun de ces canaux : 16, 20 ou 24 bits, de 44.1 à 192 kHz, encodage linéaire, MLP, AC-3, DTS, etc.

    - le producteur peut aussi afficher, pour chaque piste audio, quelques images fixes : informations sur les interprètes, paroles de chansons, etc. Mais pour ajouter à la confusion déjà régnante dans l'esprit de plusieurs avec le DVD-Vidéo, une zone vidéo dédiée est aussi prévue, bien que de capacité limitée.
Le mastering du DVD-Audio
    Les ingénieurs de mastering, pour la plupart, effectuaient déjà une conversion de toutes les bandes audionumériques reçues aux formats 44.1 et 48kHz vers les formats 24bits / 88.2kHz et 24bits / 96 kHz avant tout traitement, parce qu'ils avaient tout simplement constaté que cela en améliorait d'emblée la qualité sonore. La plupart des appareils de traitements audionumériques dont ils disposent travaillent de toute façon à ces fréquences. La réception de masters – ou, rappelons-le, de stems ou de prémixages multipistes - déjà enregistrés à ces formats est évidemment une amélioration supplémentaire. Il n'existe encore que peu de média de transfert de type professionnel capables de supporter ces formats, si bien que la tendance actuelle est de tout simplement transférer le matériel sur plusieurs CD-ROM de données, méthode peu coûteuse et qui semble parfaitement acceptable aux points de vue fiabilité et intégrité du signal.

    Il faut ici préciser que l'ingénieur de mastering ne peut plus être considéré, en ce qui concerne le DVD-Audio, comme l'ultime étape avant l'envoi aux installations de fabrication. En effet, comme pour les DVD-Vidéo ne comportant qu'un programme audio, et sur lesquels nous reviendrons en détail, la navigation à travers les différentes pistes, implique - pas obligatoirement, mais le consommateur s'y attend - l'usage d'un écran de télévision, qui permet de visualiser le contenu et de naviguer à travers les différentes options. Ceci entraîne un travail de conception graphique, un certain montant de programmation, et une intégration de tous ces éléments avec l'audio, à l'intérieur d'un logiciel d'authoring. Une poignée de studios de gravure ont mis sur pied des départements séparés pour offrir à leur clientèle les services supplémentaires, mais la majorité d'entre eux se contentent de faire suivre l'audio optimisé à des compagnies spécialisées. Une situation similaire affecte le SACD.
Le SACD
    Avec un synchronisme impeccable, Sony et Philips, multinationales déjà rompues à l'exercice puisque partiellement responsables du lamentable épisode VHS vs ßeta, ont attendu que les déboires du DVD-Audio portent l'intérêt pour l'audio haute densité à son niveau le plus bas, pour venir écœurer encore davantage le public en lançant leur propre format. Il s'agit d'une extension de la technique de l'oversampling, appelée DSD (pour Direct Stream Digital), et capable d'offrir, grâce à un échantillonnage de 2,8224mHz à 1 bit, une plage de fréquence allant de courant continu à 100kHz et une gamme dynamique de 120dB. Cela dit, le manque d'à-propos du Super Audio CD est consternant :

    - il est basé sur une technologie en rupture complète avec la LPCM (pour Linear Pulse Code Modulation) utilisée dans tous les systèmes audionumériques à ce jour. Aucun système d'enregistrement actuel, logiciel, insérable, etc. ne s'y adapte, et les outils spécifiques pour son enregistrement et son traitement, rarissimes, sont hors de prix ;

    - bien que largement considéré, du point de vue de la qualité sonore, comme égal ou très marginalement supérieur aux formats LPCM 24bits / 96kHz et 24bits / 192kHz, le SACD, comme avant lui le CD-Audio - mais contrairement à ses concurrents haute densité du monde LPCM - est un format fermé, n'offrant que très peu de possibilités d'intégration pour d'éventuelles améliorations ;

    - contrairement aux lecteurs DVD-Audio, pour lesquels une sortie audionumérique au format FireWire est prévue, offrant ainsi la possibilité d'une conversion N/A par un appareil externe spécialisé, tous les lecteurs SACD, à une exception près, ne sont équipés que de sorties analogiques. Une contradiction aberrante avec la vocation audiophile du format ;

    - et bien entendu, il est hors de question pour un lecteur SACD de lire les DVD-A, et vice-versa. Quant à la possibilité de lire un SACD sur un lecteur CD-Audio, elle n'est qu'illusoire : pour un prix bien supérieur au CD, on obtient une performance exactement équivalente, puisque qu'il ne s'agit ici que de lire sur le SACD une couche bien distincte d'information, à la norme Red Book !

    Même si ce conflit passe, aux yeux et aux oreilles du public lassé, pour une course de plus pour le contrôle monopolistique entre deux formats équivalents, la guerre médiatique entre le DVD-Audio et le SACD se poursuit, régulièrement alimentée par la nouvelle du ralliement de l'une ou l'autre multinationale de la musique à l'un ou l'autre camp. Des deux côtés, les ventes de disques et de lecteurs sont insignifiantes, et plusieurs observateurs considèrent d'ores et déjà que l'introduction de l'audio haute densité est un échec.

    Partagé entre fantasmes de conquête et réalisme commercial, le tandem Sony / Philips annonçait, début octobre 2002 à la 113e convention de l'AES , qu'un million de lecteurs SACD avaient déjà été vendus, en oubliant de mentionner le fait qu'il s'agit en fait de lecteurs DVD-Vidéo capables de lire le format SACD. En fait, durant l'année précédente, plusieurs des lecteurs dédiés SACD des deux compagnies avaient été retirés du marché, sans aucune annonce de lancement prévu de modèles de remplacement pour le futur.
Le son multicanal : généralités
    Avec plus de 30 millions de systèmes Cinéma maison installés à ce jour, le son multicanal, malgré là encore une surabondance de sous-formats et de déclinaisons, semble avoir adopté une forme consensuelle : la plupart des systèmes de reproduction installés sont en fait une simplification de la norme Surround 5.1. Les appareils de lecture sont le DVD-Vidéo et les consoles de jeux, ce qui nous mène tout droit à la constatation suivante : la musique a jusqu'ici largement sous-utilisé le son multicanal ! Or, si les avatars de l'audio haute définition sont largement responsables de ce retard, nous verrons que d'autres causes - entre autres stylistiques - sont aussi identifiables.

    Nous allons discuter brièvement du seul - et très peu menaçant - concurrent du Surround, le système Ambisonic, qui est, ironiquement, un système conçu avant tout pour la reproduction de la musique, avant de revenir sur divers aspects du Surround, incluant le mastering d'icelui.
Le système Ambisonic
    Les experts chargés de faire la conception acoustique des studios d'enregistrement, des salles de mastering, et de toutes les pièces destinées à une reproduction audio optimale le savent depuis longtemps : hors une petite superficie située à mi-chemin et à un angle bien précis par rapport aux hauts parleurs - le fameux sweet spot - l'image stéréo devient inconsistante. Le problème est encore plus accentué en Surround conventionnel, lequel réduit le peu de marge de manœuvre avant arrière qu'offrait encore le stéréo.

    Offrant l'avantage d'une superficie d'écoute optimale beaucoup plus étendue, le système Ambisonic propose, par le biais d'une chaîne complète et intégrée de procédés, allant de l'enregistrement jusqu'à l'écoute finale, une restitution intégrale, en trois dimensions, de l'espace sonore au moment de la prise de son. Encodée en quatre canaux seulement, l'information peut être reproduite par le nombre de canaux de reproduction choisi par le consommateur, qui a également le choix de l'emplacement de chacun de ses haut-parleurs. Plus ce nombre est élevé, plus fidèle est la reproduction de l'ambiance originale. L'encodage Ambisonic s'effectue soit au moment de la prise de son, à partir de microphones spéciaux, soit à l'aide d'un équipement spécialisé, branché à la sortie d'une console multipiste.

    Le handicap de ce système est qu'il nécessite un décodeur spécifique, qui est onéreux. La solution actuellement offerte, le G-Format, est de « figer » sur DVD-A le rendu tridimensionnel du système Ambisonic en 6 canaux, disposés selon la norme surround 5.1. Ce qui ramène le consommateur aux limites et obligations de cette norme…
Les systèmes Surround
    Hâtivement dérivées du cinéma, les diverses déclinaisons du système Surround - 5.1, 7.1, 10.2 - n'offrent pas davantage d'intelligibilité aux yeux du consommateur que les autres bricolages de l'industrie audio contemporaine. Le fameux « .1 », par exemple, qui désigne le canal LFE (Low Frequency Effects), est le plus souvent confondu avec le ou les sub-woofers (Haut-parleur de sous-graves) à usage général, c'est-à-dire destiné(s) à étendre la réponse en fréquence des autres canaux. Il faut également savoir que la norme 5.1 « cinéma maison » est différente du 5.1 tel que défini par le consortium DVD-A. Les détails importent peu : les consommateurs n'ont pas augmenté de façon significative la part de leurs revenus qu'ils sont disposés à dépenser pour leur système de reproduction, si bien que les ressources qui servaient à acquérir 2 canaux sont désormais à partager entre 5. La perte de qualité qui s'ensuit peut être compensée par le surcroît d'excitation qu'apportent les canaux supplémentaires. Mais encore faut-il pour cela que le placement de tous ces haut-parleurs corresponde le moindrement aux spécifications de la norme, ce qui était déjà rarissime en stéréo…
Le mastering en Surround
    Les studios d'enregistrement de musique ont longtemps hésité avant de transformer leurs installations pour accommoder une production en Surround. La confusion et l'incertitude liées aux guerres de formats se sont ajoutées à des problèmes épineux de conception acoustique de studios devant gérer une telle quantité de haut-parleurs : problèmes de phase, de réflexions, d'encombrement, etc. Les studios de mastering se sont montrés dans l'ensemble encore plus circonspects, et commencent à peine à y songer. Un compromis courant semble être de continuer de concentrer l'essentiel des ressources sur le couple stéréo principal, quitte à lui adjoindre un autre système multicanal complet, de bien moindre qualité. Les égalisations sont faites, par paires de canaux, sur l'écoute principale, et le système multicanal ne sert qu'à des ajustements mineurs d'équilibre entre les canaux. Du côté production, il semblerait cependant que le mixage multicanal soit une opération en fin de compte beaucoup plus facile et gratifiante que le mixage en stéréo. Il n'est plus nécessaire de recourir aux égalisations complexes qui avaient souvent pour unique but de faire cohabiter un grand nombre de sources sur deux haut-parleurs. L'étalement des canaux permet donc ici une économie en traitements, qui se traduit par une diminution des erreurs dûes aux écoutes (cette notion est clarifiée au point 2.1.3), et donc par un son plus ouvert. La question demeure : à quel point de dégradation ces bénéfices parviennent-ils aux consommateurs?
En conclusion
    Ce n'est pas seulement à cause de sa relative nouveauté que le SACD ne dispose, comme on l'a vu, que d'un très petit nombre d'outils de traitement audionumérique. C'est surtout parce que tout traitement - autre que l'enregistrement et le montage sans transformation, même de gain - d'un signal à ce format nécessite à l'heure actuelle un certain degré de conversion vers un encodage de type LPCM. En comptant l'opération inverse de réencodage final vers un flux DSD, on peut escompter que les très relatifs avantages qualitatifs du format (il y a aussi quelques désavantages inhérents à la technique DSD, dont ne souffre pas le LPCM) ont disparu à l'issue du processus. Le format ne conserve donc sa raison d'être que dans le cas d'enregistrements de performances destinées à être reproduites telles quelles : une partie seulement des productions classiques et jazz, auxquelles ont peut ajouter le cas bien hypothétique d'une captation en sortie de console d'une impeccable prestation électroacoustique dont la source serait un système de synthèse analogique haut de gamme...en bref, une infime portion de la musique produite. Et le procédé Ambisonic est encore plus restrictif à cet égard : le système n'est irremplaçable que pour une captation par microphone, et encore faut-il que la salle utilisée offre une acoustique digne de considération.

    Or, depuis une trentaine d'années, une évolution remarquable dans l'offre d'équipements destinés à la production musicale a déclenché un processus de relative démocratisation de cette production : on pense ici aux multipistes analogiques, aux moniteurs à champ rapproché et à l'échantillonnage, puis à l'informatisation de l'audionumérique - notamment à la prolifération des insérables - et à la distribution par Internet. La transition actuelle vers l'audio haute densité et multicanal via le DVD et le Surround s'inscrit, dans une certaine mesure, dans cette mouvance. Mouvance qui a permis à un grand nombre de styles et de points de vue, jusque-là privés de toute diffusion, de se faire connaître et de s'exprimer, dans une explosion de créativité sans précédent. On est enfin sorti de l'aliénante dichotomie musique sérieuse / musique alimentaire, laquelle ne donnait droit de cité qu'à des modes d'expression « déjà au catalogue ».

    Les aspects régressifs de cette tendance sont également dignes de mention : baisse marquée du souci de la qualité sonore, laisser-aller du point de vue normatif, en bref une complaisance généralisée qui se paie maintenant par une désaffection du public consommateur, voué à l'écœurement par une offre musicale débridée, bâclée et pléthorique. Inutile de préciser que la démocratisation des moyens de production n'est pas, loin s'en faut, la seule responsable de cette débâcle…

    Or les systèmes SACD et Ambisonic viennent-ils contrer cette tendance à la dégradation, par le vigoureux rappel d'une exigence minimale de qualité sonore ? Loin s'en faut ! De par le fondement même des techniques mises en jeu, il est évident qu'ils ne peuvent s'adresser qu'à un cercle très restreint de consommateurs, dont l'horizon musical se limiterait strictement aux productions de type performance / captation . Or ces productions, souvent d'intérêt largement muséologique, se retrouvent dans les faits réservées aux seuls groupes sociaux intensivement - et onéreusement - dressés à les apprécier. S'il est bien représentatif du style de l'idéologie néo-conservatrice, ce nouveau purisme n'est-il alors que technique et musical ? N'est-il pas aussi obligatoirement social, voire ethnique ? Il serait surprenant, par exemple, que quelqu'un songe à produire une remasterisation Ambisonic des catalogues d'Om Kalsoum, ou de Trini Lopez…

    Handicapés par une image austère et élitiste, ne correspondant à aucune demande réelle, non-viables commercialement, ces systèmes ne peuvent même pas prétendre jouer un rôle de régulation sociale, puisque que les styles musicaux dont ils prétendent devenir les véhicules privilégiés n'ont en réalité plus cette fonction depuis longtemps. Mais alors, pourquoi ont-ils été mis au point ? Quelle est la motivation derrière les sommes investies dans leur inutile promotion ? Seules deux explications viennent à l'esprit de l'auteur de cette étude, et elles sont minces :

    - leurs promoteurs sont déconnectés du réel, ils éprouvent une émotion esthétique devant les situations absurdes ou sont tout simplement idiots ;

    - certaines personnes ne se sentent en sécurité que lorsqu'elles sont isolées de la racaille, dans tous les aspects de leur existence, par un ensemble complet de dispositifs inexpugnables. Des stratèges d'une rare subtilité, experts en marketing prospectif, ont identifié le début d'un regain démographique de ce profil psychologique particulier...

    Et avant que le standing cognitif de ce document ne sombre davantage, provoquant une plus ample dégradation de la réputation de son auteur, changeons donc de section.

    lire la deuxième partie
A propos de l'auteur: Dominique Bassal
Compositeur de musique électroacoustique / studio de mastering / sound design
L'avis des membres
Pas encore membre?
Devenez membre! C'est rapide, gratuit et cela vous permet de poster vos annonces, vos news, des questions dans les forums, de changer vos réglages d'affichage...
Contribuez
MacMusic est VOTRE site.Participez à son évolution...
Cette section de MacMusic est entretenue par Nantho et l'équipe des traducteurs. N'hésitez pas à lui proposer vos articles.
00:23 CEST - © MacMusic 1997-2017