eContact!JTTPSonus
CEC
Communauté électroacoustique canadienne
Canadian Electroacoustic Community
GM-500 — 1455, boulevard De Maisonneuve Ouest
Montréal, QC — H3G 1M8 Canada
http://cec.sonus.ca – cec@sonus.ca
SOURCE

Le mixtering

Modèle de travail pour une qualité sonore accrue en électroacoustique

1. Résumé

Depuis le début des années 1980, l’écart de qualité sonore entre les musiques électroacoustiques et les musiques commerciales s’est dramatiquement élargi au détriment des premières. Riches de leurs expériences dans ces deux mondes musicaux, les auteurs du présent article proposent un modèle de travail pour une mise à niveau de la qualité sonore en électroacoustique, offrant une extension du rôle du mastering empiétant sur le rôle du mixage, que les auteurs se proposent d’appeler « mixtering ».

2. Contexte

2.1 Quelques conventions

Les auteurs du présent article s’entendent pour dissocier le contenu du contenant, à savoir que la composition électroacoustique ne réside pas entièrement dans le son pour le son, mais bien dans l’utilisation gestuelle de celui-ci. Conséquemment, pas plus que dans d’autres genres musicaux il n’y a ici de trahison à corriger l’attaque trop agressive d’une itération, à réviser l’amplitude des fréquences medium graves d’un mixage boueux, ou à clarifier la séparation stéréo d’une source étroite. Pour paraphraser Bob Katz (2002, p.11), le mastering est la dernière étape créative du processus de production audio, où la musique est passée au microscope audio dans un environnement de référence par un spécialiste non impliqué.

Les deux auteurs s’entendent aussi à différencier les traitements de conception sonore, où typiquement une partie du son sera conservée pour son attrait musical, puis traitée à nouveau ou non, et les traitements de mixage, où les différents sons mis ensemble sont transformés pour optimiser leur cohabitation et la qualité de l’ensemble. Bien que la frontière soit floue entre les deux types de traitement, entre autres parce qu’ils partagent les mêmes outils, ils diffèrent grandement dans leur approche : le premier exige une écoute impliquée, le second, une distance par rapport au matériau.

2.2 Le constat de la différence grandissante de qualité

Depuis l’album phare des Beatles en 1965, Rubber Soul, les musiques commerciales utilisent le studio comme principal outil de production d’une œuvre qui n’est plus simplement la captation d’une performance en direct, ni même la prétention d’icelle, mais bien la création d’une œuvre qui n’existe que sur bande (Chion, 1994). Jusqu’aux années 80, les musiques électroacoustiques et commerciales partageaient des studios très similaires, ce qui pourrait expliquer les qualités sonores presque identiques entre les différentes productions, tant sur les plans dynamiques que timbraux. Par exemple, I Feel Free du groupe Cream (1966) et Violostries, de Bernard Parmegiani (1963), produits à la même époque, partagent un timbre et une dynamique représentatifs des possibilités technologiques de l’époque.

On constate cependant, à partir du milieu des années 80, une amélioration accrue des productions commerciales que la musique électroacoustique ne semble pas suivre. Par exemple, aucun album électroacoustique n’est arrivé à ce jour à une qualité sonore comparable à celle de l’album Brand New Day, du chanteur Sting (1999), tant au niveau de la dynamique, de la profondeur et de la transparence des plans, et de la richesse des timbres. La date à laquelle l’écart s’agrandit coïncide avec l’avènement du studio personnel qui, comme le mentionne Robert Normandeau (2004), permet enfin au compositeur d’électroacoustique de travailler comme bon lui semble, quand bon lui semble. Cette accessibilité des ressources s’est aussi répercutée dans les institutions d’enseignement, où pour le prix d’un studio professionnel, une dizaine de petits studios de qualité nettement inférieure peuvent dès lors être assemblés, au détriment de leur cahier de charge.

image YGSi cette position enthousiaste eut un effet indéniablement positif sur la création musicale, les contrecoups se font sentir, le déficit de qualité étant en constante augmentation depuis 15 ans. Contrairement aux studios professionnels qui se sont mis à jour, profitant des fruits de la recherche en acoustique et en traitement de signal, très peu des studios de compositeurs ont un équipement de pointe, et surtout un système d’écoute de référence. Celle-ci est essentielle pour permettre un travail de discernement sur le plan de la qualité sonore qui est, selon nous, la principale raison de ce clivage de qualité entre les productions de musique populaire et électroacoustique de nos jours.

Loin de remettre en question le bien-fondé du studio de compositeur, ses avantages créatifs étant trop importants, nous tenterons de proposer un modèle de travail pour rattraper ce retard qualitatif, pour que l’électroacoustique retrouve sa place de précurseur aussi bien dans la qualité de sa production que dans ses propositions compositionnelles.

2.3 Nos expériences respectives et communes de mastering

Pour permettre au lecteur de mettre en contexte la proposition de mixtering, les auteurs doivent présenter rapidement leur parcours.

Dominique Bassal est compositeur électroacoustique et ingénieur de studio. Il possède un studio de référence, conçu et calibré par un acousticien aux standards nécessaires au mastering, activité qu’il pratique professionnellement depuis 1997, se spécialisant à partir de 2002 dans le mastering électroacoustique. Pierre Alexandre Tremblay est compositeur, interprète et réalisateur dans des styles complémentaires : musique électroacoustique, free-jazz, musique populaire de tradition afro-américaine. Ses expériences de mastering sont celles d’un client : en réalisateur d’albums de rap et de jazz, il a fait appel aux services de cinq studios de mastering différents, à Montréal, Toronto et New York.

Pierre Alexandre a assisté à une conférence sur le mastering en électroacoustique donnée par Dominique Bassal en 2004. Les grands traits de cette conférence sont disponibles sur Bassal (2003), et les auteurs s’entendent pour dire que la qualité objective du lieu d’écoute, corrigée par un acousticien compétent, est primordiale. Pour une explication de l’impact d’une écoute objective, se référer à Katz (2002).

Après cette conférence, Pierre Alexandre a approché Dominique pour masteriser son premier album sur l’étiquette acousmatique Empreintes DIGITALes, intitulé alter ego (Tremblay, 2006).

Ce processus fut difficile. Pour résumer brièvement cette expérience, le mastering débuta par la livraison des « stems » mixés par le compositeur, accompagnés d’une description des intentions gestuelles, selon le guide de production des stems publié par Bassal (2004). Après une première proposition de la part de l’ingénieur, la liste des recommandations du compositeur faisait plusieurs pages. Après une seconde proposition, la liste avait diminué de moitié, mais une entente était encore difficilement envisageable. Après une troisième proposition, les deux parties ont accepté ce qui était un compromis de chaque part, avec une liste de réussites satisfaisantes, mais dont certains points litigieux restaient irrésolus.

Fait important à souligner, la conclusion de cette expérience était cohérente avec toutes les autres expériences de mastering de Pierre Alexandre : le produit fini sonne toujours mieux partout ailleurs que dans le lieu de mixage, où le produit d’origine est plus convainquant.

2.4 La révélation

La discussion est donc interrompue pour cause de productivité, mais quelques semaines plus tard, à l’invitation de l’ingénieur, le compositeur passe au studio de mastering pour une écoute de références. La séance commence par quelques albums de musique populaire reconnus pour leur qualité sonore, et déjà les conditions d’écoute parlent d’elles-mêmes : l’extension et la précision des basses, la profondeur de champ de l’image, la qualité du plan stéréophonique tant en largeur qu’en hauteur. L’ingénieur de mastering propose alors de faire une écoute A/B/C, entre la source de alter ego, la première proposition de mastering et la version de compromis.

L’expérience est frappante : de l’ordre de la révélation ! Les principaux points litigieux n’ont pas lieu d’être, car dans un environnement de référence, les auteurs sont d’accord sur presque tous les points. Pire encore, les demandes de corrections du compositeur lors du processus de mastering n’ont fait que diluer l’impact des améliorations apportées lors de la première passe.

S’en suit pour le compositeur un grand soulagement, et une grande question. D’abord, le soulagement : les problèmes ne sont pas induits par son manque de compétence technique, ni même par une capacité d’analyse sonore grossière, puisque ces problèmes, ainsi que leur solution, sautent maintenant aux oreilles ! Le déséquilibre des plans, l'agressivité inutile, la confusion de l’image par l’usage de réverbérations floues, et la pauvreté des timbres après EQ et compression sont omniprésents. De plus, certains défauts de source ont été mis en relief par le travail de nettoyage de l’ingénieur.

La question qui alors se pose : quelle est la cause de ce problème, et surtout, comment le régler ?

3. Démarche

3.1 L’hypothèse sur la source du problème

Selon nous, le compositeur perd une grande partie de la qualité sonore à l'étape même où il tente de l’améliorer, lors du mixage. Ces problèmes, rencontrés presque partout mais dont la liste n’est pas exhaustive, sont les suivants :

  • problèmes de phase suscités par la plupart des EQ;
  • distorsions des transitoires et induction de souffle, créés par les contrôles dynamiques inutiles ou intempestifs;
  • perte de transparence, principalement dûe à l’accumulation d’un trop grand nombre de traitements qui distordent tous un peu la source;
  • perte de précision dans la localisation des sources, dûe à l’usage de réverbérations dont la qualité, sinon les ajustements, ne sont pas adéquats;
  • effet d'entraînement : à partir du moment où on a fait un mauvais EQ, on doit compenser sans fin sur toutes les autres pistes; on peut même revenir à la première piste pour corriger encore;
  • perte de précision et de contrôle dans les basses fréquences.

Ces points admis, et une fois placé devant une écoute de référence, soit dans un studio calibré par un acousticien, le compositeur se rend compte qu’il n’aurait pas pris les mêmes décisions.

Autre point sur lequel il est important de revenir : lors des interminables discussions, la réécoute par le compositeur de la version masterisée se faisait dans le système même où la musique avait été mixée, ce qui semble expliquer pourquoi le compositeur sentait une perte dans certains cas : les décisions de mixage étaient prises avec le biais d’une écoute non linéaire, dont les problèmes se retrouvent en miroir dans le mixage. Par exemple, un système trop riche en fréquences graves produira invariablement un mixage pauvre en basse, et un système agressif dans les médium aiguës produira un mixage sans énergie. Le compositeur trouve donc étrange le résultat du mastering, car l’écoute est toujours biaisée en faveur du mixage d’origine. Ici encore, Katz (2002, chapitres 6 et 14), ou même certains manuels d’utilisateur de moniteurs de studio, viendront confirmer ce point et souligner l’importance du traitement acoustique. Étrangement, et probablement signe du peu d’importance attribuée à la qualité d’écoute, une référence en électroacoustique tel The Computer Music Tutorial (Roads, 1996) n’aura, pour le mixage, qu’un maigre sous-chapitre de quatre pages, sur un impressionnant total de 1204 pages.

Un autre indice que le problème vient des décisions prises au moment du mixage nous apparaît quand on regarde la liste des corrections demandées par le compositeur pour la pièce Au Croisé, le silence, seul, tient lieu de parole (Tremblay, 2006). Cette pièce fut initialement mixée en même temps que le compositeur travaillait au studio Victor sur une production de rap. À plusieurs reprises, le compositeur a pu évaluer son travail de mixage dans un milieu d’écoute certes imparfait, mais dont l’acoustique était évidemment bien supérieure à celle de son studio personnel. Le résultat est frappant : non seulement la liste des modifications par l’ingénieur de mastering est succincte, mais chacune d’elles étant plus subtile, la liste des corrections demandées par le compositeur est de loin la plus courte.

3.2 La solution proposée : le mixtering

Nous proposons donc que le compositeur électroacoustique partage la responsabilité du mixage avec l’ingénieur de mastering. Ce procédé, appelé mixtering, permettrait une intervention directement sur les sources, avant tout traitement d’optimisation et de mixage tel un égalisateur, une compression ou même une réverbération de perspective.

Les étapes proposées sont les suivantes :

  1. le compositeur remet un ensemble de fichiers synchronisés comprenant les éléments suivants :
    • son mixage de travail;
    • les stems mixés (dont la somme donne le mixage de travail);
    • les stems des sources (pour permettre d'aller à la source si nécessaire).
  1. L’ingénieur propose une version mixterisée, où sont remplacés si nécessaire les EQ, compresseurs, limiteurs et réverbération de perspective, ajoutés par le compositeur lors du mixage de travail. Le travail de l’ingénieur tente de reconstituer ce qu’il croit être l'intention du compositeur dans le mixage de travail.
  2. Le compositeur envoie une liste de commentaires et/ou de corrections d'intention si nécessaire.
  3. L’ingénieur livre une version finale.

Il s’agit d’une tâche accrue pour le compositeur, le travail de transfert en stem (bien décrit dans Bassal, 2004) devant être effectué en double. Mais pour l’ingénieur de mixtering, le travail sera souvent plus rapide, plus profond, et plus efficace : effectivement, travailler à corriger un mauvais mixage, souvent dû à une tentative malheureuse de correction de problèmes induits lors dudit mixage par un système d’écoute trompeur, peut être souvent plus long et plus ingrat que de simplement corriger à la source le problème flagrant.

3.3 La validation de la proposition : la comparaison entre mastering et mixtering

En annexe se trouve le document d’analyse de l’ingénieur lors de la réception du matériel sous le nouveau protocole. La première partie compare la somme des stems sources et la somme des stems du mixage de travail (extraits Audio 1 à 3). Ensuite vient une partie où les stems mixés sont masterisés, avec un commentaire de l’ingénieur qualifiant les problèmes et les solutions, exemples sonores et captures d’écran incluses (Audio 4 à 19, Figs. 2 à 9). Enfin, la mise en commun des stems améliorés est optimisée et ainsi se termine le mastering (Audio 20 à 22, Figs. 10 et 11). Suit une intéressante comparaison entre la somme des sources et le produit masterisé (Audio 22 et 23). Ensuite, chacun des stems disponibles en version source est mixterisé, le tout commenté par l’ingénieur (Audio 24 à 31, Figs. 12 à 14) pour finalement présenter le produit mixterisé (Audio 32, Fig. 15).

Nous vous invitons à tirer ici vos propres conclusions. Les prochains paragraphes résument celle des auteurs.

Le processus en cours permet d’indéniables améliorations apportées à la qualité sonore : d’une bouillie agressante dans les médiums aiguës, ronflante dans les basses, dont la dynamique est aplatie et sans vie, on passe à une image plus claire, plus profonde, tout aussi dramatique mais dont le relief est plus vivant. Plusieurs problèmes induits par le mixage du compositeur en milieu d’écoute biaisé sont résolus.

Contrairement au mastering du dernier album, les trois seules remarques du compositeur sont d’ordre esthétique, claires et minimales. Qui plus est, deux d’entre elles proviennent d’une erreur de jugement du compositeur entre le traitement de conception et celui de mixage : le procédé de mixtering étant encore jeune, certaines sources ont été envoyées à des degrés de traitement trop peu avancés, laissant une marge de manœuvre ambiguë à l’ingénieur. Par exemple, si on compare les extraits Audio 4 et 5 avec les extraits Audio 24 et 25, la porte de bruit est utilisée dans les stems mixés (Audio 4 et 5) à des fins d’articulation : elle aurait donc dû être incluse dans la version source car cette articulation était chère au compositeur, et ce malgré le fait que la différence dans le produit fini soit relativement négligeable, comme l’a fait remarquer l’ingénieur.

L’autre exemple de cette même erreur de jugement lors de la production des stems sources est encore plus ambigu. Si l’on compare les extraits Audio 14 et 15 avec Audio 30, la réverbération de mauvaise qualité des deux premiers fait quand même partie, pour le compositeur, de l’articulation du geste. Dans l’exemple Audio 30, on voit que l’ingénieur a jugé bon, pour la clarté d’image, d’ignorer complètement la réverbération, après avoir essayé en vain plusieurs réverbérations de remplacement. C’est pourquoi l’exemple Audio 15, malgré qu’il soit très différent de la source, serait probablement celui qui aurait reçu l’approbation du compositeur : après avoir été très surpris, ce dernier a bien apprécié la clarté d’image que la réduction du spectre offre dans le mixage global.

D’ailleurs, si ces deux erreurs n’ont pas été corrigées pour le présent article, c’est simplement parce que nos conclusions n’en seraient pas changées : le mixtering permet d’aller plus loin dans la compensation d’une écoute colorée du studio de compositeur, mettant au propre les intentions de mixage telles qu’illustrées par le mixage de travail.

La seule discussion qui resterait pour compléter le travail serait sur le contenu medium grave de l’exemple Audio 29. Le compositeur préfèrerait un son de basse plus creux, mais dont l’égalisation ne serait pas aussi draconienne que dans son mixage (exemple Audio 10). D’ailleurs, la récupération par le mixtering des sous graves originelles est une amélioration indéniable, en comparaison de laquelle la divergence d’opinion sur le registre médium semble de peu de poids.

Il est important de noter que si le compositeur arrive à passer un jugement plus « objectif » sur le travail de mastering et de mixtering, c’est grâce à un long travail d’écoute comparative dans plusieurs studios. Là encore, le jugement est parfois obscurci, car aucune des situations d’écoute disponible au compositeur ne peut être considérée comme fiable. Cela dit, le souvenir de la révélation lors de la session d’écoute au studio de mastering a engendré une relation de confiance entre les deux auteurs, et a permis au compositeur de prendre une distance sur son matériau.

image YG4. Conclusion

La première conclusion criante, c’est l’importance primordiale d’une condition d’écoute neutre au moment du mixage. Mais un compositeur électroacoustique a aussi tout avantage à avoir accès à cet environnement au long de son travail, car si les traitements d’optimisations sont autant influencés par le biais d’écoute, il en est de même pour celle du traitement de conception sonore : le jugement sur le matériau compositionnel en est directement affecté. Dans de telles conditions optimales de composition, le mixtering, comme le mastering, deviendrait une étape de validation d’un produit parfait, car comme le précise Katz (2002, p.11), la simple approbation d’un mixage par une écoute professionnelle vient contrer les effets de l’écoute impliquée, souvent biaisée par les heures de travail sur le matériau.

D’ailleurs, voici un autre élément de réponse que nous proposons à la question posée par Robert Normandeau dans sa conférence en 2004. La pertinence des institutions en cette ère de studios de compositeur, où tous et chacun peuvent s’offrir machines et dispositifs pour créer leur musique à tout moment, réside dans la démarche de sensibilisation à l’importance de l’environnement d’écoute, entre autre en donnant accès à ces conditions optimales. Effectivement, très peu de ces jeunes compositeurs peuvent s’offrir un studio où l’acoustique et les haut-parleurs ont été calibrés par un acousticien, et la musique électroacoustique gagnerait en qualité si la prochaine génération de compositeurs avait accès à un jeune âge à la révélation soulignée plus haut.

La seconde conclusion, c’est que le mixtering, comme le mastering, repose sur une relation de confiance, car le compositeur n’est souvent pas à même de juger de la qualité des interventions de corrections. Une fois cette relation établie, le mixtering a tout pour pousser beaucoup plus loin l’amélioration de la qualité sonore en électroacoustique, permettant des interventions plus précises et plus efficaces, diminuant le nombre et l’importance des révisions.

Finalement, les auteurs aimeraient souligner les deux principaux points sur lesquels porter une attention particulière en mixtering. Premièrement, le compositeur doit bien déterminer la différence fonctionnelle entre les deux types de traitements (conception et mixage) lors de la production des stems de source. Deuxièmement, l’ingénieur de mixtering prendra soin de ne pas livrer au compositeur chacun des stems optimisés, contrairement à ce que nous avons fait pour le présent article, afin de lui permettre de poser un jugement holistique, car la surprise créée par certains traitements radicaux écoutés individuellement peut rapidement faire perdre la perspective d’ensemble.

5. Développements

À très court terme, l’ingénieur et le compositeur testeront ensemble le mixtering sur un projet de musique instrumentale et mixte, qui sera commercialisé en juin.

L’ingénieur prévoit aussi tester cette approche sur un autre projet électroacoustique, pour voir si les conclusions sont toutes aussi probantes auprès d’un autre compositeur.

Le compositeur, quant à lui, investira dans son système et sa salle d’écoute, en plus de travailler à transformer les studios de l’institution où il enseigne.

6. Bibliographie

Bassal, Dominique. « La pratique du mastering en électroacoustique ». eContact! 6.3 — Question en électroacoustique / Issues in Electroacoustics (2003). Montréal: Canadian Electroacoustic Community.

_____. « Guide de production des Stems ». eContact! 6.3 — Question en électroacoustique / Issues in Electroacoustics (2004). Montréal: Canadian Electroacoustic Community.

Beatles (The). Rubber Soul. London: E.M.I., 1965.

Cream. Fresh Cream. London: Polydor, 1966.

Chion, Michel. Musiques, medias et technologies. Paris: Flammarion, 1994.

Katz, Bob. Mastering Audio: The Art and the Science. Burlington: Focal Press, 2002.

Normandeau, Robert. Le studio personnel, la véritable innovation du second cinquantenaire. La musique électroacoustique: un bilan. Lille: Université Charles-de-Gaulle Lille 3, 2004, pp. 65–71.

Parmegiani, Bernard. Violostries. Paris: INA CD, 1963.

Roads, Curtis. The Computer Music Tutorial. Cambridge: MIT Press, 1996.

Sting. A Brand New Day. London: A&M, 1999.

Tremblay, Pierre Alexandre. alter ego. Montréal: empreintes DIGITALes, 2006.

Voir suite:
7. Annexe : La séance comparative mastering / mixtering

Première publication dans eContact! 9.3 — Mastering en électroacoustique : un état des lieux / Mastering in Electroacoustics: State of Affairs. Montréal: Communauté électroacoustique canadienne / Canadian Electroacoustic Community, avril 2007.

to top of page / haut de la page
Concordia University / Université Concordia