Traitement du son et mixage des bandes sonores du au. Cours vidéo. Quel est le par du parcours
Voulez-vous apprendre à traiter le son et à mélanger les phonogrammes à l’intérieur et à l’extérieur ? Vous apprendrez : Qu'est-ce qu'un signal audio, sa puissance et sa tonalité, sa pression acoustique, sa phase et son volume, combien d'argent dépenser pour l'équipement de studio, comment configurer un pilote de carte son ASIO, un délai, ainsi que des entrées et sorties virtuelles, ce que sont les analyseurs, ce qu'ils sont, pourquoi ils sont nécessaires et comment les utiliser, familiarisez-vous en détail avec les principes et les caractéristiques de l'égalisation des grosses caisses de différents timbres, comment le gate, la compression et l'égalisation d'une grosse caisse se produisent dans la pratique , comment une caisse claire est traitée avec un égaliseur et un compresseur, les caractéristiques du traitement d'un instrument à percussion " A-go-go" à l'aide d'un égaliseur paramétrique et bien plus encore. Toutes ces connaissances vous sont fournies sous une forme qui vous permettra de les assimiler et de les appliquer dans la pratique aussi facilement, rapidement et efficacement que possible.
Cours 1. Théorie de l'audio numérique
Ce cours théorique est une mini encyclopédie vidéo et a été créé pour aider les débutants à comprendre les concepts, termes et bases les plus importants de l'audio numérique.
Cours 2. Équipement home studio pour mixer des phonogrammes
Dans ce cours vidéo, vous apprendrez quel équipement est nécessaire pour effectuer un traitement sonore et un mixage de phonogrammes de haute qualité et pourquoi il est nécessaire. Vous apprendrez également à choisir le bon matériel, optimal à tous égards compte tenu de sa diversité.
Cours 3. Steinberg Nuendo 4. Configuration, optimisation du mixage et principes fondamentaux du travail avec des données audio
Ce cours vidéo couvre toutes les fonctionnalités et capacités nécessaires de Nuendo 4 pour travailler efficacement avec l'audio. Le cours permettra à ceux qui le rencontrent pour la première fois d'apprendre à travailler dans ce programme.
Cours 4. Appareils de traitement du son. Conception et application pratique
Dans ce cours, nous parlerons des principaux dispositifs de traitement du son, de leur structure et de leur application pratique. Vous apprendrez où, pourquoi et, surtout, comment quel appareil est utilisé. Le cours couvre tous les effets et outils de base utilisés dans le traitement et le mixage des phonogrammes.
Cours 5. Batterie. Traitement
Le cours est divisé en cinq parties dont chacune est consacrée au maniement d'un outil spécifique. À l'aide de divers exemples, les principes et méthodes de traitement des grosses caisses, des caisses claires, des tam-tams, des charleston et des microphones suspendus sont discutés en détail. Ce cours se concentrera uniquement sur le traitement, pas sur le mixage, et uniquement sur une batterie acoustique et non électronique.
Cours 6. Traitement et mixage d'un kit de batterie "de et vers" I
Cours 7. Traitement et mixage d'un kit de batterie à l'intérieur et à l'extérieur II
Cours 8. Traitement et mixage d'un kit de batterie "de et vers" III
Cours 9. Percussions. Traitement et mélange
Dans ce cours, nous parlerons des caractéristiques du traitement des instruments de percussion les plus courants et du mixage d'un groupe de percussions.
Cours 10. Batterie électronique. Traitement et mélange
Tout au long de ce cours, l'auteur montre le processus de traitement et de mélange de la section tambour à l'aide d'un exemple. Dans ce cours, nous parlerons de la batterie électronique dans la musique dance, des caractéristiques de leur traitement et, bien sûr, de leur mixage.
Cours 11. Basse. Traitement et mélange
Le cours est divisé en deux parties. Le premier est consacré au traitement et au mixage de la guitare basse, le second est consacré au traitement et au mixage de la basse électronique synthétisée dans la musique dance. Le cours couvrira à la fois le traitement et le mixage de la basse avec la section batterie.
Cours 12. Traitement et mixage de guitare
La première partie du cours est consacrée au traitement et au mixage de la guitare acoustique, la seconde au traitement et au mixage de la guitare électrique. Un certain nombre d'exemples sont utilisés pour examiner les principes et les méthodes de traitement de divers types de guitares acoustiques et électriques.
Cours 13. Traitement et mixage d'instruments à clavier
Le cours se compose de plusieurs parties dont chacune est consacrée à un instrument à clavier spécifique. Bien que des instruments tels que le marimba et le vibraphone soient des instruments de percussion à clavier, leur traitement et leur mixage seront également abordés dans ce cours.
Cours 14. Traitement des instruments à vent et à cordes
Ce cours vidéo est consacré au traitement des instruments à vent et à cordes. Chaque leçon couvre le traitement d'un instrument de musique spécifique.
Cours 15. Mixage du phonogramme "de et vers" I
Durant ce cours pratique, l'auteur mixe un mix en style pop (style chanson) de A à Z. Ce cours a été créé pour que vous puissiez voir le processus de mixage d'une bande sonore du début à la fin. Tout au long du cours, les actions de l'auteur sont accompagnées de commentaires, mais sans se concentrer sur la théorie, les définitions et les bases du travail du son.
Cours 16. Mixage du phonogramme "de et vers" II
Durant ce cours pratique, l'auteur mélange un mix dans un style de danse du début à la fin. Ce cours est conçu pour vous montrer le processus de mixage d'une bande sonore du début à la fin. Tout au long du cours, les actions de l'auteur sont accompagnées de commentaires, mais sans se concentrer sur la théorie, les définitions et les bases du travail du son.
Bonus:
- Assistance aux auteurs
- Mastering de phonogramme gratuit
Le mastering est-il nécessaire en musique académique ? Pourquoi entend-on beaucoup moins souvent le mot « mastering » dans la musique classique que dans la musique pop ? Si vous regardez des disques contenant de la musique académique, cela indique souvent qui a enregistré le disque (enregistrement), qui l'a édité (édition), mais sur le mastering - pas toujours... Mais si vous « maîtrisez » toujours, alors que devez-vous faire ? Les classiques n'ont pas besoin de niveaux RMS aussi élevés que dans la musique pop, et le naturel l'est avant tout - pourquoi alors cette procédure séparée ?
De telles questions concernent de nombreux ingénieurs du son et auditeurs avancés, car, étant donné les approches très différentes de l'enregistrement, du mixage et de la mise en forme générale du son dans les genres académiques et pop, les phonogrammes s'avèrent radicalement différents en termes de caractéristiques de dynamique, de timbre et d'intensité sonore. Que faire : laisser les classiques naturels, mais « calmes » et super dynamiques, ou les rapprocher de la scène, au risque de perdre d'importantes nuances dynamiques ? Essayons de le comprendre.
À propos des restrictions
Le mastering peut être grossièrement divisé en deux éléments. Pendant technique Dans le cadre du processus, l'ingénieur du son établit généralement l'ordre des pistes, vérifie les pauses entre les pistes,, si nécessaire, réduit la profondeur de bits des fichiers audio à l'aide du tramage et, si la sortie nécessite un format CD-Audio, « coupe " le disque master conformément au Livre standard Rouge (appelons plus précisément ce processus prémastering – ndlr).
Ces processus ont certainement leurs propres subtilités, mais dans cet article nous parlerons de créatif maîtrise des pièces. L'objectif général d'un tel travail est d'influencer un phonogramme mixte prêt à l'emploi pour sa sortie plus réussie - lecture sur divers systèmes acoustiques, rotation à la radio, vente commerciale, etc. Il s'agit d'un nouveau regard porté par une nouvelle personne sur un phonogramme dans des conditions nouvelles (généralement meilleures), de la touche finale à l'image musicale, de l'ajout de quelque chose qui, de l'avis de l'ingénieur de mastering, manque pour obtenir le meilleur son de la piste existante, ou la suppression de ce qui est inutile et dérangeant.
Dans cet article, nous aborderons également moins le mastering en tant que travail d'assemblage de différents enregistrements en un seul album. Dans ce cas, afin d'égaliser différents phonogrammes, la gamme d'actions et le degré d'intervention de l'ingénieur peuvent différer considérablement des actions décrites ci-dessous.
Oreilles et équipement
Au cas où, rappelons que l'ingénieur de mastering et l'ingénieur du son qui a créé le phonogramme en studio ne doivent pas être la même personne. On pense que l'audition d'un ingénieur de mastering doit être spécialement adaptée à la perception et à l'analyse d'un phonogramme. Par exemple, il est moins axé sur les questions d'équilibre des instruments, d'espace, de plans, et davantage sur l'impression globale produite par le phonogramme sur l'auditeur - sur l'équilibre timbral global, les caractéristiques dynamiques. Ici, bien sûr, la riche expérience de l'écoute de phonogrammes prêts à l'emploi entre en jeu.
Atelier de mastering
De plus, des exigences beaucoup plus élevées sont imposées à l'équipement et à l'acoustique des salles où s'effectue le mastering qu'aux studios d'enregistrement et de mixage. L'ingénieur de mastering étant le dernier maillon de la chaîne de travail sur un phonogramme, les conditions de son travail doivent être les plus justes possible - l'acoustique de la salle est la plus neutre possible, il est très souhaitable d'avoir des médiums de haute qualité -des haut-parleurs de champ ou de champ lointain afin de contrôler la gamme de fréquences la plus large possible. Les moyens d'influencer le phonogramme dans les studios de mastering sont généralement des équipements externes de la plus haute classe (hors-bord) - des appareils numériques, analogiques, à tubes pour le traitement dynamique et fréquentiel.
À propos des différences de genre
Ainsi, le mastering créatif est (ou du moins devrait être) omniprésent dans la musique pop. De plus, dans ce genre, le mastering est généralement réalisé par un particulier. En comparant la situation avec la musique académique, essayons de comprendre pourquoi les choses sont différentes dans ce domaine.
Sur la scène, avant le mastering, il y a dans la plupart des cas un processus de mixage distinct, au cours duquel l'ingénieur du son influence fortement, et dans certains endroits radicalement, le timbre, la dynamique et d'autres caractéristiques des signaux, les éloignant de naturelétats pour le bien du son global du mix. En effectuant des interventions aussi profondes, l'ingénieur du son devient inévitablement dépendant des conditions du studio de mixage - moniteurs de contrôle, acoustique de la salle de contrôle, appareils de traitement...
De plus, à mesure que l’on écoute un phonogramme de manière répétée pendant le mixage (et avant cela, pendant l’enregistrement et le montage), l’audition devient inévitablement « floue », on s’habitue au son et les chances de suivre les conditions acoustiques et matérielles locales augmentent. Et ici, le nouveau regard de l'ingénieur de mastering est utile : en écoutant cette nouvelle musique dans ses propres conditions, il est capable de capturer et d'influencer les détails auxquels les autres participants au projet sont habitués depuis longtemps, et d'y ajouter la touche finale, basée sur sa riche expérience d'écoute de phonogrammes tout faits.
La fonction de mastering permettant d'augmenter la densité et le volume du phonogramme (RMS) est également particulièrement demandée sur scène, afin que la chanson sonne favorablement par rapport à d'autres phonogrammes et ne perde pas de niveau, par exemple lors de sa diffusion à la radio. .
Et la musique académique ? Ici, l’un des principaux objectifs est au contraire de transmettre le naturel des timbres. De plus, le processus de mixage est souvent totalement absent - jusqu'à présent, la musique académique est souvent enregistrée directement en stéréo et n'est pas soumise à un traitement ultérieur - à la fois pour des raisons créatives et techniques (par exemple, dans les premier et cinquième studios de la RDA, le possibilité d'enregistrement multipiste par voie locale actuellement non).
Premier studio de la RDA
Et s'il y a mixage, il s'agit d'équilibrer divers microphones et systèmes de microphones, de réaliser un panoramique, d'appliquer une réverbération artificielle et, dans une bien moindre mesure, une correction de fréquence et un traitement dynamique.
Quant au volume, la situation est ambiguë. D’une part, il est logique de s’efforcer de transmettre la dynamique du spectacle vivant dans toute sa richesse. Mais la plage dynamique d'un orchestre symphonique atteint 75-80 dB. Dans le même temps, le niveau de bruit de fond, par exemple, dans une pièce rurale calme peut être de 20 à 25 dBA et dans les appartements en ville, jusqu'à 40 dBA et plus. Regardons maintenant le tableau.
Tableau des volumes
Il montre la correspondance entre les niveaux de pression acoustique réellement mesurés dans le hall lorsque vous jouez un orchestre symphonique et les niveaux de volume indiqués dans la partition.
Il s'avère que dans un appartement urbain bruyant moyen, un auditeur, réglant la lecture à peu près au volume « comme dans une salle », n'entendra tout simplement pas la nuance ppp UN pp il se mélangera au bruit de fond de l'appartement. Si vous augmentez le volume de 15 à 20 dB, la situation dans les endroits calmes se stabilisera, mais les endroits bruyants feront irruption dans la zone de sensation désagréable du système auditif, de plus, des problèmes avec les voisins peuvent survenir...
Ainsi, pour écouter toute la gamme dynamique de la musique académique, il faut une pièce avec un faible niveau de bruit de fond, et tous les auditeurs ne disposent pas de telles pièces.
Quant au niveau RMS global du phonogramme, si vous préservez la plage dynamique naturelle, la musique classique sonnera probablement plus doucement en volume global en comparaison directe avec la musique pop, ce qui réduit ses chances d'être perçue « dans toute sa splendeur » par le auditeur...
Par conséquent, une autre approche consiste à resserrer la plage dynamique à des valeurs plus acceptables, à augmenter le niveau moyen, et donc le volume global, à l'aide d'un traitement dynamique. Mais il y a aussi des inconvénients ici : le souffle naturel de la musique commence à se perdre, les nuances dynamiques s'estompent...
En discutant ainsi du rôle du mastering dans la musique académique, nous arrivons à deux conclusions. D’une part, cela n’est pas nécessaire si l’objectif est de conserver un naturel absolu. D'un autre côté, au stade actuel de développement de l'enregistrement sonore, un tel phonogramme peut être désavantagé sur le plan dynamique et timbral par rapport aux autres.
L'idée de l'éventuelle absence de mastering en tant que processus distinct a été confirmée par un célèbre ingénieur du son norvégien Morten Lindberg(Morten Lindberg, www.lindberg.no) dans notre correspondance :
"Notre travail est structuré de telle manière qu'il n'y a pas de processus de mastering clairement séparé en tant que tel. L'enregistrement, le montage, le mixage et le mastering sont inextricablement liés et ont des frontières très floues, où chaque étape suivante est en grande partie préparée lors de la précédente."
Des paroles aux actes !
Raisonnement par raisonnement, mais quelle est la situation dans la véritable pratique moderne de l’ingénierie solide ? Pour connaître les détails du processus, j'ai décidé de connaître l'opinion de collègues ingénieurs du son expérimentés directement impliqués dans la musique académique, d'ingénieurs de mastering, et également de découvrir comment les choses se passent dans la communauté audio étrangère.
Avez-vous besoin d'un spécialiste ?
Au cours de conversations avec des professionnels, il s'est avéré qu'aucun des ingénieurs du son universitaires de Moscou que j'ai interviewés ne confie ses enregistrements de musique académique à des spécialistes individuels pour le mastering ; chacun préfère faire le travail lui-même jusqu'au bout ; Diverses raisons sont avancées :
- pas besoin de transférer le phonogramme à une personne supplémentaire, disponibilité de tout le nécessaire pour un mastering indépendant ;
- manque de budget pour une opération distincte payante en plus ;
- L’absence dans le milieu professionnel d’ingénieurs ayant une expérience suffisante dans la maîtrise de la musique académique, ce qui signifie qu’il n’y a personne à qui confier ce processus, constitue le « danger des mains inconnues ».
Dans une telle situation, il s’avère que les ingénieurs de mastering ont très peu d’expérience dans le domaine de la musique académique.
Il existe de nombreuses histoires amusantes sur le thème de la maîtrise incompétente de la musique académique par des personnes éloignées de ce genre. L'ingénieur du son du studio de tonalité Mosfilm m'en a partagé plusieurs. Gennady Papin:
« Il y a eu un cas où le disque terminé de l’ensemble d’Alexandrov a été envoyé en Pologne pour être publié. Après avoir écouté le phonogramme, les ingénieurs du son ont « augmenté » les hautes fréquences de 15(!) dB, considérant le son terne et non révélé.
Une autre fois, les ingénieurs du son américains ont activé un suppresseur de bruit sur notre enregistrement choral afin de se débarrasser du bruit analogique. L'enregistrement sonnait comme du coton.
Un autre cas courant est celui où les ingénieurs de mastering pop coupent les pauses en direct entre les morceaux de classiques et font des fondus rapides, ainsi l'auditeur bascule constamment entre l'atmosphère de la salle et le silence numérique mort.
Gennady Papin
Discutant de la question de la présence d'un ingénieur du son distinct pour le mastering, le célèbre ingénieur du son de Moscou Alexandre Volkov remarqué :
"Dans notre pays, lors de l'enregistrement de classiques, dans la plupart des cas, il n'y a pas de division entre un producteur et un ingénieur du son, encore moins un ingénieur du son de mastering séparé !..."
La situation est différente dans l’industrie musicale académique aux États-Unis. Grâce à une source étrangère fiable, qui a souhaité rester anonyme, nous avons pu découvrir que la maîtrise est une étape nécessaire dans la production du produit final : différents matériaux nécessitent une approche différente, car ils sont destinés à des consommateurs différents. Beaucoup dépend aussi du producteur spécifique en charge du projet. La maîtrise en pratique locale est le plus souvent réalisée par un individu. Il est notamment estimé que la partie technique du mastering doit se dérouler dans les meilleures conditions possibles. Par exemple, une grande attention est accordée à la sélection minutieuse des algorithmes de dithering et de conversion de fréquence d'échantillonnage ; Pour différentes musiques, différents convertisseurs numérique-analogique sont sélectionnés pour la lecture... et cela sans parler de la partie créative proprement dite.
Fréquence intacte
Correction de fréquence (égalisation) - est-ce nécessaire pour maîtriser la musique académique ? Selon Alexander Volkov, non :
« J'essaie d'obtenir la coloration du timbre souhaitée du phonogramme sur l'enregistrement grâce au placement correct et à la sélection de modèles de microphones appropriés. Dans les cas extrêmes, je peux corriger quelque chose pendant le mixage, je n'ai plus aucune raison d'utiliser un égaliseur. .»
Le même avis est partagé par l'éminent ingénieur du son et professeur russe. Igor Petrovitch Veprintsev, ajouter:
"Entre autres choses, le timbre de l'enregistrement est grandement influencé par le toucher et les nuances du jeu des musiciens, de sorte que l'ingénieur du son, travaillant avec les musiciens sur les nuances de leur performance, affecte certainement le timbre de l'enregistrement."
Tous les professionnels ne sont pas aussi catégoriques à propos de la péréquation. Célèbre ingénieur du son et professeur de Moscou Maria Soboleva Remarques:
"Je n'utilise pas toujours d'égaliseur en mastering, et si je le fais, c'est à des doses minimes, à peine audibles, "homéopathiques"."
Maria Soboleva
Ingénieur du son de la Grande Salle du Conservatoire d'État de Moscou et professeur de l'Académie. Gnessines Mikhaïl Spasski ajoute :
"Il arrive parfois que l'on veuille ajuster légèrement le son. Cela dépend beaucoup du matériel et de la situation spécifique et de l'ensemble : j'autorise l'égalisation dans un orchestre symphonique ou un chœur, il y a beaucoup moins souvent une volonté d'égaliser, par exemple, un piano solo.
Que peut donner la correction si elle est encore utilisée ? Il y a des situations où l'acoustique de la pièce semble trop brillante ou, au contraire, en plein essor - l'ensemble de l'enregistrement est coloré en conséquence. Dans ce cas, l'égalisation de la lumière peut corriger l'acoustique et en même temps affecter le timbre des instruments qui sonnent. Un autre cas est celui d’un instrument initialement pauvre en timbre. En ajoutant légèrement des basses ou des bas médiums lors du mastering, vous pouvez ajouter de la profondeur à l'instrument et par la même occasion son écho dans la pièce.
D'après mon expérience, il y a eu un cas de participation au concours d'enregistrement étudiant au congrès international de l'Audio Engineering Society (AES) à Londres en 2010. J'ai présenté un enregistrement de l'Orchestre académique d'instruments folkloriques de la Société nationale de radiodiffusion et de télévision de Russie sous la direction de N.N. Nekrasov, extrait d'un concert dans la grande salle du complexe métallurgique de Moscou qui porte son nom. Gnésines. L'enregistrement a été mixé par mes soins en Surround et a pris la deuxième place dans la catégorie correspondante. L'une des plaintes exprimées par les juges était que le son général de l'enregistrement était trop « percutant » dans les bas médiums. Je pense que cela était dû à la coloration du timbre de la salle et, par conséquent, cette couleur était accentuée dans le son des instruments de l'orchestre eux-mêmes. Puis, pour la première fois, je me suis rendu compte que dans cette situation, un mastering délicat pouvait améliorer considérablement la situation.
Un autre rôle possible de l'égaliseur lors du mastering est d'essayer de rapprocher légèrement le son de la musique académique du son moderne, brillant et lourd de la musique pop. Mais encore une fois, dans de très petites limites.
Maria Soboleva :
« Lors du mastering, j'influence principalement les zones de fréquences supérieures et inférieures de la plage, et si je touche le milieu, c'est pendant le mixage. Mais souvent, en écoutant le matériel quelque temps après le travail, j'éteins le résultat. l'égaliseur. Si la somme des avantages introduits ne dépasse pas les inconvénients émergents, je décide de refuser la correction. Le principe principal ici est « ne pas nuire !
Pourquoi l'égalisation est-elle dangereuse dans les classiques ? Une sensation de manque de naturel, de luminosité excessive ou, à l'inverse, un son retentissant. Les bons instruments live, sonnant dans de bonnes conditions acoustiques et bien enregistrés, sont généralement harmonieux et équilibrés en timbre, c'est pourquoi nous soulignons une fois de plus la nécessité d'une manipulation extrêmement délicate de l'égaliseur lors de la maîtrise de la musique académique.
Ingénieur Mastering renommé Wim Bilt(Wim Bult, Inlinemastering) partage son expérience :
"Je ne fais pas beaucoup de travail de mastering classique. Nous avons travaillé sur quelques enregistrements live et utilisé un peu d'égaliseur analogique pour plus de clarté (nette) et un compresseur.Weiss DS1 pourgestiondynamique."
Wim Bult, studio d'Inlinemastering
Depuis ppp avant fff
Le traitement dynamique est utilisé dans la musique académique d'une manière ou d'une autre par tous les ingénieurs du son et ingénieurs mastering avec lesquels j'ai pu communiquer. Dans ce cas, plusieurs tâches peuvent se poser, découlant généralement les unes des autres :
- réduire la plage dynamique si elle est excessivement large ;
- augmenter le niveau sonore moyen du phonogramme ;
- donner au phonogramme un son plus dense.
Beaucoup dépend du sort futur du phonogramme. Ainsi, aux USA, beaucoup de musique classique est enregistrée pour les paroissiens de diverses églises ; ce public écoute de la musique principalement dans la voiture, il a donc besoin d'un traitement dynamique assez fort, contrairement aux mélomanes, pour qui il est important de préserver autant plage dynamique possible.
Les outils utilisés pour atteindre ces objectifs varient également. Certains utilisent exclusivement la méthode de dessin « manuel » de l’enveloppe volumique, certains utilisent des dispositifs de traitement dynamique, d’autres encore utilisent les deux approches. C'est ce que dit un célèbre ingénieur de mastering russe Andreï Subbotine(Samedi Studio de Mastering) :
« J’avais de l’expérience dans le mastering de musique académique, cela consistait principalement à dessiner l’enveloppe de volume à certains moments. Je n’aime pas du tout les compresseurs sur la musique classique, c’est mieux de le faire à la main. »
Morten Lindberg :
"Le mastering dans notre studio consiste principalement à contrôler la dynamique et à exporter les fichiers au format requis. Nous n'utilisons pas Non dispositifs de traitement dynamique, et nous utilisons les enveloppes de volume dans Pyramix pour contenir manuellement les attaques de « tir », ainsi que pour souligner et faire ressortir l'expressivité des fragments musicaux.
Wim Bilt :
" En classique, il s'agit davantage de contrôler le volume : augmenter le volume sur les passages très doux et peut-être le baisser sur les passages dynamiques.
En effet, la formation manuellement L’enveloppe volumique est l’effet le plus maîtrisé sur la dynamique de l’œuvre, mais en même temps c’est aussi un travail très minutieux. Ayant un certain goût et des compétences, vous pouvez grandement améliorer le son - adoucir légèrement les contrastes dynamiques, mais préserver la dramaturgie de l'œuvre, tout en rendant le phonogramme plus accessible à l'auditeur. Lors de ce travail, il est important de ne pas permettre des sauts de volume très audibles résultant de l'action de l'enveloppe - ce type de « travail d'ingénieur du son » est audible et indésirable.
Et avant...
Le prédécesseur du dessin manuel moderne de l'enveloppe de volume peut être considéré comme une compression « manuelle » à l'ère analogique (et à l'ère numérique aussi), lorsque lors de l'enregistrement d'une somme stéréo, l'ingénieur du son, surveillant le niveau du master, lui tenait souvent la main. pas loin du fader master. S'il y avait une montée brusque et dangereuse du niveau, le capitaine le nettoyait généralement légèrement puis revenait à la position de départ dans des endroits calmes, au contraire, le niveau montait légèrement ;
Il convient également de mentionner le «corduble» (prise corrective) - la copie finale de l'enregistrement, qui est finalement entrée dans la bibliothèque musicale. Il a été réalisé en réécrivant, généralement via une console analogique, une copie collée par un monteur sur une nouvelle bande. Cela a été fait parce qu'il était considéré comme plus correct de conserver une version solide et non collée dans la bibliothèque musicale - elle se détériorait plus lentement et était conservée plus longtemps. Lors de cette réécriture, l'ingénieur du son pouvait faire ce qu'il jugeait nécessaire sur la console comme touche finale : de légers ajustements de fréquence, le même réglage manuel du niveau master, et parfois, si nécessaire, l'ajout de réverbération. Ce processus est très similaire au mastering moderne, n'est-ce pas ?
Usage compression - c'est d'une part un moyen d'influencer la plage dynamique en automatisant le dessin manuel de l'enveloppe, d'autre part c'est un moyen d'introduire une certaine densité dans le phonogramme, ce qui est plus typique des phonogrammes pop, mais peut aussi être utile à petites doses dans les classiques. Tous les ingénieurs du son universitaires n’utilisent pas la compression lors du mastering, mais certains le font.
Maria Soboleva :
«Je vois le rôle du traitement dynamique dans le mastering pour identifier les nuances de la musique, mais pas pour changer son caractère. Cette musique a alors plus de possibilités de s'ouvrir à l'auditeur. Si j'utilise la compression, elle est très douce - avec.rapportpas plus de 1,5-1,6. Cette influence ne devrait pas avoir une influence décisive sur les contrastes dynamiques.Pianoen même temps, il reste calme, mais ne dépasse pas les limites de la perception, apparaît légèrement etForteCela semble brillant, mais pas assourdissant. »
Alexandre Volkov :
« J'aime l'effet que la compression multibande douce a sur le son. A titre d'exemple, je vais donner les presets BK (Bob Katz) de la section mastering du TC Electronic System 6000. Avoir un niveau d'entrée élevé, à en juger par les indicateurs. , ils ont un effet assez fort sur le phonogramme. Mais grâce au faible Ratio et aux paramètres Attack et Release assez longs, la compression s'avère douce en tant que telle, mais elle apporte certainement un avantage en compactant les phonogrammes. et augmenter le niveau moyen.
Mikhaïl Spasski :
« Si j'utilise la compression, je préfère le parallèle. Contrairement à la compression conventionnelle, ce mode permet de resserrer magnifiquement les parties calmes sans affecter la dynamique des fragments forts. »
Un effet similaire à la compression parallèle est produit par ce qu'on appelle le compresseur ascendant, où, contrairement à l'abaissement des niveaux des endroits bruyants, comme dans un compresseur conventionnel (vers le bas), les endroits calmes sont resserrés.
Compresseur ascendant
Ainsi, si vous utilisez la compression, l’effet doit être délicat et doux, sans nuire au son. La question de savoir si cela doit être fait est une question controversée, et de nombreuses personnes préfèrent le faire manuellement, mais c'est tout à fait possible, tout en faisant toujours preuve de goût et de sens des proportions.
Bob Katz et la compression parallèle
L'ingénieur américain Bob Katz est une figure marquante du domaine du mastering. En plus de nombreux livres, dont le célèbre Mastering Audio, il propose de nombreux articles, réponses aux questions et commentaires utiles sur les forums sur Internet.
Livre de Bob Katz Mastering Audio
L’une des techniques qu’il recommande activement est la compression « parallèle ». Son essence est la duplication d'un phonogramme, dans laquelle une seule des copies créées est soumise à une compression (et assez sévère). Ce phonogramme compressé est mélangé au phonogramme intact. Grâce à ce processus, les endroits bruyants (et, surtout, les attaques sonores) ne sont pratiquement pas affectés, et les endroits calmes deviennent plus lumineux et plus denses - un résultat, me semble-t-il, tout à fait souhaitable pour la musique académique. Plus d'informations sur cette technique sont disponibles sur le site Web de Bob Katz http://www.digido.com.
Limitation - le degré extrême de compression, semble-t-il, ne devrait pas être directement lié aux classiques. Mais encore une fois, il est crucial degré utilisation de l'appareil. La plupart des professionnels qui m'ont parlé ont confirmé qu'ils utilisent le limiteur avant tout comme dernier appareil de la chaîne, à des fins diverses.
L'un d'eux est essentiellement la normalisation et le tramage. Des appareils comme Waves L2/L3 font ce travail avec succès. Le limiteur lui-même peut être utilisé simplement pour augmenter le volume de la bande sonore jusqu'au niveau où commence la limitation. Ou vous pouvez aller plus loin et ajuster l'appareil pour un effet plus fort, mais assurez-vous que seuls les fragments de la forme d'onde qui se détachent du niveau moyen sont coupés. Dès que le limiteur commence à fonctionner en permanence sur tout le matériel, cela endommage déjà grandement le phonogramme. De cette manière, sur certains phonogrammes, il est possible d'obtenir un gain de 5 à 6 dB, ce qui est appréciable. La figure montre une situation limite exagérée, mais je pense que l’idée générale est claire. En haut se trouve la version originale, en bas se trouve l'édition limitée.
Limitation
Le limiteur est également utile dans les cas où il y a plusieurs fragments de crête dans toute la bande sonore qui se détachent du niveau moyen et empêchent l'augmentation du niveau global. Vous pouvez ensuite configurer l'appareil pour traiter de tels pics. Une autre façon de gérer de tels endroits consiste à nouveau à régler manuellement le volume, et cela peut être fait sur la piste multipiste spécifique qui a provoqué ce pic (par exemple, un coup de timbale particulièrement fort). Dans ce cas, il y a moins de chances d'obtenir l'effet « d'affaissement » de niveau de l'ensemble du phonogramme.
Vladimir Ovtchinnikov
Directeur du son et ingénieur de mastering au studio de tonalité "Mosfilm" Vladimir Ovtchinnikov :
"Dans la musique classique, la dynamique du mastering est pour moi plus une limitation qu'une compression. La compression modifie considérablement le son, l'équilibre musical et le limiteur peut être configuré pour influencer sélectivement les fragments de crête du signal - les interférences. cette affaire n'est pas si solide, mais le gain global est significatif.
Nous avons donc examiné les techniques de base utilisées pour maîtriser la musique académique. Il existe d'autres actions qui sont relativement courantes dans le mastering pop mais moins courantes dans le mastering académique.
Par exemple, la conversion MS est plutôt un attribut du processus de restauration et d'assemblage de divers phonogrammes en un seul disque. Dans d'autres cas, les problèmes d'équilibrage du centre et des bords de la base stéréo sont généralement résolus lors de l'enregistrement et du mixage.
La réverbération générale dans la section master est également rare : l'impression spatiale souhaitée est construite pendant le processus d'enregistrement et de mixage et aucun espace supplémentaire sur le master n'est généralement nécessaire.
Finalement…
Si la nécessité de maîtriser la musique académique est beaucoup moins évidente que dans la musique pop, cette étape de création du produit final, on le voit, est presque toujours présente. Quelque part avec une différence presque imperceptible avant et après, quelque part avec une transformation plus sérieuse du phonogramme. Il arrive que de grands éditeurs étrangers de musique académique déclarent haut et fort que les enregistrements qu'ils publient sont complètement « naturels » et manquent de mastering. Cependant, il existe des rapports d'ingénieurs du son qui ont comparé les options avant et après, il existe de sérieuses différences de son, ce qui signifie qu'une sorte de mastering est toujours en cours.
La situation où il n'y a que de la musique académique sur le disque, espérons-le, devient maintenant plus claire pour nous. Mais aujourd'hui, nous voyons de plus en plus de cas de combinaison et d'entrelacement de genres, de styles, de sons... Un exemple frappant est celui des bandes sonores de films, qui peuvent contenir des numéros purement orchestraux et des compositions rock ou pop. Que faire dans ce cas - amener l'orchestre à la pop ? Ou rendre les numéros pop plus silencieux ? Ou aller dans les deux sens ? Ce sont des questions qui appellent des recherches plus approfondies sur le vaste sujet du mastering.
L'auteur remercie Maria Soboleva, Igor Petrovich Veprintsev, Mikhail Spassky, Alexander Volkov, Gennady Papin, Andrey Subbotin, Vladimir Ovchinnikov, Wim Bult, Morten Lindberg pour leur aide dans la création de cet article.
Nous joignons, à titre d'illustration audio, des enregistrements de phonogrammes non masterisés et masterisés réalisés dans l'un des grands studios de Moscou.
Erreurs typiques des ingénieurs du son lors de l'enregistrement et du mixage de phonogrammes
Déterminer la qualité d'un phonogramme enregistré est une tâche assez difficile. Pour les professionnels, le critère « qu’on le veuille ou non » ne suffit pas. Pour déterminer vos prochaines étapes, vous devez connaître les avantages et les inconvénients détaillés de l’image sonore créée. le son résultant doit être divisé et séparé en ses composants constitutifs.
C’est par exemple ce que font les artistes lorsqu’ils évaluent le dessin, la couleur, la perspective, la texture du coup de pinceau, l’élaboration des détails, etc. L'outil permettant une telle analyse est connu - il s'agit du "Protocole de test OIRT". Il aide l'ingénieur du son à évaluer rapidement et de manière ordonnée les défauts de son travail lors de la formation de l'image sonore et à effectuer les ajustements appropriés.
Par conséquent, il convient de systématiser les erreurs typiques des ingénieurs du son débutants, en s'appuyant sur ce document.
Tout d'abord, il convient de noter que tous les paramètres inclus dans le protocole dépendent étroitement les uns des autres, et en modifiant l'un d'eux, il est impossible de ne pas modifier les autres. Ainsi, la transparence est influencée par la combinaison de la spatialité et du timbre : elle s'améliore avec des timbres clairs et clairs et se détériore avec l'augmentation des caractéristiques spatiales. Les plans dépendent de la combinaison de la spatialité des composants sonores et de leur équilibre musical, et leur présence, à son tour, affecte la transparence. De nombreuses années de pratique suggèrent qu’une pièce mal interprétée ne semblera jamais impressionnante ou belle dans un enregistrement. Car le jeu discordant des interprètes conduit inévitablement à une transparence insuffisante, et si l'interprète ne maîtrise pas pleinement l'instrument, un beau timbre ne sera pas obtenu.
Le premier paramètre d’évaluation est l’impression spatiale, ou spatialité. Il s'agit d'une impression de la pièce où a eu lieu l'enregistrement. La spatialité caractérise l'image sonore en largeur (impression stéréo) et en profondeur (présence d'un ou plusieurs plans).
La spatialité crée un sentiment de distance par rapport à un instrument ou un groupe d'instruments. C’est bien si la distance par rapport aux interprètes dans l’enregistrement semble naturelle et facile à déterminer. La spatialité d'un enregistrement est influencée par les premières réflexions et réverbérations du signal, son timing et son niveau.
La sensation de spatialité optimale et la plus confortable pour l’auditeur dépend du genre de musique. À cet égard, on peut souligner les caractéristiques suivantes du matériau musical : l'ampleur (c'est-à-dire l'intimité ou, à l'inverse, la grandeur, le caractère de masse) de la dramaturgie musicale posée par le compositeur ; l'appartenance de la musique à n'importe quelle couche temporelle, par exemple le chant grégorien médiéval, la musique baroque ou les conceptions musicales modernes.
L'utilisation du principal « instrument » spatial - la réverbération - donne le volume sonore, l'envol, augmente le volume du phonogramme et, pour ainsi dire, augmente le nombre d'interprètes. Cependant, cette couleur sonore spectaculaire, si elle est mal utilisée, entraîne une perte de transparence : l'attaque des notes suivantes est « maculée ». De plus, le timbre est perdu, car seules les fréquences moyennes sont réverbérées. Si le timbre des signaux lointains et proches est trop différent, le son peut se diviser en plans. Mélanger une réverbération artificielle avec le signal d’un microphone à proximité semble particulièrement contre nature. Dans le même temps, tous les processus sonores rapides (les consonnes chez un chanteur, le claquement des valves d'un accordéon ou d'une clarinette) restent très proches et le son lui-même (voyelles, notes longues) s'éloigne, « volant ».
Le paramètre suivant par lequel un enregistrement sonore est évalué est la transparence. La transparence signifie la clarté de la transmission de la texture musicale, la netteté des lignes de la partition. La notion de « transparence » inclut également la lisibilité du texte s'il s'agit d'une œuvre vocale avec des mots.
La transparence est l'un des paramètres sonores les plus reconnaissables par l'auditeur. Cependant, la clarté et la transparence de l'enregistrement ne sont pas toujours requises en raison de certaines caractéristiques du genre. Par exemple, lors de l'enregistrement d'un chœur, il est nécessaire d'éviter de distinguer les voix des choristes individuels par parties. Ceci est généralement réalisé en sacrifiant une certaine transparence, en éloignant le chœur et en rendant l'enregistrement plus aéré et spatial. À propos de l'un des enregistrements de la 15e symphonie de D. Chostakovitch, où tous les composants de l'orchestre étaient excessivement montrés, certains ingénieurs du son ont déclaré qu'il ne s'agissait pas d'un enregistrement de la symphonie, mais d'un manuel sur l'instrumentation du compositeur.
La transparence est le test décisif pour les compétences d'un concepteur sonore. Travailler activement avec l’espace tout en conservant une clarté sonore totale est la chose la plus difficile en ingénierie du son. Comme déjà mentionné, la détérioration de la transparence résulte d'une perte de timbre et d'erreurs spatiales. Par exemple, un niveau de champ diffus élevé (« beaucoup de réverbération »). Cela signifie que trop de signaux provenant d'instruments « voisins » pénètrent dans les microphones, ou que l'ingénieur du son a « rattrapé » beaucoup de réverbération artificielle, ce qui a masqué les composants les plus faibles des signaux directs. Et la perte de timbre est principalement due à des microphones mal placés (nous y reviendrons plus tard).
Le traitement dynamique du signal entraîne également une perte de transparence. Commençons par le fait que l'un des paramètres les plus importants du timbre est le processus d'émergence du son, son attaque. Si l'on choisit un temps de réponse du compresseur inférieur au temps d'attaque de l'instrument, on obtiendra son timbre lent, pressé et inexpressif. Et si en même temps tous les signaux du phonogramme sont compressés, alors nous aurons généralement un « gâchis » - après tout, le secret d'un bon jeu d'ensemble est précisément de céder les uns aux autres.
Un paramètre très important est l'équilibre musical, c'est-à-dire la relation entre les parties d'un ensemble ou d'un orchestre. Dans certains cas, lors de l'enregistrement d'un grand instrument, comme un piano ou un orgue, on peut parler de l'équilibre entre ses registres. L'équilibre musical doit provenir de la partition, correspondre à l'intention du compositeur ou du chef d'orchestre et être maintenu dans toutes les nuances, du pp au ff.
Un bon équilibre dans un enregistrement n’est pas si difficile à atteindre, surtout lorsqu’il s’agit de signaux acoustiques sans rapport (par exemple lors du mixage d’un enregistrement multicanal). Mais les échecs arrivent aussi ici. En plus de la simple inattention, il existe un certain nombre de raisons objectives à un mauvais équilibre.
Premièrement, culture musicale insuffisante et développement du goût de l'ingénieur du son. Souvent, il ne comprend pas le degré d’importance d’un parti particulier. Il lui semble que tout ce qui est joué par les musiciens doit sonner avec la même force. L’enregistrement devient « plat » et grondant. Nous appelons ce type d’équilibre « ingénierie ».
Deuxièmement, un volume d'écoute excessif (plus de 92 dB) pendant le mixage peut être une blague cruelle pour l'ingénieur du son. Lorsque vous écoutez un tel enregistrement à la maison, notamment via un appareil photo compact bon marché, toutes les composantes moyennes fréquences du signal deviendront plus fortes. Cela s'applique principalement aux parties solos - chanteurs, instruments à vent, guitares électriques. Cymbales, shakers de toutes sortes, cloches disparaîtront dans l'ombre et, surtout, la basse et la grosse caisse disparaîtront. Mais en général, tout l'accompagnement sera caché derrière le chant et le « support » dramatique posé par l'arrangeur pour la partie soliste, les échos et les contrepoints disparaîtront.
Troisièmement, il existe des défauts évidents qui peuvent résulter de l'imperfection du « miroir » de l'ingénierie sonore - les unités de contrôle et la salle d'écoute. Il peut être particulièrement difficile d'équilibrer des signaux à bande étroite, comme ceux d'un charleston, d'un clavecin (en particulier celui avec un seul « matériel » enregistré, sans résonance du corps) ou d'une flûte longitudinale. De tels signaux incluent également la basse, « enregistrée » sans harmoniques, et la grosse caisse, enregistrée sans attaque percussive caractéristique. Avec une acoustique différente et dans des pièces différentes, avec d'inévitables valeurs aberrantes dans les caractéristiques de fréquence, l'équilibre de ces instruments sera différent. Souvent, lors d’un enregistrement, on ne sait pas à quelle paire d’unités de contrôle croire, d’autant plus que les écouteurs affichent le troisième résultat. De plus, l’utilisation uniquement d’écouteurs améliore considérablement la transparence et il est très difficile de prédire comment la bande sonore sonnera lors d’une écoute normale.
Certains sons, après un certain temps, donnent à l’ingénieur du son un « effet d’horloge à retardement ». Puis il cesse de remarquer les sons répétés du charleston, des percussions « automatiques », etc. Cela conduit également constamment à des déséquilibres, puisque l'ingénieur du son cesse tout simplement de contrôler ces signaux pendant le processus de mixage.
Le deuxième paramètre le plus important de l’enregistrement sonore est le timbre des instruments et des voix. La transmission du timbre doit être naturelle, l'instrument doit être facilement reconnu par l'auditeur.
Cependant, dans de nombreux cas, le son naturel d'un instrument est délibérément transformé par un ingénieur du son, par exemple pour compenser les distorsions introduites lors de l'enregistrement d'un signal avec un microphone ou les défauts du son de l'instrument lui-même. Par exemple, il est souvent nécessaire de « corriger » le timbre des flûtes, des domras et des balalaïkas. Pour ce faire, vous pouvez augmenter la zone des tons fondamentaux dans la région de la première octave. Dans une guitare à douze cordes, « l'argenté » est généralement mis en évidence à l'aide d'un correcteur, et le son d'un clavecin peut recevoir une « nasalité » efficace à l'aide d'un filtre paramétrique. Très souvent, une transformation délibérée du timbre est utilisée pour créer de nouvelles couleurs - par exemple lors de l'enregistrement de contes de fées, de musiques de films, etc.
Le timbre est affecté par tous les appareils inclus dans le chemin. Si vous l'analysez, vous pouvez découvrir des « pièges » qui menacent l'émergence d'un défaut. par exemple, un microphone. On sait que lorsqu'il s'approche de la source sonore, un timbre plus brillant est obtenu grâce à la perception de son spectre de fréquences complet. Cependant, presque toutes les sources sonores acoustiques ont une redondance des composants timbraux. Après tout, sur le chemin de l'auditeur dans une salle ordinaire et non amplifiée, certains d'entre eux se perdent inévitablement. Par conséquent, en plaçant le microphone à un point proche, d'où l'auditeur n'écoute jamais l'instrument, vous pouvez obtenir un son qui n'est pas tout à fait similaire au son habituel. Un violon enregistré avec un microphone situé à proximité de l'instrument et dirigé perpendiculairement à la table d'harmonie supérieure donnera un son aigu, dur, rugueux, comme disent les musiciens, avec un son « colophane ». Dans le son d'une voix enregistrée avec un microphone rapproché dirigé directement vers la bouche du chanteur ou du lecteur, les consonnes sifflantes sont amplifiées, et lors de l'enregistrement de voix académiques, un formant de chant aigu avec une fréquence d'environ 3 kHz est très impressionnant lorsqu'il est perçu de deux mètres et plus et insupportablement pointu à 40 centimètres.
L'égaliseur doit enrichir et décorer le son. Mais son utilisation excessive conduit souvent au résultat inverse : le son devient « étroit », avec un son de « gramophone », surtout si une télécommande bon marché avec une fréquence de filtre paramétrique est utilisée sur toutes les lignes. À une époque, on appelait de tels enregistrements « pré-présentés » (de filtre de présence, « filtre de présence »). De plus, une correction inappropriée peut entraîner une augmentation du bruit dans les médias ou en studio.
Le paramètre suivant est l'exécution. C'est peut-être primordial pour la qualité de l'enregistrement. C'est la performance qui est le facteur décisif pour l'auditeur. Les caractéristiques techniques (qualité de la production sonore, structure de l'ensemble, pureté de l'intonation, etc.) et artistiques et musicales (interprétation de l'œuvre, sa correspondance avec le style de l'époque, compositeur) sont ici tout aussi importantes.
Le rôle de l’ingénieur du son est ici également très important, puisqu’il influence à la fois l’aspect technique et artistique de la prestation. Il doit trouver un langage commun avec des musiciens de tout rang et créer une atmosphère créative fructueuse pendant le processus d'enregistrement. Seulement cela permet à l'artiste de révéler pleinement son talent. Une atmosphère de confiance est nécessaire entre l'ingénieur du son et les artistes : les musiciens doivent lui dévoiler sans crainte leurs faiblesses, sachant qu'ils seront certainement aidés et qu'ils feront tout pour que la séance d'enregistrement soit complète, avec un bon résultat artistique. Dans le même temps, il ne faut jamais pardonner à un interprète son manque de préparation évident à l'enregistrement. Pas un seul enregistrement ne devrait sortir des mains d'un ingénieur du son pour lequel l'interprète devrait éventuellement rougir, et aucun bénéfice à court terme ne devrait diminuer cette exigence.
Je tiens surtout à mettre en garde les ingénieurs du son débutants contre la position souvent défendue : « Que pourraient-ils faire sans moi, ces artistes-là, ils jouent toujours désaccordés, pas ensemble, c'est moi qui les sauve, sans moi ! .. » Ce n'est rien de plus qu'une manifestation de sa propre infériorité complexe. En effet, la relation avec l'interprète doit se construire sur les principes : respect de l'artiste, respect de soi et bienveillance mutuelle. Comme on dit maintenant, « le client ira chez un tel spécialiste » ; des personnes de toutes personnalités seront heureuses de travailler avec lui.
Comment évaluer le paramètre « performance » en MAO, très à la mode actuellement ? J'ai entendu pas mal de disques enregistrés sur synthétiseurs, rythmés, impressionnants en timbre et... ennuyeux après les dix premières minutes d'écoute. L'impression est celle d'une tabatière musicale très joliment jouée avec sa qualité métronomique morte. Il manque à ces sons l’une des principales caractéristiques de la performance live : le « facteur humain », le travail physique nécessaire pour jouer d’un instrument de musique. Le compositeur Eduard Artemyev, en superposant une partie de trompette sur la bande originale, a attiré notre attention sur le fait qu'aucun synthétiseur, même celui qui reproduit très fidèlement le timbre d'un instrument, n'est capable de « représenter » la tension musculaire de l'appareil d'embouchure. d'un musicien jouant des notes aiguës. Cette tension est toujours présente dans le son ; elle affecte l'auditeur, le forçant à faire preuve d'empathie.
Et concernant la métronomie, alors que les synthétiseurs à boîtes à rythmes venaient d'apparaître, j'ai dit à V.B. Babouchkine, aujourd'hui décédé : « Maintenant, la mort viendra aux musiciens ! A quoi il répondit sagement : « C'est la mort pour les labukhs… ».
Le paramètre « qualité technique » est peut-être le plus variable de tous. Les enregistrements réalisés il y a dix ans sont aujourd'hui techniquement imparfaits et nécessitent une restauration. Aux interférences traditionnelles (bruit, fond, clics électriques), distorsion du son, perturbations de la réponse en fréquence, résonances à certaines fréquences, s'ajoutent : la présence de bruit de quantification, le jitter, les effets de divers suppresseurs de bruit informatique, et bien plus encore.
Dans les phonogrammes préparés pour la diffusion de disques compacts, d'émissions de radio, etc., les interférences électriques sont inacceptables. Le bruit acoustique, quant à lui, se divise en bruits de studio : le bourdonnement de la ventilation en fonctionnement, les pénétrations extérieures et les bruits de performance (respiration des musiciens, grincements de meubles, claquements de pédales de piano ou de valves d'instruments à vent, etc.). Le degré d'admissibilité du bruit d'exécution dans les spécifications techniques des phonogrammes magnétiques est déterminé comme suit : « Le bruit d'exécution est autorisé s'il n'interfère pas avec la perception de la musique. » Et c'est tout à fait exact, puisque ce sont les normes esthétiques qui doivent être appliquées au bruit de performance, qui relèvent de la compétence de l'ingénieur du son réalisant l'enregistrement.
L'inverse est également vrai : il faut lutter sans pitié contre les bruits qui interfèrent avec la perception artistique. Il existe un enregistrement connu d'un guitariste très respecté, sur lequel, en plus de la performance émouvante, vous pouvez clairement entendre... des ronflements. L'ingénieur du son, ainsi que le monteur, le producteur, etc., qui a mis en vente en masse un tel enregistrement, ont franchement commis un malversation !
Le défaut de qualité technique le plus courant est peut-être le résultat de surcharges. Une table de mixage est un « écueil » assez insidieux sur le chemin d’un bon son. Bien entendu, l’ingénieur du son souhaite entendre son enregistrement de la manière la plus forte, la plus brillante et la plus efficace possible. Mais cette efficacité s’obtient par une combinaison de plusieurs paramètres. Les principaux sont le timbre et la transparence. Lors d'une écoute à fort volume, les inconvénients de ces paramètres sont compensés dans une certaine mesure par un mécanisme naturel de perception auditive connu sous le nom d'« effet Fletcher-Manson » (ou « courbes d'intensité sonore égale »). Bien sûr, il vaut mieux écouter fort que d’écrire au niveau maximum. Commence alors une distorsion de l’analogique ou un « over » totalement inacceptable sur le numérique. Mais le fait que cela n'a aucun sens d'augmenter le volume pour améliorer l'enregistrement est évident même pour les débutants, mais « remonter » les faders petit à petit semble toujours plus raisonnable. En conséquence, une lutte commence avec des surcharges du type « le fader individuel monte et le master descend ».
En fait, en ingénierie du son, la loi de « l'action inverse » s'applique souvent : si vous voulez augmenter le volume, supprimez ce qui dérange, si vous voulez augmenter les basses, mettez en valeur le milieu...
Si l'enregistrement est stéréophonique, un paramètre supplémentaire y est déterminé: la qualité de l'image stéréo. Nous considérons ici la largeur et la plénitude de la base stéréo, l'absence de « trou au milieu », le contenu informatif uniforme des côtés gauche et droit et l'absence de distorsions.
La règle de base de la formation d’images stéréo – « l’air est plus large que le son » – signifie qu’un signal mono ne sonnera « stéréophonique » que s’il est accompagné d’un champ diffus de large portée. Tous les réverbérateurs artificiels sont construits sur ce principe et ont généralement une entrée et deux sorties.
Une erreur courante lors de la création d’une image stéréo consiste à rétrécir excessivement la base avec les commandes panoramiques. Il ne faut pas oublier que l'effet « ping-pong » ne semble contre nature que dans les classiques, et même pas toujours. Dans un enregistrement de variétés, « l'appel des côtés » ne fonctionne que pour le bénéfice, et il n'y a pas lieu d'en avoir peur.
Quelques mots sur la notion de « contenu informationnel ». Le tissu musical est divisé en composants essentiels, déterminants et bien localisés, et en composants auxiliaires qui remplissent la texture. Les premiers incluent, par exemple, la mélodie, les accents qui remplissent les pauses - les « riffs », etc., tout ce à quoi l'auditeur prête attention en premier. Les composants auxiliaires du tissu musical sont divers types de pédales (notes longues ou accords), la duplication de la voix principale (avec un autre instrument ou un retard - peu importe), une figuration texturale et harmonique continue. C'est le même contenu informatif des côtés gauche et droit de la base stéréo qui crée pour l'auditeur une sensation confortable d'équilibre stéréo correct, et non le même niveau de signaux provenant des canaux droit et gauche, qui est généralement indiqué par des indicateurs. . Cela signifie que si la mélodie est jouée par un seul instrument, elle doit alors être située au centre. Si la mélodie apparaît alternativement à deux voix, elles doivent alors être situées sur les côtés de la base. Un exemple d'arrangement infructueux des instruments est le siège de concert dit « américain » d'un orchestre symphonique, où toutes les parties mélodiques et bien localisées - violons, flûtes, trompettes, percussions, harpes - sont situées à gauche du chef d'orchestre. . À droite, les seuls instruments fréquemment joués sont les hautbois et les violoncelles.
Peut-être pourrions-nous nous arrêter ici. La question est souvent posée : - quelle est la chose la plus difficile en enregistrement ? La réponse est simple : vous devez développer la capacité à surmonter le stress, toujours contrôler la situation et contrôler constamment le son qui en résulte. Cela prend généralement environ dix ans de travail indépendant, lorsqu'un spécialiste autodidacte apprend les secrets de la maîtrise par essais et erreurs. J'ai vraiment envie que nos lecteurs raccourcissent un peu ce délai...