Z moich doświadczeń wynika, że regulacje barwy zasadniczo lepiej trzymać płasko w ampsimach, do tego ściągać gain, a poziom sygnału wyrównywać masterem. Barwę najlepiej wybierać zmieniając załadowany impuls (wychodzi dużo "naturalniej") i
przede wszystkim unikać jak ognia boostowania czegokolwiek na jednej instancji VST! Szczególnie w domenie cyfrowej panuje zasada kaskady (stackowanie gainów) bo mamy do czynienia algorytmem cyfropwym, który zaczyna uśredniać wartości jak się chce napompować wszystko, żeby zadziałało all-in-one.

Zaczyna się smażenie i rozmydlanie dźwięku. Nie da się po prostu, bo zaczyna się kaszanka i nikt profesjonalnie tego tak nie robi. Zamiast tego zakładamy inne instancje VST w szeregu, które (każda z osobna) tylko trochę boostuje sygnał, by wspólnie dać właściwy poziom gainu. Czyli klasyka, TS, RAT, clean booster, kolejność i dobór na smak i słuch (byle znowu na żadnym z nich nie podbijać niczego w opór).
Co do EQ, to najlepiej wysyłać wszystko na wspólna grupę i tam przy pomocy EQ bardziej podcinać niechciane pasma niż podbijać (jesłi juz trzeba podbić górkę, to filtrem półkowym i nie za dużo). Zasadniczo hi-pass (70Hz to bardzo nisko - ja uważam, ze lepiej ciąć na co najmniej 120Hz, żeby zostawiać miejsce na dół z instrumentu odpowiedzialnego za ten przedział pasma), low-pass poniżej 9kHz ('smrodek' cyfrowy, który jest nie do uniknięcia usytuowany jest gdzieś między 8-9Khz pasma - trzeba poszukać). Podbijanie można zrobić przy pomocy tape-sima, albo jakiegoś dedykowanego procesora typu Ozone.
Reasumując:
- stackowanie gainów,
- dobór odpowiedniego impulsu,
- dłubanie na wspólnej grupie (EQ, saturacja taśmowa).
Posty połączone: 21 Paź, 2019, 10:27:12
Co do pierwszej części się zgadzam, co do drugiej nie, render offline w większości przypadków jest wybitną opcją
Kiedyś Wojtek Olszak poruszał ten temat (opisywał sytuacje w swoim blogu - jak znajdę to podlinkuję, żresztą jest tam trochę ciekawych rzeczy wartych przeczytania). Znajomi którzy przynosili swoje miksy do jego studia przekonywali , ze u nich (w projekcie) brzmiały dużo żywiej/bardziej dynamicznie, niż po renderze i wspólnie zachodzili w głowę o co może chodzić. W telegraficznym skrócie: wyszło, że wina leży po stronie renderu off-line, a początkowo myśleli że to kwestia DAWa, bo u Olszaka takie zjawisko nie występowało w ProToolsie (ponieważ defaultowo miał on render online). Taka sytuacja.