Ken哥點播,我就稍微簡單解釋一下。
可能有錯誤或是不流暢處,請多指教。
一個multi-tracks project內有很多track(聲軌),聲軌可能是實際錄音也有可能是用midi讀取sample取樣,在同樣的空間錄音,都有可能出現不同的空間感覺,那再加上不知道從哪錄的samples,每軌內建的
空間感自然都不同。
還好我們有Reverb 殘響空間效果器 (也有人用delay或是echo)
當你把不同空間感的track都過相同類似的reverb時,他們會產生從類似空間出來的假像,而運用得好的話有可能超過你在任何真實空間live場合能夠感受到的音場 (bigger than life)
當然也是可以運用不同的reverb來塑造自己想要的聲音,混合的比例不用很大聲,可能只要配上1%~2%的reverb音量,就能產生凝合聚合的效用。
好的硬體Reverb比軟體來的好,因為就如同ken哥post的那一堆空間圖、反射圖,逼真的reverb計算量非常大,太耗費電腦資源,所以軟體的Reverb多少都有點簡化,用聲學的技術來欺騙聽眾。
看你這首歌是需要氣勢澎湃的Hall sound或是乾淨貼近的Small room sound,都有不少reverb可以選擇。
Reverb可以控制音場的深度遠近,Z軸。
再來定位的話其實基本很簡單,一個mono track用pan pot(就類似音響上的左右balance),pan左邊聲音聽起來就會從左,pan右邊聲音聽起來就會從右方來,pan中間就從中間來。
但是往往會比這個情形更副雜一點,我們怎樣判斷聲音聽起來從左邊來呢?在真實空間的時後,我們會先聽到聲音的來源(direct sound),再來聽到第一反射(first reflections),再來是比較複雜比較難計算的殘響。
所以為了符合我們聽到的情況,有時後mono track會故意pan到一邊,然後再另一邊送reverb或是一點點延遲,這樣整個聲音聽起來自然,也比較飽滿對稱。
PAN控制了音場的左右軸,X軸。
至於Y軸怎麼控制呢? 就落到了頻率上,高頻會自然聽起來比較飄逸,低頻會自然的沉下去,中頻會自然的聽起來很集中,就在你面前,你有用過DRC的話,Ken哥處理完的聲音就屬於比較飄逸立體,因為少了一般房間的中頻殘響,而實際上混音則是靠EQ來控制不同樂器的頻段,低音很自然的會下沉,沉的質感則要看低頻的動態是怎樣,有的一沉就起不來了,有的則很有彈性,這點可以靠compressors來變化,高頻很自然的上升,溫順的
高頻聽起來舒服越耳,刺耳的高頻聽起來刺激清晰,我個人是偏好適度中庸的高頻。另外就是遠的聲音天生就比較悶,近的聲音天生比較多高音與中頻,這點也可以拿來利用、不一定要動到reverb,因為reverb其實很容易弄亂mix。
所以其實也是可以用3D的看法來看音場與定位,甚至有些特效處理器能夠利用人耳的錯覺達成很多特殊的位置,例如模擬人耳後方聽到的聲音。
XYZ軸可自訂,左右、前後、上下這三軸。實際上運用起來還有很多技術與細節,有時後原始音軌的空間不好融合,結果可能就比較差。聲音的質感也會影響我們聽到的遠近感。
我自己也還在捉摸怎樣可以讓每個經手的project都能達到良好的音場與定位、並且保持整體凝聚感。
我描述不清楚的地方請再指正囉,謝謝。