有時候在網路上或現場表演中,看到別人能用嘴巴製造出許多不同音色,是不是會有點羨慕呢?沒關係,現在透過數位工具跟Creative Coding,我們也能稍稍體會一下用「人聲」來演奏的樂趣!
如果要用不同的人聲去觸發「鼓組Sample」,例如我發出「咚(低音)」的聲音,系統就觸發大鼓的Sample、發出「大」的聲音,就觸發小鼓Sample,應該要怎麼開始呢?只要透過Max內建或第三方所開發的音訊偵測物件,我們就可以抓出需要的聲音資訊,來進行比較與分類。
延伸閱讀:今天就來初步認識 Max/MSP!-音訊篇
延伸閱讀:給麻瓜的機器學習軟體Wekinator介紹
下面是一個不太會錄影的簡單示範。我們透過Wekinator與Max搭配,透過「分類法(Classification)來判斷我現在透過嘴巴發出的聲音是哪一個分類,再從Max送出不同midi訊號進入Ableton Live,觸發一組預808電子鼓Sample。
使用的物件為:紙杯、陶瓷杯、塑膠、金屬罐。麥克風是Zoom的H6。
「用聲音來觸發聲音」
其實這樣的應用,並不限於分析人聲,以及用人聲來觸發預錄Sample。這次分享的簡易B-Box互動,所使用的Max Patch,來自我們去年夏天曾分享過的測試影片(如下)。該影片中,我示範了藉由分析不同材質的音色差異,讓塑膠、紙杯、玻璃、金屬等現成物件,變成觸發一套鼓組的Trigger,讓使用者可以「演奏」眼前的現成物件,延伸對材質與共鳴的想像。
影片如下:
使用的物件為:紙杯、陶瓷杯、塑膠、金屬罐。麥克風是Zoom的H6。
雖然這類應用的成果看起來很陽春,但只要多花時間去訓練與調整參數,完全可以被應用在現場演出、展覽以及商業案件中。而且過程中,你會獲得許多跟聲音相關的實務知識,像是「聲音」到底有哪些特徵呢?除了音高、音量我還能偵測到什麼資訊?這些經驗都會回過頭來幫助到編曲、混音以及聲音設計等環節。
想要了解更多音樂與科技的應用,歡迎訂閱我們!