有時候在網路上或現場表演中,看到別人能用嘴巴製造出許多不同音色,是不是會有點羨慕呢?沒關係,現在透過數位工具跟Creative Coding,我們也能稍稍體會一下用「人聲」來演奏的樂趣!
如果要用不同的人聲去觸發「鼓組Sample」,例如我發出「咚(低音)」的聲音,系統就觸發大鼓的Sample、發出「大」的聲音,就觸發小鼓Sample,應該要怎麼開始呢?只要透過Max內建或第三方所開發的音訊偵測物件,我們就可以抓出需要的聲音資訊,來進行比較與分類。
延伸閱讀:今天就來初步認識 Max/MSP!-音訊篇
延伸閱讀:給麻瓜的機器學習軟體Wekinator介紹
下面是一個不太會錄影的簡單示範。我們透過Wekinator與Max搭配,透過「分類法(Classification)來判斷我現在透過嘴巴發出的聲音是哪一個分類,再從Max送出不同midi訊號進入Ableton Live,觸發一組預808電子鼓Sample。
使用的物件為:紙杯、陶瓷杯、塑膠、金屬罐。麥克風是Zoom的H6。
「用聲音來觸發聲音」
其實這樣的應用,並不限於分析人聲,以及用人聲來觸發預錄Sample。這次分享的簡易B-Box互動,所使用的Max Patch,來自我們去年夏天曾分享過的測試影片(如下)。該影片中,我示範了藉由分析不同材質的音色差異,讓塑膠、紙杯、玻璃、金屬等現成物件,變成觸發一套鼓組的Trigger,讓使用者可以「演奏」眼前的現成物件,延伸對材質與共鳴的想像。
影片如下:
雖然這類應用的成果看起來很陽春,但只要多花時間去訓練與調整參數,完全可以被應用在現場演出、展覽以及商業案件中。而且過程中,你會獲得許多跟聲音相關的實務知識,像是「聲音」到底有哪些特徵呢?除了音高、音量我還能偵測到什麼資訊?這些經驗都會回過頭來幫助到編曲、混音以及聲音設計等環節。
想要了解更多音樂與科技的應用,歡迎訂閱我們!
來自台灣台北,現為「融聲創意」負責人。倫敦大學金匠學院音樂碩士、台灣大學經濟系學士。主要關注領域為Interactive&Generative Music、Sonification與Sonic Agency等。曾入選國藝會「海外藝遊專案」、雲門基金會「流浪者計畫」,並於荷蘭V2動態媒體中心(2014)、西班牙Laboral藝術與創意產業中心(2016)、英國FACT(2018)等科技藝術機構駐村。除創作外,亦廣泛參與教育推廣、跨界合作與表演藝術項目,文章散見於紙本與網路媒體。近兩年曾參與澳門文化中心《歲·月·舞聲》與兒童劇版本《歲·月·童聲》、澳門藝術節聲景劇場《甲戌風災》、衛武營《工業城市》、深圳舞蹈節《Well Come》、jpg擊樂實驗室《ReDefine》、《3.14159共感服裝實驗展演》等表演製作。2019年獲選為國家兩廳院駐館藝術家。