AI驅動的Beatbox創新:Max與Wekinator實現人聲節奏表演
有時候在網路上或現場表演中,看到別人能用嘴巴製造出許多不同音色,是不是會有點羨慕呢?沒關係,現在透過數位工具跟Creative Coding,我們也能稍稍體會一下用「人聲」來演奏的樂趣!
有時候在網路上或現場表演中,看到別人能用嘴巴製造出許多不同音色,是不是會有點羨慕呢?沒關係,現在透過數位工具跟Creative Coding,我們也能稍稍體會一下用「人聲」來演奏的樂趣!
資訊聲音化(Sonification)是能讓人用聽覺來理解周遭不可見事件與狀態的一個詩意手法。這次要跟大家分享一個「把天氣資訊轉換成聲音」,像是在聆聽周遭環境變化一般的Max實作練習。完成的Max Patch程式截圖如下圖,包含了會自動顯示的位置、溫度、風速與天氣類型的Message。
將捕捉到的及時影像做分格處理,藉由偵測到不同區塊的影像變化來觸發音效。其中影像分格的方式也模擬了大家彈奏豎琴時利用兩隻手撥弦的動作,演奏起來真的就像在空氣中撥弄豎琴的樣子。
捕捉即時影像,並將捕捉到的影像分格,藉由偵測到不同區塊的影像變化來觸發聲音的Max Patch。利用簡單的動作變化來觸發預設好的聲音物件,即便只有一個人也可以像擁有整個樂隊一樣喔。
《我想讓你說句話(Say Something, Please)》,在實作上分為網路串接及音訊處理兩部分,使用到的工具包含Firebase Realtime Database、Web Speech API、 Soundflower、Max。
在台北國際藝術村展出的雙個展《聆聽的機器 Listening Machine》中,紀柏豪的作品《單向傳輸 One-Way Transmission》讓觀眾搖晃手機與作品互動、發出聲音,在展場當下創造出獨一無二的音樂流動。繼之前的作品介紹:列車上的流動音景——紀柏豪《單向傳輸 One-Way Transmission》,今天換我來簡單聊聊作品使用到的技術和概念吧!
由索尼電腦科學實驗室(Sony CSL)所開發的「Flow Machine」,亦屬於機器學習演算法產品,其研發宗旨為「探
大家應該都有想像過,敲打一些尋常物件,卻可以發出有別於該物件材質既有音色的聲音吧?有些電子鼓產品即是用這種方式來觸發Midi Trigger,那如果我們透過Max這樣的軟體,可以怎麼快速應用音量判定來實現互動呢?
由日本音樂家 Katsuhiro Chiba 所設計的Max for Live掛件,受到1980年代經典合成器的聲音影響,而裡頭也特別設計了三個在1980年代非常經典的合成器音色。