大家可能有在手機上玩過一些小遊戲APP,會讓玩家透過人聲來控制角色的移動。如果想要在個人電腦上達成這樣的應用,又不想要寫太多Code,我們應該怎麼透過數位工具與Creative Coding來實現呢?
下面這個影片是一個簡易示範:
我們使用的軟體包括Processing、Wekinator跟以Openframework編寫的音訊分析軟體。在抓取出聲音參數後,就交由Wekinator來負責建立機器學習模型並分析即時數據。這邊使用的是Dynamic Time Warping,因為Voice Command都是帶有時間性的一小段聲音指令,每次可能想要下達同個指令,但聲音時間長度會不一樣,因此會需要分析Time-Based的各種Feature變化。
在影片中,大家應該都能看出,紅色小點是由聲音來驅動,我們可以透過簡單的訓練過程,讓紅點點學會往左、往右、向上跳,並透過不下任何指令的訓練,告訴系統如果沒有下達聲音指令,紅色小點就要維持停在原地不動。
有沒有覺得應用機器學習後,很多困難的事情都變得很簡單呢?大家有什麼應用機器學習的創意點子都歡迎跟我們分享、交流!
探索更多音樂、科技、藝術的交匯與創新應用,現在就訂閱我們!
來自台灣台北,現為「融聲創意」負責人。倫敦大學金匠學院音樂碩士、台灣大學經濟系學士。主要關注領域為Interactive&Generative Music、Sonification與Sonic Agency等。曾入選國藝會「海外藝遊專案」、雲門基金會「流浪者計畫」,並於荷蘭V2動態媒體中心(2014)、西班牙Laboral藝術與創意產業中心(2016)、英國FACT(2018)等科技藝術機構駐村。除創作外,亦廣泛參與教育推廣、跨界合作與表演藝術項目,文章散見於紙本與網路媒體。近兩年曾參與澳門文化中心《歲·月·舞聲》與兒童劇版本《歲·月·童聲》、澳門藝術節聲景劇場《甲戌風災》、衛武營《工業城市》、深圳舞蹈節《Well Come》、jpg擊樂實驗室《ReDefine》、《3.14159共感服裝實驗展演》等表演製作。2019年獲選為國家兩廳院駐館藝術家。