加州大學(xué)戴維斯分校研發(fā)的新型植入系統(tǒng)在腦機(jī)接口技術(shù)方面取得重大突破,使一位癱瘓患者不僅能順暢說話,還能借助電腦“哼唱”旋律,幾乎沒有任何延遲。研究團(tuán)隊在一位漸凍癥患者身上試驗了這項技術(shù)。通過在大腦中控制發(fā)音的區(qū)域植入四組微電極陣列,系統(tǒng)能實時捕捉說話時產(chǎn)生的神經(jīng)信號,再結(jié)合低延遲處理和AI解碼模型,將這些信號同步轉(zhuǎn)化為語音,在揚聲器中播放。
這項技術(shù)識別的是患者嘗試發(fā)聲時大腦發(fā)出的運動指令,而不是“讀心”。系統(tǒng)合成出的聲音與患者本人極為相似,這得益于在其發(fā)病前錄制的語音樣本訓(xùn)練出的聲音克隆算法。從信號采集到語音生成,全程只需10毫秒,幾乎可以實現(xiàn)實時對話。
系統(tǒng)還能識別出患者試圖唱歌的動作,判斷其想表達(dá)的音高,并據(jù)此合成旋律。雖然這一功能尚顯初級,但對于那些逐漸失去表達(dá)能力的人來說,無疑是一種重獲聲音的希望。該研究論文的資深作者Sergey Stavisky表示,這一進(jìn)展為腦機(jī)語音合成帶來了轉(zhuǎn)折點,借助即時語音輸出,神經(jīng)義體用戶能真正參與對話,他們可以打斷別人,也更不容易被別人誤打斷。
該系統(tǒng)能復(fù)現(xiàn)“啊”“喔”“嗯”等語氣詞,判斷句子是疑問還是陳述,甚至辨別出強(qiáng)調(diào)詞語的位置。研究團(tuán)隊還指出,系統(tǒng)能準(zhǔn)確合成此前從未見過的虛構(gòu)詞語,使得語音表達(dá)更自然、更具表現(xiàn)力。目前試驗僅在一位患者身上進(jìn)行,下一步將拓展至其他因不同原因喪失語言能力的人群,以驗證技術(shù)的普適性。