(資料圖片僅供參考)
拉德堡德大學(xué)科研團(tuán)隊(duì)請臨時(shí)植入大腦植入物的非癱瘓用戶在測量大腦活動時(shí)大聲說出一些單詞,借助這一方法,他們在大腦活動和語音之間建立了直接的映射關(guān)系,隨后,使用先進(jìn)的人工智能模型將大腦活動直接轉(zhuǎn)化為聽得見的語音。這意味著他們不僅能猜測用戶在說什么,而且還可立即將這些單詞轉(zhuǎn)化為可理解的聲音。更重要的是,重建后的語音在語調(diào)和說話方式上甚至聽起來像癱瘓人士發(fā)出來的。
在最新研究中,研究人員用相對較小的數(shù)據(jù)集重建可理解的語音,表明模型可用有限的數(shù)據(jù)揭示大腦活動和語音之間的復(fù)雜映射關(guān)系。他們還對志愿者進(jìn)行了聽力測試,以評估合成單詞的可識別性。結(jié)果表明,這項(xiàng)技術(shù)不僅正確識別出了單詞,準(zhǔn)確率高達(dá)92%到100%,還讓這些單詞像真實(shí)的聲音一樣被聽得見和理解。
不過,研究人員強(qiáng)調(diào),最新技術(shù)仍有一些局限性。他們的目標(biāo)是僅根據(jù)人們的大腦活動來預(yù)測他們想說的完整句子和段落。要實(shí)現(xiàn)這一目標(biāo),還需要開展更多實(shí)驗(yàn),研制出更先進(jìn)的植入物,采集更大的數(shù)據(jù)集,創(chuàng)建更先進(jìn)的人工智能模型。
關(guān)鍵詞: