據新華社報道,日前,美國哥倫比亞大學研究人員結合聲音合成與人工智能技術,實現將人類的腦電波轉化為聲音,這一成果未來可能會失語者帶來重新交流的可能。
人類在聽到別人說話或者想象聽別人說話時,腦電波會呈現出特定的模式,多年來,科學家一直嘗試解讀這類腦電波,并將其轉化為聲音。研究人員通過語音合成技術和神經網絡算法開發(fā)出一種“聲碼器”,可將受試者傾聽數字時產生的腦電波還原為他們聽到的聲音。測試顯示,約75%的情況下,“聲碼器”能將人腦電波還原為可被人類理解的一串數字。
在研究中,科研團隊首先讓接受過腦部手術的癲癇患者聽不同人說話,同時監(jiān)測他們傾聽時產生的腦電波,以此訓練“聲碼器”,然后讓這些癲癇患者聽別人念0至9之間的數字,并記錄他們產生的腦電波,基于神經網絡算法的“聲碼器”可對這些信號加以“理解”,并轉化為機器聲音復述的一串數字。
研究人員說,這是開發(fā)腦機接口技術的一項關鍵性進展。麥斯加拉尼團隊未來計劃利用更加復雜的詞匯進行測試,最終目標是開發(fā)一款可植入設備,可將中風等說話能力受損的患者的想法轉化為語言,讓他們重獲交流能力。
目前,這一研究成果已經發(fā)布在英國最新一期的《科學報告》雜志上。
關鍵詞: