科技日報記者 張佳欣
人工智能(AI)“讀心術”可通過讀取大腦活動,“看懂”人腦中的畫面——這聽起來像科幻小說,如今卻離現實更進一步。日本NTT通信科學實驗室研究團隊開發出一種名為“心智字幕”的新技術,能利用AI模型,根據受試者大腦活動生成其所見或腦中想象畫面的文字描述,準確度非常高。研究成果發表于新一期《科學進展》雜志。

這一技術不僅揭示了人腦如何在語言形成前表征外部世界,還有望幫助因中風等原因導致語言障礙的患者,通過腦機接口更順暢地表達想法。
要解碼大腦對復雜內容的理解,例如短視頻或抽象形狀,一直具有挑戰性。此前研究大多只能提取出關鍵詞,難以還原完整語境,例如視頻的主角是誰、發生了什么動作。
為突破這一瓶頸,研究團隊設計了雙重AI模型。他們先利用深度語言AI模型分析了兩千多段視頻的文字說明,并將每段說明轉化為獨特的“意義特征”。隨后團隊通過功能性磁共振成像記錄6名受試者觀看視頻時的大腦活動,并訓練第二個AI系統,學習將腦信號與這些意義特征對應起來。
當模型訓練完成后,系統即可通過新的腦掃描數據預測受試者所看到內容的意義特征,并生成最接近的句子描述。例如,一名受試者觀看了一個人從瀑布頂端跳下的視頻。AI模型通過其大腦活動,先后生成一系列詞串,從最初的“泉水流動”,到第十次猜測的“在急速落下的瀑布上方”,最終在第100次猜測時生成句子:“一個人從山頂的瀑布一躍而下”。這幾乎完全還原了完整的視頻內容。
更令人驚訝的是,當受試者回憶先前看過的視頻片段時,AI模型仍能根據大腦的回憶生成準確的文字描述。這表明,人腦在觀看與回憶時使用了相似的內部表征方式。
英國《自然》雜志評論稱,這項基于非侵入式功能性磁共振成像的技術,未來有望推動腦機接口的發展,使植入設備能更直接地將人的思維轉化為文字或語音,從而幫助語言受損者恢復交流能力。
總編輯圈點
當腦機接口遇上人工智能,“心有靈犀”正從浪漫想象步入現實。其原理是,當我們看視頻或畫面時,大腦會發出各種各樣的神經信號,腦機接口技術負責捕捉這些信號,而人工智能模型則負責解碼和重構這些信號,一場科幻般的“讀心術”便順利完成。這意味著,借助這種技術,人類通過在大腦中想象畫面,就可以將所思所想傳遞給另一個人,從而實現真正意義上的“意念交流”。