国产精品自拍视频在线-亚洲一区二区三区品视频-日本一区二区三区麻烦视频-国偷自产视频一区二区三区久-巨乳少妇av中文字幕-日韩最新免费中文字幕在线观看-成人污污污视频在线免费观看-污污污网站在线免费看-国产欧美高清在线观看视频

媒體界 - 推動中國媒體行業(yè)創(chuàng)新,促進業(yè)內人士交流分享!

Meta發(fā)布開源AI模型TRIBE v2:無需實測即可預測大腦多模態(tài)反應

   發(fā)布時間:2026-03-28 13:51 作者:沈如風

科技領域迎來一項突破性進展——meta旗下基礎人工智能研究團隊(FAIR)正式開源新一代AI模型TRIBE v2。該模型通過創(chuàng)新的多模態(tài)融合技術,實現(xiàn)了對人類大腦視覺、聽覺及語言反應的高精度預測,為神經(jīng)科學研究開辟了全新路徑。與傳統(tǒng)依賴腦部掃描的研究方式不同,TRIBE v2無需實際測量即可生成大腦活動圖,顯著降低了研究成本與周期。

模型的核心機制在于整合視頻、音頻與文本三種輸入數(shù)據(jù)。通過Video-JEPA-2、Wav2Vec-Bert-2.0及Llama 3.2三個預訓練模型分別提取特征后,Transformer架構將這些信息融合,最終輸出包含7萬個"體素"的3D大腦活動圖。實驗數(shù)據(jù)顯示,其預測精度超越傳統(tǒng)線性模型,甚至能復現(xiàn)經(jīng)典神經(jīng)科學實驗結果,且在處理新數(shù)據(jù)時無需重新訓練,僅需短暫微調即可提升準確性。

在性能對比中,TRIBE v2展現(xiàn)出顯著優(yōu)勢。功能性磁共振成像(fMRI)常受心跳、頭部微動等生理噪聲干擾,而該模型通過預測"調整后的平均反應"有效過濾雜音,生成的大腦活動圖清晰度優(yōu)于真實掃描結果。研究團隊特別指出,當同時輸入多模態(tài)數(shù)據(jù)時,模型在大腦顳葉、頂葉與枕葉交界處的預測準確率可提升50%,而單獨輸入音頻時僅能激活聽覺皮層。

實際應用場景中,TRIBE v2已驗證多項神經(jīng)科學發(fā)現(xiàn):在視覺實驗中準確識別出處理面部、地點等信息的專門腦區(qū);在語言實驗中復現(xiàn)了言語與沉默、情感與疼痛等經(jīng)典區(qū)分模式。不過,該模型仍存在技術局限——其依賴血流數(shù)據(jù)導致無法捕捉毫秒級神經(jīng)活動,且未納入觸覺與嗅覺維度。目前,meta已公開模型代碼與權重,重點探索其在腦科學實驗設計、類腦AI架構開發(fā)及腦疾病診斷等領域的潛在價值。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新