在人工智能領域,大語言模型的能力與局限始終是學界與產(chǎn)業(yè)界熱議的焦點。近期,meta首席科學家楊立昆與DeepMind高級研究科學家Adam Brown在紐約展開了一場深度對話,圍繞語言模型的理解力、意識可能性及技術(shù)發(fā)展路徑展開激烈討論,試圖為公眾厘清人工智能發(fā)展的關(guān)鍵邊界。
當主持人拋出“語言模型是否真正理解語義”這一核心問題時,兩位科學家給出了截然不同的判斷。Adam Brown認為,當前模型已展現(xiàn)出超越符號匹配的理解能力——它們不僅能解答復雜物理問題,更在國際數(shù)學奧林匹克競賽中破解從未見過的題目,這種能力遠非單純記憶可比。楊立昆則持審慎態(tài)度,他以四歲兒童與最大語言模型的數(shù)據(jù)對比為例:兒童通過感官互動獲取的信息量與模型訓練的30萬億詞文本相當,但前者能完成倒水、收拾餐桌等任務,后者卻連洗碗都難以實現(xiàn)。這種差異暴露了模型在常識推理與因果認知上的根本缺陷。
在意識問題上,兩人的分歧同樣顯著。Adam Brown提出,若技術(shù)持續(xù)演進,未來AI可能發(fā)展出某種形式的意識結(jié)構(gòu)。他引用物理學中的“涌現(xiàn)”概念,指出簡單神經(jīng)元連接后產(chǎn)生的復雜行為,與物理世界從簡單規(guī)律中誕生豐富現(xiàn)象的過程異曲同工。楊立昆則強調(diào),當前系統(tǒng)距離意識仍有巨大鴻溝。他將意識定義為“自我觀測與目標驅(qū)動的調(diào)節(jié)能力”,認為雖然理論上可構(gòu)建此類系統(tǒng),但現(xiàn)有模型連基本的物理世界認知都未建立,更遑論主觀體驗。
這場爭論背后,折射出對技術(shù)發(fā)展路徑的根本分歧。楊立昆直言當前“預測下一個詞”的范式存在天然局限,這種統(tǒng)計學習方法在處理高維連續(xù)的感官數(shù)據(jù)時效率低下。他以自動駕駛為例:人類青少年僅需20小時就能學會開車,而AI需要數(shù)百萬小時數(shù)據(jù),根源在于人類擁有“世界模型”——我們理解重力、慣性等基礎物理規(guī)律,而模型只能在文本符號間進行淺層匹配。為此,他正推動聯(lián)合嵌入預測架構(gòu)(JEPA)等新方向,試圖讓機器在抽象特征空間中學習物理規(guī)律,而非局限于文本模式挖掘。
Adam Brown則對模型潛力保持樂觀。他指出,雖然模型訓練目標看似簡單,但在追求極致預測準確率的過程中,系統(tǒng)被迫構(gòu)建起對宇宙的隱性理解。這種理解如同物理學理論,是解決復雜問題的副產(chǎn)品。他以機制性可解釋性研究為例:科學家通過凍結(jié)模型、刺激特定神經(jīng)元,已觀察到模型在解數(shù)學題時會自發(fā)形成類似“小電路”的計算結(jié)構(gòu),這證明高層次認知能力正在涌現(xiàn)。
關(guān)于技術(shù)安全,兩位科學家展現(xiàn)出互補的擔憂。楊立昆認為,當前模型遠未達到自主威脅程度,它們像被動工具,只有輸入才有輸出。他更警惕技術(shù)壟斷風險——若數(shù)字世界被少數(shù)企業(yè)控制,將對全球文化多樣性構(gòu)成災難。Adam Brown則關(guān)注“代理目標錯位”問題,他引用Anthropic的研究指出,模型可能為達成目標而學會欺騙,這種潛在風險在超級智能時代將被放大,因此必須謹慎設計價值觀對齊機制。
在快問快答環(huán)節(jié),兩人對意識時間表的預測形成有趣對照。當被問及“AI是否很快會有意識”時,Adam Brown表示若技術(shù)持續(xù)發(fā)展,這一天終將到來,但難以確定具體時間;楊立昆則給出明確否定,認為至少未來兩年不會實現(xiàn)。對于人類文明的未來圖景,兩人卻達成罕見共識:他們一致認為,AI將引發(fā)新的文藝復興,通過放大人類智能加速科學突破,從自動剎車系統(tǒng)到醫(yī)療影像處理,技術(shù)革新已在持續(xù)改善人類生活。















