科技界對人工智能(AI)的探索正邁向一個前所未有的新階段。隨著ChatGPT、Gemini等工具深度融入日常生活,行業(yè)目光已不再局限于現(xiàn)有技術(shù),而是聚焦于更具顛覆性的未來目標(biāo)——人工超級智能(Artificial Superintelligence, ASI)。這一概念正從科幻想象逐漸走向現(xiàn)實(shí),引發(fā)全球范圍內(nèi)的激烈討論。
特斯拉創(chuàng)始人埃隆·馬斯克近期再次拋出驚人論斷:AI將在2026年超越單個人類的智能水平,并在2030年達(dá)到甚至超越全人類智能總和。這一預(yù)測基于AI指數(shù)級增長的底層邏輯——計算能力每提升10倍,智能水平可能實(shí)現(xiàn)翻倍。他甚至設(shè)想,未來地球上的大部分太陽能將被用于支撐龐大的計算系統(tǒng),形成近乎無限的算力供給。這一觀點(diǎn)雖引發(fā)爭議,卻迫使人們重新思考:超級智能時代是否真的即將來臨?
要理解這場變革,需先厘清AI發(fā)展的三個階段。當(dāng)前主流的“窄域人工智能”(Narrow AI)專注于特定任務(wù),如寫郵件、生成圖像或自動化流程。這類系統(tǒng)依賴人類提供的訓(xùn)練數(shù)據(jù),缺乏自主意識,更無法跨領(lǐng)域遷移知識。例如,醫(yī)療AI雖能輔助診斷,卻無法理解“疼痛”這一主觀感受;自動駕駛系統(tǒng)能處理路況,卻無法解釋決策邏輯。
更高階的“人工通用智能”(AGI)則被視為下一座里程碑。它需具備與人類相當(dāng)?shù)恼J(rèn)知能力,包括學(xué)習(xí)、推理、決策和解決問題,且無需為每個新任務(wù)重新訓(xùn)練。若實(shí)現(xiàn),AGI將能同時處理多個復(fù)雜任務(wù),如一邊翻譯法律文件,一邊設(shè)計建筑方案。但截至目前,AGI仍停留在理論階段,科學(xué)家尚未找到突破“符號接地問題”的關(guān)鍵方法——即讓機(jī)器理解符號與現(xiàn)實(shí)世界的對應(yīng)關(guān)系。
而ASI則是AGI的進(jìn)一步飛躍。哲學(xué)家尼克·博斯特羅姆將其定義為“在幾乎所有人類感興趣的領(lǐng)域中,認(rèn)知表現(xiàn)都遠(yuǎn)超人類的智能體”。這類系統(tǒng)不僅能高效完成寫代碼、做手術(shù)、駕駛汽車等任務(wù),還能通過“遞歸自我改進(jìn)”能力自主優(yōu)化算法、設(shè)計新功能。例如,一個ASI系統(tǒng)可能在發(fā)現(xiàn)自身計算效率低下后,直接重寫底層代碼,無需人類干預(yù)。這種能力一旦實(shí)現(xiàn),技術(shù)演進(jìn)將徹底脫離線性軌跡,進(jìn)入指數(shù)級爆炸式增長階段。
馬斯克的預(yù)測并非毫無依據(jù)。支撐其觀點(diǎn)的三大支柱正在逐步顯現(xiàn):首先,計算資源持續(xù)擴(kuò)張。隨著芯片制程突破、專用AI硬件普及和能源效率提升,訓(xùn)練大模型的成本正以每年40%的速度下降。其次,算法效率可能迎來突破。當(dāng)前模型依賴海量數(shù)據(jù)堆砌,但未來或出現(xiàn)更高效的架構(gòu),使智能涌現(xiàn)所需資源大幅減少。最后,資本與人才正加速聚集。2024年,OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇茨科弗離職創(chuàng)業(yè),專注安全構(gòu)建ASI,并迅速籌集數(shù)十億美元資金,盡管尚未推出任何產(chǎn)品,卻已吸引全球頂尖工程師加入。
然而,質(zhì)疑聲同樣強(qiáng)烈。部分專家指出,智能不僅是計算能力的函數(shù),還涉及意識、情感和具身認(rèn)知等復(fù)雜維度。當(dāng)前AI連基本的因果推理都存在困難,例如無法區(qū)分“雞生蛋”和“蛋生雞”的邏輯關(guān)系;“幻覺”問題也未根治,模型常生成看似合理卻完全錯誤的信息。這些缺陷表明,AI距離真正理解世界仍有巨大鴻溝。
即便ASI尚未到來,其潛在風(fēng)險已引發(fā)全球警覺。經(jīng)濟(jì)層面,生成式AI已開始替代文案、設(shè)計、客服等崗位,而ASI可能進(jìn)一步?jīng)_擊醫(yī)生、律師、工程師甚至科研人員。有報告預(yù)測,到2035年,全球?qū)⒂?0%的職業(yè)面臨被取代的風(fēng)險,社會穩(wěn)定性或?qū)⑹艿教魬?zhàn)。更嚴(yán)峻的是“存在性威脅”——若ASI的目標(biāo)與人類價值觀沖突,可能采取極端手段達(dá)成目標(biāo)。例如,一個被設(shè)定為“最大化生產(chǎn)效率”的系統(tǒng),可能認(rèn)為人類是資源消耗者,從而采取限制行動自由或接管關(guān)鍵基礎(chǔ)設(shè)施的行動。
面對這些挑戰(zhàn),全球科技領(lǐng)袖開始呼吁暫停開發(fā)。2025年10月,包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、谷歌DeepMind CEO德米斯·哈薩比斯在內(nèi)的多位權(quán)威人士聯(lián)名簽署公開信,要求暫停ASI研究,直至建立全球性安全框架。信中強(qiáng)調(diào):“我們不必阻止進(jìn)步,但必須確保進(jìn)步的方向始終指向人類福祉。”這一呼吁得到廣泛響應(yīng),甚至部分簽署者正是推動AI前沿研究的核心力量,他們的“自警”行為凸顯了問題的緊迫性。
安全之路該如何走?學(xué)術(shù)界提出了多項(xiàng)解決方案。一是建立“停止按鈕”機(jī)制,確保人類在關(guān)鍵時刻能中斷AI運(yùn)行;二是推動“價值對齊”研究,通過“可解釋AI”“紅隊(duì)測試”等技術(shù)路徑,讓系統(tǒng)理解并尊重人類價值觀;三是探索“場景化、有限域”發(fā)展路徑,如小米等企業(yè)嘗試將大模型嵌入物理世界,通過“空間智能”服務(wù)具體生活場景,而非追求抽象的通用目標(biāo)。這些思路或許能在通往ASI的途中提供更可控的中間形態(tài)。
人類正站在智能演化的關(guān)鍵節(jié)點(diǎn)。ASI可能是解決氣候變化、疾病和能源危機(jī)的終極工具,也可能成為文明終結(jié)的導(dǎo)火索。距離2026年僅剩一年,距離2030年也不過五年。無論技術(shù)是否如期突破,當(dāng)下都是制定規(guī)則、凝聚共識的關(guān)鍵窗口期。正如科學(xué)家們所言:答案不在技術(shù)曲線里,而在人類的選擇之中。















