阿里巴巴達摩院今日宣布推出具身智能大腦基礎模型RynnBrain,并同步開源包含30B MoE架構(gòu)在內(nèi)的7個全系列模型。該模型首次賦予機器人時空記憶與空間推理能力,在16項具身智能評測指標中全面超越谷歌Gemini Robotics ER 1.5、英偉達Cosmos Reason 2等國際頂尖模型,刷新行業(yè)紀錄(SOTA)。
針對具身智能領域長期存在的泛化能力瓶頸,達摩院研發(fā)團隊突破傳統(tǒng)技術(shù)路徑,創(chuàng)造性地將時空記憶與物理世界推理機制融入模型架構(gòu)。時空記憶模塊使機器人能夠通過歷史軌跡定位物體位置、預測運動方向,實現(xiàn)全局時空回溯;物理空間推理則通過文本指令與空間定位的交替運算,將推理過程深度綁定物理環(huán)境,有效降低傳統(tǒng)模型常見的"物理幻覺"問題。實驗顯示,搭載該模型的機器人在執(zhí)行多任務時,可精準記憶中斷前的任務狀態(tài),并在任務切換后無縫恢復操作。
基于Qwen3-VL框架優(yōu)化的RynnScale訓練架構(gòu),使模型在同等計算資源下實現(xiàn)兩倍訓練加速,依托超過2000萬組訓練數(shù)據(jù)構(gòu)建起多維能力體系。評測數(shù)據(jù)顯示,該模型在環(huán)境感知、視覺問答、軌跡預測等核心場景中表現(xiàn)卓越,其認知、定位、規(guī)劃等綜合能力較前代模型提升顯著。特別在具身規(guī)劃任務中,基于RynnBrain微調(diào)的專用模型僅需數(shù)百條訓練數(shù)據(jù)即可超越Gemini 3 Pro,展現(xiàn)出強大的場景適應能力。
此次開源計劃包含全尺寸基礎模型與垂直領域?qū)S媚P停渲?0B MoE架構(gòu)模型通過動態(tài)參數(shù)激活技術(shù),僅需3B活躍參數(shù)即可達到72B規(guī)模模型的性能水平,顯著提升機器人響應速度與動作流暢度。配套發(fā)布的RynnBrain-Bench評測基準,首次構(gòu)建了針對時空細粒度任務的評估體系,填補了行業(yè)在具身智能量化評估領域的空白。
據(jù)達摩院具身智能實驗室負責人趙德麗介紹,RynnBrain通過構(gòu)建大腦對物理世界的深度理解框架,為通用具身智能的分層架構(gòu)發(fā)展奠定關(guān)鍵基礎。該模型已形成可擴展的技術(shù)體系,支持快速衍生導航、操作等垂直領域模型。目前團隊正推進具身智能系統(tǒng)的全棧開發(fā),此前已開源世界模型融合方案WorldVLA、場景理解模型RynnEC及機器人通信協(xié)議RynnRCP等核心技術(shù)組件。















