在2026北京亦莊機器人半程馬拉松賽事中,一款名為“高德途途”的四足機器人驚艷亮相,成功協助視障人士完成復雜避障、人群穿行等實戰(zhàn)挑戰(zhàn)。這款機器人由阿里巴巴旗下高德公司研發(fā),是全球首款開放環(huán)境全自主具身機器人,標志著具身智能技術在現實場景應用中邁出關鍵一步。
支撐“高德途途”完成導盲等嚴苛任務的核心,是高德全新發(fā)布的ABot全棧具身技術體系。該體系基于上萬種真實場景與千萬級多模態(tài)數據訓練,將高德長期積累的空間智能資產轉化為具身核心訓練資源,構建了全球首個面向通用人工智能(AGI)的全棧技術框架。與傳統具身智能技術“單點拼湊、封閉驗證”的碎片化模式不同,ABot體系以AGI為核心目標,首次將數據引擎、基座模型與執(zhí)行中樞整合為統一系統,形成“數據驅動模型、模型服務應用、應用反哺數據”的閉環(huán)飛輪架構。
在數據層,ABot-World通過批量合成視頻、深度圖、點云和軌跡四類訓練數據,配合強化學習訓練引擎在虛擬環(huán)境中模擬試錯,以高保真仿真替代高昂的真機采集。這一創(chuàng)新將數據成本壓縮數個數量級,同時解決物理合規(guī)性、動作可控性和零樣本泛化三大技術難題。其專為具身智能設計的14B DiT架構,能夠直接生成符合時空動力學的未來狀態(tài)序列,并通過千萬級真實數據與多層級采樣治理,突破單一任務泛化限制。在主流評測中,ABot-World成為唯一在物理合規(guī)性、動作可控性、零樣本泛化三大維度均達SOTA的模型。
模型層由“運動雙核”ABot-N與ABot-M構成。ABot-N作為全球首個實現五大核心導航任務統一的視覺語言動作(VLA)基座模型,采用層級式“大腦-動作”架構,通過多模塊協同實現單一模型導航任務全覆蓋。該模型在VLN-CE、HM3D-OVON等7大權威基準測試中全面刷新紀錄,在導航精度、社會合規(guī)性和零樣本泛化能力上實現斷層式領先。ABot-M則是全球首個統一架構的具身操作基座模型,通過動作流形學習將學習目標轉為流形投影,顯著提升動作生成穩(wěn)定性,其語義流與動作流雙流并行架構更將精細操作執(zhí)行精度提升至新高度。在LIBERO、RoboCasa GR1等主流評測中,ABot-M在泛化能力、魯棒性與跨形態(tài)遷移三個維度系統性超越強基線模型。
應用層的核心是具身版“龍蝦”ABot-Claw,該架構首創(chuàng)“Map as Memory”理念,將高德地圖與用戶私有地圖作為全局認知錨點,把多模態(tài)感知數據統一映射至共享語義空間,形成可動態(tài)刷新的“世界記憶”。這種設計使新終端接入后能零成本繼承環(huán)境認知,徹底打破場景孤島。其“云端大腦—邊緣響應”兩級架構支持多種異構機器人并行協作,故障時自動接續(xù)任務上下文,實現跨形態(tài)協作與體系化智能進化。在模糊指令理解、跨機導引等復雜場景中,ABot-Claw的閉環(huán)反饋與糾錯機制驗證了其魯棒性與泛化性。
高德同步宣布將開源ABot全體系,此舉不僅踐行了“AMAP AI Inside”的核心理念,更為具身智能領域提供了可復用的技術框架。通過開放數據引擎、基座模型與執(zhí)行中樞的完整架構,高德將推動行業(yè)從“單體技術突破”向“體系化協同創(chuàng)新”轉型,為AGI時代的到來按下加速鍵。















