媒體界 - 推動中國媒體行業創新,促進業內人士交流分享!

從看見,到觸感真實-開普勒國內首發 VTLA 全感知原生力觸覺全棧數采方案

   發布時間:2026-04-22 00:10 作者:美通社

上海2026年4月21日 /美通社/ -- 2026 年 4 月,北京亦莊機器人馬拉松火熱舉辦,行業迎來新一輪技術展示熱潮。當下機器人領域正呈現鮮明的專業化分工:跑步機器人專注運動性能優化,表演機器人側重姿態與交互,而開普勒機器人,始終聚焦工業實干,做真正能在產線上創造價值的實用型機器人

同月,上海開普勒機器人正式發布國內首個原生適配 VTLA 全感知模型的力觸覺全棧數采解決方案 ——Kepler-OmniTac?。方案由開普勒全棧自研,涵蓋新一代數采套件、Kepler-OmniVTLA 大模型及原生數據集,可直接采集原生力觸覺全模態數據,實現機器人邊工作、邊數采,在真實工業場景里邊訓練、邊進化

這一發布,標志著工業人形機器人正式從以視覺為主的 VLA 時代,邁入更貼合生產實際的 OmniVTLA 時代。我們始終專注工業落地場景,致力于構建真正實用的全感知智能機器人體系,補齊機器人長期缺失的 "物理交互能力",推動行業從炫技展示走向務實量產,向更智能、更可用、更能干活的方向持續邁進。

一、數據驅動,開普勒具身智能邁入 Gen3.0 時代

開普勒機器人對具身智能的探索,始終以落地價值為核心錨點。開普勒CEO 宋華曾多次公開表示:"早期大模型等 AI 技術尚未成熟,行業內多數數據采集停留在實驗室環境,產出的'完美數據'與真實工業場景脫節,既無法支撐機器人完成復雜操作,也導致企業投入產出比極低,難以形成規模化落地能力。"

基于這一判斷,開普勒為自研的 KeplerBrain 類腦系統? 規劃了清晰的三階演進路線:

  • 2021–2023 具身智能 Gen1.0:以規則驅動模型為核心,聚焦封閉場景完成基礎作業驗證,實現 "無泛化但穩定可靠" 的核心目標,夯實工業級穩定基礎;
  • 2024–2025 具身智能 Gen2.0:升級為數據驅動 AI 模型,在原有封閉場景中實現 "有條件泛化",可適配同類場景下的小幅變量調整,實現場景內靈活適配。

如今,人形機器人行業迎來關鍵拐點:執行器、整機控制、靈巧手等硬件已實現規模化突破,軀體成熟,智能待啟。但行業仍被三大痛點牢牢束縛:

  • 感知維度缺失-純視覺方案無法捕捉接觸力、摩擦力等物理交互信息
  • 力觸覺數據稀缺-缺乏全維度接觸數據支撐精細操作
  • 模型與數據不匹配-主流模型原生不支持觸覺模態

機器人普遍 "看得清、摸不準、做不精"。

依托早些年已完成的本體全棧布局與大量封閉場景落地經驗,開普勒正式宣告:邁入KeplerBrain具身智能 Gen3.0 時代—— 以海量真實數據驅動端到端大模型,實現通用場景、完全泛化。

開普勒明確判斷:工業人形機器人的下一程,不再拼硬件,而拼感知與數據。物理世界感知 + 高保真交互數據,將成為真正的核心競爭力。

為此,公司堅定采用"具身智能大腦 + 力觸覺全棧數采" 雙輪驅動戰略,放棄 "廣而淺" 的橫向泛化,深耕工業垂類縱向泛化路徑,用真實場景數據破解行業智能瓶頸,讓機器人真正實現 "會摸、會懂、會做",升級為具備真實物理世界感知與決策的工業智能體。

二、原生 VTLA,打造觸覺 + 六維力全感知

本次推出的 Kepler-OmniTac? 力觸覺全棧數采解決方案,由自研Kepler-OmniTac 數采套件、Kepler-OmniVTLA 數據集、KEPLER OmniVTLA 大模型端到端打通,核心是 "人機同源感知"*,國內首個實現 "硬件 - 數據 - 模型" VTLA 原生適配的工業級方案。

不止能看見,更懂推拉擰

Kepler-OmniTac 數采套件為開普勒全棧自研,采用雙方案并行架構,整體輕量化設計,可快速適配各類真實工業場景。

1. 開普勒同構力觸數采套件

由 "同構力反饋外骨骼 + 力觸反饋手部套件(夾爪 / 五指手套)+ 開普勒人形機器人(夾爪版 / 靈巧手版)"組合而成。

  • 核心優勢:動作空間與機器人高度一致,可原位采集高保真力控與接觸數據,減少人機形態差異,在滑移、穩定性、材料區分、順應控制等信號采集上表現優異。同時通過本地 - 邊緣部署、通信優化、溫度補償、自校準等技術,有效抑制延遲、溫漂與噪聲,數據穩定可靠。


2. UMI 觸覺手套數采套件

五指觸覺采集手部套件為核心,可靈活搭配外骨骼擴展使用。

  • 核心優勢:大幅降低采集門檻與硬件成本,無需昂貴機器人即可快速采集大量人類演示數據,適合數據集擴容與算法快速驗證。通過多機型映射、策略蒸餾、多視角融合等技術,緩解人手 - 機器人差異與視角遮擋問題,低成本兼顧數據質量。

雙套件協同,高質高效全覆蓋

  • 同構外骨骼搭配力觸手部采集套件實現精準動作映射與力覺反饋,保障遙操作數據高保真;
  • 觸覺手套兼顧低成本與數據多樣性,提升采集效率與覆蓋度。

兩者互補配合,可靈活覆蓋不同場景、不同精度需求的全品類數據采集任務,為 OmniVTLA 大模型訓練提供高質量、高多樣性的多模態數據支撐。


海量真實數據,筑牢感知底座

Kepler-OmniVTLA 數據集,基于自研采集設備原生采集構建,自帶 "真實無虛、多元覆蓋、全模融合、規模領先" 四大特質,數據儲備堪稱豐厚:累計收錄 10 萬 + 條真人實采全模態場景數據,覆蓋商業、工業、辦公、家居等多行業核心場景,囊括20+種專屬工業技能與 40 +種真實應用場景,真實還原核心場景全鏈路任務。

VLA VTLA,一腦適配多機

KEPLER OmniVTLA 大模型,實現 VLA→VTLA 關鍵升級,將力觸覺模態提升至與視覺、語言、動作同等核心地位,原生支持力觸覺編碼與跨模態深度融合:

核心突破:從 "被動看" 到 "主動摸",精準理解接觸力度、材料軟硬等物理屬性,柔性 / 易碎工件操作 "不翻車";

能力躍遷:模仿學習 2.0 落地,告別單純 "抄動作",深度 "懂邏輯",復雜任務泛化能力 "翻倍漲";

實用價值:一腦多機高效適配,通過多機型目標映射與策略蒸餾,一套模型可兼容不同自由度、不同結構的人形機器人,無需重復開發,大幅降低部署成本;

工業實效:接觸密集型任務成功率提升 10%-20%,試錯成本 "砍一刀",已在汽車、3C 等行業真實工廠完成 POC 驗證,徹底補齊工業人形機器人感知短板。


三、邊工作、邊數采、邊訓練、邊進化

當前機器人訓練的核心數據,多以純視覺數據和虛擬合成數據為主。虛擬數采場、集中式基地產出的理想化數據,脫離了工廠的真實環境 —— 不同材質的零件、復雜的光照遮擋、動態的生產流程,讓這類數據在工業場景的泛化成功率僅【25%-30%】;而純視覺數據存在天然盲區,無法感知力、觸等物理信息,在精密裝配、多材質抓取等精細操作中,幾乎不具備實用價值。

傳統遙操作數采作為 "人工主導的離線采集模式",同樣未能解決數據與真實場景脫節的核心問題,而 Kepler-OmniTac? 憑借于 "硬件 - 數據 - 模型" 端到端原生打通:硬件實時采集不卡頓,數據管線秒級處理無延遲,模型原生適配力觸覺模態,三者形成高效閉環,大幅減少人工參與,快速完成 "采集 - 處理 - 訓練 - 迭代" 全流程。率先實現 "干活即采數、采數即訓練、訓練即進化" 的革命性突破,徹底打破行業 "采集 - 訓練 - 部署" 割裂的痛點。

我們的優勢不止于技術邏輯,更在汽車、3C 等真實產線得到驗證

產線實測:從能用,到好用

汽車精密裝配:1000 次零失誤,成功率 98%

  • 行業痛點:傳統遙操作數采與虛擬 / 純視覺數據難以精準還原精密裝配的力控細節與真實場景,采集數據適配性差,泛化成功率僅 25%-30%,導致機器人實際作業易卡滯、錯位,依賴人工補位,效率低、成本高;
  • 我們的突破:VTLA 模型通過六維力傳感器 + 觸覺反饋,動態修正姿態,實現亞毫米級精準對齊,采集數據與實際作業場景 1:1 匹配;
  • 落地數據:某汽車工廠 1000 次連續裝配,成功率達 98%,較虛擬 / 純視覺數據的 25%-30% 泛化成功率實現質的飛躍,產線產能提升 30%,人工成本降低 40%,大幅減少人工干預。


多材質抓取:零滑落,成功率 99%

  • 行業痛點:傳統遙操作數采與虛擬 / 純視覺數據無法精準捕捉不同材質零件的受力差異與真實場景特性,采集數據通用性差,機器人抓取時易出現抓碎、滑落問題,人工干預率高,幾乎不具備實用價值;
  • 我們的突破:VTLA 模型通過力觸覺實時反饋,動態調節抓取力度(重物抓牢、輕物輕柔、易碎品控力),采集數據覆蓋全場景材質特性與復雜環境;
  • 落地數據:某制造工廠多品種小批量零件抓取及放置,抓取成功率 99%,連續作業零滑落。

開普勒 K2 大黃蜂目前已成功實現自主拆垛,顯著降低人工干預,推動產線自動化升級,徹底解決純視覺與虛擬數據的實用化難題。


四、從人工采集,到自主成長,補齊感知短板

傳統遙操作數采與虛擬 / 純視覺數據僅解決 "數據怎么采",但無法解決 "數據怎么用、機器人怎么升級" 的核心問題;而我們的方案實現全鏈路高效閉環:

  • 對企業:無需額外投入采集時間與大量人工成本,機器人自主進化,持續降低產線試錯成本與人工干預,擺脫對低泛化率數據的依賴;
  • 對行業:打破 "人工依賴型數采" 與 "虛擬數據脫節場景" 的雙重瓶頸,用 "力觸覺 + 視覺" 雙驅動的自主成長模式,讓機器人真正適配工業場景的復雜多變,這也是我們能在汽車、3C、物流等行業快速落地的核心原因。
  1. 補齊感知短板:首次實現 "視覺 + 力觸覺" 全維度物理感知,讓機器人不止 "看見",更能 "觸摸真實",解決遮擋、反光、柔性物體等場景失效問題;
  2. 降低數據門檻:提供開箱即用的工業力觸覺數采方案,大幅降低企業獲取高保真交互數據的成本與周期,加速具身智能迭代;
  3. 加速場景落地:原生適配 VTLA 模型,數據與模型深度協同,提升機器人在精密制造、汽車裝配、物流分揀等場景的作業精度與穩定性,助力工業人形機器人規模化商用。

五、以數據為芯,從工業出發,向萬物智能延伸

開普勒深耕工業人形機器人領域,旗下 K2 "大黃蜂" 機器人已在工業制造、物流作業、高空作業等場景完成穩定驗證。本次力觸覺全棧數采方案的發布,是公司從 "硬件研發" 向 "硬件 + 數據 + 模型" 全棧智能公司升級的關鍵一步。

未來,開普勒將立足工業、跳出工業,持續迭代 VTLA 模型與力觸覺數采體系,以工業級高可靠能力為根基,不斷拓展全場景智能邊界;聯合生態伙伴共建「場景 - 數據 - 模型」正向循環,讓機器人真正具備人類級物理感知與交互能力,從賦能智能制造,走向服務萬物智能。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新