在近日舉辦的科技盛會上,英偉達公司正式發(fā)布了一款專為實體機器人與自動駕駛車輛設計的開源AI解決方案——Alpamayo。這一組合包含全新AI模型、仿真工具及海量數(shù)據(jù)集,旨在為自動駕駛技術注入更強大的智能決策能力,使其能夠從容應對現(xiàn)實世界中的復雜駕駛場景。
英偉達首席執(zhí)行官黃仁勛在發(fā)布會上強調(diào),物理智能領域正迎來關鍵轉(zhuǎn)折點,類似于ChatGPT在語言處理領域引發(fā)的變革。他表示:"Alpamayo標志著機器開始在現(xiàn)實世界中具備理解、推理和行動的能力。通過將推理能力賦予自動駕駛車輛,我們使其能夠處理各類罕見場景,在復雜環(huán)境中安全行駛,并解釋自身的決策邏輯。"
據(jù)介紹,Alpamayo平臺的核心是擁有100億參數(shù)的Alpamayo 1模型。這款基于思維鏈技術的視覺-語言-行動(VLA)模型,使自動駕駛汽車具備類人思維能力。即使面對未經(jīng)過專門訓練的場景,如交通信號燈失靈的路口,系統(tǒng)也能通過分解問題、推演多種可能性,最終選擇最安全的通行方案。英偉達汽車事業(yè)部副總裁阿里·卡尼解釋道:"模型會將復雜問題拆解為多個步驟,逐一評估所有可能情況,確保決策的安全性。"
黃仁勛進一步透露,首款搭載英偉達技術的自動駕駛汽車將于今年第一季度在美國投入實際道路測試。他特別指出,Alpamayo 1不僅能接收傳感器數(shù)據(jù)并控制車輛操作,更能對即將采取的行動進行推理說明。"系統(tǒng)會明確告知用戶:將要執(zhí)行什么操作、為何做出此決策,以及車輛后續(xù)的行駛軌跡。"
為支持開發(fā)者社區(qū),英偉達已將Alpamayo 1的底層代碼在Hugging Face平臺開源。開發(fā)者可以基于該模型進行微調(diào),創(chuàng)建更輕量化、運行更快的版本用于車輛開發(fā);或直接訓練簡易駕駛系統(tǒng);還能構(gòu)建上層工具,如自動視頻標注系統(tǒng)和決策評估工具。卡尼補充道:"開發(fā)者還可利用英偉達的Cosmos生成式世界模型生成合成數(shù)據(jù),結(jié)合真實駕駛數(shù)據(jù)集,對自動駕駛應用進行全面訓練與測試。"
配套發(fā)布的還有包含1,727小時駕駛數(shù)據(jù)的開源數(shù)據(jù)集,覆蓋25個國家和2,500多個城市的多樣路況。該數(shù)據(jù)集記錄了各種交通狀況、天氣條件、障礙物和行人信息,共包含310,895個20秒長的視頻片段,為訓練自動駕駛系統(tǒng)提供了豐富的真實場景素材。
英偉達還推出了AlpaSim仿真框架——一款用于驗證自動駕駛系統(tǒng)的開源工具,現(xiàn)已在GitHub平臺開放。該框架能夠高精度還原真實駕駛環(huán)境,包括傳感器數(shù)據(jù)和交通流等關鍵要素,支持開發(fā)者對自動駕駛系統(tǒng)開展大規(guī)模安全測試,顯著提升開發(fā)效率與可靠性。















