武漢街頭,多輛蘿卜快跑無人駕駛出租車突然集體“罷工”,整齊地停在高架橋與主干道上,宛如被按下了暫停鍵。幸運的是,車內乘客均安全撤離,未造成人員傷亡,但這場意外還是引發了輿論的軒然大波。網絡上,批評聲如潮水般涌來,“技術不成熟”“自動駕駛安全隱患大”等標簽被迅速貼上,甚至有人將矛頭直指百度,質疑其技術實力。
然而,這場看似“技術故障”的背后,或許隱藏著更復雜的邏輯。自動駕駛領域,安全策略的設計往往比技術本身更關鍵。以L4級自動駕駛為例,其責任主體明確為廠商,這意味著車輛必須具備極高的安全冗余——任何決策失誤都可能導致廠商承擔巨大責任。因此,當系統檢測到潛在風險時,選擇“保守停擺”而非“冒險繼續”,或許是最穩妥的選擇。

以蘿卜快跑為例,其車輛硬件配置堪稱豪華:4顆禾賽AT128激光雷達、12個攝像頭、6個毫米波雷達、12個超聲波雷達,以及雙Orin X芯片提供的1200 TOPS算力。這樣的配置足以支持單車獨立完成感知、決策與執行,但百度的架構設計卻將最終決策權交給了云端。當云端下發停車指令時,車輛會立即執行,而非嘗試靠邊停車——因為在無安全員的情況下,靠邊操作可能引發二次事故,風險更高。
這種“云端集控”模式并非個例。2025年12月,舊金山大面積停電期間,Waymo的無人車也曾因遠程確認請求暴增而集體趴窩。當時,車輛雖能識別熄滅的紅綠燈,但出于審慎策略,仍需向遠程團隊發送確認請求。結果,遠程系統因處理量過大而崩潰,導致車輛卡在路口。這與蘿卜快跑的事件如出一轍:都是遠程環節成為瓶頸,都是審慎策略在極端情況下變成了系統性癱瘓。
相比之下,特斯拉的Robotaxi選擇了另一條路——純視覺加端到端神經網絡,車端完全自主決策。這種模式賦予了單車極高的靈活性,但也帶來了高事故率。2025年6月至今,特斯拉在奧斯汀的Robotaxi累計發生14起碰撞,事故率約為人類的4到8倍。其問題不在于“不敢動”,而在于“太敢開”——在復雜路況下,車端決策可能過于激進,導致事故發生。
三家公司,三種策略,三種代價。特斯拉放權給單車,換來了高事故率;Waymo介于兩者之間,保守確認機制在大規模異常時崩潰;蘿卜快跑則選擇云端集控,稍有刺激便進入“保護性休克”。從乘客安全的角度看,蘿卜的策略或許并非最差——當系統檢測到風險時,車輛立即停穩,乘客可迅速撤離,避免了二次事故的可能。這種“敏感肌”式的安全策略,雖顯得笨拙,卻可能是對乘客最負責的選擇。
自動駕駛的爭議,本質上是公眾對技術風險的容忍度問題。當大模型出錯時,人們可以寬容地稱之為“智能涌現”;但當自動駕駛車因安全策略停擺時,卻容易被貼上“技術不行”的標簽。這種雙重標準,或許源于對自動駕駛的過高期待——我們既希望它像人類一樣靈活,又要求它比人類更可靠。然而,技術的成熟需要時間,安全策略的優化更需要實踐檢驗。對于蘿卜快跑們而言,站在行業前沿的代價,就是承受更多的質疑與壓力。但無論如何,讓車用最安全的方式停下來,始終是自動駕駛最難的課題。















