近日,美國知名編程工具企業(yè)Cursor推出的新一代編程模型Composer 2引發(fā)軒然大波。這款被宣稱性能比肩OpenAI GPT-5.4和Claude Opus 4.6、價格僅為競品三分之一的產品,在發(fā)布不到24小時后就被曝出關鍵問題——開發(fā)者Fynn在調試其API時發(fā)現(xiàn),模型ID竟包含“kimi-k2p5-rl-0317-s515-fast”的代碼片段。
技術社區(qū)瞬間沸騰,特斯拉創(chuàng)始人馬斯克更是在社交平臺直言:“這就是Kimi 2.5”。面對輿論壓力,Cursor聯(lián)合創(chuàng)始人Aman Sanger承認,團隊確實基于Kimi K2.5進行了持續(xù)預訓練和強化學習,并解釋未在公告中提及底座模型是“疏忽”。這一回應與Cursor此前極力塑造的“自研”形象形成鮮明對比。
這并非Cursor首次陷入類似爭議。2025年11月其發(fā)布Composer 1時,就有開發(fā)者發(fā)現(xiàn)模型推理過程中偶爾輸出中文,且分詞器與DeepSeek高度相似。當時Cursor選擇沉默應對,未對質疑作出任何回應。
與Cursor遮遮掩掩的態(tài)度不同,Kimi的回應顯得頗為大度。其官方聲明祝賀Cursor團隊發(fā)布新產品,并表示“自豪地看到Kimi K2.5成為其技術基礎”,甚至解釋Cursor是通過Fireworks AI平臺合法接入Kimi模型的商業(yè)合作行為。
無獨有偶,日本樂天集團3月17日發(fā)布的Rakuten AI 3.0也遭遇類似尷尬。這款被吹捧為“日本最大規(guī)模高性能AI模型”的產品,被網(wǎng)友發(fā)現(xiàn)直接套用deepseek_v3舊版模型。盡管樂天集團未作回應,但日本網(wǎng)友紛紛吐槽:“DeepSeek都更新到V3.2了,樂天還在用舊版包裝。”
這場風波折射出AI行業(yè)的一個現(xiàn)實:當技術壁壘逐漸透明化,企業(yè)間的競爭將轉向產品化能力、數(shù)據(jù)積累和用戶體驗等維度。對于中國大模型公司而言,這或許是個重要機遇——當全球開發(fā)者自發(fā)選擇中國模型作為技術底座時,技術影響力已超越地域限制。















