阿里巴巴千問團(tuán)隊近日正式發(fā)布了一款面向編碼代理與本地開發(fā)場景的開放權(quán)重語言模型——Qwen3-Coder-Next。該模型通過創(chuàng)新架構(gòu)與訓(xùn)練方法,在編程能力與推理效率之間實現(xiàn)了突破性平衡,為開發(fā)者提供了更高效的智能編程工具。
基于Qwen3-Next-80B-A3B-Base架構(gòu),研發(fā)團(tuán)隊采用混合注意力機(jī)制與MoE(專家混合)架構(gòu),構(gòu)建了新一代智能編程模型。通過大規(guī)模可執(zhí)行任務(wù)合成、環(huán)境交互反饋與強(qiáng)化學(xué)習(xí)技術(shù),模型在降低推理成本的同時,顯著提升了代碼生成與智能體交互能力。訓(xùn)練過程中突破傳統(tǒng)參數(shù)擴(kuò)展模式,重點(diǎn)強(qiáng)化智能體訓(xùn)練信號的擴(kuò)展性,采用四階段優(yōu)化策略:首先在代碼與智能體數(shù)據(jù)集上進(jìn)行持續(xù)預(yù)訓(xùn)練,隨后通過高質(zhì)量智能體軌跡數(shù)據(jù)監(jiān)督微調(diào),接著針對軟件工程、QA、Web/UX等領(lǐng)域開展專家訓(xùn)練,最終將多領(lǐng)域能力蒸餾至單一可部署模型。
在編程智能體基準(zhǔn)測試中,該模型展現(xiàn)出強(qiáng)勁競爭力。使用SWE-Agent框架時,在SWE-Bench Verified基準(zhǔn)上取得超過70%的準(zhǔn)確率,在多語言環(huán)境及更具挑戰(zhàn)性的SWE-Bench-Pro測試中保持領(lǐng)先。特別值得注意的是,盡管激活參數(shù)規(guī)模僅為3B,其性能已可媲美參數(shù)量高10-20倍的開源模型,在TerminalBench 2.0和Aider等基準(zhǔn)測試中同樣表現(xiàn)優(yōu)異。
效率與性能的平衡優(yōu)化成為該模型的核心優(yōu)勢。測試數(shù)據(jù)顯示,在SWE-Bench-Pro基準(zhǔn)上,3B激活參數(shù)的Qwen3-Coder-Next與參數(shù)量大數(shù)十倍的模型性能相當(dāng),在低成本智能體部署場景中占據(jù)帕累托前沿。這種突破得益于訓(xùn)練方法對長程推理、工具使用和錯誤恢復(fù)能力的針對性強(qiáng)化,使模型更適應(yīng)真實開發(fā)環(huán)境中的復(fù)雜需求。
目前,該模型已通過ModelScope和Hugging Face平臺開放下載,開發(fā)者可自由獲取模型權(quán)重進(jìn)行本地部署與二次開發(fā)。研發(fā)團(tuán)隊表示,后續(xù)將持續(xù)優(yōu)化模型的推理決策能力,擴(kuò)展任務(wù)支持范圍,并根據(jù)用戶反饋快速迭代更新,為智能編程領(lǐng)域提供更強(qiáng)大的技術(shù)支撐。















