今天,阿里全新開源代碼模型Qwen3-Coder正式發(fā)布。
(來源:X)
Qwen3-Coder擁有多個尺寸,此次發(fā)布的是最強大的版本,名為Qwen3-Coder-480B-A35B-Instruct(以下簡稱Qwen3-Coder)。
它是一款混合專家(MoE)模型,總參數(shù)量高達4,800億,激活參數(shù)為350億,原生支持256Ktoken的上下文,并可通過YaRN擴展到高達1百萬token,支持358種編程語言。
圖|Qwen3-Coder在測試中的表現(xiàn)(來源:資料圖)
由于Qwen3系列模型的整體調(diào)整,Qwen3-Coder僅支持非思考模式,不生成思考過程。
在注意力機制方面,Qwen3-Coder采用了分組查詢注意力(GQA)方案,配備96個查詢(Q)注意力頭和8個鍵/值(KV)注意力頭,并擁有160個專家(Expert),其中8個專家被激活。
圖|Qwen3-Coder模型總覽(來源:Qwen)
據(jù)介紹,預訓練階段,Qwen3-Coder從數(shù)據(jù)、上下文、合成數(shù)據(jù)三個不同角度進行擴展(scaling),以提升模型的代碼能力。
在后訓練階段,研究團隊選擇在更豐富的真實代碼任務上擴展代碼強化學習(CodeRL)訓練。通過自動擴展測試樣例,他們構(gòu)造了大量高質(zhì)量的訓練實例,成功釋放了強化學習的潛力:不僅顯著提升了代碼執(zhí)行成功率,還對其他任務帶來增益。
此前網(wǎng)友挖出線索,阿里團隊在代碼中介紹Qwen3-Coder時寫道:“Qwen3-Coder-480B-A35B-Instruct是一個強大的編碼專用語言模型,在代碼生成、工具使用和代理任務方面表現(xiàn)出色?!?/p>
圖|網(wǎng)友先前挖出Qwen3-Coder的線索(來源:X)
阿里表示,該模型“擁有卓越的代碼和代理能力”。Qwen3-Coder在代理式編碼、代理式瀏覽器使用和代理式工具使用上成為了開源模型的SOTA,可以媲美ClaudeSonnet4。
Qwen3-Coder也是受到了網(wǎng)友的大力追捧,代碼庫上線一小時就收獲了5.1kStar。
(來源:GitHub)
與此同時,阿里還推出并開源了一款用于代理式編程的命令行工具:QwenCode。
“QwenCode基于GeminiCode進行二次開發(fā),但我們進行了提示詞和工具調(diào)用協(xié)議適配,使得QwenCode可以最大程度激發(fā)Qwen3-Coder在代理式編程任務上的表現(xiàn)?!卑⒗镌诠倬W(wǎng)上表示。
(來源:資料圖)
另外,Qwen3-Coder也可以和AI社區(qū)優(yōu)秀的編程工具結(jié)合使用,如ClaudeCode、Cline等。開發(fā)者也可以通過阿里云ModelStudio調(diào)用Qwen3-CoderAPI。
目前,Qwen3-Coder網(wǎng)頁版已經(jīng)上線,筆者第一時間嘗試了它的編程水平。
(來源:https://chat.qwen.ai/)
在只提供一句“克隆推特網(wǎng)頁設計和UI”提示的情況下,Qwen3-Coder給出的結(jié)果還是不錯的:
圖|Qwen3-Coder生成的仿推特UI(來源:資料圖)
相比之下,ChatGPT(免費版)給出的結(jié)果則是有些簡陋,雖然文本和幾個功能區(qū)域都有,但幾乎沒有視覺元素:
圖|ChatGPT生成的仿推特UI(來源:資料圖)
筆者還讓Qwen3-Coder做了一個簡單的網(wǎng)頁版乒乓球游戲,同樣只是一句話提示:“開發(fā)一個可以在網(wǎng)站上運行的乒乓球游戲”。
代碼生成后直接在Artifact上無縫運行,整個過程不到20秒,效果很驚艷,直接用鍵盤就能控制,支持兩人對戰(zhàn),它還自主發(fā)揮加上了獲勝規(guī)則:
而ChatGPT生成的雖然也能運行,但無論是美觀還是完整性,都遠不及Qwen3-Coder:
圖|ChatGPT生成的乒乓球游戲截圖(來源:資料圖)
最后是官方給出的兩段代碼運行效果,分別是地球3D模擬和FlappyBird游戲:
此次發(fā)布的Qwen3-Coder屬于阿里Qwen3系列。
三個月前,阿里發(fā)布了千問3(Qwen3)系列模型,包括兩款混合專家MoE模型、六款密集模型和若干模型變種,例如后訓練、FP8版本等等。
其中的旗艦模型Qwen3-235B-A22B,總參數(shù)量高達2,350億(235B),其中激活參數(shù)為220億(A22B),分布在94個深層網(wǎng)絡層中。
另外一個MoE模型Qwen3-30B-A3B,尺寸較小,總參數(shù)量300億,激活參數(shù)量30億。
(來源:Qwen3)
當時,Qwen3系列引入了一種混合方法來解決問題,一個模型同時支持思考模式和非思考模式。但現(xiàn)在這種模式已經(jīng)被取消。
就在Qwen3-Coder發(fā)布的前一天,阿里同樣更新了Qwen3系列,新模型名為Qwen3-235B-A22B-Instruct-2507(簡稱Qwen3-2507),迭代速度令人驚喜。
阿里在官網(wǎng)表示,“經(jīng)過與社區(qū)溝通和深思熟慮后,我們決定停止使用混合思維模式。取而代之的是,我們將分別訓練Instruct和Thinking模型,以獲得最佳質(zhì)量。所以我們發(fā)布了Qwen3-235B-A22B-Instruct-2507及其FP8版本,供大家使用?!?/p>
(來源:資料圖)
Qwen3-2507在主流基準測試中表現(xiàn)優(yōu)異。作為一款“沒有思考能力”的開源模型,它在GPQA、AIME25和LiveCodeBenchv6等測試中均超越了未開啟思考模式的ClaudeOpus4。
可以說,無論是Qwen3-Coder還是Qwen3-2507,再加上DeepSeek和Kimi,都是AI開源社區(qū)寶貴的財富。
在閉源模型各種刷榜的今天,它們難得的推動了大模型技術(shù)的普及化,為AI社區(qū)開發(fā)者和研究人員提供了強大的免費工具。更重要的是,它們的廣受歡迎讓中國在全球AI開源領域占據(jù)了重要一席。
(來源:資料圖)
這不僅能促進AI技術(shù)的普惠發(fā)展,還能有效降低創(chuàng)新門檻,讓更多開發(fā)者參與進來,共同構(gòu)建一個更加開放和繁榮的AI生態(tài)系統(tǒng)。
反過來,這些模型未來在產(chǎn)業(yè)應用、學術(shù)研究和人才培養(yǎng)等方面都將發(fā)揮不可估量的作用,進一步加速中國在AI領域的進步。
參考資料:
https://qwenlm.github.io/blog/qwen3-coder/
https://qwenlm.github.io/blog/qwen3/
https://huggingface.co/Qwen/Qwen3-Coder-480B-A35B-Instruct
https://arxiv.org/pdf/2505.09388
言情小說《這個團寵有點兇》為什么 一枝獨秀到如今?
“野爹,你打野有點激進。因為你的隊伍一直是野核,你優(yōu)先開團,抓住弱點就會進攻——。這是SOLO,你沒有隊友,我若是給你設了陷阱,你就很危險_。你輸了,正常|——?!标憫?zhàn)野聽完,沉默了一會兒,長指有規(guī)則地敲擊著椅子扶手。云佐凡很是吃驚。她剛過來就敢教育陸戰(zhàn)野?要知道,陸戰(zhàn)野那可是整個KPL的“野爹”,看著冷傲實際上火爆,脾氣 “小姐姐,你看,野爹好兇,野爹欺負我,嚶嚶嚶?!蓖幀幊聊艘幌?,拍了拍他放在自己肩膀上的爪子,問道_|?!澳忝魇离[和東皇太一很厲害啊?!边呭\笑著,低頭看這個漂亮的女孩子,漂亮話張口就來?!笆前。〗憬氵@么可愛,可愛的輔助肯定也玩的很好吧?!蓖幀廃c點頭-?!拔遗D堬w都是國服第一,勝率還行__。..快穿文:《這個團寵有點兇》甜出天際,1v1雙C,電競蘿莉超軟萌