阿里巴巴通義團(tuán)隊(duì)用四連發(fā)的重磅出擊,橫掃Github開(kāi)源榜單。
本周從7月22日到25日,阿里接連推出Qwen3-235B非思考版本、Qwen3-Coder編程模型、Qwen3-235B-A22B-Thinking-2507推理模型,以及WebSailorAIAgent框架,四款產(chǎn)品橫掃基礎(chǔ)模型、編程模型、推理模型和智能體領(lǐng)域的開(kāi)源榜單。
權(quán)威機(jī)構(gòu)ArtificialAnalysis更是直接評(píng)價(jià):
通義千問(wèn)3是全球最智能的非思考基礎(chǔ)模型。非思考模型也能性能“爆表”
據(jù)硬AI,周二凌晨阿里巴巴通義千問(wèn)團(tuán)隊(duì)推出非思考模式(Non-thinking)最新模型,命名為Qwen3-235B-A22B-Instruct-2507-FP8。
這款非思考模型在多項(xiàng)關(guān)鍵基準(zhǔn)測(cè)試中表現(xiàn)出色。不僅全面超越了Kimi-K2等頂級(jí)開(kāi)源模型,甚至領(lǐng)先Claude-Opus4-Non-thinking等頂級(jí)閉源模型。
值得一提的是,本次更新的Qwen3模型在Agent能力尤其亮眼:在BFCL(Agent能力)測(cè)評(píng)中表現(xiàn)卓越。這意味著模型在理解復(fù)雜指令、自主規(guī)劃、調(diào)用工具以完成任務(wù)的能力上,達(dá)到了一個(gè)新的高度?!爸鞔駻gent”,將是未來(lái)AI應(yīng)用的核心競(jìng)爭(zhēng)力。
編程模型引發(fā)社區(qū)沸騰
7月23日發(fā)布的Qwen3-Coder更是在全球開(kāi)發(fā)者社區(qū)引發(fā)轟動(dòng)。
華爾街見(jiàn)聞此前提及,這款基于MoE架構(gòu)的編程模型擁有480B總參數(shù),35B激活參數(shù),原生支持256K上下文,可擴(kuò)展至1M。
在開(kāi)發(fā)者最關(guān)注的SWE-benchVerified基準(zhǔn)測(cè)試中,Qwen3-Coder取得了開(kāi)源模型最佳表現(xiàn)。
模型在7.5萬(wàn)億token規(guī)模上訓(xùn)練,其中包含70%代碼數(shù)據(jù),并通過(guò)長(zhǎng)時(shí)程強(qiáng)化學(xué)習(xí)和2萬(wàn)個(gè)虛擬環(huán)境的大規(guī)模實(shí)戰(zhàn)訓(xùn)練,在真實(shí)世界的多輪交互任務(wù)中展現(xiàn)出色能力。
阿里還推出了配套的命令行工具QwenCode,為開(kāi)發(fā)者提供了完整的編程解決方案。
科技界領(lǐng)袖紛紛為Qwen3-Coder點(diǎn)贊,例如PerplexityCEOAravindSrinivas盛贊Qwen3-coder的實(shí)力:
成果令人驚嘆,開(kāi)源正在獲勝。
推特創(chuàng)始人JackDorsey更是強(qiáng)調(diào)Qwen3和Goose——其Block公司開(kāi)發(fā)的AIAgent框架,搭配使用的話非常棒:
goose配合Qwen3-Coder等于哇哦
AIAgent框架挑戰(zhàn)閉源壟斷
阿里通義實(shí)驗(yàn)室同期開(kāi)源的WebSailorAIAgent框架,直接對(duì)標(biāo)OpenAI的DeepResearch產(chǎn)品。
這款框架在BrowseComp-en/zh測(cè)試中性能顯著優(yōu)于所有開(kāi)源智能體,可媲美專屬閉源模型。
WebSailor采用復(fù)雜任務(wù)生成和強(qiáng)化學(xué)習(xí)模塊的雙重技術(shù)架構(gòu)。通過(guò)構(gòu)建復(fù)雜知識(shí)圖譜和動(dòng)態(tài)采樣策略,系統(tǒng)能夠在海量信息中進(jìn)行高效檢索和推理。
除了在復(fù)雜任務(wù)上的卓越表現(xiàn),WebSailor在簡(jiǎn)單任務(wù)上也表現(xiàn)出色。例如,在SimpleQA基準(zhǔn)測(cè)試中,WebSailor的性能超過(guò)了所有其他模型產(chǎn)品。
該項(xiàng)目在GitHub已獲得超過(guò)5000顆星,并曾拿下每日增長(zhǎng)趨勢(shì)第一名。
WebSailor的核心技術(shù)主要圍繞復(fù)雜任務(wù)生成和強(qiáng)化學(xué)習(xí)模塊展開(kāi),這兩個(gè)模塊相互配合,共同推動(dòng)了開(kāi)源智能體在復(fù)雜信息檢索任務(wù)中的性能提升。
該框架的開(kāi)源意義重大,打破了閉源系統(tǒng)在信息檢索領(lǐng)域的壟斷地位,為全球開(kāi)發(fā)者提供了媲美DeepResearch的開(kāi)源解決方案。
推理模型登頂全球開(kāi)源冠軍
7月25日發(fā)布的Qwen3-235B-A22B-Thinking-2507成為本周最重磅的產(chǎn)品。
AIME25(數(shù)學(xué))達(dá)到92.3分。LiveCodeBenchv6(編程)獲得74.1分。WritingBench(寫(xiě)作)達(dá)到88.3分。PolyMATH(多語(yǔ)言數(shù)學(xué))獲得60.1分。
更詳細(xì)的榜單表現(xiàn)來(lái)看,Qwen3推理模型相較于其他模型來(lái)看也毫不遜色(除了R1,其他都是頂尖閉源模型)。
該模型采用MoE架構(gòu),總參數(shù)235B,激活參數(shù)22B,擁有94層結(jié)構(gòu)和128個(gè)專家系統(tǒng),原生支持262,144tokens上下文長(zhǎng)度。模型專為思考模式構(gòu)建,默認(rèn)聊天模板自動(dòng)包含思考標(biāo)簽,為深度推理提供了強(qiáng)大支撐。
OpenRouter數(shù)據(jù)顯示,阿里千問(wèn)的API調(diào)用量在過(guò)去幾天暴漲,已超過(guò)1000億tokens,包攬最熱門(mén)調(diào)用模型前三名。這一數(shù)據(jù)直接反映了市場(chǎng)對(duì)阿里開(kāi)源模型的認(rèn)可度。
全球網(wǎng)友也是被通義的最強(qiáng)推理模型給驚呆了。有網(wǎng)友直接表示:
中國(guó)的開(kāi)源o4-mini。
AIThinkers更是評(píng)論道:
中國(guó)剛剛發(fā)布了一款怪物級(jí)的AI模型。
最有看點(diǎn)的網(wǎng)文《奇案詭記》,比《狐嫁女》更有趣,強(qiáng)勢(shì)霸榜,實(shí)至名...
倍受好評(píng)的小說(shuō)合集,《奇案詭記》穩(wěn)坐第一,承包不眠夜
不可錯(cuò)過(guò)的白金小說(shuō)《奇案詭記》,陪你走過(guò)春夏秋冬
免責(zé)聲明:本文內(nèi)容由開(kāi)放的智能模型自動(dòng)生成,僅供參考。