機(jī)器之心報(bào)道
張倩
繼前段時(shí)間密集發(fā)布了三款A(yù)I大模型后,Qwen凌晨又更新了——原本的Qwen3-30B-A3B有了一個(gè)新版本:Qwen3-30B-A3B-Instruct-2507
這個(gè)新版本是一個(gè)非思考模式(non-thinkingmode)的新模型。它的亮點(diǎn)在于,僅激活30億(3B)參數(shù),就能展現(xiàn)出與業(yè)界頂尖閉源模型,如谷歌的Gemini2.5-Flash(非思考模式)和OpenAI的GPT-4o相媲美的超強(qiáng)實(shí)力,這標(biāo)志著在模型效率和性能優(yōu)化上的一次重大突破。
下圖展示了該模型的性能數(shù)據(jù),可以看出,與更新前的版本相比,新版本在多項(xiàng)測(cè)試中都實(shí)現(xiàn)了跨越式提升,比如AIME25從之前的21.6提升到了61.3,Arena-Hardv2成績(jī)從24.8提升到了69.0。
下圖展示了新版本和DeepSeek-V3-0324等模型的性能對(duì)比結(jié)果,可以看到,在很多基準(zhǔn)測(cè)試中,新版本模型可以基本追平甚至超過(guò)DeepSeek-V3-0324。
這讓人感嘆模型計(jì)算效率的提升速度。
具體來(lái)說(shuō),Qwen3-30B-A3B-Instruct-2507在諸多方面實(shí)現(xiàn)了關(guān)鍵提升:
通用能力大幅提升,包括指令遵循、邏輯推理、文本理解、數(shù)學(xué)、科學(xué)、編程及工具使用等多方面;在多語(yǔ)言的長(zhǎng)尾知識(shí)覆蓋方面,模型進(jìn)步顯著在主觀(guān)和開(kāi)放任務(wù)中,新模型與進(jìn)一步緊密對(duì)齊了用戶(hù)偏好,可以生成更高質(zhì)量的文本,為用戶(hù)提供更有幫助的回答;長(zhǎng)文本理解能力提升至256K
現(xiàn)在模型已經(jīng)在魔搭社區(qū)和HuggingFace等平臺(tái)開(kāi)源。QwenChat上也可以直接體驗(yàn)。
體驗(yàn)鏈接:http://chat.qwen.ai/
該模型發(fā)布后也很快得到了社區(qū)的支持,有了更多的使用渠道,甚至還有了量化版本。這就是開(kāi)源的力量。
它的出現(xiàn),讓大家在消費(fèi)級(jí)GPU上運(yùn)行AI模型有了新的選擇。
有人曬出了這個(gè)新版本在自己的Mac電腦、搭載RTX3090的PC等設(shè)備上的運(yùn)行體驗(yàn)。
如果你也想運(yùn)行這個(gè)模型,可以參考這個(gè)配置要求:
值得注意的是,這次的新版本模型是一個(gè)非推理模型。著名開(kāi)發(fā)者SimonWillison將該模型與他之前測(cè)試過(guò)的「推理」模型(如GLM-4.5Air)進(jìn)行了對(duì)比。他得出的核心結(jié)論是:對(duì)于生成「開(kāi)箱即用」的復(fù)雜代碼這類(lèi)任務(wù),模型是否具備「推理」能力可能是一個(gè)至關(guān)重要的因素。
Qwen團(tuán)隊(duì)的這次更新依然在深夜進(jìn)行,這讓其他同行再次感覺(jué)被卷到了。不過(guò),每天醒來(lái)都能看到AI的能力又上了一個(gè)新臺(tái)階,這本身就是一件激動(dòng)人心的事。
被皇上丟進(jìn)冷宮三年,欲將我招回宮,為了他我拒絕了
“皇上已經(jīng)給了你機(jī)會(huì),只要你肯認(rèn)錯(cuò),就能恢復(fù)你的地位,你這又臭又硬的石頭,活該在冷宮里待一輩子!”“我們走!”周如海氣沖沖地走到院子里,腳步突然停了下來(lái)。緊接著,我聽(tīng)到陳祥那格外響亮的聲音:“皇上?”“皇上萬(wàn)歲萬(wàn)萬(wàn)歲,哎呀,皇上,您小心腳下,這么大的雪,您怎么還親自來(lái)了?”周如海急不可耐地告狀,把我剛才 【冷宮那個(gè)地方哪有皇后殿好啊!她該不會(huì)真的要去冷宮吧!】于是我試探著開(kāi)口:「陛下……」謝煊登時(shí)看向了我,臉上似乎還有些期待,「皇后有何要說(shuō)?」「妾領(lǐng)旨謝恩?!瓜乱豢?,謝煊的聲音又來(lái)了|。【領(lǐng)什么旨謝什么恩??!快說(shuō)你不想去冷宮?。 俊净屎竽憧汕f(wàn)別犯糊涂?。±鋵m什么都沒(méi)有!尤其沒(méi)有朕!..寵文:皇上爬上冷宮墻頭誘哄小奶包“叫父皇~吃糖糕~”眾侍衛(wèi)憋笑