商業(yè)
《Nature》文章稱美國科學(xué)家加熱黃金到 19000℃,竟還是固體,如何理解這種現(xiàn)象?
可擴(kuò)展至1Mtokens
楊亮
4小時(shí)前
IT之家7月31日消息,阿里通義千問今日宣布推出全新推理模型Qwen3-30B-A3B-Thinking-2507。相較于4月29日開源的Qwen3-30-A3B模型,新模型在推理能力、通用能力及上下文長度上有了顯著提升:
新模型在聚焦數(shù)學(xué)能力的AIME25評測中斬獲85.0的高分,在代碼能力測試LiveCodeBenchv6中得分66.0,兩項(xiàng)核心推理能力均超越Gemini2.5-Flash(thinking)、Qwen3-235B-A22B(thinking);新模型的知識(shí)水平(GPQA、MMLU-Pro)也較上一版本進(jìn)步顯著。
在寫作(WritingBench)、Agent能力(BFCL-v3)、多輪對話和多語言指令遵循(MultiIF)等通用能力評測中,Qwen3-30B-A3B-Thinking-2507均超越Gemini2.5-Flash(thinking)、Qwen3-235B-A22B(thinking)。
更長的上下文理解,原生支持256Ktokens,可擴(kuò)展至1Mtokens。
此外,新模型的思考長度(thinkinglength)也增加了,官方推薦在高度復(fù)雜的推理任務(wù)中設(shè)置更長的思考預(yù)算,以充分發(fā)揮它的潛力。
官方透露,目前Qwen3-30B-A3B-Thinking-2507已在魔搭社區(qū)、HuggingFace上開源,其輕量體積可輕松實(shí)現(xiàn)消費(fèi)級硬件的本地部署;同時(shí),其也在QwenChat上同步上線了新模型。
免責(zé)聲明:本文內(nèi)容由開放的智能模型自動(dòng)生成,僅供參考。