智東西作者王涵編輯漠影
智東西8月4日報道,今天,騰訊混元一口氣開源4款小尺寸模型,參數(shù)分別為0.5B、1.8B、4B、7B,消費級顯卡即可運行。
在性能上,Hunyuan7B在不僅在數(shù)學能力上超越了OpenAIo1-mini和Qwen3-8B,在除IFEVal榜單外,均超越OpenAIo1-mini。
模型原生上下文256k,可以一次讀完3本《哈利波特》。目前已在微信讀書、騰訊會議等多個騰訊應用中落地。
這4款小尺寸模型單卡就可以部署,適用于筆記本電腦、手機、智能座艙、智能家居等低功耗場景,且支持垂直領域低成本微調。
目前,4個模型均在Github和HuggingFace等開源社區(qū)上線,Arm、高通、Intel、聯(lián)發(fā)科技等多個消費級終端芯片平臺也都宣布支持部署。
騰訊混元官網(wǎng)體驗地址:https://hunyuan.tencent.com/
Github地址:https://github.com/Tencent-Hunyuan
HuggingFace地址:https://huggingface.co/tencent
一、數(shù)學能力超越Qwen3-8B,能一口氣讀3本《哈利波特》
騰訊新開源的4個模型屬于融合推理模型,并且具備快思考和慢思考兩種模式。其中快思考模式提供簡潔、高效的輸出;而慢思考涉及解決復雜問題,具備更全面的推理步驟。
效果上,4個模型均實現(xiàn)了跟業(yè)界同尺寸模型的對標,其中Hunyuan7B在數(shù)學推理測試DROP上取得85.9分的成績,在AIME2024和AIME2025兩個數(shù)學榜單上得分分別為81.1分和75.3分,均排名第一,超過OpenAIo1-mini和Qwen3-8B。
對比Hunyuan0.5B、1.8B和4B,在推理能力BBH測評中,1.8B的模型的成績只與4B的成績相差0.9分,推理能力不相上下。
這四個模型的亮點在于agent和長文能力,跟此前開源的Hunyuan-A13B模型一樣,騰訊團隊在技術上通過數(shù)據(jù)構建和強化學習獎勵信號設計,提升了模型在任務規(guī)劃、工具調用和復雜決策以及反思等agent能力上的表現(xiàn),讓模型實際應用中可以更好地完成深度搜索、Excel操作、旅行攻略規(guī)劃等任務。
此外,模型原生長上下文窗口達到了256k,意味著模型可以一次性記住并處理相當于40萬中文漢字或50萬英文單詞的超長內容,相當于一口氣讀完3本《哈利波特》,并且能記住所有人物關系、劇情細節(jié),還能根據(jù)這些內容討論后續(xù)故事發(fā)展。
部署上,4個模型均只需單卡即可部署,部分PC、手機、平板等設備可直接接入。并且,模型具有較強的開放性,主流推理框架(例如,SGLang,vLLMandTensorRT-LLM)和多種量化格式均能夠支持。
二、已應用到微信讀書、智能座艙和金融AI助手
應用層面,這4款小尺寸模型都能夠滿足從端側到云端、從通用到專業(yè)的多樣化需求,并且已經(jīng)在騰訊多個業(yè)務中應用。
例如,依托模型原生的超長上下文能力,騰訊會議AI小助手、微信讀書AI問書AI助手均實現(xiàn)對完整會議內容、整本書籍的一次性理解和處理。
在端側應用上,騰訊手機管家利用小尺寸模型提升垃圾短信識別準確率,實現(xiàn)毫秒級攔截,保護用戶隱私;騰訊智能座艙助手通過雙模型協(xié)作架構解決車載環(huán)境痛點,充分發(fā)揮模型低功耗、高效推理的特性。
在高并發(fā)場景中,搜狗輸入法基于模型的多模態(tài)聯(lián)合訓練機制使嘈雜環(huán)境下提升識別準確率;騰訊地圖采用多模型架構,利用意圖分類和推理能力提升了用戶交互體驗;微信輸入法「問AI」基于模型實現(xiàn)輸入框與AI即問即答的無縫銜接。
在垂直行業(yè)應用中,金融AI助手通過Prompt優(yōu)化和少量數(shù)據(jù)微調實現(xiàn)超95%意圖識別準確率。依托模型的理解能力,騰訊游戲翻譯和QQ飛車手游NPC,在多語言理解能力、方言翻譯和智能對話方面,有明顯優(yōu)化,這些能力在專業(yè)客服、內容出海以及電商直播等場景有較大應用潛力。
三、騰訊開源活躍,覆蓋多模態(tài)
最近,全球開源領域異常熱鬧,中國大模型表現(xiàn)搶眼。騰訊混元大語言模型也在持續(xù)推進開源,其開源模型已覆蓋文本、圖像、視頻和3D生成等多個模態(tài)。
在大語言模型領域,騰訊混元此前陸續(xù)開源了激活參數(shù)量達52B的Hunyuanlarge和混合推理MoE(混合專家)模型Hunyuan-A13B,這些模型憑借架構上的創(chuàng)新以及在性能和效果上的不錯表現(xiàn),在開源社區(qū)受到廣泛關注。
多模態(tài)方面,混元還開放了完整多模態(tài)生成能力及工具集插件,陸續(xù)開源了文生圖、視頻生成和3D生成能力,提供接近商業(yè)模型性能的開源基座,方便社區(qū)基于業(yè)務和使用場景定制,圖像、視頻衍生模型數(shù)量達到3000個。
上周,騰訊發(fā)布并開源混元3D世界模型1.0,這一模型一經(jīng)發(fā)布即迅速登上HuggingFace趨勢榜第二,下載量飆到近9k,混元3D世界模型技術報告還拿下了HuggingFace論文熱榜第一。
結語:騰訊開源、應用兩手抓
當前全球AI開源生態(tài)持續(xù)升溫,各大科技公司都在加碼模型開源,騰訊此次動作是其開源戰(zhàn)略的延續(xù)。
騰訊混元此次開源4款小尺寸模型,覆蓋了從0.5B到7B的參數(shù)范圍,為不同算力需求的場景提供了適配方案,為AI開發(fā)者社區(qū)提供了更多選擇。
美國小伙獲贈國禮瓷,計劃11月16日到中國,網(wǎng)友:歡迎來我家做客
免責聲明:本文內容由開放的智能模型自動生成,僅供參考。