7月28日晚間,智譜發(fā)布新一代旗艦?zāi)P虶LM-4.5,一款專為智能體應(yīng)用打造的基礎(chǔ)模型,該模型在HuggingFace與ModelScope平臺同步開源。
根據(jù)官方介紹:
GLM-4.5在包含推理、代碼、智能體的綜合能力達到開源SOTA,在真實代碼智能體的人工對比評測中,實測國內(nèi)最佳;采用混合專家(MoE)架構(gòu),包括GLM-4.5:總參數(shù)量3550億,激活參數(shù)320億;GLM-4.5-Air:總參數(shù)1060億,激活參數(shù)120億;兩種模式:用于復雜推理和工具使用的思考模式,及用于即時響應(yīng)的非思考模式;高速、低成本:API調(diào)用價格低至輸入0.8元/百萬tokens、輸出2元/百萬tokens;高速版最高可達100tokens/秒。融合推理、編碼與智能體能力,綜合性能進入全球前三
GLM-4.5是智譜首次在單一模型中整合多種核心能力的嘗試,尤其面向真實智能體任務(wù)進行系統(tǒng)優(yōu)化。在MMLUPro、MATH500、LiveCodeBench、TAU-Bench等12項評測中,GLM-4.5綜合排名全球第三,位列國產(chǎn)和開源模型首位。
模型采用混合專家(MoE)架構(gòu),提供兩個版本:
GLM-4.5:總參數(shù)3550億,激活參數(shù)320億;
GLM-4.5-Air:參數(shù)縮減至1060億,激活參數(shù)120億。
訓練數(shù)據(jù)覆蓋15萬億tokens的通用語料,另有8萬億tokens針對代碼、推理、Agent任務(wù)的精調(diào)數(shù)據(jù),并輔以強化學習進行能力增強。
智譜構(gòu)建了涵蓋六大開發(fā)場景的52個編程任務(wù),對GLM-4.5與ClaudeCode、Kimi-K2、Qwen3-Coder等模型進行對比測試。
結(jié)果顯示,GLM-4.5在任務(wù)完成度與工具調(diào)用可靠性方面表現(xiàn)優(yōu)異,雖然在部分維度仍略遜于Claude-4-Sonnet,但已能勝任多數(shù)實際開發(fā)場景。
參數(shù)效率與生成速度實現(xiàn)突破,降低使用門檻
在參數(shù)利用率方面,GLM-4.5相比DeepSeek-R1和Kimi-K2顯著精簡,在SWE-benchVerified榜單中表現(xiàn)出更優(yōu)的性能/參數(shù)比。
調(diào)用價格方面,GLM-4.5API輸入價格為0.8元/百萬tokens,輸出價格為2元/百萬tokens。
高速版本支持最高100tokens/秒的生成速率,可支撐高并發(fā)部署需求。
原生支持復雜Agent應(yīng)用,多個交互樣本已開放體驗
為展示其Agent能力,智譜同步發(fā)布多個真實場景DEMO,包括:
模擬搜索引擎:可進行搜索、分析與聚合展示
彈幕視頻平臺、微博平臺模擬器:具備內(nèi)容生成與界面控制能力
可玩的FlappyBird游戲:展示其前端動畫生成與邏輯控制能力
圖文自動排版的PPT工具:支持16:9演示文稿、社交媒體長圖等多種格式輸出
最新有關(guān)實習期個人工作總結(jié)優(yōu)秀模板三篇
露電數(shù)字:重塑職業(yè)教育新生態(tài),XR技術(shù)引領(lǐng)未來技能培養(yǎng)
職校生破繭成蝶:年薪30萬的新能源黃金專業(yè)探秘
免責聲明:本文內(nèi)容由開放的智能模型自動生成,僅供參考。