7月28日晚間,智譜發(fā)布新一代旗艦模型GLM-4.5,一款專為智能體應用打造的基礎模型,該模型在HuggingFace與ModelScope平臺同步開源。
根據官方介紹:
GLM-4.5在包含推理、代碼、智能體的綜合能力達到開源SOTA,在真實代碼智能體的人工對比評測中,實測國內最佳;采用混合專家(MoE)架構,包括GLM-4.5:總參數量3550億,激活參數320億;GLM-4.5-Air:總參數1060億,激活參數120億;兩種模式:用于復雜推理和工具使用的思考模式,及用于即時響應的非思考模式;高速、低成本:API調用價格低至輸入0.8元/百萬tokens、輸出2元/百萬tokens;高速版最高可達100tokens/秒。融合推理、編碼與智能體能力,綜合性能進入全球前三
GLM-4.5是智譜首次在單一模型中整合多種核心能力的嘗試,尤其面向真實智能體任務進行系統(tǒng)優(yōu)化。在MMLUPro、MATH500、LiveCodeBench、TAU-Bench等12項評測中,GLM-4.5綜合排名全球第三,位列國產和開源模型首位。
模型采用混合專家(MoE)架構,提供兩個版本:
GLM-4.5:總參數3550億,激活參數320億;
GLM-4.5-Air:參數縮減至1060億,激活參數120億。
訓練數據覆蓋15萬億tokens的通用語料,另有8萬億tokens針對代碼、推理、Agent任務的精調數據,并輔以強化學習進行能力增強。
智譜構建了涵蓋六大開發(fā)場景的52個編程任務,對GLM-4.5與ClaudeCode、Kimi-K2、Qwen3-Coder等模型進行對比測試。
結果顯示,GLM-4.5在任務完成度與工具調用可靠性方面表現優(yōu)異,雖然在部分維度仍略遜于Claude-4-Sonnet,但已能勝任多數實際開發(fā)場景。
參數效率與生成速度實現突破,降低使用門檻
在參數利用率方面,GLM-4.5相比DeepSeek-R1和Kimi-K2顯著精簡,在SWE-benchVerified榜單中表現出更優(yōu)的性能/參數比。
調用價格方面,GLM-4.5API輸入價格為0.8元/百萬tokens,輸出價格為2元/百萬tokens。
高速版本支持最高100tokens/秒的生成速率,可支撐高并發(fā)部署需求。
原生支持復雜Agent應用,多個交互樣本已開放體驗
為展示其Agent能力,智譜同步發(fā)布多個真實場景DEMO,包括:
模擬搜索引擎:可進行搜索、分析與聚合展示
彈幕視頻平臺、微博平臺模擬器:具備內容生成與界面控制能力
可玩的FlappyBird游戲:展示其前端動畫生成與邏輯控制能力
圖文自動排版的PPT工具:支持16:9演示文稿、社交媒體長圖等多種格式輸出
古言穿越寵文《神醫(yī)嫡女》:本王的府里,這輩子就她一位女主人
三部神醫(yī)穿越文,類似《神醫(yī)嫡女》爽文,第3部夜北力作高分上榜
三本古言女醫(yī)爽文,強烈安利《神醫(yī)嫡女》,帶著五彩花轎迎娶你!