7月28日晚間,智譜發(fā)布新一代旗艦?zāi)P虶LM-4.5,一款專為智能體應(yīng)用打造的基礎(chǔ)模型,該模型在HuggingFace與ModelScope平臺(tái)同步開源。
根據(jù)官方介紹:
GLM-4.5在包含推理、代碼、智能體的綜合能力達(dá)到開源SOTA,在真實(shí)代碼智能體的人工對(duì)比評(píng)測(cè)中,實(shí)測(cè)國內(nèi)最佳;采用混合專家(MoE)架構(gòu),包括GLM-4.5:總參數(shù)量3550億,激活參數(shù)320億;GLM-4.5-Air:總參數(shù)1060億,激活參數(shù)120億;兩種模式:用于復(fù)雜推理和工具使用的思考模式,及用于即時(shí)響應(yīng)的非思考模式;高速、低成本:API調(diào)用價(jià)格低至輸入0.8元/百萬tokens、輸出2元/百萬tokens;高速版最高可達(dá)100tokens/秒。融合推理、編碼與智能體能力,綜合性能進(jìn)入全球前三
GLM-4.5是智譜首次在單一模型中整合多種核心能力的嘗試,尤其面向真實(shí)智能體任務(wù)進(jìn)行系統(tǒng)優(yōu)化。在MMLUPro、MATH500、LiveCodeBench、TAU-Bench等12項(xiàng)評(píng)測(cè)中,GLM-4.5綜合排名全球第三,位列國產(chǎn)和開源模型首位。
模型采用混合專家(MoE)架構(gòu),提供兩個(gè)版本:
GLM-4.5:總參數(shù)3550億,激活參數(shù)320億;
GLM-4.5-Air:參數(shù)縮減至1060億,激活參數(shù)120億。
訓(xùn)練數(shù)據(jù)覆蓋15萬億tokens的通用語料,另有8萬億tokens針對(duì)代碼、推理、Agent任務(wù)的精調(diào)數(shù)據(jù),并輔以強(qiáng)化學(xué)習(xí)進(jìn)行能力增強(qiáng)。
智譜構(gòu)建了涵蓋六大開發(fā)場(chǎng)景的52個(gè)編程任務(wù),對(duì)GLM-4.5與ClaudeCode、Kimi-K2、Qwen3-Coder等模型進(jìn)行對(duì)比測(cè)試。
結(jié)果顯示,GLM-4.5在任務(wù)完成度與工具調(diào)用可靠性方面表現(xiàn)優(yōu)異,雖然在部分維度仍略遜于Claude-4-Sonnet,但已能勝任多數(shù)實(shí)際開發(fā)場(chǎng)景。
參數(shù)效率與生成速度實(shí)現(xiàn)突破,降低使用門檻
在參數(shù)利用率方面,GLM-4.5相比DeepSeek-R1和Kimi-K2顯著精簡(jiǎn),在SWE-benchVerified榜單中表現(xiàn)出更優(yōu)的性能/參數(shù)比。
調(diào)用價(jià)格方面,GLM-4.5API輸入價(jià)格為0.8元/百萬tokens,輸出價(jià)格為2元/百萬tokens。
高速版本支持最高100tokens/秒的生成速率,可支撐高并發(fā)部署需求。
原生支持復(fù)雜Agent應(yīng)用,多個(gè)交互樣本已開放體驗(yàn)
為展示其Agent能力,智譜同步發(fā)布多個(gè)真實(shí)場(chǎng)景DEMO,包括:
模擬搜索引擎:可進(jìn)行搜索、分析與聚合展示
彈幕視頻平臺(tái)、微博平臺(tái)模擬器:具備內(nèi)容生成與界面控制能力
可玩的FlappyBird游戲:展示其前端動(dòng)畫生成與邏輯控制能力
圖文自動(dòng)排版的PPT工具:支持16:9演示文稿、社交媒體長(zhǎng)圖等多種格式輸出
十本腦洞大開的高分網(wǎng)文小說
十本受到書迷追捧的高品質(zhì)小說,拯救你的書荒,值得收藏起來!
推薦四本硬核末日流小說巔峰,無系統(tǒng)無異能的求生,人性揭露無疑
免責(zé)聲明:本文內(nèi)容由開放的智能模型自動(dòng)生成,僅供參考。