機(jī)器之心報(bào)道
沒(méi)等來(lái)DeepSeek官方的R2,卻迎來(lái)了一個(gè)速度更快、性能不弱于R1的「野生」變體!
這兩天,一個(gè)名為「DeepSeekR1T2」的模型火了!
這個(gè)模型的速度比R1-0528快200%,比R1快20%。除了速度上的顯著優(yōu)勢(shì),它在GPQADiamond(專(zhuān)家級(jí)推理能力問(wèn)答基準(zhǔn))和AIME24(數(shù)學(xué)推理基準(zhǔn))上的表現(xiàn)均優(yōu)于R1,但未達(dá)到R1-0528的水平。
在技術(shù)層面,采用了專(zhuān)家組合(AssemblyofExperts,AoE)技術(shù)開(kāi)發(fā),并融合了DeepSeek官方的V3、R1和R1-0528三大模型。
當(dāng)然,這個(gè)模型也是開(kāi)源的,遵循MIT協(xié)議,并在HuggingFace上開(kāi)放了權(quán)重。
HuggingFace地址:https://huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera
經(jīng)過(guò)進(jìn)一步了解,我們發(fā)現(xiàn):DeepSeekR1T2是德國(guó)一家AI咨詢(xún)公司「TNG」推出的,模型全稱(chēng)為「DeepSeek-TNGR1T2Chimera」(以下簡(jiǎn)稱(chēng)R1T2)。
該模型除了前文提到的在智力水平和輸出效率之間實(shí)現(xiàn)完美平衡之外,相較于這家公司的初代模型「R1TChimera」,智力大幅躍升,并實(shí)現(xiàn)了突破性的think-token一致性。
不僅如此,即使在沒(méi)有任何系統(tǒng)提示的情況下,該模型也能表現(xiàn)穩(wěn)定,提供自然的對(duì)話(huà)交互體驗(yàn)。
在評(píng)論區(qū),有人誤以為這個(gè)模型出自DeepSeek官方,并且認(rèn)為他們是不是也在走相同的路線:給模型起各種名稱(chēng),就是不用主系列下一代版本號(hào)?
更多的人認(rèn)可該模型「找到了智能與輸出token長(zhǎng)度之間的最佳平衡點(diǎn),并且提升了速度」,并對(duì)該模型在現(xiàn)實(shí)世界的表現(xiàn)充滿(mǎn)了期待。
模型細(xì)節(jié)概覽
從HuggingFace主頁(yè)來(lái)看,R1T2是一個(gè)基于DeepSeekR1-0528、R1以及V3-0324模型構(gòu)建的AoEChimera模型。
該模型是一個(gè)采用DeepSeek-MoETransformer架構(gòu)的大語(yǔ)言模型,參數(shù)規(guī)模為671B。
R1T2是該公司4月26日發(fā)布的初代模型「R1TChimera」的首個(gè)迭代版本。相較于利用雙基模型(V3-0324+R1)的初代架構(gòu),本次升級(jí)到了三心智(Tri-Mind)融合架構(gòu),新增基模型R1-0528。
該模型采用AoE技術(shù)構(gòu)建,過(guò)程中利用較高精度的直接腦區(qū)編輯(directbrainedits)實(shí)現(xiàn)。這種精密融合不僅帶來(lái)全方位提升,更徹底解決了初代R1T的token一致性缺陷。
團(tuán)隊(duì)表示,R1T2對(duì)比其他模型具備如下優(yōu)劣:
與DeepSeekR1對(duì)比:R1T2有望成為R1的理想替代品,兩者幾乎可以通用,并且R1T2性能更佳,可直接替換。
與R1-0528對(duì)比:如果不需要達(dá)到0528級(jí)別的最高智能,R1T2相比之下更加經(jīng)濟(jì)。
與R1T對(duì)比:通常更建議使用R1T2,除非R1T的特定人格是最佳選擇、思考token問(wèn)題不重要,或者極度需求速度。
與DeepSeekV3-0324對(duì)比:V3速度更快,如果不太關(guān)注智能可以選擇V3;但是,如果需要推理能力,R1T2是首選。
此外,R1T2的幾點(diǎn)局限性表現(xiàn)在:
R1-0528雖推理耗時(shí)更長(zhǎng),但在高難度基準(zhǔn)測(cè)試中仍?xún)?yōu)于R1T2;
經(jīng)SpeechMap.ai(由xlr8harder提供)測(cè)評(píng),R1T2應(yīng)答克制度(reserved)顯著高于R1T,但低于R1-0528;
暫不支持函數(shù)調(diào)用:受R1基模型影響,現(xiàn)階段不推薦函數(shù)調(diào)用密集型場(chǎng)景(后續(xù)版本可能修復(fù));
基準(zhǔn)測(cè)試變更說(shuō)明:開(kāi)發(fā)版由AIME24+MT-Bench變更為AIME24/25+GPQA-Diamond測(cè)評(píng)體系,新體系下R1與初代R1T的分差較早期公布數(shù)據(jù)更大。
最后,關(guān)于R1T2中重要的AoE技術(shù),可以參考以下論文。
論文標(biāo)題:AssemblyofExperts:Linear-timeconstructionoftheChimeraLLMvariantswithemergentandadaptablebehaviors
《重生之都市仙尊洛塵漫畫(huà)》第05集免費(fèi)在線播放-全集泰劇-七社...
《都市仙尊》洛塵覺(jué)醒!都市仙尊重生復(fù)仇記!「續(xù)讀」
《重生之都市仙尊》“一代仙尊”洛塵遭人偷襲,重生回到地球