機(jī)器之心報(bào)道
沒等來DeepSeek官方的R2,卻迎來了一個(gè)速度更快、性能不弱于R1的「野生」變體!
這兩天,一個(gè)名為「DeepSeekR1T2」的模型火了!
這個(gè)模型的速度比R1-0528快200%,比R1快20%。除了速度上的顯著優(yōu)勢(shì),它在GPQADiamond(專家級(jí)推理能力問答基準(zhǔn))和AIME24(數(shù)學(xué)推理基準(zhǔn))上的表現(xiàn)均優(yōu)于R1,但未達(dá)到R1-0528的水平。
在技術(shù)層面,采用了專家組合(AssemblyofExperts,AoE)技術(shù)開發(fā),并融合了DeepSeek官方的V3、R1和R1-0528三大模型。
當(dāng)然,這個(gè)模型也是開源的,遵循MIT協(xié)議,并在HuggingFace上開放了權(quán)重。
HuggingFace地址:https://huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera
經(jīng)過進(jìn)一步了解,我們發(fā)現(xiàn):DeepSeekR1T2是德國(guó)一家AI咨詢公司「TNG」推出的,模型全稱為「DeepSeek-TNGR1T2Chimera」(以下簡(jiǎn)稱R1T2)。
該模型除了前文提到的在智力水平和輸出效率之間實(shí)現(xiàn)完美平衡之外,相較于這家公司的初代模型「R1TChimera」,智力大幅躍升,并實(shí)現(xiàn)了突破性的think-token一致性。
不僅如此,即使在沒有任何系統(tǒng)提示的情況下,該模型也能表現(xiàn)穩(wěn)定,提供自然的對(duì)話交互體驗(yàn)。
在評(píng)論區(qū),有人誤以為這個(gè)模型出自DeepSeek官方,并且認(rèn)為他們是不是也在走相同的路線:給模型起各種名稱,就是不用主系列下一代版本號(hào)?
更多的人認(rèn)可該模型「找到了智能與輸出token長(zhǎng)度之間的最佳平衡點(diǎn),并且提升了速度」,并對(duì)該模型在現(xiàn)實(shí)世界的表現(xiàn)充滿了期待。
模型細(xì)節(jié)概覽
從HuggingFace主頁來看,R1T2是一個(gè)基于DeepSeekR1-0528、R1以及V3-0324模型構(gòu)建的AoEChimera模型。
該模型是一個(gè)采用DeepSeek-MoETransformer架構(gòu)的大語言模型,參數(shù)規(guī)模為671B。
R1T2是該公司4月26日發(fā)布的初代模型「R1TChimera」的首個(gè)迭代版本。相較于利用雙基模型(V3-0324+R1)的初代架構(gòu),本次升級(jí)到了三心智(Tri-Mind)融合架構(gòu),新增基模型R1-0528。
該模型采用AoE技術(shù)構(gòu)建,過程中利用較高精度的直接腦區(qū)編輯(directbrainedits)實(shí)現(xiàn)。這種精密融合不僅帶來全方位提升,更徹底解決了初代R1T的token一致性缺陷。
團(tuán)隊(duì)表示,R1T2對(duì)比其他模型具備如下優(yōu)劣:
與DeepSeekR1對(duì)比:R1T2有望成為R1的理想替代品,兩者幾乎可以通用,并且R1T2性能更佳,可直接替換。
與R1-0528對(duì)比:如果不需要達(dá)到0528級(jí)別的最高智能,R1T2相比之下更加經(jīng)濟(jì)。
與R1T對(duì)比:通常更建議使用R1T2,除非R1T的特定人格是最佳選擇、思考token問題不重要,或者極度需求速度。
與DeepSeekV3-0324對(duì)比:V3速度更快,如果不太關(guān)注智能可以選擇V3;但是,如果需要推理能力,R1T2是首選。
此外,R1T2的幾點(diǎn)局限性表現(xiàn)在:
R1-0528雖推理耗時(shí)更長(zhǎng),但在高難度基準(zhǔn)測(cè)試中仍優(yōu)于R1T2;
經(jīng)SpeechMap.ai(由xlr8harder提供)測(cè)評(píng),R1T2應(yīng)答克制度(reserved)顯著高于R1T,但低于R1-0528;
暫不支持函數(shù)調(diào)用:受R1基模型影響,現(xiàn)階段不推薦函數(shù)調(diào)用密集型場(chǎng)景(后續(xù)版本可能修復(fù));
基準(zhǔn)測(cè)試變更說明:開發(fā)版由AIME24+MT-Bench變更為AIME24/25+GPQA-Diamond測(cè)評(píng)體系,新體系下R1與初代R1T的分差較早期公布數(shù)據(jù)更大。
最后,關(guān)于R1T2中重要的AoE技術(shù),可以參考以下論文。
論文標(biāo)題:AssemblyofExperts:Linear-timeconstructionoftheChimeraLLMvariantswithemergentandadaptablebehaviors
十本歷史類網(wǎng)文難以攀登的高峰,體驗(yàn)一下封狼居胥的大漢雄風(fēng)!
徐州宿遷本一家,何來“楚漢之爭(zhēng)”?
小說:現(xiàn)代人重生項(xiàng)羽,楚漢爭(zhēng)霸我主沉浮,征戰(zhàn)四方霸業(yè)成!