據(jù)昆侖萬維介紹,Skywork-R1V3.0在后訓練階段通過強化學習策略深度激發(fā)模型的跨模態(tài)推理能力,在復雜邏輯建模與跨學科泛化方面實現(xiàn)雙重飛躍。
Skywork-R1V3.0基于上一代推理模型Skywork-R1V2.0蒸餾數(shù)據(jù)進行“冷啟動”,通過拒絕采樣構建高質(zhì)量多模態(tài)推理訓練集,指導開源視覺大模型InternVL-38B(38B參數(shù))學會多模態(tài)推理的基本格式和方法。
隨后引入強化學習算法GRPO(GroupRelativePolicyOptimization)深度激發(fā)模型的推理潛能,成功實現(xiàn)推理能力在圖像和文本模態(tài)之間的遷移,顯著提升其跨模態(tài)、多學科場景下的理解與分析表現(xiàn)。
據(jù)介紹,SkyworkR1V3.0僅依賴約1.2萬條監(jiān)督微調(diào)樣本和1.3萬條強化學習樣本,便實現(xiàn)高效訓練,充分體現(xiàn)了“小數(shù)據(jù)激發(fā)大能力”的優(yōu)勢。
性能方面,該模型在權威的綜合性多模態(tài)評測MMMU中取得了76.0的開源模型最高成績,超越了Claude-3.7-Sonnet(75.0)和GPT-4.5(74.4)等閉源模型,逼近人類初級專家水平(76.2)。
昆侖萬維表示,R1V3.0的高考數(shù)學突出成績,接近多款頂尖閉源模型,達到了開源多模態(tài)推理模型的最優(yōu)結(jié)果,證明了其卓越的實戰(zhàn)解題表現(xiàn)和跨場景泛化的穩(wěn)定性。
在更考驗視覺推理的EMMA-Mini(CoT)上,以開源領先的40.3分超過更大尺寸的Qwen2.5-VL-72B-Instruct和InternVL3-78B等模型,并縮小了與閉源模型Claude-3.7-Sonnet的差距。
在覆蓋中小學知識點的MMK12上,R1V3.0以78.5分再度領跑開源陣營,超越Qwen2.5-VL-72B-Instruct、InternVL3-78B等開源模型以及GPT-4.5和GPT-4o等閉源模型。
較上一代模型而言,Skywork-R1V3.0在物理、邏輯等多個關鍵領域取得了顯著性能提升,成為當前開源領域最強勁的多模態(tài)推理模型之一:
物理推理:在物理領域的權威評測PhyX-MC-Text-Minimal和SeePhys中,Skywork-R1V3.0分別取得52.8分和31.5分的開源最優(yōu)成績,充分展現(xiàn)了其在多模態(tài)物理推理方面的卓越能力。模型不僅能夠精準理解力學、電磁學等基礎物理概念,還擅長處理圖文結(jié)合的復雜物理問題(例如解析受力分析圖、電路示意圖等專業(yè)圖表),其物理推理水平已顯著超過當前主流開源模型以及GPT-4.5和Gemini2Flash等部分閉源模型。
邏輯推理:Skywork-R1V3.0在多項權威邏輯推理評測中同樣表現(xiàn)卓越:在LogicVista測試中取得59.7分,在VisuLogic測試中取得28.5分。在MME-Reasoning中,Skywork-R1V3.0更是獲得42.8分的佳績,超越了閉源模型Claude-4-Sonnet。這充分體現(xiàn)了Skywork-R1V3.0在多模態(tài)邏輯一致性、條件推理和跨模態(tài)因果建模方面的領先能力。
數(shù)學推理:在數(shù)學類問題上,R1V3.0展現(xiàn)出卓越的解題能力。在權威數(shù)學評測基準MathVista、MathVerse和MathVision上,R1V3.0分別取得了77.1分、59.6分和52.6分的優(yōu)異成績,領先于Qwen2.5-VL-72B-Instruct、InternVL3-78B、QVQ-72B-Preview等開源模型。
Skywork-R1V3.0下載:
HuggingFace地址:https://huggingface.co/Skywork/Skywork-R1V3-38B
GitHub地址:https://github.com/SkyworkAI/Skywork-R1V
延伸閱讀:與 昆侖萬維發(fā)布并開源 SkyworkR1V 30 :版本 ;性能表現(xiàn){卓越} 的相關文章