機器之心發(fā)布
機器之心編輯部
當馬斯克的Grok-4還在用“幽默模式”講冷笑話時,中國的科學家已經(jīng)在用書生Intern-S1默默破解癌癥藥物靶點的密碼——誰說搞科研不能又酷又免費?
自從去年AI預測與設計蛋白質(zhì)結構獲得諾貝爾獎,AIforScience這一領域關注度達到了新高度。
特別是近兩年在大模型強大能力加持下,我們期待能夠出現(xiàn)幫助我們作科研的AI利器。
現(xiàn)在,它來了。
7月26日,上海人工智能實驗室(上海AI實驗室)發(fā)布并開源『書生』科學多模態(tài)大模型Intern-S1,多模態(tài)能力全球開源第一,文本能力比肩國內(nèi)外一流模型,科學能力全模態(tài)達到國際領先,作為融合科學專業(yè)能力的基礎模型,Intern-S1綜合性能為當前開源模型中最優(yōu)。
基于Intern-S1的『書生』科學發(fā)現(xiàn)平臺Intern-Discovery亦于近日上線,助力研究者、研究工具、研究對象三者能力全面提升、協(xié)同演進,驅(qū)動科學研究從團隊單點探索邁向科學發(fā)現(xiàn)ScalingLaw階段。
Intern-S1體驗頁面:https://chat.intern-ai.org.cn/GitHub鏈接:https://github.com/InternLM/Intern-S1HuggingFace鏈接:https://huggingface.co/internlm/Intern-S1-FP8ModelScope鏈接:https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1
中國開源模型通過算法優(yōu)化(如動態(tài)精度調(diào)節(jié)、MoE架構)和開源協(xié)作生態(tài),在性能接近甚至超越國際上領先閉源模型的同時,大幅降低算力需求。如,DeepSeek-R1以開源模式對標OpenAI的閉源o1模型,憑借獨創(chuàng)的強化學習技術和群組相對策略優(yōu)化(GRPO),在數(shù)學推理等任務上達到相近性能,但訓練成本遠低于后者;Intern-S1在科學推理任務上超越xAI的Grok4,同時訓練算力消耗僅為Grok4的1%,展現(xiàn)了更高的計算效率。
性能領先的開源科學多模態(tài)模型
重構科研生產(chǎn)力
Intern-S1以輕量化訓練成本,達成科學/通用雙維度性能突破。
在綜合多模態(tài)通用能力評估上,Intern-S1得分比肩國內(nèi)外一流模型,展現(xiàn)跨文本、圖像的全面理解力。該評估為多項通用任務評測基準均分,證明其多場景任務中的魯棒性與適應性,無懼復雜輸入組合挑戰(zhàn)。
在多個領域?qū)I(yè)評測集組成的科學能力評測中,Intern-S1領先Grok-4等最新閉源模型。評測覆蓋了物理、化學、材料、生物等領域的復雜專業(yè)任務,驗證了模型在科研場景的強邏輯性與準確性,樹立行業(yè)新標桿。
當大模型在聊天、繪畫、代碼生成等場景中持續(xù)取得突破時,科研領域卻仍在期待一個真正“懂科學”的AI伙伴。盡管當前主流模型在自然語言處理、圖像識別等方面表現(xiàn)出色,但在面對復雜、精細且高度專業(yè)化的科研任務時,依然存在明顯短板。一方面,現(xiàn)有開源模型普遍缺乏對復雜科學數(shù)據(jù)的深度理解,難以滿足科研場景對精度、專業(yè)性和推理能力的嚴苛要求。另一方面,性能更強的閉源模型存在部署門檻高、可控性弱等問題,導致科研工作者在實際應用中常面臨高成本、低透明的現(xiàn)實挑戰(zhàn)。
在2025世界人工智能大會(WAIC2025)科學前沿全體會議上,上海AI實驗室發(fā)布了『書生』科學多模態(tài)大模型Intern-S1。該模型首創(chuàng)“跨模態(tài)科學解析引擎”,可精準解讀化學分子式、蛋白質(zhì)結構、地震波信號等多種復雜科學模態(tài)數(shù)據(jù),并具備多項前沿科研能力,如預測化合物合成路徑,判斷化學反應可行性,識別地震波事件等,真正讓AI從“對話助手”進化為“科研搭檔”,助力全面重構科研生產(chǎn)力。
得益于強大的科學解析能力,Intern-S1在化學、材料、地球等多學科專業(yè)任務基準上超越了頂尖閉源模型Grok-4,展現(xiàn)出卓越的科學推理與理解能力。在多模態(tài)綜合能力方面,Intern-S1同樣表現(xiàn)亮眼,全面領先InternVL3、Qwen2.5-VL等主流開源模型,堪稱“全能高手”中的“科學明星”。
基于Intern-S1強大的跨模態(tài)生物信息感知與整合能力,上海AI實驗室聯(lián)合臨港實驗室、上海交通大學、復旦大學、MIT等研究機構協(xié)同攻關,共同參與構建了多智能體虛擬疾病學家系統(tǒng)——“元生”(OriGene),可用于靶標發(fā)現(xiàn)與臨床轉化價值評估,已在肝癌和結直腸癌治療領域上分別提出新靶點GPR160和ARG2,且經(jīng)真實臨床樣本和動物實驗驗證,形成科學閉環(huán)。
體系化的技術創(chuàng)新為Intern-S1的能力突破提供了有效支撐。自書生大模型首次發(fā)布以來,上海AI實驗室已逐步構建起豐富的書生大模型家族,包括大語言模型書生·浦語InternLM、多模態(tài)模型書生·萬象InternVL、強推理模型書生·思客InternThinker等。Intern-S1融合了『書生』大模型家族的優(yōu)勢,在同一模型內(nèi)實現(xiàn)了語言和多模態(tài)性能的高水平均衡發(fā)展,成為新一代開源多模態(tài)大模型標桿。
Intern-S1在國際開源社區(qū)引發(fā)了關注,不少知名博主紛紛為其點贊,并稱“幾乎每天都能看到來自中國的新開源Sota成果——紀錄每天都在被刷新?!?/p>
創(chuàng)新科學多模態(tài)架構,深度融合多種科學模態(tài)數(shù)據(jù)
受數(shù)據(jù)異構性壁壘、專業(yè)語義理解瓶頸等因素制約,傳統(tǒng)的通用大模型在處理科學模態(tài)數(shù)據(jù)時面臨顯著挑戰(zhàn)。為了更好地適應科學數(shù)據(jù),Intern-S1新增了動態(tài)Tokenizer和時序信號編碼器,可支持多種復雜科學模態(tài)數(shù)據(jù),實現(xiàn)了材料科學與化學分子式、生物制藥領域的蛋白質(zhì)序列、天文巡天中的光變曲線、天體碰撞產(chǎn)生的引力波信號、地震臺網(wǎng)記錄的地震波形等多種科學模態(tài)的深度融合。通過架構創(chuàng)新,Intern-S1還實現(xiàn)了對科學模態(tài)數(shù)據(jù)的深入理解與高效處理,例如,其對化學分子式的壓縮率相比DeepSeek-R1提升70%以上;在一系列基于科學模態(tài)的專業(yè)任務上消耗的算力更少,同時性能表現(xiàn)更優(yōu)。
“通專融合”合成科學數(shù)據(jù),一個模型解決多項專業(yè)任務
科學領域的高價值任務往往高度專業(yè)化,不僅模型輸出可讀性差,且不同任務在技能要求與思維方式上差異顯著,直接混合訓練面臨此消彼長的困境,難以實現(xiàn)能力的深度融合。為此,研究團隊提出通專融合的科學數(shù)據(jù)合成方法:一方面利用海量通用科學數(shù)據(jù)拓展模型的知識面,另一方面訓練眾多專業(yè)模型生成具有高可讀性、思維路徑清晰的科學數(shù)據(jù),并由領域定制的專業(yè)驗證智能體進行數(shù)據(jù)質(zhì)量控制。最終,這一閉環(huán)機制持續(xù)反哺基座模型,使其同時具備強大的通用推理能力與多項頂尖的專業(yè)能力,真正實現(xiàn)一個模型解決多項專業(yè)任務的的科學智能突破。
聯(lián)合優(yōu)化系統(tǒng)+算法,大規(guī)模強化學習成本直降10倍
當前,強化學習逐漸成為大模型后訓練的核心,但面臨系統(tǒng)復雜度和穩(wěn)定性的重重挑戰(zhàn)。得益于訓練系統(tǒng)與算法層面的協(xié)同突破,Intern-S1研發(fā)團隊成功實現(xiàn)了大型多模態(tài)MoE模型在FP8精度下的高效穩(wěn)定強化學習訓練,其強化學習訓練成本相比近期公開的MoE模型降低10倍。
在系統(tǒng)層面,Intern-S1研究團隊采用了訓推分離的RL方案,通過自研推理引擎進行FP8高效率大規(guī)模異步推理,利用數(shù)據(jù)并行均衡策略緩解長思維鏈解碼時的長尾現(xiàn)象;在訓練過程中同樣采用分塊式FP8訓練,大大提升訓練效率。后續(xù),訓練系統(tǒng)也將開源。
在算法層面,基于Intern·BootCamp構建的大規(guī)模多任務交互環(huán)境,研究團隊提出MixtureofRewards混合獎勵學習算法,融合多種獎勵和反饋信號,在易驗證的任務上采用RLVR訓練范式,通過規(guī)則、驗證器或者交互環(huán)境提供獎勵信號;在難驗證的任務上(如,對話和寫作任務)采用獎勵模型提供的獎勵信號進行聯(lián)合訓練。同時,訓練算法還集成了上海AI實驗室在大模型強化學習訓練策略上的多項研究成果,實現(xiàn)了訓練效率和穩(wěn)定性的顯著提升。
工具鏈全體系開源,免費開放
打造更懂科學的AI助手
書生大模型自2023年正式開源以來,已陸續(xù)迭代升級多個版本,并持續(xù)降低大模型應用及研究門檻。書生大模型首創(chuàng)并開源了面向大模型研發(fā)與應用的全鏈路開源工具體系,覆蓋數(shù)據(jù)處理、預訓練、微調(diào)、部署、評測與應用等關鍵環(huán)節(jié),包含低成本微調(diào)框架XTuner、部署推理框架LMDeploy、評測框架OpenCompass、高效文檔解析工具MinerU,以及思索式AI搜索應用MindSearch等在內(nèi)的核心工具全面開源,已形成涵蓋數(shù)十萬開發(fā)者參與的活躍開源社區(qū)。
近期,上海AI實驗室進一步開源了多智能體框架Intern·Agent,可廣泛應用于化學、物理、生物等領域的12種科研任務,在大幅提升科研效率的同時,亦初步展現(xiàn)出多智能體系統(tǒng)自主學習、持續(xù)進化的潛力,為人工智能自主完成算法設計、科學發(fā)現(xiàn)等高端科研任務開辟了全新探索路徑。
基于Intern-S1的『書生』科學發(fā)現(xiàn)平臺Intern-Discovery亦于近日上線,助力研究者、研究工具、研究對象三者能力全面提升、協(xié)同演進,驅(qū)動科學研究從團隊單點探索邁向科學發(fā)現(xiàn)ScalingLaw階段。
未來,在研究范式創(chuàng)新及模型能力提升的基礎上,上海AI實驗室將推進Intern-S1及其全鏈條工具體系持續(xù)開源,支持免費商用,同時提供線上開放服務,與各界共同擁抱更廣闊的開源生態(tài),攜手打造更懂科學的AI助手。