【導(dǎo)讀】谷歌、斯坦福等陸續(xù)推出「AI科學(xué)家」,協(xié)助人類科學(xué)家推動科研范式革新??茖W(xué)家親身試用后或震驚其洞察之深,或質(zhì)疑其缺乏靈感與人性溫度,AI能代替人類思考嗎?
斯坦福大學(xué)的病理學(xué)家ThomasMontine在4月的某個周日早晨,按照「慣例」舉辦了一次會議。
他先是給幾位「神經(jīng)科學(xué)家」、一位「神經(jīng)藥理學(xué)家」和一位「藥物化學(xué)家」分配了任務(wù)——研究阿爾茲海默病的潛在治療方法。
幾分鐘后,他就得到了一份一萬多字的研究報告。
在這場會議中,沒有人打斷、沒有人跑題,更沒有人玩手機,「它們」是如何交流的?
歡迎來到AI主導(dǎo)下的科學(xué)家日常——「虛擬AI科學(xué)家」,一種前所未有的,重構(gòu)科研的基本單元。
借助LLM,「AI科學(xué)家」正在重塑科研過程。
從谷歌、斯坦福到上海人工智能實驗室,科學(xué)家們正在測試由虛擬科學(xué)家組成的AI小組。
這些由「聊天機器人」組成的科研團隊正在協(xié)助科學(xué)家們進行頭腦風(fēng)暴、實驗設(shè)計、文獻整合乃至提出研究假設(shè)。
這種新型人和AI「共研」方式是否能成為未來科研范式的雛形?
斯坦福大學(xué)計算生物學(xué)家的團隊于2024年11月宣布了VirtualLab系統(tǒng),Montine使用的正是該系統(tǒng)的某個版本。
無獨有偶,上海人工智能實驗室的一個研究小組在2024年10月也推出了一種類似的虛擬科學(xué)家系統(tǒng),VirSci。
開源地址:https://github.com/open-sciencelab/Virtual-Scientists?tab=readme-ov-file
探索這一概念最突出的是谷歌的研究人員。
今年2月,谷歌推出一款基于Gemini2.0構(gòu)建的多智能體AI系統(tǒng),作為「虛擬科學(xué)合作者」。
這些「虛擬科學(xué)家」幫助真正的科學(xué)家生成新穎的假設(shè)和研究方案,從而加快科學(xué)和生物醫(yī)學(xué)發(fā)現(xiàn)的進程。
在以上這類系統(tǒng)中,AI科學(xué)家們不僅僅能交流「想法」,它們還能聯(lián)網(wǎng)、寫代碼。
多個「AI科學(xué)家」可以組合成一個更大的系統(tǒng),能夠?qū)W⒂趯儆诟髯缘膯栴}而不被分散注意力。
伊利諾伊州芝加哥大學(xué)和阿貢國家實驗室的計算機科學(xué)家RickStevens說:
從某種意義上說,這在本質(zhì)上與擁有更多同事并沒有太大不同。
只不過它們不會疲倦,而且接受了全方位的訓(xùn)練。
最近,「Nature」在一篇文章,深入探討了科學(xué)家對于這些「AI科學(xué)家」的最真實感受。
一個完全由AI聊天機器人組成的「科研團隊」,開會的時候是什么風(fēng)格?滿屋子的諾獎得主?還是一群本科生?
這些「AI科學(xué)家」只是簡單的聊天機器人,背后還是具有更復(fù)雜的技術(shù)?
三家「AI協(xié)同科學(xué)家」系統(tǒng)有何區(qū)別?
斯坦福大學(xué)的這個系統(tǒng),是JamesZou團隊利用GPT-4o打造的。
它里面默認有兩個AI在干活:一個當(dāng)「首席調(diào)查研究員」,負責(zé)帶頭想點子;另一個當(dāng)「評論家」,專門提一些有用的改進建議。
開源地址:https://github.com/zou-group/virtual-lab
谷歌這套系統(tǒng)則是DeepMind的AlanKarthikesalingam和VivekNatarajan等用Gemini2.0創(chuàng)建的。
與斯坦福的系統(tǒng)相比,它比較學(xué)術(shù)派,專門搞生物醫(yī)學(xué)領(lǐng)域研究。
系統(tǒng)架構(gòu)如下:
AI協(xié)同科學(xué)家系統(tǒng)
在劈柴看來,它是一個能利用先進的推理能力來綜合大量文獻,為科學(xué)家在「生成新穎假設(shè)」和提出詳細的「研究策略」方面,加速科研突破的——「科學(xué)家的虛擬助手」。
谷歌與斯坦福的系統(tǒng)區(qū)別在于,前者不允許用戶為智能體分配科學(xué)專長。
簡單說,谷歌這個AI系統(tǒng)能干好幾件事;
出點子、分析和挑毛病、把舊點子變出新花樣、檢查想法是不是太像了、給所有點子排個名,最后還能自己反思一下整個工作干得好不好。
上海人工智能實驗室的VirSci系統(tǒng)由NanqingDong等人提出。
它類似于一個組織者,專門協(xié)同「集團軍」搞事情。
據(jù)團隊介紹,VIRSCI包括五個關(guān)鍵步驟:合作者選擇、選題討論、點子生成、新穎性評估和摘要生成。
可以看到,這些系統(tǒng)中的LLM不僅會互相交流想法,還會搜索互聯(lián)網(wǎng)、執(zhí)行代碼并與其它軟件工具交互,這使它們成為「自主AI」的一部分。
那它與人類科學(xué)家有何區(qū)別呢?
阿貢國家實驗室的計算機科學(xué)家RickStevens直言,在某種意義上,這跟擁有更多同事本質(zhì)上沒啥區(qū)別。
他們能24小時不知疲倦的工作,還接受過全面的訓(xùn)練。
人類科學(xué)家VS「AI科學(xué)家」
當(dāng)人類科學(xué)家真正開始與這些「虛擬同事」共事,會發(fā)生什么?
AI科學(xué)家所提出的思路,是富有啟發(fā)、令人驚艷,還是僅僅邏輯自洽但缺乏實際價值?
它們的存在,是靈感放大的助推器,還是變成了另一種形式的信息噪音?
GaryPeltz:我差點從椅子上掉下來
斯坦福大學(xué)的醫(yī)學(xué)研究員GaryPeltz經(jīng)常使用人工智能,他是谷歌人工智能合作科學(xué)家項目的首批體驗者。
他希望利用該系統(tǒng)尋找治療肝纖維化的藥物。
當(dāng)時谷歌這個系統(tǒng)還沒有開發(fā)完成,他把自己的要求發(fā)給了谷歌一名工作人員。
大約一天后,他就收到了谷歌人工智能合作科學(xué)家系統(tǒng)的輸出,以下為部分摘錄。
「當(dāng)我讀到它時,我差點從椅子上跌了下來」,Peltz說。
Peltz剛剛寫了一份提案,重點闡述表觀遺傳變化在肝纖維化中的重要性,而這個「AI聯(lián)合科學(xué)家」針對其建議的治療方案竟然也瞄準(zhǔn)了相同的主題。
AI聯(lián)合科學(xué)家提出了三種藥物,而佩爾茨又提出了另外兩種(所有這些藥物已經(jīng)獲批用于治療其他疾?。?。
為了加速系統(tǒng)研發(fā)和測試,谷歌聘請了Peltz。
在接下來的幾個月里,佩爾茨的實驗室在其人類類器官模型中測試了這五種藥物。
AI提出的三種建議中有兩種顯示出促進肝臟再生和抑制纖維化的潛力,而佩爾茨提出的兩種均未奏效。
Peltz說,這次經(jīng)歷讓他印象深刻:「這些大語言模型(LLM)對于早期人類社會而言,就如同火一般重要」。
當(dāng)然,并不是所有人都認同,其他肝臟研究人員表示,該人工智能提出的藥物建議既不特別創(chuàng)新,也不夠深入。
西奈山伊坎醫(yī)學(xué)院的研究員認為「這些建議相當(dāng)符合常識,并沒有太多深刻的見解」。
但Peltz表示,「尤其令他感到震驚的是,AI并沒有把我所重視的事情放在優(yōu)先位置」。
閱讀人工智能報告的感覺與他同博士后交流的情形類似。
「AI看待問題的方式和我完全不同。」
FranciscoBarriga:AI想的和我一樣
FranciscoBarriga來自巴塞羅那瓦爾德希布倫腫瘤研究所的癌癥基因組。
FranciscoBarriga是一名生物化學(xué)家,職業(yè)是一名小鼠模型專家和基因組工程師,完全不會變成,也幾乎沒有AI方面的經(jīng)驗。
他抱著猶豫的心態(tài)參與了這次試驗,懷疑自己會充當(dāng)一個技術(shù)不精通的對照組角色。
Barriga讓AI設(shè)計小鼠模型實驗,以測試特定生物化合物在使用最少數(shù)量小鼠的情況下對腫瘤或免疫細胞的影響能力。
這是一個他非常熟悉的主題。
Barriga表示,「AI科學(xué)家」團隊提出的方案與他會做的完全一致:
AI科學(xué)家團隊選擇了「正確的模型、正確的實驗」。
不過,Barriga表示他總覺得這個過程缺少了一些關(guān)鍵的東西。
「這個過程絕對沒有人類參與」。
這些AI智能體輪流「發(fā)言」,常常使用編號列表,并且從不會無禮、打斷他人或爭論不休。
「它缺少了那種直覺的飛躍,比如你在下午三點偶然在走廊喝咖啡時,與某個植物生物學(xué)家隨意交談中所能獲得的那種靈感?!?/p>
當(dāng)然,Barriga可以在自己的虛擬團隊中加入一位植物生物學(xué)家——或者是一位量子物理學(xué)家,或任何其他人,但他尚未嘗試這樣做。
「也許它可以用來碰撞想法。但它會改變我日常的工作方式嗎?我對此表示懷疑,」Barriga補充說。
這個系統(tǒng)或許可以成為他的博士生在遇到困難時的一種參考:
如果他們遇到了問題而我又太忙無法顧及時,也許我可以被替代。
Peltz和Barriga代表了真正的人類科學(xué)家對于「AI科學(xué)家」的兩種態(tài)度——驚訝和遲疑。
就像Barriga調(diào)侃的那樣,也許AI科學(xué)家頂多能代替我,給我的博士生出點建議。
另外一位來自馬薩諸塞州波士頓兒童醫(yī)院研究罕見疾病的CatherineBrownstein或許更懂得如何和這些「AI科學(xué)家」相處。
大語言模型(LLM)可以提升速度、效率并拓寬思維方式。
但她提醒道,用戶通常必須具備專業(yè)知識,以便能夠發(fā)現(xiàn)錯誤。
你必須大致了解自己所談?wù)摰膬?nèi)容,否則很容易被完全誤導(dǎo)。
雖然Brownstein的態(tài)度似乎處于「中庸」的狀態(tài),但她非常感激這些「虛擬科學(xué)家」。
當(dāng)Brownstein使用AI對她正在撰寫的一篇論文進行審閱時,AI建議她去詢問患者。
患者認為研究的下一步應(yīng)該朝哪個方向發(fā)展。
這一建議令她既驚訝又感激。AI似乎比人更具有人情味,亦或者AI考慮的更全面。
她說,自己本應(yīng)想到這一點,但事實上卻沒有。
我當(dāng)時感到很尷尬,我停下來看著屏幕整整一分鐘,心想:
天哪,我怎么會偏離了最初專注于以患者為中心的研究熱情如此之遠?
這類體驗,似乎描繪出一種新型合作的雛形:AI不是要取代科學(xué)家,而是成為一個時刻在線、始終專注、不帶偏見的思維合作者。
或許,科學(xué)的未來并非一直由AI主導(dǎo)的,而是一個充滿了人類「不完美」的爭論、直覺與AI「完美」的計算、分析相互碰撞。
最終的偉大發(fā)現(xiàn),可能就誕生于AI助手與人類科學(xué)家有序與無序的交響之中。
9本偏執(zhí)男主文
沒辦法,她只好收留小可憐,并努力將他教導(dǎo)成身心健康的正直青年_。誰知教著教著,小可憐看她的眼神越發(fā)幽沉奇怪起來_|。男主文案: 寧殷如野狗般最狼狽的時候,是虞靈犀將他撿了回去,在他陰暗扭曲的世界里鑿開一線天光|。于是他拭凈鮮血,收斂爪牙,努力學(xué)著成為她所期盼的那等良人君子。就當(dāng)他以為能永遠擁有她的笑顏時,等來的卻是她的揮手 對上他血紅一片的雙眼,如水蛇一般的腰往下塌,紅唇湊到他耳邊親密私語:“你猜?”《和離后我選暴君》作者:三月蜜糖文案:強取豪奪/破鏡重圓/虐戀清醒獨立世家小娘子vs偏執(zhí)暴戾帝王古早狗血破鏡重圓世家小娘子都道六皇子周瑄俊美無儔,性冷難追|。謝瑛起初也這般以為,直到后來她勾了勾手指,便被他纏了上來。兩人是什么。強推!破鏡重圓|導(dǎo)演×女星,男主白切黑,表面溫和禁欲實則病態(tài)偏執(zhí)