7月26日,2025世界人工智能大會(WAIC)正式開幕。圖靈獎得主、諾獎得主、“AI教父”杰弗里·辛頓(GeoffreyHinton)發(fā)表主題演講再談AI(人工智能)安全。
杰弗里·辛頓(GeoffreyHinton)
辛頓表示,人類理解語言的方式實際上很像大語言模型,因此人類實際上很像大語言模型,也會產(chǎn)生幻覺,經(jīng)常編造東西,特別是當(dāng)他們試圖回憶很久以前發(fā)生的事情時。但他也指出,大語言模型與人類非常不同且優(yōu)于人類的是,計算機科學(xué)的一個基本原則是,該將軟件與硬件分開,正是這一點讓人們可以在不同的硬件上運行相同的程序,它使得計算機科學(xué)能夠成為一個獨立于電氣工程的領(lǐng)域,如果你做到了這一點,那么程序中包含的知識就是“不朽的”。
辛頓進(jìn)一步解釋稱:“如果你能把程序保存在某處,或者能把神經(jīng)網(wǎng)絡(luò)的權(quán)重存儲在某個地方,那么你現(xiàn)在就可以銷毀運行神經(jīng)網(wǎng)絡(luò)的所有硬件。只要你有權(quán)重存儲在某個地方,你現(xiàn)在就可以建造新的硬件,并且因為計算是數(shù)字化的,你可以在這些新硬件上運行完全相同的計算。所以在這個意義上,數(shù)字計算機的程序是‘不朽的’。”
辛頓同時指出,數(shù)字計算需要大量能量,但它使得擁有完全相同權(quán)重的智能體(Agent)能夠非常容易地共享它們從不同經(jīng)驗中學(xué)到的東西,生物計算需要的能量要少得多,但共享學(xué)到的東西卻很困難。如果能源很便宜,數(shù)字計算就會好得多。
“這讓我非常擔(dān)憂,因為幾乎所有的專家都相信我們將制造出比我們更聰明的AI。我們?nèi)绱肆?xí)慣于作為頂尖智能,以至于很多人難以想象一個AI比我們更聰明的世界會是什么樣子……”辛頓表示,想知道非頂級智能體的感受?不妨問問雞的生存體驗。
辛頓認(rèn)為,我們正在創(chuàng)造AI智能體是因為它們更擅長完成任務(wù),這些AI智能體已經(jīng)具備創(chuàng)造自己子目標(biāo)的能力。而一旦擁有創(chuàng)造子目標(biāo)的能力,智能體就會想做兩件事:一是生存,僅僅是為了能夠?qū)崿F(xiàn)我們賦予它們的目標(biāo);二是更多的控制權(quán),也僅僅是為了能夠?qū)崿F(xiàn)我們賦予它們的目標(biāo)。因此,人類將會擁有想要生存和想要更多控制權(quán)的智能體,“而且我們將無法簡單地關(guān)閉它們,它們會發(fā)現(xiàn)操縱使用它們的人非常容易,我們將像三歲小孩,而它們將像成年人,所以我認(rèn)為那種當(dāng)它們比我們更聰明時,我們就能讓某人把它們關(guān)掉的想法是不切實際的,它們將能夠操縱我們,并說服那個應(yīng)該關(guān)掉它們的人不要那么做”。
辛頓將人類目前的處境比作養(yǎng)小老虎當(dāng)寵物,小老虎非常可愛,能成為很好的寵物,但需要確保當(dāng)它長大后它不想吃了你?!耙话銇碚f,養(yǎng)小老虎當(dāng)寵物是個壞主意,有兩個選擇:想辦法訓(xùn)練它讓它永遠(yuǎn)不想吃了你,或者擺脫它?!毙令D表示,對于AI,我們沒有擺脫它的選項,AI對醫(yī)療保健、教育、氣候變化、新材料等太多事情都非常有用,能為幾乎所有行業(yè)提供幫助并使人類更具生產(chǎn)力。
辛頓表示,如果人類想要生存,必須找到辦法訓(xùn)練AI,不要讓AI消滅人類。
辛頓指出,目前沒有一個國家希望AI接管,每個國家都希望人類繼續(xù)保持掌控權(quán),如果任何一個國家找到了防止AI接管的方法,他們會非常樂意告訴所有其他國家。因此,他建議建立一個由AI安全研究所和協(xié)會組成的國際共同體,致力于研發(fā)訓(xùn)練AI向善的技術(shù),實現(xiàn)訓(xùn)練AI向善所需的技術(shù)與訓(xùn)練AI變得更聰明的技術(shù),在某種程度上是分離的,讓一個真正聰明的AI不想接管世界,即使它比大多數(shù)人聰明得多,也非常樂意處于人類的輔助角色。
“我們目前根本不知道如何做到這一點,長遠(yuǎn)來看,這是人類面臨的最重要的問題。好消息是,這是一個所有國家都應(yīng)該能夠合作解決的問題?!毙令D最后如是說到。
本次世界人工智能大會以“智能時代同球共濟”為主題,共規(guī)劃了超100場專業(yè)論壇,匯聚1200余位全球?qū)<遥?2位圖靈獎、諾獎得主,大會將持續(xù)至7月28日。
延伸閱讀:與 外賣三:巨、頭如何《打留量戰(zhàn)》 的相關(guān)文章