7月26號,2025世界人工智能大會(WAIC)在上海正式開幕。
這一次,我們迎來了AI領(lǐng)域的重量級嘉賓,諾貝爾獎和圖靈獎得主杰弗里·辛頓(GeoffreyHinton)。
這是辛頓首次踏足中國參加線下活動,對于77歲、身體欠佳的他來說實屬不易,也更能體現(xiàn)出他此次中國行的彌足珍貴。
(來源:資料圖)
就在WAIC開幕前一天,辛頓剛參加了第四屆人工智能國際安全對話(InternationalDialoguesonAISafety,IDAIS)。
他與清華大學(xué)交叉信息研究院和人工智能學(xué)院院長姚期智、加州大學(xué)伯克利分校教授斯圖爾特·拉塞爾(StuartRussell),以及上海人工智能實驗室主任周伯文教授等20余名專家聯(lián)名簽署發(fā)布了《AI安全國際對話上海共識》。
今天,辛頓以一場“數(shù)字智能是否會取代生物智能”的演講為WAIC開幕。
首先,辛頓討論了兩種智能范式。
一種是受邏輯啟發(fā)的方法,也就是傳統(tǒng)人工智能(AI)。這種方法的核心觀念是“人類智能的本質(zhì)在于推理”。要實現(xiàn)推理,就需要建立一套符號表達(dá)式,再通過符號規(guī)則去操作它們。
而信奉這種方法的人認(rèn)為,學(xué)習(xí)可以暫緩,首先要理解只是如何以符號表達(dá)的形式進(jìn)行表示。
另一種方法,則是受生物學(xué)啟發(fā)的,也就是艾倫·圖靈(AlanTuring)和約翰·馮·諾伊曼(JohnvonNeumann)所推崇的,智能的本質(zhì)在于(腦細(xì)胞)網(wǎng)絡(luò)的學(xué)習(xí)。
對人類而言,腦細(xì)胞是學(xué)習(xí)的關(guān)鍵;對計算機(jī)來說,就需要模擬。理解學(xué)習(xí)的機(jī)制最重要,而推理可以暫緩。
1985年,辛頓做了個小模型,嘗試結(jié)合這兩種理論,以解釋人們?nèi)绾卫斫庠~匯。他給每個詞設(shè)置多個不同特征,記錄數(shù)字特征來預(yù)測下一個詞,過程中不存儲句子而是生成句子并不斷預(yù)測下一個詞。
“相關(guān)聯(lián)性的知識,取決于不同的詞的特征與語義特征是如何進(jìn)行互動的?!毙令D表示。
他接下來提到了推動語言模型發(fā)展的幾個關(guān)鍵節(jié)點。
10年后,人們沿用此模式建模并擴(kuò)大規(guī)模,成為自然語言真實模擬。20年后,計算語言學(xué)家們終于開始接受并使用“特征向量”(嵌入)技術(shù)。
而到了三十年后,谷歌發(fā)明了Transformer架構(gòu),緊接著OpenAI向世界展示了基于該架構(gòu)的大語言模型所具備的強(qiáng)大能力。
如今的大語言模型可視為1985年微型語言模型的后代,使用更多詞輸入、更多層神經(jīng)元結(jié)構(gòu),建立更復(fù)雜特征交互模式。
大語言模型理解問題方式和人類類似,都是將詞語轉(zhuǎn)換成能夠相互良好配合的特征向量來實現(xiàn)這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。
辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同類型的“樂高積木”。每一塊的形狀都不是固定不變,而詞語的含義(名字)只是大致告訴你它的“形狀”。
辛頓在此前的演講中就用過這個比喻,他當(dāng)時的解釋更加細(xì)致:
“詞語”的上面還有“小手”。當(dāng)你改變詞的“形狀”時,“小手”的形狀也會隨之改變。這些詞語與詞語之間,就是通過“握手”來優(yōu)化意思理解,類似蛋白質(zhì)組合氨基酸產(chǎn)生有意義內(nèi)容。
當(dāng)詞語進(jìn)入模型,它們在這個高維空間里帶著各自初始的、大致的形狀,身上還布滿了小手。當(dāng)信息在網(wǎng)絡(luò)的層級間向上傳遞時,你就在不斷地調(diào)整這些詞的“形狀”和它們“小手”的形狀,試圖為每個詞找到最合適的形態(tài),讓它們彼此之間都能完美地“握手”。
這樣一來,語言其實就是一種建模過程(搭積木的過程),可根據(jù)情況調(diào)整所需的詞匯(積木)。
最終,這就類似蛋白質(zhì)組合成氨基酸,詞匯的組合會產(chǎn)生有意義的內(nèi)容。
“其實人腦和神經(jīng)網(wǎng)絡(luò)理解意思的方式相似,而且‘幻覺’并非大模型專屬,人類也會產(chǎn)生?!毙令D解釋道。
接下來,辛頓討論了人類與大模型的差異性。
計算機(jī)科學(xué)將軟件和硬件分開,軟件中的知識永恒存在,即便硬件毀滅,只要軟件在就能復(fù)活。
但人類不同,人腦是模擬的,神經(jīng)元連接方式因人而異,知識傳播與硬件(大腦)緊密相關(guān),無法像軟件知識那樣輕易轉(zhuǎn)移。人類的硬件一旦毀滅,所有知識都會煙消云散。所以人類靠學(xué)校、老師來傳承知識,但效率極低。
人腦知識難以高效轉(zhuǎn)移給他人,每秒最多傳遞約10-100比特信息。當(dāng)然,人類的優(yōu)勢在于生物計算能耗少,如人類大腦僅需30瓦特功率。
相比之下,神經(jīng)網(wǎng)絡(luò)之間的知識共享就快多了,盡管能耗很大。
當(dāng)大模型共享信息時,通過平均化權(quán)重,它們一次交互就能分享大量比特的內(nèi)容。比如在如今大模型的訓(xùn)練中,每個模型都會部署多個副本,去分別學(xué)習(xí)不同的數(shù)據(jù),然后所有副本再進(jìn)行同步。
這就像人類學(xué)會了分身,同時去上不同的課程,然后只要聚在一起,知識就在每個個體中同步完成了。
最后,辛頓討論了AI可能帶來的挑戰(zhàn)與潛在的應(yīng)對方法。
幾乎所有人都相信,一定會出現(xiàn)比人類更智能的AI,而AI智能體為了完成任務(wù),會想要生存、獲得更多控制。
辛頓此前已多次在公開信和演講中指出,當(dāng)前AI系統(tǒng)已經(jīng)具備自主學(xué)習(xí)和演化的潛能。
一旦其擁有長期目標(biāo),就可能會發(fā)展出與人類目標(biāo)不一致的“子目標(biāo)”,甚至試圖欺騙人類、操縱人類、逃脫人類的控制。
在此次WAIC上,辛頓又拿出了他很經(jīng)典的比喻:現(xiàn)在的人類就像撫養(yǎng)幼小的虎崽,除非你能非常確定它長大后不會傷害你,否則你就應(yīng)該擔(dān)心。
但人類又無法徹底禁止AI,因為它在很多領(lǐng)域作用重大,所以只能尋找一種辦法,確保人類不會被AI消滅。
說起來容易,做起來難。
辛頓認(rèn)為,這種努力應(yīng)該是全球性的。但他坦言:“各國不會在防御AI的危險用途上進(jìn)行合作?!币驗槊總€國家都有自己的戰(zhàn)略考量。
因此,他寄希望于國際社會在“預(yù)防AI統(tǒng)治世界”這一問題上達(dá)成一致,防止AI從人類手中奪走控制權(quán)。
辛頓最后提議,人類應(yīng)當(dāng)建立AI安全機(jī)構(gòu)的國際社群,研究訓(xùn)練AI向善的技巧。這就好比,“教導(dǎo)孩子成為一個好人”與“讓他們變得更聰明”,是兩碼事。
辛頓提議,各國可在本國主權(quán)范圍內(nèi)研究并分享成果(在允許的范圍內(nèi)),全球或AI領(lǐng)導(dǎo)國家應(yīng)思考建立相關(guān)網(wǎng)絡(luò),研究如何訓(xùn)練聰明的AI輔助人類而非消滅或統(tǒng)治人類。
“因為這將是人類長期面臨的重要問題?!毙令D說道。
附杰弗里·辛頓生平簡介:杰弗里·辛頓(GeoffreyHinton),被譽(yù)為“人工智能教父”,是一位英裔加拿大計算機(jī)科學(xué)家和心理學(xué)家,是深度學(xué)習(xí)的奠基人之一。
1986年,他與大衛(wèi)·拉梅爾哈特(DavidRumelhart)等人合作提出了將反向傳播算法應(yīng)用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練的劃時代方法,使多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練成為可能。這一算法成為后來深度學(xué)習(xí)的基石。
2012年,辛頓帶領(lǐng)學(xué)生亞歷克斯·克里澤夫斯基(AlexKrizhevsky)和伊利亞·蘇茨克維爾(IlyaSutskever)開發(fā)了卷積神經(jīng)網(wǎng)絡(luò)AlexNet,在ImageNet圖像識別競賽中遠(yuǎn)超其他模型,引爆了深度學(xué)習(xí)浪潮。
隨后,辛頓創(chuàng)立的DNNresearch公司被谷歌收購,他本人也加入谷歌大腦團(tuán)隊,成為推動AI產(chǎn)業(yè)化的重要力量之一。
由于在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的卓越貢獻(xiàn),他于2018年獲得ACM圖靈獎,與楊立昆(YannLeCun)和約書亞·本吉奧(YoshuaBengio)共享該榮譽(yù)。2024年,他又被授予諾貝爾物理學(xué)獎,表彰其在AI模型結(jié)構(gòu)方面的突破性貢獻(xiàn)。
近年來,辛頓的研究重心逐漸轉(zhuǎn)向AI安全問題。他認(rèn)為AI的發(fā)展速度已經(jīng)遠(yuǎn)超預(yù)期,其潛力和風(fēng)險都不容忽視。在2023年離開谷歌后,他更加頻繁地公開發(fā)聲,表達(dá)對通用人工智能(AGI)未來影響的擔(dān)憂。
他此前曾估計,AI接管并摧毀人類文明的概率在10%到20%之間,雖然不是必然結(jié)局,但足以令人警惕。
至于如何應(yīng)對AI風(fēng)險,辛頓呼吁科技公司和政府投入更多資源進(jìn)行AI安全研究。他建議至少將三分之一的計算資源用于研究如何確保AI系統(tǒng)不會偏離人類意圖。他還批評一些大型科技公司為追求商業(yè)利益而游說放松監(jiān)管,認(rèn)為這是一種極其危險的趨勢。
在技術(shù)層面,他嘗試提出新的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓(xùn)練機(jī)制。
總的來說,辛頓既是深度學(xué)習(xí)崛起的重要推動者,也成為了重視AI安全呼聲中最具分量的聲音發(fā)出者:呼吁人類社會保持警覺,在繼續(xù)推動AI創(chuàng)新的同時,必須正視其潛在的社會風(fēng)險和生存性挑戰(zhàn)。
參考資料:
WAIC直播
https://blog.biocomm.ai/2025/04/28/godfather-of-ai-has-new-warning-about-artificial-intelligence-you-should-worry-cbs-news/#:~:text=authoritarians%20more%20oppressive%20and%20hackers,what%E2%80%99s%20coming%20i%20don%E2%80%99t%20think
運(yùn)營/排版:何晨龍
延伸閱讀:與 再次警告人類重視AI風(fēng)險AI:就像一只!!“幼虎” 的相關(guān)文章