7月26號,2025世界人工智能大會(WAIC)在上海正式開幕。
這一次,我們迎來了AI領域的重量級嘉賓,諾貝爾獎和圖靈獎得主杰弗里·辛頓(GeoffreyHinton)。
這是辛頓首次踏足中國參加線下活動,對于77歲、身體欠佳的他來說實屬不易,也更能體現(xiàn)出他此次中國行的彌足珍貴。
(來源:資料圖)
就在WAIC開幕前一天,辛頓剛參加了第四屆人工智能國際安全對話(InternationalDialoguesonAISafety,IDAIS)。
他與清華大學交叉信息研究院和人工智能學院院長姚期智、加州大學伯克利分校教授斯圖爾特·拉塞爾(StuartRussell),以及上海人工智能實驗室主任周伯文教授等20余名專家聯(lián)名簽署發(fā)布了《AI安全國際對話上海共識》。
今天,辛頓以一場“數(shù)字智能是否會取代生物智能”的演講為WAIC開幕。
首先,辛頓討論了兩種智能范式。
一種是受邏輯啟發(fā)的方法,也就是傳統(tǒng)人工智能(AI)。這種方法的核心觀念是“人類智能的本質在于推理”。要實現(xiàn)推理,就需要建立一套符號表達式,再通過符號規(guī)則去操作它們。
而信奉這種方法的人認為,學習可以暫緩,首先要理解只是如何以符號表達的形式進行表示。
另一種方法,則是受生物學啟發(fā)的,也就是艾倫·圖靈(AlanTuring)和約翰·馮·諾伊曼(JohnvonNeumann)所推崇的,智能的本質在于(腦細胞)網(wǎng)絡的學習。
對人類而言,腦細胞是學習的關鍵;對計算機來說,就需要模擬。理解學習的機制最重要,而推理可以暫緩。
1985年,辛頓做了個小模型,嘗試結合這兩種理論,以解釋人們如何理解詞匯。他給每個詞設置多個不同特征,記錄數(shù)字特征來預測下一個詞,過程中不存儲句子而是生成句子并不斷預測下一個詞。
“相關聯(lián)性的知識,取決于不同的詞的特征與語義特征是如何進行互動的?!毙令D表示。
他接下來提到了推動語言模型發(fā)展的幾個關鍵節(jié)點。
10年后,人們沿用此模式建模并擴大規(guī)模,成為自然語言真實模擬。20年后,計算語言學家們終于開始接受并使用“特征向量”(嵌入)技術。
而到了三十年后,谷歌發(fā)明了Transformer架構,緊接著OpenAI向世界展示了基于該架構的大語言模型所具備的強大能力。
如今的大語言模型可視為1985年微型語言模型的后代,使用更多詞輸入、更多層神經(jīng)元結構,建立更復雜特征交互模式。
大語言模型理解問題方式和人類類似,都是將詞語轉換成能夠相互良好配合的特征向量來實現(xiàn)這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。
辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同類型的“樂高積木”。每一塊的形狀都不是固定不變,而詞語的含義(名字)只是大致告訴你它的“形狀”。
辛頓在此前的演講中就用過這個比喻,他當時的解釋更加細致:
“詞語”的上面還有“小手”。當你改變詞的“形狀”時,“小手”的形狀也會隨之改變。這些詞語與詞語之間,就是通過“握手”來優(yōu)化意思理解,類似蛋白質組合氨基酸產(chǎn)生有意義內容。
當詞語進入模型,它們在這個高維空間里帶著各自初始的、大致的形狀,身上還布滿了小手。當信息在網(wǎng)絡的層級間向上傳遞時,你就在不斷地調整這些詞的“形狀”和它們“小手”的形狀,試圖為每個詞找到最合適的形態(tài),讓它們彼此之間都能完美地“握手”。
這樣一來,語言其實就是一種建模過程(搭積木的過程),可根據(jù)情況調整所需的詞匯(積木)。
最終,這就類似蛋白質組合成氨基酸,詞匯的組合會產(chǎn)生有意義的內容。
“其實人腦和神經(jīng)網(wǎng)絡理解意思的方式相似,而且‘幻覺’并非大模型專屬,人類也會產(chǎn)生?!毙令D解釋道。
接下來,辛頓討論了人類與大模型的差異性。
計算機科學將軟件和硬件分開,軟件中的知識永恒存在,即便硬件毀滅,只要軟件在就能復活。
但人類不同,人腦是模擬的,神經(jīng)元連接方式因人而異,知識傳播與硬件(大腦)緊密相關,無法像軟件知識那樣輕易轉移。人類的硬件一旦毀滅,所有知識都會煙消云散。所以人類靠學校、老師來傳承知識,但效率極低。
人腦知識難以高效轉移給他人,每秒最多傳遞約10-100比特信息。當然,人類的優(yōu)勢在于生物計算能耗少,如人類大腦僅需30瓦特功率。
相比之下,神經(jīng)網(wǎng)絡之間的知識共享就快多了,盡管能耗很大。
當大模型共享信息時,通過平均化權重,它們一次交互就能分享大量比特的內容。比如在如今大模型的訓練中,每個模型都會部署多個副本,去分別學習不同的數(shù)據(jù),然后所有副本再進行同步。
這就像人類學會了分身,同時去上不同的課程,然后只要聚在一起,知識就在每個個體中同步完成了。
最后,辛頓討論了AI可能帶來的挑戰(zhàn)與潛在的應對方法。
幾乎所有人都相信,一定會出現(xiàn)比人類更智能的AI,而AI智能體為了完成任務,會想要生存、獲得更多控制。
辛頓此前已多次在公開信和演講中指出,當前AI系統(tǒng)已經(jīng)具備自主學習和演化的潛能。
一旦其擁有長期目標,就可能會發(fā)展出與人類目標不一致的“子目標”,甚至試圖欺騙人類、操縱人類、逃脫人類的控制。
在此次WAIC上,辛頓又拿出了他很經(jīng)典的比喻:現(xiàn)在的人類就像撫養(yǎng)幼小的虎崽,除非你能非常確定它長大后不會傷害你,否則你就應該擔心。
但人類又無法徹底禁止AI,因為它在很多領域作用重大,所以只能尋找一種辦法,確保人類不會被AI消滅。
說起來容易,做起來難。
辛頓認為,這種努力應該是全球性的。但他坦言:“各國不會在防御AI的危險用途上進行合作?!币驗槊總€國家都有自己的戰(zhàn)略考量。
因此,他寄希望于國際社會在“預防AI統(tǒng)治世界”這一問題上達成一致,防止AI從人類手中奪走控制權。
辛頓最后提議,人類應當建立AI安全機構的國際社群,研究訓練AI向善的技巧。這就好比,“教導孩子成為一個好人”與“讓他們變得更聰明”,是兩碼事。
辛頓提議,各國可在本國主權范圍內研究并分享成果(在允許的范圍內),全球或AI領導國家應思考建立相關網(wǎng)絡,研究如何訓練聰明的AI輔助人類而非消滅或統(tǒng)治人類。
“因為這將是人類長期面臨的重要問題?!毙令D說道。
附杰弗里·辛頓生平簡介:杰弗里·辛頓(GeoffreyHinton),被譽為“人工智能教父”,是一位英裔加拿大計算機科學家和心理學家,是深度學習的奠基人之一。
1986年,他與大衛(wèi)·拉梅爾哈特(DavidRumelhart)等人合作提出了將反向傳播算法應用于神經(jīng)網(wǎng)絡訓練的劃時代方法,使多層神經(jīng)網(wǎng)絡的訓練成為可能。這一算法成為后來深度學習的基石。
2012年,辛頓帶領學生亞歷克斯·克里澤夫斯基(AlexKrizhevsky)和伊利亞·蘇茨克維爾(IlyaSutskever)開發(fā)了卷積神經(jīng)網(wǎng)絡AlexNet,在ImageNet圖像識別競賽中遠超其他模型,引爆了深度學習浪潮。
隨后,辛頓創(chuàng)立的DNNresearch公司被谷歌收購,他本人也加入谷歌大腦團隊,成為推動AI產(chǎn)業(yè)化的重要力量之一。
由于在神經(jīng)網(wǎng)絡領域的卓越貢獻,他于2018年獲得ACM圖靈獎,與楊立昆(YannLeCun)和約書亞·本吉奧(YoshuaBengio)共享該榮譽。2024年,他又被授予諾貝爾物理學獎,表彰其在AI模型結構方面的突破性貢獻。
近年來,辛頓的研究重心逐漸轉向AI安全問題。他認為AI的發(fā)展速度已經(jīng)遠超預期,其潛力和風險都不容忽視。在2023年離開谷歌后,他更加頻繁地公開發(fā)聲,表達對通用人工智能(AGI)未來影響的擔憂。
他此前曾估計,AI接管并摧毀人類文明的概率在10%到20%之間,雖然不是必然結局,但足以令人警惕。
至于如何應對AI風險,辛頓呼吁科技公司和政府投入更多資源進行AI安全研究。他建議至少將三分之一的計算資源用于研究如何確保AI系統(tǒng)不會偏離人類意圖。他還批評一些大型科技公司為追求商業(yè)利益而游說放松監(jiān)管,認為這是一種極其危險的趨勢。
在技術層面,他嘗試提出新的神經(jīng)網(wǎng)絡訓練方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓練機制。
總的來說,辛頓既是深度學習崛起的重要推動者,也成為了重視AI安全呼聲中最具分量的聲音發(fā)出者:呼吁人類社會保持警覺,在繼續(xù)推動AI創(chuàng)新的同時,必須正視其潛在的社會風險和生存性挑戰(zhàn)。
參考資料:
WAIC直播
https://blog.biocomm.ai/2025/04/28/godfather-of-ai-has-new-warning-about-artificial-intelligence-you-should-worry-cbs-news/#:~:text=authoritarians%20more%20oppressive%20and%20hackers,what%E2%80%99s%20coming%20i%20don%E2%80%99t%20think
運營/排版:何晨龍