7月26號(hào),2025世界人工智能大會(huì)(WAIC)在上海正式開幕。
這一次,我們迎來了AI領(lǐng)域的重量級(jí)嘉賓,諾貝爾獎(jiǎng)和圖靈獎(jiǎng)得主杰弗里·辛頓(GeoffreyHinton)。
這是辛頓首次踏足中國(guó)參加線下活動(dòng),對(duì)于77歲、身體欠佳的他來說實(shí)屬不易,也更能體現(xiàn)出他此次中國(guó)行的彌足珍貴。
(來源:資料圖)
就在WAIC開幕前一天,辛頓剛參加了第四屆人工智能國(guó)際安全對(duì)話(InternationalDialoguesonAISafety,IDAIS)。
他與清華大學(xué)交叉信息研究院和人工智能學(xué)院院長(zhǎng)姚期智、加州大學(xué)伯克利分校教授斯圖爾特·拉塞爾(StuartRussell),以及上海人工智能實(shí)驗(yàn)室主任周伯文教授等20余名專家聯(lián)名簽署發(fā)布了《AI安全國(guó)際對(duì)話上海共識(shí)》。
今天,辛頓以一場(chǎng)“數(shù)字智能是否會(huì)取代生物智能”的演講為WAIC開幕。
首先,辛頓討論了兩種智能范式。
一種是受邏輯啟發(fā)的方法,也就是傳統(tǒng)人工智能(AI)。這種方法的核心觀念是“人類智能的本質(zhì)在于推理”。要實(shí)現(xiàn)推理,就需要建立一套符號(hào)表達(dá)式,再通過符號(hào)規(guī)則去操作它們。
而信奉這種方法的人認(rèn)為,學(xué)習(xí)可以暫緩,首先要理解只是如何以符號(hào)表達(dá)的形式進(jìn)行表示。
另一種方法,則是受生物學(xué)啟發(fā)的,也就是艾倫·圖靈(AlanTuring)和約翰·馮·諾伊曼(JohnvonNeumann)所推崇的,智能的本質(zhì)在于(腦細(xì)胞)網(wǎng)絡(luò)的學(xué)習(xí)。
對(duì)人類而言,腦細(xì)胞是學(xué)習(xí)的關(guān)鍵;對(duì)計(jì)算機(jī)來說,就需要模擬。理解學(xué)習(xí)的機(jī)制最重要,而推理可以暫緩。
1985年,辛頓做了個(gè)小模型,嘗試結(jié)合這兩種理論,以解釋人們?nèi)绾卫斫庠~匯。他給每個(gè)詞設(shè)置多個(gè)不同特征,記錄數(shù)字特征來預(yù)測(cè)下一個(gè)詞,過程中不存儲(chǔ)句子而是生成句子并不斷預(yù)測(cè)下一個(gè)詞。
“相關(guān)聯(lián)性的知識(shí),取決于不同的詞的特征與語義特征是如何進(jìn)行互動(dòng)的?!毙令D表示。
他接下來提到了推動(dòng)語言模型發(fā)展的幾個(gè)關(guān)鍵節(jié)點(diǎn)。
10年后,人們沿用此模式建模并擴(kuò)大規(guī)模,成為自然語言真實(shí)模擬。20年后,計(jì)算語言學(xué)家們終于開始接受并使用“特征向量”(嵌入)技術(shù)。
而到了三十年后,谷歌發(fā)明了Transformer架構(gòu),緊接著OpenAI向世界展示了基于該架構(gòu)的大語言模型所具備的強(qiáng)大能力。
如今的大語言模型可視為1985年微型語言模型的后代,使用更多詞輸入、更多層神經(jīng)元結(jié)構(gòu),建立更復(fù)雜特征交互模式。
大語言模型理解問題方式和人類類似,都是將詞語轉(zhuǎn)換成能夠相互良好配合的特征向量來實(shí)現(xiàn)這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。
辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同類型的“樂高積木”。每一塊的形狀都不是固定不變,而詞語的含義(名字)只是大致告訴你它的“形狀”。
辛頓在此前的演講中就用過這個(gè)比喻,他當(dāng)時(shí)的解釋更加細(xì)致:
“詞語”的上面還有“小手”。當(dāng)你改變?cè)~的“形狀”時(shí),“小手”的形狀也會(huì)隨之改變。這些詞語與詞語之間,就是通過“握手”來優(yōu)化意思理解,類似蛋白質(zhì)組合氨基酸產(chǎn)生有意義內(nèi)容。
當(dāng)詞語進(jìn)入模型,它們?cè)谶@個(gè)高維空間里帶著各自初始的、大致的形狀,身上還布滿了小手。當(dāng)信息在網(wǎng)絡(luò)的層級(jí)間向上傳遞時(shí),你就在不斷地調(diào)整這些詞的“形狀”和它們“小手”的形狀,試圖為每個(gè)詞找到最合適的形態(tài),讓它們彼此之間都能完美地“握手”。
這樣一來,語言其實(shí)就是一種建模過程(搭積木的過程),可根據(jù)情況調(diào)整所需的詞匯(積木)。
最終,這就類似蛋白質(zhì)組合成氨基酸,詞匯的組合會(huì)產(chǎn)生有意義的內(nèi)容。
“其實(shí)人腦和神經(jīng)網(wǎng)絡(luò)理解意思的方式相似,而且‘幻覺’并非大模型專屬,人類也會(huì)產(chǎn)生?!毙令D解釋道。
接下來,辛頓討論了人類與大模型的差異性。
計(jì)算機(jī)科學(xué)將軟件和硬件分開,軟件中的知識(shí)永恒存在,即便硬件毀滅,只要軟件在就能復(fù)活。
但人類不同,人腦是模擬的,神經(jīng)元連接方式因人而異,知識(shí)傳播與硬件(大腦)緊密相關(guān),無法像軟件知識(shí)那樣輕易轉(zhuǎn)移。人類的硬件一旦毀滅,所有知識(shí)都會(huì)煙消云散。所以人類靠學(xué)校、老師來傳承知識(shí),但效率極低。
人腦知識(shí)難以高效轉(zhuǎn)移給他人,每秒最多傳遞約10-100比特信息。當(dāng)然,人類的優(yōu)勢(shì)在于生物計(jì)算能耗少,如人類大腦僅需30瓦特功率。
相比之下,神經(jīng)網(wǎng)絡(luò)之間的知識(shí)共享就快多了,盡管能耗很大。
當(dāng)大模型共享信息時(shí),通過平均化權(quán)重,它們一次交互就能分享大量比特的內(nèi)容。比如在如今大模型的訓(xùn)練中,每個(gè)模型都會(huì)部署多個(gè)副本,去分別學(xué)習(xí)不同的數(shù)據(jù),然后所有副本再進(jìn)行同步。
這就像人類學(xué)會(huì)了分身,同時(shí)去上不同的課程,然后只要聚在一起,知識(shí)就在每個(gè)個(gè)體中同步完成了。
最后,辛頓討論了AI可能帶來的挑戰(zhàn)與潛在的應(yīng)對(duì)方法。
幾乎所有人都相信,一定會(huì)出現(xiàn)比人類更智能的AI,而AI智能體為了完成任務(wù),會(huì)想要生存、獲得更多控制。
辛頓此前已多次在公開信和演講中指出,當(dāng)前AI系統(tǒng)已經(jīng)具備自主學(xué)習(xí)和演化的潛能。
一旦其擁有長(zhǎng)期目標(biāo),就可能會(huì)發(fā)展出與人類目標(biāo)不一致的“子目標(biāo)”,甚至試圖欺騙人類、操縱人類、逃脫人類的控制。
在此次WAIC上,辛頓又拿出了他很經(jīng)典的比喻:現(xiàn)在的人類就像撫養(yǎng)幼小的虎崽,除非你能非常確定它長(zhǎng)大后不會(huì)傷害你,否則你就應(yīng)該擔(dān)心。
但人類又無法徹底禁止AI,因?yàn)樗诤芏囝I(lǐng)域作用重大,所以只能尋找一種辦法,確保人類不會(huì)被AI消滅。
說起來容易,做起來難。
辛頓認(rèn)為,這種努力應(yīng)該是全球性的。但他坦言:“各國(guó)不會(huì)在防御AI的危險(xiǎn)用途上進(jìn)行合作?!币?yàn)槊總€(gè)國(guó)家都有自己的戰(zhàn)略考量。
因此,他寄希望于國(guó)際社會(huì)在“預(yù)防AI統(tǒng)治世界”這一問題上達(dá)成一致,防止AI從人類手中奪走控制權(quán)。
辛頓最后提議,人類應(yīng)當(dāng)建立AI安全機(jī)構(gòu)的國(guó)際社群,研究訓(xùn)練AI向善的技巧。這就好比,“教導(dǎo)孩子成為一個(gè)好人”與“讓他們變得更聰明”,是兩碼事。
辛頓提議,各國(guó)可在本國(guó)主權(quán)范圍內(nèi)研究并分享成果(在允許的范圍內(nèi)),全球或AI領(lǐng)導(dǎo)國(guó)家應(yīng)思考建立相關(guān)網(wǎng)絡(luò),研究如何訓(xùn)練聰明的AI輔助人類而非消滅或統(tǒng)治人類。
“因?yàn)檫@將是人類長(zhǎng)期面臨的重要問題。”辛頓說道。
附杰弗里·辛頓生平簡(jiǎn)介:杰弗里·辛頓(GeoffreyHinton),被譽(yù)為“人工智能教父”,是一位英裔加拿大計(jì)算機(jī)科學(xué)家和心理學(xué)家,是深度學(xué)習(xí)的奠基人之一。
1986年,他與大衛(wèi)·拉梅爾哈特(DavidRumelhart)等人合作提出了將反向傳播算法應(yīng)用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練的劃時(shí)代方法,使多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練成為可能。這一算法成為后來深度學(xué)習(xí)的基石。
2012年,辛頓帶領(lǐng)學(xué)生亞歷克斯·克里澤夫斯基(AlexKrizhevsky)和伊利亞·蘇茨克維爾(IlyaSutskever)開發(fā)了卷積神經(jīng)網(wǎng)絡(luò)AlexNet,在ImageNet圖像識(shí)別競(jìng)賽中遠(yuǎn)超其他模型,引爆了深度學(xué)習(xí)浪潮。
隨后,辛頓創(chuàng)立的DNNresearch公司被谷歌收購(gòu),他本人也加入谷歌大腦團(tuán)隊(duì),成為推動(dòng)AI產(chǎn)業(yè)化的重要力量之一。
由于在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的卓越貢獻(xiàn),他于2018年獲得ACM圖靈獎(jiǎng),與楊立昆(YannLeCun)和約書亞·本吉奧(YoshuaBengio)共享該榮譽(yù)。2024年,他又被授予諾貝爾物理學(xué)獎(jiǎng),表彰其在AI模型結(jié)構(gòu)方面的突破性貢獻(xiàn)。
近年來,辛頓的研究重心逐漸轉(zhuǎn)向AI安全問題。他認(rèn)為AI的發(fā)展速度已經(jīng)遠(yuǎn)超預(yù)期,其潛力和風(fēng)險(xiǎn)都不容忽視。在2023年離開谷歌后,他更加頻繁地公開發(fā)聲,表達(dá)對(duì)通用人工智能(AGI)未來影響的擔(dān)憂。
他此前曾估計(jì),AI接管并摧毀人類文明的概率在10%到20%之間,雖然不是必然結(jié)局,但足以令人警惕。
至于如何應(yīng)對(duì)AI風(fēng)險(xiǎn),辛頓呼吁科技公司和政府投入更多資源進(jìn)行AI安全研究。他建議至少將三分之一的計(jì)算資源用于研究如何確保AI系統(tǒng)不會(huì)偏離人類意圖。他還批評(píng)一些大型科技公司為追求商業(yè)利益而游說放松監(jiān)管,認(rèn)為這是一種極其危險(xiǎn)的趨勢(shì)。
在技術(shù)層面,他嘗試提出新的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓(xùn)練機(jī)制。
總的來說,辛頓既是深度學(xué)習(xí)崛起的重要推動(dòng)者,也成為了重視AI安全呼聲中最具分量的聲音發(fā)出者:呼吁人類社會(huì)保持警覺,在繼續(xù)推動(dòng)AI創(chuàng)新的同時(shí),必須正視其潛在的社會(huì)風(fēng)險(xiǎn)和生存性挑戰(zhàn)。
參考資料:
WAIC直播
https://blog.biocomm.ai/2025/04/28/godfather-of-ai-has-new-warning-about-artificial-intelligence-you-should-worry-cbs-news/#:~:text=authoritarians%20more%20oppressive%20and%20hackers,what%E2%80%99s%20coming%20i%20don%E2%80%99t%20think
運(yùn)營(yíng)/排版:何晨龍
末世降臨,龍帝重生!楚寒?dāng)y前世記憶,揭秘史前遺跡,踏上巔峰之路!
今日推薦:《末世重生之龍帝》作者:天不負(fù)01。點(diǎn)擊文末超鏈接開始觀看吧~第五百八十七章韓世立的打算斷裂的建筑,對(duì)于楚寒而言,根本沒有任何的效果,借用蛛絲神戒的效用,楚寒輕易地穿過了斷裂的城墻,出現(xiàn)在了城內(nèi)|。輕輕的落到了地上之后,楚寒看著上面那偶爾細(xì)如真絲的引線,嘴角勾勒出了一絲笑容,這些建筑上, 今日推薦:《末世重生之龍帝》作者:天不負(fù)01。點(diǎn)擊文末超鏈接開始觀看吧~第三百八十四章神匠老鄭聽到楚寒的話,微微一愣,隨后臉上露出了一絲尷尬的神色,像這種統(tǒng)計(jì)的事情,他哪里知道啊,不過想了想,老鄭還是回答說道:“小兄弟,你問的這個(gè)問題,我還真不好回答,但是我可以告訴你,我們這里人很多,我等會(huì)說|-。小說:末世重生為龍帝,楚寒步步為營(yíng)踏上巔峰,揭秘史前文明真相