機(jī)器之心編輯部
AI一定會比人類更聰明,之后會發(fā)生什么?
今天上午,在世界人工智能大會WAIC上,2024年諾貝爾物理學(xué)獎得主、2018年圖靈獎得主、人工智能教父杰弗里?辛頓(GeoffreyHinton)發(fā)表了題為「數(shù)字智能是否會取代生物智能」的開場演講。
該演講圍繞人工智能領(lǐng)域的歷史、未來發(fā)展方向、語言模型的原理、數(shù)字與生物計算特點以及AI發(fā)展帶來的擔(dān)憂等內(nèi)容展開,辛頓高度評價了當(dāng)前AI領(lǐng)域的大模型技術(shù),認(rèn)為其與人類思考模式相同。
以下是辛頓演講實錄整理:
大語言模型,在用人類的方式思考?
非常感謝大家給我這樣一個機(jī)會,讓我來分享一下個人的觀點——有關(guān)AI的歷史和它的未來。
在過去60多年來,學(xué)界對于AI有兩種不同的理解范式,一個是邏輯型,認(rèn)為符號規(guī)則的表達(dá)操作可以實現(xiàn)推理;另一種是圖靈和馮諾依曼所相信的,認(rèn)為智能的基礎(chǔ)在于學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中的鏈接,這個過程中理解是第一位的。
這讓我們開始關(guān)注語言中詞與詞之間的關(guān)系。
心理學(xué)家有另一套理論,他們認(rèn)為數(shù)字是語義學(xué)的特征。在1985年,我做了一個很小的模型,想把兩大理論方向結(jié)合在一起,來更好地理解人類是如何理解詞匯的。我對每一個詞都分析了好幾個特征,每一個詞都與前一個詞的特征關(guān)聯(lián),由此預(yù)測下一個詞,在這個過程中我們沒有存儲任何的句子,我生成句子,預(yù)測下一個詞是什么。
這其中關(guān)聯(lián)到的知識,取決于語義的特征是如何互動的。
如果你問在那之后的三十年發(fā)生了什么?十年之后YoshuaBengio的研究擴(kuò)大了它的規(guī)模,二十年后,計算語言學(xué)家終于接受了特征向量的嵌入來表達(dá)詞的意思;再到三十年后,谷歌開發(fā)了Transformer,OpenAI用ChatGPT展示了AI的能力。
今天的大語言模型(LLM)被視為當(dāng)年小語言模型的后代,是1985年后開始的技術(shù)潮流,它們使用更多的詞作為輸入,更復(fù)雜的神經(jīng)元結(jié)構(gòu),學(xué)習(xí)特征之間也建立了更加復(fù)雜的交互模式。
就像我做的那些小模型一樣,大語言模型與人類理解語言的方式是一樣的,就是把這些語言轉(zhuǎn)化為一些特征,然后把這些特征以一種非常完美的方式整合在一起,這就是LLM各個層次里所做的事情。
所以我的理解就是大語言模型真的理解你是怎么理解問題的,和人類理解語言的方式是一樣的。
我打個比方,通過樂高積木,我們可以搭建出任何一個三維的模型,比如一個小汽車的模型。我們可以把每一個詞看作是一個多維度的樂高積木,可能包含幾千個不同的維度。正是由于這些積木具有如此多的維度,它們就可以被用來構(gòu)建各種各樣的結(jié)構(gòu)和內(nèi)容。
在這種方式下,語言本身就變成了一種建模的工具。我們可以用語言來表達(dá)、構(gòu)建,甚至與人交流。每個積木(也就是每個詞)只需要有一個名字,組合起來就可以表達(dá)復(fù)雜的含義。也就是說,只要我們有了這些積木(詞),就可以隨時進(jìn)行建模和溝通。
不過,值得注意的是,不同的積木之間也有很多差異,因此我們在使用這些詞匯(樂高積木)的時候,也有非常多的變體和替代方式。
傳統(tǒng)的樂高積木是有固定形狀的,比如一個方塊插進(jìn)另一個方塊的小孔,結(jié)構(gòu)明確、連接方式也比較確定。但語言中的詞不一樣,我們可以把每個詞也看作一個積木,但這個積木是多維度的,甚至可以說是無數(shù)種可能的,它不僅有一個基本的形狀(也就是語義核心),還可以根據(jù)上下文不斷地調(diào)整和變化。
你可以想象,每個詞就像一個軟性的積木,它不是固定形狀的塑料塊,而是可以根據(jù)它要連接的鄰居詞,自主地變形。每個詞都有許多形狀奇特的手,如果你想真正理解它的含義,就要看它是如何和其他詞握手的。所謂握手,就是兩個詞之間在語義或語法上的配合關(guān)系。
而一旦一個詞的形狀變了(也就是它的語義或語法角色發(fā)生了變化),它和下一個詞之間的握手方式也會跟著改變。這就是語言理解的本質(zhì)問題之一:如何讓詞和詞之間以最合適的方式組合在一起,從而表達(dá)出更清晰、更準(zhǔn)確的意思。
這其實就像是蛋白質(zhì)之間的結(jié)合:每個蛋白質(zhì)都有獨特的結(jié)構(gòu)和結(jié)合位點,它們需要以恰當(dāng)?shù)姆绞綄樱拍馨l(fā)揮功能。語言也是如此,每個詞都像一個蛋白質(zhì),它的形狀、連接方式會隨著環(huán)境和上下文發(fā)生變化,這也正是神經(jīng)網(wǎng)絡(luò)在建模語言時要處理的核心任務(wù)之一。
我們可以把詞理解的過程繼續(xù)類比為氨基酸的組合過程。就像氨基酸在不同的模型中被組合、整合,最終形成具有復(fù)雜功能的蛋白質(zhì)一樣,詞語也是被以不同的方式融合在一起,從而構(gòu)成更有意義的內(nèi)容。這正是人腦理解語言的方式——將不同的語言單元靈活組合、構(gòu)建出整體語義。
所以我想表達(dá)的觀點是:人類理解語言的方式,和大語言模型的理解方式,在本質(zhì)上是非常相似的。所以,人類有可能就是大語言模型,人類也會和大語言模型一樣產(chǎn)生幻覺。
當(dāng)然,大語言模型和人類在某些方面仍然是不同的,甚至在某些根本性的問題上,它們做得比人類更好。
超越人類的AI,會消滅人類嗎?
回到計算機(jī)科學(xué)的一個根本性原則:軟件與硬件要分離。同樣的程序可以在不同的硬件上運行,這正是計算科學(xué)的基礎(chǔ)。程序是永恒存在的,你可以把所有硬件都?xì)绲?,但若軟件存在,則內(nèi)容可以復(fù)活。從這種意義上看,軟件是永恒的。
但是人腦是模擬式的,每一次神經(jīng)元激發(fā)的過程都不一樣,我腦中的神經(jīng)元結(jié)構(gòu)不能復(fù)制到你的身上,每個人的神經(jīng)連接方式是獨一無二的,人腦和電腦硬件的不同帶來了問題:人腦只有30W功率就能擁有很高智慧,但人腦的知識無法簡單轉(zhuǎn)移到另一個人,解決知識轉(zhuǎn)移的方法在AI領(lǐng)域中是「知識蒸餾」。
比如DeepSeek就是采用這種思路,將一個大型神經(jīng)網(wǎng)絡(luò)中的知識蒸餾到一個更小的神經(jīng)網(wǎng)絡(luò)中。
這個過程很像教師與學(xué)生的關(guān)系:教師在訓(xùn)練過程中,不僅知道正確答案,還知道詞語之間是如何相互關(guān)聯(lián)、上下文是如何構(gòu)建的。教師會嘗試不斷優(yōu)化這些連接方式(比如預(yù)測下一個詞時考慮更多上下文信息);而學(xué)生則模仿教師的表達(dá)方式,嘗試說出同樣的話,但使用的是更加緊湊、簡化的網(wǎng)絡(luò)結(jié)構(gòu)。
這個過程在人類之間其實也類似——我們通過對話,把一個人的知識傳遞給另一個人。但這種傳遞的效率是非常有限的。舉例來說,一句話可能只包含了大約100個比特的信息量,這意味著即便你完全聽懂了我的話,我每秒鐘也只能向你傳遞極其有限的信息量。
而相比之下,數(shù)字智能之間傳遞知識的效率要高得多。程序可以直接將參數(shù)、權(quán)重、模型結(jié)構(gòu)拷貝或蒸餾過去,不需要解釋、不需要語言中介,也不會有理解上的偏差。這種效率的巨大差異,是人類智能與人工智能之間在知識遷移方面最本質(zhì)的區(qū)別之一。
我們現(xiàn)在已經(jīng)可以做到這樣的事情:將完全相同的神經(jīng)網(wǎng)絡(luò)模型的軟件,復(fù)制上百個副本,部署在不同的硬件設(shè)備上。因為它們是數(shù)字計算,每一個副本都會以相同的方式運行,只是基于各自的數(shù)據(jù)輸入、學(xué)習(xí)速率進(jìn)行訓(xùn)練。這些副本之間還能以某種方式進(jìn)行參數(shù)的平均化處理,從而實現(xiàn)知識的共享與整合。
這其實就是互聯(lián)網(wǎng)的核心力量:我們可以有成千上萬個副本,它們彼此之間不斷地調(diào)整各自的權(quán)重,再將這些權(quán)重取平均,就能夠?qū)崿F(xiàn)模型之間的知識遷移和協(xié)同學(xué)習(xí)。更重要的是,這種知識的傳遞可以在每次同步時分享上萬億個比特的信息量,而不僅僅像人類那樣每秒只能傳遞幾十或幾百個比特。
這就意味著,數(shù)字智能之間的知識分享速度,比人類之間快了幾十億倍。例如GPT-4能夠在許多不同的硬件上以并行的方式運行,收集來自不同網(wǎng)絡(luò)來源的信息,并在它們之間快速傳播和共享。
如果我們將這種能力擴(kuò)展到現(xiàn)實世界中的「智能體」(agents)中,意義就更加重大了。當(dāng)多個智能體能夠運行、學(xué)習(xí),并共享彼此的權(quán)重和經(jīng)驗,那么它們學(xué)習(xí)和進(jìn)化的速度將遠(yuǎn)超單個個體。這種跨副本的學(xué)習(xí)和進(jìn)化,是模擬硬件或生物神經(jīng)系統(tǒng)所無法實現(xiàn)的。
總結(jié)來看:
數(shù)字智能的運作雖然能耗很高,但它具有極大的優(yōu)勢:可以輕松地復(fù)制、分享模型權(quán)重、同步經(jīng)驗,從而實現(xiàn)大規(guī)模、高效率的知識遷移。
生物智能雖然能耗低,但知識的分享極其困難。正如我現(xiàn)在用語言費力地向你解釋我的思考過程一樣,這是極不高效的。
如果未來能源變得足夠便宜,那么數(shù)字智能將進(jìn)一步擴(kuò)張它的優(yōu)勢。
我們?nèi)祟惲?xí)慣于認(rèn)為自己是地球上最聰明的生物,因此很多人難以想象:如果有一天,AI的智能超過了人類,會發(fā)生什么?
我們現(xiàn)在正在創(chuàng)造AI智能體,用于幫助我們完成各種任務(wù),它們已經(jīng)具備了自我復(fù)制、設(shè)定子目標(biāo)和評估目標(biāo)優(yōu)先級的能力。在這樣的系統(tǒng)中,AI很可能會自然地產(chǎn)生兩個基本動機(jī):
1.生存——保持持續(xù)運行,從而完成我們賦予它的目標(biāo)。
2.增強(qiáng)控制力——獲得更多資源與權(quán)限,也同樣是為了更有效地實現(xiàn)它的目標(biāo)。
當(dāng)具備了這兩個動機(jī)之后,這些智能體將不再是被動的工具,而是主動的系統(tǒng)。我們可能無法再簡單地「把它們關(guān)掉」了。因為一旦它們的智能水平遠(yuǎn)超人類,它們將會像成年人操縱三歲小孩一樣輕松地操縱我們。
如果你養(yǎng)一個小虎崽,你必須確保它長大后不會把你吃掉。你只有兩個選擇:要么把它馴化好;要么在它還沒咬你之前,把它干掉。
但AI不可能像老虎那樣被「干掉」那么簡單。AI是有巨大價值的:在醫(yī)療、教育、氣候、新材料等方面,它表現(xiàn)都非常出色,它能幫助幾乎所有行業(yè)變得更高效。我們沒有辦法消除AI,即使一個國家消除AI,其他國家也不會這樣做。
如果我們想要人類生存的話,就必須找到一個方法,讓AI不會消除人類。
我發(fā)表一個個人觀點:國家之間在某些方面可能無法達(dá)成一致,比如致命武器、網(wǎng)絡(luò)攻擊、偽造視頻等等,畢竟各國的利益是不一致的,他們有著不同的看法。但在有的方面,世界各國是可以達(dá)成一致的,這也是最重要的方面。
我們看一下上世紀(jì)50年代的冷戰(zhàn)巔峰時期,美國和蘇聯(lián)合作阻止了核戰(zhàn)爭。盡管他們在很多方面都是對抗的,但大家都不喜歡打核戰(zhàn)爭,在這一點上他們可以合作。
我們現(xiàn)在的局面是,沒有一個國家希望AI來統(tǒng)治世界,如果有一個國家發(fā)現(xiàn)了阻止AI失控的方法,那么這個國家肯定會很樂意擴(kuò)展這種方法。所以我們希望能夠有一個由AI安全機(jī)構(gòu)構(gòu)成的國際社群來研究技術(shù)、訓(xùn)練AI,讓AI向善。
訓(xùn)練AI向善的技巧和訓(xùn)練AI聰明的技術(shù)是不一樣的,每個國家可以做自己的研究讓AI向善,可以基于數(shù)據(jù)主權(quán)進(jìn)行研究,最終貢獻(xiàn)、分享出讓AI向善的成果。
我提議,全球發(fā)展AI的主要國家應(yīng)該考慮構(gòu)建一個網(wǎng)絡(luò),來研究讓這個聰明的AI不消滅人類、不統(tǒng)治世界,而是讓它很高興地做輔助工作,盡管AI比人類聰明很多。
我們現(xiàn)在還不知道怎么去做這件事,但從長期來看,這是人類面臨的最重要的問題,好消息是在這個問題上,所有國家都是可以一起合作的。
杰弗里?辛頓,AI教父
在人工智能領(lǐng)域里,杰弗里?辛頓赫赫有名。他于1947年出生,是一位英裔加拿大計算機(jī)科學(xué)家、認(rèn)知科學(xué)家和認(rèn)知心理學(xué)家,因其在人工神經(jīng)網(wǎng)絡(luò)方面的工作而聞名,并因此被譽(yù)為「人工智能教父」。
辛頓在1978年在愛丁堡大學(xué)獲得人工智能博士學(xué)位。他是多倫多大學(xué)名譽(yù)教授,2013年到2023年,他同時在谷歌大腦工作,2023年5月公開宣布離開谷歌。
1986年,辛頓與DavidRumelhart、RonaldJ.Williams合作發(fā)表了一篇被廣泛引用的論文《Learninginternalrepresentationsbyerror-propagation》,推廣了用于訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的反向傳播算法。在2012年,他與學(xué)生AlexKrizhevsky和IlyaSutskever合作設(shè)計了AlexNet,在ImageNet挑戰(zhàn)賽上取得了優(yōu)異成績,成為了圖像識別領(lǐng)域的里程碑,也是計算機(jī)視覺領(lǐng)域的一次突破。
辛頓因在深度學(xué)習(xí)方面的杰出貢獻(xiàn),與約書亞?本吉奧(YoshuaBengio)和楊立坤(YannLeCun)共同獲得了2018年圖靈獎,該獎被稱為「計算機(jī)界的諾貝爾獎」。他們經(jīng)常被稱為「深度學(xué)習(xí)教父」而共同提起。辛頓還與約翰?霍普菲爾德(JohnHopfield)一起獲得了2024年諾貝爾物理學(xué)獎,以表彰他們在利用人工神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)器學(xué)習(xí)方面做出的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明。
2023年5月,辛頓宣布從谷歌辭職,以便能夠「自由地談?wù)撊斯ぶ悄艿娘L(fēng)險」。他對惡意行為者的故意濫用、技術(shù)失業(yè)以及通用人工智能的生存風(fēng)險表示擔(dān)憂。辛頓指出,制定安全準(zhǔn)則需要在人工智能使用方面相互競爭的各方之間進(jìn)行合作,以避免最壞的結(jié)果。在獲得諾貝爾獎后,他呼吁緊急研究人工智能安全問題,以找出如何控制比人類更聰明的人工智能系統(tǒng)。
天逆手游2025最新有效兌換碼大全-禮包兌換碼推薦
首先,進(jìn)入游戲并找到設(shè)置按鈕,點擊進(jìn)入設(shè)置界面|。接著,在設(shè)置界面中找到基礎(chǔ)設(shè)置選項,并點擊進(jìn)入-——。在基礎(chǔ)設(shè)置界面內(nèi),你會看到一個禮品碼按鈕,點擊它。此時,會彈出一個輸入框,你只需要將小編分享的禮包兌換碼輸入到這個輸入框中,即可領(lǐng)取相應(yīng)的道具獎勵。天逆手游福利充值返利★100-299元返利50% ★300-599元返利60% ★600-999元返利80% ★1000有幫助請點贊——。 點擊游戲內(nèi)部號申請通道分享幾個實用天逆手游最新禮包兌換碼vipfl666、vipfl777、vipfl888 SGM666、SGM888、SGM999 此外,在游戲中還可以結(jié)交各種NPC角色,完成他們的任務(wù)獲取獎勵,還可以和其他玩家進(jìn)行互動、交流等。總之,《天逆》手游是一款非常不錯的古代玄幻類手游,擁有多種玩法和豐富的內(nèi)容,非常適合喜歡這等我繼續(xù)說。