智東西作者李水青王涵江宇編輯漠影
智東西7月26日報道,今天上午,2025世界人工智能大會(WAIC)在上海開幕!作為國內(nèi)最高規(guī)格的AI領域行業(yè)大會之一,WAIC2025開幕主論壇大腕云集!
77歲的杰弗里?辛頓(GeoffreyEverestHinton)頂著腰疾、不遠萬里來到現(xiàn)場,他是全球矚目的“深度學習三巨頭”之一,也是2024年諾貝爾獎得主、2018年圖靈獎得主、加拿大多倫多大學計算機科學名譽教授,本次結(jié)合其半個世紀的研究,講解了關于超級智能及數(shù)字永生的思考。
▲杰弗里?辛頓
辛頓認為,大語言模型的理解語言的方式幾乎和人類一樣,人類可能就是大語言模型。他還擔憂地發(fā)出警告,未來超級智能將很容易操縱人類,人類要避免“養(yǎng)虎為患”,因此要像幾十年前美蘇聯(lián)合預防核戰(zhàn)爭一樣,建立國際社群來預防AI操縱世界,推動AI向善。
香港科技大學校董會主席沈向洋作為主持人,與RelativitySpace執(zhí)行董事長兼CEO埃里克·施密特(EricEmersonSchmidt)圍繞“全球AI協(xié)作”在會上進行了對談。施密特指出,AI發(fā)展正進入臨界點,將是社會結(jié)構的重構力量,跨國合作要先談“AI護欄”再談合作共贏。
▲沈向洋與埃里克·施密特對話
圖靈獎得主、中國科學院院士、上海期智研究院院長姚期智也作為主持人,與上海人工智能實驗室主任、首席科學家周伯文,美國加州大學伯克利分校計算機科學杰出教授斯圖爾特?羅素(StuartRussell)、美國約翰霍普金斯大學教授吉莉安?哈德菲爾德(GillianHadfield)、蒙迪與合伙人公司總裁克雷格?蒙迪(CraigMundie)進行了對談。
姚期智圍繞“AI治理”、“AI鴻溝”等話題提出了多個關鍵問題。吉莉安?哈德菲爾德教授認為“天下沒有免費的午餐”,并指出要通過貿(mào)易結(jié)構變革以及具體的技術交易設計,來抹平AI鴻溝;有多年企業(yè)管理經(jīng)驗的克雷格?蒙迪認為,隨著用量變大,就像移動通信與手機技術一樣,大模型的使用價格將變得足夠低,使得更多產(chǎn)業(yè)和企業(yè)受益。
▲姚期智主持圓桌論壇
本次大會上,MiniMax創(chuàng)始人閆俊杰,商湯科技董事長、首席執(zhí)行官徐立,上海交通大學副教授、無問芯穹聯(lián)合創(chuàng)始人戴國浩,曦智科技創(chuàng)始人、首席執(zhí)行官沈亦晨,階躍星辰首席科學家張祥雨等多位大模型及AI芯片領域的創(chuàng)業(yè)者也出席,在上午場和下午場發(fā)表演講,作為國產(chǎn)AI創(chuàng)業(yè)力量在這場科技盛會上發(fā)聲。
一、77歲辛頓遠赴重洋:人類可能是大語言模型,警惕“養(yǎng)虎為患”
本屆WAIC不僅邀請了辛頓帶來全球視角的AI風險思考,也為本土大模型獨角獸預留了充分的展示空間。緊隨辛頓后登臺的,是MiniMax創(chuàng)始人兼首席執(zhí)行官閆俊杰,與辛頓一前一后,分別從全球治理與產(chǎn)業(yè)實踐角度,回應了關于AGI未來的不同設想。
1、諾獎得主辛頓:做AI是養(yǎng)虎為患,要確保訓練AI不要消滅人類
辛頓談道,大語言模型理解語言的方式和人類幾乎是一樣,它真的理解人類的問題。所以,人類可能就是大語言模型,也會和大語言模型一樣產(chǎn)生幻覺。但大語言模型是數(shù)字化的,遠遠優(yōu)于類似于模擬信號驅(qū)動的人類大腦。
大語言模型所需的數(shù)字計算雖然耗能巨大,但多個智能體要擁有相同的模型就能輕松交換各自學到的知識。生物計算所需能量要少得多,但在智能體之間共享知識方面差得多。辛頓提出一個關鍵問題:如果能源變得廉價,數(shù)字計算整體上更占優(yōu)勢。這對人類的未來意味著什么?
他談道,超級智能要掌控世界,會設立更好地生存和更強的權力操控兩大目標。超級智能將很容易操縱人類,從人類學的欺騙技能,并操縱負責將它關閉的人類。“我們現(xiàn)在就像養(yǎng)虎為患,小虎崽長大后可以輕易殺死人類,這不是好事。”辛頓說。
“因此,我們需要確保訓練AI不要消滅人類?!本拖駧资昵懊绹吞K聯(lián)曾合作預防核戰(zhàn)爭一樣,辛頓呼吁各個國家合作,建立一個由各國AI安全研究所與國內(nèi)研究網(wǎng)絡組成的國際社群,預防AI操縱世界,推動AI向善。
▲杰弗里?辛頓(GeoffreyEverestHinton)
2、MiniMax創(chuàng)始人、首席執(zhí)行官閆俊杰:企業(yè)用戶協(xié)同,共同實現(xiàn)AGI
閆俊杰認為,AI不僅是一種能力、一種生產(chǎn)力,更是對個人與社會能力的持續(xù)性增強。
在他看來,未來的AI產(chǎn)業(yè)必然會呈現(xiàn)多玩家共存的格局,核心原因有三:首先,大模型領域呈現(xiàn)百花齊放態(tài)勢,不同模型因側(cè)重點各異,所能解決的問題也各有千秋;其次,多Agent系統(tǒng)的興起,使得單個模型的優(yōu)勢在協(xié)同場景中不再突出;最后,開源模型數(shù)量持續(xù)增加,其性能也在不斷逼近閉源模型。
基于此,AI的普惠性將進一步提升,原因同樣有3個:模型規(guī)模的增長與芯片技術的進步保持同步,不會出現(xiàn)失衡;由于單次訓練的單詞成本相對固定,不同算力規(guī)模的企業(yè)在訓練環(huán)節(jié)的差距并不大,且未來一兩年內(nèi),頂尖模型的推理成本有望降低1-2個數(shù)量級;盡管token單價下降,但使用量的增長將形成新的平衡。
因此,閆俊杰堅信AGI(通用人工智能)必然會實現(xiàn),且這一目標需要AI企業(yè)與用戶共同推動。他強調(diào),AI至少要讓每個人都用得起,并表態(tài)愿意為這一目標長期奮斗。
▲閆俊杰
二、沈向洋對話埃里克·施密特:中美要先談“AI護欄”,再談合作共贏
在與RelativitySpace執(zhí)行董事長兼CEO埃里克·施密特的爐邊對話中,香港科技大學校董會主席沈向洋圍繞“全球AI協(xié)作”發(fā)起提問,強調(diào)AI不是某個國家或機構可以獨自應對的挑戰(zhàn),尤其是中美之間需建立更深層次的信任機制。
▲沈向洋
施密特回應指出,AI發(fā)展正進入臨界點,不僅是技術突破,更是社會結(jié)構的重構力量,尤其在AI模型能力愈發(fā)強大、泛化風險劇增的當下,治理體系亟待建立。
他特別提及當前開源技術的利與弊:“開源帶來了驚人的創(chuàng)新效率,但也加劇了擴散風險?!彼赋?,這種技術釋放與能力控制之間的矛盾,已成為全球AI治理的核心張力,必須找到新的平衡機制。
施密特進一步引用其與基辛格共同撰寫的著作《Genesis》,強調(diào)國際合作需要價值共識作為前提。他表示:“我們必須先進行對話,理解彼此的價值觀,才有可能建立起防止誤判的機制?!彼啻螐娬{(diào)“設定護欄”的必要性,認為“如何定義底線、誰來設定規(guī)則”是未來AI安全的根本問題。他警告稱,若無明確共識,AI發(fā)展可能偏離人類文明方向,帶來結(jié)構性沖擊。
“讓AI服務于所有人的生產(chǎn)力,而不是威脅社會穩(wěn)定?!笔┟芴乜偨Y(jié)道。對談最后,他與沈向洋達成共識——中美之間的AI對話,必須從“先理解、再合作”出發(fā),才能真正把技術發(fā)展引入可控、可信的軌道。
▲埃里克·施密特(EricEmersonSchmidt)
三、姚期智AI治理圓桌:貿(mào)易結(jié)構變革破解AI鴻溝,量產(chǎn)帶來AI服務普惠
姚期智(圖靈獎得主、中國科學院院士、上海期智研究院院長)與吉莉安·哈德菲爾德(約翰霍普金斯大學教授)、克雷格·蒙迪(蒙迪與合伙人公司總裁)、斯圖爾特·羅素(加州大學伯克利分校教授)和周伯文(上海人工智能實驗室主任)四人進行了對話,探討了AI與AI治理這一重要議題。
他首先從“AI鴻溝”議題切入,拋出一個問題:AI技術在快速的發(fā)展,但是更多是聚集在少數(shù)國家或公司,我們要怎么樣預防AI鴻溝,讓所有國家受益于這一場AI革命?
▲姚期智
1、約翰霍普金斯大學教授吉莉安:Transformer推動貿(mào)易結(jié)構變革,緩解AI鴻溝
吉莉安?哈德菲爾德認為,這涉及我們創(chuàng)造了AGI后怎么來分配資源的問題。她認為,Transformer這樣變革性技術,會需要真正的經(jīng)濟法律基礎設施的變革,比如貿(mào)易結(jié)構的變革。今天聽到很多人講到了開源以及開放權重,這也是很重要的一方面,也就是確保全球各國能夠從AI革命當中受益。
作為一個經(jīng)濟學學者,吉莉安認為“天下沒有免費的午餐”。我們不可能憑空就生成大模型這樣的技術,所以必須要認真思考,怎么樣設計好這種交易,思考到底模型歸誰所有,誰能夠接入模型并使用,讓不同國家能夠產(chǎn)生模型。另外我們還需要確保這些科技是安全的,然后才能夠把它們拿來大范圍使用。
▲吉莉安?哈德菲爾德(GillianHadfield)
2、蒙迪與合伙人公司總裁蒙迪:模型訓練會更昂貴,服務會越來越便宜
AI鴻溝也不僅是國家間的競爭的問題,它有可能會存在于一個國家內(nèi)部的不同產(chǎn)業(yè)、企業(yè)以及人群。
克雷格?蒙迪過去幾十年都在軟件領域工作,通過觀察軟件演進的過程,他發(fā)現(xiàn)每一次計算機的能量產(chǎn)生大提升之后,軟件都變得更復雜,但用戶體驗會更容易。他認為,今天我們進入到智能機器階段后,會繼續(xù)看到這個趨勢,并且隨著用量變大,技術成本進一步下降,能力變強。造模型肯定會越來越昂貴,但是獲得它的服務會越來越便宜。
訓練模型所需的治理和能源成本都很大,但一旦模型訓練好之后,把模型封裝成大家能使用的設備,這是比較容易的。全球企業(yè)都會進一步推動這些技術的進步和推廣普及,無論是為了教育還是商業(yè)的目的,每個人都將能夠獲得這個技術的使用,沒有理由不是這樣的。
▲克雷格?蒙迪(CraigMundie)
3、美國加州大學伯克利分校教授羅素:AGI競速毫無意義,有效監(jiān)管減低AI失控率
在人類如何應對AI鴻溝和AI失控的問題上,斯圖爾特?羅素尖銳地提出,當前AI公司及各國、各地區(qū)間正陷入一場競賽——比拼誰能率先研發(fā)出AGI(通用人工智能),但在他看來,這種競賽毫無意義。
他認為,AGI的實現(xiàn)需要依托無限的財富創(chuàng)造能力,而AI理應成為全球共享的公共資源。唯有如此,競賽帶來的緊張感才能消散,因為這類競賽必然會催生極端性風險。
此外,斯圖爾特?羅素還談及有效監(jiān)管的重要性。在他看來,有效監(jiān)管的核心在于確保合規(guī)性,同時將風險控制在足夠低的水平。但目前,有效的監(jiān)管機制尚未建立起來。正如辛頓教授所警示的,AGI存在失控并掌控人類的可能性。而通過有效監(jiān)管,能夠?qū)ζ涫Э馗怕蔬M行預測與計算,經(jīng)過長期的累計觀察,得出客觀的風險概率,從而讓AGI變得更加安全。
▲斯圖爾特?羅素
4、上海AI實驗室主任周伯文:AI發(fā)展與安全同等重要,必須建立全球治理體系
周伯文從技術、應用以及治理三方面討論了跨國數(shù)字合作相關問題。
周伯文認為,AI的發(fā)展與安全同等重要。去年同期,他的團隊提出了AI45°平衡率的概念,其核心是要探索發(fā)展與安全并行的技術研究路徑。在這一框架下,其與全球研究者達成共識:要真正實現(xiàn)安全,就必須開展“MakeSafeAI”相關工作。
在應用層面,去年,上海借助以上海人工智能實驗室公共氣象模型等AI技術,比物理模型提前3天預測到臺風登陸,且將登陸點誤差縮小至10公里。這一成果受到許多南方國家的關注,目前,在國家氣候特使辦公室和國家氣象局的指導下,周伯文正推動與這些南方國家的對接工作。
最后,他提到,去年,中國首創(chuàng)的全球人工智能合作治理協(xié)議在聯(lián)合國大會上表決通過,這體現(xiàn)了中國在人工智能治理領域的全球引領作用。
▲周伯文
結(jié)語:AGI走到關鍵路口,大模型要發(fā)展也要安全
從發(fā)布“養(yǎng)虎為患”警告的辛頓,到提出“護欄先行”的施密特,再到對AI鴻溝深感憂慮的姚期智,這場多國、多學科交匯的思想碰撞,呈現(xiàn)出AI發(fā)展與治理問題的多面。
一個共識正在浮現(xiàn):技術已無法獨善其身。大模型能力突破與開源擴散同步,意味著AI的力量已從科研走向國家戰(zhàn)略層面。未來數(shù)年,全球?qū)⒉坏貌幻鎸θ筇魬?zhàn):一是如何避免AI落入少數(shù)掌控、加劇數(shù)字不平等;二是如何在創(chuàng)新與安全之間建立動態(tài)平衡;三是如何構建跨文化、跨制度的全球AI治理機制。
不只是“技術的護欄”,也不只是“國家的對話”。正如沈向洋所說:“AI不是一個國家能獨自解決的事?!备鲊g的技術合作、價值對話與制度共建,將共同決定AI是否能真正服務于全人類的未來。
大學生如何玩游戲-掙錢篇
末日進化手游:細節(jié)鑄就真實廢土 策略豐富玩法多樣??小昕君聊游戲
養(yǎng)兵千日用兵一時!末日進化手游里的這些時候就不要省兵了!