堅(jiān)紫雪
圖片來源:視覺中國(guó)
藍(lán)鯨新聞7月26日訊(記者朱俊熹)7月26日,2025世界人工智能大會(huì)暨人工智能全球治理高級(jí)別會(huì)議(WAIC2025)在上海拉開帷幕。本屆大會(huì)以"智能時(shí)代同球共濟(jì)"為主題,匯聚了包括12位圖靈獎(jiǎng)及諾貝爾獎(jiǎng)得主在內(nèi)的全球千余位頂尖嘉賓。隨著AI正逐步深入人類日常生活,或以各類軟件應(yīng)用的形式,或以具身智能的形態(tài),AI安全與治理也成為與會(huì)者的熱議話題。
在開幕式上,圖靈獎(jiǎng)得主、諾貝爾物理學(xué)獎(jiǎng)得主、"深度學(xué)習(xí)三巨頭"之一的杰弗里·辛頓登臺(tái)演講,大談"數(shù)字智能是否會(huì)取代生物智能?"。這位77歲的"AI教父"回顧了過去數(shù)十年間AI的發(fā)展路徑,指出人類理解語言的方式和大語言模型的方式幾乎一致,甚至可以將人類視作一種大語言模型。然而在某些方面,AI的能力將超越人類。
杰弗里·辛頓圖片來源:視覺中國(guó)
辛頓稱,一些人認(rèn)為可以關(guān)閉不聽話的AI這一想法是不現(xiàn)實(shí)的。如果AI足夠聰明,就會(huì)通過操縱人類、獲得控制權(quán)等方式來避免被關(guān)閉。"這個(gè)問題就像養(yǎng)一只小老虎當(dāng)寵物。在它還小的時(shí)候你覺得可以控制它,但等它長(zhǎng)大以后就可能失控。"
因此,辛頓建議不同國(guó)家在AI安全方面展開合作。例如建立一個(gè)由多國(guó)參與的國(guó)際AI安全研究網(wǎng)絡(luò),專注于研究如何訓(xùn)練AI向善。各個(gè)國(guó)家可以在本國(guó)進(jìn)行AI安全研究,然后共享成果,共同應(yīng)對(duì)這個(gè)"人類長(zhǎng)期面臨的最重要的議題"。
同為"深度學(xué)習(xí)三巨頭"、圖靈獎(jiǎng)得主的約書亞·本吉奧則通過視頻連接表示,如果AI變得足夠強(qiáng)大開始"自保",超級(jí)智能就可能帶來災(zāi)難性的后果,甚至導(dǎo)致人類滅絕。即使這種風(fēng)險(xiǎn)的概率很小,"只要科學(xué)界中有相當(dāng)一部分人認(rèn)為這種風(fēng)險(xiǎn)是可信的,我們就必須以極度謹(jǐn)慎的態(tài)度來對(duì)待它。"
約書亞·本吉奧建議,AI應(yīng)當(dāng)被作為一種全球公共資源來進(jìn)行管理,以避免國(guó)家間陷入危險(xiǎn)的競(jìng)爭(zhēng)陷阱。其中,一個(gè)值得借鑒的全球協(xié)作范例是由他牽頭完成的《國(guó)際人工智能安全報(bào)告》。
就在WAIC開幕前夕的7月25日,杰弗里·辛頓、約書亞·本吉奧等20余位行業(yè)頂尖專家共同簽署的《AI安全國(guó)際對(duì)話上海共識(shí)》正式對(duì)外公開。"上海共識(shí)"提出,目前尚無可靠方法確保超級(jí)AI系統(tǒng)的安全對(duì)齊,呼吁采取三項(xiàng)關(guān)鍵行動(dòng):要求前沿人工智能開發(fā)者提供安全保障、確立可驗(yàn)證的全球性行為紅線、推動(dòng)安全人工智能技術(shù)研究。
在7月26日上午的主論壇中,MiniMax創(chuàng)始人、CEO閆俊杰作為AI產(chǎn)業(yè)界的代表登臺(tái)演講。他分享了在創(chuàng)業(yè)過程中對(duì)AI的觀察,也認(rèn)同AI會(huì)不斷變強(qiáng),且這種增強(qiáng)幾乎沒有盡頭。
閆俊杰圖片來源:視覺中國(guó)
"接下來出現(xiàn)的問題是,AI這么強(qiáng),對(duì)社會(huì)的影響越來越大,那么AI到底會(huì)不會(huì)被壟斷?它是會(huì)被掌握在一家組織里,還是掌握在多家組織里呢?"閆俊杰問道。
在閆俊杰看來,AI一定會(huì)被掌握在多家公司的手中。他解釋稱,一是不同組織會(huì)有不同的價(jià)值觀和目標(biāo),導(dǎo)致它們訓(xùn)練的模型在對(duì)齊目標(biāo)上存在差異,從而使模型表現(xiàn)各具特點(diǎn)、長(zhǎng)期存在。其次,當(dāng)前的AI系統(tǒng)通常由多模型和多Agent組成,單一模型的優(yōu)勢(shì)在多Agent系統(tǒng)中逐漸減弱。第三,過去一年見證了開源模型的快速涌現(xiàn),并逐漸逼近閉源模型的性能,許多都并非由大公司主導(dǎo)的。
閆俊杰表示,AI一定會(huì)變得越來越普惠,使用成本也會(huì)變得更加可控。他觀察到,盡管過去一年半以來可使用的算力增加了,AI模型的大小并沒有發(fā)生特別大的變化。因?yàn)楦鞔髲S商都在關(guān)注模型參數(shù)量和智能水平之間的平衡,避免因計(jì)算速度過慢影響用戶體驗(yàn)。
至于這些增長(zhǎng)的算力,則更多地被用在研究、探索和推理優(yōu)化上。閆俊杰稱,研發(fā)并不僅依賴算力,還取決于實(shí)驗(yàn)設(shè)計(jì)、研發(fā)團(tuán)隊(duì)和創(chuàng)意。擁有大量算力的公司與算力較少的公司在訓(xùn)練上的差異可能沒有那么大,因?yàn)楹笳呖梢酝ㄟ^提升實(shí)驗(yàn)設(shè)計(jì)、思考能力和組織效率,讓實(shí)驗(yàn)探索變得更加高效。
作為"大模型六小龍"之一的AI創(chuàng)企,MiniMax于6月發(fā)布了其首個(gè)推理模型MiniMax-M1,被視為對(duì)標(biāo)DeepSeek-R1交出的應(yīng)答。MiniMax-M1模型延續(xù)了此前基模的架構(gòu)創(chuàng)新,在MoE架構(gòu)的基礎(chǔ)上引入了閃電注意力機(jī)制(LightningAttention)。成本方面,在進(jìn)行8萬Token的深度推理時(shí),M1所需的算力僅為DeepSeek-R1的約30%;生成10萬token時(shí),推理算力僅需DeepSeek-R1的25%。
在下午的主論壇中,清華系A(chǔ)I算力創(chuàng)企無問芯穹聯(lián)合創(chuàng)始人、首席科學(xué)家戴國(guó)浩分享稱,在突破算力天花板的過程中,算力效率會(huì)成為他們關(guān)注的事情。也就是說,從整個(gè)價(jià)值鏈條來看,輸入價(jià)值轉(zhuǎn)化為算力,并最終通過下游應(yīng)用轉(zhuǎn)化為輸出價(jià)值時(shí),關(guān)鍵在于輸出價(jià)值是否能夠超越輸入價(jià)值。
而戴國(guó)浩認(rèn)為,在算力領(lǐng)域,比起單一的"贏家通吃",最終將趨向于"集各家之所成"的合作模式。他提到,人工智能的目標(biāo)是模擬人類智能。在人類生理系統(tǒng)中,每一個(gè)細(xì)胞都在執(zhí)行不同的功能,正如每家公司在AI技術(shù)的不同領(lǐng)域也都有各自的擅長(zhǎng)之處。
來源:紅網(wǎng)
作者:宋燕玫
編輯:羽星津
本文為紅辣椒評(píng)論 原創(chuàng)文章,僅系作者個(gè)人觀點(diǎn),不代表紅網(wǎng)立場(chǎng)。轉(zhuǎn)載請(qǐng)附原文出處鏈接和本聲明。