7月26日,2025世界人工智能大會(WAIC)在上海正式開幕。大會迎來了“AI教父”級別的重量級演講嘉賓--諾貝爾獎和圖靈獎得主杰弗里·辛頓(GeoffreyHinton)。
這是辛頓首次訪問中國并進行演講。77歲的辛頓長期受腰椎間盤疾病的困擾,身體欠佳的他幾乎無法坐飛機。谷歌團隊曾為邀請他去英國考察DeepMind團隊特地包下私人飛機,并改造了座椅。
辛頓還在WAIC開幕前一天參加了第四屆人工智能國際安全對話(InternationalDialoguesonAlSafety,IDAIS),并與20余名人工智能行業(yè)專家聯(lián)名簽署發(fā)布了《AI安全國際對話上海共識》。
在最新的演講中,他談及“數(shù)字智能是否會取代生物智能”的問題,并討論了AI可能帶來的挑戰(zhàn)與潛在的應對方法。辛頓此前已多次在公開信和演講中指出,當前AI系統(tǒng)已經(jīng)具備自主學習和演化的潛能。
辛頓指出,在過去60多年里,AI發(fā)展存在兩種不同的范式和路徑--以符號型的邏輯性范式以及以生物為基礎的范式。1985年,辛頓做了一個小模型,嘗試結合這兩種理論,以解釋人們如何理解詞匯。
“我認為,如今的大語言模型就是我當年微型語言模型的衍生?!彼硎荆八鼈兪褂酶嘣~作為輸入,采用更多層的神經(jīng)元結構,由于需要處理大量模糊數(shù)字,學習特征之間也建立了更復雜的交互模式。但和我做的小模型一樣,大語言模型理解語言的方式與人類相似--基本邏輯是將語言轉化為特征,再以完美的方式整合這些特征。因此大語言模型和人類理解語言的方式相同,也會產(chǎn)生'幻覺'。”
在談及生物智能時,辛頓表示,幾乎所有專家都認為,人類會創(chuàng)造出比人類更智能的Al?!叭祟惲晳T了作為最智能的生物,很難想象AI超越人類的場景?!彼f道,“我們創(chuàng)造的AI智能體已能幫我們完成任務,未來還會為了生存和完成目標而尋求更多控制權?!?/p>
在WAIC上,辛頓再次拿出他的經(jīng)典比喻,他表示:“人類就像撫養(yǎng)幼小的虎崽,除非你能非常確定它長大后不會傷害你,否則你就應該擔心。”
辛頓認為,這種努力應該是全球性的。但他坦言,各國不會在防御AI的危險用途上進行合作,他寄希望于國際社會在“預防AI統(tǒng)治世界”這一問題上達成一致,防止AI從人類手中奪走控制權。
“人類應當建立AI安全機構的國際社群,研究訓練AI向善的技巧。這就好比‘教導孩子成為一個好人’與‘讓他們變得更聰明’是兩碼事?!彼硎?。
辛頓提議,各國可在本國主權范圍內研究并分享成果(在允許的范圍內),全球或AI領導國家應思考建立相關網(wǎng)絡,研究如何訓練聰明的AI輔助人類而非消滅或統(tǒng)治人類?!斑@將是人類長期面臨的重要問題?!彼f道。
辛頓從80年代開始就戰(zhàn)斗在人工智能的最前線,被視為深度學習領域的教父級人物。2012年,辛頓團隊開發(fā)的算法AlexNet,采用了一種名叫卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,簡稱CNN)的算法——這是人工智能領域是個極其高頻的詞匯,也是機器學習的一個重要分支。
辛頓是極少數(shù)很早就意識到GPU對深度學習巨大價值的人。相比谷歌貓用了16000顆CPU,AlexNet只用了4顆英偉達GPU,學術界和產(chǎn)業(yè)界徹底轟動,AlexNet的論文也成為計算機科學史上最有影響力的論文之一。
近年來,辛頓的研究重心逐漸轉向AI安全問題。他認為AI的發(fā)展速度已經(jīng)遠超預期,其潛力和風險都不容忽視。2023年,辛頓離開谷歌公司后,他更加頻繁地公開發(fā)聲,表達對通用人工智能(AGI)未來影響的擔憂。
他此前曾估計,AI接管并摧毀人類文明的概率在10%至20%之間,并呼吁科技公司和政府投入更多資源進行AI安全研究。他建議,至少將三分之一的計算資源用于研究如何確保AI系統(tǒng)不會偏離人類意圖。他還批評一些大型科技公司為追求商業(yè)利益而游說放松監(jiān)管,認為這是一種極其危險的趨勢。
六首經(jīng)典港劇中的老歌,《難念的經(jīng)》上榜,最后一首原來是翻唱
平凡人生譜寫時代畫卷,《我們的日子》是有笑有淚的年度大戲
著名歌唱家拉蘇榮,去世不到一年,遺孀和兒子的堅持令人淚目
免責聲明:本文內容由開放的智能模型自動生成,僅供參考。