衡宇昕祎發(fā)自凹非寺量子位|公眾號QbitAI
剛剛,就在WAIC現(xiàn)場的一個展臺,我親眼看到一只機(jī)器狗,在完全離線斷網(wǎng)的情況下,學(xué)會了一個新動作。
是一位中年男性觀眾現(xiàn)場教的。讓它先轉(zhuǎn)個圈,再立起來做了個經(jīng)典的小狗拜拜。
教完過后沒兩分鐘,狗子自己就原模原樣復(fù)現(xiàn)出來了——
沒有預(yù)定程序,沒人遙控操縱,狗子全程離線。
一扭頭,這展臺還擺著幾只靈巧手,一會兒在愉快地玩黃金礦工,一會兒又玩推箱子推得正起勁。
聽展臺工作人員說,玩兒得這么溜的靈巧手,也是純離線,全靠它本地部署模型的視覺能力,看得懂畫面,也玩得轉(zhuǎn)策略。
其實(shí)靈巧手、機(jī)器狗、機(jī)器人等是本屆WAIC不少展位吸引目光的招牌產(chǎn)品。
之所以想和大家分享剛剛的所見所聞,一方面是因?yàn)樵谡妗るx線的狀態(tài)下,這倆端側(cè)設(shè)備表現(xiàn)得實(shí)在是不錯;另一方面,是因?yàn)椴渴鹪谒鼈兩砩系哪P?,是非Transformer架構(gòu)的大模型。
展臺負(fù)責(zé)介紹的小姐妹告訴我們,背后是設(shè)備原生智能:能離線跑、會多模態(tài),還能邊用邊學(xué)。
這套體系的幕后推手,是一家成立剛滿兩年的公司——RockAI。
早在ChatGPT名動全球之前的2022年初,這家公司就開始全心押注非Transformer架構(gòu)大模型,從最底層重構(gòu)AI模型的運(yùn)行邏輯。
今年WAIC期間,RockAI創(chuàng)始人劉凡平公開表示:
目前AI的發(fā)展需要推翻兩座大山,一個是反向傳播,一個是Transformer。當(dāng)大模型具備“原生記憶”能力
在RockAI展臺上自學(xué)新動作的機(jī)器狗、會玩游戲的靈巧手,都運(yùn)行著RockAI最新推出的Yan2.0Preview大模型。
這個版本,相比初代Yan1.0的語言能力、Yan1.3的多模態(tài)理解能力,最大的突破在于它開始具備“記憶”了——引入了原生記憶模塊。
這里的“記憶”,不是對某個長度上下文的窗口限制,而是Yan2.0Preview具備了邊用邊學(xué)、可持續(xù)進(jìn)化的能力。
現(xiàn)在大家用大模型,都會遇到這樣一種情況:提的問題超出了Chatbot的訓(xùn)練數(shù)據(jù)覆蓋范圍,得到一句“很抱歉,我的知識截至于2024年x月,無法提供相關(guān)信息”,要么就是得到一頓瞎編的結(jié)果,令人頭禿。
這是傳統(tǒng)大模型“先訓(xùn)練→再部署→使用過程不能更新”導(dǎo)致的。
所以,現(xiàn)在聯(lián)網(wǎng)搜索功能幾乎成了Chatbot們的標(biāo)配。
但相比于原生記憶,聯(lián)網(wǎng)搜索、外掛記憶庫、拓展長上下文等解決方案其實(shí)沒有解決根本問題。
在這個問題上,Yan2.0Preview引入了一種訓(xùn)推同步的新機(jī)制。
訓(xùn)推同步意味著模型不再是一個凍結(jié)的產(chǎn)品,而是一個持續(xù)進(jìn)化的智能體。每一次與環(huán)境的交互,每一個新的任務(wù)場景,都能成為模型自主學(xué)習(xí)、進(jìn)化的養(yǎng)分。
要展開說這種持續(xù)學(xué)習(xí)能力的實(shí)現(xiàn),就不得不提到RockAI對Yan2.0Preview的記憶模塊設(shè)計(jì)。
其前向過程可分為記憶更新與記憶檢索兩個階段。
首先來看記憶更新階段。
這一階段,模型會判斷哪些舊知識可以被遺忘,然后再從當(dāng)前任務(wù)中提取出有價值的信息,寫入記憶模塊。
這個過程不靠外掛、不靠緩存,而是由一個專門的神經(jīng)網(wǎng)絡(luò)來模擬記憶行為來實(shí)現(xiàn)動態(tài)擦除與增量寫入,以此實(shí)現(xiàn)在保留重要?dú)v史信息的同時,靈活整合新知識。
其次是記憶檢索階段。
Yan2.0Preview設(shè)計(jì)了記憶稀疏機(jī)制,模型會從多個記憶槽中選出Top-K激活記憶,與長期共享記憶融合,生成新的輸出。
這使得模型不只是有記性,更能“帶著記性去推理”。
這些機(jī)制組合在一起,讓Yan2.0Preview完成了對記憶網(wǎng)絡(luò)有效性的初步驗(yàn)證,模型不再是靜態(tài)的大腦,而開始變成一個能生長的智能體。
用RockAI的話來說,這是邁向基于訓(xùn)推同步的自主學(xué)習(xí)的一大步。
雖然完全實(shí)現(xiàn)基于訓(xùn)推同步的自主學(xué)習(xí)在現(xiàn)在看來還是不可能之事,但這背后其實(shí)有一個非常現(xiàn)實(shí)主義的出發(fā)點(diǎn)。
早在2022年,RockAI創(chuàng)業(yè)之初就徹底放棄了Transformer架構(gòu),走一條完全不同的AI底層路徑。
原因很簡單——
RockAI專注為端側(cè)服務(wù),而Transformer架構(gòu)模型雖然在語言處理任務(wù)上表現(xiàn)出色,但它們消耗大量計(jì)算資源和內(nèi)存,推理也異常吃算力。
尤其是對于長序列輸入,Transformer的自注意力機(jī)制存在二次復(fù)雜度的計(jì)算和內(nèi)存需求,在諸如端側(cè)部署等場景中是天然的bug。
對于手機(jī)、機(jī)器人、IoT設(shè)備這些典型端側(cè)環(huán)境,資源敏感是一種常態(tài),不是一種例外。
彼時的RockAI就做出判斷:
AI要成為真正的基礎(chǔ)設(shè)施,就必須與具體設(shè)備深度融合,只有當(dāng)AI能夠在每一個終端設(shè)備上高效運(yùn)行之時,它才能真正滲透到人類生活的每一個角落。
在這樣的思路下,Yan架構(gòu)誕生了,并逐漸迭代出1.0、1.3版本,直到今天來到Y(jié)an2.0Preview版本。
需要強(qiáng)調(diào)的是,Yan2.0Preview不是一個完整的產(chǎn)品版本,它的意義更多是RockAI進(jìn)行的一次重要技術(shù)預(yù)演。
這次他們想驗(yàn)證的,不是模型能不能答題、會不會生成圖文,而是一個更本質(zhì)的問題:
AI模型,能不能像人一樣,邊用邊學(xué)、越用越聰明?
這個問題的重要性遠(yuǎn)超技術(shù)本身。
如果答案是肯定的,我們對AI的理解就該改一改,它不再是工具,而是能主動成長的智能伙伴。
基于訓(xùn)推同步的自主學(xué)習(xí)機(jī)制,將有效信息隱式地存儲到多層神經(jīng)網(wǎng)絡(luò)的權(quán)重中,這比顯性的上下文工程更加優(yōu)雅,也更接近人類大腦的工作原理。
所以,展臺上玩游戲的靈巧手和自主學(xué)習(xí)的機(jī)器狗,不能當(dāng)個逛展的樂子看,更深層次的,這能被視作是一種可能性的預(yù)告,AI或許能進(jìn)入一個全新的進(jìn)化階段。
“離線智能”讓模型直接在設(shè)備上出生和成長
最終通向AGI的路徑還在探索中,但方向是確定的:算法更簡單、算力依賴更低、數(shù)據(jù)需求更少。
RockAI表示,要讓AI真正進(jìn)入這樣的進(jìn)化階段,光靠外部功能拼裝是不夠,必須從底層架構(gòu)動刀,解決那些阻礙AI落地生長的系統(tǒng)性問題。
“Transformer架構(gòu)的模型,從一開始就注定不適合在端側(cè)設(shè)備上跑。”RockAI的CTO楊華如是說。
是不是有那么一絲絲“暴論”的味道?(doge)
但其實(shí)這句話絕不是沒有道理的歪理邪說——
ChatGPT一鳴驚人后,Transformer架構(gòu)的模型席卷行業(yè),越攀越高,在國內(nèi)外無數(shù)次被證明有效。
但眾所周知,受限于Transformer架構(gòu)本身的底層計(jì)算設(shè)計(jì),在不少場景下,它會顯得比較笨拙。
譬如在推理模型風(fēng)頭正盛的現(xiàn)在,Transformer模型一旦進(jìn)入推理階段,模型的復(fù)雜度就會伴隨輸入序列長度瘋狂增長。每多處理一個token,就要額外計(jì)算整段上下文的注意力關(guān)系。
換句話說,就算你把大模型壓得再小,只要它還是Transformer架構(gòu),上下文長度變長、任務(wù)復(fù)雜度提升,推理速度就會明顯受限,功耗也直線向上狂飆。
如此一來,在手機(jī)、機(jī)器人、IoT終端這類算力有限的設(shè)備,Transformer架構(gòu)模型就不占優(yōu)勢了。
針對這個窘境,目前業(yè)內(nèi)的主要做法,要不是端云協(xié)同,要不就是給云端模型“瘦身”,盡可能壓縮壓縮再壓縮,再擠進(jìn)端側(cè)設(shè)備里。
總而言之,現(xiàn)行主流方法的本質(zhì),仍然是在用云端的思路,來服務(wù)端側(cè)的現(xiàn)實(shí)。
但RockAI不一樣。
這家公司的辦法不是讓模型適配設(shè)備,而是讓模型直接在設(shè)備上出生和成長。
前面提到的Yan架構(gòu),就專為端側(cè)而生,RockAI表示,它的目標(biāo)是讓模型變成設(shè)備的一部分——RockAI稱之為“離線智能”。
所謂離線智能,不是簡單的“斷網(wǎng)運(yùn)行”,而是模型在本地就能完成理解、推理、甚至學(xué)習(xí)的全流程閉環(huán)系統(tǒng)。
其核心特征有三:
全程本地運(yùn)行:推理過程不依賴云端算力,模型部署在設(shè)備上,離線狀態(tài)可用。多模態(tài)理解:能處理語音、圖像、視頻等復(fù)雜輸入,具備較強(qiáng)的本地感知與交互能力。目前,Yan2.0Preview能在樹莓派上以5tokens/s的速度多模態(tài)問答。邊用邊學(xué)的可成長性:具備訓(xùn)推同步能力,用戶交互中的新信息可被寫入本地模型記憶,實(shí)現(xiàn)逐步成長。
這么一剖析,就能發(fā)現(xiàn)離線智能的與眾不同之處——
傳統(tǒng)AI是聯(lián)網(wǎng)找大腦,端云協(xié)同是遇到不會的去問云端,離線智能是只靠自己本身具備的腦子邊理解邊學(xué)習(xí)邊應(yīng)對。
RockAI表示,端側(cè)大模型不應(yīng)是縮水版的云端大模型。
端側(cè)大模型應(yīng)該是一種創(chuàng)新架構(gòu)的模型,能夠在終端設(shè)備上進(jìn)行本地私有化部署。其核心能力在于基于多模態(tài)感知實(shí)現(xiàn)自主學(xué)習(xí)與記憶,以提供個性化服務(wù)并保障數(shù)據(jù)隱私與運(yùn)行安全。
說到底,RockAI把它視為未來各類終端設(shè)備真正的大腦。
“記憶”對未來終端設(shè)備來說十分重要,是它們真正理解你、陪伴你的關(guān)鍵所在。
具備記憶能力的大模型,能持續(xù)學(xué)習(xí)用戶的習(xí)慣、環(huán)境和情緒,在保護(hù)隱私的前提下,提供更精準(zhǔn)的個性化服務(wù)。
人類一生都在邊記憶邊成長。未來設(shè)備也將借助記憶形成自己的經(jīng)驗(yàn),從而一步步變得有溫度、有判斷力,實(shí)現(xiàn)智能陪伴。
從這個角度來看,RockAI的愿景就不止步于拓展模型能力邊界了,這家公司用Yan架構(gòu)大模型押注的還有讓“記憶”成為未來設(shè)備原生端側(cè)模型的基本素養(yǎng)。
國內(nèi)非Transformer架構(gòu)模型的落地之王
更重要的是,Yan架構(gòu)并不是一場紙上談兵的重構(gòu)實(shí)驗(yàn),它已經(jīng)在真實(shí)設(shè)備中長出來了,也開始動起來了。
官方消息顯示,不用裁剪、無須量化,Yan架構(gòu)的系列大模型已經(jīng)跑通了樹莓派、驍龍6系列移動芯片、AMD和Intel的PC處理器,甚至是機(jī)器人主控芯片。
而且不僅是技術(shù)上跑起來,商業(yè)世界里也開始真正落地用起來了。
RockAI表示,與某出海品牌廠商合作的AIPC將在今年下半年正式量產(chǎn)上市,銷往海外。與此同時,該公司與其他品牌合作開發(fā)的終端設(shè)備,也正陸續(xù)進(jìn)入部署節(jié)奏。
在全球范圍內(nèi),在行業(yè)里能真正做到完全非Transformer架構(gòu)+真端側(cè)落地的公司,RockAI是極少數(shù)之一。
兩年多時間,他們用一條最不主流的路徑,走出了眼下完整的落地閉環(huán),成為國內(nèi)非Transformer架構(gòu)模型的落地之王。
但他們要走的路,并不止于讓離線智能商業(yè)落地。
我們了解到,RockAI推出的類腦激活機(jī)制、原生記憶能力、純離線部署,并不是分散的功能點(diǎn),而是通往一個更遠(yuǎn)方向的三根支柱。
這個方向就是群體智能(CollectiveIntelligence)。
在RockAI看來,群體智能是邁向AGI的關(guān)鍵路徑之一。
人類社會中,個體具備專長,協(xié)作產(chǎn)生力量,故而RockAI希望智能設(shè)備也能這樣:模型和模型之間通過神經(jīng)元遷移或任務(wù)能力同步實(shí)現(xiàn)協(xié)作,構(gòu)建出一個有組織、有分工、有反饋的模型群落。
換言之,RockAI構(gòu)想的AI未來,不是一個巨無霸式的超級中心化模型,而是無數(shù)設(shè)備小腦互聯(lián)互通,共同進(jìn)化。
這種看似激進(jìn)的思路,其實(shí)也正在被越來越明顯的技術(shù)趨勢所呼應(yīng)。
隨著效率敏感型場景的需求上升,去年開始,Transformer架構(gòu)模型正被越來越多國內(nèi)外主流科技公司關(guān)注并采納。
就連Transformer誕生地——谷歌,也在幾天前推出了全新底層架構(gòu)Mixture-of-Recursions(MoR),內(nèi)存減半,推理速度還翻倍,被不少網(wǎng)友戲稱為TransformerKiller。
可以看到,業(yè)界開始集體追問一個問題:Transformer架構(gòu),是不是走到了一個分岔點(diǎn)?
對于RockAI來說,這個問題的答案是肯定的。混合架構(gòu)的大量出現(xiàn),就是行業(yè)潛意識里對原有路線“不夠用了”的回應(yīng)。
Transformer仍在狂飆,但非Transformer們也在快速追趕。不同的是,前者在原軌道上提速,后者在開鑿一條新的鐵路。
這條路挺難的。
它要繞開一整個AI生態(tài)的技術(shù)慣性,要補(bǔ)完新架構(gòu)下的工具鏈、社區(qū)與認(rèn)知成本。
這條路也很孤獨(dú)。
當(dāng)前全球主流模型、硬件接口、訓(xùn)練范式,大多都以Transformer架構(gòu)為中心設(shè)計(jì)。
但正因如此,非Transformer架構(gòu)值得被認(rèn)真對待——在ChatGPT問世以前,GPT也在T5、BERT的光芒下顯得有些黯然。
所以RockAI相信,只要這條路解決了現(xiàn)實(shí)問題,它就有存在的意義。
如果我們把視線從“這周誰開源了新版本和“下一個基準(zhǔn)測評的排行榜”抬起來,以十年甚至三十年的長遠(yuǎn)視角去看今天,或許,真正照亮這個端云混戰(zhàn)、架構(gòu)爭鳴的AI深夜的,未必是當(dāng)下最喧嘩的那束光。
也有可能是以后成了共識之后被標(biāo)記為起點(diǎn)的星星之火。
《太子您有喜了》《一品嫡女》,2位女主,如何演繹宮斗加宅斗
蘇昭和連似月這兩位穿越女主,一位是施暴者一位是受害者,他們行為模式的改變,除了尋找一個公正的交代,同樣也是為了在殘酷的環(huán)境中生存下來__?!短幽邢擦恕贰兑黄返张穬晌慌餍愿窠厝徊煌?_。蘇昭首先考慮的是如何在這個世界立足,所以選擇了重用賢臣勵精圖治。連似月想要的是復(fù)仇,用前世受到的傷害來評判這一世的是非對錯。那么我們?nèi)绾蝸碚f完了-。 短書評:前世,她是相府嫡長女,傾盡一切助夫君登上皇位,換來的卻是剖腹奪子被囚暴室!隱忍三年,以死破局,大仇得報,含笑而終!一睜眼,回到了她十三歲未嫁這一年。嫡女歸來,這一世她絕不讓人輕她辱她賤她!殺刁奴,滅庶妹,杖繼母,戮渣男,人擋殺人,神攔殺神!她傾城容顏絕殺天下,無雙醫(yī)術(shù)令是什么——。古言宅斗文,《一品嫡女》為助夫君登上皇位,容貌盡毀,忍辱負(fù)重