【文/觀察者網(wǎng)林琛力】調(diào)制雞尾酒、搬運零件箱、中醫(yī)手法按摩……在7月26日至29日舉行的2025年世界人工智能大會(WAIC2025)現(xiàn)場,各家的機器人紛紛進行“才藝展示”。
具身智能作為今年大會的重點展示區(qū)域之一,引發(fā)了參展觀眾的極高熱情。在大會的H3展廳,可以看到不少觀眾排隊與各類機器人進行互動,智元機器人、宇樹科技等高人氣展臺更是被圍得水泄不通。
宇數(shù)G1格斗機器人的擂臺賽節(jié)目引發(fā)大量觀眾圍觀。觀察者網(wǎng)
據(jù)主辦方透露,今年大會的前沿展品包括60余款智能機器人,有超150臺人形機器人同臺“出道”,這也是國內(nèi)人形機器人有史以來最大規(guī)模的亮相。
相較于往年大會中機器人企業(yè)在性能方面的“秀肌肉”,具身機器人的各類落地應(yīng)用場景的展示成為了本屆大會的一大亮點,從“實驗室”走向“應(yīng)用場”,機器人的落地應(yīng)用圖景正在展開。
從調(diào)酒師到搬運工,人形機器人大放異彩
如何將具身機器人應(yīng)用在民生服務(wù)領(lǐng)域,是不少企業(yè)正在探索的新方向。在本次大會上,擎朗智能延續(xù)“為服務(wù)而生”的設(shè)計理念,帶來了新款雙足人形服務(wù)機器人XMAN-F1,并展示了醫(yī)療和餐飲兩大具體應(yīng)用場景。
在展臺上,XMAN化身成了不同崗位的服務(wù)人員與觀眾互動。作為調(diào)酒師,XMAN可以準確識別觀眾的訂單內(nèi)容,并精準模擬服務(wù)人員動作邏輯與姿態(tài),完成識別酒瓶、傾倒冰塊與混合酒水飲料的動作。作為小賣部經(jīng)理和藥房助手時,它也能給客戶鏟上一桶爆米花,或完成藥品的挑選分揀工作。
擎朗機器人XMAN-F1在WAIC中央展區(qū)首秀擎朗智能
擎朗機器人XMAN-R1在自主展區(qū)為觀眾手鏟爆米花、調(diào)制雞尾酒。觀察者網(wǎng)
據(jù)擎朗工作人員介紹,擎朗推出XMAN系列人形服務(wù)機器人,旨在與其它形態(tài)的機器人進行協(xié)同,通過將餐飲、醫(yī)療等商業(yè)服務(wù)場景拆解為獨立的工作模塊,對應(yīng)具有明確工作邊界和職責(zé)范圍的單一標準化崗位,建立“機器人-崗位”的精準對應(yīng)關(guān)系,在商業(yè)環(huán)境形成機器人能力的閉環(huán)。
例如,在餐廳中,XMAN可以獨立完成取酒、倒酒、放置托盤等配餐動作,并通過機器間任務(wù)調(diào)度,將餐品交接給專門的配送機器人按最優(yōu)路徑送餐,并在最后完成桌面清理任務(wù)。
擎朗工作人員表示,未來擎朗將根據(jù)不同商業(yè)需求提供量身定制的多形態(tài)具身服務(wù)機器人解決方案,以崗位化分配任務(wù)環(huán)節(jié),以應(yīng)對服務(wù)場景內(nèi)的更多需求。
銀河通用在本次展會則帶來了當家產(chǎn)品Galbot,展現(xiàn)了在零售、工業(yè)、物流等多維領(lǐng)域的落地場景。
在企業(yè)自主展區(qū),銀河通用搭建了1:1還原的真實商超場景,由Galbot進行全天候值守,在自主推理、零遙操的情況下為觀眾從貨架上精準取送商品。
現(xiàn)場工作人員介紹,Galbot能穩(wěn)定完成復(fù)雜任務(wù)的核心是背后的端到端具身大模型GroceryVLA。該模型突破傳統(tǒng)“視覺+軌跡規(guī)劃”分離設(shè)計,能夠在幾乎無空隙、貨架緊密且SKU眾多的真實場景中自主識別商品并穩(wěn)定抓取,無需路徑規(guī)劃即可靈活高效操作,標志著端到端大模型驅(qū)動的閉環(huán)控制已具備商用能力。
據(jù)了解,所謂端到端的VLA模型,指的是視覺-語言-動作模型,可模擬人類“看—想—動”的連續(xù)過程,直接將大腦信號轉(zhuǎn)化為機器人動作,擁有更高的場景推理能力與泛化能力。這一前沿領(lǐng)域正吸引全球科技公司加大投入與迭代。
銀河通用Galbot正把從貨架上抓取的飲料遞給觀眾。觀察者網(wǎng)
此外,在工業(yè)、物流料箱轉(zhuǎn)運作業(yè)中,Galbot能完全依靠視覺感知,自主識別箱體位置與形態(tài),并智能規(guī)劃搬運動作。它能靈活地先用一只手拉開堆疊間隙,再用雙手協(xié)同搬運,展現(xiàn)出高度自主的動作規(guī)劃與執(zhí)行能力。據(jù)悉,在與極氪汽車工廠的合作中,Galbot的搬箱效率已達到與人類工人相當?shù)乃健?/p>
在工業(yè)領(lǐng)域的汽車零件分揀工作中,Galbot也展現(xiàn)了精準識別和抓取目標工件,分辨近似零件,避免誤抓等功能,在深筐作業(yè)時實現(xiàn)了自主避障,完成智能化操作。即使面對人為搗亂,如調(diào)換工件筐位置或故意弄亂工件,Galbot依然能夠快速定位正確工件,實現(xiàn)靈活應(yīng)對和自我校正。
銀河通用Galbot展示在工業(yè)場景中搬運貨箱、零件分揀等工作。觀察者網(wǎng)
“一腦多形”變成現(xiàn)實,具身智能內(nèi)涵豐富
除了人形具身機器人以外,多種非完全人形的機器人也在本次展會亮相,體現(xiàn)了“一腦多形”的通用具身大腦正從想象變?yōu)楝F(xiàn)實。這些形態(tài)各異的機器人,通過共享先進的VLA具身智能模型,同樣能實現(xiàn)高效、精準的作業(yè)。
在非夕科技的展臺,不少觀眾體驗了機器人中醫(yī)按摩服務(wù)。據(jù)介紹,這套機器人按摩設(shè)備與數(shù)采系統(tǒng)相結(jié)合,依托自適應(yīng)機器人遙操作應(yīng)用,可精準采集指柔、指撥、掌揉等專業(yè)按摩手法數(shù)據(jù),打通按摩手法從“經(jīng)驗表達”到“數(shù)據(jù)驅(qū)動”的路徑,實現(xiàn)“人類技藝”向“機器現(xiàn)實”的無縫遷移,為后續(xù)模型訓(xùn)練和智能復(fù)現(xiàn)提供具身數(shù)據(jù)基礎(chǔ)。
現(xiàn)場工作人員表示,該系統(tǒng)解決了重要的按摩數(shù)據(jù)前端來源問題,能夠滿足醫(yī)生的診療需求,不少醫(yī)院的客戶在體驗過后對此非常滿意,目前一套機械臂設(shè)備的價格在24萬元左右,將在今年9月落地第一個項目。
“機械臂的應(yīng)用場景其實非常廣泛,通過廣泛的數(shù)據(jù)采集和模型訓(xùn)練后,未來可以形成一個標準化的平臺,不只可以應(yīng)用于醫(yī)療,也可以用于危化品處理、軍工等各個行業(yè)。”非夕工作人員說道。
現(xiàn)場觀眾正在體驗非夕科技的機械臂按摩。觀察者網(wǎng)
在WAIC的中央展區(qū),非夕的雙臂機器人則給觀眾們串起了關(guān)東煮串串,可在觀眾挑選關(guān)東煮種類后智能識別原料種類,實現(xiàn)自動抓取、智能穿串、精準加熱及柔性交付。
據(jù)悉,這套“具身智能+食品工業(yè)”示范系統(tǒng)由智能食品加工方案供應(yīng)商希夕智能聯(lián)合非夕、穹徹共同開發(fā),集智能識別、靈巧操作與人機交互于一體。
非夕雙臂機器人正在進行串關(guān)東煮工作。觀察者網(wǎng)
就在非夕關(guān)東煮攤位的隔壁,云百生的手術(shù)機器人正在一絲不茍地剝著鵪鶉蛋的蛋殼,并實現(xiàn)將蛋殼碎片完整取下,而內(nèi)層蛋膜毫發(fā)無傷,引來觀眾們的紛紛贊嘆。
現(xiàn)場工作人員表示,在告訴機器人需要剝哪塊蛋殼后,機器人可自主逐塊完成剝?nèi)」ぷ鳎珹I視覺系統(tǒng)能夠自動分析出蛋殼的變形以及破碎情況,再不斷更新剝?nèi)》桨浮?/p>
據(jù)介紹,這臺由云百生研發(fā)的全自主機器人,能實現(xiàn)微米級精度的操作,可輔助醫(yī)生完成高難度手術(shù)操作,極大降低手術(shù)難度。
云百生機器人正在完成鵪鶉蛋殼剝?nèi)」ぷ?。觀察者網(wǎng)
大模型深度賦能,“大腦與小腦”得到進化
各類型機器人在不同應(yīng)用場景之所以能發(fā)光發(fā)熱,得益于大模型的深度賦能。目前,大模型技術(shù)已全面進入機器人的“大腦”(決策)和“小腦”(控制)。如何開發(fā)適用于不同落地場景的大模型,或成為接下來具身機器人發(fā)展的重點方向。
在“WAIC里技能大舞臺”的智造車間區(qū)域,國地中心研發(fā)的“青龍”機器人正身著工作服,有序地進行自動化物料分揀作業(yè)。它的核心正是基于600萬真機數(shù)據(jù)和VLA預(yù)訓(xùn)練,形成的2.8B操作大模型。
國地中心研發(fā)的“青龍”機器人正在進行物料分揀作業(yè)。觀察者網(wǎng)
上核管孔清理機器人也在該展區(qū)亮相,該機器人由上海電氣中央研究院與國地中心聯(lián)合研發(fā),它可以在管板直徑達5米,兩萬多個管孔中完成清潔工作,高效解決了勞動工人長時間彎腰重復(fù)作業(yè)的問題。
現(xiàn)場工作人員介紹,面向此類人形機器人高精度雙手協(xié)同作業(yè)場景,上海電氣中央研究院與國地中心聯(lián)合攻關(guān),攻克了具身數(shù)據(jù)標準化采集、精密視覺定位技術(shù)、靈巧操作與抓取技術(shù)、多模態(tài)感知與柔順控制技術(shù)等難題。
上核管孔清理機器人正在演示核電裝備管板孔的清理操作。觀察者網(wǎng)
據(jù)悉,國地中心和浦江實驗室團隊預(yù)計年底前將完成2500萬整機數(shù)據(jù)積累,規(guī)模達谷歌同類數(shù)據(jù)集的10倍。通過擴大數(shù)據(jù)規(guī)模,顯著提升了機器人的泛化能力和涌現(xiàn)能力,使其能夠基本滿足核電、汽車、3C等復(fù)雜工業(yè)場景的作業(yè)要求。
在本次展會上,靈初智能則著重展示了在自研的VLA模型支持下,其機器人在長程、靈巧能力上的突破。
靈初智能麻將機器人與現(xiàn)場觀眾同桌博弈的場景吸引了眾多參觀者圍觀。機器人可與現(xiàn)場觀眾共同完成30分鐘以上的連續(xù)麻將對局,以毫米級精度完成摸牌、放置、碰杠等復(fù)雜操作,在與人類玩家的實時博弈中展現(xiàn)策略思考,動態(tài)構(gòu)建決策鏈,自主完成碰杠等博弈決策。
據(jù)介紹,靈初發(fā)布的PsiR1模型已首次實現(xiàn)30分鐘連續(xù)麻將博弈,展現(xiàn)了機器人在開放環(huán)境下處理復(fù)雜任務(wù)的突破性能力,這標志著具身智能從簡單動作執(zhí)行向真正的認知決策和長程操作的關(guān)鍵躍遷。
靈初麻將機器人可完成自行抓牌和打牌、完成碰杠等博弈決策。靈初智能
此外,靈初的自主打包機器人也展現(xiàn)了在商業(yè)場景中的實際應(yīng)用,機器人僅接收"將桌面物品打包"的自然語言指令,便可自主分析商品排列、確定操作順序、完成掃碼與裝袋動作。
工作人員表示,整個流程基于VLA模型的分層架構(gòu):上層大模型負責(zé)理解任務(wù)并規(guī)劃順序,下層強化學(xué)習(xí)控制器負責(zé)執(zhí)行動作細節(jié),支持商品級泛化與實時調(diào)整,無需逐一標注或人工干預(yù)。
在7月26日舉行的2025人形機器人與具身智能創(chuàng)新發(fā)展論壇上,國地共建人形機器人創(chuàng)新中心首席科學(xué)家江磊表示,我國人形機器人目前在“大腦”、“肢體”等部分技術(shù)取得領(lǐng)先,“小腦”將是下一步競爭的焦點,
江磊介紹,目前具身智能行業(yè)整體處于“0.0至1.0”的中間階段,0.0階段是從感知到執(zhí)行的“預(yù)訓(xùn)練階段”,此階段的重點就是VLM、VLA、VLN等大模型,且正在面臨數(shù)據(jù)瓶頸的問題;1.0階段則是從認知到執(zhí)行的“后訓(xùn)練場階段”,未來需要通過“世界模型”,打造虛實融合的數(shù)據(jù)場景。
他指出,具身機器人“走跑跳”能力的進展給上個二十年畫上了圓滿句號,而“能干活”則是下一個十年的風(fēng)口。展望2027年,我國人形機器人綜合實力將達到世界先進水平,產(chǎn)業(yè)加速實現(xiàn)規(guī)?;l(fā)展,應(yīng)用場景更加豐富,相關(guān)產(chǎn)品深度融入實體經(jīng)濟,成為重要的經(jīng)濟增長新引擎。