人民網(wǎng)北京12月14日電 (記者申佳平)12月13日,在“2026中國信通院深度觀察報告會”上,中國信通院副總工程師許志遠表示,當前具身智能已取得認知智能與物理智能的雙線突破,但模型路線、數(shù)據(jù)范式以及最佳機器人形態(tài)仍未定型,大規(guī)模落地仍處于早期階段,其未來方向仍在持續(xù)競爭與快速演化中。
具身智能取得階段性突破
仍需關注三大核心爭論
許志遠介紹,當前具身智能發(fā)展已取得階段性突破。一方面,機器人的“認知智能”(即“大腦”能力)實現(xiàn)明顯躍升。大模型使機器人能夠完成傳統(tǒng)機器人難以處理的復雜任務,具備“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破?;趶娀瘜W習,人形機器人在復雜地形行走、高難度舞蹈等動態(tài)任務上表現(xiàn)顯著提升;基于模仿學習與大模型范式,上肢操作能力快速增強,已能執(zhí)行切黃瓜、倒水、疊衣服等精細操作。
“盡管技術突破不斷,但具身智能的大規(guī)模落地仍處于早期階段。”許志遠指出,當前行業(yè)主要存在三方面爭論。
一是模型路線之爭,大模型范式是否適用于機器人?雖然大模型在語言、圖像、視頻領域取得巨大成功,但“同樣的范式能否直接遷移到機器人控制”仍未被證明。
二是數(shù)據(jù)訓練范式之爭,哪類數(shù)據(jù)才是機器人智能提升的關鍵?數(shù)據(jù)仍然是限制機器人能力躍升的核心瓶頸。目前機器人模型主要依賴三類數(shù)據(jù):真機數(shù)據(jù)質(zhì)量最高但采集昂貴、規(guī)模有限;合成/仿真數(shù)據(jù)規(guī)模大、成本低,但逼真度與物理一致性有差距;人類第一視角視頻數(shù)據(jù)自然、豐富,但動作標注與映射存在挑戰(zhàn)。當前尚無結論表明機器人是否一定會因為有更多的數(shù)據(jù)而產(chǎn)生更強的能力。因此,數(shù)據(jù)范式仍在快速演化,混合數(shù)據(jù)、多模態(tài)數(shù)據(jù)、世界模型生成數(shù)據(jù)等方向均在探索中。
三是形態(tài)路線之爭,人形機器人是否是“真需求”?具身智能的落地呈現(xiàn)出兩大派系:一類是“人形堅守派”。這些企業(yè)堅持全人形路線,認為人形最契合人類社會現(xiàn)有環(huán)境與工具體系,人形形態(tài)最利于學習人類動作、利用人類數(shù)據(jù),并且長期看具備最大通用性。另一類是折中派。我國今年涌現(xiàn)出多款“輪-臂式復合機器人”,其特點是輪式底盤更可靠、成本更低、部署更簡單;動作可控性強,更適合集成到商業(yè)場景快速落地。此路徑更強調(diào)“工程可落地性”,旨在在短期內(nèi)形成可規(guī)?;纳虡I(yè)應用。
進一步引入世界模型
有望提升機器人大模型能力
據(jù)許志遠介紹,目前,利用大模型提升機器人的泛化能力已成為業(yè)界共識,但如何有效地將大模型應用于機器人系統(tǒng),仍存在多條技術路徑,行業(yè)也在持續(xù)探索中。
第一條路徑是采用大語言模型(LLM)對人類指令進行語義理解與任務分解,這是賦予機器人高層智能的關鍵能力。第二條路徑是在LLM的基礎上引入視覺,使模型具備語言與視覺跨模態(tài)融合能力,通過視覺語言模型(VLM)進行機器人控制。借助視覺信息,模型不僅能分析環(huán)境的空間關系和物體屬性,也能更好支撐高層任務規(guī)劃。第三條路徑是在VLM的基礎上進一步加入動作生成能力,形成視覺—語言—動作模型(VLA)。這類模型以視覺圖像和語言指令為輸入,直接輸出機器人控制指令。
許志遠表示,視覺—語言—動作模型路線自2024年底以來受到高度關注。各家廠商在模型架構、模塊設計和動作生成方式上不斷優(yōu)化。“然而盡管VLA在結構上不斷演進,其實際落地效果仍未達到預期。原因在于物理世界具有高度多樣性與不確定性,而當前可獲取的機器人數(shù)據(jù)量級有限、覆蓋場景不足?!?/p>
許志遠指出,展望未來,在視覺—語言—動作模型的基礎上引入世界模型(World Model),借助其對物理世界的理解、預測與推演能力,有望成為進一步提升機器人大模型能力的重要發(fā)展路徑。
合成數(shù)據(jù)和視頻數(shù)據(jù)更受重視
滿足機器人模型訓練需求
許志遠指出,機器人的真機數(shù)據(jù)雖然質(zhì)量最高,但人工采集的成本極高,高質(zhì)量樣本更是稀缺,遠遠無法滿足模型的訓練需求。因此,業(yè)界開始越來越重視合成數(shù)據(jù)和視頻數(shù)據(jù)的利用。
具體來看,一方面,業(yè)界開始采用混合數(shù)據(jù)訓練模式,先利用合成數(shù)據(jù)或視頻數(shù)據(jù)進行模型預訓練,再用真機數(shù)據(jù)進行微調(diào)。例如,銀河通用使用10億幀合成數(shù)據(jù)完成抓取模型的預訓練;英偉達GROOT N1模型中,合成、視頻和真機數(shù)據(jù)分別占25%、31%和44%?!拔覀儼l(fā)現(xiàn),主流方案的非真機數(shù)據(jù)占比通常在80%—99%,但是哪個比例對于機器人性能提升更加有效仍需產(chǎn)業(yè)界來不斷試錯驗證?!痹S志遠表示。
另一方面,今年以來,使用人類第一視角拍攝的視頻數(shù)據(jù)成為破解數(shù)據(jù)瓶頸的一類重要方案。讓操作員佩戴頭戴式攝像設備,在不影響日常工作的前提下記錄其操作過程,為模型訓練提供高質(zhì)量的人類示范數(shù)據(jù)。許志遠表示,目前國內(nèi)外多家企業(yè)已發(fā)布相關項目或進行路線探索。