北京人形機(jī)器人創(chuàng)新中心近日宣布,正式開源其自主研發(fā)的具身VLA大模型XR-1,以及配套的數(shù)據(jù)支撐平臺(tái)RoboMIND2.0和ArtVIP最新版本。此次開源的模型與工具均已通過具身智能領(lǐng)域的國(guó)家標(biāo)準(zhǔn)測(cè)試,標(biāo)志著國(guó)內(nèi)在具身智能技術(shù)領(lǐng)域邁出了關(guān)鍵一步。
據(jù)介紹,XR-1模型聚焦于具身智能的“小腦”能力,旨在解決機(jī)器人從感知到行動(dòng)的轉(zhuǎn)化難題。通過創(chuàng)新的三階段訓(xùn)練范式,該模型實(shí)現(xiàn)了虛實(shí)數(shù)據(jù)的高效融合。第一階段依托超百萬級(jí)的多本體數(shù)據(jù)與人類行為視頻,構(gòu)建了動(dòng)作編碼體系,將復(fù)雜場(chǎng)景轉(zhuǎn)化為可調(diào)用的離散指令;第二階段通過大規(guī)模跨本體數(shù)據(jù)預(yù)訓(xùn)練,使模型掌握物理世界的基礎(chǔ)規(guī)律,如物體運(yùn)動(dòng)軌跡、力學(xué)反饋等;第三階段則針對(duì)特定任務(wù)場(chǎng)景進(jìn)行微調(diào),使機(jī)器人能夠快速適應(yīng)分揀、搬運(yùn)、疊放等精細(xì)化操作需求。
配套開源的RoboMIND2.0數(shù)據(jù)平臺(tái)與ArtVIP工具鏈,為模型訓(xùn)練提供了全流程支持。前者整合了多模態(tài)數(shù)據(jù)采集、標(biāo)注與清洗功能,后者則優(yōu)化了虛擬仿真環(huán)境與真實(shí)場(chǎng)景的映射效率。這種虛實(shí)結(jié)合的訓(xùn)練模式,顯著降低了機(jī)器人對(duì)物理樣機(jī)的依賴,同時(shí)提升了模型在復(fù)雜環(huán)境中的泛化能力。
研發(fā)團(tuán)隊(duì)表示,此次開源的核心目標(biāo)是推動(dòng)具身智能技術(shù)回歸應(yīng)用本質(zhì)。通過降低行業(yè)技術(shù)門檻,助力更多企業(yè)開發(fā)出真正“能干活、會(huì)干活”的機(jī)器人產(chǎn)品。目前,XR-1模型已在工業(yè)分揀、物流搬運(yùn)等場(chǎng)景完成驗(yàn)證,其動(dòng)作精準(zhǔn)度與任務(wù)完成效率達(dá)到行業(yè)領(lǐng)先水平。隨著開源生態(tài)的完善,預(yù)計(jì)將加速國(guó)內(nèi)具身智能產(chǎn)業(yè)向全自主化、場(chǎng)景化方向演進(jìn)。












