榮格工業(yè)資源APP
了解工業(yè)圈,從榮格工業(yè)資源APP開始。
2025年5月29日,由國家地方共建人形機(jī)器人創(chuàng)新中心(以下簡稱“國地中心”)和上海張江(集團(tuán))有限公司共同主辦的2025張江具身智能開發(fā)者大會暨張江人形機(jī)器人創(chuàng)新創(chuàng)業(yè)大賽將在上海浦東新區(qū)盛大舉行。
本次活動將匯集200余家人形機(jī)器人、具身智能和產(chǎn)業(yè)鏈頭部企業(yè),吸引1000余位知名院士、專家、企業(yè)領(lǐng)袖及開發(fā)者,共同探討人形機(jī)器人產(chǎn)業(yè)的技術(shù)突破與商業(yè)落地路徑。這是一場真正意義上的行業(yè)頂級盛會,以“峰會+大賽+展覽”三位一體的模式,全方位展示人形機(jī)器人技術(shù)與產(chǎn)業(yè)的最新進(jìn)展。
在本次大會上,國地中心將聯(lián)合復(fù)旦大學(xué)正式發(fā)布全球首款生成式人形機(jī)器人運(yùn)動大模型—— “龍躍”(MindLoongGPT),此舉將標(biāo)志著我國在智能體運(yùn)動控制領(lǐng)域邁入全球領(lǐng)先行列。
“龍躍”MindLoongGPT:生成式機(jī)器人運(yùn)動大模型的革命性突破
■ 從實(shí)驗(yàn)室到產(chǎn)業(yè)應(yīng)用,重新定義人機(jī)交互
人形機(jī)器人如何像人類一樣自然運(yùn)動?如何通過語言指令讓機(jī)器人理解并執(zhí)行復(fù)雜動作?這一直是行業(yè)亟待突破的技術(shù)瓶頸。國地中心聯(lián)合復(fù)旦大學(xué)未來信息創(chuàng)新學(xué)院研發(fā)的龍躍MindLoongGPT大模型,以“自然語言驅(qū)動”為核心,構(gòu)建了從多模態(tài)輸入到高保真動作生成的完整閉環(huán),徹底顛覆傳統(tǒng)運(yùn)動控制范式。
■ 四大核心技術(shù)優(yōu)勢,引領(lǐng)行業(yè)標(biāo)桿
1. 多模態(tài)交互,低門檻驅(qū)動
MindLoongGPT支持文本、語音、圖像等多模態(tài)輸入,用戶只需說出“揮手致意”或上傳一段參考視頻,模型即可自動解析語義并生成連貫動作。傳統(tǒng)方法依賴專業(yè)參數(shù)調(diào)整的桎梏被打破,真正實(shí)現(xiàn)“人人可用”。
2. 擬真度與時(shí)序一致性雙突破
通過將人體動作視為“時(shí)序語言”,MindLoongGPT對動作序列逐幀建模,精準(zhǔn)捕捉動作間的連續(xù)性,解決了長序列生成中的僵硬、跳躍問題。生成的跑步、舞蹈等動作不僅流暢自然,更保留真實(shí)人體的慣性節(jié)奏。
3. 結(jié)構(gòu)生成與細(xì)節(jié)優(yōu)化并重
模型采用分階段生成策略,從全局姿態(tài)到局部關(guān)節(jié)角度均實(shí)現(xiàn)毫米級精度控制。無論是手指微操還是全身騰躍,細(xì)節(jié)表現(xiàn)力媲美真人。
4. 輕量化設(shè)計(jì),賦能廣泛場景
在保證性能的前提下,MindLoongGPT模型體積壓縮至同類型產(chǎn)品的1/3,可在教育機(jī)器人、智能穿戴設(shè)備等嵌入式平臺實(shí)時(shí)運(yùn)行,為產(chǎn)業(yè)落地鋪平道路。
MindLoongGPT的差異化競爭力:為什么它是“不可替代”的?
■ 技術(shù)為骨,應(yīng)用為翼,打造全鏈條解決方案
當(dāng)前市場中的動作生成模型往往存在兩大痛點(diǎn):一是依賴高算力硬件,難以低成本部署;二是生成結(jié)果機(jī)械呆板,缺乏可控性。
MindLoongGPT通過三大創(chuàng)新設(shè)計(jì),構(gòu)建了獨(dú)特的市場護(hù)城河:
1. 自然語言驅(qū)動,開啟交互新范式
用戶無需學(xué)習(xí)專業(yè)術(shù)語或操作復(fù)雜軟件,僅需像與人類對話一樣發(fā)出指令,例如“以優(yōu)雅的姿勢遞上一杯咖啡”,MindLoongGPT即可結(jié)合語義理解生成對應(yīng)動作,并支持通過追加指令實(shí)時(shí)調(diào)整細(xì)節(jié)。這一能力在教育、服務(wù)機(jī)器人領(lǐng)域具有顛覆性意義。
語音到文本的轉(zhuǎn)化
2. 生成+編輯雙模式,滿足定制化需求
MindLoongGPT不僅支持一鍵生成動作,還開放了風(fēng)格、節(jié)奏、速度等參數(shù)接口。企業(yè)用戶可基于生成的初始動作進(jìn)行二次創(chuàng)作,例如將“步行”調(diào)整為“卡通蹦跳”或“機(jī)械步態(tài)”,極大拓展了模型的適用場景。
動作生成
3. 全鏈條部署方案,打通最后一公里
從動作生成到實(shí)機(jī)部署,MindLoongGPT提供完整的工具鏈支持:
模型重定向技術(shù):通過優(yōu)化的retarget算法,實(shí)現(xiàn)人體模型與不同機(jī)器人URDF結(jié)構(gòu)的快速適配,解決硬件異構(gòu)難題;
模型重定向
上位控制軟件集成:支持主流機(jī)器人操作系統(tǒng)(ROS、V-REP等),生成動作可直接導(dǎo)入實(shí)機(jī)測試,部署效率提升80%。
動作部署
4. 大模型與小模型聯(lián)合,高效實(shí)現(xiàn)各種復(fù)雜動作與舞蹈特技:
“龍躍”MindLoongGPT:具有7B的模型參數(shù)大小,支持text2motion, motion2text, motion2motion多任務(wù),生成更豐富的動作。
通過“龍躍”MindLoongGPT生成特技動作運(yùn)動軌跡,作為部署的全身跟蹤小模型的輸入目標(biāo)觀測,從而可以在青龍上實(shí)現(xiàn)豐富的全身動作。
開源全身運(yùn)動數(shù)據(jù)集與全工具鏈同步發(fā)布
■ 開源全身運(yùn)動數(shù)據(jù)集
國地中心擁有5000平米訓(xùn)練場,集采集,測試,訓(xùn)練的功能于一體。102臺數(shù)采機(jī)器人,可支撐每天3萬條機(jī)器人數(shù)據(jù)采集,地面真值測試,人體數(shù)據(jù)采集,仿生數(shù)據(jù)采集。
國地中心發(fā)布開源全身運(yùn)動數(shù)據(jù)集,形成業(yè)內(nèi)領(lǐng)先的人形動作數(shù)據(jù)庫,包含10000+重映射后的高質(zhì)量動作條數(shù),以及包括原子動作,連續(xù)動作,套路動作等不同類型的動作,其主要數(shù)據(jù)來源如下表所示:
■ 開源人體動作映射全棧工具鏈
SMPL是一套描述人體動作的標(biāo)準(zhǔn)格式和映射算法,用于參數(shù)化表達(dá)動作和人體體型,其優(yōu)勢在于將體型的不同納入到動作映射中。
通過優(yōu)化青龍機(jī)器人的體型參數(shù) β 使得調(diào)整后的人體模型關(guān)節(jié)位置能夠更為貼近青龍機(jī)器人。體型參數(shù)匹配可以提升后續(xù)重定向的動作跟蹤精度。
從數(shù)據(jù)集中收集SMPL格式的動作參數(shù),并使用匹配得到的青龍機(jī)器人體型參數(shù) β 將數(shù)據(jù)集的動作參數(shù)θ 映射為機(jī)器人各關(guān)節(jié)目標(biāo)位置。
構(gòu)造以最小化機(jī)器人各關(guān)節(jié)位置誤差以及連續(xù)性誤差為優(yōu)化目標(biāo)的優(yōu)化問題,求解最優(yōu)化問題得到機(jī)器人的最優(yōu)關(guān)節(jié)角度。
■ 從“遙控器時(shí)代”到“生成式時(shí)代”的跨越
國地中心作為國家工信部與上海市共同揭牌成立的行業(yè)平臺,始終致力于攻克人形機(jī)器人共性技術(shù)難題。此次推出MindLoongGPT,正是中心技術(shù)攻堅(jiān)的里程碑式成果。
■ 戰(zhàn)略意義:重塑人機(jī)協(xié)作生態(tài)
降低開發(fā)者門檻:中小型企業(yè)甚至個(gè)人開發(fā)者均可利用MindLoongGPT快速開發(fā)機(jī)器人應(yīng)用,無需組建專業(yè)運(yùn)動控制團(tuán)隊(duì);
賦能新興場景:從家庭陪護(hù)、醫(yī)療康復(fù)到工業(yè)柔性裝配,MindLoongGPT的高適配性將加速人形機(jī)器人進(jìn)入千行百業(yè);
搶占國際制高點(diǎn):我國在生成式AI與機(jī)器人融合領(lǐng)域首次實(shí)現(xiàn)系統(tǒng)性突破,為全球智能體技術(shù)發(fā)展提供“中國方案”。
■ 龍躍大模型發(fā)布在即:共建開放生態(tài)
國地中心宣布,將在大會現(xiàn)場開放MindLoongGPT的開發(fā)者測試版本,并聯(lián)合張江科學(xué)城打造“人形機(jī)器人創(chuàng)新應(yīng)用孵化基地”,為合作伙伴提供技術(shù)賦能、數(shù)據(jù)共享與算力支持。首批合作企業(yè)包括多家全球500強(qiáng)科技公司與頂尖高校研究院,共同探索人形機(jī)器人在元宇宙、智能制造等領(lǐng)域的深度融合。