人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作人形机器人如何像人类一样自然运动(yùndòng)?如何通过语言指令让机器人理解并执行复杂动作(dòngzuò)?
5月29日上午,在上海张江(zhāngjiāng)科学会堂举办的2025张江具身(jùshēn)智能开发者大会暨2025国际人形机器人技能大赛上,国家(guójiā)地方共建人形机器人创新(chuàngxīn)中心(以下简称“国地中心”)联合(liánhé)复旦大学未来信息创新学院,正式发布了全球首款生成式人形机器人运动大模型—— “龙跃”(MindLoongGPT)。
龙跃大(lóngyuèdà)模型以“自然语言驱动”为核心(héxīn),构建了从多模态输入到高保真动作生成的(de)完整闭环,颠覆传统运动(yùndòng)控制范式。也就是说,用户无需学习专业术语或操作复杂软件,仅需像(xūxiàng)与人类对话一样发出指令,例如“以优雅的姿势递上一杯咖啡”、“挥手致意(huīshǒuzhìyì)”或上传(shàngchuán)一段参考视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时调整细节。这一能力,在教育、服务机器人领域具有颠覆性意义。
动作(dòngzuò)部署 本文图均为 国地中心 供图
当前市场中的动作生成模型往往存在两大痛点:一是依赖高算力硬件,难以低成本部署;二是生成结果机械(jīxiè)呆板(dāibǎn),缺乏可控性。据介绍,龙跃大模型具有四大核心技术(héxīnjìshù)优势:
一是多模态交互(jiāohù)、低门槛驱动(qūdòng)。MindLoongGPT支持文本、语音、图像等多模态输入,用户只需用自然语言驱动,模型(móxíng)即可“一切(yīqiè)行动听指挥”。传统方法依赖专业参数调整的桎梏被打破,真正实现“人人可用”。
二是拟真度与时序一致性双突破。通过将人体动作视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决(jiějué)了长序列生成中的僵硬、跳跃(tiàoyuè)问题,生成的跑步(pǎobù)、舞蹈等动作不仅流畅自然,更保留真实人体的惯性节奏(jiézòu)。
三是结构生成与细节优化并重(bìngzhòng)。模型采用分阶段生成策略,从全局姿态到局部(júbù)关节角度均实现毫米级精度控制。
四是轻量化(qīngliànghuà)设计,赋能广泛场景。在保证性能的前提下,MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育机器人(jīqìrén)、智能穿戴设备等嵌入式(qiànrùshì)平台实时运行,为产业落地铺平道路。
据了解,目前国地中心(zhōngxīn)在张江拥有5000平方米训练场,集采集、测试、训练功能于一体,102台数采机器人(jīqìrén)可支撑每天3万条机器人数据采集、地面真值(zhēnzhí)测试、人体数据采集、仿生数据采集。MindLoongGPT具有7B的模型参数大小(dàxiǎo),支持text2motion,、motion2text、motion2motion多任务,生成更(gèng)丰富(fēngfù)的动作(dòngzuò)。通过MindLoongGPT生成特技(tèjì)动作运动轨迹,借助全身跟踪小模型,从而可以在青龙机器人上实现丰富的全身动作。
通过“龙跃”MindLoongGPT生成特技动作运动(yùndòng)轨迹,可以在青龙人形(rénxíng)机器人上实现丰富的全身动作
通过“龙跃”MindLoongGPT生成特技动作(dòngzuò)运动轨迹,可以在青龙人形机器人上实现丰富(fēngfù)的全身动作
国地中心5月29日同时宣布,将开放MindLoongGPT的开发者测试(cèshì)版本,并联合张江(zhāngjiāng)科学城打造“人形机器人创新应用(yìngyòng)孵化基地(jīdì)”,为合作伙伴提供技术赋能、数据共享与算力支持,首批合作企业包括多家全球500强科技公司与顶尖高校研究院,将共同探索人形机器人在元宇宙(yǔzhòu)、智能制造等领域的深度融合。
(本文来自澎湃新闻,更多原创资讯请(qǐng)下载“澎湃新闻”APP)
人形机器人如何像人类一样自然运动(yùndòng)?如何通过语言指令让机器人理解并执行复杂动作(dòngzuò)?
5月29日上午,在上海张江(zhāngjiāng)科学会堂举办的2025张江具身(jùshēn)智能开发者大会暨2025国际人形机器人技能大赛上,国家(guójiā)地方共建人形机器人创新(chuàngxīn)中心(以下简称“国地中心”)联合(liánhé)复旦大学未来信息创新学院,正式发布了全球首款生成式人形机器人运动大模型—— “龙跃”(MindLoongGPT)。
龙跃大(lóngyuèdà)模型以“自然语言驱动”为核心(héxīn),构建了从多模态输入到高保真动作生成的(de)完整闭环,颠覆传统运动(yùndòng)控制范式。也就是说,用户无需学习专业术语或操作复杂软件,仅需像(xūxiàng)与人类对话一样发出指令,例如“以优雅的姿势递上一杯咖啡”、“挥手致意(huīshǒuzhìyì)”或上传(shàngchuán)一段参考视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时调整细节。这一能力,在教育、服务机器人领域具有颠覆性意义。
动作(dòngzuò)部署 本文图均为 国地中心 供图
当前市场中的动作生成模型往往存在两大痛点:一是依赖高算力硬件,难以低成本部署;二是生成结果机械(jīxiè)呆板(dāibǎn),缺乏可控性。据介绍,龙跃大模型具有四大核心技术(héxīnjìshù)优势:
一是多模态交互(jiāohù)、低门槛驱动(qūdòng)。MindLoongGPT支持文本、语音、图像等多模态输入,用户只需用自然语言驱动,模型(móxíng)即可“一切(yīqiè)行动听指挥”。传统方法依赖专业参数调整的桎梏被打破,真正实现“人人可用”。
二是拟真度与时序一致性双突破。通过将人体动作视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决(jiějué)了长序列生成中的僵硬、跳跃(tiàoyuè)问题,生成的跑步(pǎobù)、舞蹈等动作不仅流畅自然,更保留真实人体的惯性节奏(jiézòu)。
三是结构生成与细节优化并重(bìngzhòng)。模型采用分阶段生成策略,从全局姿态到局部(júbù)关节角度均实现毫米级精度控制。
四是轻量化(qīngliànghuà)设计,赋能广泛场景。在保证性能的前提下,MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育机器人(jīqìrén)、智能穿戴设备等嵌入式(qiànrùshì)平台实时运行,为产业落地铺平道路。
据了解,目前国地中心(zhōngxīn)在张江拥有5000平方米训练场,集采集、测试、训练功能于一体,102台数采机器人(jīqìrén)可支撑每天3万条机器人数据采集、地面真值(zhēnzhí)测试、人体数据采集、仿生数据采集。MindLoongGPT具有7B的模型参数大小(dàxiǎo),支持text2motion,、motion2text、motion2motion多任务,生成更(gèng)丰富(fēngfù)的动作(dòngzuò)。通过MindLoongGPT生成特技(tèjì)动作运动轨迹,借助全身跟踪小模型,从而可以在青龙机器人上实现丰富的全身动作。
通过“龙跃”MindLoongGPT生成特技动作运动(yùndòng)轨迹,可以在青龙人形(rénxíng)机器人上实现丰富的全身动作
通过“龙跃”MindLoongGPT生成特技动作(dòngzuò)运动轨迹,可以在青龙人形机器人上实现丰富(fēngfù)的全身动作
国地中心5月29日同时宣布,将开放MindLoongGPT的开发者测试(cèshì)版本,并联合张江(zhāngjiāng)科学城打造“人形机器人创新应用(yìngyòng)孵化基地(jīdì)”,为合作伙伴提供技术赋能、数据共享与算力支持,首批合作企业包括多家全球500强科技公司与顶尖高校研究院,将共同探索人形机器人在元宇宙(yǔzhòu)、智能制造等领域的深度融合。
(本文来自澎湃新闻,更多原创资讯请(qǐng)下载“澎湃新闻”APP)









相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎