首页 资讯 正文

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

体育正文 208 0

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人如何(rúhé)像人类一样自然运动?如何通过语言指令让(ràng)机器人理解并执行复杂动作? 5月(yuè)29日上午,在上海张江科学会堂(huìtáng)举办的2025张江具身(jùshēn)智能开发者大会暨2025国际人形机器人技能大赛上,国家地方共建人形机器人创新中心(zhōngxīn)(以下简称“国地中心”)联合复旦大学未来(wèilái)信息创新学院,正式发布了全球首款生成式人形机器人运动大模型—— “龙跃”(MindLoongGPT)。 龙跃大模型(móxíng)以“自然语言驱动(qūdòng)”为核心,构建了从多模态输入到高保真(gāobǎozhēn)动作生成的完整闭环(bìhuán),颠覆传统运动控制范式。也就是说,用户无需学习专业术语或操作复杂软件,仅需像与人类(rénlèi)对话一样发出指令,例如“以优雅的姿势递上一杯咖啡”、“挥手致意(huīshǒuzhìyì)”或上传一段参考(cānkǎo)视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时调整细节。这一能力,在教育、服务机器人领域具有颠覆性意义。 动作(dòngzuò)部署 本文图均为 国地中心 供图 当前市场中的动作生成模型往往存在两大痛点:一是依赖(yīlài)高算力硬件,难以低成本部署;二是生成结果机械呆板,缺乏(quēfá)可控性。据介绍,龙跃大模型具有四大核心技术(héxīnjìshù)优势: 一是多(duō)模态交互、低门槛驱动。MindLoongGPT支持文本、语音、图像等多模态输入,用户只需用自然语言驱动,模型即可“一切行动听指挥(zhǐhuī)”。传统方法依赖专业参数(cānshù)调整的(de)桎梏被打破,真正实现“人人可用”。 二是(èrshì)拟真度与时序一致性双突破。通过将人体动作视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决了(le)长序列生成中(zhōng)的僵硬、跳跃问题,生成的跑步、舞蹈(wǔdǎo)等动作不仅流畅自然,更保留真实人体的惯性节奏。 三是结构生成与细节优化并重。模型采用分阶段(fēnjiēduàn)生成策略,从(cóng)全局姿态到局部关节角度均实现毫米级精度控制。 四是轻量化设计,赋能广泛场景。在保证性能的(de)前提(qiántí)下,MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育机器人(jīqìrén)、智能穿戴设备等嵌入式平台实时运行,为产业落地铺平道路。 据了解,目前国地中心在(zài)张江拥有5000平方米训练场,集采集(cǎijí)、测试、训练功能(gōngnéng)于一体,102台数采机器人可支撑每天3万条机器人数据采集、地面真值测试、人体数据采集、仿生数据采集。MindLoongGPT具有(jùyǒu)7B的(de)模型参数大小,支持text2motion,、motion2text、motion2motion多任务,生成更丰富(fēngfù)的动作。通过MindLoongGPT生成特技动作运动轨迹(guǐjì),借助(jièzhù)全身跟踪小模型,从而可以在青龙机器人上实现丰富的全身动作。 通过“龙跃”MindLoongGPT生成特技动作运动轨迹,可以在青龙(qīnglóng)人形机器人上实现丰富(fēngfù)的全身动作 通过“龙跃”MindLoongGPT生成特技(tèjì)动作运动轨迹,可以在青龙(qīnglóng)人形机器人上实现丰富的全身动作 国地中心5月29日同时宣布,将(jiāng)开放MindLoongGPT的开发者测试版本,并联合张江(zhāngjiāng)科学城打造“人形机器人创新应用孵化基地”,为合作伙伴提供技术赋能、数据共享与算力(suànlì)支持,首批合作企业包括多家全球500强科技公司与顶尖高校研究院,将共同探索人形机器人在元(yuán)宇宙、智能制造等领域的深度(shēndù)融合。 (本文来自澎湃新闻,更多(duō)原创资讯请下载“澎湃新闻”APP)
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~