刘耀东:空间计算是未来AI发展的一个大趋势

刘耀东:空间计算是未来AI发展的一个大趋势

hyde01 2025-08-09 装修禁忌 2 次浏览 0个评论

  “2025世界大会”于8月8日至12日在北京经济技术开发区开幕,“AI 大模型赋能机器人与具身智能产业新范式交流活动”作为2025世界机器人大会的专题活动于8月8日同期召开。北京虚拟动点科技有限公司董事长兼CEO刘耀东出席并演讲。

刘耀东:空间计算是未来AI发展的一个大趋势

  以下为演讲实录:

  各位领导、各位来宾、观众朋友们:大家下午好!

  非常荣幸由我代表虚拟动点跟各位分享一些我们在机器人具身智能在空间计算领域的一些洞察和思考。

  众所周知,技术的发展推动着各个产业的进步,从人类发展到现在经历了几次大的科技的巨变,从蒸汽机出现到电力的出现再到信息时代的出现,每次技术的迭代,其实都对人类的生产生活起到了非常重要的作用。

  毫无疑问,我们现在所处的AI时代又一次在重塑着我们的生活,在各个产业里AI都发挥着自己的价值,从这个思路里首先试着梳理一下AI发展的历程,看一下具身智能今天所探讨的WRC的热点话题跟我们所处大的AI时代是不是有一些共性的节奏,如果是的话,我觉得这个对于具身智能的思考无疑是一个非常必须和非常正确的趋势。

  整个AI发展到现在为止,除了初期基于简单的符号运算、简单的计算外所谓的传统AI后。2020年迅速进入到了感知型AI,AI开始理解世界了,能看懂文字,看懂视频,看懂图片。紧跟着又出现了生成式AI,AI又开始创造世界了,开始创造文字、创造图片、创造视频。刚刚结束的WAIC上和世界互联网安全大会上,我们看到了all  in  AI  Agent,AI又开始帮我们决策和做各种生产生活中的选择,成为了我们的工具,是不是AI就停在这儿了。

  今年3月份英伟达的大会上,黄仁勋先生第一次提到了物理AI时代要到来了,我觉得毫无疑问对于传统产业的价值会更大,物理AI是不是就是今天所提到的具身智能呢?AI可以借助具身智能这个载体,真正的走入到生产生活中。

  在大模型第一波浪潮的时候还有很多媒体和资本在质疑说写诗、画画这种风花雪月的事情都交给AI做了,人去做了扫地倒垃圾这些很具体的事情,我们说具身智能物理化AI的出现,才是真正解决AI的定位,AI对于人类价值的根本性的办法。

  既然提到了物理性AI,我们不得不提到实现物理性AI一个非常重要的解决技术组成部分就是空间计算,也是我们这家北京虚拟动点科技有限公司深耕了多年的领域。可能第一次听到这个词,很多在座的专家们还是比较陌生的,空间计算这个词不是一个广义AI上经常会出现的词。但是我们首先可以从一些第三方的知名机构上给出的报告跟趋势上可以看到。

  空间计算是未来一个大的趋势,这是毫无疑问的,并列为几大未来影响人类发展的AI领域的技术,同时也谈到了市场空间非常巨大,达到了万亿级的规模。第三点就是谁掌握了空间计算,谁将重新定义传统行业的领军者。

  依托于这些对于空间计算的宏观判断,虚拟动点过去这么多年做了什么?这幅画面上是我们用空间计算这样一个技术在传统行业里,在机器人之外传统行业里做过的一些事情。给大家举一个最简单的例子,大家知道去年的《黑神话·悟空》,所有的动作数据都是由虚拟动点我们的空间计算技术来完成的,正是因为新的技术的加持,才让一个游戏的体验得到了前所无有的提升,最终做到把中国的传统文化出海,达到国人审美期待的一款作品。

  这个技术并不是只能用来做影视游戏的,所有基于空间计算,实际的物理世界、实际的3D数据,我们把所有这些数据如果用在影视游戏里的时候其实是把它降维了,是把三维数据二维化,真正如果把三维数据用在三维世界里才是真正价值的最大化,也是在这样一个技术的趋势下,我们发现了具身智能才是空间计算最应该使用的领域。

  既然我们发现了这样一个非常有价值的领域,我们虚拟动点也调整了自己的战略布局,从去年开始跟很多的机器人合作伙伴深度进行了联合研发、联合绑定,自己的产业定位是不造任何硬件本体,我们是帮助合作伙伴造一个更好的机器人。准确的说其实我们是帮助所有合作伙伴做一个机器人的小脑和身体姿态的控制和运动的控制,因为我们核心优势就是高质量的运动数据。

  刚刚提到了高质量数据,又提到了做过很多不同的东西,帮助所有的嘉宾们能记住我们其实就有三点。

  第一点,为机器人能够提供数据价值。

  第二点,有自己的一系列算法。

  第三点,可以为机器人提供各种各样的训练服务。

  数据这个话题从海外到国内,所有的机器人从业者包括今天在场刚刚演讲过的各位嘉宾都提到了一个词,就是数据鸿沟。尤其是对于机器人小脑运控这一块,业内的共识基本是数据规模和数据质量是成反比的。刚刚几位专家的图可能具体文字不一样,但是这个图都是三角锥形金字塔的图,都画了相同认知的。

  这里最下面的可能就是开源数据、视频数据和合成数据,这个数据的量够了。包括银河通用的领导也提到了这个问题,但是数据质量怎么办,我听到的业内主要主流的方法是二八原则,合成数据+真实数据调到比较满足机器人动作调试使用的机器人的数据集,我们的空间计算所解决的问题是什么,解决的就是我们的人形数据跟摇操数据这种高质量数据的部分。

  我们也是希望能在这样一个WRC非常好的平台上,能把我们的技术和各位的机器人公司一起共建一个高质量的机器人数据集。

  再往下是数据库的问题,因为我们是一个深耕多年在空间计算领域的公司,我们其实很多年前已经开始在积累数据,谈论模型的时代,数据比算法还宝贵,谁掌握了数据谁就掌握了真正的天花板,我们因为有得天独厚的优势,在做影视、动画、游戏等等传统空间计算领域的时候积累了大量的空间数据,用这些数据成为了现在第一代的人形数据集,这里也做了细分,有一些基础的比如原子级的数据,推、拿、取、放这些基础的数据,包括一些套路型的数据,甚至存了一些国家的非物质文化各种各样的武术、舞蹈的非遗资产,最后形成了我们的数据集。

  更重要的是刚刚一位领导提到了,人形动作这件事很难被中文准确的定义和描述出来的,为了解决这个问题,我们的研发团队专门用了心思把数据和中文的汉语大词典做了精准的匹配,尽量试图做到在检索数据的时候不会给数据的使用方造成太大的压力,就能调用到适合的动作数据。

  除了已有的数据集,再加上有很多的算法,我们的数据其实是源源不断的优势,可以持续的丰富数据。提到算法这块有很多为不同的具身智能合作伙伴提供一些不同的算法能满足大家不同的需要。

  第一,全球范围内最为知名的光学定位的算法叫OptiTrack,很多在座的具身智能的领导们刚刚在休息室的时候交流也说虚拟动点不一定知道,但是OptiTrack都知道,这个基本上是业内性价比最好的数据采集的设备。全球范围内应该是第二市占率,国内连续多年市占率第一的水平。

  图上非常密集的光锥,通过我们的设备来定位一个人的位姿信息,我们把它retarking到机器人身上的时候,力图得到一个精准的位置信息。

  除此之外,也在今年美国的GDC上推出了光学+无标记技术。尤其是各位左手边的技术是用无标记纯视觉捕捉的技术,刚刚多位做灵巧手和做触感的领导们提到了这个部分,也提到的手套来捕捉手部的信息,我们这个是通过无标记的摄像头在建立的空间场里没有任何穿戴设备,能达到对手指、对手腕等非常精确的指尖位姿信息的获取。

  同时再把光学的技术跟它做融合以后,其实可以既保证光学的精度,也保证无标记机器视觉精度的便利性。

  今天多次提到了灵巧手,其实是为了机器人末端的数据采集,实现了斯坦福大学UMI夹爪的逻辑,自建了UMI夹爪硬件结构,也自建了slim算法,这套设备相信在座各位在电视上看到过一些机器人训练场来叠衣服,拿取物品的视频,这个效率基本是分钟级的,才能完成一个动作,如果用UMI这套算法的话,基本上完成一个叠衣服的动作是秒级的,只有真正的提高数据采集的效率,才能本质上解决多位厂家领导的所谓运动数据鸿沟的问题。

  算法还不止于此,真正算法的核武器是大模型,刚刚提到了有大量的人形动作的数据,沉淀在一起在模型时代肯定要尝试着做一个动作模型,各位现在看到的是我们跟北京大学人工智能学院联合研发的动作大模型叫它Lydia,动作大模型能做什么呢?可以基于多模态的输入、文字的输入、音乐的输入来生成它所理解的基于文字的或者音乐的动作。到今天为止动作的丰富度、准确度已经达到了非常高的水平,并且可以在虚拟的引擎下进行路径规划,跟不同的物体进行交互。

  这个产品的设计之初是为了做影视和游戏的,但是后来当机器人合作伙伴看到这款产品的时候非常兴奋,我们也在尝试把所有动作生成模型的数据变成URDF的时候,换成机器人机构的时候,是不是可以创造出直接生成机器人的动作数据,我们觉得这个为机器人的数据训练创造了一种新的思考方式。

  除了数据、算法,第三个就是服务。主要是基于训练的服务,我们的训练服务其实可以强调端到端的能力,可以从数据采集的data一路经过数据的清理、数据的修理到数据的重定项一直到真机的状态。我们希望帮助机器人具身智能的本体合作伙伴节省时间,我们把数据的事情多做一些,你们就有更多的时间解决硬件的问题和大脑的问题。

  这个是我们非常紧密的合作伙伴,我非常喜欢用哲源的旋风小子这个产品,这个当时他们在参加我们的亦庄举行的机器人马拉松的时候,我们帮他们提供了数据,提供的训练服务以后,他们也跑的非常好,我记得在网上看到一个一个网友的留言说很多机器人跑的不错,但是这台跑的最像人,跑出了中国人的精气神。

  我们的高质量数据跟完善的训练服务能力也帮很多合作伙伴做的机器人训练场,包括已经上台交流过的银河的机器人训练场,深圳福田机器人的训练场等等,很多的合作伙伴都会选用我们的产品和服务来为他们进行机器人的数据训练。

  接着我们在服务了大量的机器人合作伙伴之后,也意识到一个问题,相信大家看到这些也是各位对于机器人场景很痛的痛点,那就是所有本体在出货以后,自带的动作其实是非常少的,不知道大家有没有相似的感受。再有我们想加动作,训练的时间也是非常慢的。机器人训练的本体公司其实没有足够的精力顾及到不同的场景的不同细分的需求,以及不同机器人本体URDF构型又不一样,一个公司又很难解决不同机器人训练的问题,所以就会造成机器人最后几米迈入真正客户场景的时候,无论是文旅、工业生产还是进家庭等都会遇到这个问题,动作不够。

  基于这样一个行业痛点,我们也是认真思考了本质上缺少好的产品、好的工具来帮助大家提升机器人的运动效率和机器人的训练效率。这样一个大的需求下,我们就推出了这样一款产品,机器人的运动调试一键重定向的平台。这个画面上起步是一个白模的构型,我们在平台上可以选择选宇树机器人还是其它家的机器人,先选一个机器人的URDF。接着可以选择一个你想要的动作,因为我们有丰富的动作数据库,当然也可以定制,当你选择好你的动作之后,重定向到一个机器人身上对我们来说是分钟级的,如果有了这样一个产品,相信对于机器人的动作训练将会达到一个更高的效率,更好的效果,相信能够帮助把机器人推进最终的应用场景会起到非常重要的作用。

  这个是目前拿到的已经开源的状态下的主流头部机器人厂商他们的机器人构型,都通过我们的数据和训练已经打通了,我们也希望能够帮助这些具身智能的合作伙伴们,把你们的产品能更好的,更加匹配客户需求的推向客户场景。

  这是一个机器人在跑,这就是哲源同学的机器人在参加亦庄机器人马拉松之前训练时候的视频,当我看到这个视频的时候,本人是非常有感触,漆黑的环境下小小的身体努力的向前跑着,看到这个以后,我们所处的AI大的环境包括现在所处的机器人发展向前的大环境有诸多的不确定性,但是否就像机器人一样,看到周围还是有灯光的,所有行业同仁们聚在一起,虽然前路有诸多的不确定,虽然颠簸,但是一直向前,终将会走出这片黑暗。

  同时机器人小脑机器人运动控制的一家企业,我们也想跟所有做具身智能的合作伙伴们做一个保证,我们在你们的身后,你们就永远不怕跌倒。谢谢!

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

转载请注明来自北京夏犹清建筑装饰,本文标题:《刘耀东:空间计算是未来AI发展的一个大趋势》

每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,2人围观)参与讨论

还没有评论,来说两句吧...