CN114510143A - 动作捕捉设备和动捕程序 - Google Patents
动作捕捉设备和动捕程序 Download PDFInfo
- Publication number
- CN114510143A CN114510143A CN202011182763.4A CN202011182763A CN114510143A CN 114510143 A CN114510143 A CN 114510143A CN 202011182763 A CN202011182763 A CN 202011182763A CN 114510143 A CN114510143 A CN 114510143A
- Authority
- CN
- China
- Prior art keywords
- motion
- data
- module
- gesture
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本发明的技术方案包括动作捕捉设备和动捕程序,用于实现:包括动作捕捉模块用于捕捉全身动作;手势捕捉模块用于捕捉手势动作;面部捕捉模块用于捕捉面部动作,通过动作捕捉模块捕捉对象全身动作数据,并激活引擎中全身模型;手势捕捉模块捕捉对象手势动作数据,并生成各关节的动作模型;面部捕捉模块捕捉对象面部数据,并激活包括五官及其他关键点的面部模型;将激活的全身系节点接收数据、手势动作数据以及面部动作数据进行整合处理,得到完整的待捕捉对象动作数据。本发明的有益效果为:解决了以往标记点动作捕捉系统的价格昂贵,设备复杂的缺点;解决了以往标记点动作捕捉系统,演员穿戴服装时间长、设备调试时间长的问题。
Description
技术领域
本发明涉及动作捕捉设备和动捕程序,属于信息采集驱动领域。
背景技术
从技术的角度来说,运动捕捉的实质就是要测量、跟踪、记录物体在三维空间中的运动轨迹。典型的运动捕捉设备一般由以下几个部分组成:传感器。是固定在运动物体特定部位的跟踪装置,它将向Motioncapture系统提供运动物体运动的位置信息,一般会随着捕捉的细致程度确定跟踪器的数目。
信号捕捉设备。这种设备会因Motioncapture系统的类型不同而有所区别,它们负责位置信号的捕捉。对于机械系统来说是一块捕捉电信号的线路板,对于光学Motioncapture系统则是高分辨率摄像机。数据传输设备。Motioncapture系统,特别是需要实时效果的Motioncapture系统需要将大量的运动数据从信号捕捉设备快速准确地传输到计算机系统进行处理,而数据传输设备就是用来完成此项工作的。
发明内容
本发明解决其问题所采用的技术方案一方面是:动作捕捉设备和动捕程序,包括,动作捕捉模块、手势捕捉模块、面部捕捉模块即摄像机,其特征在于:所述动作捕捉模块用于捕捉全身动作;所述手势捕捉模块用于捕捉手势动作;所述面部捕捉模块用于捕捉面部动作。进一步的,所述动作捕捉模块还包括:全身动作采集模块,用于采集待捕捉对象全身动作数据;模型激活引擎中人物模块,用于根据全身动作数据生成包括各关节的运动模型;发说明书收模块,用于按照预设频率发射射线,并收集射线的反馈数据;全身动作判断模块用于根据反馈数据判断待捕捉对象是否在预设时间内发生动作;动作捕捉控制模块,用于根据判断模块输出的判断结果,对动作模块执行切换工作状态操作。进一步的,所述全身动作判断模块还包括深度传感器模块,用于根据发收模块收集的数据,判断捕捉对象的距离。进一步的,所述发射模块还包括发射控制子模块,用于设置发射线的频率和控制发射管的工作时间以及工作状态。进一步的,所述手势捕捉模块还包括:手势动作采集模块,用于采集待捕捉对象的手势动作数据;手指关节模型生成模块,用于根据手势动作数据生成各关节的运动模型;手势动作判断模块,用于判断待捕捉对象手势是否在预设时间内发生动作;手势捕捉控制模块,用于根据判断模块输出的判断结果,对手势捕捉模块执行切换工作状态操作。进一步的,所述面部捕捉模块还包括:面部动作采集模块,用于采集待捕捉对象面部动作数据;面部模型生成模块,用于根据面部动作数据生成五官及关键点的面部模型;面部动作判断模块,用于判断待捕捉对象面部是否在预设时间内发生动作;面部捕捉控制模块,用于根据判断模块输出的判断结果,对面部捕捉模块执行切换工作状态操作。本发明解决其问题所采用的技术方案另一方面是:动作捕捉设备和动捕程序,其特征在于,该方法包括以下步骤:动作捕捉模块捕捉对象全身动作数据,并生成全身模型;手势捕捉模块捕捉对象手势动作数据,并生成各关节的动作模型;面部捕捉模块捕捉对象面部动作数据,并生成包括五官及其他关键点的面部模型;将获得的全身动作数据、手势动作数据以及面部动作数据进行整合处理,得到完整的待捕捉对象动作数据。进一步的,所述完整的待捕捉对象动作数据包括待捕捉对象的各关节与肢体的三维位置、面部动作表情以及与之对应的时间节点,还包括捕捉对象与采集设备的距离以及待测对象发出的语音信息。本发明的有益效果是:本发明采用的一种动作捕捉系统及其方法,解决了以往标记点动作捕捉系统的价格昂贵,设备复杂的缺点;解决了以往标记点动作捕捉系统,演员穿戴服装时间长、设备调试时间长的问题。
附图说明
图1所示为动作捕捉系统结构示意图;
图2所示为动作捕捉系统实施例一的示意图;
图3所示为动作捕捉系统实施例二的示意图;
图4所示为动作捕捉系统实施例三的示意图;
图5所示为动作捕捉方法流程示意图;
具体实施方式为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。参照1所示为动作捕捉系统结构示意图,包括,动作捕捉模块、手势捕捉模块、面部捕捉模块,其特征在于:动作捕捉模块用于捕捉全身动作;手势捕捉模块用于捕捉手势动作;面部捕捉模块用于捕捉面部动作。参照图2所示为动作捕捉系统实施例一的示意图,动作捕捉模块还包括:全身动作采集模块,用于采集待捕捉对象全身动作数据;模型生成模块,用于根据全身动作数据生成包括各关节的运动模型;发收模块,用于按照预设频率发射射线,并收集射线的反馈数据;全身动作判断模块,用于根据反馈数据判断待捕捉对象是否在预设时间内发生动作;动作捕捉控制模块,用于根据判断模块输出的判断结果,对动作模块执行切换工作状态操作。具体的以微软Kinect体感外设产品为例,通过一个激光投影镜头将一组激光点阵投射到玩家身上,另外两个CMOS摄像头对此进行X,Y,Z坐标的3D扫描,通过置的专利算法,以此分辨玩家、背景、以及玩家的动作意图,其精确的空间定位性能适用于更为广泛的游戏和互操作领域中。Kinect可一次取得3种信息,其中有普通摄像头的彩色影像、3D线反射得到的深度数据、声音讯号。在Kinect机器上一共有3颗镜头,位于中间的是普通RGB彩色摄像头,左右两边镜头则分别为线发射器和线CMOS摄影头所构成的3D深度传感器,Kinect主要就是靠3D深度传感器检测玩家的动作。中央的RGB彩色摄像头主要用来识别使用者身份,使用人脸或是身材特征做识别。除此之外也可应用在扩增实境(AugmentedReality)上的游戏,同时也有视频功能。并搭配底座的马达追踪模式,跟随目标物体自动转动镜头位置,自动寻找最适合的画面中央对焦位置。Kinect其最重要的核心技术就是3D深度信息处理技术,深度信息主要来自于线发射器与线摄影机的接收,由此来判断目标物体的距离。微软使用的3D深度信息技术来自于与PrimeSense公司的合作。PrimeSense提供了动作检测技术以及检测芯片PS1080,并使用光编码(Lightcoding)专利技术但与传统的结构光方法不同的是,它发射的不仅是一套周期性变化的二维动作编码,而且是具有三维纵深数据的“体积编码”。这种光源叫做激光散斑(laserspeckle),是当激光照射到粗糙物体或穿透毛玻璃后形成的随机衍射斑点。这些散斑具有高度的随机性,而且会随着距离的不同变换图案,也就是说空间中任意两点的散斑图案都是不同的。CMOS传感器根据设定的距离参考平面来收集摄像头视野范围空间内的每一点,通过反射得到的黑白光谱方式来感知周围环境:纯黑代表无穷远,纯白代表无穷近。黑白间的灰色地带对应物体到传感器的物理距离,再通过层叠峰值和插值计算,形成一幅代表周围环境的景深动作。传感器以30帧/s的速度生成景深动作流,完全实时3D再现周围环境。参照图3所示为动作捕捉系统实施例二的示意图,手势捕捉模块还包括:手势动作采集模块,用于采集待捕捉对象的手势动作数据;手指关节模型生成模块,用于根据手势动作数据生成各关节的运动模型;手势动作判断模块,用于判断待捕捉对象手势是否在预设时间内发生动作;手势捕捉控制模块,用于根据判断模块输出的判断结果,对手势捕捉模块执行切换工作状态操作。具体的以LEAPMOTION手部捕捉器为例,在通过USB连接电脑后,它会创造出一个4立方英尺的工作空间。在这个空间里你10个手指的动作都会被即时追踪,误差在1/100毫米以内。这样的精准程度就能保证用户顺利完成像pinch-to-zoom或控制3D渲染物体等操作。
关于这项技术所采用的原理Leap Motion并没有透露,不过他们表示任何有运算能力的设备,大到冰箱小到电话,都可以加入他们的软件。用户也可以根据自己的需要来设定手势及灵敏度,而且通过连接几台Leap设备还能造出一个更大的工作区域。另外,LeapMotion也为开发者们准备了SDK,希望他们能开发出Leap适用的应用,同时建立起一个应用搜索平台以便用户查找。这样的话未来的Leap就会有更多的可能性,无论是简单的电脑控制,还是游戏、设计等复杂一些的操作。检测的范围大体在传感器上方25毫米到600毫米之间,检测的空间大体是一个倒四棱锥体。首先,Leap Motion传感器会建立一个直角座标系,座标的原点是传感器的中心,座标的X轴平行于传感器,指向屏幕右方。Y轴指向上方。Z轴指向背离屏幕的方向。单位为真实世界的毫米。在使用过程中,Leap Motion传感器会定期的发送关于手的运动信息,每份这样的信息称为「帧」(frame)。每一个这样的帧包含检测到的:
所有手掌的列表及信息;
所有手指的列表及信息;
所有可指向对象(Pointable Object),即所有手指和工具的列表及信息;
Leap传感器会给所有这些分配一个唯一标识(ID),在手掌、手指、工具保持在视野范围内时,是不会改变的。根据这些ID,可以通过Frame::hand(),Frame::finger()等函数来查询每个运动对象的信息。Leap可以根据每帧和前帧检测到的数据,生成运动信息。例如,若检测到两只手,并且两只手都超一个方向移动,就认为是平移;若是像握着球一样转动,则记为旋转。若两只手靠近或分开,则记为缩放。所生成的数据包含:
旋转的轴向向量;
旋转的角度(顺时针为正);
描述旋转的矩阵;
缩放因子;
平移向量;
对于每只手,可以检测到如下信息:
手掌中心的位置(三维向量,相对于传感器座标原点,毫米为单位);
手掌移动的速度(毫米每秒);
手掌的法向量(垂直于手掌平面,从手心指向外);
手掌朝向的方向;
根据手掌弯曲的弧度确定的虚拟球体的中心;
根据手掌弯曲的弧度确定的虚拟球体的半径;
其中:「手掌球」的圆心和半径:对于每个手掌,亦可检测出平移、旋转(如转动手腕带动手掌转动)、缩放(如手指分开、聚合)的信息。检测的数据如全局变换一样,包括:
旋转的轴向向量;
旋转的角度(顺时针为正);
描述旋转的矩阵;
缩放因子;
平移向量;
Leap除了可以检测手指外,也可以检测手持的工具。像上文所说的,就是细的、笔直的、比手指长的物件:对于手指和工具,会统一地称为可指向对象(Pointable Object)每个Pointable Object包含了这些信息:
长度;
宽度;
方向;
指尖位置;
指尖速度;根据全局的信息、运动变换,手掌、手指和工具的信息和变换,开发者就
可以靠这些来制作游戏、程序了。
参照图4所示为动作捕捉系统实施例三的示意图,面部捕捉模块还包括:面部动作采集模块,用于采集待捕捉对象面部动作数据;面部模型生成模块,用于根据面部动作数据生成五官及关键点的面部模型;面部动作判断模块,用于判断待捕捉对象面部是否在预设时间内发生动作;面部捕捉控制模块,用于根据判断模块输出的判断结果,对面部捕捉模块执行切换工作状态操作。
具体的说,实时采集摄像头拍摄到的每一帧动作,对动作进行直方图均衡化并归一化。
对归一化的动作采用Viola-Jones分类算法,通过boost筛选式级联分类器在动作中检测人脸的位置。如果人脸检测失败,通过Haar分类器调用Viola-Jones分类算法在动作中检测人的双眼,通过双眼的偏转角度生成偏转矩阵,对动作进行偏转校正,再继续进行人脸的定位。检测到人脸位置后,采用动作锐化、直方图均衡化、数学形态学的Erode、Dilate算法、Ostu自适应阈值分割等动作处理方法对人脸区域动作进行动作分割;通过Freeman链码跟踪算法得到每个可能的特征标识点区域;采用多个反射空间下的几何不变量作为特征值对特征标识点进行模式识别,从而获得所有特征标识点的坐标。
参照图5所示为动作捕捉方法流程示意图,动作捕捉模块捕捉对象全身动作数据,并生成全身模型;手势捕捉模块捕捉对象手势动作数据,并生成各关节的动作模型;
面部捕捉模块捕捉对象面部动作数据,并生成包括五官及其他关键点的面部模型;
将获得的全身动作数据、手势动作数据以及面部动作数据进行整合处理,得到完整的待
捕捉对象动作数据。所述完整的待捕捉对象动作数据包括待捕捉对象的各关节与肢体的三维
位置、面部动作表情以及与之对应的时间节点,还包括捕捉对象与采集设备的距离以及待测
对象发出的语音信息。
为了优化工作状态,其中还具有以下功能,
动作捕捉模块捕捉对象全身动作数据,并生成全身模型还包括当全身动作判断模块输出
待测对象未动作的结果时,动作捕捉控制模块将动作捕捉模块的工作状态切换为待机状态;
手势捕捉模块捕捉对象手势动作数据,并生成各关节的动作模型还包括当手势动作判断
模块输出待测对象未动作的结果时,手势捕捉控制模块将手势捕捉模块的工作状态切换为待
机状态;面部捕捉模块捕捉对象面部动作数据,并生成包括五官及其他关键点的面部模型还包括当面部动作判断模块输出待测对象未动作的结果时,面部捕捉控制模块将面部捕捉模块的工作状态切换为待机状态。
在一些具体实施例中,设计和制作根据本发明过程如下:
A.绘制基于手势设备,摄像头和KINCET的全身动捕的设计图;
B.通过3D打印机打印基于手势设备,摄像头和KINCET的全身动捕的支架;
C.将LEAPMOTION手部捕捉器,摄像头和KINCET相继安装在全身动捕支架上,进行
固定;
D.开发基于手势设备,摄像头和KINCET的全身动捕的软件系统和驱动程序;
E.将基于手势设备,摄像头和KINCET的全身动捕系统连接电脑,开始捕捉动作。
其中步骤A包括:在电脑草图设计软件中绘制于手势设备,摄像头和KINCET的全身动捕系统的设计草图,并进行验证,并采购系统所需要的相关零部件。其中步骤B包括:在3D设计软件中设计基于手势设备,摄像头和KINCET的全身动捕的系统的3D模型文件,然后将其模型文件输入3D打印机,打印其相关的零部件如外壳,支架,等模型。
其中步骤C包括:将LEAPMOTION手部动画识别系统安装到动捕系统的支架上,并对其进行校准,同样将KINCET动作识别模块和摄像头模块安装到支架上,并对角度进行调试,同时测试相关的焦距值,最后接通电源进行测试。其中步骤D包括:开发基于手势设备,摄像头和KINCET的全身动捕的系统的电脑端客户端软件,同时开发相关的硬件驱动程序,并将基于手势设备,摄像头和KINCET的全身动捕的系统和软件系统进行联调。其中步骤E包括:将基于手势设备,摄像头和KINCET的全身动捕的系统部署到动作捕捉房间,演员入动作捕捉房间进行,将基于设备,摄像头和KINCET的全身动捕的系统连接到电脑,打开相关的软件,演员开始进行动作捕捉记录。
Claims (8)
1.动作捕捉设备和动捕程序,包括,动作捕捉模块、手势捕捉模块、面部捕捉模块,其特征在于:所述动作捕捉模块用于捕捉全身动作;所述手势捕捉模块用于捕捉手势动作;所述面部捕捉模块用于捕捉面部动作。
2.根据权利要求1所述的动作捕捉系统,其特征在于,所述动作捕捉模块还包括:全身节点采集模块,用于采集待捕捉对象全身驱动数据;激活引擎骨骼关节点模块,用于绑定动捕捕捉模块各关节的运动数据。
3.根据权利要求2所述的动作捕捉系统,其特征在于,所述全身动作判断模块还包括深度传感器模块,用于根据节点模块收集的动作数据,解析数据与实际模型节点一一对应。
4.根据权利要求1所述的动作捕捉系统,其特征在于,所述手势捕捉模块还包括:手势数据采集模块,用于采集待捕捉对象的手势驱动数据;手指关节模型激活引擎中模块手部节点,用于将手势动作数据发送各手部运动节点。
5.根据权利要求1所述的动作捕捉系统,其特征在于,所述面部捕捉模块还包括:
面部摄像机数据采集,用于采集待捕捉对象面部变化动作数据;面部模型节点激活引擎模型面部节点,用于根据面部变化发送并驱动五官及关键点的面部数据。
6.动作捕捉设备和动捕程序,其特征在于,该方法包括以下步骤:动作捕捉模块捕捉对象全身动作数据,并激活全身动捕模型节点;手势捕捉模块捕捉对象手势运动数据,并激活全身手捕模型节点;面部捕捉模块捕捉对象面部运动数据,并激活包括五官及其他关键点的面部模型节点;将获得的全身动作数据、手势动作数据以及面部动作数据进行整合处理,统一发送到引擎中人物模型,并激活相应节点模型,开启四元数数据接收。
7.根据权利要求6所述的动作捕捉方法,其特征在于,所述完整的待捕捉对象动作数据包括待捕捉对象的各关节与肢体的三维位置、面部动作表情以及与之对应的时间节点,还包括捕捉对象与采集设备的距离。
8.根据权利要求7所述的动作捕捉方法,其特征在于:所述动作捕捉模块捕捉对象全身动作数据,并激活全身模型节点并开启全身骨骼节点数据接收与驱动;所述手势捕捉模块捕捉对象手势动作数据,并激活手部各关节并开启手部模型节点四元数的接收与驱动;所述面部捕捉模块捕捉对象面部动作数据,并激活包括五官及其他关键点的面部模型并开启五官及其关键点数据接收与驱动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182763.4A CN114510143A (zh) | 2020-10-29 | 2020-10-29 | 动作捕捉设备和动捕程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182763.4A CN114510143A (zh) | 2020-10-29 | 2020-10-29 | 动作捕捉设备和动捕程序 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114510143A true CN114510143A (zh) | 2022-05-17 |
Family
ID=81546461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011182763.4A Pending CN114510143A (zh) | 2020-10-29 | 2020-10-29 | 动作捕捉设备和动捕程序 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114510143A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118212391A (zh) * | 2024-05-20 | 2024-06-18 | 云图数字视觉科技(杭州)有限公司 | 一种计算机3d建模用的动捕设备 |
-
2020
- 2020-10-29 CN CN202011182763.4A patent/CN114510143A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118212391A (zh) * | 2024-05-20 | 2024-06-18 | 云图数字视觉科技(杭州)有限公司 | 一种计算机3d建模用的动捕设备 |
CN118212391B (zh) * | 2024-05-20 | 2024-07-30 | 云图数字视觉科技(杭州)有限公司 | 一种计算机3d建模用的动捕设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
US9778751B2 (en) | Gesture based control using three-dimensional information extracted over an extended depth of field | |
US8660303B2 (en) | Detection of body and props | |
KR100869447B1 (ko) | 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법 | |
Lee et al. | Handy AR: Markerless inspection of augmented reality objects using fingertip tracking | |
US8602887B2 (en) | Synthesis of information from multiple audiovisual sources | |
US8968091B2 (en) | Scalable real-time motion recognition | |
JP5697590B2 (ja) | 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 | |
CN109800645A (zh) | 一种动作捕捉系统及其方法 | |
US11164321B2 (en) | Motion tracking system and method thereof | |
Ren et al. | Change their perception: RGB-D for 3-D modeling and recognition | |
CN108198199A (zh) | 运动物体跟踪方法、运动物体跟踪装置和电子设备 | |
Pandey et al. | Efficient 6-dof tracking of handheld objects from an egocentric viewpoint | |
CN114510143A (zh) | 动作捕捉设备和动捕程序 | |
CN102591456B (zh) | 对身体和道具的检测 | |
Kopinski et al. | A time-of-flight-based hand posture database for human-machine interaction | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
Raees et al. | Thumb inclination-based manipulation and exploration, a machine learning based interaction technique for virtual environments | |
Ye et al. | Vics: A modular hci framework using spatiotemporal dynamics | |
Taha et al. | Human action recognition based on MSVM and depth images | |
Matulic et al. | Above-Screen Fingertip Tracking with a Phone in Virtual Reality | |
US20230133168A1 (en) | Method for identifying human postures and gestures for interaction purposes and portable hand-held device | |
TWI785871B (zh) | 姿勢識別方法、設備及存儲介質 | |
Hernández et al. | A bare-hand gesture interaction system for virtual environments | |
Li et al. | RoCap: A Robotic Data Collection Pipeline for the Pose Estimation of Appearance-Changing Objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230110 Address after: Room 1702, building 1, No. 188, Fuchunjiang Road, high tech Zone, Suzhou, Jiangsu 215000 Applicant after: Suzhou Kanglian Medical Technology Co.,Ltd. Address before: Zhangjiajingnan Road, Jiangsu Province Applicant before: Suzhou Tantra Intelligent Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |