CN109166181A - 一种基于深度学习的混合动作捕捉系统 - Google Patents

一种基于深度学习的混合动作捕捉系统 Download PDF

Info

Publication number
CN109166181A
CN109166181A CN201810914454.8A CN201810914454A CN109166181A CN 109166181 A CN109166181 A CN 109166181A CN 201810914454 A CN201810914454 A CN 201810914454A CN 109166181 A CN109166181 A CN 109166181A
Authority
CN
China
Prior art keywords
attitude information
optical
module
information
inertial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810914454.8A
Other languages
English (en)
Inventor
路晗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Hyun Sensation Mdt Infotech Ltd
Original Assignee
Suzhou Hyun Sensation Mdt Infotech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Hyun Sensation Mdt Infotech Ltd filed Critical Suzhou Hyun Sensation Mdt Infotech Ltd
Priority to CN201810914454.8A priority Critical patent/CN109166181A/zh
Publication of CN109166181A publication Critical patent/CN109166181A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

本发明实施例公开了一种基于深度学习的混合动作捕捉系统,所述系统包括:惯性动作捕捉模块,用于获取对象的惯性姿态信息;光学动作捕捉模块,用于获取所述对象的光学姿态信息;通讯模块,用于发送所述惯性姿态信息、光学姿态信息至分析模块;分析模块,用于根据预设的混合模型对所述惯性姿态信息、光学姿态信息进行融合处理,得到所述对象的最优运动估计。如此,通过综合利用惯性动作捕捉不受遮挡和光学动作捕捉数据准确的特点,并且经过深度学习训练,得到综合了惯性动作捕捉和光学动作捕捉特点的混合模型,保证了最终数据的精确性。

Description

一种基于深度学习的混合动作捕捉系统
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于深度学习的混合动作捕捉系统。
背景技术
传统的计算机视觉三维重建具有高精度、高成本、高延时的特点,而虚拟现实采用的动作捕捉技术具有成本低、延时低和高精度的特点。目前国内主要的动作捕捉技术可分为惯性动作捕捉技术,光学动作捕捉技术等运动捕捉方式。惯性动作捕捉技术采用惯性传感器采集运动对象各个关节的运动信息,捕捉精度不高,但是实时性好,可采集遮挡的运动;光学动作捕捉采用一个或多个摄像头拍摄运动对象同一个接收点产生的视差计算其空间位置和旋转信息,捕捉精度高,但是易受动作遮挡影响。
发明内容
有鉴于此,本发明实施例期望提供一种基于深度学习的混合动作捕捉系统,本发明的技术方案是这样实现的:
一种基于深度学习的混合动作捕捉系统,所述系统包括:
惯性动作捕捉模块,用于获取对象的惯性姿态信息;
光学动作捕捉模块,用于获取所述对象的光学姿态信息;
通讯模块,用于发送所述惯性姿态信息、光学姿态信息至分析模块;
分析模块,用于根据预设的混合模型对所述惯性姿态信息、光学姿态信息进行融合处理,得到所述对象的最优运动估计。
上述方案中,所述惯性动作捕捉模块,包括:
惯性测量单元,所述惯性测量传感器固定在所述对象上,用于获取所述对象的角速度信息、加速度信息和磁力信息。
上述方案中,所述惯性测量传感器包括:
三轴陀螺仪、三轴加速度计、三轴磁力计。
上述方案中,所述光学动作捕捉模块,包括:光学测量标记和光学摄像头,所述光学测量标记贴在所述对象的关节处,用于获取所述对象的光学姿态信息。
上述方案中,所述光学动作捕捉模块,还用于:获取所述对象的三维位置信息和运动矢量信息。
上述方案中,所述光学摄像头的数量为一个或者多个。
上述方案中,所述分析模块对所述惯性姿态信息、光学姿态信息进行融合处理之前,还包括:
基于多个样本对象的惯性姿态信息、光学姿态信息进行学习训练,获得所述混合模型。
上述方案中,所述系统还包括:
图像处理模块,用于创建三维场景,根据最优运动估计创建所述对象的虚拟体,并生成将所述虚拟体合成至所述三维场景中的图像。
上述方案中,所述系统还包括:
VR模块,用于显示根据所述图像处理模块生成的所述图像。
本发明实施例所提供的一种基于深度学习的混合动作捕捉系统,所述系统包括:惯性动作捕捉模块,用于获取对象的惯性姿态信息;光学动作捕捉模块,用于获取所述对象的光学姿态信息;通讯模块,用于发送所述惯性姿态信息、光学姿态信息至分析模块;分析模块,用于根据预设的混合模型对所述惯性姿态信息、光学姿态信息进行融合处理,得到所述对象的最优运动估计。如此,通过综合利用惯性动作捕捉不受遮挡和光学动作捕捉数据准确的特点,并且经过深度学习训练,得到综合了惯性动作捕捉和光学动作捕捉的混合模型,保证了最终数据的精确性。
附图说明
图1为本发明实施例基于深度学习的混合动作捕捉系统组成示意图;
图2为本发明实施例基于深度学习的混合动作捕捉系统的惯性动作捕捉模块组成示意图;
图3为本发明实施例基于深度学习的混合动作捕捉系统的光学动作捕捉模块组成示意图;
图4为本发明另一实施例基于深度学习的混合动作捕捉系统组成示意图;
图5为本发明另一实施例基于深度学习的混合动作捕捉系统组成示意图。
具体实施方式
下面结合实施例对本发明再作进一步详细的说明。
本发明实施例提供的基于深度学习的混合动作捕捉系统100,如图1所示,所述系统100包括:
惯性动作捕捉模块110,用于获取对象A的惯性姿态信息。
这里,如图2所示,惯性动作捕捉模块110包括:惯性测量单元210,所述惯性测量单元210固定在所述对象A上,用于获取所述对象A的角速度信息、加速度信息和磁力信息。所述惯性测量单元210包括:三轴陀螺仪211、三轴加速度计212、三轴磁力计213。
具体的,所述惯性测量单元210中包括姿态传感器,所述姿态传感器为9轴传感器,包括三轴陀螺仪211、三轴加速度计212、三轴磁力计213,所述惯性测量单元210根据对象A的动作轨迹采集角速度信息、加速度信息和磁力信息,即对象A的骨骼姿态信息。三轴陀螺仪211、三轴加速度传感器212和三轴磁力计213分别对人体接触部位的加速度、角速度和地磁场强度进行采集。
另外,所述姿态传感器也可以是AHRS传感器,通过所述AHRS传感器获取对象A的骨骼姿态信息。
进一步的,所述惯性测量单元210的数量和固定在对象A上的位置可以根据实际应用场景进行设定,一般设置为至少4个,用来捕捉对象A的四肢、躯干和头部的动作信息。可以将所述惯性测量单元体210的数量设置为四个,分别固定在对象A的双大臂、双小腿,用来捕捉对象A四肢的动作姿态信息。也可以将惯性测量单元210的数量设置为8个,固定在对象A的双大臂、双小臂、双大腿、双小腿的关节处,用来捕捉对象A更加详细的动作姿态信息。
例如,设置惯性测量单元G的数量为10个,分别固定在对象A的双大臂、双小臂、双手、双大腿、双小腿的关节处,用来获取对象A运动轨迹的角速度信息、加速度信息和磁力信息。
光学动作捕捉模块120,用于获取所述对象A的光学姿态信息。
这里,如图3所示,光学动作捕捉模块120包括:光学测量标记310和光学摄像头320,所述光学测量标记310贴在所述对象A的关节处,用于获取所述对象A的光学姿态信息,所述光学摄像头320的个数为一个或者多个。
这里,光学动作捕捉模块120还可以捕获对象A的三维位置信息和运动矢量信息。
具体的,光学测量标记的数量可以是多个,分别贴在对象A的关节处,所述光学摄像头可以根据追踪光学测量标记的运动来捕捉对象A的光学姿态信息。
进一步的,所述光学测量标记310可以是反光标记,反光标记的数量可以是多个,例如是四个,分别贴在对象A的关节处,这样,可以降低反光标记在对象A运动的过程中,反光标记被遮挡的可能性。光学摄像头320的数量可以是一个或者多个,当有多个光学摄像头320时,可以将所述多个光学摄像头320排列成扇形,使得对象A的活动范围在所述多个光学摄像头320可以追踪的空间范围之内。所述光学姿态信息还包括对象A的三维位置信息和运动矢量信息。
例如,设置光学测量标记L的数量设置为4个,分别标记在对象A的双肩、前胸、后背上,光学摄像头C的数量设置为2个,分别排列在一个房间的对角线上,光学摄像头C可以根据光学测量标记来追踪对象A的光学姿态信息,所述光学姿态信息还包括对象A的三维位置信息和运动矢量信息。
通讯模块130,用于发送所述惯性姿态信息、光学姿态信息至分析模块140。
具体的,在惯性运动捕捉模块和光学运动捕捉模块上分别都设置有通信单元,将所述惯性测量单元获取的对象A的惯性姿态信息和所述光学运动捕捉模块获取的对象A的光学姿态信息发送至分析模块140。通信单元与分析模块140的连接方式可以是通过无线网络、蓝牙、USB等连接方式进行数据的传输。具体的连接方式,可以根据实际的应用和采用的惯性测量单元和光学摄像头的型号和装置进行选择。
例如,惯性运动捕捉模块G将所述对象A的惯性姿态信息通过无线通信网络发送至分析模块E,光学摄像头C将所述对象A的光学姿态信息通过USB接口进行有线数据传输,将所述光学姿态信息发送至分析模块E。
分析模块140,用于根据预设的混合模型对所述惯性姿态信息、光学姿态信息进行融合处理,得到所述对象A的最优运动估计。
这里,分析模块140对所述惯性姿态信息、光学姿态信息进行融合处理之前,还包括:基于多个对象的样本惯性姿态信息、光学姿态信息进行学习训练,获得所述混合模型M。
具体的,分析模块140可以预先采集不同对象的惯性姿态信息和光学姿态信息,进行学习训练,采用的深度学习神经网络可以根据不同的精度进行不同的选择,例如,选择卷积神经网络,得到不同对象的混合模型M。
进一步的,决定混合模型M的是采集的样本的惯性姿态信息和光学姿态信,因此,应当确保样本的准确性,在样本数据采集的过程中,应当确保样本对象运动过程中,数据采集的准确性和完整性。
具体的,分析模块140通过数据滤波传感器将获取到的加速度、角速度和地磁场强度信息进行初级滤波处理,然后将处于正常范围内的加速度、角速度和地磁场强度信号信息,生成四元数或者欧拉角,然后通过卡尔曼滤波器采用卡尔曼滤波算法将接收到的加速度、角速度和地磁场强度数据进行深层次滤波与融合,生成对象A的惯性姿态信息。
具体的,分析模块140根据对象A的惯性姿态信息和光学姿态信息根据预设的模型M进行融合处理,得到对象A的最优运动估计。
例如,分析模块E首先根据采集到的样本数据进行学习训练,得到混合模型M。然后,根据获取到的对象A的惯性姿态信息和光学姿态信息进行处理,得到对象A的最优运动估计。
如此,通过综合利用惯性动作捕捉不受遮挡和光学动作捕捉数据准确的特点,并且经过深度学习训练,得到综合了惯性动作捕捉和光学动作捕捉的混合模型,保证了最终数据的精确性。
本发明实施例提供的基于深度学习的混合动作捕捉系统400,如图4所示,所述系统400还包括:图像处理模块410,用于创建三维场景,根据最优运动估计创建所述对象A的虚拟体,并生成将所述虚拟体合成至所述三维场景中的图像。
具体的,图像处理模块410、分析模块140都可以运行于上位计算机,上位计算机上可以设置有存储器,所述存储器上可以存储有预先拍摄的场景的图片,图像处理模块410可以根据所述图片通过算法创建三维场景;或者,所述图像处理模块可以与摄像头相连接,实时根据摄像头拍摄的图片创建三维场景。
具体的,图像处理模块410可以通过对象A的最优运动估计数据创建所述对象A的虚拟体,并且将所述虚拟体合成至创建的三维场景的图像中。
例如,图像处理模块P运行于上位计算机M上,基于上述实施例得到所述对象A的最优运动估计,图像处理模块P通过存储器上存储的图片创建三维场景S,通过对象A的最优运动估计得到对象A的虚拟体,并将所述虚拟体合成至三维场景S中。
如此,可以根据不同的图片生成不同的三维场景,将通过深度学习得到的精确的最优运动估计创建对象的虚拟体,可以将所述虚拟体合成至不同的三维场景中,这样,就可以得到不同场景下的虚拟体运动,增加了所述系统的应用场景。
本发明实施例提供的基于深度学习的混合动作捕捉系统500,如图5所示,所述系统500还包括:VR设备510,用于显示根据所述图像处理模块410生成的所述图像。
具体的,所述VR设备510的型号可以根据实际应用进行选择,所述VR设备510可以跟图像处理模块410相连,VR设备510上设置有显示屏,通过所述显示屏,将图像处理模块410生成的图像进行显示。
例如,VR设备R与上位计算机M相连,VR设备佩戴在对象A头上,VR设备的显示屏上显示上述实施例创建的三维图像S。
如此,可以根据不同的图片生成不同的三维场景,将通过深度学习得到的精确的最优运动估计创建对象的虚拟体,可以将所述虚拟体合成至不同的三维场景中,这样,就可以得到不同场景下的虚拟体运动,并且可以将所述三维场景显示在VR设备上,大大提高了用户体验感。
以上所述,仅为本发明的最佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于深度学习的混合动作捕捉系统,其特征在于,所述系统包括:
惯性动作捕捉模块,用于获取对象的惯性姿态信息;
光学动作捕捉模块,用于获取所述对象的光学姿态信息;
通讯模块,用于发送所述惯性姿态信息、光学姿态信息至分析模块;
分析模块,用于根据预设的混合模型对所述惯性姿态信息、光学姿态信息进行融合处理,得到所述对象的最优运动估计。
2.根据权利要求1所述的系统,其特征在于,所述惯性动作捕捉模块,包括:
惯性测量单元,所述惯性测量单元固定在所述对象上,用于获取所述对象的角速度信息、加速度信息和磁力信息。
3.根据权利要求2所述的系统,所述惯性测量单元包括:
三轴陀螺仪、三轴加速度计、三轴磁力计。
4.根据权利要求1所述的系统,其特征在于,所述光学动作捕捉模块,包括:光学测量标记和光学摄像头,所述光学测量标记贴在所述对象的关节处,用于获取所述对象的光学姿态信息。
5.根据权利要求4所述的系统,所述光学摄像头的数量为一个或者多个。
6.根据权利要求4所述的系统,所述光学动作捕捉模块,还用于:获取所述对象的三维位置信息和运动矢量信息。
7.根据权利要求1-6任一项所述的系统,其特征在于,所述分析模块对所述惯性姿态信息、光学姿态信息进行融合处理之前,还包括:
基于多个样本对象的惯性姿态信息、光学姿态信息进行学习训练,获得所述混合模型。
8.根据权利要求1所述的系统,其特征在于,所述系统还包括:
图像处理模块,用于创建三维场景,根据最优运动估计创建所述对象的虚拟体,并生成将所述虚拟体合成至所述三维场景中的图像。
9.根据权利要求8所述的系统,其特征在于,所述系统还包括:
VR模块,用于显示根据所述图像处理模块生成的所述图像。
CN201810914454.8A 2018-08-12 2018-08-12 一种基于深度学习的混合动作捕捉系统 Pending CN109166181A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810914454.8A CN109166181A (zh) 2018-08-12 2018-08-12 一种基于深度学习的混合动作捕捉系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810914454.8A CN109166181A (zh) 2018-08-12 2018-08-12 一种基于深度学习的混合动作捕捉系统

Publications (1)

Publication Number Publication Date
CN109166181A true CN109166181A (zh) 2019-01-08

Family

ID=64895675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810914454.8A Pending CN109166181A (zh) 2018-08-12 2018-08-12 一种基于深度学习的混合动作捕捉系统

Country Status (1)

Country Link
CN (1) CN109166181A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928432A (zh) * 2019-10-24 2020-03-27 中国人民解放军军事科学院国防科技创新研究院 指环鼠标、鼠标控制装置及鼠标控制系统
CN111207741A (zh) * 2020-01-16 2020-05-29 西安因诺航空科技有限公司 一种基于室内视觉vicon系统的无人机导航定位方法
CN111947650A (zh) * 2020-07-14 2020-11-17 杭州瑞声海洋仪器有限公司 基于光学追踪与惯性追踪的融合定位系统及方法
CN112702522A (zh) * 2020-12-25 2021-04-23 李灯 一种基于vr直播系统的自适应控制播放方法
WO2022061495A1 (zh) * 2020-09-22 2022-03-31 深圳市大疆创新科技有限公司 参数标定方法、装置及可移动平台
CN115120217A (zh) * 2022-08-25 2022-09-30 首都医科大学附属北京同仁医院 一种运动伪影去除方法、装置、存储介质及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104658012A (zh) * 2015-03-05 2015-05-27 第二炮兵工程设计研究院 一种基于惯性与光学测量融合的运动捕捉方法
CN104834917A (zh) * 2015-05-20 2015-08-12 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
US20180070864A1 (en) * 2016-06-02 2018-03-15 Matthew Schuster Methods and devices for assessing a captured motion
US20180096259A1 (en) * 2016-09-30 2018-04-05 Disney Enterprises, Inc. Deep-learning motion priors for full-body performance capture in real-time
CN108106614A (zh) * 2017-12-22 2018-06-01 北京轻威科技有限责任公司 一种惯性传感器与视觉传感器数据融算法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104658012A (zh) * 2015-03-05 2015-05-27 第二炮兵工程设计研究院 一种基于惯性与光学测量融合的运动捕捉方法
CN104834917A (zh) * 2015-05-20 2015-08-12 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
US20180070864A1 (en) * 2016-06-02 2018-03-15 Matthew Schuster Methods and devices for assessing a captured motion
US20180096259A1 (en) * 2016-09-30 2018-04-05 Disney Enterprises, Inc. Deep-learning motion priors for full-body performance capture in real-time
CN108106614A (zh) * 2017-12-22 2018-06-01 北京轻威科技有限责任公司 一种惯性传感器与视觉传感器数据融算法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
孙水发等: "《3D打印逆向建模技术及应用》", 南京:南京师范大学出版社, pages: 4 *
张雪波等: "室外环境下PTZ摄像机全自动标定技术及其应用", 《机器人》 *
张雪波等: "室外环境下PTZ摄像机全自动标定技术及其应用", 《机器人》, vol. 35, no. 04, 15 July 2013 (2013-07-15), pages 385 - 393 *
王琦: "基于惯性测量和肌电控制的体感输入技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 07, 15 July 2015 (2015-07-15), pages 137 - 67 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928432A (zh) * 2019-10-24 2020-03-27 中国人民解放军军事科学院国防科技创新研究院 指环鼠标、鼠标控制装置及鼠标控制系统
CN110928432B (zh) * 2019-10-24 2023-06-23 中国人民解放军军事科学院国防科技创新研究院 指环鼠标、鼠标控制装置及鼠标控制系统
CN111207741A (zh) * 2020-01-16 2020-05-29 西安因诺航空科技有限公司 一种基于室内视觉vicon系统的无人机导航定位方法
CN111947650A (zh) * 2020-07-14 2020-11-17 杭州瑞声海洋仪器有限公司 基于光学追踪与惯性追踪的融合定位系统及方法
WO2022061495A1 (zh) * 2020-09-22 2022-03-31 深圳市大疆创新科技有限公司 参数标定方法、装置及可移动平台
CN112702522A (zh) * 2020-12-25 2021-04-23 李灯 一种基于vr直播系统的自适应控制播放方法
CN115120217A (zh) * 2022-08-25 2022-09-30 首都医科大学附属北京同仁医院 一种运动伪影去除方法、装置、存储介质及电子设备
CN115120217B (zh) * 2022-08-25 2022-11-25 首都医科大学附属北京同仁医院 一种运动伪影去除方法、装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
CN109166181A (zh) 一种基于深度学习的混合动作捕捉系统
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
CN104658012B (zh) 一种基于惯性与光学测量融合的运动捕捉方法
KR101424942B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
CN106774844B (zh) 一种用于虚拟定位的方法及设备
Foxlin Motion tracking requirements and technologies
CN106447766B (zh) 一种基于移动设备单目相机的场景重建方法及装置
Klein et al. Robust visual tracking for non-instrumental augmented reality
CN104699247A (zh) 一种基于机器视觉的虚拟现实交互系统及方法
CN105094335B (zh) 场景提取方法、物体定位方法及其系统
CN110617814A (zh) 单目视觉和惯性传感器融合的远距离测距系统及方法
CN106643699A (zh) 一种虚拟现实系统中的空间定位装置和定位方法
SE527257C2 (sv) Anordning och metod för att presentera en omvärldsbild
CN111275015A (zh) 一种基于无人机的电力巡线电塔检测识别方法及系统
Oskiper et al. Augmented reality binoculars
CN106843507A (zh) 一种虚拟现实多人互动的方法及系统
CN108257177A (zh) 基于空间标识的定位系统与方法
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
CN109358754A (zh) 一种混合现实头戴显示系统
CN107193380A (zh) 一种低成本高精度虚拟现实定位及交互系统
CN109767470A (zh) 一种跟踪系统初始化方法及终端设备
CN109716396A (zh) 信息处理设备、信息处理方法和程序
CN109448105A (zh) 基于多深度图像传感器的三维人体骨架生成方法及系统
CN110262667A (zh) 一种虚拟现实设备及定位方法
CN112486331A (zh) 基于imu的三维空间手写输入方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190108

RJ01 Rejection of invention patent application after publication