CN104680570A - 一种基于视频的动作捕捉系统及方法 - Google Patents

一种基于视频的动作捕捉系统及方法 Download PDF

Info

Publication number
CN104680570A
CN104680570A CN201510129239.3A CN201510129239A CN104680570A CN 104680570 A CN104680570 A CN 104680570A CN 201510129239 A CN201510129239 A CN 201510129239A CN 104680570 A CN104680570 A CN 104680570A
Authority
CN
China
Prior art keywords
node
coordinate
rotation
destination node
field picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510129239.3A
Other languages
English (en)
Other versions
CN104680570B (zh
Inventor
喻春阳
郑清元
苏卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baker Technology (shenyang) Co Ltd
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201510129239.3A priority Critical patent/CN104680570B/zh
Publication of CN104680570A publication Critical patent/CN104680570A/zh
Application granted granted Critical
Publication of CN104680570B publication Critical patent/CN104680570B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明一种基于视频的动作捕捉系统及方法,属于动作捕捉技术领域,该系统包括格式转换模块、图像识别模块、中心点提取模块、三维坐标获取模块、欧拉角获取模块和BVH文件生成模块,使用该系统及方法设备简单,工作人员穿上带有不同颜色关节标志点的纯色服装,成本较少,只要摄像机可以录到演员全身即可,不易受到设备的空间限制,只要在视觉上可以识别的即可捕捉到。

Description

一种基于视频的动作捕捉系统及方法
技术领域
本发明属于动作捕捉技术领域,具体涉及一种基于视频的动作捕捉系统及方法。
背景技术
目前,常用的运动捕捉技术从原理上说可分为机械式、声学式、电磁式、主动光学式和被动光学式;不同原理的设备各有其优缺点,一般可从以下几个方面进行评价:定位精度、实时性、使用方便程度、可捕捉运动范围大小、抗干扰性、多目标捕捉能力以及与相应领域专业分析软件连接程度、此外,还有惯性导航运动捕捉;
当前动作捕捉设备存在以下缺点:
(1)、软件、设备和人员的成本对于小成本制作来说过于昂贵;
(2)、捕获系统对操作空间有特殊的需求,这取决于相机的视角或磁场畸变;
(3)、不遵循物理定律的运动无法捕捉到;
(4)、小成本公司若使用最原始的方法获得动画数据,在时间和人力上需要巨大的投入。.
发明内容
针对现有技术的不足,本发明提出一种基于视频的动作捕捉系统及方法,以达到降低成本、不受空间限制和提高动作识别能力的目的。
一种基于视频的动作捕捉系统,该系统包括格式转换模块、图像识别模块、中心点提取模块、三维坐标获取模块、欧拉角获取模块和BVH文件生成模块,其中,
格式转换模块:用于将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;
图像识别模块:用于读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;并将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;
中心点提取模块:用于通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;
三维坐标获取模块:用于将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将步骤6中所述的中心点分级设置子节点,并由最高级父节点向四周扩散分别获取每个节点的三维坐标;
欧拉角获取模块:用于获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面,获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度,并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;并将平面上一次性旋转的旋转角度转换为四元数,再根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;
BVH文件生成模块:用于根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
采用基于视频的动作捕捉系统进行的动作捕捉方法,包括以下步骤:
步骤1、工作人员穿上带有不同颜色关节标志点的纯色服装,确定每个关节标志点的色调、饱和度和亮度;
步骤2、通过摄像设备获取工作人员动作视频;
步骤3、采用格式转换模块将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;
步骤4、采用图像识别模块读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;
步骤5、将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;
步骤6、采用中心点提取模块通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;
步骤7、采用三维坐标获取模块将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将步骤6中所述的中心点分级设置子节点;
步骤8、采用三维坐标获取模块,由最高级父节点向四周扩散分别获取每个节点的三维坐标,具体步骤如下:
步骤8-1、根据上级父节点的Z坐标、每帧图像上的目标节点与上级父节点之间的距离和目标节点与上级父节点之间的实际骨骼长度,获取每个未遮挡节点的Z坐标;
步骤8-2、确定遮挡前后两帧图像上的目标节点与上级父节点连线之间的夹角,将该夹角除以帧间隔数,获得每帧图像中目标节点之间的夹角,结合该夹角和遮挡前后两帧图像上的目标节点的Z坐标,计算获得被遮挡目标节点的Z坐标;
步骤8-3、完成每个节点的三维坐标的获取;
步骤9、结合实际骨骼情况,采用欧拉角获取模块,在以上级父节点为原点的坐标系下,设定每个关节上的节点的三维坐标轴的旋转角度范围;
步骤10、采用欧拉角获取模块,确定直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角度,具体步骤如下:
步骤10-1、获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面;
步骤10-2、获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度;
步骤10-3、并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;
步骤10-4、在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;
步骤10-5、将平面上一次性旋转的旋转角度转换为四元数;
步骤10-6、根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;
步骤11、采用BVH文件生成模块根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
步骤8-1所述的获取每个未遮挡节点的Z坐标,具体公式如下:
Z n = Z p ± ( L 2 ) 2 - ( L 3 ) 2 - - - ( 1 )
其中,Zn表示目标节点的Z坐标;Zp表示Zn节点的上级父节点Z坐标;L2表示每帧图像上的目标节点与上级父节点之间的距离,L2=N×L1,N表示每帧图像中,腹部节点与胯部中点之间的距离,L1表示目标节点与上级父节点之间的实际距离除以腹部节点与胯部中点之间的实际距离,所获得的比值;L3表示目标节点与上级父节点之间的实际骨骼长度;
针对于公式(1),±的确定由K确定,若K>1,则取正;若K<1,则取负,若K=1,则取0;K=(S父节点/S子节点)/(M父节点/M子节点),其中,S父节点表示图像中上级父节点大小,S子节点表示图像中目标节点大小,M父节点表示实际中上级父节点大小,M子节点表示实际中目标节点大小。
步骤10-5所述的将上述旋转角度转换为四元数,具体公式如下:
w = cos ( α 2 ) x = sin ( α 2 ) n x y = sin ( α 2 ) n y z = sin ( α 2 ) n z - - - ( 2 )
其中,w、x、y、z表示四元数的值;α表示平面上一次性旋转的旋转角度,nx表示法向量的x坐标,ny表示法向量的y坐标,nz表示法向量的y坐标。
步骤10-6所述的根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角,具体公式如下:
其中,表示以上级父节点为原点的三维坐标系中,X轴旋转角度;θ表示以上级父节点为原点的三维坐标系中,Y轴旋转角度;ψ表示以上级父节点为原点的三维坐标系中,Z轴旋转角度;w、x、y、z表示四元数的值。
本发明优点:
该基于视频的动作捕捉系统及方法具有如下优点:
(1)、使用该系统及方法设备简单,成本较少;
(2)、只要摄像机可以录到演员全身即可,不易受到设备的空间限制;
(3)、只要在视觉上可以识别的即可捕捉到。
附图说明
图1为本发明一种实施例的基于视频的动作捕捉系统结构框图;
图2为本发明一种实施例的基于视频的动作捕捉方法流程图;
图3为本发明一种实施例的演员服装关节标志点示意图;
图4为本发明一种实施例的演员与摄像机位置关系示意图;
图5为本发明一种实施例的骨骼实际长度与图像中骨骼长度对比图,其中,图(a)为骨骼实际长度示意图,图(b)为图像中骨骼长度示意图,图(c)中为骨骼深度示意图。
具体实施方式
下面结合附图对本发明一种实施例做进一步说明。
本发明实施例中,如图1所示,基于视频的动作捕捉系统包括格式转换模块、图像识别模块、中心点提取模块、三维坐标获取模块、欧拉角获取模块和BVH文件生成模块,其中,
格式转换模块用于将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;图像识别模块用于读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;并将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;中心点提取模块用于通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;三维坐标获取模块用于将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将所述的中心点分级设置子节点,并由最高级父节点向四周扩散分别获取每个节点的三维坐标;欧拉角获取模块用于获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面,获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度,并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;并将平面上一次性旋转的旋转角度转换为四元数,再根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;BVH文件生成模块用于根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
采用基于视频的动作捕捉系统进行的动作捕捉方法,方法流程图如图2所示,包括以下步骤:
步骤1、工作人员穿上带有不同颜色关节标志点的纯色服装,确定每个关节标志点的色调、饱和度和亮度;
如图3所示,本发明实施例中,演员需要穿上纯色紧身衣裤,头戴某种颜色的帽子(颜色自定义),图3中,数字1~15表示身上的关节点。其中,1和6表示腕关节,2和5表示肘关节,3和4表示肩关节,7和10表示胯关节,8和11表示膝关节,9和12表示髁关节。13和14表示上下胸和腹部,15表示头部。
本发明实施例中,纯色衣裤在上述的关节部位需要涂上不同的颜色作为标志点,每个点的颜色用户根据需求自定义,本发明实施例中,左右胯部在半圆区域内涂上颜色,半径为13cm,肩部呈三角带状涂色最大宽度9cm,手臂手腕膝盖脚腕呈环形涂色宽度为8cm;并将自定义的颜色值作为参数输入到系统中,此外,还可以直接使用本系统预定义的颜色,本发明实施例中,配置如表1所示:
表1.系统预定义的关节颜色列表
步骤2、通过摄像设备获取工作人员动作视频;
本发明实施例中,使用数码摄像机(也可以是数码照相机和智能手机,使用拍摄功能)对演员的动作进行拍摄,演员与摄像机位置关系如图4所示,其中A表示演员,C表示摄像机,U表示摄像机与演员之间的距离;X表示X方向,Z表示Z方向;
步骤3、采用格式转换模块将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;
本发明实施例中,将摄像机所拍摄到的视频格式用一些格式转化工具转化为AVI文件,再对该视频进行读取,将每一帧的每个像素由RGB(红r、绿g、蓝b)格式转换为HSV(色调h、饱和度s、亮度v)格式;其中,r表示像素的红色(0-255)分量,g,表示像素的绿色(0-255)分量,b表示像素的蓝色(0-255)分量,h表示色调(0-360),s表示饱和度(0-1),v表示亮度(0-1);
其转换算法如下:
令max为r、g、b三个分量的最大值;min为r、g、b分量的最小值,则有:
v=max   (6)
由于拍摄时的环境光和相机的感光度不同。,因此,可使用光参数来调整亮度值(作补偿用),该值可有用户自行输入,算法是把转换后的HSV值的v分量乘以光参数(光参数为1.0,则不需要计算)。
本发明实施例中,若用户使用的不是系统预设的HSV值,则根据实际使用的颜色值,手工输入到系统提供的参数输入对话框中(如表2所示),以保证系统能够正确识别和计算。
表2自定义识别参数
本发明实施例中,表2中节点大小演员服装上每个关节标志点半径与标准标志点半径的比值,本实施例中,选取手腕处关节标志点半径为变准标志点;表2中距父节点长度:为演员服装上,目标节点与上级父节点之间的长度除以腹部节点与胯部中点之间的距离的比值;
步骤4、采用图像识别模块读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;
步骤5、将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;
步骤6、采用中心点提取模块通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;
本发明实施例中,分析视频数据中演员关节标识点的数据,计算得到其对应的三维空间坐标数据。方法如下:
使用K中心点算法(本实施例中,K=1),计算出关节点在图像中的二维坐标,算法描述如下:
(a)随机选择1个代表对象作为关节标志点区域内初始的中心点;
(b)随机地选择一个非中心点对象p;
(c)计算用p代替中心点q的总代价s;
(d)如果s为负,则用可用p代替q,形成新的中心点;
(e)重复(b)(c)(d)(e),直到中心点不再发生;
由于扫描颜色时,针对每个像素进行扫描,所以结果会产生该颜色的点云信息(x,y数组),其中,p为任意一个数组成员(不同于q),q为原中心点,s以遍历所有其它节点的距离总和做差值计算;
本发明实施例中,据当前演员姿态分析出骨骼的中心点的位置。由于颜色涂在衣服上,有些点并不能准确代表关节点准确位置,所以要对关节坐标进行调整,调整算法根据不同关节位置而不同,以胯部两点为例:两点以两点为中心进行0.4~0.9倍缩放(所放到实际的骨骼位置)。
此外,本发明实施例中,根据用户输入的物距参数(U)得到标准的视频中各点像素块宽度T,(仅为Z坐标分析做参考,来对比实际的视频中的颜色块,并不参与计算):
计算公式为:
T=U×A1×S   (7)
其中,U表示摄像机与演员之间的距离,即物距;A1表示物距像素调节因子,(根据视频分辨率不同可做适当调整,分辨率在285*506时为5.93,可根据分辨率不同,在1~50之间进行调整)S表示节点大小;
根据公式(7)的计算结果,获得像素块的宽度,与实际服装上的关节标志点宽度进行比较,修改设置的节点大小,以消除误差;
步骤7、采用三维坐标获取模块将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将步骤6中所述的中心点分级设置子节点;
步骤8、采用三维坐标获取模块,由最高级父节点向四周扩散分别获取每个节点的三维坐标;
本发明实施例中,如图(5)中图(a)、图(b)和图(c)所示,图(a)为骨骼实际长度,图(b)为图像中显示的骨骼长度,两者长度不同,说明图像中该节点有深度,如图(c)所示,即Z不等于0,因此,需要求得各个节点的Z坐标值,具体步骤如下:
步骤8-1、根据上级父节点的Z坐标、每帧图像上的目标节点与上级父节点之间的距离和目标节点与上级父节点之间的实际骨骼长度,获取每个未遮挡节点的Z坐标;
所述的获取每个未遮挡节点的Z坐标,具体公式如下:
Z n = Z p ± ( L 2 ) 2 - ( L 3 ) 2 - - - ( 1 )
其中,Zn表示目标节点的Z坐标;Zp表示Zn节点的上级父节点Z坐标;L2表示每帧图像上的目标节点与上级父节点之间的距离,L2=N×L1,N表示每帧图像中,腹部节点与胯部中点之间的距离(像素个数),L1表示目标节点与上级父节点之间的实际距离除以腹部节点与胯部中点之间的实际距离,所获得的比值;L3表示目标节点与上级父节点之间的实际骨骼长度;
针对于公式(1),±的确定由K确定,若K>1,则取正;若K<1,则取负,若K=1,则取0;K=(S父节点/S子节点)/(M父节点/M子节点),其中,S父节点表示图像中上级父节点大小,S子节点表示图像中目标节点大小,M父节点表示实际中上级父节点大小,M子节点表示实际中目标节点大小。
步骤8-2、确定遮挡前后两帧图像上的目标节点与上级父节点连线之间的夹角,将该夹角除以帧间隔数,获得每帧图像中目标节点之间的夹角,结合该夹角和遮挡前后两帧图像上的目标节点的Z坐标,计算获得被遮挡目标节点的Z坐标;
本发明实施例中,遮挡点估算方法,使用视频中点消失前的位置,和刚出现后的位置进行帧差值运算,差值以四元数的角度计算.再对每帧进行角度计算,计算出该节点从消失前到再次出现后的坐标和父节点坐标,做差的出骨骼向量V1 V2,得出其旋转的四元数表示,将该四元数的w(旋转角)经过cos(arc(w)/N)得出每一帧的四元数旋转量(N为从消失前到再次出现之间的帧数),之后把每个四元数转化为旋转矩阵R,公式如下:
1 - 2 y 2 - 2 z 2 2 xy + 2 wz 2 xz - 2 wy 2 xy - 2 wz 1 - 2 x 2 - 2 z 2 2 yz + 2 wx 2 xz + 2 wy 2 yz - 2 wx 1 - 2 x 2 - 2 y 2
步骤8-3、完成每个节点的三维坐标的获取;
步骤9、结合实际骨骼情况,采用欧拉角获取模块,在以上级父节点为原点的坐标系下,设定每个关节上的节点的三维坐标轴的旋转角度范围;
本发明实施例中,采用骨骼约束办法,即使用骨骼角度约束:限制骨骼的转角。
约束办法:使用数组,并转化为曲线定义约束:Z,X表示骨骼旋转的欧拉角信息;
以右臂为例,在以右肩节点为原点的坐标系中,限定右肩关节的转动角度,具体如下:
Z=0,X1=1.0,X2=-1.0
Z=1,X1=1.1,X2=-1.0
Z=2,X1=1.1,X2=-1.0
……
Z=170,X1=1.2,X2=-1.0
其中,Z肩表示右肩关节绕Z轴的转角,X肩表示右肩关节绕X轴(父关节坐标系)的转角;Y肩表示右肩关节绕Y轴的转角,不做约束,只用以调节子关节的位置;Z肩=0,X肩1=1.0,X肩2=-1.0表示Z转角为0度时,X轴转角只能在-1.0到1.0之间,若超出该范围,则表示不满足约束条件,就要对右肩关节的Y转角进行调整.,在根据这些点,拟合出一个函数f1(x),f2(x);上述数据的定义域为0~170。
步骤10、采用欧拉角获取模块,确定直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角度,具体步骤如下:
步骤10-1、获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面;
步骤10-2、获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度;
步骤10-3、并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;
本发明实施例中,构造标准站立骨骼模型,从腹部的节点开始,通过一次性旋转的方法,使标准站立骨骼模型腹部的点旋转到实际的目标位置,并影响到其所有的子节点,法向量过上级父节点,该节点的姿态矩阵和该节点的所有子节点的姿态矩阵也做这样的旋转操作(P)。
步骤10-4、在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级(上级父节点的上级父节点)的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;
本发明实施例中,是否达到最大约束的检测方法:将旋转操作P转化为对上级父节点的X轴和Y轴旋转操作,判断Y是否在函数f1(x)和f2(x)的值之间;将节点调整到最大约束上,再根据当前位置计算距目标位置所需的在上一骨骼方向向量的垂面上的角度,即为上级父节点的Z轴旋转量,之后对上级父节点进行Z轴旋转即可使当前节点到达目标位置。
步骤10-5、将平面上一次性旋转的旋转角度转换为四元数;
所述的将上述旋转角度转换为四元数,具体公式如下:
w = cos ( α 2 ) x = sin ( α 2 ) n x y = sin ( α 2 ) n y z = sin ( α 2 ) n z - - - ( 2 )
其中,w、x、y、z表示四元数的值;α表示平面上一次性旋转的旋转角度,nx表示法向量的x坐标,ny表示法向量的y坐标,nz表示法向量的y坐标。
步骤10-6、根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;
所述的根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角,具体公式如下:
其中,表示以上级父节点为原点的三维坐标系中,X轴旋转角度;θ表示以上级父节点为原点的三维坐标系中,Y轴旋转角度;ψ表示以上级父节点为原点的三维坐标系中,Z轴旋转角度;w、x、y、z表示四元数的值。
步骤11、采用BVH文件生成模块根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
本发明实施例中,将生成的BVH文件发送至3Dmax等模型软件直接使用中实现动画演示。

Claims (5)

1.一种基于视频的动作捕捉系统,其特征在于:该系统包括格式转换模块、图像识别模块、中心点提取模块、三维坐标获取模块、欧拉角获取模块和BVH文件生成模块,其中,
格式转换模块:用于将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;
图像识别模块:用于读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;并将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;
中心点提取模块:用于通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;
三维坐标获取模块:用于将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将所述的中心点分级设置子节点,并由最高级父节点向四周扩散分别获取每个节点的三维坐标;
欧拉角获取模块:用于获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面,获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度,并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;并将平面上一次性旋转的旋转角度转换为四元数,再根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;
BVH文件生成模块:用于根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
2.采用权利要求1所述的基于视频的动作捕捉系统进行的动作捕捉方法,其特征在于,包括以下步骤:
步骤1、工作人员穿上带有不同颜色关节标志点的纯色服装,确定每个关节标志点的色调、饱和度和亮度;
步骤2、通过摄像设备获取工作人员动作视频;
步骤3、采用格式转换模块将动作视频转换为AVI格式文件,并将每帧图像上的每个像素由RGB格式转换为HSV格式;
步骤4、采用图像识别模块读取转换格式后的每帧图像上的每个像素点的色调、饱和度和亮度;
步骤5、将每帧图像上的每个像素点的色调、饱和度和亮度,与工作人员纯色服装上的每个关节标志点的色调、饱和度和亮度进行对比,在每帧图像上寻找关节标志点区域;
步骤6、采用中心点提取模块通过K中心点算法,在每个关节标志点区域内获取中心点,并确定中心点的坐标值;
步骤7、采用三维坐标获取模块将工作人员胯部两个关节标志点之间的中点的Z坐标设置为0,以上述中点为最高级父节点向四周扩散,将步骤6中所述的中心点分级设置子节点;
步骤8、采用三维坐标获取模块,由最高级父节点向四周扩散分别获取每个节点的三维坐标,具体步骤如下:
步骤8-1、根据上级父节点的Z坐标、每帧图像上的目标节点与上级父节点之间的距离和目标节点与上级父节点之间的实际骨骼长度,获取每个未遮挡节点的Z坐标;
步骤8-2、确定遮挡前后两帧图像上的目标节点与上级父节点连线之间的夹角,将该夹角除以帧间隔数,获得每帧图像中目标节点之间的夹角,结合该夹角和遮挡前后两帧图像上的目标节点的Z坐标,计算获得被遮挡目标节点的Z坐标;
步骤8-3、完成每个节点的三维坐标的获取;
步骤9、结合实际骨骼情况,采用欧拉角获取模块,在以上级父节点为原点的坐标系下,设定每个关节上的节点的三维坐标轴的旋转角度范围;
步骤10、采用欧拉角获取模块,确定直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角度,具体步骤如下:
步骤10-1、获得每一帧图像上目标节点与上级父节点之间的连线,和直立站立状态下目标节点与上级父节点之间的连线,进而获得上述两条连线所构成的平面;
步骤10-2、获取上述平面的法向量,及在上述平面内两条连线之间的夹角,将该夹角作为平面上一次性旋转的旋转角度;
步骤10-3、并在上述平面内,以法向量为转轴,将直立站立状态下目标节点向每一帧图像上目标节点以四元数方式转动,转动的角度为一次性旋转的旋转角度;
步骤10-4、在转动过程中,实时判断上级父节点的三维坐标轴的旋转角度是否达到设定范围的最大值,若是,则停止最大转角坐标轴的旋转,再对再上一级的父节点进行其他坐标轴继续旋转,直至达到每一帧图像上目标节点的位置;否则,三维坐标轴继续旋转;
步骤10-5、将平面上一次性旋转的旋转角度转换为四元数;
步骤10-6、根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角;
步骤11、采用BVH文件生成模块根据所获得的欧拉角,生成BVH文件,并导入模型动画软件中显示工作人员的动作动画。
3.根据权利要求2所述的动作捕捉方法,其特征在于,步骤8-1所述的获取每个未遮挡节点的Z坐标,具体公式如下:
Z n = Z p ± ( L 2 ) 2 - ( L 3 ) 2 - - - ( 1 )
其中,Zn表示目标节点的Z坐标;Zp表示Zn节点的上级父节点Z坐标;L2表示每帧图像上的目标节点与上级父节点之间的距离,L2=N×L1,N表示每帧图像中,腹部节点与胯部中点之间的距离,L1表示目标节点与上级父节点之间的实际距离除以腹部节点与胯部中点之间的实际距离,所获得的比值;L3表示目标节点与上级父节点之间的实际骨骼长度;
针对于公式(1),±的确定由K确定,若K>1,则取正;若K<1,则取负,若K=1,则取0;K=(S父节点/S子节点)/(M父节点/M子节点),其中,S父节点表示图像中上级父节点大小,S子节点表示图像中目标节点大小,M父节点表示实际中上级父节点大小,M子节点表示实际中目标节点大小。
4.根据权利要求2所述的动作捕捉方法,其特征在于,步骤10-5所述的将上述旋转角度转换为四元数,具体公式如下:
w = cos ( α 2 ) x = sin ( α 2 ) n x y = sin ( α 2 ) n y z = sin ( α 2 ) n z - - - ( 2 )
其中,w、x、y、z表示四元数的值;α表示平面上一次性旋转的旋转角度,nx表示法向量的x坐标,ny表示法向量的y坐标,nz表示法向量的y坐标。
5.根据权利要求2所述的动作捕捉方法,其特征在于,步骤10-6所述的根据所获得的四元数,获得直立站立状态下目标节点向每一帧图像上目标节点旋转的欧拉角,具体公式如下:
其中,表示以上级父节点为原点的三维坐标系中,X轴旋转角度;θ表示以上级父节点为原点的三维坐标系中,Y轴旋转角度;ψ表示以上级父节点为原点的三维坐标系中,Z轴旋转角度;w、x、y、z表示四元数的值。
CN201510129239.3A 2015-03-24 2015-03-24 一种基于视频的动作捕捉系统及方法 Active CN104680570B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510129239.3A CN104680570B (zh) 2015-03-24 2015-03-24 一种基于视频的动作捕捉系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510129239.3A CN104680570B (zh) 2015-03-24 2015-03-24 一种基于视频的动作捕捉系统及方法

Publications (2)

Publication Number Publication Date
CN104680570A true CN104680570A (zh) 2015-06-03
CN104680570B CN104680570B (zh) 2017-09-05

Family

ID=53315562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510129239.3A Active CN104680570B (zh) 2015-03-24 2015-03-24 一种基于视频的动作捕捉系统及方法

Country Status (1)

Country Link
CN (1) CN104680570B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108196679A (zh) * 2018-01-23 2018-06-22 河北中科恒运软件科技股份有限公司 基于视频流的手势捕捉和纹理融合方法及系统
CN109144252A (zh) * 2018-08-01 2019-01-04 百度在线网络技术(北京)有限公司 对象确定方法、装置、设备和存储介质
CN110211183A (zh) * 2019-06-13 2019-09-06 广州番禺职业技术学院 基于单次成像大视场led透镜贴装的多目标定位系统与方法
CN113989928A (zh) * 2021-10-27 2022-01-28 南京硅基智能科技有限公司 一种动作捕捉和重定向方法
CN115797606A (zh) * 2023-02-07 2023-03-14 合肥孪生宇宙科技有限公司 基于深度学习的3d虚拟数字人交互动作生成方法及系统
CN116385663A (zh) * 2023-05-26 2023-07-04 北京七维视觉传媒科技有限公司 动作数据生成方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315968A (ja) * 2006-05-26 2007-12-06 Univ Of Tokyo モーションキャプチャを用いた運動学パラメータの推定法及び装置
US20080147254A1 (en) * 2004-06-02 2008-06-19 David William Vos Systems and Methods for Controlling Dynamic Systems
CN104267815A (zh) * 2014-09-25 2015-01-07 黑龙江节点动画有限公司 基于惯性传感技术的动作捕捉系统及方法
CN104361621A (zh) * 2014-10-20 2015-02-18 厦门大学 一种基于四维球面轨迹的运动编辑方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080147254A1 (en) * 2004-06-02 2008-06-19 David William Vos Systems and Methods for Controlling Dynamic Systems
JP2007315968A (ja) * 2006-05-26 2007-12-06 Univ Of Tokyo モーションキャプチャを用いた運動学パラメータの推定法及び装置
CN104267815A (zh) * 2014-09-25 2015-01-07 黑龙江节点动画有限公司 基于惯性传感技术的动作捕捉系统及方法
CN104361621A (zh) * 2014-10-20 2015-02-18 厦门大学 一种基于四维球面轨迹的运动编辑方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
于明卓: "基于DV视频的动作捕捉系统研究", 《沈阳工业大学硕士学位论文》 *
孟奇: "运动捕获数据的处理与编辑技术研究", 《湖南大学硕士学位论文》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108196679A (zh) * 2018-01-23 2018-06-22 河北中科恒运软件科技股份有限公司 基于视频流的手势捕捉和纹理融合方法及系统
CN108196679B (zh) * 2018-01-23 2021-10-08 河北中科恒运软件科技股份有限公司 基于视频流的手势捕捉和纹理融合方法及系统
CN109144252A (zh) * 2018-08-01 2019-01-04 百度在线网络技术(北京)有限公司 对象确定方法、装置、设备和存储介质
US11042730B2 (en) 2018-08-01 2021-06-22 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus and device for determining an object, and storage medium for the same
CN110211183A (zh) * 2019-06-13 2019-09-06 广州番禺职业技术学院 基于单次成像大视场led透镜贴装的多目标定位系统与方法
CN110211183B (zh) * 2019-06-13 2022-10-21 广州番禺职业技术学院 基于单次成像大视场led透镜贴装的多目标定位系统
CN113989928A (zh) * 2021-10-27 2022-01-28 南京硅基智能科技有限公司 一种动作捕捉和重定向方法
CN113989928B (zh) * 2021-10-27 2023-09-05 南京硅基智能科技有限公司 一种动作捕捉和重定向方法
CN115797606A (zh) * 2023-02-07 2023-03-14 合肥孪生宇宙科技有限公司 基于深度学习的3d虚拟数字人交互动作生成方法及系统
CN116385663A (zh) * 2023-05-26 2023-07-04 北京七维视觉传媒科技有限公司 动作数据生成方法、装置、电子设备及存储介质
CN116385663B (zh) * 2023-05-26 2023-08-29 北京七维视觉传媒科技有限公司 动作数据生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN104680570B (zh) 2017-09-05

Similar Documents

Publication Publication Date Title
CN104680570A (zh) 一种基于视频的动作捕捉系统及方法
CN105869160B (zh) 利用Kinect实现三维建模和全息显示的方法及系统
CN104463108B (zh) 一种单目实时目标识别及位姿测量方法
CN108154550A (zh) 基于rgbd相机的人脸实时三维重建方法
CN110142785A (zh) 一种基于目标检测的巡检机器人视觉伺服方法
CN104574350B (zh) 三维数据撷取方法及其系统
CN105243664B (zh) 一种基于视觉的轮式移动机器人快速目标跟踪方法
CN108555908A (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN106600627A (zh) 一种基于标志点的刚体运动捕捉方法及系统
CN108200334B (zh) 图像拍摄方法、装置、存储介质及电子设备
CN110400315A (zh) 一种缺陷检测方法、装置及系统
CN106355147A (zh) 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN110443853A (zh) 基于双目摄像头的标定方法、装置、终端设备及存储介质
CN104766345B (zh) 基于衣服特征点的身体扫描及运动捕捉方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN109752855A (zh) 一种光斑发射装置和检测几何光斑的方法
CN106155299B (zh) 一种对智能设备进行手势控制的方法及装置
CN108564643A (zh) 基于ue引擎的表演捕捉系统
CN109840508A (zh) 一个基于深度网络架构自动搜索的机器人视觉控制方法,设备及存储介质
CN111275015A (zh) 一种基于无人机的电力巡线电塔检测识别方法及系统
CN110334701A (zh) 数字孪生环境下基于深度学习和多目视觉的数据采集方法
CN109000578A (zh) 一种全场非接触式的建筑幕墙风压变形监测方法
CN113284192A (zh) 运动捕捉方法、装置、电子设备以及机械臂控制系统
CN107077739A (zh) 使用单目相机的三维标记模型构建和实时跟踪
CN113487674B (zh) 一种人体位姿估计系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180109

Address after: No. 7-4, No. 7-4, peace zone, Liaoning, Liaoning province (2-18-1)

Patentee after: Shenyang Bo Tai Technology Co., Ltd.

Address before: 110819 Heping Road, Heping District, Liaoning, Shenyang, Lane No. 11, No. 3

Patentee before: Northeastern University

CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: No. 7-4, No. 7-4, peace zone, Liaoning, Liaoning province (2-18-1)

Patentee after: Baker Technology (Shenyang) Co., Ltd.

Address before: No. 7-4, No. 7-4, peace zone, Liaoning, Liaoning province (2-18-1)

Patentee before: Shenyang Bo Tai Technology Co., Ltd.