CN102663779A - 基于随机高斯隐变量的人体运动跟踪方法 - Google Patents
基于随机高斯隐变量的人体运动跟踪方法 Download PDFInfo
- Publication number
- CN102663779A CN102663779A CN2012101337244A CN201210133724A CN102663779A CN 102663779 A CN102663779 A CN 102663779A CN 2012101337244 A CN2012101337244 A CN 2012101337244A CN 201210133724 A CN201210133724 A CN 201210133724A CN 102663779 A CN102663779 A CN 102663779A
- Authority
- CN
- China
- Prior art keywords
- space
- matrix
- beta
- latent space
- iteration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种基于随机高斯隐变量的人体运动跟踪方法,主要解决现有技术的人体运动跟踪结果不准确和不稳定的问题。其实现过程为,首先预处理视频图像,获得原始关节点三维坐标矩阵Y;根据获得的三维坐标矩阵Y构建高斯隐变量模型;使用随机梯度下降方法求解高斯隐变量中隐空间X和核超参数β;使用迭代法,结合K-mean聚类和局部保留映射LPP,更新隐空间X和核超参数β;经过5000次迭代获得最终隐空间X和核超参数β,进而获得高斯隐变量模型,使用学习得到的高斯隐变量模型,以获得的隐空间X为输入,估计出运动人体的三维姿态数据。本发明较之现有的人体跟踪方法可以避免陷入局部最优,可用于运动捕获,人机交互,视频监控,人体目标识别和三维姿势恢复。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及到计算机视觉领域中实现人体运动跟踪的一种方法,可用于体育训练和动画制作,视频监控领域。
背景技术
人体运动跟踪的主要任务是从视频图像中检测出人体轮廓,再对人体的关节点进行定位,在此基础上识别出人体运动姿态,最终重建三维人体运动姿态。由于目前视频图像是三维场景中的人体轮廓在二维图像上的投影,所以,丢失了大量的深度信息,并且人体运动过程中,人体四肢自遮挡现象时常发生,视频图像存在歧义性,这使得很难从无标记单目视频中恢复人体运动姿态。但是,由于基于单目视频的人体运动跟踪在医学治疗、体育训练、动画制作、智能监控系统等各个方面都有潜在的应用和经济价值,所以受到了很多学者的关注。至今,基于视频的人体运动跟踪的方法主要分为以下两大类:
第一种是基于学习的人体运动跟踪方法。该方法首先在训练的视频图像和目标视频图像数据库里提取精确的图像特征,然后学习训练视频图像数据库的图像特征与运动捕捉数据之间的映射,最后在目标视频图像上直接使用人体特征恢复三维姿态。如Urtasun et al.(R.Urtasun and T.Darrell.Local Probabilistic Regression forActivity-Independent Human Pose Inference IEEE Conference on Computer Vision andPattern Recognition(CVPR),2008)文章,就是使用平衡高斯过程动态模型指导在单目视频序列中跟踪三维人体运动,该动态模型是从较少的包含多种模式的运动训练数据中学习得到。Sigal et al.(L.Sigal and M.Black.Measure Locally,Reason Globally:Occlusion-sensitive articulated pose estimation.IEEE Conference on Computer Vision andPattern Recognition(CVPR),2006.)在该文章中提出一个贝叶斯框架,该框架包含序列重要性采样和退火粒子滤波,并且在跟踪时使用了多种运动模型。为了使三维姿态恢复更加符合解剖学关节约束,同时使搜索空间降维,该框架从训练数据中学习运动模型,使用虚拟标记的欧式距离差作为量测误差。该方法的缺点是提取精确的图像特征需要花费大量的时间,而且视频跟踪受到是否存在学习数据库的限制,若不存在学习数据库,则无法完成视频跟踪。
第二种是基于模型的人体运动跟踪方法。该方法不需要学习数据库,直接在目标视频图像上提取图像信息,建立目标图像与模型的相似度函数,然后对相似度函数进行优化从而在高维的状态空间中搜索最优的状态,从而获得准确的人体姿态。如法国国家信息与自动化研究所(INRIA)的C.Sminchisescu和A.Jepson.在(C.Sminchisescuand A.Jepson.Generative Modeling for Continuous Non-Linearly Embedded VisualInference.International Conference on Machine Learning(ICML),2004)的文章中采用此种方法实现了使用多种人体模型的运动跟踪。Deutscher et al.在(J.Deutscher and I.Reid.Articulated body motion capture by stochastic search.International Journal ofComputer Vision(IJCV),61(2):185-205,2004.)的文章中使用边界和侧影作为图像特征构建加权的相似度函数,应用退火粒子滤波实现了人体运动跟踪。由于该方法只建立一个相似度函数,而用于优化相似度函数的方法在搜索最优结果时很容易陷入局部最优,导致跟踪到的人体姿态不准确,而且算法的时间复杂度高。
发明内容
本发明的目的在于针对现有技术中的不足,提出一种基于随机高斯隐变量模型的人体运动跟踪的方法,以提高人体运动跟踪姿态的准确性,减少运算时间,并实现在不同数据库上对运动人体的跟踪。
本发明的技术思路是:利用视频图像中人体关节点的位置作为观测数据Y,以Y为已知数据,用一组未观测到的隐变量X来表示Y,用高斯分布p(Y|X)表示两者之间的函数关系,对这个高斯分布用梯度下降的方法即导数法求解出X,通过X反向预测可以得到人体的关节点位置通过连接这些关节点的位置,表示出人体的运动姿态。其实现步骤包括如下:
(1)从原始的视频图像中获得人体关节点的三维坐标矩阵Y;
(2)根据三维坐标矩阵Y构建高斯隐变量模型:
2a)将人体关节点的三维坐标矩阵Y代入高斯公式:
其中,X为待求解的隐空间,K为径向基RBF核矩阵,β为K矩阵的超参数,D为三维坐标矩阵Y的维数,N为隐变量X的维数,|·|表示矩阵的模,tr(·)表示矩阵的迹,(·)T表示矩阵的转置,(·)-1表示矩阵求逆,求解隐变量X和K矩阵的超参数β即可获得完整的高斯隐变量模型;
2b)通过最大似然估计法求解隐空间X和径向基RBF核矩阵的超参数β,对步骤2a)中公式两边做对数运算,得到负对数似然度函数ζ:
(3)使用随机梯度下降算法求解负对数似然度函数ζ,获得隐空间X和超参数β:
3a)随机初始化隐空间X,对X用K-means的方法进行聚类,选择离聚类中心最近的隐空间点作为初始参考点x0,同时赋给β一个随机初始值,其中x0∈X;
3b)对步骤3a)中获得的初始参考点x0求出其在隐空间X内的R个近邻点,选取初始参考点x0的R个近邻作为计算ζ的近邻空间XR,其中,R=50;
3c)在XR中计算ζ关于X和核矩阵超参数β的偏导数:
其中,KR是在近邻空间XR中的径向基RBF核矩阵,βR为核矩阵KR的超参数,YR是与近邻空间XR对应的三维姿态关节点坐标矩阵,(·)T表示矩阵的转置,(·)-1表示矩阵求逆,
当两个偏导数等于零时获得初始化后的隐空间X和超参数β;
(4)迭代更新隐空间X和核超参数β:
4a)获得隐空间X和核超参数β后,将隐空间X用局部保留映射LPP的方法投影到空间X′中,并在空间X′中随机选取参考点xr,计算参考点xr的R个近邻,得到参考点xr在空间X′中的近邻空间X′R;
4b)将参考点xr在空间X′中的近邻空间X′R投影回隐空间X,得到参考点xr在隐空间X中的近邻空间XR;
4d)重复步骤4a)至4c),使用迭代法更新隐空间X和核矩阵超参数β;
其中,Y为视频图像中人体关节点的三维坐标矩阵,M是Y的均值,X为学习得到的隐空间,xt为在隐空间X中对应的点,K为径向基RBF核矩阵,k(xt,X)是核函数,(·)T表示矩阵的转置,(·)-1表示矩阵求逆。
本发明与现有的技术相比具有以下优点:
1、本发明由于在模型初始化使用了K-means聚类,以聚类中心作为初始参考点使得本方法获得的人体运动跟踪结果稳定性得到大幅提高;
2、本发明由于在求解隐空间X的过程中采用局部线性映射LPP的方法将隐空间投影到低维空间,在其中寻找参考点的近邻,使得参考点的近邻更具有代表性,提高了跟踪结果的准确性。
附图说明
图1为本发明的流程图;
图2是未经处理的人体“跑步”运动序列视频截图;
图3是用本发明对图2进行姿态恢复的结果图;
图4是用未经处理的人体“拳击”运动序列视频截图;
图5是用本发明对图4进行姿态恢复的结果图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,本发明的具体实现过程如下:
步骤1,对原始的视频图像进行预处理,将原始视频图像分离为单独帧视频图像,提取每帧频图像中运动人体的三维关节点坐标,组成该视频序列的人体关节点三维坐标矩阵Y。
步骤2,根据三维坐标矩阵Y构建高斯隐变量模型:
2a)将人体关节点的三维坐标矩阵Y代入高斯公式:
其中,X为待求解的隐变量,K为径向基RBF核矩阵,β为K矩阵的超参数,D为三维坐标矩阵Y的维数,N为隐变量X的维数,|·|表示矩阵的模,tr(·)表示矩阵的迹,(·)T表示矩阵的转置,(·)-1表示矩阵求逆,求解隐变量X和K矩阵的超参数β即可获得完整的高斯隐变量模型;
2b)通过最大似然估计法求解隐空间X和径向基RBF核矩阵的超参数β,对步骤2a)中公式两边做对数运算,得到负对数似然度函数ζ:
其中,p(Y|X,β)表示已知隐空间X和超参数β的情况下,Y的条件概率函数。
步骤3:使用随机梯度下降算法求解负对数似然度函数ζ,获得隐空间X和超参数β:
3a)随机初始化隐空间X,对X用K-means的方法进行聚类,选择离聚类中心最近的隐空间点作为初始参考点x0,同时赋给β一个随机初始值,其中x0∈X;
3b)对步骤3a)中获得的初始参考点x0求出其在隐空间X内的R个近邻点,选取初始参考点x0的R个近邻作为计算ζ的近邻空间XR,其中,R=50;
3c)在XR中计算ζ关于X和核矩阵超参数β的偏导数:
当这两个偏导数等于零时,即可获得初始化后的隐空间X和超参数β,
其中,KR是在近邻空间XR中的径向基RBF核矩阵,βR为核矩阵KR的超参数,YR是与近邻空间XR对应的三维姿态关节点坐标矩阵,(·)T表示矩阵的转置,(·)-1表示矩阵求逆。
步骤4:迭代更新隐空间X和超参数β
4a)获得隐空间X和核超参数β后,将隐空间X用局部保留映射LPP的方法投影到空间X′中,并在空间X′中随机选取参考点xr,计算参考点xr的R个近邻,得到参考点xr在空间X′中的近邻空间X′R;
4b)将参考点xr在空间X中的近邻空间X′R投影到隐空间X,得到参考点xr在隐空间X中的近邻空间XR;
4d)重复步骤4a)至4c),使用迭代法更新隐空间X和核矩阵超参数β:
4d1)计算第n次迭代与第n-1次迭代隐空间的变化量ΔXn:
4d2)根据第n-1次迭代隐空间的变化量ΔXn获得第n次迭代的隐空间Xn:
Xn=Xn-1+ΔXn,
其中,Xn-1为第n-1次迭代时的隐空间,ΔXn为第n次迭代与第n-1次迭代隐空间的变化量;
4d3)计算第n次迭代与第n-1次迭代核超参数的变化量Δβn:
4d4)根据第n次迭代与第n-1次迭代核超参数的变化量Δβn获得βn:
βn=βn-1+Δβn,
其中,βn-1为第n-1次迭代时的隐空间,Δβn为第n次迭代与第n-1次迭代核超参的变化量。
步骤5:在迭代5000次以后,获得最终的隐空间X和核超参数β,得到高斯隐变量模型,使用学习得到的高斯隐变量模型,以获得的隐空间X为输入,估计出运动人体的三维姿态数据
其中,Y为视频图像中人体关节点的三维坐标矩阵,M是Y的均值,X为学习得到的隐空间,xt为在隐空间X中对应的点,K为径向基RBF核矩阵,k(xt,X)是核函数,(·)T表示矩阵的转置,(·)-1表示矩阵求逆。
本发明的效果可以通过以下仿真实验得到验证:
1.仿真实验条件设置:本发明的仿真实验在Matlab 2010a上编译完成,执行环境为Windows框架下的HP工作站。本发明仿真实验所用的视频图像来自美国布朗大学的HumanEva数据库,原始图像大小为640×480。本实验采用的行走姿态原始视频图像如图2所示,其中图2a是行走视频序列第10帧的截图,图2b是行走视频序列第20帧的截图,图2c是行走视频序列第30帧的截图,图2d是行走视频序列第40帧的截图。拳击姿态的原始视频图如图4所示,图4a是拳击视频序列第10帧的截图,图4b是拳击视频序列第20帧的截图,图4c是拳击视频序列第30帧的截图,图4d是拳击视频序列第40帧的截图。
2.仿真内容
仿真1,使用本发明对图2中行走状态进行跟踪,结果如图3所示。图3a是使用本方法对行走视频序列第10帧的恢复结果图,图3b是对行走序列第20帧的恢复结果图,图3c是对行走序列第30帧的恢复结果图,图3d是对行走序列第40帧的恢复结果图。
从图3可以看出,跟踪结果没有出现歧义的姿态,准确恢复了人体运动姿态,表明本发明对简单的运动姿态可以实现准确的跟踪。
仿真2,使用本发明对图4中拳击状态进行跟踪,结果如图5所示。图5a是使用本方法对拳击视频序列第10帧的恢复结果图,图5b是对拳击序列第20帧的恢复结果图,图5c是对拳击序列第30帧的恢复结果图,图5d是对拳击序列第40帧的恢复结果图。
从图5中可以看出,跟踪结果没有歧义姿态出现,准确恢复了人体运动姿态,表明本方法对复杂的人体运动状态也可以实现准确跟踪。
仿真结果分析:从图3、图5还可看出,本发明对不同的运动状态视频图像跟踪结果与真实的人体运动姿态基本相同,有效的解决了人体运动跟踪的歧义性问题,提高了跟踪的准确性和稳定性。主要原因在于本方法采用了K-means聚类寻找初始参考点,和使用LPP寻找参考点的近邻,使得学习到的模型具有高度稳定性,对于不同的运动状态都可以实现准确跟踪。
Claims (2)
1.一种基于随机高斯隐变量的人体运动跟踪方法,包括如下步骤:
(1)从原始的视频图像中获得人体关节点的三维坐标矩阵Y;
(2)根据三维坐标矩阵Y构建高斯隐变量模型:
2a)将人体关节点的三维坐标矩阵Y代入高斯公式:
其中,X为待求解的隐变量,K为径向基RBF核矩阵,β为K矩阵的超参数,D为三维坐标矩阵Y的维数,N为隐变量X的维数,|·|表示矩阵的模,tr(·)表示矩阵的迹,(·)T表示矩阵的转秩,(·)-1表示矩阵求逆,求解隐变量X和K矩阵的超参数β即可获得完整的高斯隐变量模型;
2b)通过最大似然估计法求解隐空间X和径向基RBF核矩阵的超参数β,对步骤2a)中公式两边做对数运算,得到负对数似然度函数ζ:
(3)使用随机梯度下降算法求解负对数似然度函数ζ,获得隐空间X和超参数β:
3a)随机初始化隐空间X,对X用K-means的方法进行聚类,选择离聚类中心最近的隐空间点作为初始参考点x0,同时赋给β一个随机初始值,其中x0∈X;
3b)对步骤3a)中获得的初始参考点x0求出其在隐空间X内的R个近邻点,选取初始参考点x0的R个近邻作为计算ζ的近邻空间XR,其中,R=50;
3c)在XR中计算ζ关于X和核矩阵超参数β的偏导数:
其中,KR是在近邻空间XR中的径向基RBF核矩阵,βR为核矩阵KR的超参数,YR是与近邻空间XR对应的三维姿态关节点坐标矩阵,(·)T表示矩阵的转置,(·)-1表示矩阵求逆,
当两个偏导数等于零时获得初始化后的隐空间X和超参数β;
(4)迭代更新隐空间X和核超参数β:
4a)获得隐空间X和核超参数β后,将隐空间X用局部保留映射LPP的方法投影到空间X′中,并在空间X′中随机选取参考点xr,计算参考点xr的R个近邻,得到参考点xr在空间X′中的近邻空间X′R;
4b)将参考点xr在空间X′中的近邻空间X′R投影回隐空间X,得到参考点xr在隐空间X中的近邻空间XR;
4d)重复步骤4a)至4c),使用迭代法更新隐空间X和核矩阵超参数β;
2.根据权利要求1中所述方法,其中步骤4d)中所述的使用迭代法更新隐空间X和核矩阵超参数β,按如下步骤进行:
4d1)计算第n次迭代与第n-1次迭代隐空间的变化量ΔXn:
其中,ΔXn-1为第n-1次迭代时隐空间的变化量,μx为X的增量参数,μx=0.8,ηx为X的学习率,为ζ关于X的偏导数,n为迭代次数,n∈[1,5000];
4d2)根据第n-1次迭代隐空间的变化量ΔXn获得第n次迭代的隐空间Xn:
Xn=Xn-1+ΔXn,
其中,Xn-1为第n-1次迭代时的隐空间,ΔXn为第n次迭代与第n-1次迭代隐空间的变化量;
4d3)计算第n次迭代与第n-1次迭代的核超参数的变化量Δβn:
4d4)根据第n次迭代与第n-1次迭代核超参数的变化量Δβn获得βn:
βn=βn-1+Δβn,
其中,βn-1为第n-1次迭代时的隐空间,Δβn为第n次迭代与第n-1次迭代核超参的变化量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101337244A CN102663779A (zh) | 2012-05-03 | 2012-05-03 | 基于随机高斯隐变量的人体运动跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101337244A CN102663779A (zh) | 2012-05-03 | 2012-05-03 | 基于随机高斯隐变量的人体运动跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102663779A true CN102663779A (zh) | 2012-09-12 |
Family
ID=46773257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012101337244A Pending CN102663779A (zh) | 2012-05-03 | 2012-05-03 | 基于随机高斯隐变量的人体运动跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102663779A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945561A (zh) * | 2012-10-16 | 2013-02-27 | 北京航空航天大学 | 一种计算机骨骼动画中基于运动捕获数据的运动合成与编辑方法 |
CN103093211A (zh) * | 2013-01-27 | 2013-05-08 | 西安电子科技大学 | 基于深度核信息图像特征的人体运动跟踪方法 |
CN104200491A (zh) * | 2014-08-15 | 2014-12-10 | 浙江省新华医院 | 一种人体运动姿态校正系统 |
CN106663184A (zh) * | 2014-03-28 | 2017-05-10 | 华为技术有限公司 | 人脸数据验证的方法和系统 |
CN108476186A (zh) * | 2016-04-29 | 2018-08-31 | 庆熙大学校产学协力团 | 恢复减低复杂度ds-cdma系统中的原始信号的方法 |
CN110320556A (zh) * | 2018-03-29 | 2019-10-11 | 中国石油化工股份有限公司 | 一种基于无监督分类三维隐空间的地震相分析方法 |
CN111524183A (zh) * | 2020-04-07 | 2020-08-11 | 上海交通大学 | 一种基于透视投影变换的目标行列定位方法 |
CN113156390A (zh) * | 2021-03-19 | 2021-07-23 | 深圳航天科技创新研究院 | 雷达信号处理方法及设备、计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070104351A1 (en) * | 2005-10-28 | 2007-05-10 | Ming-Hsuan Yang | Monocular tracking of 3d human motion with a coordinated mixture of factor analyzers |
CN101692284A (zh) * | 2009-07-24 | 2010-04-07 | 西安电子科技大学 | 基于量子免疫克隆算法的三维人体运动跟踪方法 |
CN101894278A (zh) * | 2010-07-16 | 2010-11-24 | 西安电子科技大学 | 基于变结构多模型的人体运动跟踪方法 |
CN102074034A (zh) * | 2011-01-06 | 2011-05-25 | 西安电子科技大学 | 多模型人体运动跟踪方法 |
CN102270345A (zh) * | 2011-06-02 | 2011-12-07 | 西安电子科技大学 | 基于第二代条带波变换图像特征表示和人体运动跟踪方法 |
EP2395478A1 (en) * | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Monocular 3D pose estimation and tracking by detection |
-
2012
- 2012-05-03 CN CN2012101337244A patent/CN102663779A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070104351A1 (en) * | 2005-10-28 | 2007-05-10 | Ming-Hsuan Yang | Monocular tracking of 3d human motion with a coordinated mixture of factor analyzers |
CN101692284A (zh) * | 2009-07-24 | 2010-04-07 | 西安电子科技大学 | 基于量子免疫克隆算法的三维人体运动跟踪方法 |
EP2395478A1 (en) * | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Monocular 3D pose estimation and tracking by detection |
CN101894278A (zh) * | 2010-07-16 | 2010-11-24 | 西安电子科技大学 | 基于变结构多模型的人体运动跟踪方法 |
CN102074034A (zh) * | 2011-01-06 | 2011-05-25 | 西安电子科技大学 | 多模型人体运动跟踪方法 |
CN102270345A (zh) * | 2011-06-02 | 2011-12-07 | 西安电子科技大学 | 基于第二代条带波变换图像特征表示和人体运动跟踪方法 |
Non-Patent Citations (3)
Title |
---|
ANGELA YAO等: "Learning probabilistic non-linear latent variable models for tracking complex activities", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS》, 31 December 2011 (2011-12-31), pages 1359 - 1367 * |
王秀美: "隐变量模型的建模与优化", 《万方学位论文数据库》, 28 March 2011 (2011-03-28), pages 12 - 19 * |
韩磊: "图像序列中人的行为分析和识别方法", 《中国博士学位论文全文数据库 信息科技辑》, no. 05, 15 May 2011 (2011-05-15) * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102945561B (zh) * | 2012-10-16 | 2015-11-18 | 北京航空航天大学 | 一种计算机骨骼动画中基于运动捕获数据的运动合成与编辑方法 |
CN102945561A (zh) * | 2012-10-16 | 2013-02-27 | 北京航空航天大学 | 一种计算机骨骼动画中基于运动捕获数据的运动合成与编辑方法 |
CN103093211A (zh) * | 2013-01-27 | 2013-05-08 | 西安电子科技大学 | 基于深度核信息图像特征的人体运动跟踪方法 |
CN103093211B (zh) * | 2013-01-27 | 2015-09-30 | 西安电子科技大学 | 基于深度核信息图像特征的人体运动跟踪方法 |
US10339177B2 (en) | 2014-03-28 | 2019-07-02 | Huawei Technologies Co., Ltd. | Method and a system for verifying facial data |
CN106663184A (zh) * | 2014-03-28 | 2017-05-10 | 华为技术有限公司 | 人脸数据验证的方法和系统 |
CN104200491A (zh) * | 2014-08-15 | 2014-12-10 | 浙江省新华医院 | 一种人体运动姿态校正系统 |
CN108476186A (zh) * | 2016-04-29 | 2018-08-31 | 庆熙大学校产学协力团 | 恢复减低复杂度ds-cdma系统中的原始信号的方法 |
CN108476186B (zh) * | 2016-04-29 | 2020-12-18 | 庆熙大学校产学协力团 | 恢复减低复杂度ds-cdma系统中的原始信号的方法 |
CN110320556A (zh) * | 2018-03-29 | 2019-10-11 | 中国石油化工股份有限公司 | 一种基于无监督分类三维隐空间的地震相分析方法 |
CN111524183A (zh) * | 2020-04-07 | 2020-08-11 | 上海交通大学 | 一种基于透视投影变换的目标行列定位方法 |
CN113156390A (zh) * | 2021-03-19 | 2021-07-23 | 深圳航天科技创新研究院 | 雷达信号处理方法及设备、计算机可读存储介质 |
CN113156390B (zh) * | 2021-03-19 | 2023-09-08 | 深圳航天科技创新研究院 | 雷达信号处理方法及设备、计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102663779A (zh) | 基于随机高斯隐变量的人体运动跟踪方法 | |
CN102184541B (zh) | 多目标优化人体运动跟踪方法 | |
CN102682452A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
CN102074034B (zh) | 多模型人体运动跟踪方法 | |
CN102855470B (zh) | 基于深度图像的人体姿态估计方法 | |
Balan et al. | An adaptive appearance model approach for model-based articulated object tracking | |
CN101894278B (zh) | 基于变结构多模型的人体运动跟踪方法 | |
CN102622766A (zh) | 多目标优化的多镜头人体运动跟踪方法 | |
CN103733226A (zh) | 快速的有关节运动的跟踪 | |
CN103268629B (zh) | 三维人体形态和姿态的无标记点实时复原方法 | |
CN102760236B (zh) | 基于组合稀疏模型的先验形状建模方法 | |
Li et al. | Bidirectional recurrent autoencoder for 3D skeleton motion data refinement | |
CN103473801A (zh) | 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法 | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Uddin et al. | Human Activity Recognition via 3-D joint angle features and Hidden Markov models | |
Fossati et al. | Bridging the gap between detection and tracking for 3D monocular video-based motion capture | |
Thang et al. | Estimation of 3-D human body posture via co-registration of 3-D human model and sequential stereo information | |
CN105243375A (zh) | 一种动作特征提取方法及装置 | |
CN102592135B (zh) | 融合目标空间分布和时序分布特征子空间的视觉跟踪方法 | |
CN102855639B (zh) | 一种运动捕捉数据的关键帧提取方法 | |
CN102663369B (zh) | 基于surf高效匹配核的人体运动跟踪方法 | |
CN106446757A (zh) | 一种人体运动数据相似度自动评价方法 | |
Chen et al. | Accurate 3D motion tracking by combining image alignment and feature matching | |
Zhao et al. | An image-constrained particle filter for 3D human motion tracking | |
Zhu | Refining method of mocap data based on LSTM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120912 |