CN108573231A - 基于运动历史点云生成的深度运动图的人体行为识别方法 - Google Patents
基于运动历史点云生成的深度运动图的人体行为识别方法 Download PDFInfo
- Publication number
- CN108573231A CN108573231A CN201810345023.4A CN201810345023A CN108573231A CN 108573231 A CN108573231 A CN 108573231A CN 201810345023 A CN201810345023 A CN 201810345023A CN 108573231 A CN108573231 A CN 108573231A
- Authority
- CN
- China
- Prior art keywords
- dmm
- sample
- action
- human
- mhpc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于运动历史点云生成的深度运动图的人体行为识别方法。其包括生成MHPC;生成DMM;提取HOG特征向量;训练和测试SVM分类器,最后SVM分类器的输出即为人体动作分类结果等步骤。本发明能够获得人体动作不同视角下的信息,增加了对人体动作角度变化的鲁棒性。用运动历史点云投影生成深度运动图时进行坐标归一化操作,增加了对动作类内差异的鲁棒性;从由运动历史点云投影生成的深度运动图中提取的HOG特征能够有效地表征人体动作类别,解决了利用点云提取特征复杂的问题。
Description
技术领域
本发明属于计算机视觉和图像处理技术领域,具体涉及一种基于运动历史点云(MHPC)生成的深度运动图(DMM)的人体行为识别方法。
背景技术
人体行为识别的研究意义主要体现在它的实用价值上,其在智能视频监控、视频内容检索、人体运动分析、辅助医疗等领域有着广泛的应用,国内外的专家学者对此进行了大量的研究。最初行为识别的方法大多是基于传统的RGB信息,产生了人体关键姿态、剪影、时空特征等方法。但是由于RGB信息易受光照、相机角度、背景变化等因素的影响,使得行为识别仍然面临着挑战。近些年来随着深度传感器的发展,使得深度图像获取技术得到普及。相比于彩色图像,深度图像仅与物体的空间位置有关,能够直接反映物体表面的三维特征,并且不易受光照变化、颜色和纹理的影响。利用深度图像的人体行为识别方法大致包括,将深度图像进行投影生成深度运动图像(DMM)的方法、将深度图像映射为点云数据后提取特征的方法。
将一个深度图像序列中的每一帧深度图像投影到三个正交的笛卡尔坐标平面上,可相应地得到前视图mapf,侧视图maps,俯视图mapt。将上述得到的三个投影视图序列的相邻帧做差分运算,然后取绝对值累加,可得到深度运动图像(DMM)。DMM计算简单,但是只包含三个视角下的动作信息,因此不能方便地获得其他视角下的动作信息。将深度图像映射为点云数据进行人体行为识别的方法,由于得到的点云数据量庞大,给提取点云特征带来极大的困难。中国专利第201610208016.0中公开了一种生成三维的运动历史体对动作进行表示的方法,该方法采用Harris3D对运动历史体进行特征点检测,利用三维梯度方向直方图来描述特征点得到特征描述子,然后对描述子进行聚类生成单词包,利用词频分布直方图来分类。这种方法虽然提取了点云的特征,但是算法过于繁琐,计算复杂度高。
发明内容
为了解决上述问题,本发明的目的在于提供一种基于运动历史点云生成的深度运动图的人体行为识别方法。
为了达到上述目的,本发明提供的基于运动历史点云生成的深度运动图的人体行为识别方法包括按顺序进行的下列步骤:
(1)将每个人体动作样本中已经提取前景的多帧深度图像通过坐标映射得到每帧深度图像的点云,然后将其填充到MHPC中,直到遍历完所有帧的深度图像得到该动作的MHPC,以记录动作发生的空间与时间信息;
(2)将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面和XOZ平面,生成三个DMM,然后将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转后投影生成至少两个DMM;
(3)从上述人体动作样本的所有DMM中提取出HOG特征向量,并进行串联而组合成该人体动作样本最终的HOG特征向量;
(4)选取所有人体动作样本中的部分样本为训练样本,剩余样本为测试样本,将训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将测试样本得到的HOG特征向量输入上述已训练好的SVM分类器中进行测试,最后得到人体动作分类结果。
在步骤(1)中,所述的将每个人体动作样本中已经提取前景的多帧深度图像通过坐标映射得到每帧深度图像的点云,然后将其填充到MHPC中,直到遍历完所有帧的深度图像得到该动作的MHPC的方法是:将一个人体动作序列作为一个人体动作样本,每个人体动作样本中包含N帧深度图像,将该人体动作样本中已经提取前景的深度图像从图像坐标系映射到相机坐标系得到各自的点云,运动历史点云是由每帧深度图像得到的点云填充而生成。
在步骤(2)中,所述的将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面和XOZ平面,生成三个DMM,然后将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转后投影生成至少两个DMM的方法是:
将MHPC投影到笛卡尔坐标平面上,根据投影后同一坐标下重叠点的分布情况,生成灰度图像DMM;将x,y,z坐标值进行归一化后作为生成DMM的坐标值;若投影到XOY平面、YOZ平面、XOZ平面的运动历史点云中,同一坐标下有m个重叠的点,相应地将其相邻两点的z坐标值、x坐标值、y坐标值进行差分运算并取绝对值累加,作为DMM的像素值;计算公式如下,其中i为当前坐标下第几个重叠的点:
利用旋转公式将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次,然后投影到笛卡尔坐标系的XOY平面,生成DMMθ,每一次旋转后投影生成至少两个DMM。
在步骤(3)中,所述的从人体动作样本的所有DMM中提取出HOG特征向量,并进行串联而组合成该人体动作最终的HOG特征向量的方法是:首先将一个DMM分成若干块,每一块分成若干单元,每一单元包含若干像素点,然后计算各像素点的水平方向梯度和垂直方向梯度;之后由像素点的水平方向梯度和垂直方向梯度计算出该像素点的梯度幅值和梯度方向;通过统计每一单元中像素点的梯度幅值和梯度方向分布情况,得到该单元内梯度直方图,将每一块中各单元的梯度直方图归一化,得到该块的梯度直方图,然后将所有块的梯度直方图进行串联而得到该DMM最后的HOG特征向量;最后采用特征层融合的方法,将一个MHPC产生的所有DMM的HOG特征向量进行串联,组合生成该人体动作的HOG特征向量,用来进行分类识别。
在步骤(4)中,所述的选取所有人体动作样本中的部分样本为训练样本,剩余样本为测试样本,将训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将测试样本得到的HOG特征向量输入上述已训练好的SVM分类器中进行测试,最后得到人体动作分类结果的方法是:根据不同的验证方法,采用留一交叉验证或交叉验证方法确定人体动作样本中训练样本与测试样本的比例;将经过步骤(3)得到的训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将经过步骤(3)得到的测试样本的HOG特征向量输入到上述已经训练好的SVM分类器中进行分类测试,SVM分类器的输出即为人体动作分类结果。
本发明提供的基于运动历史点云生成的深度运动图的人体行为识别方法首先将深度图像生成运动历史点云,然后将旋转的和未旋转的运动历史点云投影到笛卡尔坐标系平面生成深度运动图,增加了每个人体动作的深度运动图数量,获得了更多视角下的运动信息,增加了对人体动作角度变化的鲁棒性。将运动历史点云进行投影生成深度运动图,使得4维的人体形状和动作信息编码到深度运动图上,能够更加方便地提取特征来表征人体动作类别,极大地降低了计算复杂度。另外由运动历史点云投影后点的特点生成的深度运动图,在生成时进行坐标归一化,增加了对人体动作类内差异的鲁棒性。
附图说明
图1为本发明提供的基于运动历史点云生成的深度运动图的人体行为识别方法流程图。
图2为运动历史点云生成框图。
图3为MSR Action3D数据库中高手挥舞动作样本。
图4为高手挥舞动作生成的MHPC图。
图5为投影后的MHPC效果图。
图6为生成的DMM效果图。
具体实施方式
下面结合附图和具体实施例对本发明提供的基于运动历史点云生成的深度运动图的人体行为识别方法进行详细说明。
如图1所示,本发明提供的基于运动历史点云生成的深度运动图的人体行为识别方法包括按顺序进行的下列步骤:
(1)将每个人体动作样本中已经提取前景的多帧深度图像通过坐标映射得到每帧深度图像的点云,然后将其填充到MHPC中,直到遍历完所有帧的深度图像得到该动作的MHPC,以记录动作发生的空间与时间信息;
具体方法如下:
所述的人体动作样本选自MSR Action3D数据库。MSR Action3D数据库中的深度图像是用RGBD摄像头进行采集的,分辨率为320×240。整个数据库由20个人体动作类别构成,每个动作类别由10个演员执行2—3次,总共有567个动作样本。
运动历史点云(MHPC)是将一个动作序列压缩成一个包含空间信息与时间信息的点的集合,公式为MHPC={P1,P2,...,Pnum},其中num表示MHPC中点的个数。点云中任一点的坐标定义为Pj(x,y,z,h),j∈(1,num),其中Pj.x,Pj.y,Pj.z是指在相机坐标系下点的x,y,z坐标值,用来记录动作的发生位置;Pj.h指深度图像的帧号,用来记录该点的发生时间。将一个人体动作序列作为一个人体动作样本,每个人体动作样本中包含N帧深度图像,将该人体动作样本中已经提取前景的深度图像从图像坐标系映射到相机坐标系得到各自的点云,运动历史点云是由每帧深度图像得到的点云填充而生成,具体过程如图2所示。具体过程如图2所示。MSR Action3D数据库中高手挥舞动作样本如图3所示。
(2)将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面和XOZ平面,生成三个DMM,然后将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转后投影生成至少两个DMM;
具体方法如下:
MHPC的坐标系方向如图4所示,以屏幕右方为X轴正方向,屏幕上方为Y轴正方向,垂直屏幕向外为Z轴正方向。
将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面、XOZ平面,依次记为DMMf、DMMs、DMMt。
然后利用下面的旋转公式可将MHPC分别沿顺时针和逆时针方向绕X轴、Y轴和Z轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转投影后分别生成至少两个DMMθ;本发明中只绕Y轴旋转,并且θ选择±25°,±45°,因此MHPC经过旋转投影到XOZ平面后共生成四个DMM,记为DMMθ,θ∈(±25°,±45°)。此操作相当于是将从θ角度下观察的人体动作投影到XOY平面上,这样可以补充偏离摄像头θ视角下的动作信息。在XOZ平面投影后的点云效果如图5所示,其中将MHPC直接投影到三个正交的笛卡尔坐标平面的效果图如图5中的(a)-(c)所示;将MHPC绕Y轴左右旋转45度,然后投影到XOZ平面上的效果图如图5中的(d)、(e)所示。
MHPC是一个三维的立体,利用旋转公式可以将其旋转任意角度。根据MHPC的坐标系,利用下式将MHPC绕X轴旋转θ度:
利用下式将MHPC绕Y轴旋转θ度:
利用下式将MHPC绕Z轴旋转θ度:
通过旋转可以得到不同视角下的MHPC,将MHPC绕X轴旋转θ度,可以补充上下偏离摄像头θ视角下的运动信息;将MHPC绕Y轴旋转θ度,可以补充左右偏离摄像头θ视角下的动作信息;同理也可以将MHPC绕Z轴旋转一定角度,补充的是航偏角θ下的运动信息,由此获得不同视角下整个人体动作的状态。至于旋转轴和旋转角度θ的确定,要根据实际情况和实验确定。本发明中只绕Y轴旋转,并且θ选择±25°,±45°。
深度图像能够提供人体动作的形状和运动信息,将一个深度图像视频序列中的每一帧深度图像投影到三个正交的笛卡尔坐标平面上,即XOY平面、YOZ平面、XOZ平面,相应地得到前视图mapf,侧视图maps,俯视图mapt,这三个投影视图的像素值分别为深度图像中点的z,x,y坐标值。将上述得到的三个投影视图序列的相邻帧进行差分运算,然后取绝对值累加,得到深度运动图(DMM),其计算公式为:
其中,i为帧的索引,begin表示起始帧,end表示终止帧,mapv i表示第i帧在视角v下的投影视图,v∈{f,s,t}。DMM能够捕获运动的能量,表现为不同的外形与形状,因此能够很好地表示人体动作类别。本发明不再是从最初的深度图像生成DMM,而是将深度图像生成的MHPC进行投影获得DMM。
由于投影之后的点云在同一坐标下有好多重叠的点,这些重叠的点可能来自于同一帧深度图像,那么这些点的帧号P.h是相同的。这些重叠的点也可能来自于不同帧的深度图像,那么这些点的帧号P.h是不同的。利用这些重叠的点的分布情况我们生成DMM。在投影到XOY平面、YOZ平面、XOZ平面的运动历史点云中,同一坐标系下有m个重叠的点(投影的平面不同,m值不一定相同),相应地将其相邻两点的z坐标值、x坐标值、y坐标值进行差分运算,然后取绝对值累加作为DMM的像素值。计算公式如下,其中i为第几个重叠的点:
将没有旋转的MHPC投影到XOY平面、YOZ平面、XOZ平面,然后根据投影后点的分布特点生成DMM,依次记为DMMf、DMMs、DMMt。同理将旋转θ度的MHPC投影到XOY平面生成的DMM记为DMMθ。由于映射到相机坐标系中点的x,y,z坐标值属于实数,并且变化范围较小,不能直接将其作为DMM图像的坐标,所以将其进行归一化为固定值作为DMM的坐标,这样能够极大地减小类内差异。
将上述投影后的MHPC生成DMM,捕获了人体动作的空间能量分布,产生了不同的形状与外形,能够用此来表征人体动作类别。相比与之前DMM生成的方法,由历史运动点云生成的DMM不仅增加了不同视角下的运动信息,而且在生成DMM之前进行归一化操作,能够减少由人体形态和动作幅度多样性产生的类内差异。增加由旋转后的MHPC投影生成的DMM的数量,会增加不同视角下的动作信息,因此DMM的数量对动作描述的充分性有影响,需经过实验来确定旋转的角度以此来确定生成的DMM的数量。
在本发明中,将所有动作样本的y坐标值都归一化到0-1023,将x,z坐标值都归一化到0-511。旋转后的MHPC反映的是角度变化后的动作信息,所以旋转角度后生成的DMM包含不同视角下的动作信息,本发明中未经过旋转的MHPC生成3个DMM,MHPC绕Y轴左右旋转θ度各两次,在XOZ平面生成4个DMM,由上述7个DMM来表示1个MHPC。最后我们生成的DMMf,s,θ尺寸为512×1024,DMMt尺寸为512×512,在后续提取特征时将尺寸分别调整到64×128和64×64大小,生成的分别与图5(a)-(e)对应的DMM效果图如图6(a)-(e)所示。
(3)从上述人体动作样本的所有DMM中提取出HOG特征向量,并进行串联而组合成该人体动作样本最终的HOG特征向量;
梯度方向直方图(Histogram of Oriented Gradient,HOG)是一种用于人体检测的特征描述子,后来被广泛应用于图像处理和模式识别中。HOG特征向量提取采用将图像分块分单元的方法,既可以描述图像的局部形状信息,也可以表征局部像素点之间的关系。DMM中像素点(x,y)的梯度计算过程为:
Gx(x,y)=H(x+1,y)-H(x-1,y)
Gy(x,y)=H(x,y+1)-H(x,y-1)
式中,Gx(x,y),Gy(x,y),H(x,y)分别表示DMM中像素点(x,y)处的水平方向梯度、垂直方向梯度和像素值。像素点(x,y)处的梯度幅值G(x,y)和梯度方向α(x,y)为:
在本发明中,经过步骤二的操作每个MHPC可以至少得到5个DMM,本发明为7个,为了利用这些STDM来表征人体动作类别,我们从每一个DMM中提取出HOG特征向量,具体方法是首先将一个DMM分成若干块,每一块分成若干单元,每一单元包含若干像素点,然后按上式计算各像素点(x,y)的水平方向梯度和垂直方向梯度。然后由像素点的水平方向梯度和垂直方向梯度计算出该像素点的梯度幅值和梯度方向。通过统计每一单元中像素点的梯度幅值和梯度方向分布情况,得到该单元内梯度直方图,将每一块中各单元的梯度直方图归一化,得到该块的梯度直方图,然后将所有块的梯度直方图进行串联而得到该DMM最后的HOG特征向量;最后采用特征层融合的方法,将一个MHPC产生的所有DMM的HOG特征向量进行串联,组合生成该人体动作的HOG特征向量,用来进行分类识别。
在本发明中,从DMM中提取HOG特征向量时,将单元大小设置为8×8个像素点大小,块的大小设置为4×4个单元,所以DMMf,s,θ被划分为2×4个互不重叠的块,DMMt被划分为2×2个互不重叠的块,因此得到的HOG特征向量为1536维或768维。最后,将每个人体动作的7个DMM(即DMMf,s,t,±25°,±45°时)的HOG特征向量串联起来生成该人体动作的HOG特征向量。
(4)选取所有人体动作样本中的部分样本为训练样本,剩余样本为测试样本,将训练样本的HOG特征向量输入到支持向量机(SVM)分类器中进行训练,然后将测试样本得到的HOG特征向量输入上述已训练好的SVM分类器中进行测试,最后得到人体动作分类结果。
根据不同的验证方法,采用留一交叉验证或交叉验证方法确定人体动作样本中训练样本与测试样本的比例;将经过步骤(3)得到的训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将经过步骤(3)得到的测试样本的HOG特征向量输入到上述已经训练好的SVM分类器中进行分类测试,SVM分类器的输出即为人体动作分类结果。
在本发明中,采用交叉验证的方法将MSRAction3D数据库中的1、3、5、7、9号演员的人体动作样本作为训练样本,剩下的2、4、6、8、10演员的人体动作样本作为测试样本。采用SVM分类器进行分类,达到了93.82%的识别效果。本发明方法与一些现有方法的识别结果比较见表1。
表1.本发明方法与现有方法的识别结果比较(%)
Claims (5)
1.一种基于运动历史点云生成的深度运动图的人体行为识别方法,其特征在于:所述的方法包括按顺序进行的下列步骤:
(1)将每个人体动作样本中已经提取前景的多帧深度图像通过坐标映射得到每帧深度图像的点云,然后将其填充到MHPC中,直到遍历完所有帧的深度图像得到该动作的MHPC,以记录动作发生的空间与时间信息;
(2)将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面和XOZ平面,生成三个DMM,然后将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转后投影生成至少两个DMM;
(3)从上述人体动作样本的所有DMM中提取出HOG特征向量,并进行串联而组合成该人体动作样本最终的HOG特征向量;
(4)选取所有人体动作样本中的部分样本为训练样本,剩余样本为测试样本,将训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将测试样本得到的HOG特征向量输入上述已训练好的SVM分类器中进行测试,最后得到人体动作分类结果。
2.根据权利要求1所述的基于运动历史点云生成的深度运动图的人体行为识别方法,其特征在于:在步骤(1)中,所述的将每个人体动作样本中已经提取前景的多帧深度图像通过坐标映射得到每帧深度图像的点云,然后将其填充到MHPC中,直到遍历完所有帧的深度图像得到该动作的MHPC的方法是:将一个人体动作序列作为一个人体动作样本,每个人体动作样本中包含N帧深度图像,将该人体动作样本中已经提取前景的深度图像从图像坐标系映射到相机坐标系得到各自的点云,运动历史点云是由每帧深度图像得到的点云填充而生成。
3.根据权利要求1所述的基于运动历史点云生成的深度运动图的人体行为识别方法,其特征在于:在步骤(2)中,所述的将MHPC直接投影到三个正交的笛卡尔坐标平面,分别是XOY平面、YOZ平面和XOZ平面,生成三个DMM,然后将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次并投影到笛卡尔坐标系的XOY平面,每一次旋转后投影生成至少两个DMM的方法是:
将MHPC投影到笛卡尔坐标平面上,根据投影后同一坐标下重叠点的分布情况,生成灰度图像DMM;将x,y,z坐标值进行归一化后作为生成DMM的坐标值;若投影到XOY平面、YOZ平面、XOZ平面的运动历史点云中,同一坐标下有m个重叠的点,相应地将其相邻两点的z坐标值、x坐标值、y坐标值进行差分运算并取绝对值累加,作为DMM的像素值;计算公式如下,其中i为当前坐标下第几个重叠的点:
利用旋转公式将MHPC沿顺时针和逆时针方向绕X轴、Y轴和Z轴中的任一轴旋转θ度至少一次,然后投影到笛卡尔坐标系的XOY平面,生成DMMθ,每一次旋转后投影生成至少两个DMM。
4.根据权利要求1所述的基于运动历史点云生成的深度运动图的人体行为识别方法,其特征在于:在步骤(3)中,所述的从上述人体动作样本的所有DMM中提取出HOG特征向量,并进行串联而组合成该人体动作最终的HOG特征向量的方法是:首先将一个DMM分成若干块,每一块分成若干单元,每一单元包含若干像素点,然后计算各像素点的水平方向梯度和垂直方向梯度;之后由像素点的水平方向梯度和垂直方向梯度计算出该像素点的梯度幅值和梯度方向;通过统计每一单元中像素点的梯度幅值和梯度方向分布情况,得到该单元内梯度直方图,将每一块中各单元的梯度直方图归一化,得到该块的梯度直方图,然后将所有块的梯度直方图进行串联而得到该DMM最后的HOG特征向量;最后采用特征层融合的方法,将一个MHPC产生的所有DMM的HOG特征向量进行串联,组合生成该人体动作的HOG特征向量,用来进行分类识别。
5.根据权利要求1所述的基于运动历史点云生成的深度运动图的人体行为识别方法,其特征在于:在步骤(4)中,所述的选取所有人体动作样本中的部分样本为训练样本,剩余样本为测试样本,将训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将测试样本得到的HOG特征向量输入上述已训练好的SVM分类器中进行测试,最后得到人体动作分类结果的方法是:根据不同的验证方法,采用留一交叉验证或交叉验证方法确定人体动作样本中训练样本与测试样本的比例;将经过步骤(3)得到的训练样本的HOG特征向量输入到SVM分类器中进行训练,然后将经过步骤(3)得到的测试样本的HOG特征向量输入到上述已经训练好的SVM分类器中进行分类测试,SVM分类器的输出即为人体动作分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810345023.4A CN108573231B (zh) | 2018-04-17 | 2018-04-17 | 基于运动历史点云生成的深度运动图的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810345023.4A CN108573231B (zh) | 2018-04-17 | 2018-04-17 | 基于运动历史点云生成的深度运动图的人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108573231A true CN108573231A (zh) | 2018-09-25 |
CN108573231B CN108573231B (zh) | 2021-08-31 |
Family
ID=63574950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810345023.4A Expired - Fee Related CN108573231B (zh) | 2018-04-17 | 2018-04-17 | 基于运动历史点云生成的深度运动图的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108573231B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766782A (zh) * | 2018-12-20 | 2019-05-17 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN109961042A (zh) * | 2019-03-22 | 2019-07-02 | 中国人民解放军国防科技大学 | 结合深度卷积神经网络和视觉变化图的烟雾检测方法 |
CN110009717A (zh) * | 2019-04-01 | 2019-07-12 | 江南大学 | 一种基于单目深度图的动画人物绑定录制系统 |
CN110909691A (zh) * | 2019-11-26 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 动作检测方法、装置、计算机可读存储介质和计算机设备 |
CN113486708A (zh) * | 2021-05-24 | 2021-10-08 | 浙江大华技术股份有限公司 | 人体姿态预估方法、模型训练方法、电子设备和存储介质 |
CN114612524A (zh) * | 2022-05-11 | 2022-06-10 | 西南交通大学 | 一种基于rgb-d相机的运动识别方法 |
WO2023179011A1 (zh) * | 2022-03-25 | 2023-09-28 | 杭州睿影科技有限公司 | 一种图像生成方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
CN104820982A (zh) * | 2015-04-23 | 2015-08-05 | 北京理工大学 | 一种基于核函数的实时地形估计方法 |
CN105608421A (zh) * | 2015-12-18 | 2016-05-25 | 中国科学院深圳先进技术研究院 | 一种人体动作的识别方法及装置 |
US20160292497A1 (en) * | 2015-04-06 | 2016-10-06 | The Texas A&M University System | Fusion of inertial and depth sensors for movement measurements and recognition |
US9478033B1 (en) * | 2010-08-02 | 2016-10-25 | Red Giant Software | Particle-based tracking of objects within images |
CN106529441A (zh) * | 2016-10-26 | 2017-03-22 | 江南大学 | 基于模糊边界分片的深度动作图人体行为识别方法 |
CN106651958A (zh) * | 2016-11-02 | 2017-05-10 | 华南理工大学 | 一种移动物体的对象识别装置及方法 |
-
2018
- 2018-04-17 CN CN201810345023.4A patent/CN108573231B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9478033B1 (en) * | 2010-08-02 | 2016-10-25 | Red Giant Software | Particle-based tracking of objects within images |
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
US20160292497A1 (en) * | 2015-04-06 | 2016-10-06 | The Texas A&M University System | Fusion of inertial and depth sensors for movement measurements and recognition |
CN104820982A (zh) * | 2015-04-23 | 2015-08-05 | 北京理工大学 | 一种基于核函数的实时地形估计方法 |
CN105608421A (zh) * | 2015-12-18 | 2016-05-25 | 中国科学院深圳先进技术研究院 | 一种人体动作的识别方法及装置 |
CN106529441A (zh) * | 2016-10-26 | 2017-03-22 | 江南大学 | 基于模糊边界分片的深度动作图人体行为识别方法 |
CN106651958A (zh) * | 2016-11-02 | 2017-05-10 | 华南理工大学 | 一种移动物体的对象识别装置及方法 |
Non-Patent Citations (2)
Title |
---|
JAVED IMRAN等: "Human action recognition using RGB-D sensor and deep convolutional neural networks", 《2016 INTERNATIONAL CONFERENCE ON ADVANCES IN COMPUTING, COMMUNICATIONS AND INFORMATICS (ICACCI)》 * |
罗坚等: "基于3D结构光传感器的老龄人异常行为检测方法", 《光学技术》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766782A (zh) * | 2018-12-20 | 2019-05-17 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN109766782B (zh) * | 2018-12-20 | 2022-09-27 | 南京理工大学 | 基于svm的实时肢体动作识别方法 |
CN109961042A (zh) * | 2019-03-22 | 2019-07-02 | 中国人民解放军国防科技大学 | 结合深度卷积神经网络和视觉变化图的烟雾检测方法 |
CN109961042B (zh) * | 2019-03-22 | 2021-07-27 | 中国人民解放军国防科技大学 | 结合深度卷积神经网络和视觉变化图的烟雾检测方法 |
CN110009717A (zh) * | 2019-04-01 | 2019-07-12 | 江南大学 | 一种基于单目深度图的动画人物绑定录制系统 |
CN110909691A (zh) * | 2019-11-26 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 动作检测方法、装置、计算机可读存储介质和计算机设备 |
CN110909691B (zh) * | 2019-11-26 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 动作检测方法、装置、计算机可读存储介质和计算机设备 |
CN113486708A (zh) * | 2021-05-24 | 2021-10-08 | 浙江大华技术股份有限公司 | 人体姿态预估方法、模型训练方法、电子设备和存储介质 |
WO2023179011A1 (zh) * | 2022-03-25 | 2023-09-28 | 杭州睿影科技有限公司 | 一种图像生成方法和装置 |
CN114612524A (zh) * | 2022-05-11 | 2022-06-10 | 西南交通大学 | 一种基于rgb-d相机的运动识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108573231B (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573231A (zh) | 基于运动历史点云生成的深度运动图的人体行为识别方法 | |
Zhang et al. | Object-occluded human shape and pose estimation from a single color image | |
Wang et al. | Action recognition from depth maps using deep convolutional neural networks | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
Pishchulin et al. | Learning people detection models from few training samples | |
Li et al. | Real-time pose estimation of deformable objects using a volumetric approach | |
Qiang et al. | SqueezeNet and fusion network-based accurate fast fully convolutional network for hand detection and gesture recognition | |
CN104217459B (zh) | 一种球面特征提取方法 | |
WO2021063271A1 (zh) | 人体模型重建方法、重建系统及存储介质 | |
CN109934847A (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN107944459A (zh) | 一种rgb‑d物体识别方法 | |
CN110263605A (zh) | 基于二维人体姿态估计的行人服饰颜色识别方法及装置 | |
CN110381268A (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
Zhang et al. | Learning category-specific 3D shape models from weakly labeled 2D images | |
CN106022266A (zh) | 一种目标跟踪方法及装置 | |
Jayaraman et al. | Shapecodes: self-supervised feature learning by lifting views to viewgrids | |
Kang et al. | Competitive learning of facial fitting and synthesis using uv energy | |
CN108564043A (zh) | 一种基于时空分布图的人体行为识别方法 | |
Lin et al. | High quality facial data synthesis and fusion for 3D low-quality face recognition | |
JP5503510B2 (ja) | 姿勢推定装置および姿勢推定プログラム | |
Zhou et al. | PersDet: Monocular 3D Detection in Perspective Bird's-Eye-View | |
CN107230220A (zh) | 一种新的时空Harris角点检测方法及装置 | |
Zhang et al. | Two-stage co-segmentation network based on discriminative representation for recovering human mesh from videos | |
CN115359513A (zh) | 基于关键点监督和分组特征融合的多视图行人检测方法 | |
Cheng et al. | An augmented reality image registration method based on improved ORB |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210831 |