CN103473530B - 基于多视图和多模态特征的自适应动作识别方法 - Google Patents
基于多视图和多模态特征的自适应动作识别方法 Download PDFInfo
- Publication number
- CN103473530B CN103473530B CN201310386606.9A CN201310386606A CN103473530B CN 103473530 B CN103473530 B CN 103473530B CN 201310386606 A CN201310386606 A CN 201310386606A CN 103473530 B CN103473530 B CN 103473530B
- Authority
- CN
- China
- Prior art keywords
- rgb
- depth
- multi views
- feature
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
一种基于多视图和多模态特征的自适应动作识别方法。具体包括:视频预处理;目标运动变化过程多视图描述;等级金字塔特征提取;多视图深度和RGB模型构建;多视图模型选择,推断及多模态特征结果融合。本发明首先针对可见光图像动作识别常遇到的光照变化和阴影等困难,提出基于多视图和多模态特征进行动作识别;其次本发明针对单一视图的局限性,提出了目标运动变化过程多视图描述,它能够比较全面的捕获深度和RGB图像序列中目标的变化过程;再次本发明公开的等级金字塔特征既有空间分辨能力也有细节描述能力,具有非常好的鲁棒性和区分性;最后,根据环境光线的变化情况,自适应的进行多模态特征的融合,进一步提高动作识别方法的性能和稳定性。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,设计了一种基于多视图和多模态特征的自适应动作识别方法,解决利用可见光图像进行动作识别的困难,并提高动作识别的准确性和鲁棒性,可以用于对监控视频中人体目标的动作识别,实现对监控视频的智能化管理。
背景技术
随着计算机技术和信息技术的发展,对基于视频的人体动作分析的需求越来越迫切,在诸如智能监控、家居安全、智能机器人、运动员辅助训练等系统中,动作分析起到了越来越重要的作用。然而早期的人体动作识别大多是利用普通的RGB图像序列进行动作分析,这样会受到光照、阴影、色度、环境变化等因素的干扰。
利用深度图像进行人体动作识别是近年来兴起的技术。这主要得益于深度图摄像机的成本降低,特别是微软推出Kinect设备。与可见光图像不同,深度图像像素值仅与物体空间位置有关,不会受光照、阴影、色度、环境变化等因素的干扰,能够有效地突破可见光图像识别遇到的问题和瓶颈。在一定的空间范围内,深度图像可以用来进行3D空间中的动作识别,代替可见光摄像机的双目视觉。因为人体运动分析在高级人机交互、视频会议、安全监控、医疗诊断、基于内容的图像存储和检索等方面,具有潜在的经济价值和广泛的应用前景,因此利用深度图像进行动作分析得到国内外广大机器视觉研究者们的关注。
在计算机视觉和模式识别相关研究领域中,提高人体动作识别的准确性和稳定性一直是最活跃的研究问题之一,并且能够设计出一种鲁棒的动作描述法也是一个重点和难点。由于利用可见光图像会受到光照、阴影、色度、环境变化等因素的干扰,在识别目标的动作时,基于可见光的方法常常失败,当光线发生较大变化时,例如,夜晚,其性能将急剧下降。因此,近些年利用深度图像进行动作识别成为该领域主流方法,但是由于目标差异较大,同时,即使相同目标的动作也存在差异,这给人体动作识别带来了很大困难。
发明内容
本发明的目的是解决基于可见光的动作识别方法识别性能不稳定,当光线发生较大变化时,例如,夜晚,其性能将急剧下降的问题,同时,由于观察视角的不同,从某个观察视角,不能全面的捕获目标运动历史变化过程,因此,本发明提出一种基于多视图和多模态特征的自适应动作识别方法,用于对视频监控中目标动作进行识别,以实现对监控视频的智能分析。
本发明提供的基于多视图和多模态特征的自适应动作识别方法,克服了现有技术的不足并提高了动作识别的准确性,能够很好的应用于现实生活中。该方法具体包含以下步骤:
第1、视频预处理
预处理包括对输入的深度图像和RGB图像序列滤波去噪,同时,通过Kinect设备的红外装置,可以测出目标与摄像头的近似距离,在该距离值的基础上,增加0.5米获得对应的大阈值,减去1米获得对应的小阈值。当某像素的深度值大于大阈值或小于小阈值时,将该像素标记为0,否则标记为1,这样,能够移除背景对目标的干扰;
第2、目标运动变化过程多视图描述
由于环境光线的变化,将对RGB图像序列有较大的影响,同时,由于观察视角的不同,从某个观察视角,不能全面地捕获目标运动历史变化过程,因此,提出了基于RGB图像和深度图像的多视图目标运动历史变化过程,捕获目标的运动变化,即:
(1)捕获深度视频序列人体变化过程,获得对应的多视图深度运动历史图像;
(2)捕获RGB视频序列人体运动变化过程,获得对应的深度限制RGB图的多视图运动历史图像;
第3、等级金字塔特征提取
在第2步获得的多视图深度运动历史图像和深度限制RGB图的多视图运动历史图像的基础上,分别寻找图像中非零像素,从而获得对应的人体历史运动的矩形区域,并在该区域内,提取等级金字塔特征描述对应的人体动作,其中人体动作包括:(1)弯腰鞠躬,(2)原地起跳且手抬起,(3)跳远,(4)单手挥手,(5)原地跳起手不动,(6)跑步,(7)侧移,(8)单脚走路,(9)双手挥手,(10)双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球、羽毛球等发球,(15)高尔夫摇杆击球,(16)拳击,(17)太极云手。
第4、多视图深度模型构建和多视图RGB模型构建
网路中公共的动作数据集DHA中每个样本都包括RGB和深度图像序列,同时,该数据集被划分为训练数据集和测试数据集,按照第3步的方法,为DHA训练数据集中的每个样本分别提取深度图像序列和RGB图像序列上的多视图的等级金字塔特征,并将每个样本的不同视图的特征串联,然后,在训练数据集上,分别训练基于深度的多视图等级金字塔特征和基于RGB的多视图等级金字塔特征的支持向量机模型;
第5、多视图模型选择,模型推断以及多模态特征结果融合
在公共动作数据集DHA中测试数据集上,按照第3步的方法,提取深度和RGB运动历史图像上的多视图的等级金字塔特征,同时,计算RGB矩形区域内平均亮度,根据其光线的亮暗情况,自适应的选择已经训练好的模型。当环境光线较暗时,RGB图像序列非常模糊,无法进行动作识别,因此,采用基于深度的多视图等级金字塔特征的支持向量机模型,反之,则采用基于深度和RGB融合的多视图,多模态特征的支持向量机模型。即将测试样本中提取基于深度的多视图特征和基于RGB的多视图特征分别输入到模型中,模型将自动地对样本的动作类别进行判断,并给出对应的属于某个动作类别的概率,最后,融合多模态特征的结果。
本发明方法首先针对可见光图像动作识别常遇到的困难,例如,光照变化、阴影和遮挡等变化,引入基于深度图的动作识别方法,同时,针对观察视角的不同,从某个观察视角,不能全面的捕获目标运动历史变化过程,因此,本发明提出了目标运动变化过程多视图描述,它能够比较全面的捕获深度图像序列和RGB图像序列中人体动作的变化过程;再次本发明公开的等级金字塔特征既有空间分辨能力也有细节描述能力,且具有非常好的鲁棒性和区分性;最后、根据环境光线的变化情况,自适应的进行多模态特征的融合,进一步的提高动作识别方法的性能和稳定性。
本发明的优点和有益效果:
1)通过引入基于深度图像的动作识别方法,解决由于光照、阴影、色度、环境变化等因素带来的影响;2)本发明公开的目标运动变化过程多视图描述,能够比较全面的捕获深度图像序列和RGB图像序列中人体动作的变化过程,克服由于观察视角的不同,从某个观察视角,不能全面的捕获目标运动历史变化过程的困难;3)本发明公开的等级金字塔特征既具有空间分辨能力也具有细节描述能力,且具有很好的鲁棒性和区分性,很大程度上提高动作识别的准确性。4)根据环境光线的变化情况,自适应的进行多模态特征的融合,进一步的提高动作识别方法的性能和稳定性。
附图说明
图1为本发明的流程图。
图2从左至右分别为“单手挥手”动作的(a)RGB图像和(b)深度图像。
图3从左至右分别为“高尔夫摇杆击球”动作的(a)RGB图像和(b)RGB图人体剪影图像。
图4从左至右分别为基于深度图的“鞠躬”动作的(a)正视图,(b)俯视图和(c)左视图的运动历史过程。
图5从左至右分别为基于RGB图的“单手挥”动作的(a)正视图,(b)俯视图和(c)左视图的运动历史过程。
图6为“双手挥动”的正视图下等级金字塔特征的提取过程。
具体实施方式
下面结合附图对本发明作进一步的描述。
实施例1
如图1所示,为本发明基于多视图和多模态特征的自适应动作识别方法的操作流程图,该方法的操作步骤包括:
步骤01视频预处理
对输入的深度图像和RGB图像序列滤波去噪,同时,通过Kinect设备的红外装置,可以测出目标与摄像头的大概距离,根据该距离值,加上0.5米获得大阈值,减去1米获得小阈值,例如,在本实施例中,目标与摄像头的距离大约为2米,则大阈值为2.5米,小阈值为1米。当某像素的深度值大于大阈值或小于小阈值时,将该像素标记为0,否则标记为1,这样,可以移除背景对目标的干扰;其结果如图2(a)和(b)所示。具体定义为:
其中D(i,j)代表深度图像中像素(i,j)的深度值,Thres1,Thred2代表两个不同的阈值,且Thres1>Thred2,实施例中,Thres1=2.5,Thred2=1。其中图像去噪采用均值滤波方法。
步骤02目标运动历史变化过程多视图描述
(1)深度运动过程多视图描述:
任意长度的N帧视频,例如N=23、31、54,由于观察视角的不同,从某个观察视角,不能全面的捕获目标运动历史变化过程,因此,本发明提出了基于多视图的目标运动历史变化过程,具体包括正视图、俯视图和左视图的目标运动历史变化过程。下面依次介绍不同视图的目标运动历史变化过程:
(a)正视图下的目标运动历史变化过程
为了描述连续运动序列的深度变化过程,针对每个非零像素,计算N帧中该像素位置的最大值和最小值,获得对应的最大值和最小值图像,将这两幅图像做差,并取绝对值,获得对应的正视图下的目标运动历史变化过程,其效果图如图4(a)所示,具体定义如下所示:
Imax(i,j)=max{D(i,j,t):D(i,j,t)≠0,t∈[1...N]}(2)
Imin(i,j)=min{D(i,j,t):D(i,j,t)≠0,t∈[1...N]}(3)
Idiff=Imax-Imin(4)
其中D(i,j,t)表示帧t在像素位置(i,j)的深度值,Imax代表N帧中每个非零像素位置的最大值,Imin代表N帧中每个非零像素位置的最小值,Idiff代表N帧的深度差值运动历史图像。
(b)俯视图下的目标运动历史变化过程
假设存在N帧运动图像序列,图像的分辨率为m*n。首先,计算N帧运动图像序列的相邻两帧的帧差,并取绝对值,这样,可以获得N-1帧图像序列,其次,针对每幅帧差图像的每列,分别计算当前列所有像素值的和,因此,每幅帧差图像变成了1*n的向量,再次,依次对N-1帧图像序列分别处理,并将这些1*n的向量累积,变成了(N-1)*n的图像,该图像被称为俯视图下的目标运动历史变成过程,其效果图如图4(b)所示,具体定义如下所示:
B(i,j,t)=D(i,j,t+1)-D(i,j,t),t∈[1...N-1](5)
其中D(i,j,t)表示帧t在像素位置(i,j)的深度值,B是对应的深度帧差图像,DT表示针对每幅帧差图像的每列,分别计算当前列所有像素值的和所形成的1*n的向量。
(c)左视图下的目标运动历史变化过程
同理,假设存在N帧运动图像序列,图像的分辨率为m*n。首先,计算N帧运动图像序列的相邻两帧的帧差,并取绝对值,这样,可以获得N-1帧图像序列,其次,针对每幅帧差图像的每行,分别计算当前行所有像素值的和,因此,每幅帧差图像变成了m*1的向量,再次,依次对N-1帧图像序列分别处理,并将这些m*1的向量累积,变成了m*(N-1)的图像,该图像被称为左视图下的目标运动历史变成过程,其效果图如图4(c)所示,具体定义如下所示:
B(i,j,t)=D(i,j,t+1)-D(i,j,t),t∈[1...N-1](7)
其中D(i,j,t)表示帧t在像素位置(i,j)的深度值,B表示对应的深度帧差图像,DT表示针对每幅帧差图像的每行,分别计算当前行所有像素值的和所形成的m*1的向量。
(2)RGB图像运动过程多视图描述:正如步骤01所述,在深度图中根据距离比较容易将前景与背景分开,因此,首先,在捕获RGB图像运动变化过程之前,使用去除背景的深度图对RGB图像进行过滤,从而获得RGB图像中人体的大致区域(如图3(b)所示),这样就去除了RGB图像的背景,防止了差值运动历史图受背景的干扰;
I(i,j,t)=F(i,j,t)*D(i,j,t),t∈[1...N](9)
其中F(i,j,t)代表t帧RGB图像在像素位置为(i,j)的亮度值,D(i,j,t)表示帧t在像素位置(i,j)的深度值。在此基础上,按照深度运动过程多视图描述方法,获得对应的RGB图下的正视图、俯视图和左视图的目标运动历史变化过程。由于过程和深度图的多视图运动历史变化过程一样,所以就不依次赘述了。
步骤03等级金字塔特征提取
在步骤02中获得的不同模态的多视图运动历史图像的基础上,首先遍历搜索该图像的非零像素从而找到包含人体剪影的矩形框,其次,由于梯度方向直方图(HistogramofOrientatedGradients,HOG)是描述人体形状信息的一种有效方法。HOG特征通过提取局部区域的边缘或梯度的分布,可以很好地表征局部区域内目标的边缘或梯度结构,进而表征人体的形状。实际上,在HOG特征中,虽然考虑到图像空间位置的分布,但没有考虑到图像不同空间尺度划分表示对分类性能的影响,基于此,本文提出使用塔式梯度方向直方图(PyramidHistogramofOrientatedGradients,PHOG)作为人体动作的描述子,它不仅描述了人体动作的形状信息,而且还描述了人体动作的空间信息,形状信息和空间信息对动作识别都是非常有帮助的。因此,在该矩形区域内,提取等级金字塔特征,具体包括以下步骤:
a)不同模态的多视图运动历史图像的边缘信息。采用Canny边缘检测提取人体图像的边缘轮廓用于描述形状。
b)对不同模态的多视图运动历史图像进行若干层级的金字塔分割,如图6所示。在本发明中,将图像分成四层,第一层是整个图像;第二层是将整个图像均分为四个子区域;而第三层和第四层都是将前一层中的子区域再进一步均分成更小的四个子区域,可见后一层子区域只是前一层区域的1/4大小。
c)在每个层次级别上提取子区域的梯度方向直方图(HOG)特征,在提取子区域的HOG特征时,本发明中梯度方向取值范围为[0,360]度,图像梯度方向直方图分成K=20个部分,统计梯度方向处于各区间内的像素点个数,并在各区间上累加各像素点梯度幅值作为该区间的权值,并表示到梯度方向直方图中。
d)将得到的各个层级的HOG特征级联在一起就获得最终的PHOG特征。本发明中采用四层结构,并且K=20,所以本发明中的单一视图的PHOG特征一共是(40+41+42+43)*20=1700维。其具体过程如图6所示,同时,HOG和PHOG依次参考如下文献:
(HOG)N.Dalal,B.Triggs.Histogramsoforientedgradientsforhumandetection[C].ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR),2005,1:886-893.
(PHOG)A.Bosch,A.Zisserman,X.Munoz.RepresentingShapewithaSpatialPyramidKernel[C].Procofthe6thACMInternationalConferenceonImageandVideoRetrieval,Amsterdam,Netherlands,2007,page(s):401-408.
步骤04多视图深度模型构建和多视图RGB模型构建
SVM是Vapnik等人提出的以结构风险最小化理论(StructuralRiskMinimization,SRM)为核心的一种统计学习算法,它是对传统的基于经验风险最小化准则(EmpiricalRiskMinimization,ERM)的学习算法的改进,后者虽然可以使训练误差最小化,但并不能最小化学习过程的推广误差。所谓结构风险最小化,即在保证分类精度(经验风险)的同时,通过最小化推广误差的上确界,使学习机在整个样本集上的期望风险得到控制。SVM的基本思想是:通过某种非线性映射,即满足Mercer定理的核函数,将输入的有限样本集X映射到一个高维线性特征空间,在这个空间中构造一个最优分类超平面,尽可能地将两类样本正确分开,同时使正负样本集的分类间隔最大,最终获得最佳推广性能。本发明在DHA动作训练数据集上,分别训练基于深度的多视图等级金字塔特征的支持向量机模型、基于RGB的多视图等级金字塔特征的支持向量机模型。在训练模型的过程中,使用LIBSVM工具箱来训练模型,并找到最优的模型参数,其具体方法见参考文献:LIBSVM:www.csie.ntu.edu.tw/~cjlin/Lib-svm/。
步骤05多视图模型选择,模型推断以及多模态特征结果融合
由于实际情况中环境光线常常发生变化,当光线暗淡时,RGB图像将非常暗,对应的目标非常模糊,这将导致基于常见光的算法性能急剧下降,因此,在本发明中,根据RGB图像中矩形区域中的亮度平均值,确定所需的模型,当平均亮度值过小时,则直接采用基于深度的多视图等级金字塔特征的支持向量机模型,否则采用基于多视图和多模态特征的支持向量机模型,其具体定义如下:
prob(a)=(probdepth(a)+probrgb(a))/2(12)
其中,F(i,j)代表RGB的亮度图像,W=640,H=480分别代表图像的宽度和高度,Aver表示当前RGB图像的平均亮度,Thres表示模型选择的阈值,Moddepth表示基于深度的多视图等级金字塔特征的模型,Moddepth&RGB表示同时选择基于深度和RGB的多视图,多模态特征的支持向量机模型,在实施例中,Thres=80。probdepth(a)表示基于深度的多视图等级金字塔特征的预测某样本为动作类别a时,其对应的概率,probrgb(a)表示基于RGB的多视图等级金字塔特征的预测某样本为动作类别a时,其对应的概率,prob(a)表示在预测预测某样本为动作类别a时,自适应融合多模态特征结果后其对应的概率。
当图像平均亮度较小时,RGB图像中目标非常模糊,其对应的运动历史直方图也较模糊,无法进行动作识别,因此,此时自适应的选择基于深度的多模态支持向量机模型。同时,由于RGB信息和深度数据之间存在一定的互补特性,当它们融合时,能够进一步的提高算法的性能,因此,当光线比较亮时,选择基于深度和RGB的多视图,多模态特征的支持向量机模型,即将测试样本中提取基于深度的多视图特征和基于RGB的多视图特征分别输入到模型中,模型将自动地对样本的动作类别进行判断,并给出对应的属于某个动作类别的概率,最后,根据公式(12)融合多模态特征的结果。
在测试过程中,针对每个测试样本,首先按照步骤03特征提取过程,提取多模态,多视图的等级金字塔特征,并将对应的特征输入到已经选择的模型中,支持向量机模型将自动对样本(在DHA数据集上,包括17个动作类别,每个动作由21个不同的人录制(12个男的9个女的),每个人做一次,总共是357*2个视频序列,动作类别具体为(1)弯腰鞠躬,(2)原地起跳且手抬起,(3)跳远,(4)单手挥手,(5)原地跳起手不动,(6)跑步,(7)侧移,(8)单脚走路,(9)双手挥手,(10)双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球、羽毛球等发球,(15)高尔夫摇杆击球,(16)拳击,(17)太极云手)进行分类,给出对应的动作类别标签。
为了说明本发明中多视图的有效性,首先在公共的MSRAction3D[Liet.al2010]深度动作数据集上进行了多视图效果的评测,在该数据集中,包括20个动作,它们分别是:1)单手举高挥舞胳膊,2)单手水平挥舞胳膊,3)敲打,4)抓手,5)冲拳,6)高抛,7)画x,8)画对号,9)画圆,10)鼓掌,11)双手挥舞,12)侧面打拳,13)鞠躬,14)向前踢腿,15)侧面踢腿,16)慢跑,17)打网球,18)网球发球,19)打高尔夫球,20)捡起东西,并扔掉。其中10个人做以上动作,并重复三次动作。为了评估的公平,公正性,本发明中严格按照文献(Lietal.2010)的实验设置进行评估,同时,为了说明本发明的优越性,还与当前最具代表性的方法[1-2]进行了比较,其实验结果如表1所示。
从表1可以看出本发明的基于深度的多视图等级金字塔特征的动作识别方法具有较好的优越性和稳定性。
[1.]W.Li,Z.Zhang,andZ.Liu.Actionrecognitionbasedonabagof3Dpoints[C].InHumanCommunicativeBehaviorAnalysisWorkshop(inconjunctionwithCVPR),2010,page(s):9-14.
[2.]X.Yang,andY.Tian.EigenJoints-basedActionRecognitionUsing-Bayes-Nearest-Neighbor[C].IEEEWorkshoponCVPR.2012,page(s):14-19。
表1
为了进一步的说明本发明的有效性,在公共的、具有挑战性的动作识别DHA数据集上进行了评测,同时,由于等分法存在一定的巧合性,因此,本发明使用留一法进行模型性能评估。具体过程为:将全部样本按人(例如:共21个人)分成21份,首先取出其中一份,用剩下的20份作为训练集来生成预测模型,并采用该预留的样本评测模型性能,紧接着再把取出的那份样本放回原来的样本集中,取出另一份作为测试集,剩下样本构成训练集,构建预测模型,并用预留的这份样本验证模型的性能……,重复21次以上实验,计算21次的平均性能,并以此结果作为本发明的性能评价。
通过在DHA数据集的试验结果表明,当仅使用单一视图的深度数据或RGB数据时,其性能大约在92%,而基于本发明提出的基于深度的多视图等级金字塔特征和基于RGB的多视图等级金字塔特征的性能分别为95%和95.6%,而当采用本文提出的基于深度和RGB图的多视图,多模态特征的自适应动作识别方法时,其性能更是达到98.2%,进一步提高了算法的性能,其性能比当前的the-state-of-the-art算法(Lin等2012)的准确率提高了11.2%。DHA数据集具体见参考文献Yan-ChingLin,Min-ChunHua,Wen-HuangCheng,Yung-HuanHsieh,Hong-MingChen,HumanActionRecognitionandRetrievalUsingSoleDepthInformation,ACMMM2012。
综上所述,本发明的提出的基于多视图和多模态特征的自适应动作识别方法,具有较好的优越性和稳定性,比当前的the-state-of-the-art方法都有一定的提高。
Claims (2)
1.一种基于多视图和多模态特征的自适应动作识别方法,该方法具体包含以下步骤:
第1、视频预处理
预处理包括对输入的深度图像和RGB图像序列滤波去噪,同时,通过Kinect设备的红外装置,测出目标与摄像头的近似距离,在该距离值的基础上,增加0.5米获得对应的大阈值,减去1米获得对应的小阈值;当某像素的深度值大于大阈值或小于小阈值时,将该像素标记为0,否则标记为1,这样,能够移除背景对目标的干扰;
第2、目标运动变化过程多视图描述
由于环境光线的变化,将对RGB图像序列有较大的影响,同时,由于观察视角的不同,从某个观察视角,不能全面地捕获目标运动历史变化过程,因此,提出了基于RGB图像和深度图像的多视图目标运动历史变化过程,捕获目标的运动变化,即:
(1)捕获深度视频序列人体变化过程,获得对应的多视图深度运动历史图像;
(2)捕获RGB视频序列人体运动变化过程,获得对应的多视图RGB运动历史图像;
第3、等级金字塔特征提取
在第2步获得的多视图深度运动历史图像和多视图RGB运动历史图像的基础上,分别寻找图像中非零像素,从而获得对应的人体历史运动的矩形区域,并在该区域内,提取等级金字塔特征描述对应的人体动作,其中人体动作包括:(1)弯腰鞠躬,(2)原地起跳且手抬起,(3)跳远,(4)单手挥手,(5)原地跳起手不动,(6)跑步,(7)侧移,(8)单脚走路,(9)双手挥手,(10)双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球或羽毛球的发球,(15)高尔夫摇杆击球,(16)拳击,(17)太极云手;
第4、多视图深度模型构建和多视图RGB模型构建
网络中公开的动作数据集DHA中每个样本都包括RGB和深度图像序列,同时,该数据集被划分为训练数据集和测试数据集,按照第3步的方法,为DHA训练数据集中的每个样本分别提取深度图像序列和RGB图像序列上的多视图的等级金字塔特征,并将每个样本的不同视图的特征串联,然后,在训练数据集上,分别训练基于深度的多视图等级金字塔特征和基于RGB的多视图等级金字塔特征的支持向量机模型;
第5、多视图模型选择、模型推断以及多模态特征结果融合
在公共动作数据集DHA中测试数据集上,按照第3步的方法,提取多视图深度和RGB运动历史图像的等级金字塔特征,且获得人体历史运动的矩形区域,同时,根据计算RGB矩形区域内平均亮度,判断光线的亮暗情况,自适应的选择已经训练好的模型;即,当RGB图像序列非常模糊时,其平均亮度小于等于预先设置的阈值,无法基于RGB的多视图模型进行动作识别,因此,采用基于深度的多视图等级金字塔特征的支持向量机模型,反之,则采用基于深度和RGB融合的多视图、多模态特征的支持向量机模型,即将测试样本中提取基于深度的多视图特征和基于RGB的多视图特征分别输入到模型中,模型将自动地对样本的动作类别进行判断,并给出对应的属于某个动作类别的概率,最后,融合多模态特征的结果。
2.根据权利要求1所述的方法,其特征在于该方法首先针对可见光图像动作识别常遇到的光照变化、阴影和遮挡困难,引入基于深度图的动作识别方法,同时,针对观察视角的不同,从某个观察视角,不能全面的捕获目标运动历史变化过程,因此,提出了目标运动变化过程多视图描述,它能够比较全面的捕获深度和RGB图像序列中人体动作的变化过程;再次公开的等级金字塔特征既有空间分辨能力也有细节描述能力,且具有非常好的鲁棒性和区分性;最后、根据环境光线的变化情况,自适应的进行多模态特征的融合,进一步的提高动作识别方法的性能和稳定性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310386606.9A CN103473530B (zh) | 2013-08-30 | 2013-08-30 | 基于多视图和多模态特征的自适应动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310386606.9A CN103473530B (zh) | 2013-08-30 | 2013-08-30 | 基于多视图和多模态特征的自适应动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103473530A CN103473530A (zh) | 2013-12-25 |
CN103473530B true CN103473530B (zh) | 2016-06-15 |
Family
ID=49798375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310386606.9A Expired - Fee Related CN103473530B (zh) | 2013-08-30 | 2013-08-30 | 基于多视图和多模态特征的自适应动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103473530B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790538B2 (en) | 2020-11-05 | 2023-10-17 | Powerarena Holdings Limited | Production line monitoring method and monitoring system thereof |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105022982B (zh) | 2014-04-22 | 2019-03-29 | 北京邮电大学 | 手部运动识别方法和装置 |
CN104156693B (zh) * | 2014-07-15 | 2017-06-06 | 天津大学 | 一种基于多模态序列融合的动作识别方法 |
CN104298974B (zh) * | 2014-10-10 | 2018-03-09 | 北京工业大学 | 一种基于深度视频序列的人体行为识别方法 |
CN104378553A (zh) * | 2014-12-08 | 2015-02-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN104598880A (zh) * | 2015-03-06 | 2015-05-06 | 中山大学 | 一种基于模糊支持向量机的行为识别方法 |
CN104933704B (zh) * | 2015-05-28 | 2019-06-04 | 算筹信息科技有限公司 | 一种三维立体扫描方法及系统 |
WO2017008214A1 (zh) * | 2015-07-10 | 2017-01-19 | 张阳 | 网球发球机的控制方法及系统 |
CN107730509A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
CN108701214A (zh) * | 2017-12-25 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 图像数据处理方法、装置及设备 |
CN109034017B (zh) * | 2018-07-12 | 2021-05-14 | 北京华捷艾米科技有限公司 | 头部姿态估计方法及机器可读存储介质 |
CN109961042B (zh) * | 2019-03-22 | 2021-07-27 | 中国人民解放军国防科技大学 | 结合深度卷积神经网络和视觉变化图的烟雾检测方法 |
CN110119707B (zh) * | 2019-05-10 | 2021-02-02 | 苏州大学 | 一种人体动作识别方法 |
CN110234018B (zh) * | 2019-07-09 | 2022-05-31 | 腾讯科技(深圳)有限公司 | 多媒体内容描述生成方法、训练方法、装置、设备及介质 |
CN112307257B (zh) * | 2020-11-25 | 2021-06-15 | 中国计量大学 | 一种基于多信息节点图网络的短视频点击率预测方法 |
CN112580442B (zh) * | 2020-12-02 | 2022-08-09 | 河海大学 | 一种基于多维金字塔层次模型的行为识别方法 |
CN112861848B (zh) * | 2020-12-18 | 2022-04-08 | 上海交通大学 | 基于动作条件已知的视觉关系检测方法及系统 |
CN113433941A (zh) * | 2021-06-29 | 2021-09-24 | 之江实验室 | 一种基于多模态知识图谱的低层级机器人任务规划方法 |
CN116152708B (zh) * | 2023-01-06 | 2023-07-07 | 北京体提科技有限公司 | 高尔夫项目有效动作抽取的方法及装置、存储介质、设备 |
CN116246176B (zh) * | 2023-05-12 | 2023-09-19 | 山东建筑大学 | 一种农作物的病害检测方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
CN103260015A (zh) * | 2013-06-03 | 2013-08-21 | 程志全 | 基于RGB-Depth摄像头的三维可视监控系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9619035B2 (en) * | 2011-03-04 | 2017-04-11 | Microsoft Technology Licensing, Llc | Gesture detection and recognition |
-
2013
- 2013-08-30 CN CN201310386606.9A patent/CN103473530B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622591A (zh) * | 2012-01-12 | 2012-08-01 | 北京理工大学 | 3d人体姿态捕捉模仿系统 |
CN103260015A (zh) * | 2013-06-03 | 2013-08-21 | 程志全 | 基于RGB-Depth摄像头的三维可视监控系统 |
Non-Patent Citations (2)
Title |
---|
real-time body gesture recognition using depth camera;T.Gonzalez-Sanchez et al;《ELECTRONICS LETTERS》;20110609;第47卷(第12期);第1-2页 * |
一种鲁棒的基于深度数据的行为识别算法;申晓霞 等;《光电子.激光》;20130815;第24卷(第8期);第1613-1618页 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790538B2 (en) | 2020-11-05 | 2023-10-17 | Powerarena Holdings Limited | Production line monitoring method and monitoring system thereof |
Also Published As
Publication number | Publication date |
---|---|
CN103473530A (zh) | 2013-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103473530B (zh) | 基于多视图和多模态特征的自适应动作识别方法 | |
CN103295016B (zh) | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 | |
WO2022002039A1 (zh) | 一种基于视觉地图的视觉定位方法、装置 | |
Esmaeili et al. | Fast-at: Fast automatic thumbnail generation using deep neural networks | |
WO2016110005A1 (zh) | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 | |
Mishra et al. | Segmenting “simple” objects using RGB-D | |
CN110263712B (zh) | 一种基于区域候选的粗精行人检测方法 | |
Ventura et al. | Iterative deep learning for road topology extraction | |
CN105493141B (zh) | 非结构化道路边界检测 | |
CN108986158A (zh) | 一种基于目标再识别的跨场景追踪方法和装置及计算机视觉平台 | |
CN110659550A (zh) | 交通标志牌识别方法、装置、计算机设备和存储介质 | |
CN105404886A (zh) | 特征模型生成方法和特征模型生成装置 | |
JP2017016593A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
CN106815578A (zh) | 一种基于深度运动图‑尺度不变特征变换的手势识别方法 | |
CN104298968A (zh) | 一种基于超像素的复杂场景下的目标跟踪方法 | |
CN103699874A (zh) | 基于surf流和lle稀疏表示的人群异常行为识别方法 | |
CN110059730A (zh) | 一种基于胶囊网络的甲状腺结节超声图像分类方法 | |
CN104866853A (zh) | 一种足球比赛视频中的多运动员的行为特征提取方法 | |
CN115861738A (zh) | 一种类别语义信息引导的遥感目标检测主动采样方法 | |
Chen et al. | Exploring depth information for head detection with depth images | |
CN113011399B (zh) | 基于生成协同判别网络的视频异常事件检测方法及系统 | |
Dahia et al. | Improving fingerprint pore detection with a small FCN | |
Yan et al. | Multicamera pedestrian detection using logic minimization | |
Ghasemi et al. | A real-time multiple vehicle classification and tracking system with occlusion handling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160615 Termination date: 20170830 |