CN104866860A - 一种室内人体行为识别方法 - Google Patents
一种室内人体行为识别方法 Download PDFInfo
- Publication number
- CN104866860A CN104866860A CN201510126253.8A CN201510126253A CN104866860A CN 104866860 A CN104866860 A CN 104866860A CN 201510126253 A CN201510126253 A CN 201510126253A CN 104866860 A CN104866860 A CN 104866860A
- Authority
- CN
- China
- Prior art keywords
- feature
- human body
- features
- training
- dimensional framework
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种室内人体行为识别方法,该方法包括以下步骤:基于Kinect设备获取人体三维骨架信息;提取出每个视频集中的三维骨架特征;训练三维骨架特征,对特征进行描述,其中训练步骤为先对特征在线字典学习,然后进行稀疏主成分分析,最后用多任务大边界最近邻算法与线性支持向量机进行分类得到训练特征集;提取测试视频的三维骨架特征;使用多任务大边界最近邻算法和线性支持向量机进行分类得到特征描述,将训练特征集与测试特征以打分机制做出最佳判决。本发明在智能视频监控,病人监护系统,人机交互,虚拟现实,智能家居,智能安防和运动员辅助训练中具有广泛的应用前景,具有较强的可行性和社会经济效益。
Description
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种室内人体行为识别的方法。
背景技术
机器视觉作为光电技术应用的一个特定领域,目前已经发展成为一个前景光明、活力无限的行业,年平均增长速度超过20%。机器视觉广泛应用于微电子、电子产品、汽车、医疗、印刷、包装、科研、军事等众多行业。涉及技术一致,应用差异明显,是各种机器视觉应用系统的共同特点。那么作为机器视觉范畴中的人体行为识别研究也必然得到大力的使用。
人体行为识别应用主要集中在智能视频监控,病人监护系统,人机交互,虚拟现实,智能家居,智能安防和运动员辅助训练。另外基于内容的视频检索和智能图像压缩等也用到了不少行为识别的方法,它们有着广阔的应用前景和潜在的经济价值和社会价值。
行为识别大抵分为两个步骤:先提取特征,再对人体行为特征做分类器的设计。到目前为止,行为识别研究中采用的特征多为传统的二维特征,如二维网格、人体轮廓、背景减除法、梯度直方图、光流直方图、运动能量模板等。传统的基于轮廓的人体行为识别方法如图1所示:
步骤101,获取视频图像;
步骤102,利用差分法分离前景与背景;
步骤103,提取前景轮廓特征;
步骤104,PCA降维;
步骤105,放入分类器进行训练与识别。
对于行为识别分类器,不同的需求,选择也有所不同,若需快速完成训练可选择最近邻、正态贝叶斯等算法,若需准确可选择支持向量机(SVM)、神经网络等。对于一些传统的学习方法,SVM具有很大的优势,如解决小样本、高维模式和非线性识别问题,并且其推广性也很强,如应用到类似函数拟合的机器学习等问题中去。
参见图2,为现有的多任务大边界最近邻算法。x_i 1表示用第i个样本训练马氏距离矩阵,第一列表示用欧式距离度量,第二、三列表示用马氏距离度量,同一种形状并且同一种颜色代表同一种类型特征,图2中分别表示k-NN的分类结果(k=3)。
从现有的人体行为技术可以看出,其存在如下技术缺陷:(1)环境适应性不强,对于光照、非人体的动态物体很难排除,对于识别造成干扰;(2)对人体朝向角的适应性不强,识别率不高;(3)当样本大且高维时处理速率慢;(4) 对于多任务大边界最近邻算法,其具有搜索慢的缺点,对于所选择的权值,依赖性太大,权值过小,得到的近邻数过少,会降低分类进度,同时也会放大噪声数据的干扰。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种室内人体行为识别的方法。
本发明解决其技术问题所采用的技术方案是:一种室内人体行为识别的方法,包括以下步骤:
1)通过体感设备获取人体三维骨架信息;
2)根据三维骨架信息计算三维骨架特征,所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;
3)提取测试视频集中的三维骨架特征;
4)训练测试视频集中的三维骨架特征进行特征描述,得到训练特征集;具体过程如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维;最后融合多任务大边界最近邻算法和线性支持向量机进行联合分类;
5)提取待识别视频中的人体三维骨架特征;
6)使用多任务大边界最近邻算法和线性支持向量机对步骤5)中的人体三 维骨架特征进行分类得到特征描述;
7)将训练特征集与步骤6)中的特征描述通过打分机制做出人体行为识别判决。
按上述方案,所述体感设备为Kinect设备。
按上述方案,所述Kinect设备使用OpenNI库函数提取出彩色图像和深度图像,视频格式为ONI格式,样本集均为带标签的。
按上述方案,所述步骤1)中三维骨架信息为骨骼关节点的三维坐标;所述骨骼关节点的三维坐标以Kinect设备为世界坐标系,建立人体骨骼的动态坐标。
按上述方案,所述全局运动特征包括:身体高度特征、身体倾斜角特征、身体倾斜角速度特征、朝向角特征、朝向角速度特征、人体速度特征和轨迹特征;手臂、腿部局部运动特征包括:旋转角特征、速度特征和轨迹特征。
按上述方案,所述手臂、腿部局部运动特征中旋转角特征的计算方法为:A、设定手臂四个关节点和腿部四个关节点的旋转自由度,手臂为人体朝向方向向量和人体站立方向向量,腿部为平行于人体面方向向量和人体朝向方向向量,共16个旋转自由度;B、根据骨架初始姿态和当前姿态(也即三维坐标值)计算16个旋转自由度的旋转角。
按上述方案,所述计算全局运动特征时包括对人体高度进行归一化的步骤。
按上述方案,所述步骤4)中对特征进行在线字典学习,字典大小为100,分类器训练级数为100。
按上述方案,所述步骤7)中打分机制的判别具体为:先用多任务大边界最近邻算法计算出测试样本与带标签的训练样本的k近邻样本特征,并以此赋予权值,距离与权值成反比;线性支持向量机对测试样本进行分类时也需赋予权值;最后将同类标签的权值相加,得分比例最高的类别即为测试样本的所属类别。
按上述方案,所述步骤6)中线性支持向量机采用一对多的分类方式。
本发明产生的有益效果是:
(1)本发明充分利用现有体感设备,如Kinect,获取深度图像和彩色图像,一定程度上解决了光照、非人体的动态物体给识别造成的干扰,以及人体朝向角对于识别效率的影响。
(2)本发明中所得到的行为特征较少,且进行了在线字典学习以及稀疏降维,提高行为识别分类处理速率。
(3)本发明中充分利用现有的分类器技术,融合多类分类器,取长补短,提高了分类识别率。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为背景技术中传统的基于轮廓的人体行为识别方法的流程图;
图2为背景技术中现有的多任务大边界最近邻算法流程图;
图3为本发明实施例的方法流程图;
图4为本发明动态人体骨架坐标系及关节点自由度标示图;
图5为本发明室内人体行为识别研究方法中多任务大边界最近邻算法与线性分类器融合进行打分机制的流程图;
图6为本发明动态人体骨架坐标及关节点自由度标示图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明室内人体行为识别研究一种基于三维(3 Dimension,3D)骨架特征,多任务大边界最近邻算法(Multi-Task Large Margin Nearest Neighbor,MT-LMNN)与线性支持向量机(Linear Support Vector Machine,LSVM)融合的打分机制识别方法。针对人体行为动作的特点,本发明采用的3D骨架特征数据具有量少、保存关键信息的优势,同时充分地用稀疏字典表示,最后通过引用MT_LMNN与LSVM融合的打分机制识别方法,提高了SVM分类精 度。
如图3所示,图3为本发明室内人体行为识别研究的一个较佳实验案例的处理流程图,该流程包括以下步骤:
步骤1,获取人体三维骨架信息。
本步骤中,采集视频的工具是微软的Kinect设备,分为训练视频集和测试视频,训练视频集与最终识别率呈二项分布。并且采集的视频样本是使用OpenNI库函数,来提取出彩色图像和深度图像,视频格式为ONI格式,样本集均为带标签的。
步骤2,提取三维骨架特征。
本步骤中,提取三维骨架特征,首先使用Kinect获得人体在三维空间中的15个骨骼关节点并依次给以编号,如图4所示,建立人体骨架模型。以躯干中心关节点为坐标原点O,中心点到两肩中心的连线方向为Z轴,两肩方向为X轴,人体朝向为Y轴,建立人体动态坐标系。在人体坐标系中设3、6、9、12为一级关节点,4、7、10、13为二级关节点,5、8、11、14为三级关节点,3-4、6-7、9-10、12-13为一级骨骼段,相应4-5、7-8、10-11、13-14为二级骨骼段。由人体结构连通特性可知,描述人体在三维空间中的姿态只需要用到人体坐标系中一、二级关节点的旋转参数即可。为了适应不同场景中不同的身高,本文首先按照身高的比例,对行为序列进行归一化,然后在几种运动的尺度上进行对多类特征进行提取,一共得到了107种特征。
107种特征的获取:使用Kinect获得人体在三维空间中的15个骨骼关节点并依次给以编号:头部-0、颈部关节-1、躯干中心关节点-2、右肩关节-3、右肘关节-4、右腕关节-5、左肩关节-6、左肘关节-7、左腕关节-8、右髋关节-9、左膝关节-10、左踝关节-11、左髋关节-12、左膝关节-13、左踝关节-14,建立人体骨架模型。以躯干中心关节点为坐标原点O,中心点到两肩中心的连线方向为Z轴,两肩方向为X轴,人体朝向为Y轴,建立人体动态坐标系(如图6)。在人体坐标系中设3、6、9、12为一级关节点,4、7、10、13为二级关节点,5、8、11、14为三级关节点,3-4、6-7、9-10、12-13为一级骨骼段,相应4-5、7-8、10-11、13-14为二级骨骼段。由人体结构连通特性可知,描述人体在三维空间中的姿态只需要用到人体坐标系中一、二级关节点的旋转参数即可。为了适应不同场景中不同的身高,本文首先按照身高的比例,对行为序列进行归一化,然后在几种运动的尺度上进行对多类特征进行提取,一共得到了107种特征。
1)全局运动特征
全局特征包含身体高度、身体倾斜角、倾斜角速度、朝向角、轨迹等特征,表明人体在三维运动空间中的整体变化。设特征序列为
G1:身体高度特征序列。指人体头部与最低脚部的距离。设Z表示行为者高度序列,g1(i)表示行为者第i帧的高度。
G2:身体倾斜角特征序列。设G2={g2(i),i=1,2,…,N}表示行为者倾斜角序列,g2(i)表示行为者第i帧的人体坐标的Z轴与初始Z轴的夹角。
G3:身体倾斜角速度特征序列。设G3={g3(i),i=1,2,…,N}表示行为者倾斜角序列,g3(i)表示行为者第i帧的人体坐标的Z轴与第i-1帧Z轴的夹角。
G4:朝向角特征序列。设G4={g4(i),i=1,2,…,N}表示行为者朝向角序列,g4(i)表示行为者第i帧的人体坐标的Y轴与初始Y轴的夹角。
G5:朝向角特征序列。设G5={g5(i),i=1,2,…,N}表示行为者朝向角序列,g5(i)表示行为者第i帧的人体坐标的Y轴与第i-1帧Y轴的夹角。
G6,7,8:速度特征序列。设G6,7,8={g6,7,8(i),i=1,2,…,N}表示行为者速度序列,g6,7,8(i)表示第i帧行为者人体坐标系原点的运动速度在三轴上的大小,。
G9,10,11:轨迹特征序列。设G9,10,11={g9,10,11(i),i=1,2,…,N}表示行为者轨迹序列,g9,10,11(i)表示行为者第i帧位置与初始帧位置的矢量距离,用人体坐标系的原点表示行为者的位置。
2)手臂、腿部局部运动特征
描述手臂、腿部运动过程中的参数,设手臂序列特征为腿部序列特征为 手臂旋转角特征序列,手臂关节点速度特征序列,手臂关节点轨迹特征序列,腿部旋转角特征序列,腿部关节点速度特征序列,腿部关节点轨迹特征序列。
2.1旋转角特征
描述关节旋转角参数变化过程,从初始姿态到当前帧姿态。设骨骼段绕人体坐标系X轴、Y轴、Z轴旋转矩阵分别为Mx,My,Mz,Mx
如式(1)所示,φx为绕X轴旋转角参数,依次类推可以得到My,Mz。
设rj,j=1,2,…,16表示手臂腿部的16个姿势参数,如图1所示。如初始化姿态下3-4骨骼段用向量表示为(x0,y0,z0)T,在当前帧下其姿态为(x,y,z)T,将两向量平移使两向量始点与人体坐标系原点重合,则3-4骨骼段绕3旋转等效于4绕O旋转。当前帧下骨骼段3-4姿态用旋转参数r1r2表示为:
(x,y,z,1)T=Mz(r2)Mx(r1)(x0,y0,z0,1)T (2)
令表示手臂旋转角序列,ak(i)={ri,i=1,2,...8}k=i表示行为者在第i帧下的手臂姿势参数,ak(i)={ri-r0,i=1,2,...8}k=i+8为的第i帧手臂姿势参数与初始帧的变化,ak(i)={ri-ri-1,i=1,2,...8}k=i+16为第i帧手臂姿势参数与前一帧的变化。
为腿部旋转角序列,lk(i)={ri,i=9,10,...16}k=i-8表示行为者在第i帧下的手臂姿势参数,lk(i)={ri-r0,i=9,10,...16}k=i为的第i帧手臂姿势参数与初始帧的变化,lk(i)={ri-ri-1,i=9,10,...16}k=i+8为第i帧手臂姿势参数与前一帧的变化。
2.2速度特征
描述人体关节点的运动速度变化过程。设u1,u2,…,u8分别为4、5、7、8、10、11、13、14关节点的运动速度。令表示行为者手臂关节点速度序列,ak(i)={ui.x,i=1,2,3,4}k=1,4,7为第i帧与第i-1在X轴方向的差值,类似的YZ轴, 表示行为者腿部关节点速度序列,lk(i)={ui,i=5,6,7,8}k=1,4,7为第i帧与第i-1在X轴方向的差值,类似的YZ轴。
2.3轨迹特征
关节点轨迹序列表示行为序列中人体关节点在人体坐标系中的三维位置的变化过程。设d1,d2,…,d8分别为4、5、7、8、10、11、13、14关节点在人体坐标系中的三维空间坐标。令 表示行为者手臂关节点轨迹序列,ak(i)={di.x,i=1,2,3,4}k=1,4,7表示第i帧手臂关节点在人体坐标系内的X坐标值与初始帧的差值,YZ坐标值类似。
表示腿部关节点轨迹序列,其中lk(i)={di,i=5,6,7,8}k=1,4,7表示腿部的第i帧手臂关节点在人体坐标系内的X坐标值与初始帧的差值,YZ坐标值类似。
以上,可以得到 共107种特征。
三维骨架特征分为全局运动特征和手臂、腿部局部运动特征。
全局特征包含身体高度、身体倾斜角、倾斜角速度、朝向角、轨迹等特征,表明人体在三维运动空间中的整体变化。其中身体高度特征序列指人体头部与最低脚部的距离。身体倾斜角特征序列表示行为者第i帧的人体坐标的Z轴与初始Z轴的夹角。身体倾斜角速度特征序列表示行为者第i帧的人体坐标的Z轴与第i-1帧Z轴的夹角。朝向角特征序列表示行为者第i帧的人体坐标的Y轴与初始Y轴的夹角。朝向角速度特征序列表示行为者第i帧的人体坐标的Y轴与第i-1帧Y轴的夹角。速度特征序列表示第i帧行为者人体坐标系原点的运动速度在三轴上的大小。轨迹特征序列表示行为者第i帧位置与初始帧位置的矢量距离,用人体坐标系的原点表 示行为者的位置。
手臂、腿部局部运动特征包括关节点三维位置序列特征、旋转角特征、关节点速度特征、关节点轨迹特征。
其中旋转角特征描述关节旋转角参数变化过程,从初始姿态到当前帧姿态。设X骨骼段绕人体坐标系X轴、Y轴、Z轴旋转矩阵分别为Mx,My,Mz,其中Mx如式(1)所示,为绕X轴旋转角参数,依次类推可以得到My,Mz。
设rj,j=1,2,…,16表示手臂腿部的16个姿势参数,如图4所示。如初始化姿态下3-4骨骼段用向量表示为(x0,y0,z0)T,在当前帧下其姿态为(x,y,z)T,将两向量平移使两向量始点与人体坐标系原点重合,则3-4骨骼段绕3旋转等效于4绕O旋转。当前帧下骨骼段3-4姿态用旋转参数r1r2表示如式(2):
(x,y,z,1)T=Mz(r2)Mx(r1)(x0,y0,z0,1)T (2)
则可计算出骨骼段旋转角序列,第i帧手臂姿势参数与初始帧的变化,以及第i帧手臂姿势参数与前一帧的变化。
步骤3,训练三维骨架特征进行特征描述:对特征进行在线字典学习,然后稀疏主成分分析进行降维,最后融合多任务大边界最近邻算法和线性支持向量机进行联合分类。
本步骤中,通过现有的在线字典学习(Online Dictionary Learning)方法生成字典,在线 学习生成字典比其他离线字典优点在于它能够快速处理数以百万计的样本,并且字典效率高。
在线优化算法学习字典主要是基于随机逼近的方法,对给定训练样本序列X=[x1,…,xn](∈Rm×n)算法核心思想如式(3)所示:
D是Rm×n的字典,n为样本数,xi为第i个样本,αi为k维系数矩阵α=[α1,…,αn]中的第i个分量,λ为规范因子。对于(3)式求最小值问题,D跟α不同时具有最小值,但如果固定一个变量,则另一个变量就具有最小值,所以可以通过交替固定一个变量的值,来求解D与α的最优解。迭代求解过程如式(4)、(5)所示。
式(4)中字典初始值D0可以随机选取,也可以用VQ字典作为初值,A0,B0为0。
由(4)式求得参量带入上式求解Dt,不断交替求解直到字典训练完成,字典的详细求解过程可参阅现有文献。
字典学习是机器学习中的一个比较热门的小分支,采用不同的学习方法生成的字典精确 度和训练速度也有一定的差别,而且有监督和无监督字典的训练对后面的分类识别效果也有一定的影响。
为了减少计算机处理特征的困难,本文先通过稀疏主成分分析(SPCA)降维处理,即稀疏描述。稀疏主成分解决了不能给出实际解释的问题,因其可在相当程度上简化主成分的解释,使提取得到的主成分可以给出实际解释,从而达到有效降维的目的。稀疏降维过程其实就是矩阵分解过程,对训练样本矩阵X∈(Rm×n),试图找到矩阵D∈(Rm×r),通过D的r列基元线性组合能够很好的近似各个样本,若U∈(Rn×r)表示线性组合系数矩阵,则DUT就能够近似等于训练样本,这就完成了矩阵分解过程,而原来的样本矩阵完全可以由U来近似代替。一般只需要D中少量基元线性组合就能够近似描述X样本集中的一个样本,如果r小于m从矩阵X到矩阵U的变化过程就实现了稀疏降维,如果r大于p就完成了稀疏描述的过程。
降维是对高位向量处理的常用技术,它以少量的信息损失换取计算机的处理效率。传统主成份分析(PCA)的降维方式是通过特征值分解,由较大的特征对应的特征向量提取主成份。但对处理数据维数较高数量较多时运算速度明显降低或是无法处理,而稀疏主成份分析(SPCA)避开了大矩阵的特征值分解过程,对数据的数量基本上没有限制,通过生成字典来达到降维目的的这种方法灵活性高。由上面训练得到的字典D对原样本降维,统一降到100维。
步骤3中,使用多任务大边界最近邻(Multi-Task Large Margin Nearest Neighbor, MT-LMNN)作为主要分类器之一。MT-LMNN的主要思想是学习马氏距离dt,如式(6)所示。
T表示学习任务数量,t作为其中的一次学习任务,M0(M0≥0)为共享马氏距离矩阵,Mt(Mt>0)为当前任务马氏距离矩阵,xi,xj为不同的训练样本。M0获取度量学习共性,Mt获取度量学习个性,如图2所示,图中xi1表是用第i个样本训练马氏距离矩阵,第一列表示用欧式距离度量,第二、三列表示用马氏距离度量,同一种形状并且同一种颜色代表同一种类型特征,图2中分别表示k-NN的分类结果(k=3)。
多任务学习的一个重要方面就是如何计算才是适合的学习任务,必须确保学习算法不能过于强调动向参数M0,也不能过于强调独参数M1,…,MT,为了达到平衡,通过式(7)进行规范化。
其中γt为权衡参数(trade-off parameter)用于约束Mt的规范,t=0,1,…,T,如果γ0→∞共享度量矩阵变为传统的欧式度量矩阵,而如果γt>0→∞则特定任务的Mt为0矩阵。
支持向量算法有很多种,本文使用线性核函数(linear kernel)k(x,xi)=(xxi)和一对多的方法构造实现学习机。一对多(One Against the Rest)在k类和k-1之间构造超平面,一共构造k个分类器,即对于第i类,用第i类的训练样本为正样本,其他类别样本为负样本训练分类 器。本文共训练k×(k-1)/2个2值LSVM分类器,该方法的缺点是当类别较多时训练分类器会很慢,测试时用投票法,得票最多的认为样本所属类。支持向量机的核心思想是超平面,如式(8)所示。
g(x)=ω·x+b(8)
两类情况:对于两类问题的决策规则,如果g(x)≥0,则判定x属于C1类,反之,则属于C2类,通过训练样本得出参数ω和参数b,对于新输入的样本只需带入式(8)中求其值的正负情况即可。
步骤4,得到训练特征集,每一帧样本有107维数据,然后进行保存,可存于文本文件中,也可存于MAT型数据。
步骤5,提取测试视频的三维骨架特征,过程同步骤2。
步骤6,多任务大边界最近邻算法和线性支持向量机进行特征描述与步骤3一样。
步骤7,得到测试特征,一般为一个视频,此样例可以为训练中的视频,行为者可为已出现过的,也可为未出现过的。
步骤8,使用打分机制做出最佳判决。如图5所示,先用MT-LMNN计算出测试样本与带标签的训练样本的K近邻样本特征并依次赋权值,如:k,k-1,…,1,也就是距离与权值成反比;同样地,用LSVM对测试样本进行分类,并依此赋权值如:2*k-1;最后,将同类标签的权值相加,得分比例最高的类别即为测试样本的所属类别。
为了验证本发明,进行了实验案例的检测。实验平台操作系统为Win7,32位,使用Kinect设备和OpenNI库得到骨骼特征,计算出骨骼相应的全局和局部特征,并在Matlab9.0的环境下对其调试。数据库是人为采集的,共包含5种行为(走路、蹲起站立、踢腿、挥手、扫地)。每种行为序列均由4个行为者(每个行为者做30次)完成,一共520个样本,其中320个样本用于训练,剩下200个样本用于测试。对行为序列样本进行模型训练,取最大迭代次数为100次,以获取参数估计。
表1是用SVM和MT-LMNN结合识别的结果,由于背景简单,本文的抗噪能力强,故识别效果良好,可以看出字典和SPCA联合的识别效果提高了许多。表1中扫地识别结果比较差,有很多视频被误认,但通过字典和SPCA融合,识别效率有明显的提高,总体识别效率也有所提高。
表1基于SVM+MT-LMNN分类器的识别结果
接下来在字典+SPCA的基础上对分类器进行结果分析。如表2所示,实验结果表明:SVM与MT-LMNN联合识别正确率要有所提高,这是因为这两分类器在识别决策中存在一定的错误交叉,通过联合识别可以得到一定的弥补。表2中走路、蹲起站立和扫地识别较差,有部分蹲起站立被识别为踢腿或走路行为,但通过本文的SVM+MT-LMNN方法,识别效果明显提高,总体识别率也有所提高。
表2基于字典+SPCA特征筛选的识别结果
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.一种室内人体行为识别的方法,其特征在于,包括以下步骤:
1)通过体感设备获取人体三维骨架信息;
2)根据三维骨架信息计算三维骨架特征,所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;
3)提取测试视频集中的三维骨架特征;
4)训练测试视频集中的三维骨架特征进行特征描述,得到训练特征集;具体过程如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维;最后融合多任务大边界最近邻算法和线性支持向量机进行联合分类;
5)提取待识别视频中的人体三维骨架特征;
6)使用多任务大边界最近邻算法和线性支持向量机对步骤5)中的人体三维骨架特征进行分类得到特征描述;
7)将训练特征集与步骤6)中的特征描述通过打分机制做出人体行为识别判决。
2.根据权利要求1所述的方法,其特征在于,所述体感设备为Kinect设备。
3.根据权利要求1所述的方法,其特征在于,所述体感设备使用OpenNI库函数提取出彩色图像和深度图像,视频格式为ONI格式,样本集均为带标签的。
4.根据权利要求1所述的方法,其特征在于,所述步骤1)中三维骨架信息为骨骼关节点的三维坐标;所述骨骼关节点的三维坐标以Kinect设备为世界坐标系,建立人体骨骼的动态坐标。
5.根据权利要求1所述的方法,其特征在于,所述全局运动特征包括:身体高度特征、身体倾斜角特征、身体倾斜角速度特征、朝向角特征、朝向角速度特征、人体速度特征和轨迹特征;手臂、腿部局部运动特征包括:旋转角特征、速度特征和轨迹特征。
6.根据权利要求5所述的方法,其特征在于,所述手臂、腿部局部运动特征中旋转角特征的计算方法为:A、设定手臂四个关节点和腿部四个关节点的旋转自由度,手臂为人体朝向方向向量和人体站立方向向量,腿部为平行于人体面方向向量和人体朝向方向向量,共16个旋转自由度;B、根据骨架初始姿态和当前姿态计算16个旋转自由度的旋转角。
7.根据权利要求5所述的方法,其特征在于,所述计算全局运动特征时包括对人体高度进行归一化的步骤。
8.根据权利要求1所述的方法,其特征在于,所述步骤4)中对特征进行在线字典学习,字典大小为100,分类器训练级数为100。
9.根据权利要求1所述的方法,其特征在于,所述步骤7)中打分机制的判别具体为:先用多任务大边界最近邻算法计算出测试样本与带标签的训练样本的k近邻样本特征,并以此赋予权值,距离与权值成反比;线性支持向量机对测试样本进行分类时也需赋予权值;最后将同类标签的权值相加,得分比例最高的类别即为测试样本的所属类别。
10.根据权利要求1所述的方法,其特征在于,所述步骤6)中线性支持向量机采用一对多的分类方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510126253.8A CN104866860A (zh) | 2015-03-20 | 2015-03-20 | 一种室内人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510126253.8A CN104866860A (zh) | 2015-03-20 | 2015-03-20 | 一种室内人体行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104866860A true CN104866860A (zh) | 2015-08-26 |
Family
ID=53912681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510126253.8A Pending CN104866860A (zh) | 2015-03-20 | 2015-03-20 | 一种室内人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104866860A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631420A (zh) * | 2015-12-23 | 2016-06-01 | 武汉工程大学 | 一种基于3d骨架的多视角室内人体行为识别方法 |
CN105719279A (zh) * | 2016-01-15 | 2016-06-29 | 上海交通大学 | 基于椭圆柱的人体躯干建模及手臂区域分割和手臂骨架提取方法 |
CN105787469A (zh) * | 2016-03-25 | 2016-07-20 | 广州市浩云安防科技股份有限公司 | 行人监控和行为识别的方法和系统 |
CN105844258A (zh) * | 2016-04-13 | 2016-08-10 | 中国农业大学 | 动作识别方法及装置 |
CN106096572A (zh) * | 2016-06-23 | 2016-11-09 | 惠州Tcl移动通信有限公司 | 基于虚拟现实装置的生活习惯检控方法及虚拟现实装置 |
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN107194344A (zh) * | 2017-05-16 | 2017-09-22 | 西安电子科技大学 | 自适应骨骼中心的人体行为识别方法 |
CN108052896A (zh) * | 2017-12-12 | 2018-05-18 | 广东省智能制造研究所 | 基于卷积神经网络与支持向量机的人体行为识别方法 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
CN108846348A (zh) * | 2018-06-07 | 2018-11-20 | 四川大学 | 一种基于三维骨骼特征的人体行为识别方法 |
CN109086754A (zh) * | 2018-10-11 | 2018-12-25 | 天津科技大学 | 一种基于深度学习的人体姿态识别方法 |
CN109214414A (zh) * | 2018-07-18 | 2019-01-15 | 广东工业大学 | 面向人脸识别的多任务正半定约束度量学习方法 |
CN109446871A (zh) * | 2018-06-01 | 2019-03-08 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN109799726A (zh) * | 2019-03-15 | 2019-05-24 | 中国计量大学 | 一种结合生活环境检测的智能家居系统 |
CN109815816A (zh) * | 2018-12-24 | 2019-05-28 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN110325965A (zh) * | 2018-01-25 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法、设备及存储介质 |
CN110516720A (zh) * | 2019-08-13 | 2019-11-29 | 北京三快在线科技有限公司 | 安全监控设备和安全监控方法 |
CN111249691A (zh) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 一种基于形体识别的运动员训练方法和系统 |
WO2020114138A1 (zh) * | 2018-12-06 | 2020-06-11 | 西安光启未来技术研究院 | 信息的关联分析方法及装置、储存介质、电子装置 |
CN111274990A (zh) * | 2020-02-11 | 2020-06-12 | 广东同天投资管理有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN111539364A (zh) * | 2020-04-29 | 2020-08-14 | 金陵科技学院 | 基于特征融合和多分类器投票的多体感人体行为识别算法 |
CN112418164A (zh) * | 2020-12-07 | 2021-02-26 | 公安部昆明警犬基地 | 一种多任务学习网络对警犬动作进行动态识别的方法 |
CN112861696A (zh) * | 2021-02-01 | 2021-05-28 | 电子科技大学中山学院 | 一种异常行为识别方法、装置、电子设备及存储介质 |
CN113081561A (zh) * | 2021-05-17 | 2021-07-09 | 佳木斯大学 | 一种神经内科多功能康复护理病床 |
CN113923501A (zh) * | 2021-10-09 | 2022-01-11 | 深圳市中渤光电有限公司 | 基于vr虚拟现实的led屏全景显示方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561868A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 基于高斯特征的人体运动情感识别方法 |
US20140212031A1 (en) * | 2011-06-20 | 2014-07-31 | Alcatel Lucent | Method and arrangement for 3-dimensional image model adaptation |
-
2015
- 2015-03-20 CN CN201510126253.8A patent/CN104866860A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561868A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 基于高斯特征的人体运动情感识别方法 |
US20140212031A1 (en) * | 2011-06-20 | 2014-07-31 | Alcatel Lucent | Method and arrangement for 3-dimensional image model adaptation |
Non-Patent Citations (4)
Title |
---|
于成龙: "基于视频的人体行为识别关键技术研究", 《中国博士学位论文全文数据库信息科技辑》 * |
刘皓 等: "基于3D骨架和MCRF模型的行为识别", 《中国科学技术大学学报》 * |
林海: "基于稀疏表达的人体运动恢复研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
覃耀辉: "视频中的人体动作行为识别研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631420A (zh) * | 2015-12-23 | 2016-06-01 | 武汉工程大学 | 一种基于3d骨架的多视角室内人体行为识别方法 |
CN105719279A (zh) * | 2016-01-15 | 2016-06-29 | 上海交通大学 | 基于椭圆柱的人体躯干建模及手臂区域分割和手臂骨架提取方法 |
CN105719279B (zh) * | 2016-01-15 | 2018-07-13 | 上海交通大学 | 基于椭圆柱的人体躯干建模及手臂区域分割和手臂骨架提取方法 |
CN105787469A (zh) * | 2016-03-25 | 2016-07-20 | 广州市浩云安防科技股份有限公司 | 行人监控和行为识别的方法和系统 |
CN105787469B (zh) * | 2016-03-25 | 2019-10-18 | 浩云科技股份有限公司 | 行人监控和行为识别的方法和系统 |
CN105844258A (zh) * | 2016-04-13 | 2016-08-10 | 中国农业大学 | 动作识别方法及装置 |
CN106096572A (zh) * | 2016-06-23 | 2016-11-09 | 惠州Tcl移动通信有限公司 | 基于虚拟现实装置的生活习惯检控方法及虚拟现实装置 |
CN106650619A (zh) * | 2016-11-15 | 2017-05-10 | 上海师范大学 | 一种人体动作识别方法 |
CN107194344A (zh) * | 2017-05-16 | 2017-09-22 | 西安电子科技大学 | 自适应骨骼中心的人体行为识别方法 |
CN107194344B (zh) * | 2017-05-16 | 2020-06-05 | 西安电子科技大学 | 自适应骨骼中心的人体行为识别方法 |
CN108052896A (zh) * | 2017-12-12 | 2018-05-18 | 广东省智能制造研究所 | 基于卷积神经网络与支持向量机的人体行为识别方法 |
CN108052896B (zh) * | 2017-12-12 | 2020-06-02 | 广东省智能制造研究所 | 基于卷积神经网络与支持向量机的人体行为识别方法 |
CN110325965A (zh) * | 2018-01-25 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象处理方法、设备及存储介质 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
CN109446871B (zh) * | 2018-06-01 | 2024-02-09 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN109446871A (zh) * | 2018-06-01 | 2019-03-08 | 浙江理工大学 | 一种基于多项式拟合的模特走秀动作评价方法 |
CN108846348A (zh) * | 2018-06-07 | 2018-11-20 | 四川大学 | 一种基于三维骨骼特征的人体行为识别方法 |
CN109214414A (zh) * | 2018-07-18 | 2019-01-15 | 广东工业大学 | 面向人脸识别的多任务正半定约束度量学习方法 |
CN109214414B (zh) * | 2018-07-18 | 2022-02-22 | 广东工业大学 | 面向人脸识别的多任务正半定约束度量学习方法 |
CN109086754A (zh) * | 2018-10-11 | 2018-12-25 | 天津科技大学 | 一种基于深度学习的人体姿态识别方法 |
CN111249691A (zh) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 一种基于形体识别的运动员训练方法和系统 |
WO2020114138A1 (zh) * | 2018-12-06 | 2020-06-11 | 西安光启未来技术研究院 | 信息的关联分析方法及装置、储存介质、电子装置 |
CN109815816A (zh) * | 2018-12-24 | 2019-05-28 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN109815816B (zh) * | 2018-12-24 | 2023-02-03 | 山东山大鸥玛软件股份有限公司 | 一种基于深度学习的考生考场异常行为分析方法 |
CN109799726A (zh) * | 2019-03-15 | 2019-05-24 | 中国计量大学 | 一种结合生活环境检测的智能家居系统 |
CN110516720A (zh) * | 2019-08-13 | 2019-11-29 | 北京三快在线科技有限公司 | 安全监控设备和安全监控方法 |
CN111274990A (zh) * | 2020-02-11 | 2020-06-12 | 广东同天投资管理有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN111274990B (zh) * | 2020-02-11 | 2024-01-12 | 广东同天科技产业发展有限公司 | 对脊柱形态进行分类的计算机设备和存储介质 |
CN111539364B (zh) * | 2020-04-29 | 2021-07-23 | 金陵科技学院 | 基于特征融合和多分类器投票的多体感人体行为识别算法 |
CN111539364A (zh) * | 2020-04-29 | 2020-08-14 | 金陵科技学院 | 基于特征融合和多分类器投票的多体感人体行为识别算法 |
CN112418164A (zh) * | 2020-12-07 | 2021-02-26 | 公安部昆明警犬基地 | 一种多任务学习网络对警犬动作进行动态识别的方法 |
CN112861696A (zh) * | 2021-02-01 | 2021-05-28 | 电子科技大学中山学院 | 一种异常行为识别方法、装置、电子设备及存储介质 |
CN112861696B (zh) * | 2021-02-01 | 2023-08-18 | 电子科技大学中山学院 | 一种异常行为识别方法、装置、电子设备及存储介质 |
CN113081561A (zh) * | 2021-05-17 | 2021-07-09 | 佳木斯大学 | 一种神经内科多功能康复护理病床 |
CN113923501A (zh) * | 2021-10-09 | 2022-01-11 | 深圳市中渤光电有限公司 | 基于vr虚拟现实的led屏全景显示方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104866860A (zh) | 一种室内人体行为识别方法 | |
Liu et al. | Ntu rgb+ d 120: A large-scale benchmark for 3d human activity understanding | |
Zhang et al. | Fusing geometric features for skeleton-based action recognition using multilayer LSTM networks | |
Zhang et al. | On geometric features for skeleton-based action recognition using multilayer lstm networks | |
CN106682598B (zh) | 一种基于级联回归的多姿态的人脸特征点检测方法 | |
Yao et al. | Contour model-based hand-gesture recognition using the Kinect sensor | |
Yoon et al. | Hand gesture recognition using combined features of location, angle and velocity | |
Ahn et al. | Real-time head pose estimation using multi-task deep neural network | |
Song et al. | Learning to detect visual grasp affordance | |
Liang et al. | Model-based hand pose estimation via spatial-temporal hand parsing and 3D fingertip localization | |
Khan et al. | Comparative study of hand gesture recognition system | |
Tang et al. | Emulating human perception of motion similarity | |
Zhang et al. | A practical robotic grasping method by using 6-D pose estimation with protective correction | |
Shen et al. | Exemplar-based human action pose correction | |
Khaire et al. | Human activity recognition by fusion of rgb, depth, and skeletal data | |
Neverova | Deep learning for human motion analysis | |
Michel et al. | Gesture recognition supporting the interaction of humans with socially assistive robots | |
Kajan et al. | Comparison of algorithms for dynamic hand gesture recognition | |
Xu et al. | A novel method for hand posture recognition based on depth information descriptor | |
Batool et al. | Fundamental recognition of ADL assessments using machine learning engineering | |
Alharbi et al. | A data preprocessing technique for gesture recognition based on extended-kalman-filter | |
CN106599901B (zh) | 基于深度玻尔兹曼机的协同目标分割与行为识别方法 | |
Ma et al. | Sports competition assistant system based on fuzzy big data and health exercise recognition algorithm | |
Liu et al. | Massive-scale complicated human action recognition: Theory and applications | |
Ye et al. | Human motion recognition using three-dimensional skeleton model based on RGBD vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150826 |