CN103440471A - 基于低秩表示的人体行为识别方法 - Google Patents

基于低秩表示的人体行为识别方法 Download PDF

Info

Publication number
CN103440471A
CN103440471A CN2013101632413A CN201310163241A CN103440471A CN 103440471 A CN103440471 A CN 103440471A CN 2013101632413 A CN2013101632413 A CN 2013101632413A CN 201310163241 A CN201310163241 A CN 201310163241A CN 103440471 A CN103440471 A CN 103440471A
Authority
CN
China
Prior art keywords
human body
video
behavior
videos
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101632413A
Other languages
English (en)
Other versions
CN103440471B (zh
Inventor
张向荣
焦李成
杨浩
杨阳
侯彪
王爽
马文萍
马晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201310163241.3A priority Critical patent/CN103440471B/zh
Publication of CN103440471A publication Critical patent/CN103440471A/zh
Application granted granted Critical
Publication of CN103440471B publication Critical patent/CN103440471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于低秩表示的人体行为识别方法,主要解决现有技术对视频中的行为识别率低的问题。其识别过程为:(1)输入所有视频,利用k均值对所有行为检测到的局部特征进行聚类得到一个码书;(2)通过带有系数归一化约束的低秩表示LRR对每个视频的所有特征进行编码;(3)将每个视频的编码系数向量化,得到每个视频的最终表示;(4)将得到最终表示的所有视频分组,一组作为训练样本,一组作为测试样本,利用训练样本的视频表示组成字典;(5)基于新组成的字典上,利用稀疏表示对测试样本进行编码并确定测试样本的类标,完成测试样本中人体行为的识别。本发明增强了视频表示的判别性,提高了对视频中人体行为的识别率,可用于智能监控。

Description

基于低秩表示的人体行为识别方法
技术领域
本发明属于机器学习、计算机视觉领域,涉及对视频中人物行为的识别,可用于视频中目标检测及跟踪的后处理。 
背景技术
人体行为识别包括从视频序列中抽取相关的视觉信息,并用一种合适的方式进行表达,最后解释这些信息以实现学习和识别人的行为,研究人体的行为模式将为人们的生活带来全新的交互方式。 
近年来,特征包BoF模型被成功应用于图像分类和行为识别领域。在行为识别领域,它把视频序列描述成一系列视觉关键词的统计直方图。视觉关键词统计直方图的构建分为以下几个步骤: 
第一步,利用局部特征检测器,如Harris3D检测子,Hessian检测子,Cuboid检测子等,自动检测出视频中感兴趣的区域,并用相应的描述子对其进行描述; 
第二步,利用K均值将所有视频局部特征描述符进行聚类,形成若干个聚类中心,即视觉关键词,聚类中心的个数或称词包的大小可事先由人为确定。 
第三步,计算每个视频中局部特征描述符与每个聚类中心的欧式距离,距离最小的聚类中心被认为是该局部特征的视觉关键词,统计视频中所有局部特征关键词的数目,形成视觉关键词直方图。 
尽管特征包模型简单有效,但由于视频中的局部特征数目多而且复杂,需要成千上万个视觉关键词才能获得比较好的识别结果,而且特征包模型并没有考虑视觉关键词的内部结构信息。 
2010年,X.Yan等人将特征包模型与有效人体区域包结合在一起,由于有效人体区域包描述了两个局部特征的关系,这样就弥补了特征包没有考虑局部特征之间关系的不足。参见X.Yan,Y.Luo,《Making full use of spatial-temporal interest points:an adaboost approach for action recognition》,International Conference on Image Processing。 
2010年,Y.Zhu等人将局部特征与稀疏表示结合在一起,提出了一个新的具有判别性表达方式,参见Y.Zhu,X.Zhao,Y.Fu,Y.Liu,《Sparse coding on local spatial-temporal volumes for human action recognition》,Asian Conference on Computer Vision。 
2011年,Z.Lu等人通过l1图的构建和谱嵌入结合起来。该方法考虑了视觉关键词的流形结构,其得到的表示是紧致的而且具有判别性。参见Z.Lu,Y.Peng,《Latent semantic learning with structured sparse representation for human action recognition》,ICCV。 
以上提到的改善方法均存在以下不足:只考虑稀疏性,没有考虑数据的整体结构性,所以无法获取视频局部特征中的全局结构信息,识别率低。 
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于低秩表示的人体行为识别方法,以获取视频局部特征中的全局结构信息,提高识别率。 
实现本发明的技术思路是:考虑视觉关键词的全局结构,对所获取的局部特征进行编码,将其应用到人体行为识别领域,具体步骤如下: 
(1)输入所有视频,每个视频中只含有一种行为,利用Cuboid特征检测和描述算法中的Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述; 
(2)利用k均值法,对所有视频的行为局部特征进行聚类,形成一个码书: 其中:ak表示每个聚类中心,k=1,2,…,l,l表示聚类中心的个数,d表示聚类中心的维数; 
(3)利用带有系数归一化约束的低秩表示LRR,在码书A上对每个视频中的行为所包含的局部特征进行编码: 
(3a)假设视频中的行为有n个局部特征,用
Figure BDA00003144074600022
表示,其中:xi表示第i个局部特征,i=1,2,…,n,d表示局部特征的维数; 
(3b)在码书A上,利用如下公式进行编码: 
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E , 1 Z = 1 ^
其中:Z表示局部特征在码书A上的编码系数,E表示噪声,‖·‖*表示一种矩阵奇 异值之和的核函数,参数λ用来权衡低秩和噪声的影响,‖E‖2,1表示对E的l2,1范数, 
Figure BDA00003144074600031
Eij为E的第i行第j列元素,矩阵1和
Figure BDA00003144074600033
中每个元素均为1; 
(3c)利用中间变量J代替(3b)中的Z,将编码公式转化为: 
min Z , E , J | | J | | * + λ | | E | | 2,1 , s . t . X = AZ + E , Z = J , 1 Z = 1 ^
由此将对Z的多约束优化问题简化为对J的单约束优化,利用增强拉格朗日乘子ALM算法对该公式进行求解,得到一个行为的所有局部特征对应的编码系数 
Figure BDA00003144074600035
(4)对每个人体行为的局部特征,根据步骤(3c)中得到的编码系数,应用max pooling算法,将每个人体行为表示成一个l维的列向量: 
z * = [ z ^ 1 , z ^ 2 , . . . , z ^ k , . . . , z ^ l ] , k = 1,2 , . . . , l
其中 z ^ k = max ( | z k 1 | , | z k 2 | , . . . , | z ki | , . . . , | z kn | ) , i = 1,2 , . . . , n , zki表示Z的第k行第i列元素; 
(5)把一个动作者的所有行为视频作为测试样本集,其他动作者的所有行为视频作为训练集,训练集样本个数为m,利用所有训练样本的编码系数组成字典 
Figure BDA00003144074600038
其中m是字典原子个数,j是字典的类别标号,c为总类别数; 
(6)利用随机生成的线性变换矩阵
Figure BDA00003144074600039
对每个测试样本进行降维,b<<l,得到降维后的测试样本:
Figure BDA000031440746000310
并通过下式得到每个测试样本
Figure BDA000031440746000311
的编码系数β: 
min β | | y ^ - RDβ | | 2 2 + η | | β | | 1 ,
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R均值为0,方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1; 
(7)计算测试样本在每类字典上的残差
Figure BDA000031440746000313
r j ( y ^ ) = | | y ^ - RD j β j | | 2 2 / | | β j | | 2 , j = 1,2 , . . . , c
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则赋予测试样本的类标为j; 
(8)重复步骤(5)-(7),依次对每个动作者的所有行为进行分类,得到所有动作者的所有行为类标,并用分类标号对应不同的人体行为。 
本发明与现有技术相比,具有以下优点: 
1、本发明用码书对特征描述符进行编码,相比于经典的特征包模型,可以大幅增加其描述的准确性; 
2、本发明采用的编码方式不仅考虑视频特征的稀疏性,还考虑了其全局结构信息,所以相比于稀疏表示更具有判别性,从而能够提高人体行为识别率; 
3、本发明采用的编码方式对干扰信息具有鲁棒性,对拍摄角度具有明显的容忍性。 
附图说明
图1是本发明的流程图; 
图2是本发明实验中所用的三种数据集; 
图3是本发明在Weizmann数据集和KTH数据集上的分类混淆矩阵图; 
具体实施方式
参照图1,本发明主要包括两个部分:视频表示、视频分类。下面分别介绍这两部分的实施步骤: 
一.视频表示 
步骤1,输入所有视频,每个视频中只包含一种人体行为,利用Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述。 
视频中的行为指的是走、跑、跳、拳击等这些人体动作,所有视频由若干个动作者分别执行完成,每个动作者依次完成所有行为,一个视频中只含有一个动作者的一种行为; 
利用Cuboid检测子对视频进行局部特征检测的实现方式是:将视频划分为大小均等的局部块,计算出一个局部块内每个像素点的响应函数值R: 
R=(I*g*hev)2+(I*g*hod)2, 
其中:I表示局部块中的当前像素点的灰度值,g是二维高斯核函数,hev、hod为一对Garbor滤波算子。 
具有最大响应函数值的像素点就是检测到的局部特征点,由此方式依次检测得到视频中所有局部块的局部特征点; 
利用Cuboid描述子对视频进行局部特征描述的实现方式是:在以特征点为中心的一个长方体范围内,利用内部所有d个像素点的灰度值组成一个向量x作为特征点上的特征描述,由此得到当前特征点的局部特征描述,依次完成视频中所有n个特征点的局部特征描述,得到整个视频的局部特征描述: 
其中:xi表示第i个局部特征,i=1,2,…,n,n表示特征点个数,d表示局部特征描述的维数。 
步骤2,利用所有视频中的局部特征描述建立码书。 
利用k均值法,对所有视频中的所有局部特征描述进行聚类,将得到的聚类中心组成一个码书:
Figure BDA00003144074600052
其中:au表示第u个聚类中心,u=1,…,l,l表示聚类中心的个数。 
步骤3,利用码书依次对每个视频中的所有局部特征描述进行编码。 
利用带有系数归一化约束的低秩表示LRR,在码书A上对一个视频中所包含的局部特征描述进行编码: 
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E , 1 Z = 1 ^
其中:Z表示局部特征在码书A上的编码系数,E表示噪声,‖·‖*表示一种矩阵奇异值之和的核函数,参数λ用来权衡低秩和噪声的影响,‖E‖2,1表示对E的l2,1范数,
Figure BDA00003144074600054
矩阵1和
Figure BDA00003144074600055
中每个元素均为1。 
步骤4,利用增强拉格朗日乘子法对步骤3中的公式进行求解,得到当前视频的所有局部特征对应的编码系数:
Figure BDA00003144074600056
依次得到所有视频的编码系数。 
步骤5,将每个视频的编码系数向量化,得到每个视频的最终表示。 
5a)利用Max-pooling算法对将步骤4中编码系数Z的每一行取最大值: 
z ^ k = max ( | z k 1 | , | z k 2 | , . . . , | z ki | , . . . , | z kn | ) , k = 1,2 , . . . , l ,
其中zki表示编码系数Z的第k行第i列元素; 
5b)用编码系数每一行的最大值
Figure BDA00003144074600062
组成一个列向量:
Figure BDA00003144074600063
k=1,2,...,l,这样每个视频就被表示成一个l维的列向量z*。 
二.视频分类 
步骤6,对所有动作者进行编号、分组,利用训练样本组建字典。 
对所有动作者分配编号,并将1号动作者的所有视频均作为测试样本,其他动作者的所有视频作为训练集; 
设训练集中样本的个数为m,利用所有训练样本的视频表示组成字典: 
Figure BDA00003144074600064
Dj表示第j类字典,j=1,2,...,c,m是字典原子个数,c是字典类别总数。 
步骤7,对所有测试样本的视频表示进行降维。 
依次对每个测试样本的视频表示z*进行降维,得到降维后的测试样本: 
y ^ = Rz *
其中:
Figure BDA00003144074600066
是随机生成的线性变换矩阵,b<<l,其每一行元素服从均值为0,方差为1的高斯分布。 
步骤8,利用字典依次对每个降维后测试样本进行稀疏编码。 
利用字典D依次对每个降维后的测试样本
Figure BDA00003144074600067
进行稀疏编码,得到降维后测试样本在每类字典上的编码系数: 
β ^ = arg min { | | y ^ - RDβ | | 2 2 + η | | β | | 1 } ,
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R的均值为0,R的方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,η取值范围为0-1。 
步骤9,利用编码系数依次计算每个降维后测试样本在每类字典上的残差,根据残差大小对相应测试样本进行分类。 
9a)计算一个测试样本在每类字典上的残差
Figure BDA00003144074600071
r j ( y ^ ) = | | y ^ - RD j β j | | 2 2 / | | β j | | 2 , j = 1 , · · · , c
其中:βj是当前测试样本在第j类字典Dj上的编码系数; 
9b)根据测试样本在每类字典上的残差大小,找到产生最小残差的字典Dj,将该字典Dj的类标j作为当前测试样本的类标,j=1,…,c,依次完成对所有测试样本的分类。 
步骤10,将2号动作者的所有视频均作为测试样本,利用包括1号动作在内的其它动作者的所有视频组成新的字典,然后参照步骤6-9完成对2号动作者所有视频的分类。 
步骤11,参照步骤10依次完成所有动作者的所有视频的分类,即最终完成对所有视频中人体行为的识别。 
本发明的效果可以通过以下仿真实验进一步说明: 
1.仿真条件 
仿真实验在Intel Core(TM)2Duo CPU、主频2.33GHz,内存2G,Windows 7平台上的MATLAB 7.12上进行。本实验分别在Weizmann数据集、KTH数据集和Weizmann robust数据集上利用本发明方法进行分类测试,并与传统方法进行了结果对比,最后在Weizmann数据集上对本发明方法中的参数进行鲁棒性分析。 
2.仿真内容与结果 
仿真1,在Weizmann数据集上使用本发明方法进行识别测试的实验。 
本实验对图2(a)所示的Weizmann数据集进行识别测试。表1给出了分别使用本发明方法和现有CRC方法对Weizmann数据集进行识别的实验结果对比;图3(a)给出了本发明方法在Weizmann数据集上识别结果的混淆矩阵图。 
表1 本发明方法与CRC方法在Weizmann数据集上的分类结果对比 
使用方法 正确率
CRC 90.8%
本发明方法 93.2%
[0094] 从表1可以看出,本发明方法要比CRC方法识别效果好。CRC方法在识别时只考虑了对测试样本的重构误差,而本发明方法不仅考虑到了对测试样本的重构误差,还加入了稀疏性约束,促使测试样本在与其实际类别相同的字典原子上具有更大的残差,从而能够提升测试样本的识别正确率。实验结果证明,本发明方法能够对人体行为进行有效的表征,并在有效表示的基础上达到了较好的人体行为识别效果。 
从图3(a)中分类结果的混淆矩阵可以具体看出,本发明方法对Weizmann数据集中的所有人体行为均取得了较高的识别率。图3(a)中,本发明对跑步以外的所有人体行为进行了正确的分类,只有两个跑步的视频被错分成跨越行为,这是因为跑步和跨越具有非常相近的动作方式,所检测到的局部特征有很多都是相似的,所以在对这两种行为进行编码时得到的编码系数也有可能相似,继而被误判。 
仿真2,在KTH数据集上使用本发明方法进行识别的实验。 
本实验对图2(b)所示KTH数据集进行分类测试。表2给出了给出了分别使用本发明方法和CRC方法在KTH数据集上进行识别的实验结果结果对比;图3(b)给出了本发明在KTH数据集上分类结果的混淆矩阵图。 
表2 本发明方法与CRC方法在KTH数据集上的分类结果对比 
分类方法 正确率
CRC 96.9%
本发明方法 98.0%
从表2中可以以看出,本发明在KTH数据集上的识别正确率依然优于CRC方法,这进一步证明,本发明中所使用的分类方法能够有效保证对于测试样本的正确识别。 
从图3(b)中分类结果的混淆矩阵可以看出,本发明对于KTH数据集中所有人体行为均有良好的识别率。由于本发明采用了LRR方法对视频中的局部特征进行编码表示,使得最终的视频表示更具有判别性,从而保证了对人体行为的较高识别能力。 
仿真3,本发明在Weizmann robustness上进行的鲁棒性实验 
表2给出了本发明在图2(c)中所示的Weizmann robustness数据集上进行的鲁 棒性仿真实验结果,表3是对视角变化鲁棒性测试结果,表4是对遮挡的鲁棒性测试结果。 
表3 本发明在Weizmann robustness上进行视角鲁棒性测试的结果 
拍摄角度/度 特征包模型 本发明方法
n=0 行走 行走
n=9 行走 行走
n=18 行走 行走
n=27 行走 行走
n=36 行走 行走
n=45 行走 行走
n=54 行走 行走
n=63 弯腰 行走
n=72 行走 跨越
n=81 行走 跨越
表4 本发明方法在Weizmann robustness上对受到遮挡的行走的识别结果 
行走方式 特征包模型 本发明方法
拎包 弯腰 行走
拎箱子 横行 行走
牵狗 招手 行走
高抬腿式 弯腰 行走
并腿式 行走 行走
梦游式 行走 行走
腿部被遮挡 招手 行走
正常 行走 行走
全身受到垂直遮挡 行走 行走
穿着裙子 招手 行走
从表3和表4可以看出,本发明对拍摄角度的变化有一定的容忍性以及对部 分遮挡具有鲁棒性,相对于传统的特征包模型有较好的结果。 
从表3中可以看出,当拍摄角度在0到63度变化时,本发明方法可以稳定识别视频中的人体行为。而表4则显示,本发明在人体行为受到部分遮挡时依然能够保证正确的识别结果,即具有对视频中遮挡的鲁棒性。 

Claims (1)

1.一种基于低秩表示的人体行为识别方法,包括如下步骤:
(1)输入所有视频,每个视频中只含有一种行为,利用Cuboid特征检测和描述算法中的Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述;
(2)利用k均值法,对所有视频的行为局部特征进行聚类,形成一个码书:其中:ak表示每个聚类中心,k=1,2,…,l,l表示聚类中心的个数,d表示聚类中心的维数;
(3)利用带有系数归一化约束的低秩表示LRR,在码书A上对每个视频中的行为所包含的局部特征进行编码:
(3a)假设视频中的行为有n个局部特征,用
Figure FDA00003144074500012
表示,其中:xi表示第i个局部特征,i=1,2,…,n,d表示局部特征的维数;
(3b)在码书A上,利用如下公式进行编码:
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E , 1 Z = 1 ^
其中:Z表示局部特征在码书A上的编码系数,E表示噪声,‖·‖*表示一种矩阵奇异值之和的核函数,参数λ用来权衡低秩和噪声的影响,‖E‖2,1表示对E的l2,1范数,Eij为E的第i行第j列元素,
Figure FDA00003144074500015
矩阵1和
Figure FDA00003144074500016
中每个元素均为1;
(3c)利用中间变量J代替(3b)中的Z,将编码公式转化为:
min Z , E , J | | J | | * + λ | | E | | 2,1 , s . t . X = AZ + E , Z = J , 1 Z = 1 ^
由此将对Z的多约束优化问题简化为对J的单约束优化,利用增强拉格朗日乘子ALM算法对该公式进行求解,得到一个行为的所有局部特征对应的编码系数
Figure FDA00003144074500018
(4)对每个人体行为的局部特征,根据步骤(3c)中得到的编码系数,应用maxpooling算法,将每个人体行为表示成一个l维的列向量:
z * = [ z ^ 1 , z ^ 2 , . . . , z ^ k , . . . , z ^ l ] T , k = 1,2 , . . . , l
其中 z ^ k = max ( | z k 1 | , | z k 2 | , . . . , | z ki | , . . . , | z kn | ) , i = 1,2 , . . . , n , zki表示Z的第k行第i列元素;
(5)把一个动作者的所有行为视频作为测试样本集,其他动作者的所有行为视频作为训练集,训练集样本个数为m,利用所有训练样本的编码系数组成字典
Figure FDA00003144074500023
其中m是字典原子个数,j是字典的类别标号,c为总类别数;
(6)利用随机生成的线性变换矩阵
Figure FDA00003144074500024
对每个测试样本进行降维,b<<l,得到降维后的测试样本:
Figure FDA00003144074500025
并通过下式得到每个测试样本
Figure FDA00003144074500026
的编码系数β:
min β | | y ^ - RDβ | | 2 2 + η | | β | | 1 ,
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R均值为0,方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
(7)计算测试样本在每类字典上的残差
Figure FDA00003144074500028
r j ( y ^ ) = | | y ^ - RD j β j | | 2 2 / | | β j | | 2 , j = 1,2 , . . . , c
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则赋予测试样本的类标为j;
(8)重复步骤(5)-(7),依次对每个动作者的所有行为进行分类,得到所有动作者的所有行为类标,并用分类标号对应不同的人体行为。
CN201310163241.3A 2013-05-05 2013-05-05 基于低秩表示的人体行为识别方法 Active CN103440471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310163241.3A CN103440471B (zh) 2013-05-05 2013-05-05 基于低秩表示的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310163241.3A CN103440471B (zh) 2013-05-05 2013-05-05 基于低秩表示的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN103440471A true CN103440471A (zh) 2013-12-11
CN103440471B CN103440471B (zh) 2016-08-10

Family

ID=49694164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310163241.3A Active CN103440471B (zh) 2013-05-05 2013-05-05 基于低秩表示的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN103440471B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761537A (zh) * 2014-02-07 2014-04-30 重庆市国土资源和房屋勘测规划院 基于低秩优化特征字典模型的图像分类方法
CN104200203A (zh) * 2014-08-30 2014-12-10 电子科技大学 一种基于动作字典学习的人体动作检测方法
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法
CN105046193A (zh) * 2015-06-05 2015-11-11 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN105868711A (zh) * 2016-03-28 2016-08-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN107766790A (zh) * 2017-08-31 2018-03-06 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN107784293A (zh) * 2017-11-13 2018-03-09 中国矿业大学(北京) 一种基于全局特征和稀疏表示分类的人体行为识别方法
CN108875597A (zh) * 2018-05-30 2018-11-23 浙江大学城市学院 一种面向大规模数据集的两层活动聚类识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102393910A (zh) * 2011-06-29 2012-03-28 浙江工业大学 一种基于非负矩阵分解和隐马尔科夫模型的人体行为识别方法
CN102855321A (zh) * 2012-09-07 2013-01-02 陕西师范大学 人体行为识别方法
CN102930302A (zh) * 2012-10-18 2013-02-13 山东大学 基于在线序贯极限学习机的递增式人体行为识别方法
US8577154B2 (en) * 2008-06-16 2013-11-05 University Of Southern California Automated single viewpoint human action recognition by matching linked sequences of key poses

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577154B2 (en) * 2008-06-16 2013-11-05 University Of Southern California Automated single viewpoint human action recognition by matching linked sequences of key poses
CN102393910A (zh) * 2011-06-29 2012-03-28 浙江工业大学 一种基于非负矩阵分解和隐马尔科夫模型的人体行为识别方法
CN102855321A (zh) * 2012-09-07 2013-01-02 陕西师范大学 人体行为识别方法
CN102930302A (zh) * 2012-10-18 2013-02-13 山东大学 基于在线序贯极限学习机的递增式人体行为识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XUNSHI YAN .ETC: "Making full use of spatial-temporal interest points:an adaboost approach for action recognition", 《PROCEEDINGS OF 2010 IEEE 17TH INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》, 29 September 2010 (2010-09-29) *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761537A (zh) * 2014-02-07 2014-04-30 重庆市国土资源和房屋勘测规划院 基于低秩优化特征字典模型的图像分类方法
CN103761537B (zh) * 2014-02-07 2017-02-15 重庆市国土资源和房屋勘测规划院 基于低秩优化特征字典模型的图像分类方法
CN104200203B (zh) * 2014-08-30 2017-07-11 电子科技大学 一种基于动作字典学习的人体动作检测方法
CN104200203A (zh) * 2014-08-30 2014-12-10 电子科技大学 一种基于动作字典学习的人体动作检测方法
CN104298977A (zh) * 2014-10-24 2015-01-21 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法
CN104298977B (zh) * 2014-10-24 2017-11-03 西安电子科技大学 一种基于不相关性约束的低秩表示人体行为识别方法
CN105046193A (zh) * 2015-06-05 2015-11-11 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN105046193B (zh) * 2015-06-05 2018-07-10 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN105868711A (zh) * 2016-03-28 2016-08-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN105868711B (zh) * 2016-03-28 2020-04-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN107766790A (zh) * 2017-08-31 2018-03-06 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN107766790B (zh) * 2017-08-31 2021-04-30 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN107784293A (zh) * 2017-11-13 2018-03-09 中国矿业大学(北京) 一种基于全局特征和稀疏表示分类的人体行为识别方法
CN108875597A (zh) * 2018-05-30 2018-11-23 浙江大学城市学院 一种面向大规模数据集的两层活动聚类识别方法
CN108875597B (zh) * 2018-05-30 2021-03-30 浙江大学城市学院 一种面向大规模数据集的两层活动聚类识别方法

Also Published As

Publication number Publication date
CN103440471B (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN103440471A (zh) 基于低秩表示的人体行为识别方法
CN105956560B (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
Socarrás et al. Adapting pedestrian detection from synthetic to far infrared images
CN109190752A (zh) 基于深度学习的全局特征和局部特征的图像语义分割方法
CN104298977B (zh) 一种基于不相关性约束的低秩表示人体行为识别方法
CN110555387B (zh) 骨架序列中基于局部关节点轨迹时空卷的行为识别方法
CN102663431B (zh) 一种基于区域加权的图像匹配计算方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN105139004A (zh) 基于视频序列的人脸表情识别方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN104298981A (zh) 人脸微表情的识别方法
CN103226713B (zh) 一种多视角行为识别方法
CN104616316A (zh) 基于阈值矩阵和特征融合视觉单词的人物行为识别方法
CN105095863A (zh) 基于相似性权值的半监督字典学习的人体行为识别方法
CN103605952A (zh) 基于拉普拉斯正则组稀疏的人体行为识别方法
CN106295564A (zh) 一种邻域高斯结构和视频特征融合的动作识别方法
CN104598885A (zh) 街景图像中的文字标牌检测与定位方法
CN106055653A (zh) 基于图像语义注释的视频浓缩对象检索方法
CN101719220A (zh) 基于有向截尾均值距离的轨迹聚类方法
CN109325507A (zh) 一种结合超像素显著性特征与hog特征的图像分类算法和系统
CN105046714A (zh) 一种非监督的基于超像素和目标发现机制的图像分割方法
CN104751469A (zh) 基于核模糊c均值聚类的图像分割方法
CN103440501A (zh) 基于非参数空间判决隐狄利克雷模型的场景分类方法
CN104408461A (zh) 一种基于滑动窗口局部匹配窗口的动作识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant