CN103440471A - 基于低秩表示的人体行为识别方法 - Google Patents
基于低秩表示的人体行为识别方法 Download PDFInfo
- Publication number
- CN103440471A CN103440471A CN2013101632413A CN201310163241A CN103440471A CN 103440471 A CN103440471 A CN 103440471A CN 2013101632413 A CN2013101632413 A CN 2013101632413A CN 201310163241 A CN201310163241 A CN 201310163241A CN 103440471 A CN103440471 A CN 103440471A
- Authority
- CN
- China
- Prior art keywords
- human body
- video
- behavior
- videos
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于低秩表示的人体行为识别方法,主要解决现有技术对视频中的行为识别率低的问题。其识别过程为:(1)输入所有视频,利用k均值对所有行为检测到的局部特征进行聚类得到一个码书;(2)通过带有系数归一化约束的低秩表示LRR对每个视频的所有特征进行编码;(3)将每个视频的编码系数向量化,得到每个视频的最终表示;(4)将得到最终表示的所有视频分组,一组作为训练样本,一组作为测试样本,利用训练样本的视频表示组成字典;(5)基于新组成的字典上,利用稀疏表示对测试样本进行编码并确定测试样本的类标,完成测试样本中人体行为的识别。本发明增强了视频表示的判别性,提高了对视频中人体行为的识别率,可用于智能监控。
Description
技术领域
本发明属于机器学习、计算机视觉领域,涉及对视频中人物行为的识别,可用于视频中目标检测及跟踪的后处理。
背景技术
人体行为识别包括从视频序列中抽取相关的视觉信息,并用一种合适的方式进行表达,最后解释这些信息以实现学习和识别人的行为,研究人体的行为模式将为人们的生活带来全新的交互方式。
近年来,特征包BoF模型被成功应用于图像分类和行为识别领域。在行为识别领域,它把视频序列描述成一系列视觉关键词的统计直方图。视觉关键词统计直方图的构建分为以下几个步骤:
第一步,利用局部特征检测器,如Harris3D检测子,Hessian检测子,Cuboid检测子等,自动检测出视频中感兴趣的区域,并用相应的描述子对其进行描述;
第二步,利用K均值将所有视频局部特征描述符进行聚类,形成若干个聚类中心,即视觉关键词,聚类中心的个数或称词包的大小可事先由人为确定。
第三步,计算每个视频中局部特征描述符与每个聚类中心的欧式距离,距离最小的聚类中心被认为是该局部特征的视觉关键词,统计视频中所有局部特征关键词的数目,形成视觉关键词直方图。
尽管特征包模型简单有效,但由于视频中的局部特征数目多而且复杂,需要成千上万个视觉关键词才能获得比较好的识别结果,而且特征包模型并没有考虑视觉关键词的内部结构信息。
2010年,X.Yan等人将特征包模型与有效人体区域包结合在一起,由于有效人体区域包描述了两个局部特征的关系,这样就弥补了特征包没有考虑局部特征之间关系的不足。参见X.Yan,Y.Luo,《Making full use of spatial-temporal interest points:an adaboost approach for action recognition》,International Conference on Image Processing。
2010年,Y.Zhu等人将局部特征与稀疏表示结合在一起,提出了一个新的具有判别性表达方式,参见Y.Zhu,X.Zhao,Y.Fu,Y.Liu,《Sparse coding on local spatial-temporal volumes for human action recognition》,Asian Conference on Computer Vision。
2011年,Z.Lu等人通过l1图的构建和谱嵌入结合起来。该方法考虑了视觉关键词的流形结构,其得到的表示是紧致的而且具有判别性。参见Z.Lu,Y.Peng,《Latent semantic learning with structured sparse representation for human action recognition》,ICCV。
以上提到的改善方法均存在以下不足:只考虑稀疏性,没有考虑数据的整体结构性,所以无法获取视频局部特征中的全局结构信息,识别率低。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于低秩表示的人体行为识别方法,以获取视频局部特征中的全局结构信息,提高识别率。
实现本发明的技术思路是:考虑视觉关键词的全局结构,对所获取的局部特征进行编码,将其应用到人体行为识别领域,具体步骤如下:
(1)输入所有视频,每个视频中只含有一种行为,利用Cuboid特征检测和描述算法中的Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述;
(2)利用k均值法,对所有视频的行为局部特征进行聚类,形成一个码书: 其中:ak表示每个聚类中心,k=1,2,…,l,l表示聚类中心的个数,d表示聚类中心的维数;
(3)利用带有系数归一化约束的低秩表示LRR,在码书A上对每个视频中的行为所包含的局部特征进行编码:
(3b)在码书A上,利用如下公式进行编码:
其中:Z表示局部特征在码书A上的编码系数,E表示噪声,‖·‖*表示一种矩阵奇 异值之和的核函数,参数λ用来权衡低秩和噪声的影响,‖E‖2,1表示对E的l2,1范数, Eij为E的第i行第j列元素,矩阵1和中每个元素均为1;
(3c)利用中间变量J代替(3b)中的Z,将编码公式转化为:
(4)对每个人体行为的局部特征,根据步骤(3c)中得到的编码系数,应用max pooling算法,将每个人体行为表示成一个l维的列向量:
其中 zki表示Z的第k行第i列元素;
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R均值为0,方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则赋予测试样本的类标为j;
(8)重复步骤(5)-(7),依次对每个动作者的所有行为进行分类,得到所有动作者的所有行为类标,并用分类标号对应不同的人体行为。
本发明与现有技术相比,具有以下优点:
1、本发明用码书对特征描述符进行编码,相比于经典的特征包模型,可以大幅增加其描述的准确性;
2、本发明采用的编码方式不仅考虑视频特征的稀疏性,还考虑了其全局结构信息,所以相比于稀疏表示更具有判别性,从而能够提高人体行为识别率;
3、本发明采用的编码方式对干扰信息具有鲁棒性,对拍摄角度具有明显的容忍性。
附图说明
图1是本发明的流程图;
图2是本发明实验中所用的三种数据集;
图3是本发明在Weizmann数据集和KTH数据集上的分类混淆矩阵图;
具体实施方式
参照图1,本发明主要包括两个部分:视频表示、视频分类。下面分别介绍这两部分的实施步骤:
一.视频表示
步骤1,输入所有视频,每个视频中只包含一种人体行为,利用Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述。
视频中的行为指的是走、跑、跳、拳击等这些人体动作,所有视频由若干个动作者分别执行完成,每个动作者依次完成所有行为,一个视频中只含有一个动作者的一种行为;
利用Cuboid检测子对视频进行局部特征检测的实现方式是:将视频划分为大小均等的局部块,计算出一个局部块内每个像素点的响应函数值R:
R=(I*g*hev)2+(I*g*hod)2,
其中:I表示局部块中的当前像素点的灰度值,g是二维高斯核函数,hev、hod为一对Garbor滤波算子。
具有最大响应函数值的像素点就是检测到的局部特征点,由此方式依次检测得到视频中所有局部块的局部特征点;
利用Cuboid描述子对视频进行局部特征描述的实现方式是:在以特征点为中心的一个长方体范围内,利用内部所有d个像素点的灰度值组成一个向量x作为特征点上的特征描述,由此得到当前特征点的局部特征描述,依次完成视频中所有n个特征点的局部特征描述,得到整个视频的局部特征描述:
其中:xi表示第i个局部特征,i=1,2,…,n,n表示特征点个数,d表示局部特征描述的维数。
步骤2,利用所有视频中的局部特征描述建立码书。
其中:au表示第u个聚类中心,u=1,…,l,l表示聚类中心的个数。
步骤3,利用码书依次对每个视频中的所有局部特征描述进行编码。
利用带有系数归一化约束的低秩表示LRR,在码书A上对一个视频中所包含的局部特征描述进行编码:
步骤5,将每个视频的编码系数向量化,得到每个视频的最终表示。
5a)利用Max-pooling算法对将步骤4中编码系数Z的每一行取最大值:
其中zki表示编码系数Z的第k行第i列元素;
二.视频分类
步骤6,对所有动作者进行编号、分组,利用训练样本组建字典。
对所有动作者分配编号,并将1号动作者的所有视频均作为测试样本,其他动作者的所有视频作为训练集;
步骤7,对所有测试样本的视频表示进行降维。
依次对每个测试样本的视频表示z*进行降维,得到降维后的测试样本:
步骤8,利用字典依次对每个降维后测试样本进行稀疏编码。
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R的均值为0,R的方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,η取值范围为0-1。
步骤9,利用编码系数依次计算每个降维后测试样本在每类字典上的残差,根据残差大小对相应测试样本进行分类。
其中:βj是当前测试样本在第j类字典Dj上的编码系数;
9b)根据测试样本在每类字典上的残差大小,找到产生最小残差的字典Dj,将该字典Dj的类标j作为当前测试样本的类标,j=1,…,c,依次完成对所有测试样本的分类。
步骤10,将2号动作者的所有视频均作为测试样本,利用包括1号动作在内的其它动作者的所有视频组成新的字典,然后参照步骤6-9完成对2号动作者所有视频的分类。
步骤11,参照步骤10依次完成所有动作者的所有视频的分类,即最终完成对所有视频中人体行为的识别。
本发明的效果可以通过以下仿真实验进一步说明:
1.仿真条件
仿真实验在Intel Core(TM)2Duo CPU、主频2.33GHz,内存2G,Windows 7平台上的MATLAB 7.12上进行。本实验分别在Weizmann数据集、KTH数据集和Weizmann robust数据集上利用本发明方法进行分类测试,并与传统方法进行了结果对比,最后在Weizmann数据集上对本发明方法中的参数进行鲁棒性分析。
2.仿真内容与结果
仿真1,在Weizmann数据集上使用本发明方法进行识别测试的实验。
本实验对图2(a)所示的Weizmann数据集进行识别测试。表1给出了分别使用本发明方法和现有CRC方法对Weizmann数据集进行识别的实验结果对比;图3(a)给出了本发明方法在Weizmann数据集上识别结果的混淆矩阵图。
表1 本发明方法与CRC方法在Weizmann数据集上的分类结果对比
使用方法 | 正确率 |
CRC | 90.8% |
本发明方法 | 93.2% |
[0094] 从表1可以看出,本发明方法要比CRC方法识别效果好。CRC方法在识别时只考虑了对测试样本的重构误差,而本发明方法不仅考虑到了对测试样本的重构误差,还加入了稀疏性约束,促使测试样本在与其实际类别相同的字典原子上具有更大的残差,从而能够提升测试样本的识别正确率。实验结果证明,本发明方法能够对人体行为进行有效的表征,并在有效表示的基础上达到了较好的人体行为识别效果。
从图3(a)中分类结果的混淆矩阵可以具体看出,本发明方法对Weizmann数据集中的所有人体行为均取得了较高的识别率。图3(a)中,本发明对跑步以外的所有人体行为进行了正确的分类,只有两个跑步的视频被错分成跨越行为,这是因为跑步和跨越具有非常相近的动作方式,所检测到的局部特征有很多都是相似的,所以在对这两种行为进行编码时得到的编码系数也有可能相似,继而被误判。
仿真2,在KTH数据集上使用本发明方法进行识别的实验。
本实验对图2(b)所示KTH数据集进行分类测试。表2给出了给出了分别使用本发明方法和CRC方法在KTH数据集上进行识别的实验结果结果对比;图3(b)给出了本发明在KTH数据集上分类结果的混淆矩阵图。
表2 本发明方法与CRC方法在KTH数据集上的分类结果对比
分类方法 | 正确率 |
CRC | 96.9% |
本发明方法 | 98.0% |
从表2中可以以看出,本发明在KTH数据集上的识别正确率依然优于CRC方法,这进一步证明,本发明中所使用的分类方法能够有效保证对于测试样本的正确识别。
从图3(b)中分类结果的混淆矩阵可以看出,本发明对于KTH数据集中所有人体行为均有良好的识别率。由于本发明采用了LRR方法对视频中的局部特征进行编码表示,使得最终的视频表示更具有判别性,从而保证了对人体行为的较高识别能力。
仿真3,本发明在Weizmann robustness上进行的鲁棒性实验
表2给出了本发明在图2(c)中所示的Weizmann robustness数据集上进行的鲁 棒性仿真实验结果,表3是对视角变化鲁棒性测试结果,表4是对遮挡的鲁棒性测试结果。
表3 本发明在Weizmann robustness上进行视角鲁棒性测试的结果
拍摄角度/度 | 特征包模型 | 本发明方法 |
n=0 | 行走 | 行走 |
n=9 | 行走 | 行走 |
n=18 | 行走 | 行走 |
n=27 | 行走 | 行走 |
n=36 | 行走 | 行走 |
n=45 | 行走 | 行走 |
n=54 | 行走 | 行走 |
n=63 | 弯腰 | 行走 |
n=72 | 行走 | 跨越 |
n=81 | 行走 | 跨越 |
表4 本发明方法在Weizmann robustness上对受到遮挡的行走的识别结果
行走方式 | 特征包模型 | 本发明方法 |
拎包 | 弯腰 | 行走 |
拎箱子 | 横行 | 行走 |
牵狗 | 招手 | 行走 |
高抬腿式 | 弯腰 | 行走 |
并腿式 | 行走 | 行走 |
梦游式 | 行走 | 行走 |
腿部被遮挡 | 招手 | 行走 |
正常 | 行走 | 行走 |
全身受到垂直遮挡 | 行走 | 行走 |
穿着裙子 | 招手 | 行走 |
从表3和表4可以看出,本发明对拍摄角度的变化有一定的容忍性以及对部 分遮挡具有鲁棒性,相对于传统的特征包模型有较好的结果。
从表3中可以看出,当拍摄角度在0到63度变化时,本发明方法可以稳定识别视频中的人体行为。而表4则显示,本发明在人体行为受到部分遮挡时依然能够保证正确的识别结果,即具有对视频中遮挡的鲁棒性。
Claims (1)
1.一种基于低秩表示的人体行为识别方法,包括如下步骤:
(1)输入所有视频,每个视频中只含有一种行为,利用Cuboid特征检测和描述算法中的Cuboid检测子和描述子分别对视频中的行为进行局部特征检测和描述;
(2)利用k均值法,对所有视频的行为局部特征进行聚类,形成一个码书:其中:ak表示每个聚类中心,k=1,2,…,l,l表示聚类中心的个数,d表示聚类中心的维数;
(3)利用带有系数归一化约束的低秩表示LRR,在码书A上对每个视频中的行为所包含的局部特征进行编码:
(3b)在码书A上,利用如下公式进行编码:
其中:Z表示局部特征在码书A上的编码系数,E表示噪声,‖·‖*表示一种矩阵奇异值之和的核函数,参数λ用来权衡低秩和噪声的影响,‖E‖2,1表示对E的l2,1范数,Eij为E的第i行第j列元素,矩阵1和中每个元素均为1;
(3c)利用中间变量J代替(3b)中的Z,将编码公式转化为:
(4)对每个人体行为的局部特征,根据步骤(3c)中得到的编码系数,应用maxpooling算法,将每个人体行为表示成一个l维的列向量:
其中 zki表示Z的第k行第i列元素;
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,R均值为0,方差为1,D是训练样本组成的字典,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则赋予测试样本的类标为j;
(8)重复步骤(5)-(7),依次对每个动作者的所有行为进行分类,得到所有动作者的所有行为类标,并用分类标号对应不同的人体行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310163241.3A CN103440471B (zh) | 2013-05-05 | 2013-05-05 | 基于低秩表示的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310163241.3A CN103440471B (zh) | 2013-05-05 | 2013-05-05 | 基于低秩表示的人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103440471A true CN103440471A (zh) | 2013-12-11 |
CN103440471B CN103440471B (zh) | 2016-08-10 |
Family
ID=49694164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310163241.3A Active CN103440471B (zh) | 2013-05-05 | 2013-05-05 | 基于低秩表示的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103440471B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761537A (zh) * | 2014-02-07 | 2014-04-30 | 重庆市国土资源和房屋勘测规划院 | 基于低秩优化特征字典模型的图像分类方法 |
CN104200203A (zh) * | 2014-08-30 | 2014-12-10 | 电子科技大学 | 一种基于动作字典学习的人体动作检测方法 |
CN104298977A (zh) * | 2014-10-24 | 2015-01-21 | 西安电子科技大学 | 一种基于不相关性约束的低秩表示人体行为识别方法 |
CN105046193A (zh) * | 2015-06-05 | 2015-11-11 | 上海大学 | 一种基于融合稀疏表示矩阵的人体动作识别方法 |
CN105868711A (zh) * | 2016-03-28 | 2016-08-17 | 电子科技大学 | 一种基于稀疏低秩的人体行为识别方法 |
CN107766790A (zh) * | 2017-08-31 | 2018-03-06 | 电子科技大学 | 一种基于局部约束低秩编码的人体行为识别方法 |
CN107784293A (zh) * | 2017-11-13 | 2018-03-09 | 中国矿业大学(北京) | 一种基于全局特征和稀疏表示分类的人体行为识别方法 |
CN108875597A (zh) * | 2018-05-30 | 2018-11-23 | 浙江大学城市学院 | 一种面向大规模数据集的两层活动聚类识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102393910A (zh) * | 2011-06-29 | 2012-03-28 | 浙江工业大学 | 一种基于非负矩阵分解和隐马尔科夫模型的人体行为识别方法 |
CN102855321A (zh) * | 2012-09-07 | 2013-01-02 | 陕西师范大学 | 人体行为识别方法 |
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
US8577154B2 (en) * | 2008-06-16 | 2013-11-05 | University Of Southern California | Automated single viewpoint human action recognition by matching linked sequences of key poses |
-
2013
- 2013-05-05 CN CN201310163241.3A patent/CN103440471B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8577154B2 (en) * | 2008-06-16 | 2013-11-05 | University Of Southern California | Automated single viewpoint human action recognition by matching linked sequences of key poses |
CN102393910A (zh) * | 2011-06-29 | 2012-03-28 | 浙江工业大学 | 一种基于非负矩阵分解和隐马尔科夫模型的人体行为识别方法 |
CN102855321A (zh) * | 2012-09-07 | 2013-01-02 | 陕西师范大学 | 人体行为识别方法 |
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
Non-Patent Citations (1)
Title |
---|
XUNSHI YAN .ETC: "Making full use of spatial-temporal interest points:an adaboost approach for action recognition", 《PROCEEDINGS OF 2010 IEEE 17TH INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》, 29 September 2010 (2010-09-29) * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761537A (zh) * | 2014-02-07 | 2014-04-30 | 重庆市国土资源和房屋勘测规划院 | 基于低秩优化特征字典模型的图像分类方法 |
CN103761537B (zh) * | 2014-02-07 | 2017-02-15 | 重庆市国土资源和房屋勘测规划院 | 基于低秩优化特征字典模型的图像分类方法 |
CN104200203B (zh) * | 2014-08-30 | 2017-07-11 | 电子科技大学 | 一种基于动作字典学习的人体动作检测方法 |
CN104200203A (zh) * | 2014-08-30 | 2014-12-10 | 电子科技大学 | 一种基于动作字典学习的人体动作检测方法 |
CN104298977A (zh) * | 2014-10-24 | 2015-01-21 | 西安电子科技大学 | 一种基于不相关性约束的低秩表示人体行为识别方法 |
CN104298977B (zh) * | 2014-10-24 | 2017-11-03 | 西安电子科技大学 | 一种基于不相关性约束的低秩表示人体行为识别方法 |
CN105046193A (zh) * | 2015-06-05 | 2015-11-11 | 上海大学 | 一种基于融合稀疏表示矩阵的人体动作识别方法 |
CN105046193B (zh) * | 2015-06-05 | 2018-07-10 | 上海大学 | 一种基于融合稀疏表示矩阵的人体动作识别方法 |
CN105868711A (zh) * | 2016-03-28 | 2016-08-17 | 电子科技大学 | 一种基于稀疏低秩的人体行为识别方法 |
CN105868711B (zh) * | 2016-03-28 | 2020-04-17 | 电子科技大学 | 一种基于稀疏低秩的人体行为识别方法 |
CN107766790A (zh) * | 2017-08-31 | 2018-03-06 | 电子科技大学 | 一种基于局部约束低秩编码的人体行为识别方法 |
CN107766790B (zh) * | 2017-08-31 | 2021-04-30 | 电子科技大学 | 一种基于局部约束低秩编码的人体行为识别方法 |
CN107784293A (zh) * | 2017-11-13 | 2018-03-09 | 中国矿业大学(北京) | 一种基于全局特征和稀疏表示分类的人体行为识别方法 |
CN108875597A (zh) * | 2018-05-30 | 2018-11-23 | 浙江大学城市学院 | 一种面向大规模数据集的两层活动聚类识别方法 |
CN108875597B (zh) * | 2018-05-30 | 2021-03-30 | 浙江大学城市学院 | 一种面向大规模数据集的两层活动聚类识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103440471B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103440471A (zh) | 基于低秩表示的人体行为识别方法 | |
CN105956560B (zh) | 一种基于池化多尺度深度卷积特征的车型识别方法 | |
Socarrás et al. | Adapting pedestrian detection from synthetic to far infrared images | |
CN109190752A (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN104298977B (zh) | 一种基于不相关性约束的低秩表示人体行为识别方法 | |
CN110555387B (zh) | 骨架序列中基于局部关节点轨迹时空卷的行为识别方法 | |
CN102663431B (zh) | 一种基于区域加权的图像匹配计算方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN105139004A (zh) | 基于视频序列的人脸表情识别方法 | |
CN111709311A (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
CN104298981A (zh) | 人脸微表情的识别方法 | |
CN103226713B (zh) | 一种多视角行为识别方法 | |
CN104616316A (zh) | 基于阈值矩阵和特征融合视觉单词的人物行为识别方法 | |
CN105095863A (zh) | 基于相似性权值的半监督字典学习的人体行为识别方法 | |
CN103605952A (zh) | 基于拉普拉斯正则组稀疏的人体行为识别方法 | |
CN106295564A (zh) | 一种邻域高斯结构和视频特征融合的动作识别方法 | |
CN104598885A (zh) | 街景图像中的文字标牌检测与定位方法 | |
CN106055653A (zh) | 基于图像语义注释的视频浓缩对象检索方法 | |
CN101719220A (zh) | 基于有向截尾均值距离的轨迹聚类方法 | |
CN109325507A (zh) | 一种结合超像素显著性特征与hog特征的图像分类算法和系统 | |
CN105046714A (zh) | 一种非监督的基于超像素和目标发现机制的图像分割方法 | |
CN104751469A (zh) | 基于核模糊c均值聚类的图像分割方法 | |
CN103440501A (zh) | 基于非参数空间判决隐狄利克雷模型的场景分类方法 | |
CN104408461A (zh) | 一种基于滑动窗口局部匹配窗口的动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |