CN102289685A - 一种基于正则回归的秩-1张量投影的行为识别方法 - Google Patents
一种基于正则回归的秩-1张量投影的行为识别方法 Download PDFInfo
- Publication number
- CN102289685A CN102289685A CN 201110221826 CN201110221826A CN102289685A CN 102289685 A CN102289685 A CN 102289685A CN 201110221826 CN201110221826 CN 201110221826 CN 201110221826 A CN201110221826 A CN 201110221826A CN 102289685 A CN102289685 A CN 102289685A
- Authority
- CN
- China
- Prior art keywords
- class
- projection
- tensor
- behavior
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 239000013598 vector Substances 0.000 claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000012360 testing method Methods 0.000 claims abstract description 14
- 230000004044 response Effects 0.000 claims abstract description 11
- 230000006399 behavior Effects 0.000 claims description 75
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000003542 behavioural effect Effects 0.000 claims description 26
- 238000009227 behaviour therapy Methods 0.000 claims description 14
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 3
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010041347 Somnambulism Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤:(1)训练过程:采用One Vs All策略对每种行为分别训练一个两类分类器,使用正则回归方法求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;(2)识别过程:将测试数据输入到各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。本发明行为识别率高且可大大降低方法的计算复杂度。
Description
技术领域
本发明涉及计算机视觉和图像处理领域,特别涉及一种基于正则回归的秩-1张量投影的行为识别方法。
背景技术
人的行为识别是计算机视觉领域的一个重要研究方向,它的目的是让计算机能够像人一样理解人的行为。目前这一技术在智能监控、虚拟现实、人机交互和运动分析等方面均有广泛的应用,但是当场景复杂时,人的行为识别的结果远远达不到人们的预期目标,仍不能达到技术实用化的需求。
人体行为存在于视频序列中,是包含空间和时间信息的三维数据。处理视频数据的传统方法通常是将视频中的每帧图像转化成单一向量,再按行/列的顺序接连成一个矩阵作为其表达形式。将视频帧图像转化为向量很容易造成维数灾难,同时也破环了帧图像内部的空间结构。目前主要有以下几种方法:
(1)Wang和Suter(L.Wang and D.Suter,Recognizing human activities fromsilhouettes:motion subspace and factorial discriminative graphical model,CVPR2007)利用基于图模型的子空间方法进行行为识别,但将视频帧图像转化为向量进行处理,很容易遭遇维数灾难和小样本问题。
(2)凌等(凌志刚,梁彦,潘泉,程咏梅,赵春晖,基于张量子空间学习的人行为识别方法,中国图象图形学报A,2009,14(3):394-400)利用张量子空间方法(张量主成份分析,有监督和无监督的张量局部保持投影)进行行为识别,提取的特征张量本质是矩阵形式,丢失了时序信息,在时间上需要归一化距离度量。
(3)Weinland和Boyer(D.Weiland and E.Boyer,Action recognition usingexemplar-based embedding,CVPR2008)通过提取若干(实验中取50个)静态关键姿势,将行为看成一系列关键姿势的表达进行识别。但它丢失了时间信息,同时对行为之间不同的执行速率较为敏感。
(4)Kellokumpu等(V.Kellokumpu,G.Zhao and M.Pietikainen,Humanactivity recognition using a dynamic texture based method,BMVC2008)利用三个正交平面上的局部二值模式提取行为的低维纹理特征进行识别,但原始行为数据中背景、行为者外貌、穿着等都会造成杂乱的纹理信息,而且三个正交平面上空时信息不足以刻画整个人体行为的有效特征。
上述方法主要存在两个缺陷:(1)张量子空间方法利用高阶奇异值分解(High Order-SVD)方法求解最优化问题,从而产生巨大的时间花费。(2)若把原始视频数据的紧凑表示称为“特征张量”,它的一般形式也是三维的,对于三维体的特征张量,何种度量方法为最优尚未得到验证。
以上的两大缺陷使得现有张量表示的行为识别方法无论从识别性能还是时间效率上,并没有达到行为识别的实用要求,限制了此方法的应用范围。因此,应用领域需要提供一种识别精度高、计算量较小且能满足实用要求的行为识别方法。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于正则回归的秩-1张量投影的行为识别方法,该方法在获得更高行为识别率的同时降低了计算的时间花费,具有很强的实用性。
本发明的目的通过以下的技术方案实现:一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤:
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。
所述步骤(1)中,所得到的前景行为数据、显著行为数据需进行空间归一化,使其大小相同。
所述步骤(1)中,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1,将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。
所述步骤(1)中,两类分类器所对应的投影向量集具体求解方法是:假设p1和p2已知,求解投影向量p3,首先随机初始化p1和p2,m3维向量x3则通过 得到;给定一组已知类别的训练样本 其中y为类别标记,且yl∈{-1,1},将所有训练样本投影到p1和p2的张量空间得到 将 和yl转置后堆叠得到矩阵X3和行向量y,然后通过传统的最小二乘法求解投影向量p3,即:
为了提高回归性能,所述步骤(1)中,采用传统最小二乘法求解投影向量p3时,引入两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,..,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达:
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和,L=D-W为拉普拉斯矩阵;
然后对公式(2)中的p3求导,使其等于0,则可求得:
依此方法,假设p1和p3已知,求解p2;假设p3和p2已知,求解p1,待循环Tmax次,或相邻投影向量范数的差小于一定阈值时,即得到投影向量集合
公式(2)引入两个正则项,其中引入待估计投影向量范数的平方用于降低估计方差,引入基于图的拉普拉斯约束,是使得同类的张量样本在投影空间中能够处于密集的区域,也就是回归后能够落入同一类别标记。
所述步骤(1)中构建子集嵌入的方法具体是:将已知类别的原始训练数据分为N个子集 每一个子集包含满足label(X)=λi条件的 个训练样本,子集嵌入定义为 带有类别信息的训练数据的子集被投影到N维子空间,N为所有行为的种类个数;
然后对每个子集建立一个临时矩阵:
所述步骤(2)中,给定测试行为A,用行向量R(A)表示N个两类分类器的输出响应,测试行为的类别标记输入归为:
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明采用正则回归技术构造秩-1张量投影方法,将张量表示的行为样本直接投影到其对应的类别标记,从而避免基于张量的识别方法中计算较为复杂的张量子空间方法,也避免对三维的特征张量构建合适的相似性度量方式,在获得更高行为识别率的同时也大大降低了方法的计算复杂度。
2、本发明方法相较于现有技术具有更好的算法收敛性。随机初始化各投影向量,通过5次实验,对于p1、p2和p3,相邻投影向量范数的差有明显的下降,经过多次迭代其趋势接近0值。
附图说明
图1是本发明方法的流程示意图;
图2是Weizmann库中的前景行为数据;
图3是Weizmann库中的原始行为数据;
图4是Weizmann库中的显著行为数据;
图5是鲁棒性测试行为数据;
图6是采用本发明方法进行行为识别的视觉结果例图1;
图7是采用本发明方法进行行为识别的视觉结果例图2。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤:
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,分别如图2、3、4所示,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类 分类器所代表的正样本类别即是测试行为所判定的类别。
本实施例中前景数据进行空间归一化成80×60大小,显著行为数据包含6个提取的关键帧(C.Liu and P.C.Yuen,Human action recognition using boostedeigenactions,Image and Vision Computing 2010),空间大小同为80×60。
对Weizmann库中的10种行为采用One Vs All的策略分别训练两类分类器,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1。将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。
所述步骤(1)中,两类分类器所对应的投影向量集具体求解方法是:假设p1和p2已知,求解投影向量p3,首先随机初始化p1和p2,m3维向量x3则通过 得到;给定一组已知类别的训练样本 其中y为类别标记,且yl∈{-1,1},将所有训练样本投影到p1和p2的张量空间得到 将 和yl转置后堆叠得到矩阵X3和行向量y,然后通过传统的最小二乘法求解投影向量p3,即:
为了提高回归性能,本实施例中,在采用传统最小二乘法求解投影向量集的基础上引入了两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,...,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达:
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和, L=D-W为拉普拉斯矩阵;
然后对公式(2)中的p3求导,使其等于0,则可求得:
依此方法,假设p1和p3已知,求解p2;假设p3和p2已知,求解p1,待循环Tmax次,或相邻投影向量范数的差小于一定阈值时,即得到投影向量集合
公式(2)引入两个正则项,其中引入待估计投影向量范数的平方用于降低估计方差,引入基于图的拉普拉斯约束,是使得同类的张量样本在投影空间中能够处于密集的区域,也就是回归后能够落入同一类别标记。
所述步骤(1)中构建子集嵌入的方法具体是:将已知类别的原始训练数据分为N个子集 每一个子集包含满足label(X)=λi条件的 个训练样本,子集嵌入定义为 带有类别信息的训练数据的子集被投影到N维子空间,N为所有行为的种类个数;
然后对每个子集建立一个临时矩阵:
所述步骤(2)中,给定测试行为A,用行向量R(A)表示N个两类分类器的输出响应,测试行为的类别标记输入归为:
在本实施例中,采用留一法进行测试。Weizmann库包含9个人的10种行为,其中9个人共分为9组。假设8个人的所有行为已知,作为训练集,剩下的作为测试集。测试依次重复9次。对于测试行为A,行向量R(A)表示10个两类分类器的输出响应。将行向量R(A)与每一维的子集嵌入结果相乘,得到的最 大输出响应对应分类器所代表的正样本类别即是测试行为所判定的类别。
图6和图7是采用本发明方法进行行为识别的视觉结果例图,其中图6是以弯腰(Bend)的原始行为数据作为例子,图7是以跑(Run)的原始行为数据作为例子,随机采样行为中的某一帧图像,左上角为输入的测试行为,右下角为输出响应最高与其最为接近的训练行为。采用本方法均能得到正确的结果。
本发明通过以下实验对识别效果进行说明:实验在Weizmann库的前景行为数据、原始行为数据和显著行为数据上分别进行。对行为库中10种行为分别构建两类分类器,每个分类器对应于一个秩-1张量投影,训练子集嵌入后将张量表示的未知行为直接投影到嵌入空间,输出最高响应所对应的子集类别即为未知行为的类别标记。Weizmann库中9个人共分为9组。假设8个人的所有行为已知,作为训练集,对剩下行为者的所有行为进行识别。实验重复进行9次。比对方法采用背景技术中所提到的方法。
在Weizmann库前景行为数据上的实验结果如表1所示。从表中可看出,本发明方法相较于凌等的方法准确率更高,与Wang和Suter的工作取得一样的总体识别率,高达100%。在Weizmann库原始行为数据和显著行为数据上的实验结果如表2所示。从表2中数据可以看出,在Weizmann库中原始行为数据上的实验,本发明方法的识别率比Weiland和Boyer以及Kellokumpu等人提出的方法均有一定幅度的提升,本发明方法还通过预处理提取显著行为数据,进一步提高行为识别率。
表1 Weizmann库前景行为数据上的总体识别率%)
表2 Weizmann库原始行为数据和显著行为数据上的总体识别率%)
另外对本鲁棒性进行测试。如图5,Weizmann库从0-81度之间的不同视角拍摄了10个测试视频,并在不同场景下拍摄了10组不同形态的行走视频,具 体为从0度到81度每隔9度的视角变化和行为方式的不规则性,包含对角线直走(diagonal walk),牵着狗行走(walk with a dog),边走边甩包(walk and swinginga bag),带着衣服走(walk in a skirt),腿部发生遮挡(walk with the legs occludedpartially),梦游式行走(sleepwalk),跛行(limp walk),膝盖抬高走(walk withknees up)和携带公文包走(walk carrying a briefcase)。将Weizmann-I标准库中的所有行为作为训练集得到每种行为的秩-1张量投影,将鲁棒性测试行为作为测试张量样本与每个秩-1张量投影进行内积,取最高输出响应对应的行为类别作为最佳匹配结果,若最佳匹配行为不是“走”,寻求次佳匹配。表3记录了此次鲁棒性试验的测试结果。从表中数据可以看出,算法能够容忍小于54度的视角变化。在行为者携带东西或有目标依附的情况下(如带公文包、溜狗),“走”很容易错分为其它类型的行为。从测试结果可以得出,秩-1张量投影方法对视角变化、部分遮挡和不规则的行为方式具有一定的鲁棒性。
表3 鲁棒性测试结果(角度和行为不规则性)
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于正则回归的秩-1张量投影的行为识别方法,其特征在于,包括以下步骤:
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。
2.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中,所得到的前景行为数据、显著行为数据需进行空间归一化,使其大小相同。
3.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1,将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。
5.根据权利要求4所述的基于正则回归的秩-1张量投影的行为识别方法, 其特征在于,所述步骤(1)中,采用传统最小二乘法求解投影向量p3时,引入两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,..,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达:
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和,L=D-W为拉普拉斯矩阵;
然后对公式(2)中的p3求导,使其等于0,则可求得:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110221826 CN102289685B (zh) | 2011-08-04 | 2011-08-04 | 一种基于正则回归的秩-1张量投影的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110221826 CN102289685B (zh) | 2011-08-04 | 2011-08-04 | 一种基于正则回归的秩-1张量投影的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102289685A true CN102289685A (zh) | 2011-12-21 |
CN102289685B CN102289685B (zh) | 2013-02-06 |
Family
ID=45336091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110221826 Active CN102289685B (zh) | 2011-08-04 | 2011-08-04 | 一种基于正则回归的秩-1张量投影的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102289685B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605952A (zh) * | 2013-10-27 | 2014-02-26 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN104050361A (zh) * | 2014-06-04 | 2014-09-17 | 杭州华亭科技有限公司 | 一种监狱服刑人员危险性倾向的智能分析预警方法 |
CN104504305A (zh) * | 2014-12-24 | 2015-04-08 | 西安电子科技大学 | 监督基因表达数据分类方法 |
CN105957104A (zh) * | 2016-04-22 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于改进网络流图的多目标跟踪方法 |
CN106228129A (zh) * | 2016-07-18 | 2016-12-14 | 中山大学 | 一种基于matv特征的人脸活体检测方法 |
CN108280466A (zh) * | 2018-01-12 | 2018-07-13 | 西安电子科技大学 | 基于加权核范数最小化的极化sar特征分类方法 |
US11403550B2 (en) | 2015-09-04 | 2022-08-02 | Micro Focus Llc | Classifier |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090316983A1 (en) * | 2008-06-20 | 2009-12-24 | Feng Han | Real-Time Action Detection and Classification |
CN101866429A (zh) * | 2010-06-01 | 2010-10-20 | 中国科学院计算技术研究所 | 多运动目标动作行为识别的训练方法和识别方法 |
US20110064267A1 (en) * | 2009-09-17 | 2011-03-17 | Wesley Kenneth Cobb | Classifier anomalies for observed behaviors in a video surveillance system |
CN102043967A (zh) * | 2010-12-08 | 2011-05-04 | 中国科学院自动化研究所 | 一种有效的运动目标行为建模与识别方法 |
-
2011
- 2011-08-04 CN CN 201110221826 patent/CN102289685B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090316983A1 (en) * | 2008-06-20 | 2009-12-24 | Feng Han | Real-Time Action Detection and Classification |
US20110064267A1 (en) * | 2009-09-17 | 2011-03-17 | Wesley Kenneth Cobb | Classifier anomalies for observed behaviors in a video surveillance system |
CN101866429A (zh) * | 2010-06-01 | 2010-10-20 | 中国科学院计算技术研究所 | 多运动目标动作行为识别的训练方法和识别方法 |
CN102043967A (zh) * | 2010-12-08 | 2011-05-04 | 中国科学院自动化研究所 | 一种有效的运动目标行为建模与识别方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605952A (zh) * | 2013-10-27 | 2014-02-26 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN103605952B (zh) * | 2013-10-27 | 2016-11-23 | 西安电子科技大学 | 基于拉普拉斯正则组稀疏的人体行为识别方法 |
CN104050361A (zh) * | 2014-06-04 | 2014-09-17 | 杭州华亭科技有限公司 | 一种监狱服刑人员危险性倾向的智能分析预警方法 |
CN104050361B (zh) * | 2014-06-04 | 2017-06-23 | 杭州华亭科技有限公司 | 一种监狱服刑人员危险性倾向的智能分析预警方法 |
CN104504305A (zh) * | 2014-12-24 | 2015-04-08 | 西安电子科技大学 | 监督基因表达数据分类方法 |
CN104504305B (zh) * | 2014-12-24 | 2018-03-06 | 西安电子科技大学 | 监督基因表达数据分类方法 |
US11403550B2 (en) | 2015-09-04 | 2022-08-02 | Micro Focus Llc | Classifier |
CN105957104A (zh) * | 2016-04-22 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于改进网络流图的多目标跟踪方法 |
CN106228129A (zh) * | 2016-07-18 | 2016-12-14 | 中山大学 | 一种基于matv特征的人脸活体检测方法 |
CN106228129B (zh) * | 2016-07-18 | 2019-09-10 | 中山大学 | 一种基于matv特征的人脸活体检测方法 |
CN108280466A (zh) * | 2018-01-12 | 2018-07-13 | 西安电子科技大学 | 基于加权核范数最小化的极化sar特征分类方法 |
CN108280466B (zh) * | 2018-01-12 | 2021-10-29 | 西安电子科技大学 | 基于加权核范数最小化的极化sar特征分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102289685B (zh) | 2013-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Masita et al. | Deep learning in object detection: A review | |
Lee et al. | Deep saliency with encoded low level distance map and high level features | |
Bazzani et al. | Self-taught object localization with deep networks | |
CN104598890B (zh) | 一种基于rgb‑d视频的人体行为识别方法 | |
Soomro et al. | Action recognition in realistic sports videos | |
Jiang et al. | Recognizing human actions by learning and matching shape-motion prototype trees | |
Chakraborty et al. | Selective spatio-temporal interest points | |
CN102289685B (zh) | 一种基于正则回归的秩-1张量投影的行为识别方法 | |
Sapienza et al. | Learning discriminative space–time action parts from weakly labelled videos | |
Bregonzio et al. | Fusing appearance and distribution information of interest points for action recognition | |
Zhang et al. | Learning semantic scene models by object classification and trajectory clustering | |
Sultani et al. | Human action recognition across datasets by foreground-weighted histogram decomposition | |
Yan et al. | Beyond spatial pyramids: A new feature extraction framework with dense spatial sampling for image classification | |
Abdul-Azim et al. | Human action recognition using trajectory-based representation | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
Yang et al. | Object-aware dense semantic correspondence | |
CN104036255A (zh) | 一种人脸表情识别方法 | |
CN103605952B (zh) | 基于拉普拉斯正则组稀疏的人体行为识别方法 | |
CN107316053A (zh) | 一种布料图像快速匹配检索方法 | |
CN103065158A (zh) | 基于相对梯度的isa模型的行为识别方法 | |
CN103679142A (zh) | 一种基于空间约束的目标人体识别方法 | |
CN105654505B (zh) | 一种基于超像素的协同跟踪算法和系统 | |
CN106845375A (zh) | 一种基于层级化特征学习的动作识别方法 | |
CN104966075A (zh) | 一种基于二维判别特征的人脸识别方法与系统 | |
Vora et al. | Iterative spectral clustering for unsupervised object localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210901 Address after: 510700 room 2001-1, floor 20, building F, No. 98, Xiangxue 8th Road, Huangpu District, Guangzhou, Guangdong Province (office only) Patentee after: Guangzhou ziweiyun Technology Co.,Ltd. Address before: 510006 Room 405, School of information science and technology, Sun Yat sen University, Guangzhou University City, Guangdong Province Patentee before: SUN YAT-SEN University |
|
TR01 | Transfer of patent right |