CN102289685A - 一种基于正则回归的秩-1张量投影的行为识别方法 - Google Patents

一种基于正则回归的秩-1张量投影的行为识别方法 Download PDF

Info

Publication number
CN102289685A
CN102289685A CN 201110221826 CN201110221826A CN102289685A CN 102289685 A CN102289685 A CN 102289685A CN 201110221826 CN201110221826 CN 201110221826 CN 201110221826 A CN201110221826 A CN 201110221826A CN 102289685 A CN102289685 A CN 102289685A
Authority
CN
China
Prior art keywords
class
projection
tensor
behavior
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201110221826
Other languages
English (en)
Other versions
CN102289685B (zh
Inventor
赖剑煌
吴娴
郑伟诗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Ziweiyun Technology Co ltd
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN 201110221826 priority Critical patent/CN102289685B/zh
Publication of CN102289685A publication Critical patent/CN102289685A/zh
Application granted granted Critical
Publication of CN102289685B publication Critical patent/CN102289685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤:(1)训练过程:采用One Vs All策略对每种行为分别训练一个两类分类器,使用正则回归方法求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;(2)识别过程:将测试数据输入到各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。本发明行为识别率高且可大大降低方法的计算复杂度。

Description

一种基于正则回归的秩-1张量投影的行为识别方法
技术领域
本发明涉及计算机视觉和图像处理领域,特别涉及一种基于正则回归的秩-1张量投影的行为识别方法。 
背景技术
人的行为识别是计算机视觉领域的一个重要研究方向,它的目的是让计算机能够像人一样理解人的行为。目前这一技术在智能监控、虚拟现实、人机交互和运动分析等方面均有广泛的应用,但是当场景复杂时,人的行为识别的结果远远达不到人们的预期目标,仍不能达到技术实用化的需求。 
人体行为存在于视频序列中,是包含空间和时间信息的三维数据。处理视频数据的传统方法通常是将视频中的每帧图像转化成单一向量,再按行/列的顺序接连成一个矩阵作为其表达形式。将视频帧图像转化为向量很容易造成维数灾难,同时也破环了帧图像内部的空间结构。目前主要有以下几种方法: 
(1)Wang和Suter(L.Wang and D.Suter,Recognizing human activities fromsilhouettes:motion subspace and factorial discriminative graphical model,CVPR2007)利用基于图模型的子空间方法进行行为识别,但将视频帧图像转化为向量进行处理,很容易遭遇维数灾难和小样本问题。 
(2)凌等(凌志刚,梁彦,潘泉,程咏梅,赵春晖,基于张量子空间学习的人行为识别方法,中国图象图形学报A,2009,14(3):394-400)利用张量子空间方法(张量主成份分析,有监督和无监督的张量局部保持投影)进行行为识别,提取的特征张量本质是矩阵形式,丢失了时序信息,在时间上需要归一化距离度量。 
(3)Weinland和Boyer(D.Weiland and E.Boyer,Action recognition usingexemplar-based embedding,CVPR2008)通过提取若干(实验中取50个)静态关键姿势,将行为看成一系列关键姿势的表达进行识别。但它丢失了时间信息,同时对行为之间不同的执行速率较为敏感。 
(4)Kellokumpu等(V.Kellokumpu,G.Zhao and M.Pietikainen,Humanactivity recognition using a dynamic texture based method,BMVC2008)利用三个正交平面上的局部二值模式提取行为的低维纹理特征进行识别,但原始行为数据中背景、行为者外貌、穿着等都会造成杂乱的纹理信息,而且三个正交平面上空时信息不足以刻画整个人体行为的有效特征。 
上述方法主要存在两个缺陷:(1)张量子空间方法利用高阶奇异值分解(High Order-SVD)方法求解最优化问题,从而产生巨大的时间花费。(2)若把原始视频数据的紧凑表示称为“特征张量”,它的一般形式也是三维的,对于三维体的特征张量,何种度量方法为最优尚未得到验证。 
以上的两大缺陷使得现有张量表示的行为识别方法无论从识别性能还是时间效率上,并没有达到行为识别的实用要求,限制了此方法的应用范围。因此,应用领域需要提供一种识别精度高、计算量较小且能满足实用要求的行为识别方法。 
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于正则回归的秩-1张量投影的行为识别方法,该方法在获得更高行为识别率的同时降低了计算的时间花费,具有很强的实用性。 
本发明的目的通过以下的技术方案实现:一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤: 
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入; 
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。 
所述步骤(1)中,所得到的前景行为数据、显著行为数据需进行空间归一化,使其大小相同。 
所述步骤(1)中,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1,将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。 
所述步骤(1)中,两类分类器所对应的投影向量集具体求解方法是:假设p1和p2已知,求解投影向量p3,首先随机初始化p1和p2,m3维向量x3则通过 
Figure BDA0000080985340000031
得到;给定一组已知类别的训练样本 
Figure BDA0000080985340000032
其中y为类别标记,且yl∈{-1,1},将所有训练样本投影到p1和p2的张量空间得到 
Figure BDA0000080985340000033
将 和yl转置后堆叠得到矩阵X3和行向量y,然后通过传统的最小二乘法求解投影向量p3,即: 
arg min p 3 | | y - p 3 T X 3 | | 2 - - - ( 1 )
为了提高回归性能,所述步骤(1)中,采用传统最小二乘法求解投影向量p3时,引入两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为 
arg min p 3 | | y - p 3 T X 3 | | 2 + α | | p 3 | | 2 + β p 3 T X 3 L X 3 T p 3 - - - ( 2 )
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,..,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 
Figure BDA0000080985340000037
记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达: 
min 1 2 Σ i , j ( y j - y j ) 2 W ij = 1 2 Σ i , j ( p 3 T x 3 i - p 3 T x 3 j ) 2 W ij
= Σ i p 3 T x 3 i D ii x 3 i T p 3 - Σ i , j p 3 T x 3 i W ij x 3 j T p 3
= p 3 T X 3 ( D - W ) X 3 T p 3 = p 3 T X 3 L X 3 T p 3
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和,L=D-W为拉普拉斯矩阵; 
然后对公式(2)中的p3求导,使其等于0,则可求得: 
p 3 = ( X 3 X 3 T + αI + β X 3 L X 3 T ) - 1 X 3 y T - - - ( 3 )
依此方法,假设p1和p3已知,求解p2;假设p3和p2已知,求解p1,待循环Tmax次,或相邻投影向量范数的差小于一定阈值时,即得到投影向量集合  P ^ = { p 1 , p 2 , p 3 } .
公式(2)引入两个正则项,其中引入待估计投影向量范数的平方用于降低估计方差,引入基于图的拉普拉斯约束,是使得同类的张量样本在投影空间中能够处于密集的区域,也就是回归后能够落入同一类别标记。 
所述步骤(1)中构建子集嵌入的方法具体是:将已知类别的原始训练数据分为N个子集 
Figure BDA0000080985340000042
每一个子集包含满足label(X)=λi条件的 
Figure BDA0000080985340000043
个训练样本,子集嵌入定义为 
Figure BDA0000080985340000044
带有类别信息的训练数据的子集被投影到N维子空间,N为所有行为的种类个数; 
然后对每个子集建立一个临时矩阵: 
M λ i = B 1 ( 1 ) B 2 ( 1 ) . . . B N ( 1 ) B 1 ( 2 ) B 2 ( 2 ) . . . B N ( 2 ) . . . . . . . . . . . . B 1 ( | D λ i | ) B 2 ( | D λ i | ) . . . B N ( | D λ i | ) ,
其中Bi(j)表示子集D(λi)中第j个训练样本于第i个两类分类器中的输出,将 
Figure BDA0000080985340000046
矩阵中每一列和的平均值作为子集D(λi)的一维嵌入 
Figure BDA0000080985340000047
中的每个对应元素。 
所述步骤(2)中,给定测试行为A,用行向量R(A)表示N个两类分类器的输出响应,测试行为的类别标记输入归为: 
arg max λ i R ( A ) SE ( D λ i ) T .
本发明与现有技术相比,具有如下优点和有益效果: 
1、本发明采用正则回归技术构造秩-1张量投影方法,将张量表示的行为样本直接投影到其对应的类别标记,从而避免基于张量的识别方法中计算较为复杂的张量子空间方法,也避免对三维的特征张量构建合适的相似性度量方式,在获得更高行为识别率的同时也大大降低了方法的计算复杂度。 
2、本发明方法相较于现有技术具有更好的算法收敛性。随机初始化各投影向量,通过5次实验,对于p1、p2和p3,相邻投影向量范数的差有明显的下降,经过多次迭代其趋势接近0值。 
3、本发明方法相较于现有技术计算复杂度大大降低。以一次迭代为例,大部分的时间花费集中在每次迭代的正则回归求解投影向量。假设X是一个mi×M大小的矩阵,正则回归涉及XXT+αI+βXLXT的计算,复杂度为 
Figure BDA0000080985340000051
而求解方程的复杂度为 
Figure BDA0000080985340000052
忽略微小的计算环节,总体计算花费表示为三次方O(mi[max(M,mi)]2),i为 
Figure BDA0000080985340000053
的下标。而一般框架中张量子空间方法所涉及的高阶奇异值分解所需要的计算花费则高达四次方O(m1m′2m′3min(m1,m′2m′3))。 
附图说明
图1是本发明方法的流程示意图; 
图2是Weizmann库中的前景行为数据; 
图3是Weizmann库中的原始行为数据; 
图4是Weizmann库中的显著行为数据; 
图5是鲁棒性测试行为数据; 
图6是采用本发明方法进行行为识别的视觉结果例图1; 
图7是采用本发明方法进行行为识别的视觉结果例图2。 
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。 
实施例1 
如图1所示,一种基于正则回归的秩-1张量投影的行为识别方法,包括以下步骤: 
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,分别如图2、3、4所示,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入; 
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类 分类器所代表的正样本类别即是测试行为所判定的类别。 
本实施例中前景数据进行空间归一化成80×60大小,显著行为数据包含6个提取的关键帧(C.Liu and P.C.Yuen,Human action recognition using boostedeigenactions,Image and Vision Computing 2010),空间大小同为80×60。 
对Weizmann库中的10种行为采用One Vs All的策略分别训练两类分类器,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1。将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。 
所述步骤(1)中,两类分类器所对应的投影向量集具体求解方法是:假设p1和p2已知,求解投影向量p3,首先随机初始化p1和p2,m3维向量x3则通过 得到;给定一组已知类别的训练样本 其中y为类别标记,且yl∈{-1,1},将所有训练样本投影到p1和p2的张量空间得到 
Figure BDA0000080985340000063
将 
Figure BDA0000080985340000064
和yl转置后堆叠得到矩阵X3和行向量y,然后通过传统的最小二乘法求解投影向量p3,即: 
arg min p 3 | | y - p 3 T X 3 | | 2 - - - ( 1 )
为了提高回归性能,本实施例中,在采用传统最小二乘法求解投影向量集的基础上引入了两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为 
arg min p 3 | | y - p 3 T X 3 | | 2 + α | | p 3 | | 2 + β p 3 T X 3 L X 3 T p 3 - - - ( 2 )
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,...,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 
Figure BDA0000080985340000067
记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达: 
min 1 2 Σ i , j ( y j - y j ) 2 W ij = 1 2 Σ i , j ( p 3 T x 3 i - p 3 T x 3 j ) 2 W ij
= Σ i p 3 T x 3 i D ii x 3 i T p 3 - Σ i , j p 3 T x 3 i W ij x 3 j T p 3
= p 3 T X 3 ( D - W ) X 3 T p 3 = p 3 T X 3 L X 3 T p 3
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和, L=D-W为拉普拉斯矩阵; 
然后对公式(2)中的p3求导,使其等于0,则可求得: 
p 3 = ( X 3 X 3 T + αI + β X 3 L X 3 T ) - 1 X 3 y T - - - ( 3 )
依此方法,假设p1和p3已知,求解p2;假设p3和p2已知,求解p1,待循环Tmax次,或相邻投影向量范数的差小于一定阈值时,即得到投影向量集合  P ^ = { p 1 , p 2 , p 3 } .
公式(2)引入两个正则项,其中引入待估计投影向量范数的平方用于降低估计方差,引入基于图的拉普拉斯约束,是使得同类的张量样本在投影空间中能够处于密集的区域,也就是回归后能够落入同一类别标记。 
所述步骤(1)中构建子集嵌入的方法具体是:将已知类别的原始训练数据分为N个子集 
Figure BDA0000080985340000073
每一个子集包含满足label(X)=λi条件的 
Figure BDA0000080985340000074
个训练样本,子集嵌入定义为 
Figure BDA0000080985340000075
带有类别信息的训练数据的子集被投影到N维子空间,N为所有行为的种类个数; 
然后对每个子集建立一个临时矩阵: 
M λ i = B 1 ( 1 ) B 2 ( 1 ) . . . B N ( 1 ) B 1 ( 2 ) B 2 ( 2 ) . . . B N ( 2 ) . . . . . . . . . . . . B 1 ( | D λ i | ) B 2 ( | D λ i | ) . . . B N ( | D λ i | ) ,
其中Bi(j)表示子集D(λi)中第j个训练样本于第i个两类分类器中的输出,将 
Figure BDA0000080985340000077
矩阵中每一列和的平均值作为子集D(λi)的一维嵌入 
Figure BDA0000080985340000078
中的每个对应元素。 
所述步骤(2)中,给定测试行为A,用行向量R(A)表示N个两类分类器的输出响应,测试行为的类别标记输入归为: 
arg max λ i R ( A ) SE ( D λ i ) T .
在本实施例中,采用留一法进行测试。Weizmann库包含9个人的10种行为,其中9个人共分为9组。假设8个人的所有行为已知,作为训练集,剩下的作为测试集。测试依次重复9次。对于测试行为A,行向量R(A)表示10个两类分类器的输出响应。将行向量R(A)与每一维的子集嵌入结果相乘,得到的最 大输出响应对应分类器所代表的正样本类别即是测试行为所判定的类别。 
图6和图7是采用本发明方法进行行为识别的视觉结果例图,其中图6是以弯腰(Bend)的原始行为数据作为例子,图7是以跑(Run)的原始行为数据作为例子,随机采样行为中的某一帧图像,左上角为输入的测试行为,右下角为输出响应最高与其最为接近的训练行为。采用本方法均能得到正确的结果。 
本发明通过以下实验对识别效果进行说明:实验在Weizmann库的前景行为数据、原始行为数据和显著行为数据上分别进行。对行为库中10种行为分别构建两类分类器,每个分类器对应于一个秩-1张量投影,训练子集嵌入后将张量表示的未知行为直接投影到嵌入空间,输出最高响应所对应的子集类别即为未知行为的类别标记。Weizmann库中9个人共分为9组。假设8个人的所有行为已知,作为训练集,对剩下行为者的所有行为进行识别。实验重复进行9次。比对方法采用背景技术中所提到的方法。 
在Weizmann库前景行为数据上的实验结果如表1所示。从表中可看出,本发明方法相较于凌等的方法准确率更高,与Wang和Suter的工作取得一样的总体识别率,高达100%。在Weizmann库原始行为数据和显著行为数据上的实验结果如表2所示。从表2中数据可以看出,在Weizmann库中原始行为数据上的实验,本发明方法的识别率比Weiland和Boyer以及Kellokumpu等人提出的方法均有一定幅度的提升,本发明方法还通过预处理提取显著行为数据,进一步提高行为识别率。 
表1 Weizmann库前景行为数据上的总体识别率%) 
Figure BDA0000080985340000081
表2 Weizmann库原始行为数据和显著行为数据上的总体识别率%) 
Figure BDA0000080985340000082
另外对本鲁棒性进行测试。如图5,Weizmann库从0-81度之间的不同视角拍摄了10个测试视频,并在不同场景下拍摄了10组不同形态的行走视频,具 体为从0度到81度每隔9度的视角变化和行为方式的不规则性,包含对角线直走(diagonal walk),牵着狗行走(walk with a dog),边走边甩包(walk and swinginga bag),带着衣服走(walk in a skirt),腿部发生遮挡(walk with the legs occludedpartially),梦游式行走(sleepwalk),跛行(limp walk),膝盖抬高走(walk withknees up)和携带公文包走(walk carrying a briefcase)。将Weizmann-I标准库中的所有行为作为训练集得到每种行为的秩-1张量投影,将鲁棒性测试行为作为测试张量样本与每个秩-1张量投影进行内积,取最高输出响应对应的行为类别作为最佳匹配结果,若最佳匹配行为不是“走”,寻求次佳匹配。表3记录了此次鲁棒性试验的测试结果。从表中数据可以看出,算法能够容忍小于54度的视角变化。在行为者携带东西或有目标依附的情况下(如带公文包、溜狗),“走”很容易错分为其它类型的行为。从测试结果可以得出,秩-1张量投影方法对视角变化、部分遮挡和不规则的行为方式具有一定的鲁棒性。 
表3 鲁棒性测试结果(角度和行为不规则性) 
Figure DEST_PATH_GDA0000096443810000091
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。 

Claims (7)

1.一种基于正则回归的秩-1张量投影的行为识别方法,其特征在于,包括以下步骤:
(1)训练过程:对已知行为类别的训练数据进行预处理,得到完整的前景行为数据、原始行为数据和显著行为数据,然后对上述数据采用One Vs All的策略对每种行为分别训练一个两类分类器,进而求得一个包括三个投影向量的投影向量集,通过投影向量集外积得到秩-1张量投影,将已知类别的训练行为按种类划分为多个子集,构建子集嵌入;
(2)识别过程:将测试数据输入到步骤(1)所得到的各个两类分类器,然后将所有两类分类器的输出响应组成行向量,将此行向量与步骤(1)所得到的每一维的子集嵌入结果相乘,找到相乘结果最大的行向量,其所对应的两类分类器所代表的正样本类别即是测试行为所判定的类别。
2.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中,所得到的前景行为数据、显著行为数据需进行空间归一化,使其大小相同。
3.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中,One Vs All的策略具体为:对某类别行为数据训练两类分类器,将属于此类别的行为数据作为正样本,反之为负样本,相应的类别标记分别为1和-1,将所有已知类别的训练样本接连成矩阵X,对应的类别标记接连成向量y,并且作为输入,求解投影向量,构建两类分类器。
4.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中,两类分类器所对应的投影向量集具体求解方法是:假设p1和p2已知,求解投影向量p3,首先随机初始化p1和p2,m3维向量x3则通过 
Figure FDA0000080985330000011
得到;给定一组已知类别的训练样本 
Figure FDA0000080985330000012
其中y为类别标记,且yl∈{-1,1},将所有训练样本投影到p1和p2的张量空间得到 将 
Figure FDA0000080985330000014
和yl转置后堆叠得到矩阵X3和行向量y,然后通过传统的最小二乘法求解投影向量p3,即:
Figure FDA0000080985330000015
5.根据权利要求4所述的基于正则回归的秩-1张量投影的行为识别方法, 其特征在于,所述步骤(1)中,采用传统最小二乘法求解投影向量p3时,引入两个正则项:一个是待估计投影向量范数的平方,另一个是基于图的拉普拉斯约束,得到优化公式为
Figure FDA0000080985330000021
其中α和β用来控制各正则项的影响幅度,L为拉普拉斯矩阵,其具体的计算方法为:在原始的张量空间中,建立一个无向图G,其中M个训练样本对应张量空间中的M个结点:X1,X2,..,XM,如果结点i和j距离相近且属于同一类别,则连接这两个结点,并赋予权值Wij=1;反之Wij=0,权矩阵 
Figure FDA0000080985330000022
记录了所有张量样本之间的几何和类别关系,然后采用如下公式表达:
Figure FDA0000080985330000023
Figure FDA0000080985330000024
Figure FDA0000080985330000025
其中D是一个对角矩阵,对角元素为权矩阵中所对应的列向量总和,L=D-W为拉普拉斯矩阵;
然后对公式(2)中的p3求导,使其等于0,则可求得:
Figure FDA0000080985330000026
依此方法,假设p1和p3已知,求解p2;假设p3和p2已知,求解p1,待循环Tmax次,或相邻投影向量范数的差小于一定阈值时,即得到投影向量集合 
Figure FDA0000080985330000027
6.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(1)中构建子集嵌入的方法具体是:将已知类别的原始训练数据分为N个子集 
Figure FDA0000080985330000028
每一个子集包含满足label(X)=λi条件的 
Figure FDA0000080985330000029
个训练样本,子集嵌入定义为 
Figure FDA00000809853300000210
带有类别信息的训练数据的子集被投影到N维子空间,N为所有行为的种类个数;
然后对每个子集建立一个临时矩阵:
Figure FDA00000809853300000211
其中Bi(j)表示子集D(λi)中第j个训练样本于第i个两类分类器中的输出,将 
Figure FDA0000080985330000031
矩阵中每一列和的平均值作为子集D(λi)的一维嵌入 
Figure FDA0000080985330000032
中的每个对应元素。
7.根据权利要求1所述的基于正则回归的秩-1张量投影的行为识别方法,其特征在于,所述步骤(2)中,给定测试行为A,用行向量R(A)表示N个两类分类器的输出响应,测试行为的类别标记输入归为:
Figure FDA0000080985330000033
CN 201110221826 2011-08-04 2011-08-04 一种基于正则回归的秩-1张量投影的行为识别方法 Active CN102289685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110221826 CN102289685B (zh) 2011-08-04 2011-08-04 一种基于正则回归的秩-1张量投影的行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110221826 CN102289685B (zh) 2011-08-04 2011-08-04 一种基于正则回归的秩-1张量投影的行为识别方法

Publications (2)

Publication Number Publication Date
CN102289685A true CN102289685A (zh) 2011-12-21
CN102289685B CN102289685B (zh) 2013-02-06

Family

ID=45336091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110221826 Active CN102289685B (zh) 2011-08-04 2011-08-04 一种基于正则回归的秩-1张量投影的行为识别方法

Country Status (1)

Country Link
CN (1) CN102289685B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605952A (zh) * 2013-10-27 2014-02-26 西安电子科技大学 基于拉普拉斯正则组稀疏的人体行为识别方法
CN104050361A (zh) * 2014-06-04 2014-09-17 杭州华亭科技有限公司 一种监狱服刑人员危险性倾向的智能分析预警方法
CN104504305A (zh) * 2014-12-24 2015-04-08 西安电子科技大学 监督基因表达数据分类方法
CN105957104A (zh) * 2016-04-22 2016-09-21 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于改进网络流图的多目标跟踪方法
CN106228129A (zh) * 2016-07-18 2016-12-14 中山大学 一种基于matv特征的人脸活体检测方法
CN108280466A (zh) * 2018-01-12 2018-07-13 西安电子科技大学 基于加权核范数最小化的极化sar特征分类方法
US11403550B2 (en) 2015-09-04 2022-08-02 Micro Focus Llc Classifier

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090316983A1 (en) * 2008-06-20 2009-12-24 Feng Han Real-Time Action Detection and Classification
CN101866429A (zh) * 2010-06-01 2010-10-20 中国科学院计算技术研究所 多运动目标动作行为识别的训练方法和识别方法
US20110064267A1 (en) * 2009-09-17 2011-03-17 Wesley Kenneth Cobb Classifier anomalies for observed behaviors in a video surveillance system
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090316983A1 (en) * 2008-06-20 2009-12-24 Feng Han Real-Time Action Detection and Classification
US20110064267A1 (en) * 2009-09-17 2011-03-17 Wesley Kenneth Cobb Classifier anomalies for observed behaviors in a video surveillance system
CN101866429A (zh) * 2010-06-01 2010-10-20 中国科学院计算技术研究所 多运动目标动作行为识别的训练方法和识别方法
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605952A (zh) * 2013-10-27 2014-02-26 西安电子科技大学 基于拉普拉斯正则组稀疏的人体行为识别方法
CN103605952B (zh) * 2013-10-27 2016-11-23 西安电子科技大学 基于拉普拉斯正则组稀疏的人体行为识别方法
CN104050361A (zh) * 2014-06-04 2014-09-17 杭州华亭科技有限公司 一种监狱服刑人员危险性倾向的智能分析预警方法
CN104050361B (zh) * 2014-06-04 2017-06-23 杭州华亭科技有限公司 一种监狱服刑人员危险性倾向的智能分析预警方法
CN104504305A (zh) * 2014-12-24 2015-04-08 西安电子科技大学 监督基因表达数据分类方法
CN104504305B (zh) * 2014-12-24 2018-03-06 西安电子科技大学 监督基因表达数据分类方法
US11403550B2 (en) 2015-09-04 2022-08-02 Micro Focus Llc Classifier
CN105957104A (zh) * 2016-04-22 2016-09-21 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于改进网络流图的多目标跟踪方法
CN106228129A (zh) * 2016-07-18 2016-12-14 中山大学 一种基于matv特征的人脸活体检测方法
CN106228129B (zh) * 2016-07-18 2019-09-10 中山大学 一种基于matv特征的人脸活体检测方法
CN108280466A (zh) * 2018-01-12 2018-07-13 西安电子科技大学 基于加权核范数最小化的极化sar特征分类方法
CN108280466B (zh) * 2018-01-12 2021-10-29 西安电子科技大学 基于加权核范数最小化的极化sar特征分类方法

Also Published As

Publication number Publication date
CN102289685B (zh) 2013-02-06

Similar Documents

Publication Publication Date Title
Masita et al. Deep learning in object detection: A review
Lee et al. Deep saliency with encoded low level distance map and high level features
Bazzani et al. Self-taught object localization with deep networks
CN104598890B (zh) 一种基于rgb‑d视频的人体行为识别方法
Soomro et al. Action recognition in realistic sports videos
Jiang et al. Recognizing human actions by learning and matching shape-motion prototype trees
Chakraborty et al. Selective spatio-temporal interest points
CN102289685B (zh) 一种基于正则回归的秩-1张量投影的行为识别方法
Sapienza et al. Learning discriminative space–time action parts from weakly labelled videos
Bregonzio et al. Fusing appearance and distribution information of interest points for action recognition
Zhang et al. Learning semantic scene models by object classification and trajectory clustering
Sultani et al. Human action recognition across datasets by foreground-weighted histogram decomposition
Yan et al. Beyond spatial pyramids: A new feature extraction framework with dense spatial sampling for image classification
Abdul-Azim et al. Human action recognition using trajectory-based representation
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
Yang et al. Object-aware dense semantic correspondence
CN104036255A (zh) 一种人脸表情识别方法
CN103605952B (zh) 基于拉普拉斯正则组稀疏的人体行为识别方法
CN107316053A (zh) 一种布料图像快速匹配检索方法
CN103065158A (zh) 基于相对梯度的isa模型的行为识别方法
CN103679142A (zh) 一种基于空间约束的目标人体识别方法
CN105654505B (zh) 一种基于超像素的协同跟踪算法和系统
CN106845375A (zh) 一种基于层级化特征学习的动作识别方法
CN104966075A (zh) 一种基于二维判别特征的人脸识别方法与系统
Vora et al. Iterative spectral clustering for unsupervised object localization

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210901

Address after: 510700 room 2001-1, floor 20, building F, No. 98, Xiangxue 8th Road, Huangpu District, Guangzhou, Guangdong Province (office only)

Patentee after: Guangzhou ziweiyun Technology Co.,Ltd.

Address before: 510006 Room 405, School of information science and technology, Sun Yat sen University, Guangzhou University City, Guangdong Province

Patentee before: SUN YAT-SEN University

TR01 Transfer of patent right