CN102938070A - 一种基于动作子空间与权重化行为识别模型的行为识别方法 - Google Patents

一种基于动作子空间与权重化行为识别模型的行为识别方法 Download PDF

Info

Publication number
CN102938070A
CN102938070A CN201210345589XA CN201210345589A CN102938070A CN 102938070 A CN102938070 A CN 102938070A CN 201210345589X A CN201210345589X A CN 201210345589XA CN 201210345589 A CN201210345589 A CN 201210345589A CN 102938070 A CN102938070 A CN 102938070A
Authority
CN
China
Prior art keywords
behavior recognition
behavior
rightarrow
kernel
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201210345589XA
Other languages
English (en)
Other versions
CN102938070B (zh
Inventor
王智文
刘美珍
夏冬雪
蔡启先
李绍滋
唐新来
罗功坤
阳树洪
廖志高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201210345589.XA priority Critical patent/CN102938070B/zh
Publication of CN102938070A publication Critical patent/CN102938070A/zh
Application granted granted Critical
Publication of CN102938070B publication Critical patent/CN102938070B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于动作子空间与权重化行为识别模型的行为识别方法,包括以下步骤:A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。实验结果表明,提出的框架不仅能够准确地识别随时间、区域内外人员变化的人类行为,而且对噪声和其它影响因素鲁棒性强。

Description

一种基于动作子空间与权重化行为识别模型的行为识别方法
技术领域
本发明涉及的是一种基于动作子空间与权重化行为识别模型的行为识别方法。
背景技术
人类行为识别有着广泛的应用前景,如视频监控和监测、对象视频摘要、智能接口、人机交互、体育视频分析、视频检索等。吸引了越来越多计算机视觉研究者的关注。通常,行为识别涉及两个重要问题。其一是如何从原始视频数据中提取有用的运动信息,其二是如何建立运动参考模型,使训练和识别方法能有效地处理空间和时间尺度变化的类内类似行为。
行为识别可以利用各种线索,例如,关键姿势、光流、局部描述符、运动轨迹或特征跟踪、轮廓等。但是使用关键帧缺乏运动信息。根据光流或兴趣点的行为识别在平滑的表面,运动奇异性和低质量的视频情况下是不可靠的。由于人体外表和关节出现大的变化,特征跟踪也并非容易实现。
由于人类行为是一种时空行为,时空模型(如Hidden Markov Models,HMMs及其变种)已被广泛用于人体动作建模。然而,该生成模型通常使用了强烈的独立性假设,这使得它很难适应多种复杂的特征或观测中的远距离依赖关系。由Lafferty提出的条件随机场模型(CRFs)避免观察之间的独立性假设,同时将复杂的特征和远距离依赖关系融合进模型中。
参考文献:
[1]S.Wang,Q.Ariadna,L.P.Morency,et al.Hidden conditional random fieldsfor gesture recognition[C].CVPR,US:New York,2006,2:1521-1527.
[2]Z.W.Wang,S.Z.Li,S.Z.Su,et al.A quickly-speed running watermarkingalgorithm based on quantum evolutionary algorithm[J].Journal ofOptoelectronics Laser,2010,21(5):737-742.
[3]G.V.Veres,L.Gordon,J.N.Carter,et al.What image information is importantin silhouette-based gait recognition?[C].CVPR,US:Washington,DC,2004,2:776-782.
[4]Y.Dedeoglu,B.U.
Figure BSA00000778997700021
U.Güdükbay,et al.Silhouette-based method forobject classification and human action recognition in video[C].ECCV 2006Workshop on HCI,Austria:Graz,2006:64-77.
[5]L.wang,d.suter.Recognizing Human Activities from Silhouettes:MotionSubspace and Factorial Discriminative Graphical Model[C].US:Minneapolis,MN,CVPR,2007:1-8.
[6]C.Schuldt,I.Laptev,and B.Caputo.Recognizing human actions:a localSVM approach[C].ICPR,UK:Cambridge,2004,3:32-36.
[7]N.Nguyen,D.Phung,S.Venkatesh,et al.Learning and detecting activitiesfrom movement trajectories using the hierarchical hidden Markov models[C],CVPR,US:San Diego,CA,2005,2:955-960.
[8]J.Ben-Arie,Z.Wang,P.Pandit,et al.Human activity recognition usingmultidimensional indexing[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2002,24(8):1091-1104.
[9]A.Bobick and J.Davis,The recognition of human movement using temporaltemplates[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(3):257-267.
[10]L.Gorelick,M.Blank,E.Shechtman,et al.Action as space-time shapes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(12):2247-2253.
[11]M.Brand,N.0liver and A.Pentland.Coupled hidden Markov models for complexaction recognition[C].CVPR,US:San Juan,PR,1997:994-999.
[12]C.Sutton,A.McCallum,K.Rohanimanesh.Dynamic conditional random fields:Factorized probabilistic models for labeling and segmenting sequence data[J].Journal of Machine Learning Research,2007,8:693-723.
[13]B.Scholkopf,A.Smola,and K.Muller.Nonlinear component analysis as akernel eigenvalue problem[J].Neural Computation,1998,10(5):1299-1319.
[14]J.C.Niebles,H.C.Wang,F.F.Li.Unsupervised learning of human actioncategories using spatial-temporal words[J].International Journal of ComputerVision,2008,79(3):299-318.
[15]A.Veeraraghavan,R.Chellappa,and A.K.Roy-Chowdhury,The function spaceof an activity[C].CVPR,US:New York,2006,1:959-966.
发明内容
本发明在此基础上提出了具有联合判别学习能力的基于动作子空间与权重化行为识别模型的行为识别方法。使用KPCA来发现关节动作空间的内在结构,并利用权重化条件随机场从简单的轮廓观察中识别人类行为。实验结果证明了提出方法的有效性和鲁棒性。
本发明的技术方案如下:
一种基于动作子空间与权重化行为识别模型的行为识别方法,包括以下步骤:A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。
所述的行为识别方法,所述步骤A2具体方法为,等距划分每个轮廓图像为h×w个互不重叠的子块;然后用Ni=b(i)/mv,i=1,2,…,h×w计算每个子块的归一化值,其中,b(i)是第i个分块的前景像素数目,mv是所有b(i)的最大值;在
Figure BSA00000778997700031
空间中,第t帧的轮廓描述符是ft=[N1,N2,…,Nh×w]T,整个视频相应表示为vf={f1,f2,…fT}。
所述的行为识别方法,所述步骤A3具体方法为,设k是一个半正定核函数,通过式(1)定义两个向量
Figure BSA00000778997700041
Figure BSA00000778997700042
之间的非线性关系。
k ( x → i , x → j ) = ( φ ( x → i ) · φ ( x → j ) ) - - - ( 1 )
在H空间寻找主成分的系数问题可以归结为内核矩阵κ的对角化:
γλ e → = κ e → - - - ( 2 )
其中, κ ij = k ( x → i , x → j ) , e → = [ e 1 , e 2 , · · · , e γ ] T , 所以 Z = Σ i = 1 γ e i φ ( x → i ) .
将新点X映射到第j个主轴Zj可表示为:
( Z j · φ ( x → ) ) = Σ i = 1 γ e i j ( φ ( x → i ) · φ ( x → j ) ) = Σ i = 1 γ e i j k ( x → i , x → j ) - - - ( 3 )
实验中使用高斯核函数;
获得包括第一个d主成分的嵌入空间后,任何一个视频v可以被映射为d维特征空间的一个关联轨迹To={O1,O2,…,OT}。
所述的行为识别方法,所述步骤A4中所述的WCRF模型,利用下述方法进行行为建模:
设sl,t是L链的WCRF中链l在时间t的变量,隐状态的分布定义为:
p ( s → | o → ) = 1 Z ( o ) [ Π t = 1 T - 1 Π l = 1 l Φ l ( s l , t , s l , t + 1 , o → , t ) ]
(6)
[ Π t = 1 T Π l = 1 l - 1 Ψ l ( s l , t , s l + 1 , t , o → , t ) ]
其中,{Φl}是内链节点的隐函数,Ψl是链轮节点的隐函数,并根据特征{fk}和G的权重λk权重化这些隐函数:
Φ l ( · ) = exp [ Σ k λ k f k ( s l , t , s l , t + 1 , o → , t ) ]
(7)。
Ψ l ( · ) = exp [ Σ k λ k f k ( s l , t , s l + 1 , t , o → , t ) ]
该方法结合了基于特征提取的核主成分分析(KPCA)与基于运动建模的权重化条件随机场(WCRF)模型。通过非线性降维探讨了行为空间的基本结构,并在运动轨迹投影过程中保留清晰的时间顺序,使得轮廓数据表示更紧凑。WCRF通过多种交互途径对时间序列建模,从而提高了信息共享的联合精确度,具有超越生成模型的优势(如放宽观察之间独立性的假设,有效地将重叠的特征和远距离依存关系合并起来的能力)。实验结果表明,提出的框架不仅能够准确地识别随时间、区域内外人员变化的人类行为,而且对噪声和其它影响因素鲁棒性强。
附图说明
图1本发明为行为识别的框图;
图2为本发明中行走的轮廓序列和块特征表示图;
图3为线性链CRF的图形表示;
图4为共时标签的两链之间WCRF的图形表;
图5为行为数据集实例图像;文献[10]中的数据集如图5-1;文献[15]中的数据集图5-2;
图6为本发明的方法在不同噪声和不同噪声密度下的行为识别精度。
具体实施方式
以下结合具体实施例,对本发明进行详细说明。
1.1行为识别
本发明提出如图1所示的行为识别综合概率框架,该框架由高维图像空间的特征提取和描述、低维嵌入空间中的行为建模和识别两个模块组成。
训练过程:输入待训练的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;利用1.2.1介绍的方法提取运动目标的轮廓并对轮廓特征进行相应表示,其中轮廓特征可以表示为不同大小的块特征;利用KPCA算法在核引导子空间中对高维特征实现非线性降维(见1.2.2介绍),在低维空间中进行行为轨迹的映射;利用1.3.2介绍的方法对行为进行建模。
测试过程:输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;利用1.2.1介绍的方法提取运动目标的轮廓并对轮廓特征进行相应表示,其中轮廓特征可以表示为不同大小的块特征;利用KPCA算法在核引导子空间中对高维特征实现非线性降维(见1.2.2介绍),在低维空间中进行行为轨迹的映射;利用本发明介绍的行为识别模型——WCRF模型进行行为识别。
1.2.特征选择
对成功的行为识别模型而言,信息特征的选择是至关重要的。本发明选择运动目标的轮廓特征作为基本的输入,并通过非线性降维方式来更紧凑地表示行为。
1.2.1.轮廓提取和表示
给定一个T帧的行为视频v={I1,I2,…,IT},可从原始视频中获得与之相关的行为轮廓序列Ss={s1,s2,…,sT}。前景区域的大小和位置随运动目标与相机的距离、目标的大小和已经完成的行为变化。在保持轮廓宽高比的基础上,对轮廓图像进行中心化和归一化,使所产生的结果图像RI={R1,R2,…,RT}包含尽可能多的前景。在不使动作发生形变的情况下,所有输入帧有相同的维数ri×ci。归一化的轮廓图像如图2所示。如果以行扫描方式在
Figure BSA00000778997700061
空间用向量ri来表示原始轮廓图像Ri,整个视频将相应表示为vr={r1,r2,…,rT}。
为了提高计算效率,本发明等距划分每个轮廓图像为h×w个互不重叠的子块。然后用Ni=b(i)/mv,i=1,2,…,h×w计算每个子块的归一化值,其中,b(i)是第i个分块的前景像素数目,mv是所有b(i)的最大值。在
Figure BSA00000778997700062
空间中,第t帧的轮廓描述符是ft=[N1,N2,…,Nh×w]T,整个视频相应表示为vf={f1,f2,…fT}。事实上,原始轮廓表示vr可以被视为一种基于块特征的特例,即分块大小是1×1,一个像素。
1.2.2.非线性降维
为了获得紧凑的描述和有效的计算,本发明使用核主成分分析(Kernel PrincipleComponent Analysis,KPCA)算法进行非线性降维。主要考虑两个方面:1)KPCA提供了一种有效的子空间学习方法来发现“行为空间”的非线性结构。2)KPCA能简单地应用于任何新的数据点,而ISOMAP、LLE等非线性降维方法对如何描述新的数据点仍不清楚。
Figure BSA00000778997700071
空间中,给定一个M个元素的训练样本集Tx={X1,X2,…,XM},子空间学习的目的是在低维空间
Figure BSA00000778997700072
找到一个嵌入数据集Ey={Y1,Y2,…,YM}。对于核主成分分析方法而言,每一个矢量Xi首先通过
Figure BSA00000778997700073
被非线性映射到希尔伯特空间H中。然后,在H上主成分分析应用到映射数据Tφ={φ(X1),φ(X2),…,φ(XM)}。由于使用了“内核技巧”,这个映射过程根本不需要。设k是一个半正定核函数,通过式(1)定义两个向量
Figure BSA00000778997700074
Figure BSA00000778997700075
之间的非线性关系。
k ( x → i , x → j ) = ( φ ( x → i ) · φ ( x → j ) ) - - - ( 1 )
在腔间寻找主成分的系数问题可以归结为内核矩阵κ的对角化:
γλ e → = κ e → - - - ( 2 )
其中, κ ij = k ( x → i , x → j ) , e → = [ e 1 , e 2 , · · · , e γ ] T , 所以 Z = Σ i = 1 γ e i φ ( x → i ) .
将新点X映射到第j个主轴Zj可表示为:
( Z j · φ ( x → ) ) = Σ i = 1 γ e i j ( φ ( x → i ) · φ ( x → j ) ) = Σ i = 1 γ e i j k ( x → i , x → j ) - - - ( 3 )
实验中使用高斯核函数。
获得包括第一个d主成分的嵌入空间后,任何一个视频v可以被映射为d维特征空间的一个关联轨迹To={O1,O2,…,OT}。
1.3.行为建模与识别
CRFs的判别性质和基本的图形结构非常适合人体行为分析。本发明探讨在嵌入空间中用权重化的CRF来标签人类行为序列。
1.3.1.普通的条件随机场(CRF)
设G是一个建立在随机变量S和O数据集上的无向模型。设
Figure BSA000007789977000713
t=1,2,…T,S为观察序列O的标签序列。设
Figure BSA000007789977000714
是G中的类集,CRFs定义观察序列给定的状态(或标签)序列的条件概率为:
p θ ( s → | o → ) = 1 Z ( o ) Π c ∈ C Φ ( s → c , o → c ) - - - ( 4 )
其中,
Figure BSA00000778997700082
是所有状态序列的一个归一化因子,Φ是由特征集{fn}权重化的隐函数。
Φ ( s → c , o → c ) = exp [ Σ t = 1 T Σ n λ n f n ( s → c , o → c , t ) ] - - - ( 5 )
其中,模型参数θ={λn}是一个实权重集,每一个特征被赋予一个权重。
CRFs的一般框架如图3所示。其中一阶马尔科夫假设一般是在标签生成。因此,这种条件模型的类是节点和边,每个标签转换和每个标签的特征函数分别为
Figure BSA00000778997700084
Figure BSA00000778997700085
1.3.2.权重化条件随机场(WCRF)
动态CRFs是线性链CRFs的一般化,它是状态向量序列的结构和参数的重复。允许一个标签代表分布的隐状态和复杂的相互作用。WCRF具有标签线性链,如图4所示,这种线性链中的共时标签之间有连接,从而通过信息共享提高了联合准确性。WCRF同时完成关键姿势分类和行为分类。
设sl,t是L链的WCRF中链l在时间t的变量,隐状态的分布定义为:
p ( s → | o → ) = 1 Z ( o ) [ Π t = 1 T - 1 Π l = 1 l Φ l ( s l , t , s l , t + 1 , o → , t ) ]
(6)
[ Π t = 1 T Π l = 1 l - 1 Ψ l ( s l , t , s l + 1 , t , o → , t ) ]
其中,{Φl}是内链节点的隐函数,Ψl是链轮节点的隐函数,并根据特征{fk}和G的权重λk权重化这些隐函数:
Φ l ( · ) = exp [ Σ k λ k f k ( s l , t , s l , t + 1 , o → , t ) ]
(7)
Ψ l ( · ) = exp [ Σ k λ k f k ( s l , t , s l + 1 , t , o → , t ) ]
1.3.3.训练与推理
给定一个训练样本集
Figure BSA00000778997700091
参数θ={λn}可以通过优化以下条件对数似然函数来估计:
Ω ( θ ) = Σ i log p θ ( s → ( i ) | o → ( i ) ) - - - ( 8 )
式(8)对λk的导数是与类索引C相关的:
∂ Ω ∂ λ k = Σ i Σ t f k ( s → t , c ( i ) , o → ( i ) , t )
(9)
- Σ i Σ t Σ c ∈ C Σ s c p θ ( s → c ( i ) | o → t ( i ) ) f k ( s → t , c ( i ) , o → ( i ) , t )
其中,
Figure BSA00000778997700095
指在时间步长t,WCRF的类C中S的变量,范围分配到c。
一般来说,为了减少过度拟合,用惩罚似然函数来训练参数,即logp(θ|Tr)=Ω(θ)+logp(θ),p(θ)是参数的高斯先验
Figure BSA00000778997700097
这样,梯度变为:
∂ p ( θ | Tr ) ∂ λ k = ∂ Ω ∂ λ k - λ k ϵ 2 - - - ( 10 )
凸面函数可以通过许多技巧来优化,如拟牛顿优化方法。
通常情况下需要计算所有类
Figure BSA00000778997700099
的边缘概率
Figure BSA000007789977000910
和维特比解码
Figure BSA000007789977000911
前者用于参数估计,后者用来标记一个新的序列。
创建关键姿势数据集的基本点就是具体行为尽可能包括更多关键帧,同时,尽量使不同的行为之间的相互关键帧尽可能距离远。在整个数据集中,使用MDL(最小描述长度)规则来确定的关键姿势的数目K,并使用K-均值聚类算法来为训练过程获取这些关键姿势kp={p1,p2,…,pk}。
为了处理远距离的依存关系,本发明修改式(7)中的核函数包括一个窗口参数W,在时间t预测状态时,定义了要使用的过去和未来为式(11),并用权重化成对特征。其中,前者是分配的一个二元函数,而后者则是一个纯粹的输入特征函数。
Figure BSA00000778997700101
1.4.实验结果
使用文献[10]和[15]分别报道的两个数据库进行实验,如图5所示。其中,文献[10]中的数据集(图5-1)包括拾物、慢跑、推、下蹲、挥手、踢、侧弯、摔、转身、手机通话10种不同行为,是用来系统地检测行为识别实现的时间的影响;文献[15]中的数据集(图5-2)包括弯曲、开合跳、双腿并拢向前跳、原地双腿跳、跑、横跑、走、单手挥动、双手挥动、跳过10种不同行为,是用来系统地检测行为识别实现的时间和空间尺度变化的影响。实验中直接使用文献[10]和[15]获得的人的轮廓。先将所有轮廓图像中心和归一化到相同的尺寸(即64×48像素),并将它们表示为基于块特征的不同的分块大小(如8×8,4×4,1×1)。然后学习WCRFs来建模各个角度、远距离依赖关系的观测(如ω=0或1)。在监督识别率下,凭经验调节降维D和核主成分分析的核宽参数。采用留一法(leaving-one-out)来计算识别准确性整体无偏估计,将数据集分割成10个不相交的数据集,每个数据集含每一行为的一个实例。每次留一数据集用来测试,利用剩下的9个数据集来学习子空间和模型参数。因此,如果留出测试集中一个视频被正确地分类,它必须与不同人完成同样行为的视频具有很高的相似性。实验结果如表1所示。和其它方法比较实验结果如表2所示。
表1.使用WCRF方法行为分类的精度
Figure BSA00000778997700102
从表1中可以得出以下结论:1)动态轮廓变化对人类行为分析来说的确是有益的。2)提出的框架可以有效地识别由不同人以不同身体部位构建和不同运动方式及速度完成的行为。3)当子块大小增加时,识别正确率普遍下降,特别是子块大小为8×8。4)尽管计算过于密集,原始轮廓表示识别效果最好。这是因为它保留了充分的信息,而其它较大尺寸的基于块特征的方法丢失相当多的轮廓形状信息。引入一些离散误差是基于块的特征在实际应用中如何选择计算精度和计算开销之间较好的折中方法。5)在WCRF模型中引入远距离观测普遍提高了识别的准确率(表中粗体例外,可能是由于训练参数的过度拟合)。
表2.使用不同方法的行为分类
Figure BSA00000778997700111
从表2中可以看出:1)模板匹配方法性能最差。这可能是由于其对噪声特征的敏感性和无法获取时空转换;2)虽然计算开销大,但状态空间方法一般优于模板匹配方法;3)CRF和WCRF都具有比HMM更好的性能,这表明判别模型一般优于产生式模型;4)即使不考虑远距离的相关性,WCRF比CRF性能更好,这表明通过不同标签的序列之间的信息交流学习的共同判别的优势;5)CRF及WCRF性能随窗口大小的增加而得到改进,这表明结合远距离的依赖关系是有益的。
为了测试提出方法的鲁棒性,本发明往轮廓图像中加入各种人工合成噪声,以模拟损坏的轮廓。实验使用原始(未受噪声污染的)轮廓序列进行训练,用噪声污染的轮廓序列进行测试。行为识别结果如图6所示。从中可以看出提出的方法能够容忍相当程度的噪声(如25%)。这可能是因为WCRF的统计特性补偿了表示与识别的整体鲁棒性。
服装、遮挡和运动风格等因素对本发明提出方法的鲁棒性的影响实验结果如表3所示。表3总结包括最匹配的测试结果,从中可以看出,除了四个序列,其他所有测试序列是“走”动作的正确分类。这表明,在尺寸变化相当大,服装,部分遮挡,步行形式不规则的情况下该方法的识别准确率相对较低。
表3.其它因素影响下的鲁棒性评价
本发明介绍了基于动作子空间与权重化行为识别模型的行为识别的有效概率框架。该方法的创新之处在于两方面:a)特征提取和表示方面,本发明选择简单而易于提取的时空轮廓作为输入,并将它们嵌入到一个低维的内核空间;b)行为建模和识别方面,本发明提出在视觉领域第一次使用WCRF,与HMM和一般CRF比较表现出优势。提出的框架是不依赖于使用的特征,可以很容易地扩展到其它类型的视频行为分析。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (4)

1.一种基于动作子空间与权重化行为识别模型的行为识别方法,其特征在于,包括以下步骤:A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。
2.根据权利要求1所述的行为识别方法,其特征在于,所述步骤A2具体方法为,等距划分每个轮廓图像为h×w个互不重叠的子块;然后用Ni=b(i)/mv,i=1,2,…,h×w计算每个子块的归一化值,其中,b(i)是第i个分块的前景像素数目,mv是所有b(i)的最大值;在 
Figure FSA00000778997600011
空间中,第t帧的轮廓描述符是ft=[N1,N2,…,Nh×w]T,整个视频相应表示为vf={f1,f2,…fT}。
3.根据权利要求1所述的行为识别方法,其特征在于,所述步骤A3具体方法为,设k是一个半正定核函数,通过式(1)定义两个向量 
Figure FSA00000778997600012
和 
Figure FSA00000778997600013
之间的非线性关系。
Figure FSA00000778997600014
在H空间寻找主成分的系数问题可以归结为内核矩阵κ的对角化:
Figure FSA00000778997600015
其中, 所以
Figure FSA00000778997600018
将新点X映射到第j个主轴Zj可表示为:
实验中使用高斯核函数;
获得包括第一个d主成分的嵌入空间后,任何一个视频v可以被映射为d维特征空间的一个关联轨迹To={O1,O2,…,OT}。 
4.根据权利要求1所述的行为识别方法,其特征在于,所述步骤A4中所述的WCRF模型,利用下述方法进行行为建模:
设sl,t是L链的WCRF中链l在时间t的变量,隐状态的分布定义为:
Figure FSA00000778997600021
(6)
Figure FSA00000778997600022
其中,{Φl}是内链节点的隐函数,Ψl是链轮节点的隐函数,并根据特征{fk}和G的权重λk权重化这些隐函数:
Figure FSA00000778997600023
(7)。
Figure FSA00000778997600024
CN201210345589.XA 2012-09-11 2012-09-11 一种基于动作子空间与权重化行为识别模型的行为识别方法 Expired - Fee Related CN102938070B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210345589.XA CN102938070B (zh) 2012-09-11 2012-09-11 一种基于动作子空间与权重化行为识别模型的行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210345589.XA CN102938070B (zh) 2012-09-11 2012-09-11 一种基于动作子空间与权重化行为识别模型的行为识别方法

Publications (2)

Publication Number Publication Date
CN102938070A true CN102938070A (zh) 2013-02-20
CN102938070B CN102938070B (zh) 2016-05-18

Family

ID=47696965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210345589.XA Expired - Fee Related CN102938070B (zh) 2012-09-11 2012-09-11 一种基于动作子空间与权重化行为识别模型的行为识别方法

Country Status (1)

Country Link
CN (1) CN102938070B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103390278A (zh) * 2013-07-23 2013-11-13 中国科学技术大学 一种视频异常行为检测系统
CN103761533A (zh) * 2014-01-21 2014-04-30 南京信息工程大学 基于核鉴别线性表示的分类方法
CN103793914A (zh) * 2014-02-17 2014-05-14 沈阳工业大学 自适应参数的视频中静态背景提取与更新方法
CN104112112A (zh) * 2013-04-19 2014-10-22 华为技术有限公司 识别动作的方法及其装置
CN104537124A (zh) * 2015-01-28 2015-04-22 苏州德沃智能系统有限公司 多视图度量学习方法
CN104573665A (zh) * 2015-01-23 2015-04-29 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN104766051A (zh) * 2015-03-20 2015-07-08 北京交通大学 基于结构化的特征图的人体行为识别方法
CN104992168A (zh) * 2015-07-28 2015-10-21 中国科学院自动化研究所 一种基于图核的人体行为识别方法
CN107480695A (zh) * 2015-02-06 2017-12-15 安徽大学 一种物体轮廓检测识别方法
CN108197566A (zh) * 2017-12-29 2018-06-22 成都三零凯天通信实业有限公司 一种基于多路神经网络的监控视频行为检测方法
CN108765397A (zh) * 2018-05-22 2018-11-06 内蒙古农业大学 一种基于降维和特征空间构造的木材图像识别方法及装置
CN109165550A (zh) * 2018-07-13 2019-01-08 首都师范大学 一种基于无监督深度学习的多模态手术轨迹快速分割方法
CN112995331A (zh) * 2021-03-25 2021-06-18 绿盟科技集团股份有限公司 一种用户行为威胁检测方法、装置及计算设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425139A (zh) * 2008-11-05 2009-05-06 西安理工大学 一种视角无关的动作识别方法
CN101464952A (zh) * 2007-12-19 2009-06-24 中国科学院自动化研究所 基于轮廓的异常行为识别方法
CN101661554A (zh) * 2009-09-29 2010-03-03 哈尔滨工程大学 远距离视频下的正面人体自动身份识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464952A (zh) * 2007-12-19 2009-06-24 中国科学院自动化研究所 基于轮廓的异常行为识别方法
CN101425139A (zh) * 2008-11-05 2009-05-06 西安理工大学 一种视角无关的动作识别方法
CN101661554A (zh) * 2009-09-29 2010-03-03 哈尔滨工程大学 远距离视频下的正面人体自动身份识别方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112112A (zh) * 2013-04-19 2014-10-22 华为技术有限公司 识别动作的方法及其装置
CN103390278B (zh) * 2013-07-23 2016-03-09 中国科学技术大学 一种视频异常行为检测系统
CN103390278A (zh) * 2013-07-23 2013-11-13 中国科学技术大学 一种视频异常行为检测系统
CN103761533A (zh) * 2014-01-21 2014-04-30 南京信息工程大学 基于核鉴别线性表示的分类方法
CN103793914A (zh) * 2014-02-17 2014-05-14 沈阳工业大学 自适应参数的视频中静态背景提取与更新方法
CN103793914B (zh) * 2014-02-17 2017-05-24 沈阳工业大学 自适应参数的视频中静态背景提取与更新方法
CN104573665B (zh) * 2015-01-23 2017-10-17 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN104573665A (zh) * 2015-01-23 2015-04-29 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN104537124B (zh) * 2015-01-28 2018-08-07 苏州德沃智能系统有限公司 多视图度量学习方法
CN104537124A (zh) * 2015-01-28 2015-04-22 苏州德沃智能系统有限公司 多视图度量学习方法
CN107480695A (zh) * 2015-02-06 2017-12-15 安徽大学 一种物体轮廓检测识别方法
CN104766051A (zh) * 2015-03-20 2015-07-08 北京交通大学 基于结构化的特征图的人体行为识别方法
CN104766051B (zh) * 2015-03-20 2018-08-31 北京交通大学 基于结构化的特征图的人体行为识别方法
CN104992168A (zh) * 2015-07-28 2015-10-21 中国科学院自动化研究所 一种基于图核的人体行为识别方法
CN104992168B (zh) * 2015-07-28 2019-01-08 中国科学院自动化研究所 一种基于图核的人体行为识别方法
CN108197566A (zh) * 2017-12-29 2018-06-22 成都三零凯天通信实业有限公司 一种基于多路神经网络的监控视频行为检测方法
CN108197566B (zh) * 2017-12-29 2022-03-25 成都三零凯天通信实业有限公司 一种基于多路神经网络的监控视频行为检测方法
CN108765397A (zh) * 2018-05-22 2018-11-06 内蒙古农业大学 一种基于降维和特征空间构造的木材图像识别方法及装置
CN109165550A (zh) * 2018-07-13 2019-01-08 首都师范大学 一种基于无监督深度学习的多模态手术轨迹快速分割方法
CN109165550B (zh) * 2018-07-13 2021-06-29 首都师范大学 一种基于无监督深度学习的多模态手术轨迹快速分割方法
CN112995331A (zh) * 2021-03-25 2021-06-18 绿盟科技集团股份有限公司 一种用户行为威胁检测方法、装置及计算设备

Also Published As

Publication number Publication date
CN102938070B (zh) 2016-05-18

Similar Documents

Publication Publication Date Title
CN102938070B (zh) 一种基于动作子空间与权重化行为识别模型的行为识别方法
Wang et al. Recognizing human activities from silhouettes: Motion subspace and factorial discriminative graphical model
Alotaibi et al. Improved gait recognition based on specialized deep convolutional neural network
Vishwakarma A two-fold transformation model for human action recognition using decisive pose
Liu et al. Human action recognition using boosted EigenActions
Hu et al. Incremental tensor subspace learning and its applications to foreground segmentation and tracking
CN101350069B (zh) 从训练数据构建分类器并使用分类器检测在测试数据中的移动对象的计算机实现方法
Hu et al. Gait-based gender classification using mixed conditional random field
Kim et al. Contrastive adversarial learning for person independent facial emotion recognition
Wang et al. Visual learning and recognition of sequential data manifolds with applications to human movement analysis
CN103065158B (zh) 基于相对梯度的isa模型的行为识别方法
CN104915658B (zh) 一种基于情感分布学习的情感成分分析方法及其系统
Eleftheriadis et al. Joint facial action unit detection and feature fusion: A multi-conditional learning approach
Cai et al. Dspm: Dynamic structure preserving map for action recognition
Mogan et al. Gait-DenseNet: A Hybrid Convolutional Neural Network for Gait Recognition.
Chen et al. Multi-pose face ensemble classification aided by Gabor features and deep belief nets
Chang et al. Using gait information for gender recognition
CN115392474B (zh) 一种基于迭代优化的局部感知图表示学习方法
Turtinen et al. Contextual analysis of textured scene images.
Akilan Video foreground localization from traditional methods to deep learning
Patron-Perez et al. A Probabilistic Framework for Recognizing Similar Actions using Spatio-Temporal Features.
CN113887509A (zh) 一种基于图像集合的快速多模态视频人脸识别方法
Zhang et al. Transferring training instances for convenient cross-view object classification in surveillance
CN113591607A (zh) 一种车站智能疫情防控系统及方法
Ramanathan et al. Human body part detection using likelihood score computations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
DD01 Delivery of document by public notice

Addressee: Wang Zhiwen

Document name: Notification that Application Deemed not to be Proposed

C41 Transfer of patent application or patent right or utility model
CB02 Change of applicant information

Address after: 545006 Liuzhou City East District Road, central city, No. 268, No.

Applicant after: GUANGXI University OF SCIENCE AND TECHNOLOGY

Applicant after: Wang Zhiwen

Address before: 545006 the Guangxi Zhuang Autonomous Region East Ring Road, Liuzhou, No. 268

Applicant before: Guangxi University of Technology

Applicant before: Wang Zhiwen

COR Change of bibliographic data
TA01 Transfer of patent application right

Effective date of registration: 20151216

Address after: 545006 Liuzhou City East District Road, central city, No. 268, No.

Applicant after: GUANGXI University OF SCIENCE AND TECHNOLOGY

Address before: 545006 Liuzhou City East District Road, central city, No. 268, No.

Applicant before: Guangxi University of Science and Technology

Applicant before: Wang Zhiwen

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160518

Termination date: 20160911

CF01 Termination of patent right due to non-payment of annual fee