CN103136730A - 视频图像中内容的光流和轮廓特征动态结构融合方法 - Google Patents

视频图像中内容的光流和轮廓特征动态结构融合方法 Download PDF

Info

Publication number
CN103136730A
CN103136730A CN2013100304017A CN201310030401A CN103136730A CN 103136730 A CN103136730 A CN 103136730A CN 2013100304017 A CN2013100304017 A CN 2013100304017A CN 201310030401 A CN201310030401 A CN 201310030401A CN 103136730 A CN103136730 A CN 103136730A
Authority
CN
China
Prior art keywords
sequence
matrix
feature
sigma
behavioral characteristics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100304017A
Other languages
English (en)
Other versions
CN103136730B (zh
Inventor
蔺广逢
朱虹
范引娣
张二虎
缪亚林
康晓兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201310030401.7A priority Critical patent/CN103136730B/zh
Publication of CN103136730A publication Critical patent/CN103136730A/zh
Application granted granted Critical
Publication of CN103136730B publication Critical patent/CN103136730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。

Description

视频图像中内容的光流和轮廓特征动态结构融合方法
技术领域
本发明属于视频监控图像处理技术领域,涉及一种视频图像中内容的光流和轮廓特征动态结构融合方法。 
背景技术
近年来,基于内容分析的智能监控系统、视频检索、运动分析和高级人机交互的应用越来越多,要智能分析和识别目标,特征表征与认知是需要解决的关键问题,因为视频图像中特定内容的光流和轮廓表征的序列中的动态性和多样性,使得单一特征表征不充分,序列动态特征和结构融合难以描述和获取,不能显现特征的分辨特性,对于这种情况当前的方法无法进行特征的动态结构融合,进而无法更加准确的表征特定内容的特征。 
发明内容
本发明的目的是提供一种视频图像中内容的光流和轮廓特征动态结构融合方法,以解决现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。 
本发明所采用的技术方案是,视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征。 
本发明的特点还在于,具体按照以下步骤实施: 
步骤1,特定内容的光流和轮廓特征描述 
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0; 
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标, 
x c = Σ x Σ y x × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 1 )
y c = Σ x Σ y y × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份,在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向,光流或轮廓分别表征为90维的特征向量f1和f2; 
步骤2,光流和轮廓特征序列动态特征获取 
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数; 
对光流特征序列进行奇异值分解得下式, 
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( &tau; ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 
C1=U1          (4) 
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵; 
则光流特征的序列动态特征为
Figure BDA000027789183000312
, 
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数; 
对轮廓特征序列进行奇异值分解得下式, 
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( &tau; ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中,U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 
C2=U2          (8) 
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵; 
则轮廓特征的序列动态特征为
Figure BDA000027789183000316
, 
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 A 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量 
设视频数据集的数目为m,
Figure BDA00002778918300032
为光流的序列动态特征集,其中,
Figure BDA00002778918300033
Figure BDA00002778918300034
的第m段视频序列的光流特征的序列动态特征; 
Figure BDA00002778918300035
为轮廓的序列动态特征集,其中,
Figure BDA00002778918300036
Figure BDA00002778918300037
的第m段视频序列的轮廓特征的序列动态特征; 
(3.1)对光流特征的序列动态特征度量,设
Figure BDA00002778918300038
Figure BDA00002778918300039
的距离, 
Figure BDA00002778918300041
Figure BDA00002778918300042
两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有 
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 i - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] &times; [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] &times; [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设
Figure BDA00002778918300044
Figure BDA00002778918300045
的距离, 
Figure BDA00002778918300047
Figure BDA00002778918300048
两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有 
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 i - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] &times; [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] &times; [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射 
定义 P 1 = { O 11 T , O 12 T , . . . , O 1 m T } P 2 = { O 21 T , O 22 T , . . . , O 2 m T } 特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式: 
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
Figure BDA000027789183000413
时,
Figure BDA000027789183000414
Figure BDA000027789183000415
是近邻,当W1i,j=0时,
Figure BDA000027789183000417
不是近邻; 
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
Figure BDA000027789183000419
时,
Figure BDA000027789183000420
Figure BDA000027789183000421
是近邻,当W2i,j=0时,
Figure BDA000027789183000423
不是近邻; 
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T ;
Wi,j=W1i,j+W2i,j             (16) 
其中,Wi,j为W矩阵在i行j列的元素; 
可以通过以下两式求解, 
(DU-WU)v=λDUv          (17) 
(DV-WV)u=λDVu          (18) 
其中, D U = &Sigma; i D ii p i UU T p i T , D ii = &Sigma; j W ij , W U = &Sigma; i , j W ij p i UU T p i T , D V = &Sigma; i D ii p i VV T p i T ,
Figure BDA00002778918300055
v为求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud; 
求解U和V矩阵过程如下: 
①设U为单位矩阵,求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,则 
V=[v1,v2,...,vd]          (19) 
②将V带入式(18),求解最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud,则 
U=[u1,u2,...,ud]          (20) 
再将U带入式(17)求解,重复以上①和②过程20次,最终求得U和V矩阵; 
最终结构融合的特征为Y, 
Y=UTPV          (21)。 
本发明的有益效果是,通过本发明的针对视频图像中特定内容对象,分别描述光流和轮廓特征,在各自的特征序列上获取动态模型的不变参数组成特征向量空间,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征的方 法,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。 
具体实施方式
下面结合具体实施方式对本发明进行详细说明。 
本发明提供了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,按照以下步骤实施: 
步骤1,特定内容的光流和轮廓特征描述 
光流和轮廓特征表征有多种方法,能充分表现空间点分布的特征为光流矢量起点和轮廓点分布直方图,因为其在特征描述时不仅考虑到相对距离,还考虑到了相关角度和空间位置分布信息。 
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0; 
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标: 
x c = &Sigma; x &Sigma; y x &times; I ( x , y ) &Sigma; x &Sigma; y I ( x , y ) - - - ( 1 )
y c = &Sigma; x &Sigma; y y &times; I ( x , y ) &Sigma; x &Sigma; y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流 或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份。在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向。光流或轮廓分别表征为90维的特征向量f1和f2。为了保证尺度不变,向量除以向量的均值来归一化。因为参考点在光流或轮廓的非零信息点上,所以特征具有天然的平移不变性。 
步骤2,光流和轮廓特征序列动态特征获取 
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数, 
对光流特征序列进行奇异值分解得下式, 
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( &tau; ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 
C1=U1          (4) 
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C1和A1分别为光流特征序列的测量矩阵和转换矩阵, 
则光流特征的序列动态特征为
Figure BDA00002778918300071
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数,对轮廓特征序列进行奇异值分解得下式, 
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( &tau; ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵; 
C2=U2          (8) 
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵, 
则轮廓特征的序列动态特征为
Figure BDA00002778918300081
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 A 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量 
当一个视频数据集的数目为m时,
Figure BDA00002778918300083
为光流的序列动态特征集,其中
Figure BDA00002778918300084
Figure BDA00002778918300085
的第m段视频序列的光流特征的序列动态特征; 
Figure BDA00002778918300086
为轮廓的序列动态特征集,其中
Figure BDA00002778918300087
Figure BDA00002778918300088
的第m段视频序列的轮廓特征的序列动态特征;因为P1和P2分别为向量空间的集合,所以各特征集的内在结构通过向量空间的距离进行度量; 
(3.1)对光流特征的序列动态特征度量,设
Figure BDA00002778918300089
Figure BDA000027789183000810
Figure BDA000027789183000811
的距离, 
Figure BDA000027789183000812
Figure BDA000027789183000813
两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有 
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 i - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] &times; [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] &times; [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设
Figure BDA000027789183000815
Figure BDA000027789183000817
的距离, 
Figure BDA000027789183000818
Figure BDA000027789183000819
两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有 
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 i - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] &times; [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] &times; [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射 
定义 P 1 = { O 11 T , O 12 T , . . . , O 1 m T } P 2 = { O 21 T , O 22 T , . . . , O 2 m T } 特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式: 
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
时,
Figure BDA00002778918300097
是近邻,当W1i,j=0时,
Figure BDA00002778918300098
Figure BDA00002778918300099
不是近邻; 
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
时,
Figure BDA000027789183000912
Figure BDA000027789183000913
是近邻,当W2i,j=0时,
Figure BDA000027789183000914
不是近邻; 
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T
Wi,j=W1i,j+W2i,j          (16) 
其中,Wi,j为W矩阵在i行j列的元素; 
可以通过以下两式求解, 
(DU-WU)v=λDUv          (17) 
(DV-WV)u=λDVu          (18) 
其中, D U = &Sigma; i D ii p i UU T p i T , D ii = &Sigma; j W ij , W U = &Sigma; i , j W ij p i UU T p i T , D V = &Sigma; i D ii p i VV T p i T ,
Figure BDA000027789183000922
v为求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud; 
求解U和V矩阵过程如下: 
①最初设U为单位矩阵,求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,则 
V=[v1,v2,...,vd]          (19) 
②带入求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud,则 
U=[u1,u2,...,ud]          (20) 
再带入求解式(17),重复以上①和②过程20次,最终求得U和V矩阵。 
最终结构融合的特征为Y, 
Y=UTPV          (21)。 
本发明的方法首先通过全局建立相对极坐标和局部统计计数,对人体动作空间分布进行描述,获取了各个轮廓以及光流特征的空间结构,然后利用ARMA(自回归滑动平均)对各个特征的空间分布特征时序建立模型,分别获得模型参数特征,最后对模型参数计算动作相似矩阵,对相似矩阵关系进行线性假设,建立统一的融合优化式,求取结构融合参数,识别时直接利用融合后的映射特征进行最近邻分类。 
Weizmann人体动作数据库是被广泛应用到人体动作识别中的数据库之一,这个数据库包含了9个人执行的10个动作类(bend,jack,jump,pjump,run,side,skip,walk,wave1和wave2),一共93个视频序列。 
参见表1,可看出本发明的方法在Weizmann人体动作数据库中的识别率达到了100%,高于现有的方法,即使对于容易混淆的jump和skip,仍然具有很好的识别精度,虽然这些动作在表面轮廓特征表征时很相近,但是运 动光流特征和动态建模取得的时间结构有较大差异,所以本发明的方法达到了很好的识别率。 
表1Weizmann数据库中不同特征的人体动作ARMA动态建模识别结果 
Figure BDA00002778918300111

Claims (2)

1.视频图像中内容特征动态结构融合方法,其特征在于,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征。
2.如权利要求1中的视频图像中内容特征动态结构融合方法,其特征在于,具体按照以下步骤实施:
步骤1,特定内容的光流和轮廓特征描述
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0;
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标,
x c = &Sigma; x &Sigma; y x &times; I ( x , y ) &Sigma; x &Sigma; y I ( x , y ) - - - ( 1 )
y c = &Sigma; x &Sigma; y y &times; I ( x , y ) &Sigma; x &Sigma; y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份,在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向,光流或轮廓分别表征为90维的特征向量f1和f2
步骤2,光流和轮廓特征序列动态特征获取
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对光流特征序列进行奇异值分解得下式,
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( &tau; ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C1=U1          (4)
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵;
则光流特征的序列动态特征为
Figure FDA00002778918200021
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对轮廓特征序列进行奇异值分解得下式,
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( &tau; ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中,U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C2=U2          (8)
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵;
则轮廓特征的序列动态特征为
Figure FDA00002778918200023
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 A 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量
设视频数据集的数目为m,为光流的序列动态特征集,其中,
Figure FDA00002778918200034
的第m段视频序列的光流特征的序列动态特征;
Figure FDA00002778918200035
为轮廓的序列动态特征集,其中,
Figure FDA00002778918200036
Figure FDA00002778918200037
的第m段视频序列的轮廓特征的序列动态特征;
(3.1)对光流特征的序列动态特征度量,设
Figure FDA00002778918200038
Figure FDA00002778918200039
Figure FDA000027789182000310
的距离,
Figure FDA000027789182000311
Figure FDA000027789182000312
两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 i - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] &times; [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] &times; [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设
Figure FDA000027789182000315
Figure FDA000027789182000316
的距离,
Figure FDA000027789182000317
Figure FDA000027789182000318
两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 i - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] &times; [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] &times; [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射
定义 P 1 = { O 11 T , O 12 T , . . . , O 1 m T } P 2 = { O 21 T , O 22 T , . . . , O 2 m T } 特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式:
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
Figure FDA000027789182000323
时,
Figure FDA000027789182000324
Figure FDA000027789182000325
是近邻,当W1i,j=0时,
Figure FDA000027789182000326
Figure FDA000027789182000327
不是近邻;
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
Figure FDA00002778918200042
时,
Figure FDA00002778918200043
Figure FDA00002778918200044
是近邻,当W2i,j=0时,
Figure FDA00002778918200045
Figure FDA00002778918200046
不是近邻;
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T ;
Wi,j=W1i,j+W2i,j          (16)
其中,Wi,j为W矩阵在i行j列的元素;
可以通过以下两式求解,
(DU-WU)v=λDUv          (17)
(DV-WV)u=λDVu          (18)
其中, D U = &Sigma; i D ii p i UU T p i T , D ii = &Sigma; j W ij , W U = &Sigma; i , j W ij p i UU T p i T , D V = &Sigma; i D ii p i VV T p i T ,
Figure FDA000027789182000412
v为求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud
求解U和V矩阵过程如下:
①设U为单位矩阵,求解式(17)最小的d个广义特征值λ12<...<λd对应的特征向量v1,v2,...,vd,则
V=[v1,v2,...,vd]          (19)
②将V带入式(18),求解最小的d个广义特征值λ12<...<λd对应的特征向量u1,u2,...,ud,则
U=[u1,u2,...,ud]          (20)
再将U带入式(17)求解,重复以上①和②过程20次,最终求得U和V矩阵;
最终结构融合的特征为Y,
Y=UTPV          (21)。
CN201310030401.7A 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法 Active CN103136730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310030401.7A CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310030401.7A CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Publications (2)

Publication Number Publication Date
CN103136730A true CN103136730A (zh) 2013-06-05
CN103136730B CN103136730B (zh) 2015-06-03

Family

ID=48496526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310030401.7A Active CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Country Status (1)

Country Link
CN (1) CN103136730B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103412909A (zh) * 2013-08-01 2013-11-27 西北工业大学 一种基于特征融合的视频数据检索方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446601B (zh) * 2018-02-27 2021-07-13 东南大学 一种基于动静特征融合的人脸识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208341A1 (en) * 2003-03-07 2004-10-21 Zhou Xiang Sean System and method for tracking a global shape of an object in motion
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208341A1 (en) * 2003-03-07 2004-10-21 Zhou Xiang Sean System and method for tracking a global shape of an object in motion
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIN SHU ET AL: "《A novel contour descriptor for 2D shape matching and its application to image retrieval》", 《IMAGE AND VISION COMPUTING》, vol. 29, no. 4, 29 November 2010 (2010-11-29), pages 286 - 294, XP028150030, DOI: 10.1016/j.imavis.2010.11.001 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103412909A (zh) * 2013-08-01 2013-11-27 西北工业大学 一种基于特征融合的视频数据检索方法
CN103412909B (zh) * 2013-08-01 2016-08-24 西北工业大学 一种基于特征融合的视频数据检索方法

Also Published As

Publication number Publication date
CN103136730B (zh) 2015-06-03

Similar Documents

Publication Publication Date Title
CN108549846B (zh) 一种结合运动特征和头肩结构的行人检测与统计方法
Li et al. Activity recognition using dynamic subspace angles
CN102034096B (zh) 基于自顶向下运动注意机制的视频事件识别方法
CN104063719A (zh) 基于深度卷积网络的行人检测方法及装置
Zheng et al. Prompt vision transformer for domain generalization
CN102663401B (zh) 一种图像特征提取和描述方法
CN102945517B (zh) 一种基于聚类分析的服装标准工时的数据挖掘方法
CN105046714A (zh) 一种非监督的基于超像素和目标发现机制的图像分割方法
CN105574642A (zh) 一种基于智能电网大数据的电价执行稽查方法
CN105975932A (zh) 基于时间序列shapelet的步态识别分类方法
CN105389326A (zh) 基于弱匹配概率典型相关性模型的图像标注方法
CN103699874A (zh) 基于surf流和lle稀疏表示的人群异常行为识别方法
CN103020658B (zh) 二维图像中的物体识别方法
Huang et al. Human action recognition based on self organizing map
CN102663447A (zh) 基于判别相关分析的跨媒体检索方法
CN104008394A (zh) 基于近邻边界最大的半监督高光谱数据降维方法
CN102930291B (zh) 用于图形图像的k近邻局部搜索遗传自动聚类方法
Chen et al. Robust vehicle detection and viewpoint estimation with soft discriminative mixture model
CN105447506A (zh) 一种基于区间分布概率特征的手势识别方法
CN107423697B (zh) 基于非线性融合深度3d卷积描述子的行为识别方法
CN109324595B (zh) 一种基于增量pca的工业监测数据分类方法
Yao RETRACTED ARTICLE: Deep learning analysis of human behaviour recognition based on convolutional neural network analysis
CN103136730B (zh) 视频图像中内容的光流和轮廓特征动态结构融合方法
CN102609733B (zh) 海量人脸库应用环境下的人脸快速识别方法
CN103177264A (zh) 基于视觉词典全局拓扑表达的图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant