CN103136730B - 视频图像中内容的光流和轮廓特征动态结构融合方法 - Google Patents

视频图像中内容的光流和轮廓特征动态结构融合方法 Download PDF

Info

Publication number
CN103136730B
CN103136730B CN201310030401.7A CN201310030401A CN103136730B CN 103136730 B CN103136730 B CN 103136730B CN 201310030401 A CN201310030401 A CN 201310030401A CN 103136730 B CN103136730 B CN 103136730B
Authority
CN
China
Prior art keywords
sequence
matrix
feature
sigma
behavioral characteristics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310030401.7A
Other languages
English (en)
Other versions
CN103136730A (zh
Inventor
蔺广逢
朱虹
范引娣
张二虎
缪亚林
康晓兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201310030401.7A priority Critical patent/CN103136730B/zh
Publication of CN103136730A publication Critical patent/CN103136730A/zh
Application granted granted Critical
Publication of CN103136730B publication Critical patent/CN103136730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。

Description

视频图像中内容的光流和轮廓特征动态结构融合方法
技术领域
本发明属于视频监控图像处理技术领域,涉及一种视频图像中内容的光流和轮廓特征动态结构融合方法。
背景技术
近年来,基于内容分析的智能监控系统、视频检索、运动分析和高级人机交互的应用越来越多,要智能分析和识别目标,特征表征与认知是需要解决的关键问题,因为视频图像中特定内容的光流和轮廓表征的序列中的动态性和多样性,使得单一特征表征不充分,序列动态特征和结构融合难以描述和获取,不能显现特征的分辨特性,对于这种情况当前的方法无法进行特征的动态结构融合,进而无法更加准确的表征特定内容的特征。
发明内容
本发明的目的是提供一种视频图像中内容的光流和轮廓特征动态结构融合方法,以解决现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。
本发明所采用的技术方案是,视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,具体按照以下步骤实施:
步骤1,特定内容的光流和轮廓特征描述
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0;
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标,
x c = Σ x Σ y x × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 1 )
y c = Σ x Σ y y × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份,在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向,光流或轮廓分别表征为90维的特征向量f1和f2
步骤2,光流和轮廓特征序列动态特征获取
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对光流特征序列进行奇异值分解得下式,
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( τ ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C1=U1    (4)
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵;
则光流特征的序列动态特征为
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对轮廓特征序列进行奇异值分解得下式,
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( τ ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中,U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C2=U2    (8)
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵;
则轮廓特征的序列动态特征为
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 A 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量
设视频数据集的数目为m,为光流的序列动态特征集,其中,的第m段视频序列的光流特征的序列动态特征;为轮廓的序列动态特征集,其中,的第m段视频序列的轮廓特征的序列动态特征;
(3.1)对光流特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 I - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] × [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] × [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 I - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] × [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] × [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射
定义特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式:
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
时,是近邻,当W1i,j=0时,不是近邻;
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
时,是近邻,当W2i,j=0时,不是近邻;
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T ;
Wi,j=W1i,j+W2i,j    (16)
其中,Wi,j为W矩阵在i行j列的元素;
可以通过以下两式求解,
(DU-WU)v=λDUv    (17)
(DV-WV)u=λDVu    (18)
其中, D U = Σ i D ii p i UU T p i T , D ii = Σ j W ij , W U = Σ i , j W ij p i UU T p i T , D v = Σ i D ii p i VV T p i T , v为求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud
求解U和V矩阵过程如下:
①设U为单位矩阵,求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,则
V=[v1,v2,...,vd]    (19)
②将V带入式(18),求解最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud,则
U=[u1,u2,...,ud]    (20)
再将U带入式(17)求解,重复以上①和②过程20次,最终求得U和V矩阵;
最终结构融合的特征为Y,
Y=UTPV    (21)。
本发明的有益效果是,通过本发明的针对视频图像中特定内容对象,分别描述光流和轮廓特征,在各自的特征序列上获取动态模型的不变参数组成特征向量空间,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征的方法,获得了分类判别能力强的特征表征,解决了现有的方法无法进行特征的动态结构融合,无法准确的表征特定内容特征的问题。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供了一种视频图像中内容特征动态结构融合方法,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,按照以下步骤实施:
步骤1,特定内容的光流和轮廓特征描述
光流和轮廓特征表征有多种方法,能充分表现空间点分布的特征为光流矢量起点和轮廓点分布直方图,因为其在特征描述时不仅考虑到相对距离,还考虑到了相关角度和空间位置分布信息。
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0;
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标:
x c = Σ x Σ y x × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 1 )
y c = Σ x Σ y y × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份。在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向。光流或轮廓分别表征为90维的特征向量f1和f2。为了保证尺度不变,向量除以向量的均值来归一化。因为参考点在光流或轮廓的非零信息点上,所以特征具有天然的平移不变性。
步骤2,光流和轮廓特征序列动态特征获取
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数,
对光流特征序列进行奇异值分解得下式,
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( τ ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C1=U1    (4)
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,D11=[00;Iτ-10],D12=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,
则光流特征的序列动态特征为
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数,对轮廓特征序列进行奇异值分解得下式,
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( τ ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C2=U2    (8)
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,D21=[00;Iτ-10],D22=[Iτ-10;00],Iτ-1为τ-1维单位矩阵,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,
则轮廓特征的序列动态特征为
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 A 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量
当一个视频数据集的数目为m时,为光流的序列动态特征集,其中的第m段视频序列的光流特征的序列动态特征;为轮廓的序列动态特征集,其中的第m段视频序列的轮廓特征的序列动态特征;因为P1和P2分别为向量空间的集合,所以各特征集的内在结构通过向量空间的距离进行度量;
(3.1)对光流特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 I - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] × [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] × [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 I - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] × [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] × [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射
定义特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式:
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
时,是近邻,当W1i,j=0时,不是近邻;
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
时,是近邻,当W2i,j=0时,不是近邻;
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T
Wi,j=W1i,j+W2i,j    (16)
其中,Wi,j为W矩阵在i行j列的元素;
可以通过以下两式求解,
(DU-WU)v=λDUv    (17)
(DV-WV)u=λDVu    (18)
其中, D U = Σ i D ii p i UU T p i T , D ii = Σ j W ij , W U = Σ i , j W ij p i UU T p i T , D v = Σ i D ii p i VV T p i T , v为求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud
求解U和V矩阵过程如下:
①最初设U为单位矩阵,求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,则
V=[v1,v2,...,vd]    (19)
②带入求解式(18)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud,则
U=[u1,u2,...,ud]    (20)
再带入求解式(17),重复以上①和②过程20次,最终求得U和V矩阵。
最终结构融合的特征为Y,
Y=UTPV    (21)。
本发明的方法首先通过全局建立相对极坐标和局部统计计数,对人体动作空间分布进行描述,获取了各个轮廓以及光流特征的空间结构,然后利用ARMA(自回归滑动平均)对各个特征的空间分布特征时序建立模型,分别获得模型参数特征,最后对模型参数计算动作相似矩阵,对相似矩阵关系进行线性假设,建立统一的融合优化式,求取结构融合参数,识别时直接利用融合后的映射特征进行最近邻分类。
Weizmann人体动作数据库是被广泛应用到人体动作识别中的数据库之一,这个数据库包含了9个人执行的10个动作类(bend,jack,jump,pjump,run,side,skip,walk,wave1和wave2),一共93个视频序列。
参见表1,可看出本发明的方法在Weizmann人体动作数据库中的识别率达到了100%,高于现有的方法,即使对于容易混淆的jump和skip,仍然具有很好的识别精度,虽然这些动作在表面轮廓特征表征时很相近,但是运动光流特征和动态建模取得的时间结构有较大差异,所以本发明的方法达到了很好的识别率。
表1Weizmann数据库中不同特征的人体动作ARMA动态建模识别结果

Claims (1)

1.视频图像中内容特征动态结构融合方法,其特征在于,采用空间分布直方图特征描述光流和轮廓,提取各自特征序列的动态模型的不变参数构建动态特征,然后通过子空间度量的方法求出各自的结构表征,最后通过广义矩阵分解的方法求得融合结构,得出分类判别能力强的特征表征,具体按照以下步骤实施:
步骤1,特定内容的光流和轮廓特征描述
设I(x,y)为图像在点(x,y)处的像素值,其中,x和y分别表示点的横纵坐标,令有光流矢量起点坐标的图像像素值为1,有轮廓坐标的图像像素值为1,其它图像的像素值为0;
令c(xc,yc)为图像的重心,xc和yc分别是重心的横纵坐标,
x c = Σ x Σ y x × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 1 )
y c = Σ x Σ y y × I ( x , y ) Σ x Σ y I ( x , y ) - - - ( 2 )
特征表征为光流或轮廓空间点分布的特征,以距离重心c(xc,yc)最远光流或轮廓上非零信息点的欧氏距离为半径形成轮廓外接圆,外接圆的中心在重心c(xc,yc)上,以c(xc,yc)建立极坐标,在角度上分18等份,径向上分等5份,在外接圆上会形成90个区域,统计在每个区域上的非零信息点个数,根据角度从小到大和径向距离从小到大形成90维的向量,统计的起点为极坐标角度为0方向,光流或轮廓分别表征为90维的特征向量f1和f2
步骤2,光流和轮廓特征序列动态特征获取
(2.1)光流特征序列为{f1(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对光流特征序列进行奇异值分解得下式,
[ f 1 ( 1 ) , f 1 ( 2 ) , . . . , f 1 ( τ ) ] = U 1 S 1 V 1 T - - - ( 3 )
其中,U1、V1和S1分别为式(3)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C1=U1                (4)
A 1 = S 1 V 1 T D 11 V 1 ( V 1 T D 12 V 1 ) - 1 S 1 - 1 - - - ( 5 )
其中,C1和A1分别为光流特征序列的测量矩阵和转换矩阵,D11=[00;Iτ-1 0],D12=[Iτ-1 0;00],Iτ-1为τ-1维单位矩阵;
则光流特征的序列动态特征为
O 1 T = [ C 1 T , ( C 1 A 1 ) T , ( C 1 A 1 2 ) T , ( C 1 A 1 3 ) T , ( C 1 A 1 4 ) T , ( C 1 A 1 5 ) T ] - - - ( 6 ) ;
(2.2)轮廓特征序列为{f2(t)}1<t<τ,τ为视频序列的帧数,t为序列数;
对轮廓特征序列进行奇异值分解得下式,
[ f 2 ( 1 ) , f 2 ( 2 ) , . . . , f 2 ( τ ) ] = U 2 S 2 V 2 T - - - ( 7 )
其中,U2、V2和S2分别为式(7)左边奇异值分解的行正交矩阵、列正交矩阵和对角矩阵;
C2=U2            (8)
A 2 = S 2 V 2 T D 21 V 2 ( V 2 T D 22 V 2 ) - 1 S 2 - 1 - - - ( 9 )
其中,C2和A2分别为轮廓特征序列的测量矩阵和转换矩阵,D21=[00;Iτ-1 0],D22=[Iτ-1 0;00],Iτ-1为τ-1维单位矩阵;
则轮廓特征的序列动态特征为
O 2 T = [ C 2 T , ( C 2 A 2 ) T , ( C 2 C 2 2 ) T , ( C 2 A 2 3 ) T , ( C 2 A 2 4 ) T , ( C 2 A 2 5 ) T ] - - - ( 10 ) ;
步骤3,动态特征结构的度量
设视频数据集的数目为m,为光流的序列动态特征集,其中,的第m段视频序列的光流特征的序列动态特征;为轮廓的序列动态特征集,其中,的第m段视频序列的轮廓特征的序列动态特征;
(3.1)对光流特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T1i={t1i1,t1i2,...,t1i5}和R1j={r1j1,r1j2,...,r1j5},则有
d 1 ( O 1 i T , O 1 j T ) = | | B 1 T 1 i - B 1 R 1 j | | 2 - - - ( 11 )
其中, B 1 T 1 i = [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] × [ t 1 i 1 , t 1 i 2 , . . . , t 1 i 5 ] T , B 1 R 1 j = [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] × [ r 1 j 1 , r 1 j 2 , . . . , r 1 j 5 ] T ;
(3.2)对轮廓特征的序列动态特征度量,设的距离,两个子空间的标准正交基为T2i={t2i1,t2i2,...,t2i5}和R2j={r2j1,r2j2,...,r2j5},则有
d 2 ( O 2 i T , O 2 j T ) = | | B 2 T 2 i - B 2 R 2 j | | 2 - - - ( 12 )
其中, B 2 T 2 i = [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] × [ t 2 i 1 , t 2 i 2 , . . . , t 2 i 5 ] T , B 2 R 2 j = [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] × [ r 2 j 1 , r 2 j 2 , . . . , r 2 j 5 ] T ;
步骤4,动态特征结构融合映射
定义 P 1 = { O 11 T , O 12 T , . . . , O 1 m T } P 2 = { O 21 T , O 22 T , . . . , O 2 m T } 特征结构测度相似矩阵,以步骤3计算度量的相似矩阵为W1={W1i,j}和W2={W2i,j}(i=1,2,...,m j=1,2,...,m)如下式:
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 0 - - - ( 13 )
W 1 i , j = e - d 1 ( O 1 i T , O 1 j T ) 时,是近邻,当W1i,j=0时,不是近邻;
W 2 i , j = e - d 2 ( O 2 i T , O 2 j T ) 0 - - - ( 14 )
W 2 i , j = e - d 1 ( O 1 i T , O 1 j T ) 时,是近邻,当W2i,j=0时,不是近邻;
P = P 1 P 2 = [ p 1 , p 2 , . . . , p m ] - - - ( 15 )
其中, p i = O 1 i T O 2 i T ;
Wi,j=W1i,j+W2i,j               (16)
其中,Wi,j为W矩阵在i行j列的元素;
可以通过以下两式求解,
(DU-WU)v=λDUv             (17)
(DV-WV)u=λDVu             (18)
其中, D U = Σ i D ii p i UU T p i T , D ii = Σ j W ij , W U = Σ i , j W ij p i UU T p i T , D V = Σ i D ii p i VV T p i T , v为求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,u为求解式(18)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud
求解U和V矩阵过程如下:
①设U为单位矩阵,求解式(17)最小的d个广义特征值λ1<λ2<...<λd对应的特征向量v1,v2,...,vd,则
V=[v1,v2,...,vd]                (19)
②将V带入式(18),求解最小的d个广义特征值λ1<λ2<...<λd对应的特征向量u1,u2,...,ud,则
U=[u1,u2,...,ud]              (20)
再将U带入式(17)求解,重复以上①和②过程20次,最终求得U和V矩阵;
最终结构融合的特征为Y,
Y=UTPV                    (21)。
CN201310030401.7A 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法 Active CN103136730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310030401.7A CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310030401.7A CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Publications (2)

Publication Number Publication Date
CN103136730A CN103136730A (zh) 2013-06-05
CN103136730B true CN103136730B (zh) 2015-06-03

Family

ID=48496526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310030401.7A Active CN103136730B (zh) 2013-01-25 2013-01-25 视频图像中内容的光流和轮廓特征动态结构融合方法

Country Status (1)

Country Link
CN (1) CN103136730B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446601A (zh) * 2018-02-27 2018-08-24 东南大学 一种基于动静特征融合的人脸识别方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103412909B (zh) * 2013-08-01 2016-08-24 西北工业大学 一种基于特征融合的视频数据检索方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7558402B2 (en) * 2003-03-07 2009-07-07 Siemens Medical Solutions Usa, Inc. System and method for tracking a global shape of an object in motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《A novel contour descriptor for 2D shape matching and its application to image retrieval》;Xin Shu et al;《Image and Vision Computing》;20101129;第29卷(第4期);第286页右栏最后一段,第288页右栏第1-2段,摘要及图3 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446601A (zh) * 2018-02-27 2018-08-24 东南大学 一种基于动静特征融合的人脸识别方法
CN108446601B (zh) * 2018-02-27 2021-07-13 东南大学 一种基于动静特征融合的人脸识别方法

Also Published As

Publication number Publication date
CN103136730A (zh) 2013-06-05

Similar Documents

Publication Publication Date Title
CN110399909B (zh) 一种基于标签约束弹性网图模型的高光谱图像分类方法
WO2018107760A1 (zh) 一种用于行人检测的协同式深度网络模型方法
CN108549846B (zh) 一种结合运动特征和头肩结构的行人检测与统计方法
Li et al. Activity recognition using dynamic subspace angles
Han et al. SRAL: Shared representative appearance learning for long-term visual place recognition
CN104392241B (zh) 一种基于混合回归的头部姿态估计方法
CN104063719A (zh) 基于深度卷积网络的行人检测方法及装置
CN103699874B (zh) 基于surf流和lle稀疏表示的人群异常行为识别方法
CN102930302A (zh) 基于在线序贯极限学习机的递增式人体行为识别方法
CN103942568A (zh) 一种基于无监督特征选择的分类方法
CN105975932A (zh) 基于时间序列shapelet的步态识别分类方法
CN109409438B (zh) 基于ifcm聚类与变分推断的遥感影像分类方法
CN103065158A (zh) 基于相对梯度的isa模型的行为识别方法
CN103226713A (zh) 一种多视角行为识别方法
Yang et al. Visual tracking with long-short term based correlation filter
Li et al. Cluster naturalistic driving encounters using deep unsupervised learning
CN103020658B (zh) 二维图像中的物体识别方法
CN102663447A (zh) 基于判别相关分析的跨媒体检索方法
CN103218617A (zh) 一种多线性大间距的特征提取方法
CN105631469A (zh) 一种多层稀疏编码特征的鸟类图像识别方法
CN106127112A (zh) 基于dlle模型的数据降维与特征理解方法
Liu et al. Box aggregation for proposal decimation: Last mile of object detection
CN102289685A (zh) 一种基于正则回归的秩-1张量投影的行为识别方法
CN103136730B (zh) 视频图像中内容的光流和轮廓特征动态结构融合方法
Wang et al. R2-trans: Fine-grained visual categorization with redundancy reduction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant