CN103412907A - 一种改进的视频数据特征映射方法 - Google Patents

一种改进的视频数据特征映射方法 Download PDF

Info

Publication number
CN103412907A
CN103412907A CN2013103326094A CN201310332609A CN103412907A CN 103412907 A CN103412907 A CN 103412907A CN 2013103326094 A CN2013103326094 A CN 2013103326094A CN 201310332609 A CN201310332609 A CN 201310332609A CN 103412907 A CN103412907 A CN 103412907A
Authority
CN
China
Prior art keywords
centerdot
video data
features
phi
overbar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103326094A
Other languages
English (en)
Other versions
CN103412907B (zh
Inventor
韩军伟
吉祥
郭雷
胡新韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201310332609.4A priority Critical patent/CN103412907B/zh
Publication of CN103412907A publication Critical patent/CN103412907A/zh
Application granted granted Critical
Publication of CN103412907B publication Critical patent/CN103412907B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明涉及一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。

Description

一种改进的视频数据特征映射方法
技术领域
本发明涉及一种改进的视频数据特征映射方法,可以应用于视频数据特征映射问题的解决当中。
背景技术
在现实生活中,视频数据某种特征全部可以得到,但是另外一种特征却只能得到一部分,我们将全部都可以得到的特征称为视频数据的第一种特征,将只能得到一部分的特征称为视频数据的第二种特征。我们期望通过特征映射得到视频数据缺失的第二种特征。特征映射是指利用视频数据训练集中的两种特征,建立两种特征之间的映射关系,将用于测试的视频数据的第一种特征映射到第二种特征,从而得到测试视频数据缺失的第二种特征。传统的视频数据特征映射方法在建立映射关系时只利用了训练集中的两种特征,忽视了测试视频数据中所包含的第一种特征,在训练集包含的特征个数较少时难以达到满意的映射效果,所以我们提出了一种改进的视频数据特征映射方法,该方法在第一次将测试视频数据第一种特征映射到第二种特征后,从测试视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试的视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征映射到第二种特征上。
实验结果显示,利用改进的视频数据特征映射方法得到的第二种特征的分类准确率高于传统的视频数据特征映射方法得到的第二种特征的分类准确率。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种改进的视频数据特征映射方法,利用测试视频数据的特征信息,建立两种特征之间更完备的映射关系,提高视频数据特征映射方法得到的特征的分类准确率。
技术方案
一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
Z = Y 1 Y 2 · · · Y N = y 1,1 , y 1,2 , · · · , y 1 , n y 2,1 , y 2,2 , · · · , y 2 , n · · · y N , 1 , y N , 2 , · · · , y N , n ;
其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;
Figure BDA00003607496900025
N表示训练集中视频数据个数,N>0;
步骤2:利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y N , h = W T φ ( X N )
计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
所述W表示利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y N , h = W T φ ( X N ) 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,
Figure BDA00003607496900032
xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用 y N + 1 , h = W T φ ( X N + 1 ) y N + 2 , h = W T φ ( X N + 2 ) · · · y N + P , h = W T φ ( X N + P ) 计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h
其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
r ( X i , X k ) = Σ t = 1 M [ ( x i , t - X ‾ i ) ] · [ ( x k , t - X ‾ k ) ] Σ t = 1 M ( x i , t - X ‾ i ) 2 Σ t = 1 M ( x k , t - X ‾ k ) 2 ;
利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
r ( Y i , Y k ) = Σ q = 1 n [ ( y i , q - Y ‾ i ) ] · [ ( y k , q - Y ‾ k ) ] Σ q = 1 n ( y i , q - Y ‾ i ) 2 Σ q = 1 n ( y k , q - Y ‾ k ) 2
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;
Figure BDA00003607496900036
表示Xi的均值;xk,t表示Xk中第t个元素;
Figure BDA00003607496900037
表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;
Figure BDA00003607496900038
表示Yi的均值;yk,q表示Yk中第q个元素;
Figure BDA00003607496900039
表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P
有益效果
本发明提出的一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。
本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
附图说明
图1:本发明方法的基本流程图
图2:本发明方法映射得到的测试视频数据第二种特征的分类准确率
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:AMD Athlon 64×2 5000+计算机、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows XP。我们用Matlab软件实现了本发明提出的方法。
本发明具体实施如下:
1、本发明流程图如附图1所示。实验中采用51个视频数据的BoW特征X1,X2,...,X51和BIS特征Y1,Y2,...,Y51作为训练集R1中的第一种特征和第二种特征,将1256个测试视频数据的BoW特征X52,X53,...,X1307作为测试视频数据的第一种特征;将
Y1,Y2,...,Y51写成矩阵形式 Z = Y 1 Y 2 · · · Y 51 = y 1,1 , y 1,2 , · · · , y 1 , 65 y 2,1 , y 2,2 , · · · , y 2 , 65 · · · y 51 , 1 , y 51 , 2 , · · · , y 51 , 65 ;
其中,R1表示51个视频数据特征Y1,Y2,...,Y51和特征X1,X2,...,X51构成的集合;y1,1,y1,2,...,y1,65表示Y1中的第1、2和第65个元素;y2,1,y2,2,...,y2,65表示Y2中的第1、2和第65个元素;y51,1,y51,2,...,y51,65表示Y51中的第1、2和第65个元素;
2、利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y 51 , h = W T φ ( X 51 ) 计算矩阵Z的第h列元素y1,h,y2,h,...,y51,h的映射矩阵W和基函数φ(X1)φ(X2),…,φ(XN)中的参数μj和sj
其中,
Figure BDA00003607496900058
y1,y2,...,y51表示矩阵Z中的一列元素;W表示利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y 51 , h = W T φ ( X 5 ) 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,65表示X1中第j个元素的标号,
Figure BDA00003607496900054
x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,65表示X2中第j个元素的标号,
Figure BDA00003607496900055
x2,j表示X2中的第j个元素;φ(X51)=[φj(x51,j)];j=1,2,...,65表示X51中第j个元素的标号,x51,j表示X51中的第j个元素;65表示X1,X2,…,X51中元素的个数;
3、利用 y 52 , h = W T φ ( X 52 ) y 53 , h = W T φ ( X 53 ) · · · y 1307 , h = W T φ ( X 1307 ) 计算1256个测试视频数据的特征Y52,Y53,...,Y1307的第h列元素y52,h,y53,h,...,y1307,h
其中,X52,X53,...,X1307为1256个测试视频数据的第一种特征;
4、利用 r ( X i , X k ) = Σ t = 1 65 [ ( x i , t - X ‾ i ) ] · [ ( x k , t - X ‾ k ) ] Σ t = 1 65 ( x i , t - X ‾ i ) 2 Σ t = 1 65 ( x k , t - X ‾ k ) 2 计算X1,X2,...,X51和X52,X53,...,X1307之间每两个特征的相关性系数,利用 r ( Y i , Y k ) = Σ q = 1 65 [ ( y i , q - Y ‾ i ) ] · [ ( y k , q - Y ‾ k ) ] Σ q = 1 65 ( y i , q - Y ‾ i ) 2 Σ q = 1 65 ( y k , q - Y ‾ k ) 2 计算Y1,Y2,...,Y51和Y52,Y53,...,Y1307之间每两个特征的相关性系数,若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入集合R1
其中,r(Xi,Xk)表示Xi和Xk的相关性系数;t=1,2,...,65;i=1,2,...,51;k=52,53,...,1307;xi,t表示Xi中第t个元素;
Figure BDA00003607496900063
表示Xi的均值;xk,t表示Xk中第t个元素;
Figure BDA00003607496900064
表示Xk的均值;T1=T2=0.5表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,65;yi,q表示Yi中第q个元素;
Figure BDA00003607496900066
表示Yi的均值;yk,q表示Yk中第q个元素;
Figure BDA00003607496900065
表示Yk的均值;
5、将R1中视频数据的特征Y1,Y2,...,Y51,Yk和X1,X2,...,X51,Xk按照步骤1、步骤2和步骤3重新计算得到1256个测试视频数据的第二种特征Y′52,Y′53,...,Y′1307
实验用1256个BIS特征Y′52,Y′53,...,Y′1307进行视频数据分类,计算分类准确率,分类算法采用KNN算法,KNN算法中K取值为1到10。作为对比,计算传统的视频数据特征映射方法得到的BIS特征Y52,Y53,...,Y1307的分类准确率。结果如图2所示,从图中可以看出,改进的视频数据特征映射方法得到的Y′52,Y′53,...,Y′1307的分类准确率为63.5%,传统的视频数据特征映射方法的得到的Y52,Y53,...,Y1307的分类准确率为56.5%,改进的视频数据特征映射方法的得到的Y′52,Y′53,...,Y′1307分类准确率比传统的视频数据特征映射方法得到的Y52,Y53,...,Y1307的分类准确率高7%。

Claims (1)

1.一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
Z = Y 1 Y 2 · · · Y N = y 1,1 , y 1,2 , · · · , y 1 , n y 2,1 , y 2,2 , · · · , y 2 , n · · · y N , 1 , y N , 2 , · · · , y N , n ;
其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
步骤2:利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y N , h = W T φ ( X N )
计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
所述W表示利用 y 1 , h = W T φ ( X 1 ) y 2 , h = W T φ ( X 2 ) · · · y N , h = W T φ ( X N ) 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,
Figure FDA00003607496800014
x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,
Figure FDA00003607496800015
x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,
Figure FDA00003607496800016
xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用 y N + 1 , h = W T φ ( X N + 1 ) y N + 2 , h = W T φ ( X N + 2 ) · · · y N + P , h = W T φ ( X N + P ) 计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h
其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
r ( X i , X k ) = Σ t = 1 M [ ( x i , t - X ‾ i ) ] · [ ( x k , t - X ‾ k ) ] Σ t = 1 M ( x i , t - X ‾ i ) 2 Σ t = 1 M ( x k , t - X ‾ k ) 2 ;
利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
r ( Y i , Y k ) = Σ q = 1 n [ ( y i , q - Y ‾ i ) ] · [ ( y k , q - Y ‾ k ) ] Σ q = 1 n ( y i , q - Y ‾ i ) 2 Σ q = 1 n ( y k , q - Y ‾ k ) 2
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;
Figure FDA00003607496800024
表示Xi的均值;xk,t表示Xk中第t个元素;
Figure FDA00003607496800025
表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;
Figure FDA00003607496800026
表示Yi的均值;yk,q表示Yk中第q个元素;
Figure FDA00003607496800027
表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P
CN201310332609.4A 2013-08-01 2013-08-01 一种改进的视频数据特征映射方法 Expired - Fee Related CN103412907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310332609.4A CN103412907B (zh) 2013-08-01 2013-08-01 一种改进的视频数据特征映射方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310332609.4A CN103412907B (zh) 2013-08-01 2013-08-01 一种改进的视频数据特征映射方法

Publications (2)

Publication Number Publication Date
CN103412907A true CN103412907A (zh) 2013-11-27
CN103412907B CN103412907B (zh) 2016-09-28

Family

ID=49605919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310332609.4A Expired - Fee Related CN103412907B (zh) 2013-08-01 2013-08-01 一种改进的视频数据特征映射方法

Country Status (1)

Country Link
CN (1) CN103412907B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866558A (zh) * 2015-05-18 2015-08-26 中国科学院计算技术研究所 一种社交网络账号映射模型训练方法及映射方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894125A (zh) * 2010-05-13 2010-11-24 复旦大学 一种基于内容的视频分类方法
US8140584B2 (en) * 2007-12-10 2012-03-20 Aloke Guha Adaptive data classification for data mining

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140584B2 (en) * 2007-12-10 2012-03-20 Aloke Guha Adaptive data classification for data mining
CN101894125A (zh) * 2010-05-13 2010-11-24 复旦大学 一种基于内容的视频分类方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866558A (zh) * 2015-05-18 2015-08-26 中国科学院计算技术研究所 一种社交网络账号映射模型训练方法及映射方法和系统
CN104866558B (zh) * 2015-05-18 2018-08-10 中国科学院计算技术研究所 一种社交网络账号映射模型训练方法及映射方法和系统

Also Published As

Publication number Publication date
CN103412907B (zh) 2016-09-28

Similar Documents

Publication Publication Date Title
Sellers et al. A flexible regression model for count data
CN103617436A (zh) 基于差分切片能量图和Gabor变换的微表情识别方法
CN105701504B (zh) 用于零样本学习的多模态流形嵌入方法
Liu et al. Sparse-gev: Sparse latent space model for multivariate extreme value time serie modeling
CN107491788A (zh) 一种基于字典学习的零样本分类方法
CN103745233A (zh) 基于空间信息迁移的高光谱图像分类方法
Nahar et al. Addressing spatial dependence bias in climate model simulations—an independent component analysis approach
Pineda-Ríos et al. Functional SAR models: With application to spatial econometrics
Irfan et al. Hierarchy culture as a moderator on the relationship between work motivation and work commitment
CN104036519A (zh) 基于图像块聚类和稀疏字典学习的分块压缩感知重构方法
CN103455825A (zh) 基于邻域聚类核的sar图像变化检测方法
CN103412907B (zh) 一种改进的视频数据特征映射方法
CN103473308A (zh) 基于最大间隔张量学习的高维多媒体数据分类方法
CN103150709A (zh) 一种基于伪牛顿法的四元数域彩色图像压缩感知恢复方法
CN103413351B (zh) 基于压缩感知理论的三维人脸快速重建方法
CN102831621B (zh) 一种基于频谱分析的视频显著性处理方法
Mele Poisson indices of segregation
Metters et al. An investigation of the sensitivity of DEA to data errors
Tayal et al. Computational Technologies in Materials Science
Abili et al. Assessing the Readiness of the University to Establish the Lean Higher Education (Case Study: University of Tehran)
Babaeian et al. Deriving and validating point spectrotransfer functions in VIS-NIR-SWIR range to estimate soil water retention
CN106570911A (zh) 一种基于daisy描述子的脸部卡通画合成方法
Singh et al. Bayesian estimation of the exponential parameter under a multiply Type-II censoring scheme
CN105512677A (zh) 基于Hash编码的遥感图像分类方法
CN109165679A (zh) 一种数据处理方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160928

Termination date: 20190801