CN103412907A - 一种改进的视频数据特征映射方法 - Google Patents
一种改进的视频数据特征映射方法 Download PDFInfo
- Publication number
- CN103412907A CN103412907A CN2013103326094A CN201310332609A CN103412907A CN 103412907 A CN103412907 A CN 103412907A CN 2013103326094 A CN2013103326094 A CN 2013103326094A CN 201310332609 A CN201310332609 A CN 201310332609A CN 103412907 A CN103412907 A CN 103412907A
- Authority
- CN
- China
- Prior art keywords
- centerdot
- video data
- features
- phi
- overbar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000017105 transposition Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
Description
技术领域
本发明涉及一种改进的视频数据特征映射方法,可以应用于视频数据特征映射问题的解决当中。
背景技术
在现实生活中,视频数据某种特征全部可以得到,但是另外一种特征却只能得到一部分,我们将全部都可以得到的特征称为视频数据的第一种特征,将只能得到一部分的特征称为视频数据的第二种特征。我们期望通过特征映射得到视频数据缺失的第二种特征。特征映射是指利用视频数据训练集中的两种特征,建立两种特征之间的映射关系,将用于测试的视频数据的第一种特征映射到第二种特征,从而得到测试视频数据缺失的第二种特征。传统的视频数据特征映射方法在建立映射关系时只利用了训练集中的两种特征,忽视了测试视频数据中所包含的第一种特征,在训练集包含的特征个数较少时难以达到满意的映射效果,所以我们提出了一种改进的视频数据特征映射方法,该方法在第一次将测试视频数据第一种特征映射到第二种特征后,从测试视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试的视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征映射到第二种特征上。
实验结果显示,利用改进的视频数据特征映射方法得到的第二种特征的分类准确率高于传统的视频数据特征映射方法得到的第二种特征的分类准确率。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种改进的视频数据特征映射方法,利用测试视频数据的特征信息,建立两种特征之间更完备的映射关系,提高视频数据特征映射方法得到的特征的分类准确率。
技术方案
一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
步骤2:利用
计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
所述W表示利用 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用 计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h;
其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P。
有益效果
本发明提出的一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。
本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
附图说明
图1:本发明方法的基本流程图
图2:本发明方法映射得到的测试视频数据第二种特征的分类准确率
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:AMD Athlon 64×2 5000+计算机、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows XP。我们用Matlab软件实现了本发明提出的方法。
本发明具体实施如下:
1、本发明流程图如附图1所示。实验中采用51个视频数据的BoW特征X1,X2,...,X51和BIS特征Y1,Y2,...,Y51作为训练集R1中的第一种特征和第二种特征,将1256个测试视频数据的BoW特征X52,X53,...,X1307作为测试视频数据的第一种特征;将
Y1,Y2,...,Y51写成矩阵形式
其中,R1表示51个视频数据特征Y1,Y2,...,Y51和特征X1,X2,...,X51构成的集合;y1,1,y1,2,...,y1,65表示Y1中的第1、2和第65个元素;y2,1,y2,2,...,y2,65表示Y2中的第1、2和第65个元素;y51,1,y51,2,...,y51,65表示Y51中的第1、2和第65个元素;
2、利用 计算矩阵Z的第h列元素y1,h,y2,h,...,y51,h的映射矩阵W和基函数φ(X1)φ(X2),…,φ(XN)中的参数μj和sj;
其中,y1,y2,...,y51表示矩阵Z中的一列元素;W表示利用 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,65表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,65表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(X51)=[φj(x51,j)];j=1,2,...,65表示X51中第j个元素的标号,x51,j表示X51中的第j个元素;65表示X1,X2,…,X51中元素的个数;
3、利用 计算1256个测试视频数据的特征Y52,Y53,...,Y1307的第h列元素y52,h,y53,h,...,y1307,h;
其中,X52,X53,...,X1307为1256个测试视频数据的第一种特征;
4、利用 计算X1,X2,...,X51和X52,X53,...,X1307之间每两个特征的相关性系数,利用 计算Y1,Y2,...,Y51和Y52,Y53,...,Y1307之间每两个特征的相关性系数,若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入集合R1;
其中,r(Xi,Xk)表示Xi和Xk的相关性系数;t=1,2,...,65;i=1,2,...,51;k=52,53,...,1307;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1=T2=0.5表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,65;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
5、将R1中视频数据的特征Y1,Y2,...,Y51,Yk和X1,X2,...,X51,Xk按照步骤1、步骤2和步骤3重新计算得到1256个测试视频数据的第二种特征Y′52,Y′53,...,Y′1307。
实验用1256个BIS特征Y′52,Y′53,...,Y′1307进行视频数据分类,计算分类准确率,分类算法采用KNN算法,KNN算法中K取值为1到10。作为对比,计算传统的视频数据特征映射方法得到的BIS特征Y52,Y53,...,Y1307的分类准确率。结果如图2所示,从图中可以看出,改进的视频数据特征映射方法得到的Y′52,Y′53,...,Y′1307的分类准确率为63.5%,传统的视频数据特征映射方法的得到的Y52,Y53,...,Y1307的分类准确率为56.5%,改进的视频数据特征映射方法的得到的Y′52,Y′53,...,Y′1307分类准确率比传统的视频数据特征映射方法得到的Y52,Y53,...,Y1307的分类准确率高7%。
Claims (1)
1.一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
步骤2:利用
计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
所述W表示利用 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用 计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h;
其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310332609.4A CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310332609.4A CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103412907A true CN103412907A (zh) | 2013-11-27 |
CN103412907B CN103412907B (zh) | 2016-09-28 |
Family
ID=49605919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310332609.4A Expired - Fee Related CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103412907B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866558A (zh) * | 2015-05-18 | 2015-08-26 | 中国科学院计算技术研究所 | 一种社交网络账号映射模型训练方法及映射方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894125A (zh) * | 2010-05-13 | 2010-11-24 | 复旦大学 | 一种基于内容的视频分类方法 |
US8140584B2 (en) * | 2007-12-10 | 2012-03-20 | Aloke Guha | Adaptive data classification for data mining |
-
2013
- 2013-08-01 CN CN201310332609.4A patent/CN103412907B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8140584B2 (en) * | 2007-12-10 | 2012-03-20 | Aloke Guha | Adaptive data classification for data mining |
CN101894125A (zh) * | 2010-05-13 | 2010-11-24 | 复旦大学 | 一种基于内容的视频分类方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866558A (zh) * | 2015-05-18 | 2015-08-26 | 中国科学院计算技术研究所 | 一种社交网络账号映射模型训练方法及映射方法和系统 |
CN104866558B (zh) * | 2015-05-18 | 2018-08-10 | 中国科学院计算技术研究所 | 一种社交网络账号映射模型训练方法及映射方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103412907B (zh) | 2016-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sellers et al. | A flexible regression model for count data | |
CN103617436A (zh) | 基于差分切片能量图和Gabor变换的微表情识别方法 | |
CN105701504B (zh) | 用于零样本学习的多模态流形嵌入方法 | |
Liu et al. | Sparse-gev: Sparse latent space model for multivariate extreme value time serie modeling | |
CN107491788A (zh) | 一种基于字典学习的零样本分类方法 | |
CN103745233A (zh) | 基于空间信息迁移的高光谱图像分类方法 | |
Nahar et al. | Addressing spatial dependence bias in climate model simulations—an independent component analysis approach | |
Pineda-Ríos et al. | Functional SAR models: With application to spatial econometrics | |
Irfan et al. | Hierarchy culture as a moderator on the relationship between work motivation and work commitment | |
CN104036519A (zh) | 基于图像块聚类和稀疏字典学习的分块压缩感知重构方法 | |
CN103455825A (zh) | 基于邻域聚类核的sar图像变化检测方法 | |
CN103412907B (zh) | 一种改进的视频数据特征映射方法 | |
CN103473308A (zh) | 基于最大间隔张量学习的高维多媒体数据分类方法 | |
CN103150709A (zh) | 一种基于伪牛顿法的四元数域彩色图像压缩感知恢复方法 | |
CN103413351B (zh) | 基于压缩感知理论的三维人脸快速重建方法 | |
CN102831621B (zh) | 一种基于频谱分析的视频显著性处理方法 | |
Mele | Poisson indices of segregation | |
Metters et al. | An investigation of the sensitivity of DEA to data errors | |
Tayal et al. | Computational Technologies in Materials Science | |
Abili et al. | Assessing the Readiness of the University to Establish the Lean Higher Education (Case Study: University of Tehran) | |
Babaeian et al. | Deriving and validating point spectrotransfer functions in VIS-NIR-SWIR range to estimate soil water retention | |
CN106570911A (zh) | 一种基于daisy描述子的脸部卡通画合成方法 | |
Singh et al. | Bayesian estimation of the exponential parameter under a multiply Type-II censoring scheme | |
CN105512677A (zh) | 基于Hash编码的遥感图像分类方法 | |
CN109165679A (zh) | 一种数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160928 Termination date: 20190801 |