CN103412907B - 一种改进的视频数据特征映射方法 - Google Patents
一种改进的视频数据特征映射方法 Download PDFInfo
- Publication number
- CN103412907B CN103412907B CN201310332609.4A CN201310332609A CN103412907B CN 103412907 B CN103412907 B CN 103412907B CN 201310332609 A CN201310332609 A CN 201310332609A CN 103412907 B CN103412907 B CN 103412907B
- Authority
- CN
- China
- Prior art keywords
- video data
- feature
- features
- centerdot
- overbar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000012360 testing method Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000017105 transposition Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
Description
技术领域
本发明涉及一种改进的视频数据特征映射方法,可以应用于视频数据特征映射问题的解决当中。
背景技术
在现实生活中,视频数据某种特征全部可以得到,但是另外一种特征却只能得到一部分,我们将全部都可以得到的特征称为视频数据的第一种特征,将只能得到一部分的特征称为视频数据的第二种特征。我们期望通过特征映射得到视频数据缺失的第二种特征。特征映射是指利用视频数据训练集中的两种特征,建立两种特征之间的映射关系,将用于测试的视频数据的第一种特征映射到第二种特征,从而得到测试视频数据缺失的第二种特征。传统的视频数据特征映射方法在建立映射关系时只利用了训练集中的两种特征,忽视了测试视频数据中所包含的第一种特征,在训练集包含的特征个数较少时难以达到满意的映射效果,所以我们提出了一种改进的视频数据特征映射方法,该方法在第一次将测试视频数据第一种特征映射到第二种特征后,从测试视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试的视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征映射到第二种特征上。
实验结果显示,利用改进的视频数据特征映射方法得到的第二种特征的分类准确率高于传统的视频数据特征映射方法得到的第二种特征的分类准确率。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种改进的视频数据特征映射方法,利用测试视频数据的特征信息,建立两种特征之间更完备的映射关系,提高视频数据特征映射方法得到的特征的分类准确率。
技术方案
一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,...,YN写成矩阵形式:
其中,R1表示N个视频数据特征Y1,Y2,...,YN和特征X1,X2,...,XN构成的集合;Y1,Y2,...,YN和X1,X2,...,XN表示N个视频数据的两种特征;y1,1,y1,2,...,y1,n表示Y1中的n个元素;y2,1,y2,2,...,y2,n表示Y2中的n个元素;yN,1,yN,2,...,yN,n表示YN中的n个元素;N表示训练集中视频数据个数,N>0;
步骤2:利用
计算矩阵Z的第h列元素y1,h,y2,h,...,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,...,n;y1,y2,...,yN表示矩阵Z中的一列元素;
所述W表示利用 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,...,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用 计算P个测试视频数据的特征YN+1,YN+2,...,YN+P的第h列元素yN+1,h,yN+2,h,...,yN+P,h;
其中,XN+1,XN+2,...,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>0;
步骤4:利用下式计算X1,X2,...,XN和XN+1,XN+2,...,XN+P中每两个特征的相关性系数r(Xi,Xk),
利用下式计算Y1,Y2,...,YN和YN+1,YN+2,...,YN+P中每两个特征的相关性系数r(Yi,Yk),
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,...,M;i=1,2,...,N;k=N+1,N+2,...,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,...,YN,Yk和X1,X2,...,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,...,Y′N+P。
有益效果
本发明提出的一种改进的视频数据特征映射方法,在第一次将测试视频数据的第一种特征映射到第二种特征后,从测试的视频数据第一种特征中选出与训练集中第一种特征最相关的特征加入到训练集中,同时从测试视频数据第二种特征中选出与训练集中第二种特征最相关的特征加入到训练集中,然后利用训练集中的特征重新计算映射关系,并利用映射关系重新将测试视频数据的第一种特征重新映射到第二种特征上,得到测试视频数据的第二种特征。
本发明提出的方法,能够利用测试视频数据的特征信息建立两种特征之间更完备的映射关系,将测试视频数据的第一种特征更准确地映射到第二种特征上,与传统的视频数据特征映射方法相比,可以提高测试视频数据第二种特征的分类准确率。
附图说明
图1:本发明方法的基本流程图
图2:本发明方法映射得到的测试视频数据第二种特征的分类准确率
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:AMD Athlon 64×2 5000+计算机、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows XP。我们用Matlab软件实现了本发明提出的方法。
本发明具体实施如下:
1、本发明流程图如附图1所示。实验中采用51个视频数据的BoW特征X1,X2,...,X51和BIS特征Y1,Y2,...,Y51作为训练集R1中的第一种特征和第二种特征,将1256个测试视频数据的BoW特征X52,X53,...,X1307作为测试视频数据的第一种特征;将
Y1,Y2,...,Y51写成矩阵形式
其中,R1表示51个视频数据特征Y1,Y2,...,Y51和特征X1,X2,...,X51构成的集合;y1,1,y1,2,...,y1,65表示Y1中的第1、2和第65个元素;y2,1,y2,2,...,y2,65表示Y2中的第1、2和第65个元素;y51,1,y51,2,...,y51,65表示Y51中的第1、2和第65个元素;
2、利用 计算矩阵Z的第h列元素y1,h,y2,h,...,y51,h的映射矩阵W和基函数φ(X1)φ(X2),…,φ(XN)中的参数μj和sj;
其中,y1,y2,...,y51表示矩阵Z中的一列元素;W表示利用 计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,...,65表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,...,65表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(X51)=[φj(x51,j)];j=1,2,...,65表示X51中第j个元素的标号,x51,j表示X51中的第j个元素;65表示X1,X2,…,X51中元素的个数;
3、利用 计算1256个测试视频数据的特征Y52,Y53,...,Y1307的第h列元素y52,h,y53,h,...,y1307,h;
其中,X52,X53,...,X1307为1256个测试视频数据的第一种特征;
4、利用 计算X1,X2,...,X51和X52,X53,...,X1307之间每两个特征的相关性系数,利用 计算Y1,Y2,...,Y51和Y52,Y53,...,Y1307之间每两个特征的相关性系数,若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入集合R1;
其中,r(Xi,Xk)表示Xi和Xk的相关性系数;t=1,2,...,65;i=1,2,...,51;k=52,53,...,1307;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1=T2=0.5表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,...,65;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
5、将R1中视频数据的特征Y1,Y2,...,Y51,Yk和X1,X2,...,X51,Xk按照步骤1、步骤2和步骤3重新计算得到1256个测试视频数据的第二种特征Y′52,Y′53,...,Y′1307。
实验用1256个BIS特征Y′52,Y′53,...,Y′1307进行视频数据分类,计算分类准确率,分类算法采用KNN算法,KNN算法中K取值为1到10。作为对比,计算传统的视频数据特征映射方法得到的BIS特征Y52,Y53,...,Y1307的分类准确率。结果如图2所示,从图中可以看出,改进的视频数据特征映射方法得到的Y′52,Y′53,...,Y′1307的分类准确率为63.5%,传统的视频数据特征映射方法的得到的Y52,Y53,...,Y1307的分类准确率为56.5%,改进的视频数据特征映射方法的得到的Y′52,Y′53,...,Y′1307分类准确率比传统的视频数据特征映射方法得到的Y52,Y53,...,Y1307的分类准确率高7%。
Claims (1)
1.一种改进的视频数据特征映射方法,其特征在于步骤如下:
步骤1:将训练集R1中的N个视频数据特征Y1,Y2,…,YN写成矩阵形式:
其中,R1表示N个视频数据特征Y1,Y2,…,YN和特征X1,X2,…,XN构成的集合;Y1,Y2,…,YN和X1,X2,…,XN表示N个视频数据的两种特征;y1,1,y1,2,…,y1,n表示Y1中的n个元素;y2,1,y2,2,…,y2,n表示Y2中的n个元素;yN,1,yN,2,…,yN,n表示YN中的n个元素;n∈[0,100000];N表示训练集中视频数据个数,N>0;
步骤2:利用
计算矩阵Z的第h列元素y1,h,y2,h,…,yN,h的映射矩阵W和基函数φ(X1),φ(X2),…,φ(XN)中参数μj和sj;其中,h=1,2,…,n;y1,y2,…,yN表示矩阵Z中的一列元素;
所述W表示利用计算得到的映射矩阵;上标T表示矩阵转置;φ(X1)=[φj(x1,j)],j=1,2,…,M表示X1中第j个元素的标号,x1,j表示X1中的第j个元素;φ(X2)=[φj(x2,j)],j=1,2,…,M表示X2中第j个元素的标号,x2,j表示X2中的第j个元素;φ(XN)=[φj(xN,j)];j=1,2,…,M表示XN中第j个元素的标号,xN,j表示XN中的第j个元素;M表示X1,X2,…,XN中元素的个数;
步骤3:利用计算P个测试视频数据的特征YN+1,YN+2,…,YN+P的第h列元素yN+1,h,YN+2,h,…,yN+P,h;
其中,XN+1,XN+2,…,XN+P为P个测试视频数据的第一种特征;P表示测试视频数据的个数,P>O;
步骤4:利用下式计算X1,X2,…,XN和XN+1,XN+2,…,XN+P中每两个特征的相关性系数r(Xi,Xk),
>
利用下式计算Y1,Y2,…,YN和YN+1,YN+2,…,YN+P中每两个特征的相关性系数r(Yi,Yk),
>
若r(Xi,Xk)>T1且r(Yi,Yk)>T2,则将Yk、Xk加入R1;
其中,r(Xi,Xk)表示视频数据特征Xi和Xk的相关性系数;t=1,2,…,M;i=1,2,…,N;k=N+1,N+2,…,N+P;xi,t表示Xi中第t个元素;表示Xi的均值;xk,t表示Xk中第t个元素;表示Xk的均值;T1,T2∈[-1,1]表示阈值;r(Yi,Yk)表示Yi和Yk的相关性系数;q=1,2,…,n;yi,q表示Yi中第q个元素;表示Yi的均值;yk,q表示Yk中第q个元素;表示Yk的均值;
步骤5:将R1中视频数据的特征Y1,Y2,…,YN,Yk和X1,X2,…,XN,Xk按照步骤1、步骤2和步骤3重新计算得到P个测试视频数据的特征Y′N+1,Y′N+2,…,Y′N+P。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310332609.4A CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310332609.4A CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103412907A CN103412907A (zh) | 2013-11-27 |
CN103412907B true CN103412907B (zh) | 2016-09-28 |
Family
ID=49605919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310332609.4A Expired - Fee Related CN103412907B (zh) | 2013-08-01 | 2013-08-01 | 一种改进的视频数据特征映射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103412907B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104866558B (zh) * | 2015-05-18 | 2018-08-10 | 中国科学院计算技术研究所 | 一种社交网络账号映射模型训练方法及映射方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894125A (zh) * | 2010-05-13 | 2010-11-24 | 复旦大学 | 一种基于内容的视频分类方法 |
US8140584B2 (en) * | 2007-12-10 | 2012-03-20 | Aloke Guha | Adaptive data classification for data mining |
-
2013
- 2013-08-01 CN CN201310332609.4A patent/CN103412907B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8140584B2 (en) * | 2007-12-10 | 2012-03-20 | Aloke Guha | Adaptive data classification for data mining |
CN101894125A (zh) * | 2010-05-13 | 2010-11-24 | 复旦大学 | 一种基于内容的视频分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103412907A (zh) | 2013-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ramakrishnan et al. | Habitat-matterport 3d dataset (hm3d): 1000 large-scale 3d environments for embodied ai | |
CN103065160B (zh) | 基于局部协同表示和邻域信息约束的高光谱图像分类方法 | |
CN102722866B (zh) | 基于主成份分析的压缩感知方法 | |
CN107437246A (zh) | 一种基于端到端全卷积神经网络的共同显著性检测方法 | |
CN103279959B (zh) | 一种二维分析稀疏模型、其字典训练方法和图像去噪方法 | |
CN105740790A (zh) | 基于多核字典学习的彩色人脸识别方法 | |
CN104657962A (zh) | 基于级联线性回归的图像超分辨重建方法 | |
CN103412907B (zh) | 一种改进的视频数据特征映射方法 | |
CN108898547A (zh) | 一种基于单样本的人脸图像虚拟样本扩充方法及系统 | |
Pineda-Ríos et al. | Functional SAR models: With application to spatial econometrics | |
CN107040775A (zh) | 一种基于局部特征的色调映射图像质量客观评价方法 | |
Fang et al. | Uncertainty learning in kernel estimation for multi-stage blind image super-resolution | |
CN104036519A (zh) | 基于图像块聚类和稀疏字典学习的分块压缩感知重构方法 | |
CN102930573B (zh) | 一种基于二维分析稀疏模型及其训练字典的图像重建方法 | |
Irfan et al. | Hierarchy culture as a moderator on the relationship between work motivation and work commitment | |
CN103150709A (zh) | 一种基于伪牛顿法的四元数域彩色图像压缩感知恢复方法 | |
CN103455825A (zh) | 基于邻域聚类核的sar图像变化检测方法 | |
Mele | Poisson indices of segregation | |
Li et al. | Double fused Lasso penalized LAD for matrix regression | |
Xiong et al. | Anisotropic Spherical Scattering Networks via Directional Spin Wavelet | |
CN103971132A (zh) | 应用二维非负稀疏偏最小二乘进行人脸识别的方法 | |
Metters et al. | An investigation of the sensitivity of DEA to data errors | |
CN113723233A (zh) | 一种基于分层时序多示例学习的学生学习参与度评估方法 | |
CN106570911A (zh) | 一种基于daisy描述子的脸部卡通画合成方法 | |
CN105321156A (zh) | 一种基于多元结构的图像复原方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160928 Termination date: 20190801 |