CN105279489B - 一种基于稀疏编码的视频指纹提取方法 - Google Patents

一种基于稀疏编码的视频指纹提取方法 Download PDF

Info

Publication number
CN105279489B
CN105279489B CN201510674150.5A CN201510674150A CN105279489B CN 105279489 B CN105279489 B CN 105279489B CN 201510674150 A CN201510674150 A CN 201510674150A CN 105279489 B CN105279489 B CN 105279489B
Authority
CN
China
Prior art keywords
sparse
video
dictionary
visual
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510674150.5A
Other languages
English (en)
Other versions
CN105279489A (zh
Inventor
徐杰
吴鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Xingyinian Intelligent Technology Co Ltd
Original Assignee
Chengdu Niujiena Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Niujiena Technology Co Ltd filed Critical Chengdu Niujiena Technology Co Ltd
Priority to CN201510674150.5A priority Critical patent/CN105279489B/zh
Publication of CN105279489A publication Critical patent/CN105279489A/zh
Application granted granted Critical
Publication of CN105279489B publication Critical patent/CN105279489B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/11Technique with transformation invariance effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种基于稀疏编码的视频指纹提取方法,先通过SURF算法对预选视频帧图像特征进行提取,得到训练特征点集,通过对训练特征点集进行稀疏处理,进而得到稀疏词典;再通过SURF算法对待处理视频进行稀疏编码,从而构建出视觉词典并统计出词频信息;最后对视频的每一帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。

Description

一种基于稀疏编码的视频指纹提取方法
技术领域
本发明属于视频指纹及数据检索技术领域,更为具体地讲,涉及一种基于稀疏编码的视频指纹提取方法。
背景技术
视频本身包含的图像内容具有独特的时间特性与空间特性,不同视频之间存在较大的差异,而对于同一视频遭受不同攻击,其时间特性与空间特性受影响较小,这种唯一性类似于人类的指纹特征,我们把视频的这种特征称之为“视频指纹”。视频指纹作为一门新兴的视频图像处理技术,对视频内容特征提取并加工处理,进而到唯一表示视频的目的。通过对比两段视频的“指纹序列”,可以寻找出视频之间的相似性与异己性,进而实现对视频进行版权保护及内容检测。对视频指纹的提取,避免了向数字媒体中嵌入信息,破坏原信息的完整性,且实时性与准确性较好。
自1999年Lowe提出SIFT(Scale Invariant Feature Transform)算法以来,人们可以通过在尺度空间中寻找极值点来获得图像的局部特征,这种局部特征具有良好的旋转、尺度以及仿射等不变性。2004年,Lowe针对SITF算法完善了其特征配准算法。2006年,Bay在Lowe的算法基础之上,融入积分图像以及Harr小波,其运算效率较SIFT略胜一筹。在此基础上,Bounch通过添加区分图像滤波器学习提取SURF特征点,进而对特征点采用多普图像增强来提高特征点的区分性;杜冬梅等人在原SURF算法基础上对积分图像算法改进来减少运算时间;Lee则通过结合ASURF(Advanced Spee-Up Robust Feature)以及DCD(Dominant Color Descriptor)来提升图像恢复效率。然而,在视频处理领域,往往面临着海量的数据处理,我们需要在提升指纹提取速率的同时依然维持结果的准确性以及鲁棒性,上述方法不能较好的满足这一需求。受生物信息学启发,本文尝试对SURF结果进行稀疏编码,从而只对少量的非零值进行存储计算来提升提取效率并降低存储开销。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于稀疏编码的视频指纹提取方法,采用SURF算法对视频帧图像特征进行提取,并使用ti-idf模型以及词频统计生成视频指纹,实现对视频的唯一表示。
为实现上述发明目的,本发明一种基于稀疏编码的视频指纹提取方法,其特征在于,包括以下步骤:
(1)、构建稀疏词典
(1.1)、利用SURF算法对预选的词典训练视频库进行提取特征点,得到训练特征点集其中,m表示词典训练视频库中视频的个数;表示词典训练视频库中第i个视频的特征点集,每个特征点集表示 表示第i个视频的第j帧中提取的特征点,其中k为视频帧的数量;
(1.2)、计算稀疏系数
设训练特征点集ξ对应的稀疏系数集合为其中,表示第i个特征点集对应的稀疏系数集;设稀疏词典B=bj,j=1,2,…,N,其中,bj为基向量,N表示稀疏词典中基向量个数;在稀疏词典训练初始阶段,初始稀疏词典B由基向量随机生成;
将训练特征点集ξ中的和初始稀疏词典B代入到公式(1)中,求出对应的稀疏系数集
其中,σ,β,c均为常系数,表示稀疏系数集中第j个特征点,||||2为平方差,为稀疏函数,这里为1范式;
(1.3)、更新稀疏词典
(1.3.1)、将作为输入训练集,同对应的稀疏系数一起代入到公式(2)中,求出稀疏词典B的最优解;
其中,d为常数,Bi,j为稀疏词典中第i行第j列值;
(1.3.2)、利用拉格朗日对偶算法,用步骤(1.3.1)中求出的最优解对原始稀疏词典B进行更新,更新后的稀疏词典标记为B*
(1.3.3)、将稀疏词典B*代入到公式(1)中,求解出对应的稀疏系数并按照步骤(1.2)~(1.3)所述的方法进行迭代,直到第m个特征点集得到最终更新后的稀疏词典
(2)、稀疏编码
利用SURF算法对待处理视频进行提取特征点,得到特征点集ζ={T1,T2,…,TM},TM表示待处理视频中第M帧提取出来的特征点集合;
将ζ和稀疏词典代入到公式(1)中,求出ζ对应的稀疏系数s';将ζ作为输入集合,采用特征符号算法求解最优解;
其中,g为稀疏系数,,||||1表示求1范式;
求得的结果即为待处理视频特征点集的稀疏编码结果,记为 表示第M帧特征点对应的稀疏编码结果;
(3)、构建视觉词典并统计词频信息
(3.1)、利用步骤(2)所述的方法,对训练特征点集进行稀疏编码,再利用Kmeans聚类算法对稀疏编码结果进行聚类,聚类簇为Q个,每个聚类中心作为一个视觉单词,从而得到视觉词典W={w1,w2,…,wQ};
(3.2)、将步骤(2)中稀疏编码结果Tsc中每一帧的集合与视觉词典中的视觉单词进行欧式距离计算;
其中,vz、vq为向量,vz表示中的稀疏编码后的一个特征点的向量值,vq表示视觉词典W中的一个视觉单词的向量值;选择最小欧式距离的视觉单词,并标记为该视频帧中对应的特征点;
(3.3)、利用ti-idf模型对每个视频帧的特征点进行词频统计,即:
其中,nMd表示视频第M帧包含的视觉单词数量,nd表示第M帧包含的总的视觉单词数量,p为视频帧的数量,nM表示包含视觉单词的视频帧数量;
每一帧的统计结果生成一个直方图,横坐标为所有视觉单词,纵坐标为每个视觉单词在该帧中的统计频率;
(4)、提取视频指纹
将步骤(3.3)中每一视频帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。
本发明的发明目的是这样实现的:
本发明基于稀疏编码的视频指纹提取方法,先通过SURF算法对预选视频帧图像特征进行提取,得到训练特征点集,通过对训练特征点集进行稀疏处理,进而得到稀疏词典;再通过SURF算法对待处理视频进行稀疏编码,从而构建出视觉词典并统计出词频信息;最后对视频的每一帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。
同时,本发明基于稀疏编码的视频指纹提取方法还具有以下有益效果:
(1)、通过SURF算法获取特征点的特征矢量,这样将特征描述符的维度由原来的64维降到24维,SURF算法获取的特征点还具有较强的尺度、旋转、亮度等不变性;
(2)、本发明是基于哺乳动物视觉图像稀疏编码原理,选用标准库训练生成稀疏词典,再根据稀疏词典对视频帧特征点进行稀疏编码,最后对编码后的非零值进行处理,从而减少视频指纹提取的存储开销与计算开销;
(3)、通过实验仿真分析,本发明依然能维持原特征点的鲁棒性,且具有较好的区分性以及准确性。
附图说明
图1是本发明基于稀疏编码的视频指纹提取方法的流程图;
图2是Lenna图像中提取的特征点在稀疏编码前后值的分布图;
图3是稀疏编码的准确性分析图;
图4是稀疏编码前后存储开销图;
图5是采用本发明生成视频指纹的准确率仿真分析图;
图6是对稀疏编码结果的鲁棒性。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明基于稀疏编码的视频指纹提取方法的流程图。
在本实施例中,如图1所示,本发明一种基于稀疏编码的视频指纹提取方法,包括以下步骤:
S1、构建稀疏词典
S1.1、稀疏词典的构建通过交替对基向量与稀疏稀疏进行更新得到。在本实施例中,选用Fergus的图像库做训练集,采用SURF算法获得训练图像的特征点集;
利用SURF算法对预选的词典训练视频库进行提取特征点,得到训练特征点集其中,m表示词典训练视频库中视频的个数;表示词典训练视频库中第i个视频的特征点集,每个特征点集表示 表示第i个视频的第j帧中提取的特征点,其中k为视频帧的数量;
S1.2、计算稀疏系数
设训练特征点集ξ对应的稀疏系数集合为其中,表示第i个特征点集对应的稀疏系数集;设稀疏词典B=bj,j=1,2,…,N,其中,bj为基向量,N表示稀疏词典中基向量个数;在稀疏词典训练初始阶段,初始稀疏词典B由基向量随机生成;
将训练特征点集ξ中的和初始稀疏词典B代入到公式(1)中,求出对应的稀疏系数集
其中,σ,β,c均为常系数,表示稀疏系数集中第j个特征点,||||2为平方差,为稀疏函数,这里为1范式;
S1.3、更新稀疏词典
S1.3.1、将作为输入训练集,同对应的稀疏系数一起代入到公式(2)中,求出稀疏词典B的最优解;
其中,d为常数,Bi,j为稀疏词典中第i行第j列值;
S1.3.2、利用拉格朗日对偶算法,用步骤S1.3.1中求出的最优解对原始稀疏词典B进行更新,更新后的稀疏词典标记为B*
S1.3.3、将稀疏词典B*代入到公式(1)中,求解出对应的稀疏系数并按照步骤S1.2~S1.3所述的方法进行迭代,直到第m个特征点集得到最终更新后的稀疏词典
稀疏词典的大小决定了稀疏结果的准确性与区分性,当稀疏词典过小时,稀疏编码结果区分性不高。相反,当稀疏词典数量过大时,会导致数据间的区分性增大,对于两个相似的数据,可能会导致稀疏结果不同。在本实施例中,基于Jianchao Yang的图片分类实验中,稀疏词典大小设为1024。
S2、稀疏编码
利用SURF算法对待处理视频进行提取特征点,得到特征点集ζ={T1,T2,…,TM},TM表示待处理视频中第M帧提取出来的特征点集合;
将ζ和稀疏词典代入到公式(1)中,求出ζ对应的稀疏系数s';将ζ作为输入集合,采用特征符号算法求解最优解;
其中,g为稀疏系数,||||1表示求1范式;
求得的结果即为待处理视频特征点集的稀疏编码结果,记为 表示第M帧特征点对应的稀疏编码结果;
稀疏编码的目的在于对于任何输入数据在稀疏词典中都能找到一组活动基,用这组活动基对原数据进行表示,从而模拟生物视觉神经对于自然图像的稀疏处理,节省生物能量,并减少存储空间。这里的稀疏词典相当于大脑皮层的视觉神经元,对于输入数据,只需要少量的活动基便可以实现对原数据的编码存储。对于Lenna图像中提取的特征点,稀疏编码前后值的分布情况如图2所示。
其中,图2(a)、(c)为Lenna图像提取的某一特征点,(a)为特征点稀疏之前的结果,(c)为稀疏之后的结果,图2(b)、(d)为Lenna图像的特征点集合,(b)为稀疏前特征点矩阵的分布图,(d)为稀疏后的稀疏矩阵分布图。稀疏结果的稀疏程度是随着g变化的,g越大则稀疏程度越高,但是稀疏程度过大会导致稀疏结果间的区分性降低,即导致误差上升。
这里我们取一组g值来对稀疏程度与结果的准确性进行分析,如图3所示。图3(a)是表示的稀疏程度g值的关系,g值越大,则结果越稀疏。图3(b)是表示稀疏编码时间与g值大小的关系,可以看出,g越大,稀疏编码的平均时间也就越小。
对于不同的稀疏程度,导致的稀疏结果将会一些偏差。稀疏程度增大时,可能会导致稀疏结果部分信息丢失,对于不同数据间的区分关系会造成一定影响。实验中取Lenna图像的319个SURF特征点采用不同的稀疏调整因子进行稀疏编码,对编码结果采用聚类,簇的个数设定为50。这里g取0.2,0.3以及0.4使用稀疏编码后进行聚类。可以发现,当g取0.3时其聚类分布情况最接近于稀疏前的结果。当过多或者过少地稀疏编码时,会影响数据间的相似与相异性,对于两组输入数据,会因为它们与聚类中距离的增大或者减少导致不同的划分结果,从而使得某些簇中的数据分布数量增多或者减少。以稀疏结果的聚类分布与原数据聚类分布情况差异作为稀疏误差,那么不同的稀疏调整因子误差如表1所示。
表1是稀疏编码误差表;
表1
对于稀疏编码结果,因为可以采用少量的非零数据对原始输入进行表示,若只对非零数据进行存储,那么存储开销将大大降低,如图4所示,可以看出,SURF算法特征点的开销增长速度较快,当特征点数量超过1000时,稀疏编码相对于SURF算法,存储空间将会减少250k以上,对于一部视频而言,对其所有关键帧提取的特征点均采用稀疏编码方式进行存储的话,对于计算机会节省大量的空间。
S3、构建视觉词典
利用步骤S2所述的方法,对训练特征点集进行稀疏编码,再利用Kmeans聚类算法对稀疏编码结果进行聚类,聚类簇为Q个,每个聚类中心作为一个视觉单词,从而得到视觉词典W={w1,w2,…,wQ};
在本实施例中,选取Caltech-101图像库,每一类图像中选择30幅图像用作训练集;采用Kmeans聚类时,设定视觉单词数为1024个,也就是将上述稀疏编码结果划分为1024个簇;
S4、统计词频信息
S4.1、将步骤S2中稀疏编码结果Tsc中每一帧的集合与视觉词典中的视觉单词进行欧式距离计算;
其中,vz、vq为向量,vz表示中的稀疏编码后的一个特征点的向量值,vq表示视觉词典W中的一个视觉单词的向量值;选择最小欧式距离的视觉单词,并标记为该视频帧中对应的特征点;
S4.2、利用ti-idf模型对每个视频帧的特征点进行词频统计,即:
其中,nMd表示视频第M帧包含的视觉单词数量,nd表示第M帧包含的总的视觉单词数量,p为视频帧的数量,nM表示包含视觉单词的视频帧数量;
每一帧的统计结果生成一个直方图,横坐标为所有视觉单词,纵坐标为每个视觉单词在该帧中的统计频率;
S5、提取视频指纹
将步骤S4.2中每一视频帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。
实例
本实施例中,从优酷网中选取一段宣传视频进行仿真,对提取的17个关键帧的SURF特征点进行稀疏编码,然后来对这些稀疏结果查找对应的视觉单词。
对于一个稀疏特征点在1024大小的词典D中匹配到属于自己的视觉单词,平均消耗的时间记为tsc,而对于一个非稀疏特征点在同样大小的D'中匹配视觉单词平均消耗时间记为tsurf。对于这个视频中的某一帧,平均包含有300个特征点,那么这部视频特征点稀疏前后的单词查找时间如表2所示。
表2是稀疏编码前后视觉单词查找开销表;
表2
从表2中可以看出,在存储上,稀疏编码结果能大大降低计算存储开销。对于总的时间开销,平均包含300个特征点的视频帧,稀疏编码时间平均为0.302秒左右,所以计入这个时间,稀疏编码单帧查找时间开销约为0.945秒,略快于非稀疏编码。
在本实施例中,通过采用稀疏编码来对SURF特征点进行优化处理来提升视频指纹的生成效率。而视频指纹除了要求具备一定实时性的同时,也要具备良好的准确性与鲁棒性。原SURF特征点具有较强的尺度、旋转、亮度等不变性,对于稀疏编码结果,依然需要维持这些特性。实验中选用包含80个视频片段的视频库,每段视频播放时长约为1分钟左右,来对本发明生成的视频指纹的准确率进行仿真分析,准确率仿真结果如图5所示。
从图5中可以看出,当查全率相同时,编码后的查准率会低于原SURF特征点,这是因为经过稀疏编码的特征点,会丢失一些信息,导致在视觉单词查找过程中出现部分特征点出现误判,导致词频统计会出现偏差。但编码后的整体性能依然接近原SURF特征点。
对于稀疏编码结果的鲁棒性,本实施例通过调节视频的亮度、修改画面的大小、在视频画面中添加字幕和高斯模糊化画面来分析算法的抗攻击性能,如图6所示。
图6中(a)为不同亮度下的视频攻击,(b)为视频尺度攻击,(c)为高斯噪声攻击以及字幕攻击。可以看出,对于这些视频编辑,稀疏编码后的SURF特征点依然能保留较好的鲁棒性。对于高斯噪声,当高斯噪声较大时,对于指纹提取影响也就越大,本文这里选择每个通道添加10%的高斯噪声,实验结果表明,在这种情况下视频指纹具备一定的抗攻击性。然而,对于字幕添加攻击,因为这种情况引入了新的图像信息,所以会导致图像特征点较大的变化,导致生成的指纹抗攻击能力较弱,这是由于SURF提取算法本身的特性所决定的。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (1)

1.一种基于稀疏编码的视频指纹提取方法,其特征在于,包括以下步骤:
(1)、构建稀疏词典
(1.1)、利用SURF算法对预选的词典训练视频库进行提取特征点,得到训练特征点集其中,m表示词典训练视频库中视频的个数;表示词典训练视频库中第i个视频的特征点集,每个特征点集表示 表示第i个视频的第j帧中提取的特征点,其中k为视频帧的数量;
(1.2)、计算稀疏系数
设训练特征点集ξ对应的稀疏系数集合为其中,表示第i个特征点集对应的稀疏系数集;设稀疏词典B=bj,j=1,2,…,N,其中,bj为基向量,N表示稀疏词典中基向量个数;在稀疏词典训练初始阶段,初始稀疏词典B由基向量随机生成;
将训练特征点集ξ中的和初始稀疏词典B代入到公式(1)中,求出对应的稀疏系数集
其中,σ,β,c均为常系数,表示稀疏系数集中第j个特征点,n表示稀疏系数集中特征点总个数,||||2为平方差,为稀疏函数,这里为1范式;
(1.3)、更新稀疏词典
(1.3.1)、将作为输入训练集,同对应的稀疏系数一起代入到公式(2)中,求出稀疏词典B的最优解;
其中,d为常数,Bi,j为稀疏词典中第i行第j列值;
(1.3.2)、利用拉格朗日对偶算法,用步骤(1.3.1)中求出的最优解对原始稀疏词典B进行更新,更新后的稀疏词典标记为B*
(1.3.3)、将稀疏词典B*代入到公式(1)中,求解出对应的稀疏系数并按照步骤(1.2)~(1.3)所述的方法进行迭代,直到第m个特征点集得到最终更新后的稀疏词典
(2)、稀疏编码
利用SURF算法对待处理视频进行提取特征点,得到特征点集ζ={T1,T2,…,TM},TM表示待处理视频中第M帧提取出来的特征点集合;
将ζ和稀疏词典代入到公式(1)中,求出ζ对应的稀疏系数s'再利用如下公式(3),求解最优解;
其中,γ为稀疏系数,||||1表示求1范式;求得的结果即为待处理视频特征点集的稀疏编码结果,记为表示第M帧特征点对应的稀疏编码结果;
(3)、构建视觉词典并统计词频信息
(3.1)、利用步骤(2)所述的方法,对训练特征点集进行稀疏编码,再利用Kmeans聚类算法对稀疏编码结果进行聚类,聚类簇为Q个,每个聚类中心作为一个视觉单词,从而得到视觉词典W={w1,w2,…,wQ};
(3.2)、将步骤(2)中稀疏编码结果Tsc中每一帧的集合与视觉词典中的视觉单词进行欧式距离计算;
其中,vz、vq为向量,vz表示TSC中的稀疏编码后的一个特征点的向量值,vq表示视觉词典W中的一个视觉单词的向量值;选择最小欧式距离的视觉单词,并标记为该视频帧中对应的特征点;
(3.3)、利用tf-idf模型对每个视频帧的特征点进行词频统计,即:
其中,nMd表示视频第M帧包含的视觉单词数量,nd表示M帧共计包含的总的视觉单词数量,p为视频帧的数量,nM表示包含视觉单词的视频帧数量;
每一帧的统计结果生成一个直方图,横坐标为所有视觉单词,纵坐标为每个视觉单词在该帧中的统计频率;
(4)、提取视频指纹
将步骤(3.3)中每一视频帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。
CN201510674150.5A 2015-10-13 2015-10-13 一种基于稀疏编码的视频指纹提取方法 Active CN105279489B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510674150.5A CN105279489B (zh) 2015-10-13 2015-10-13 一种基于稀疏编码的视频指纹提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510674150.5A CN105279489B (zh) 2015-10-13 2015-10-13 一种基于稀疏编码的视频指纹提取方法

Publications (2)

Publication Number Publication Date
CN105279489A CN105279489A (zh) 2016-01-27
CN105279489B true CN105279489B (zh) 2018-07-13

Family

ID=55148473

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510674150.5A Active CN105279489B (zh) 2015-10-13 2015-10-13 一种基于稀疏编码的视频指纹提取方法

Country Status (1)

Country Link
CN (1) CN105279489B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021927A (zh) * 2017-11-07 2018-05-11 天津大学 一种基于慢变视觉特征的视频指纹提取方法
CN109960960A (zh) * 2017-12-14 2019-07-02 中国移动通信集团安徽有限公司 视频指纹生成和匹配方法及装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102547477A (zh) * 2012-01-12 2012-07-04 合肥工业大学 一种基于轮廓波变换模型的视频指纹方法
CN102682298A (zh) * 2012-04-28 2012-09-19 聂秀山 基于图建模的视频指纹方法
CN104063706A (zh) * 2014-06-27 2014-09-24 电子科技大学 一种基于surf算法的视频指纹提取方法
CN104504406A (zh) * 2014-12-04 2015-04-08 长安通信科技有限责任公司 一种快速高效的近似重复图像匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8238669B2 (en) * 2007-08-22 2012-08-07 Google Inc. Detection and classification of matches between time-based media

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102547477A (zh) * 2012-01-12 2012-07-04 合肥工业大学 一种基于轮廓波变换模型的视频指纹方法
CN102682298A (zh) * 2012-04-28 2012-09-19 聂秀山 基于图建模的视频指纹方法
CN104063706A (zh) * 2014-06-27 2014-09-24 电子科技大学 一种基于surf算法的视频指纹提取方法
CN104504406A (zh) * 2014-12-04 2015-04-08 长安通信科技有限责任公司 一种快速高效的近似重复图像匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Robust Video Fingerprinting for Content-Based Video Identification;Sunil Lee等;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20070731;全文 *

Also Published As

Publication number Publication date
CN105279489A (zh) 2016-01-27

Similar Documents

Publication Publication Date Title
Masi et al. Learning pose-aware models for pose-invariant face recognition in the wild
Chen et al. Unconstrained face verification using deep CNN features
Cao et al. Constrained multi-view video face clustering
Lan et al. Beyond gaussian pyramid: Multi-skip feature stacking for action recognition
Gao et al. Learning category-specific dictionary and shared dictionary for fine-grained image categorization
CN104063706B (zh) 一种基于surf算法的视频指纹提取方法
Zhou et al. Region-level visual consistency verification for large-scale partial-duplicate image search
Adler et al. Probabilistic subspace clustering via sparse representations
CN112434553B (zh) 一种基于深度字典学习的视频鉴别方法及系统
Varna et al. Modeling and analysis of correlated binary fingerprints for content identification
Moayedi et al. Structured sparse representation for human action recognition
Wang et al. Spatial weighting for bag-of-features based image retrieval
CN105279489B (zh) 一种基于稀疏编码的视频指纹提取方法
Setyawan et al. Spatio-temporal digital video hashing using edge orientation histogram and discrete cosine transform
CN102609732A (zh) 基于泛化视觉词典图的物体识别方法
Raut et al. Recognition of American sign language using LBG vector quantization
Bao et al. Linear spatial pyramid matching using non-convex and non-negative sparse coding for image classification
CN106570509A (zh) 一种用于提取数字图像特征的字典学习及编码方法
CN107092875B (zh) 一种新的场景识别方法
Semela et al. KIT at MediaEval 2012-Content-based Genre Classification with Visual Cues.
Zhang et al. Segmentation of discriminative patches in human activity video
Sinha et al. Scene image classification using a wigner-based local binary patterns descriptor
Lu et al. A Robust Coverless Image Steganography Method Based on Face Recognition and Camouflage Image
Farajzadeh et al. Concept detection in images using SVD features and multi-granularity partitioning and classification
Ramya et al. XML based approach for object oriented medical video retrieval using neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190318

Address after: 610051 No. 1 Construction Road, Chenghua District, Chengdu City, Sichuan Province

Patentee after: Xu Jie

Address before: 610041 No. 1700 Tianfu Avenue North Section, Chengdu High-tech Zone, Sichuan Province, Building 1, Unit 13, Floor 1303

Patentee before: CHENGDU NIUJIENA TECHNOLOGY CO., LTD.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191017

Address after: No. 307, unit 3, building 7, No. 399, west section of Fucheng Avenue, hi tech Zone, Chengdu, Sichuan

Patentee after: Chengdu xingyinian Intelligent Technology Co., Ltd.

Address before: 610051 No. 1 Construction Road, Chenghua District, Chengdu City, Sichuan Province

Patentee before: Xu Jie

TR01 Transfer of patent right