CN102314681A - 基于子镜头分割的自适应关键帧提取方法 - Google Patents

基于子镜头分割的自适应关键帧提取方法 Download PDF

Info

Publication number
CN102314681A
CN102314681A CN201110190937A CN201110190937A CN102314681A CN 102314681 A CN102314681 A CN 102314681A CN 201110190937 A CN201110190937 A CN 201110190937A CN 201110190937 A CN201110190937 A CN 201110190937A CN 102314681 A CN102314681 A CN 102314681A
Authority
CN
China
Prior art keywords
sub
camera lens
frame
distilling
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110190937A
Other languages
English (en)
Other versions
CN102314681B (zh
Inventor
雷少帅
赵文晶
韩晓霞
谢刚
续欣莹
王芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN 201110190937 priority Critical patent/CN102314681B/zh
Publication of CN102314681A publication Critical patent/CN102314681A/zh
Application granted granted Critical
Publication of CN102314681B publication Critical patent/CN102314681B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

本发明公开了图像处理技术领域中的一种基于子镜头分割的自适应关键帧提取方法。本发明方法先读取镜头中图像的所有帧,提取各帧的颜色特征向量;然后将滑动窗口与距离可分性准则相结合,将镜头分割为各个子镜头;并按照帧间距离变化率求出每个子镜头的关键帧数目;最后按照帧间距离从大到小进行排序,选取指定数目的关键帧。本发明不需设置阈值,能自适应地确定关键帧的数目,提高了子镜头的分割精度低,鲁棒性好。

Description

基于子镜头分割的自适应关键帧提取方法
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于子镜头分割的自适应关键帧提取方法。
背景技术
随着多媒体技术及计算机网络技术的迅速发展,视频数量急剧增长,视频检索系统受到了越来越多的关注。而关键帧提取作为视频检索的前期基础,其提取效果将直接影响视频检索系统的性能。视频关键帧提取就是研究如何利用最少的图像来最有效地表示视频镜头的主要内容,这就要求所选的关键帧要以最小的冗余度反映视频的时序性和准确性。
基于子镜头分割的关键帧提取算法,作为经典的关键帧提取方法之一,就是从依据某种特征将一个镜头从时域上分割为若干个子镜头,然后在每个子镜头中提取一帧作为关键帧。文献(Lei Pan,Xiaojun Wu,Xin Shu.Key FrameExtraction Based on Sub-shot Segmentation and Entropy)首先计算当前帧与前N帧的直方图差,随后对差值结果采用阈值法进行子镜头分割,最后在每一个子镜头中选取信息熵最大的一帧做为关键帧。此方法的缺陷是对阈值的选取依赖性很大,由于视频内容的千差万别,阈值法在子镜头分割精度上效果不理想;文献(Tianming Liu,Hong-Jiang Zhang,and Feihu Qi.A Novel VideoKey-Frame-Extraction Algorithm Based on Perceived Motion Energy Model[J].IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,13(10):pp.1006-1013,2003.)依据镜头中物体的运动对镜头进行时域分割,并在分割后的子镜头中选取运动强度最大的帧作为关键帧;文献(Pascal Kelm,Sebastian Schmiedeke,and Thomas Sikora.FEATURE-BASED VIDEO KEY FRAMEEXTRACTION FOR LOW QUALITY VIDEO SEQUENCES[J].IN PROCEEDINGS OF 10THINTERNATIONAL WORKSHOP ON IMAGE ANALYSIS FOR MULTIMEDIA INTERACTIVESERVICES[C].2009,pp.25-28.)依靠镜头的运动状态进行子镜头分割,在综合考虑物体运动强度、镜头运动方式等因素的基础上选取最能引人注意的一帧作为关键帧。
以上方法存在如下几个问题:
1.造成镜头内容变化的因素是多种多样的,而仅仅依靠某单一特征进行子镜头分割显然是有局限性的。
2.以上几种方法在每个子镜头中只选取一帧作为关键帧,无法表达视频内容的动态信息,尤其是视频内容变化较快时,一个关键帧无法反映视频内容,这违背了关键帧提取中“宁滥勿缺”的原则。
发明内容
针对上述背景技术中提到现有子镜头分割过程中分割精度低、鲁棒性差、关键帧提取数目固定等不足,本发明提出了一种基于子镜头分割的自适应关键帧提取方法。
本发明的技术方案是,基于子镜头分割的自适应关键帧提取方法,其特征是该方法包括以下步骤:
步骤1:读取镜头中图像的所有帧,提取各帧的颜色特征向量;
步骤2:在步骤1的基础上,将滑动窗口与距离可分性准则相结合,将镜头分割为各个子镜头;
步骤3:按照帧间距离变化率求出每个子镜头的关键帧数目;
步骤4:在步骤3的基础上,按照帧间距离从大到小进行排序,选取指定数目的关键帧。
所述步骤2具体为:
步骤2.1:建立滑动窗口,求得滑动窗内的相邻两类样本的类内离散度矩阵和类间离散度矩阵;
步骤2.2:在步骤2.1的基础上建立评判函数;
步骤2.3:求得镜头的评判函数曲线;
步骤2.4:对评判函数曲线滤波,并将评判函数曲线的各个极大值点对应的帧视为子镜头的分割位置。
所述评判函数的计算公式为:
F = det ( S b ) det ( S 1 + S 2 )
其中:
F为评判函数曲线;
Sb为类间离散度矩阵;
S1为前二分之一滑动窗口内子镜头帧的类内离散度矩阵;
S2为后二分之一滑动窗口内子镜头帧的类内离散度矩阵;
det(Sb)为类间离散度矩阵的行列式值;
det(S1+S2)为类内离散度矩阵的行列式值。
所述Sb的计算公式为:
Sb=(m1-m2)(m1-m2)T
其中:
m1为前二分之一滑动窗口内的子镜头帧的均值向量;
m2为后二分之一滑动窗口内的子镜头帧的均值向量。
所述S1的计算公式为:
S 1 = Σ H ∈ L 1 ( H - m 1 ) ( H - m 1 ) T
其中:
L1为前二分之一滑动窗口内的子镜头帧的样本组成的集合;
H为样本集中某样本帧的特征向量。
所述S2的计算公式为:
S 2 = Σ H ∈ L 2 ( H - m 2 ) ( H - m 2 ) T
其中:
L2后二分之一滑动窗口内的子镜头帧的样本组成的集合。
所述评判函数曲线滤波的公式为:
F ′ = F - F ‾
其中:
F′为滤波后的评判函数曲线;
Figure BSA00000534003900044
为滤波门限。
所述
Figure BSA00000534003900045
的计算公式为:
F ‾ = F mean + F std
其中:
Fmean为评判函数曲线的均值;
Fstd为评判函数曲线的标准偏差。
所述关键帧数目的计算公式为:
k = dist ( 1 , n ) 1 n - 1 Σ i = 1 n - 1 dist ( i , i + 1 )
其中:
k为关键帧数目;
n为子镜头的总帧数;
dist(1,n)为子镜头首尾两帧的欧式距离;
dist(i,i+1)为滑动窗口内相邻两帧的欧氏距离。
本发明的优点在于:
1.本发明没有依靠人为提取的某种特征进行子镜头分割,而是利用视频帧的自身特性和物理变化,依据类间距离最大、类内距离最小的原则将镜头分割为若干个子镜头,可极大地提高分割准确性。
2.本发明的判别函数物理意义明确,运算简单。
3.本发明给出了一个计算关键帧提取数目的公式,此公式可根据每个子镜头内容的变化快慢,自适应地确定关键帧的个数,能很好地反映镜头的动态特性。
4.本发明不需设置阈值,克服了文献[1]阈值分割法精度低和鲁棒性差的缺陷。
附图说明
图1为ROAD视频F曲线;
图2为F′曲线求得的极值;
图3为F曲线求得的极值。
具体实施方式
下面结合附图,对优选实施例作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
本发明利用样本的距离可分性准则构建了一个判别函数,通过寻找该判别函数极大值的方法将镜头分割为几个子镜头。随后,根据每个子镜头的内容变化快慢,自适应地确定每个子镜头的关键帧个数。
本发明的步骤如下:
步骤1:读取镜头中图像的所有帧,提取各帧的颜色特征向量;
步骤2:将滑动窗口与距离可分性准则相结合,将镜头分割为各个子镜头;
步骤3:按照帧间距离变化率求出每个子镜头的关键帧数目;
步骤4:按照帧间距离从大到小进行排序,选取指定数目的关键帧。
本发明的具体内容为:
1.特征提取
HSV(色调Hue,饱和度Saturation,亮度Value)颜色空间较其他颜色空间更符合人类视觉特性,因此本文采用HSV颜色直方图作为视频帧的特征向量。由于人眼对色调比对饱和度和亮度敏感,故本文将色调分成8个量化级,将饱和度和亮度均分为2个量化级。因此,每张图像可量化为一个包含32柄(8×2×2)的一维直方图,即每帧可由列向量H=[h1,h2,…,h32]T表示。
2.子镜头分割
(1)前期准备
首先建立长度为2L帧长的滑动窗口,并将滑动窗口中的前L帧视为样本集L1=(H(i-L),H(i-L+1),…,H(i-1)),后L帧视为样本集L2=(H(i+1),H(i+2),…,H(i+L)),其中:H(j)(j∈[i-L,i+L])代表滑动窗口中的第j帧,可由一个32维的列向量H=[h1,h2,…,h32]T表示。
按公式(1)计算前后两类样本集的均值向量mi,m1代表的前L帧(即样本集L1)的均值向量,m2代表后L帧(即样本集L2)的均值向量。
m i = 1 L Σ H ∈ L i H , i = 1,2 - - - ( 1 )
其中:
H为样本集中样本帧的特征向量;
L为二分之一滑动窗口的长度。
最后计算样本集Li的类内离散度矩阵Si,L1、L2的类间离散度矩阵Sb。类内离散矩阵Si在形式上与协方差矩阵很相似,但协方差矩阵是一种期望值,而类内离散矩阵表示有限个样本在空间分布的离散程度:
S i = Σ H ∈ L i ( H - m i ) ( H - m i ) T - - - ( 2 )
Sb=(m1-m2)(m1-m2)T               (3)
其中:
Sb为类间离散度矩阵;
Si为类内离散度矩阵;
m1为前二分之一滑动窗口内的子镜头帧的均值向量;
m2为后二分之一滑动窗口内的子镜头帧的均值向量。
(2)构建评判函数
当滑动窗内两类样本类间距离最大、类内距离最小时即为子镜头变化之处。由距离可分性准则可知:类间距离最大、类内距离最小,即等同于即det(Sb)最大、det(S1+S2)最小。因此可基于距离可分性准则构造如下评判函数:
F = det ( S b ) det ( S 1 + S 2 ) - - - ( 4 )
其中:
F为评判函数曲线;
S1为前L帧(前二分之一滑动窗口内的子镜头帧)的类内离散度矩阵,
L1为前L帧样本组成的集合;
S2为后L帧(后二分之一滑动窗口内的子镜头帧)的类内离散度矩阵,
Figure BSA00000534003900083
L2为后L帧样本组成的集合;
det(Sb)为类间离散度矩阵的行列式值;
det(S1+S2)为类内离散度矩阵的行列式值。
(3)计算镜头的F值曲线。
逐帧向后移动滑动窗口,并计算F值。当整个滑动窗处于同一镜头,F值基本不变,理想的情况F值趋近于零;当F值逐渐增大到某个值后又逐渐减小时,说明滑动窗口经历了一个跨越子镜头的过程:
当F值逐渐增大时,说明此时后L帧开始进入后一个子镜头;
当F取得极大值时,说明此时后L帧完全进入后一个子镜头,同时前L帧完全处于前一个子镜头;
F值逐渐减小,说明前L帧逐渐进入后一个子镜头;
F值曲线趋于平稳,说明此时整个滑动窗全部进入下一个子镜头。
因此,可以利用F的特征曲线中极大值点对应的帧号作为子镜头分割边界。以标准视频库(http://www.open-video.org/)中的视频ROAD为例,其F特征曲线如图1所示。
(4)子镜头分割
由图1可见,F特征曲线中除两个大极值点外,还存在两个小锯齿波。这是因为利用式(4)进行F值计算时,由于镜头中的闪光、物体运动和镜头自身运动等原因造成的噪音,而非真正的子镜头分割点。
为此在极大值提取前,首先利用式(5)对F曲线进行滤波,图2是图1滤波后的特征曲线。
F ′ = F - F ‾ - - - ( 5 )
其中:
F′为滤波后的评判函数曲线;
Figure BSA00000534003900092
为滤波门限,
Figure BSA00000534003900093
Fmean、Fstd分别表示F曲线的均值和标准偏差。
将F曲线滤波后,假设新得到的函数关系式为F′=f(i),i是帧号。我们采用二次差分法进行极大值提取,如公式(6)所示。
sign[f(i+1)-f(i)]-sign[f(i)-f(i-1)]=-2           (6)
其中:
sign为符号函数,
Figure BSA00000534003900094
最终求得的极大值点处的帧号如图3所示,二次差分结果等于-2处为极大值点对应的帧号,即子镜头的分割边界。可以看出,该方法可以很好地提取出子镜头的边界,实现对镜头的时序分割。
3.子镜头中的关键帧数目的确定
在子镜头分割完成后,利用子镜头的变化率来提取关键帧。本发明的基本思想是:由于帧间距离能描述帧间差异,因此通过帧间距离变化率可确定关键帧个数。假设某个子镜头的总帧数为n,本文利用式(7)表示子镜头变化率,自适应地确定关键帧个数:
k = dist ( 1 , n ) 1 n - 1 Σ i = 1 n - 1 dist ( i , i + 1 ) - - - ( 7 )
其中:
k为关键帧数目;
n为子镜头的总帧数;
dist(1,n)为子镜头首尾两帧的欧式距离;
dist(i,i+1)为滑动窗口内相邻两帧的欧氏距离;
上式中,分母表示整个子镜头内帧间欧式距离的均值。
当k≤1时,说明子镜头中的视频内容变化不大,提取一帧即可;
当k>1时,选取最接近k的整数为关键帧个数。通过计算,第三个子镜头的k取3。
4.关键帧的选定
计算子镜头内当前帧与前一帧的欧氏距离d,取距离最大的前k个值所对应的帧序号,此k帧即为子镜头的关键帧。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (9)

1.基于子镜头分割的自适应关键帧提取方法,其特征是该方法包括以下步骤:
步骤1:读取镜头中图像的所有帧,提取各帧的颜色特征向量;
步骤2:在步骤1的基础上,将滑动窗口与距离可分性准则相结合,将镜头分割为各个子镜头;
步骤3:按照帧间距离变化率求出每个子镜头的关键帧数目;
步骤4:在步骤3的基础上,按照帧间距离从大到小进行排序,选取指定数目的关键帧。
2.根据权利要求1所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述步骤2具体为:
步骤2.1:建立滑动窗口,并求得滑动窗内的前后两类样本集的类内离散度矩阵和类间离散度矩阵;
步骤2.2:在步骤2.1的基础上建立评判函数;
步骤2.3:求得镜头的评判函数曲线;
步骤2.4:对评判函数曲线滤波,并将评判函数曲线的各个极大值点对应的帧视为子镜头的分割位置。
3.根据权利要求2所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述评判函数的计算公式为:
F = det ( S b ) det ( S 1 + S 2 )
其中:
F为评判函数曲线;
Sb为类间离散度矩阵;
S1为前二分之一滑动窗口内子镜头帧的类内离散度矩阵;
S2为后二分之一滑动窗口内子镜头帧的类内离散度矩阵;
det(Sb)为类间离散度矩阵的行列式值;
det(S1+S2)为类内离散度矩阵的行列式值。
4.根据权利要求3所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述Sb的计算公式为:
Sb=(m1-m2)(m1-m2)T
其中:
m1为前二分之一滑动窗口内的子镜头帧的均值向量;
m2为后二分之一滑动窗口内的子镜头帧的均值向量。
5.根据权利要求4所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述S1的计算公式为:
S 1 = Σ H ∈ L 1 ( H - m 1 ) ( H - m 1 ) T
其中:
L1为前二分之一滑动窗口内的子镜头帧的样本组成的集合;
H为样本集中某样本帧的特征向量。
6.根据权利要求5所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述S2的计算公式为:
S 2 = Σ H ∈ L 2 ( H - m 2 ) ( H - m 2 ) T
其中:
L2后二分之一滑动窗口内的子镜头帧的样本组成的集合。
7.根据权利要求2所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述评判函数曲线滤波的公式为:
F ′ = F - F ‾
其中:
F′为滤波后的评判函数曲线;
Figure FSA00000534003800032
为滤波门限。
8.根据权利要求7所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述
Figure FSA00000534003800033
的计算公式为:
F ‾ = F mean + F std
其中:
Fmean为评判函数曲线的均值;
Fstd为评判函数曲线的标准偏差。
9.根据权利要求7所述的基于子镜头分割的自适应关键帧提取方法,其特征是所述关键帧数目的计算公式为:
k = dist ( 1 , n ) 1 n - 1 Σ i = 1 n - 1 dist ( i , i + 1 )
其中:
k为关键帧数目;
n为子镜头的总帧数;
dist(1,n)为子镜头首尾两帧的欧式距离;
dist(i,i+1)为滑动窗口内相邻两帧的欧氏距离。
CN 201110190937 2011-07-08 2011-07-08 基于子镜头分割的自适应关键帧提取方法 Expired - Fee Related CN102314681B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110190937 CN102314681B (zh) 2011-07-08 2011-07-08 基于子镜头分割的自适应关键帧提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110190937 CN102314681B (zh) 2011-07-08 2011-07-08 基于子镜头分割的自适应关键帧提取方法

Publications (2)

Publication Number Publication Date
CN102314681A true CN102314681A (zh) 2012-01-11
CN102314681B CN102314681B (zh) 2013-04-10

Family

ID=45427819

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110190937 Expired - Fee Related CN102314681B (zh) 2011-07-08 2011-07-08 基于子镜头分割的自适应关键帧提取方法

Country Status (1)

Country Link
CN (1) CN102314681B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135401A (zh) * 2017-03-31 2017-09-05 北京奇艺世纪科技有限公司 关键帧选取方法及系统
CN107169988A (zh) * 2017-05-12 2017-09-15 江苏大学 一种基于余弦距离层次聚类的关键帧提取方法
CN109862390A (zh) * 2019-02-26 2019-06-07 北京融链科技有限公司 媒体流的优化方法和装置、存储介质、处理器
CN110020093A (zh) * 2019-04-08 2019-07-16 深圳市网心科技有限公司 视频检索方法、边缘设备、视频检索装置及存储介质
CN110472484A (zh) * 2019-07-02 2019-11-19 山东师范大学 基于多视图特征的视频关键帧提取方法、系统及设备
CN111666447A (zh) * 2020-06-05 2020-09-15 镇江傲游网络科技有限公司 一种基于内容的三维cg动画搜索方法及装置
GR20210100499A (el) * 2021-07-20 2023-02-10 Αθανασιος Γεωργιου Παπαγκοτσης Αποτυπωση qr code πιστοποιησης και βεβαιωσης εμβολιασμου/νοσησης

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TING WANG ETC.: "An Approach to Video Key-frame Extraction Based on Rough Set", 《2007 INTERNATIONAL CONFERENCE ON MULTIMEDIA AND UBIQUITOUS ENGINEERING(MUE"07)》 *
潘磊: "基于聚类的视频镜头分割和关键帧提取", 《红外与激光工程》 *
王华伟等: "一种基于子镜头聚类的情节代表帧选取方法", 《计算机工程与应用》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135401A (zh) * 2017-03-31 2017-09-05 北京奇艺世纪科技有限公司 关键帧选取方法及系统
CN107135401B (zh) * 2017-03-31 2020-03-27 北京奇艺世纪科技有限公司 关键帧选取方法及系统
CN107169988A (zh) * 2017-05-12 2017-09-15 江苏大学 一种基于余弦距离层次聚类的关键帧提取方法
CN109862390A (zh) * 2019-02-26 2019-06-07 北京融链科技有限公司 媒体流的优化方法和装置、存储介质、处理器
CN109862390B (zh) * 2019-02-26 2021-06-01 北京融链科技有限公司 媒体流的优化方法和装置、存储介质、处理器
CN110020093A (zh) * 2019-04-08 2019-07-16 深圳市网心科技有限公司 视频检索方法、边缘设备、视频检索装置及存储介质
CN110472484A (zh) * 2019-07-02 2019-11-19 山东师范大学 基于多视图特征的视频关键帧提取方法、系统及设备
CN110472484B (zh) * 2019-07-02 2021-11-09 山东师范大学 基于多视图特征的视频关键帧提取方法、系统及设备
CN111666447A (zh) * 2020-06-05 2020-09-15 镇江傲游网络科技有限公司 一种基于内容的三维cg动画搜索方法及装置
GR20210100499A (el) * 2021-07-20 2023-02-10 Αθανασιος Γεωργιου Παπαγκοτσης Αποτυπωση qr code πιστοποιησης και βεβαιωσης εμβολιασμου/νοσησης

Also Published As

Publication number Publication date
CN102314681B (zh) 2013-04-10

Similar Documents

Publication Publication Date Title
CN102314681B (zh) 基于子镜头分割的自适应关键帧提取方法
US10733985B2 (en) Digital video fingerprinting using motion segmentation
EP3933686A2 (en) Video processing method, apparatus, electronic device, storage medium, and program product
Riemenschneider et al. Learning where to classify in multi-view semantic segmentation
CN101719144B (zh) 一种联合字幕和视频图像信息进行场景分割和索引的方法
CN102800095B (zh) 一种镜头边界检测方法
CN103942751B (zh) 一种视频关键帧提取方法
Vojíř et al. The enhanced flock of trackers
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN110197135B (zh) 一种基于多维分割的视频结构化方法
US20080112606A1 (en) Method for moving cell detection from temporal image sequence model estimation
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN103390040A (zh) 一种视频拷贝检测方法
CN101577824B (zh) 基于邻近i帧dc图像相似度的压缩域关键帧提取方法
Zhang et al. Coarse-to-fine object detection in unmanned aerial vehicle imagery using lightweight convolutional neural network and deep motion saliency
Youssef et al. Shot boundary detection via adaptive low rank and svd-updating
CN109146925B (zh) 一种动态场景下显著性目标检测方法
CN103279473A (zh) 海量视频内容检索方法、系统及移动终端
CN104036280A (zh) 基于感兴趣区域和聚类相结合的视频指纹方法
Rong et al. Scene text recognition in multiple frames based on text tracking
Bae et al. Dual-dissimilarity measure-based statistical video cut detection
Wang et al. Semantic annotation for complex video street views based on 2D–3D multi-feature fusion and aggregated boosting decision forests
CN111160099B (zh) 一种视频图像目标的智能化分割方法
WO2010084738A1 (ja) 照合加重情報抽出装置
CN108573217B (zh) 一种结合局部结构化信息的压缩跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB03 Change of inventor or designer information

Inventor after: Xie Gang

Inventor after: Lei Shaoshuai

Inventor after: Zhao Wenjing

Inventor after: Han Xiaoxia

Inventor after: Xu Xinying

Inventor after: Wang Fang

Inventor before: Lei Shaoshuai

Inventor before: Zhao Wenjing

Inventor before: Han Xiaoxia

Inventor before: Xie Gang

Inventor before: Xu Xinying

Inventor before: Wang Fang

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: LEI SHAOSHUAI ZHAO WENJING HAN XIAOXIA XIE GANG XU XINYING WANG FANG TO: XIE GANG LEI SHAOSHUAI ZHAO WENJING HAN XIAOXIA XU XINYING WANG FANG

C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130410

Termination date: 20130708