CN106777159A - 一种基于内容的视频片段检索及定位方法 - Google Patents

一种基于内容的视频片段检索及定位方法 Download PDF

Info

Publication number
CN106777159A
CN106777159A CN201611185017.4A CN201611185017A CN106777159A CN 106777159 A CN106777159 A CN 106777159A CN 201611185017 A CN201611185017 A CN 201611185017A CN 106777159 A CN106777159 A CN 106777159A
Authority
CN
China
Prior art keywords
video
vector
histogram
window
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611185017.4A
Other languages
English (en)
Other versions
CN106777159B (zh
Inventor
王萍
张童宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201611185017.4A priority Critical patent/CN106777159B/zh
Publication of CN106777159A publication Critical patent/CN106777159A/zh
Application granted granted Critical
Publication of CN106777159B publication Critical patent/CN106777159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Abstract

本发明公开了一种基于内容的视频片段检索及定位方法,为了解决现有视频检索及定位领域中特征提取计算量大、特征单一、及定位准确率低等问题,本发明提出一种基于内容的视频片段检索及定位方法,属于视频处理领域。该方法首先对H.264压缩视频进行部分解码提取视频的运动信息和静态信息,并生成多种特征矢量;再通过度量特征矢量之间的距离判断视频之间的相似性,从而实现相似内容的视频检索;最后提出一种基于滑动窗的定位算法,对根据相似性筛选出的候选视频,基于窗口度量特征矢量之间的距离,并进一步采用特征筛选、定位截止算法对查询视频在候选视频中进行准确有效的定位。

Description

一种基于内容的视频片段检索及定位方法
技术领域
本发明属于视频处理领域,一种基于内容的视频片段检索及定位方法,涉及一种联合多种特征的视频检索方法和一种基于滑动窗的视频定位算法。
背景技术
随着计算机、多媒体及网络技术的迅猛发展,网络视频的制作与传播越来越简单方便,从而导致数字多媒体视频信息规模呈爆炸式增长。传统的视频处理方法已经无法满足人们对于海量视频内容进行快速浏览、检索和查询。为了有效地对大量视频资源进行处理,基于视频内容的智能化分析技术应运而生。基于内容的视频片段检索技术能够辅助人们完成视频检索、定位、挖掘等任务,从而更好地对视频数据进行有效管理和高效利用。基于内容的视频片段定位技术对网络视频检索、广告视频定位统计及视频关联分析等方面具有重要意义,是国内外众多学者研究的一个热点。
目前基于视频内容相似性的检索及定位方法众多,根据不同的应用场景,具体解决算法也会存在较大差异。现有的基于内容的视频检索及定位算法,比如一种基于关联矩阵和动态滑动窗口的视频片段检索方法(Kang M,Huang X,Yang L.Video clip retrievalbased on incidence matrix and dynamic-step sliding-window[C].2010International Conference on Computer Application and System Modeling(ICCASM2010).IEEE,2010,Vol.2,pp.256-259.),该方法首先对查询视频片段和库视频采用基于关联矩阵的最大正向匹配方法排除掉一些不相似视频,然后采用基于动态滑动窗的方法对剩余的视频进行分割,对每个窗口内的查询视频片段和库视频片段采用基于关联矩阵的最大正向匹配 方法再次排除掉一些不相似视频,最后对剩余的视频片段进行组合形成一个新的视频序列,采用基于视觉因子、序列因子和干扰因子的算法计算视频间的相似性,根据相似性得到相似的查询视频。这种方法具有良好的性能,但是基于关联矩阵的最大正向匹配方法计算很复杂,基于视觉因子、序列因子和干扰因子算法也有一定的局限性,对于一些体育视频或运动程度激烈的视频效果并不好。(Chiu C Y,Tsai T H,Hsieh C Y.Efficientvideo segment matching for detecting temporal-based video copies[J].Neurocomputing,2013,105:70-80.)该文首先将查询视频通过一个滑动窗分割成重复的视频片段,将库视频中的目标视频通过相同的滑动窗分割成不重复的视频片段;然后采用基于序列的签名方法,对目标视频进行有效筛选;接着通过提取查询视频片段和留下的目标视频片段的SIFT特征来进行视频片段之间的相似性计算;最终根据相似性最终输出目标视频中所有匹配成功的查询视频片段。该方法在利用滑动窗分割成重复的视频片段时,对视频特征进行了大量的重叠计算,增加了大量不必要的计算量。
在视频特征方面,如果检测到视频之间的内容变化轻微,多数算法采用简单的全局特征,反之则采用具有更好鲁棒性的局部特征。比如一种基于近重复的视频匹配方法(Belkhatir M,Tahayna B.Near-duplicate video detection featuring coupledtemporal and perceptual visual structures and logical inference basedmatching[J].Information Processing&Management,2012,48(3):489-501.)和一种基于内容的重复视频片段检测方法(Min H,Choi J Y,De Neve W,et al.Near-duplicatevideo clip detection using model-free semantic concept detection and adaptivesemantic distance measurement[J].IEEE Transactions on Circuits and Systemsfor Video Technology,2012,22(8):1174-1187.)分别在像 素域提取视频的颜色、纹理特征和SIFT特征,通过计算不同视频特征之间的距离来进行视频的检索。上述方法均具有很好的鲁棒性,但是存在以下两点不足:1.视频特征比较单一,只能有限地对视频内容进行描述;2.都是在像素域提取表征视频的特征,运算量及存储空间需求都很大。
发明内容
针对上述缺陷或不足,本发明的目的在于提出一种基于内容的视频片段检索及定位方法,该方法首先将多种特征进行联合,能够更加全面地描述视频内容;其次提出一种新的定位截止算法,实现了有效的截止和快速的定位,具有很高的准确性。
本发明通过以下技术方案来实现:
一种基于内容的视频片段检索及定位方法,技术方案为:
首先对H.264压缩视频进行部分解码提取视频的运动信息和静态信息,并生成多种特征矢量;其次通过度量特征矢量之间的距离判断视频之间的相似性,从而实现相似内容的视频检索,选取候选视频;最后提出一种基于滑动窗的定位算法,基于窗口度量特征矢量之间的距离,并进一步采用特征筛选、定位截止算法对查询视频在候选视频中进行准确有效的定位。
包括以下步骤:
1)视频片段分割:
分别对库视频和查询视频以4s为单位分割成相同长度的视频片段;
2)提取视频特征信息:
分别从库视频和查询视频片段的H.264压缩码流中提取视频的运动信息和静态信息;
运动信息为提取P帧中每个4×4子块的运动矢量(MV):vi=(dx,dy),其中vi表示第i个子块的运动矢量,dx和dy分别表示当前块与参考帧中最佳匹配块之间的水平像素位移和垂直像素位移,因为H.264对P帧预测时存在不同的块尺寸,如16×16、16×8、8×16、8×8、8×4、4×8和4×4,因此从压缩码流中提取出运动矢量后将其空域归一化得到每个4×4子块的运动矢量。例如提取出某一16×8块的运动矢量后,则该块内部的所有4×4子块均具有相同大小的运动矢量;
静态信息为提取I帧中每个4×4子块的预测模式及其对应的DCT系数,因为H.264对I帧预测时也存在不同的块尺寸,如16×16、8×8和4×4。例如当宏块采用16×16帧内预测时,则该宏块内的16个4×4子块均采用同一预测模式;当宏块采用4×4帧内预测时,则从压缩流中直接提取每个子块的预测模式;
3)构造特征矢量:
分别对库视频和查询视频片段中提取的运动信息和静态信息进行处理,构造出六种特征矢量,并存放在特征库中,其中基于运动信息构造出四种特征矢量:运动强度直方图、运动方向直方图、运动活动性直方图和场景变换直方图;基于静态信息构造出两种特征矢量:DC能量直方图和预测模式直方图;
4)度量库视频和查询视频片段特征矢量间的距离,根据视频之间的相似性选取候选视频:
先分别计算库视频和查询视频片段每种特征矢量之间的距离,公式如下:
其中Qi为查询视频第i个片段的特征矢量,Dn,j为视频库中第n个视频的第j 个片段的特征矢量,K表示特征矢量的维数,距离▽d的值越接近0,表明两个特征的相似度越高;
再对需比较的两个视频片段的六种特征矢量间的距离值▽d求平均,得到D(Qi,Dn,j),设置阈值θ,当D(Qi,Dn,j)≤θ,则认为是相似的视频片段,该片段所在的长视频Dn作为候选视频;
5)对候选视频采用基于滑动窗的方法,分段度量特征矢量间的距离:
以查询视频长度为窗口长度,调节滑动步长step,按照步骤3)中的方法提取查询视频和候选视频各窗口的特征矢量,利用步骤4)中的距离公式,对查询视频在候选视频上滑动进行分段匹配,计算得到查询视频和候选视频各窗口间的特征矢量距离值di,k,其中i对应六种不同的特征矢量,k表示候选视频第k个窗口;
6)特征筛选:
对于不同内容的视频,并非每一种特征矢量都能够对其进行有效表达,根据步骤5)中生成的距离值di,k,采用特征阈值法和投票权值法对特征矢量进行有效筛选;
A.特征阈值法:
考察特征矢量距离在所有窗口间的波动情况,波动小的特征,区分度较低,不能有效地描述视频内容,将此特征滤除,计算每种特征矢量距离在所有窗口间的离差,公式如下:
其中i对应六种不同的特征矢量,K表示总的窗口数,是第i种特征矢量距离在所有窗口间的均值,
设置阈值T1,滤除离差值小于T1的特征;
B.投票权值法:
对特征阈值法筛选留下的特征矢量采用基于投票的思想对其进一步筛选:首先对于每种特征矢量距离值di,k,找出其最小距离值所在的窗口k;然后对各个特征的最小距离值所在窗口k进行投票,找出投票最多的窗口;对最小距离值落在最多窗口的特征予以保留,而其他特征予以剔除;最终计算得到查询视频与候选视频第k个窗口间的距离值dk,公式如下:
其中N表示特征阈值法筛选后剩余的特征矢量数,wi表示第i种特征矢量的权值,保留的特征其权值是1.0,剔除的特征其权值是0.0;
7)定位截止算法:
利用距离值dk与定位阈值Tmax和Tmin之间的关系,按照定位算法进行有效地截止,如需调节滑动步长,则重复步骤5)—7),最终输出查询视频在候选视频中的对应片段,滑动步长step的初始值设为step=int(窗口长度/2)×码率,int为取整函数;
步骤3)中六种特征矢量具体生成过程如下:
运动强度直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的幅度均值I(k):
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数;
然后统计各区域I(k)占9个区域MV幅度均值总和的比例,生成第j帧图像中具有顺序的9维直方图:
最后对一段连续M帧的视频,生成运动强度直方图特征矢量Harea(k):
运动方向直方图:首先计算一帧图像内各个运动矢量MV的方向角度θ:
θ=arctan(dy/dx) -π≤θ≤π
根据角度θ判断该MV所属方向区间,方向区间是将-π到π的范围12等分得到;
然后分别统计每个MV的方向角度θ落在这12个方向区间上的比例,生成第j帧图像中12维的运动方向直方图:
其中l(k)是运动方向角度θ落在第k个方向区间上的MV总数;
最后对一段连续M帧的视频,生成运动方向直方图特征矢量Hdir(k):
运动活动性直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的标准差var(k):
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数,I(k)是该区域内MV的幅度均值;
然后按照运动活动性量化标准表3,分别统计每个档次运动活动性的比 重,对于第j帧图像,形成5维的运动活动性直方图Hvar,j(k);
最后对一段连续M帧的视频,生成运动活动性直方图特征矢量Hvar(k):
场景变换直方图:首先分别统计每一帧中MV为(0,0)的4×4子块数目N0占所有4×4子块N的比例:因为零值MV个数的多少能够描述视频内容在时间上的变化情况,能够反映视频中场景变化的剧烈程度;
然后对比值r进行压扩处理得到log_r:并将log_r量化到5个区间,分别统计各量化等级的比例,得到5维的场景变换直方图:
最后对一段连续M帧的视频,生成场景变换直方图特征矢量Hzero(k):
DC能量直方图:提取每一个子块的DC系数,将DC系数量化等级分成12个区间,分别统计每个量化区间中子块的个数生成DC能量直方图特征矢量HDC(k):
其中k=0,1,2…,11表示12个量化区间,h和w分别为图像在行和列方向的4×4子块个数,pij为第i行第j列4×4子块的DC能量值,fk(pij)为其对应的量化区间,当k=0,1,2…,10时,如果(k-1)×256<pij<=k×256,则fk(pij)=1,否则fk(pij)=0,不符合以上条件,均统计到k=11中;
预测模式直方图:提取每一个子块的帧内预测模式,共有13种预测模 式,分别统计13种模式的子块个数生成预测模式直方图特征矢量Hmode(k):
其中k=0,1,2…,12表示13种预测模式,h和w分别为图像在行和列方向的4×4子块个数,fij为第i行第j列4×4子块的预测模式,若fij属于第k种模式,则modek(fij)=1,否则modek(fij)=0;
步骤7)中定位算法具体过程如下:
第一步:如果存在距离值dk=0,则输出dk所在的视频片段,定位结束;如果所有距离值dk都大于0.3,则说明不存在相似的查询视频,定位结束;
第二步:如果最小距离值dmin≤0.3,考察此窗口相邻的左右两个窗口的距离值(其中小者为dmin1,大者为dmax1),如果满足条件dmax 1≥Tmax×dmin和dmin1≥Tmin×dmin,则输出dmin所在的视频片段,定位结束,否则执行第三步;其中Tmax=-3.812×10-4×step2+0.1597×step+1.117
Tmin=-5.873×10-5×step2+0.0868×step+0.819;
第三步:选择dmin和dmin1所在的视频片段区间再次进行精确的定位,调节滑动步长step:如果step<50,则step=int(step/5),否则step=int(step/2),式中int代表取整数操作,调节步长后重新执行步骤5)—7),如果并不能有效找出定位位置,最后输出dmin所在的视频片段即可。
与现有技术比较,本发明的有益效果为:
本发明提出了一种基于内容的视频片段检索及定位方法,首先对H.264压缩视频进行部分解码提取视频的运动信息和静态信息,并生成多种特征矢量;其次通过度量特征矢量之间的距离判断视频之间的相似性,从而实现相似内容的视频检索,选取候选视频;最后提出一种基于滑动窗的定位算法, 基于窗口度量特征矢量之间的距离,并进一步采用特征筛选、定位截止算法对查询视频在候选视频中进行准确有效的定位。优势只要体现在:
(1)本发明基于压缩域中提取的特征信息,采用多种特征联合的方法,一方面解决基于像素域特征提取的计算量大,处理速度慢的问题,一方面由于联合多种特征,能够更加全面的描述视频内容,增加检索的准确性。
(2)为了解决现有的视频定位算法中定位准确率低的问题,本发明提出一种新的定位算法,充分利用视频内容之间的相关性,实现了有效的截止和快速的定位。该方法具有很高的准确性,提高了定位效率和速度。
附图说明
图1是本发明检索候选视频的流程图;
图2是本发明视频定位检索流程图;
图3是本发明中投票权值法进行特征筛选的流程图;
图4是本发明视频定位截止算法的流程图。
具体实施方式
下面结合附图对本发明方法的实施方式做详细说明。
如图1所示,本发明提供了一种基于内容的视频片段检索方法,该方法首先将库视频和查询视频分割成长度相同的视频片段,提取视频片段H.264压缩码流中的特征信息,并对其进行处理生成六种特征矢量存放在视频库中。通过度量库视频和查询视频片段特征矢量之间的距离判断视频之间的相似性,从而实现相似内容的视频检索,选取候选视频。如图2所示,本发明提出一种基于滑动窗的定位算法,将选取的候选视频作为目标视频,以查询视频长度为窗口长度,重新提取滑动窗口内查询视频和目标视频的特征信息并生成特征矢量,基于窗口度量特征矢量之间的距离,并进一步采用特征筛选、 定位截止算法对查询视频在候选视频中进行准确有效的定位。
一种基于内容的视频片段检索及定位方法,其具体实现过程如下:
步骤一、视频片段分割:
分别对库视频与查询视频以4s为单位分割成长度相同的视频片段,不够4s的视频片段采取向前重复补够时间长度;
步骤二、提取视频特征信息:
分别从库视频和查询视频片段的H.264压缩码流中提取视频的运动信息和静态信息;
提取运动信息:运动信息为提取P帧中每个4×4子块的运动矢量(MV):vi=(dx,dy),其中vi表示第i个子块的运动矢量,dx和dy分别表示当前块与参考帧中最佳匹配块之间的水平像素位移和垂直像素位移,因为H.264对P帧预测时存在不同的块尺寸,如16×16、16×8、8×16、8×8、8×4、4×8和4×4,因此从压缩码流中提取出运动矢量后将其空域归一化得到每个4×4子块的运动矢量。例如提取出某一16×8块的运动矢量后,则该块内部的所有4×4子块均具有相同大小的运动矢量,对于CIF格式的视频,每一帧得到的运动矢量矩阵大小为88×72;
提取静态信息:静态信息为提取I帧中每个4×4子块的预测模式及其对应的DCT系数。其中预测模式能够反映图像的边缘模式特征,因为H.264对I帧预测时存在不同的块尺寸,如16×16、8×8和4×4。如果宏块采用16×16帧内预测,则该宏块内的16个4×4子块均采用同一预测模式,如果宏块采用4×4帧内预测,则从压缩流中可以直接提取每个子块的预测模式。对于CIF格式的视频,每帧包含88×72个4×4分块;
DCT系数在一定程度上可以反映视频图像的纹理信息,二维DCT变换 的定义如下:
其中u,v=0,1,2…,N-1,当u=0时,其他情况下a(u)=1,C(u,v)是DCT变换后(u,v)位置的DCT系数;
步骤三、构造特征矢量:
分别对从库视频和查询视频片段中提取的运动信息和静态信息进行处理,构造出六种特征矢量,并存放在特征库中,其中基于运动信息构造出四种特征矢量,分别是运动强度直方图、运动方向直方图、运动活动性直方图和场景变换直方图,具体的生成过程如下:
运动强度直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的幅度均值I(k):
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数。
然后统计各区域I(k)占9个区域MV幅度均值总和的比例,生成第j帧图像中具有顺序的9维直方图:
最后对一段连续M帧的视频,生成运动强度直方图特征矢量Harea(k):
运动方向直方图:首先计算一帧图像内各个运动矢量MV的方向角度θ:
θ=arctan(dy/dx) -π≤θ≤π
根据角度θ判断该MV所属方向区间,方向区间是将-π到π的范围12等分得到。
然后分别统计每个MV的方向角度θ落在这12个方向区间上的比例,生成第j帧图像中12维的运动方向直方图:
其中l(k)是运动方向角度θ落在第k个方向区间上的MV总数;
最后对一段连续M帧的视频,生成运动方向直方图特征矢量Hdir(k):
运动活动性直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的标准差var(k):
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数,I(k)是该区域内MV的幅度均值;
然后按照运动活动性量化标准表3,分别统计每个档次运动活动性的比重,对于第j帧图像,形成5维的运动活动性直方图Hvar,j(k);
最后对一段连续M帧的视频,生成运动活动性直方图特征矢量Hvar(k):
场景变换直方图:首先分别统计每一帧中MV为(0,0)的4×4子块数目N0占所有4×4子块N的比值:因为零值MV个数的多少能够描述视频内容在时间上的变化情况,因此能够反映视频中场景变化的剧烈程度;
然后对比值r进行压扩处理得到log_r:并将log_r量化到5个区间,分别统计各量化等级的比例,得到5维的场景变换直方图:
最后对一段连续M帧的视频,生成场景变换直方图特征矢量Hzero(k):
基于静态信息构造出两种特征矢量,分别是DC能量直方图和预测模式直方图,具体生成过程如下:
DC能量直方图:提取每一个子块的DC系数,将DC系数量化等级分成12个区间,分别统计每个量化区间中子块的个数生成DC能量直方图特征矢量HDC(k):
其中k=0,1,2…,11表示12个量化区间,h和w分别为图像在行和列方向的4×4子块个数,pij为第i行第j列4×4子块的DC能量值,fk(pij)为其对应的量化区间,当k=0,1,2…,10时,如果(k-1)×256<pij<=k×256,则fk(pij)=1,否则fk(pij)=0,不符合以上条件,均统计到k=11中;
预测模式直方图:提取每一个子块的帧内预测模式,共有13种预测模式,分别统计13种模式的子块个数生成预测模式直方图特征矢量Hmode(k):
其中k=0,1,2…,12表示13种预测模式,h和w分别为图像在行和列方向的4×4子块个数,fij为第i行第j列4×4子块的预测模式,若fij属于第k种模式,则modek(fij)=1,否则modek(fij)=0;
步骤四、度量特征矢量之间的距离,根据视频间的相似性选取候选视频:
根据步骤三中生成的表征视频片段内容的六种特征矢量,分别计算每种特征矢量之间的距离值,公式如下:
其中Qi为查询视频第i个片段的特征矢量,Dn,j为视频库中第n个视频的第j个片段的特征矢量,K表示特征矢量的维数。距离▽d的值越接近0,表明两个特征的相似度越高;
对需比较的两个视频片段的六种特征矢量间的距离值▽d求平均,得到D(Qi,Dn,j)。设置阈值θ,当D(Qi,Dn,j)≤θ,则认为是相似的视频片段,选取相似视频片段Dn,j所在的长视频Dn作为候选视频,通过统计得到θ=0.3562;
步骤五、采用基于滑动窗的方法,分段度量特征矢量间的距离:
将选取的候选视频作为目标视频,以查询视频长度为窗口长度,按照步骤3)中的方法重新提取滑动窗口内查询视频和目标视频的特征信息并生成相应的特征矢量,滑动步长step的初始值设为step=int(窗口长度/2)×码率,int为取整函数,对查询视频在候选视频上滑动进行分段匹配,利用步骤4)中的距离公式计算每个窗口间的特征矢量之间距离值di,k,其中i对应六种不同的特征矢量,k表示候选视频第k个窗口,例如查询视频长度为4s,目标视频为12s,视频帧率为25fps,那么窗口长度即为100帧,滑动步长初始值为50,则可以将目标视频划分得到5个窗口,通过计算可以得到距离值矩阵大小为6×5,其中6代表6种特征矢量,5为不同的滑动窗口数;
步骤六、特征筛选:
对于不同内容的视频,并非每一种特征矢量都能够对其进行有效表达,根据步骤5)中生成的距离值di,k,采用特征阈值法和投票权值法对特征矢量进行有效筛选;
A.特征阈值法:
考察特征矢量距离在所有窗口间的波动情况,波动小的特征,区分度较低,不能有效地描述视频内容,将此特征滤除。计算每种特征矢量距离在所有窗口间的离差,公式如下:
其中i对应六种不同的特征矢量,K表示总的窗口数,是每种特征矢量距离值的均值,T1=0.12;
B.投票权值法:
对特征阈值法筛选留下的特征矢量采用基于投票的思想对其进一步筛选,如图3所示,首先对于每种特征矢量距离值di,k,找出其最小距离值所在的窗口k;然后对各个特征的最小距离值所在窗口k进行投票,找出投票最多的窗口;对最小距离值落在最多窗口的特征予以保留,而其他特征予以剔除;最终计算得到查询视频与候选视频第k个窗口间的距离值dk,公式如下:
其中N表示特征阈值法筛选后剩余的特征矢量数,wi表示第i种特征矢量的权值,保留的特征其权值是1.0,剔除的特征其权值是0.0;
步骤七、定位截止算法:
通过上面的特征筛选,最终计算得到了关于k个窗口的k个距离值,这 里根据步骤五中的实例,最终得到5个距离值,接下来利用定位截止算法进行具体的定位,如图4所示,根据距离值dk与定位阈值Tmax和Tmin之间的关系,按照定位算法进行有效地截止,最终输出查询视频在候选视频中的对应片段,定位算法具体步骤如下:
第一步:如果存在距离值dk=0,则输出dk所在的视频片段,定位结束;如果所有距离值dk都大于0.3,则说明不存在相似的查询视频,定位结束;
第二步:如果最小距离值dmin≤0.3,考察此窗口相邻的左右两个窗口的距离值(其中小者为dmin1,大者为dmax1)。如果满足条件dmax1≥Tmax×dmin和dmin1≥Tmin×dmin,则输出dmin所在的视频片段,定位结束,否则执行第三步;其中Tmax=-3.812×10-4×step2+0.1597×step+1.117
Tmin=-5.873×10-5×step2+0.0868×step+0.819;
第三步:选择dmin和dmin1所在的视频片段区间再次进行精确的定位,调节滑动步长step:如果step<50,则step=int(step/5),否则step=int(step/2),式中int代表取整数操作,调节步长后重新执行步骤五—七:首先根据步骤五中的方法重新提取新窗口中目标视频的特征信息,并利用步骤六中的方法生成最终的距离值,用步骤七的定位截止算法重新进行判断,如果并不能有效找出定位位置,最后输出dmin所在的视频片段即可。
如表1所示,利用本发明中定位截止算法在视频库中对不同长度和内容的视频片段进行定位的结果示例。定位精度值越接近100%,定位准确度越高,说明了定位算法的准确性。
表1 利用本发明在数据集中定位成功的计算结果
如表2所示,与现有的基于滑动窗的视频片段检索方法(Kang M,Huang X,YangL.Video clip retrieval based on incidence matrix and dynamic-step sliding-window[C].2010 International Conference on Computer Application and SystemModeling(ICCASM 2010).IEEE,2010,Vol.2,pp:256-259.)相比,本发明在保证视频匹配过程时间变化不大的基础上,提高了视频定位的精度和检索的准确性。
表2 本发明与现有的视频定位方法的对比结果
如表3所示,为步骤3)中运动活动性量化标准表。
表3 运动活动性量化标准表

Claims (4)

1.一种基于内容的视频片段检索及定位方法,其特征在于,首先对H.264压缩视频进行部分解码提取视频的运动信息和静态信息,并生成多种特征矢量;其次通过度量特征矢量之间的距离判断视频之间的相似性,从而实现相似内容的视频检索,选取候选视频;最后提出一种基于滑动窗的定位算法,基于窗口度量特征矢量之间的距离,并进一步采用特征筛选、定位截止算法对查询视频在候选视频中进行准确有效的定位。
2.根据权利要求1所述的一种基于内容的视频片段检索及定位方法,其特征在于,包括以下步骤:
1)视频片段分割:
分别对库视频和查询视频以4s为单位分割成相同长度的视频片段;
2)提取视频特征信息:
分别从库视频和查询视频片段的H.264压缩码流中提取视频的运动信息和静态信息;
运动信息为提取P帧中每个4×4子块的运动矢量(MV):vi=(dx,dy),其中vi表示第i个子块的运动矢量,dx和dy分别表示当前块与参考帧中最佳匹配块之间的水平像素位移和垂直像素位移;
静态信息为提取I帧中每个4×4子块的预测模式及其对应的DCT系数;
3)构造特征矢量:
分别对库视频和查询视频片段中提取的运动信息和静态信息进行处理,构造出六种特征矢量,并存放在特征库中,其中基于运动信息构造出四种特征矢量:运动强度直方图、运动方向直方图、运动活动性直方图和场景变换直方图;基于静态信息构造出两种特征矢量:DC能量直方图和预测模式直方图;
4)度量库视频和查询视频片段特征矢量间的距离,根据视频之间的相似性选取候选视频:
先分别计算库视频和查询视频片段每种特征矢量之间的距离,公式如下:
&dtri; d = &Sigma; k = 1 K | Q i ( k ) - D n , j ( k ) |
其中Qi为查询视频第i个片段的特征矢量,Dn,j为视频库中第n个视频的第j个片段的特征矢量,K表示特征矢量的维数,距离的值越接近0,表明两个特征的相似度越高;
再对需比较的两个视频片段的六种特征矢量间的距离值求平均,得到D(Qi,Dn,j),设置阈值θ,当D(Qi,Dn,j)≤θ,则认为是相似的视频片段,该片段所在的长视频Dn作为候选视频;
5)对候选视频采用基于滑动窗的方法,分段度量特征矢量间的距离:
以查询视频长度为窗口长度,调节滑动步长step,按照步骤3)中的方法提取查询视频和候选视频各窗口的特征矢量,利用步骤4)中的距离公式,对查询视频在候选视频上滑动进行分段匹配,计算得到查询视频和候选视频各窗口间的特征矢量距离值di,k,其中i对应六种不同的特征矢量,k表示候选视频第k个窗口;
6)特征筛选:
根据步骤5)中生成的距离值di,k,采用特征阈值法和投票权值法对特征矢量进行有效筛选;
A.特征阈值法:
计算每种特征矢量距离在所有窗口间的离差,公式如下:
&delta; ( i ) = 1 K &Sigma; k = 1 K | d i &OverBar; - d i , k |
其中i对应六种不同的特征矢量,K表示总的窗口数,是第i种特征矢量距离在所有窗口间的均值,
设置阈值T1,滤除离差值小于T1的特征;
B.投票权值法:
对特征阈值法筛选留下的特征矢量采用基于投票的思想对其进一步筛选:首先对于每种特征矢量距离值di,k,找出其最小距离值所在的窗口k;然后对各个特征的最小距离值所在窗口k进行投票,找出投票最多的窗口;对最小距离值落在最多窗口的特征予以保留,而其他特征予以剔除;最终计算得到查询视频与候选视频第k个窗口间的距离值dk,公式如下:
d k = 1 N &Sigma; i = 1 N ( d i , k &times; w i )
其中N表示特征阈值法筛选后剩余的特征矢量数,wi表示第i种特征矢量的权值,保留的特征其权值是1.0,剔除的特征其权值是0.0;
7)定位截止算法:
利用距离值dk与定位阈值Tmax和Tmin之间的关系,按照定位算法进行有效地截止,如需调节滑动步长,则重复步骤5)—7),最终输出查询视频在候选视频中的对应片段,滑动步长step的初始值设为step=int(窗口长度/2)×码率,int为取整函数。
3.根据权利要求2所述的一种基于内容的视频片段检索及定位方法,其特征在于,步骤3)中六种特征矢量具体生成过程如下:
运动强度直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的幅度均值I(k):
I ( k ) = 1 N &Sigma; i = 1 N d x 2 + d y 2
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数;
然后统计各区域I(k)占9个区域MV幅度均值总和的比例,生成第j帧图像中具有顺序的9维直方图:
H a r e a , j ( k ) = I ( k ) &Sigma; k = 0 8 I ( k )
最后对一段连续M帧的视频,生成运动强度直方图特征矢量Harea(k):
H a r e a ( k ) = &Sigma; j = 1 M H a r e a , j ( k ) / M ;
运动方向直方图:首先计算一帧图像内各个运动矢量MV的方向角度θ:
θ=arctan(dy/dx)-π≤θ≤π
根据角度θ判断该MV所属方向区间,方向区间是将-π到π的范围12等分得到;
然后分别统计每个MV的方向角度θ落在这12个方向区间上的比例,生成第j帧图像中12维的运动方向直方图:
H d i r , j ( k ) = l ( k ) &Sigma; k = 0 11 l ( k )
其中l(k)是运动方向角度θ落在第k个方向区间上的MV总数;
最后对一段连续M帧的视频,生成运动方向直方图特征矢量Hdir(k):
H d i r ( k ) = &Sigma; j = 1 M H d i r , j ( k ) / M ;
运动活动性直方图:首先将一帧图像均分成9个区域,分别计算各个区域中所含MV的标准差var(k):
var ( k ) = &Sigma; i = 1 N ( | | v &RightArrow; ( i ) | | - I ( k ) ) 2 N
其中k=0,1,2…,8表示9个区域,N表示第k个区域内MV的总数,I(k)是该区域内MV的幅度均值;
然后按照运动活动性量化标准表3,分别统计每个档次运动活动性的比重,对于第j帧图像,生成5维的运动活动性直方图Hvar,j(k);
最后对一段连续M帧的视频,生成运动活动性直方图特征矢量Hvar(k):
H var ( k ) = &Sigma; j = 1 M H var , j ( k ) / M ;
场景变换直方图:首先分别统计每一帧中MV为(0,0)的4×4子块数目N0占所有4×4子块N的比例:然后对比值r进行压扩处理得到log_r:
并将log_r量化到5个区间,分别统计各量化等级的比例,得到5维的场景变换直方图:
最后对一段连续M帧的视频,生成场景变换直方图特征矢量Hzero(k):
H z e r o ( k ) = &Sigma; j = 1 M H z e r o , j ( k ) / M ;
DC能量直方图:提取每一个子块的DC系数,将DC系数量化等级分成12个区间,分别统计每个量化区间中子块的个数生成DC能量直方图特征矢量HDC(k):
H D C ( k ) = &Sigma; i = 1 h &Sigma; j = 1 w f k ( p i j ) / ( h &times; w )
其中k=0,1,2…,11表示12个量化区间,h和w分别为图像在行和列方向的4×4子块个数,pij为第i行第j列4×4子块的DC能量值,fk(pij)为其对应的量化区间,当k=0,1,2…,10时,如果(k-1)×256<pij<=k×256,则fk(pij)=1,否则fk(pij)=0,不符合以上条件,均统计到k=11中;
预测模式直方图:提取每一个子块的帧内预测模式,共有13种预测模式,分别统计13种模式的子块个数生成预测模式直方图特征矢量Hmode(k):
H mod e ( k ) = &Sigma; i = 1 h &Sigma; j = 1 w mode k ( f i j ) / ( h &times; w )
其中k=0,1,2…,12表示13种预测模式,h和w分别为图像在行和列方向的4×4子块个数,fij为第i行第j列4×4子块的预测模式,若fij属于第k种模式,则modek(fij)=1,否则modek(fij)=0;
4.根据权利要求2所述的一种基于内容的视频片段检索及定位方法,其特征在于,步骤7)中定位截止算法具体过程如下:
第一步:如果存在距离值dk=0,则输出dk所在的视频片段,定位结束;如果所有距离值dk都大于0.3,则说明不存在相似的查询视频,定位结束;
第二步:如果最小距离值dmin≤0.3,考察此窗口相邻的左右两个窗口的距离值(其中小者为dmin1,大者为dmax1),如果满足条件dmax1≥Tmax×dmin和dmin1≥Tmin×dmin,则输出dmin所在的视频片段,定位结束,否则执行第三步;其中Tmax=-3.812×10-4×step2+0.1597×step+1.117
Tmin=-5.873×10-5×step2+0.0868×step+0.819;
第三步:选择dmin和dmin1所在的视频片段区间再次进行精确的定位,调节滑动步长step:如果step<50,则step=int(step/5),否则step=int(step/2),式中int代表取整数操作,调节步长后重新执行步骤5)—7),如果并不能有效找出定位位置,最后输出dmin所在的视频片段即可。
CN201611185017.4A 2016-12-20 2016-12-20 一种基于内容的视频片段检索及定位方法 Active CN106777159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611185017.4A CN106777159B (zh) 2016-12-20 2016-12-20 一种基于内容的视频片段检索及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611185017.4A CN106777159B (zh) 2016-12-20 2016-12-20 一种基于内容的视频片段检索及定位方法

Publications (2)

Publication Number Publication Date
CN106777159A true CN106777159A (zh) 2017-05-31
CN106777159B CN106777159B (zh) 2020-04-28

Family

ID=58894071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611185017.4A Active CN106777159B (zh) 2016-12-20 2016-12-20 一种基于内容的视频片段检索及定位方法

Country Status (1)

Country Link
CN (1) CN106777159B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107734387A (zh) * 2017-10-25 2018-02-23 北京网博视界科技股份有限公司 一种视频切割方法、装置、终端和存储介质
CN110738083A (zh) * 2018-07-20 2020-01-31 浙江宇视科技有限公司 基于视频处理的串并案分析方法及装置
CN112188246A (zh) * 2020-09-30 2021-01-05 深圳技威时代科技有限公司 一种视频云存储方法
CN112804586A (zh) * 2021-04-13 2021-05-14 北京世纪好未来教育科技有限公司 一种视频片段的获取方法、装置及设备
CN112839257A (zh) * 2020-12-31 2021-05-25 四川金熊猫新媒体有限公司 视频内容检测方法、装置、服务器及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
US20100188580A1 (en) * 2009-01-26 2010-07-29 Stavros Paschalakis Detection of similar video segments
CN102779184A (zh) * 2012-06-29 2012-11-14 中国科学院自动化研究所 一种近似重复视频片段自动定位方法
CN104683815A (zh) * 2014-11-19 2015-06-03 西安交通大学 一种基于内容的h.264压缩域视频检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
US20100188580A1 (en) * 2009-01-26 2010-07-29 Stavros Paschalakis Detection of similar video segments
CN102779184A (zh) * 2012-06-29 2012-11-14 中国科学院自动化研究所 一种近似重复视频片段自动定位方法
CN104683815A (zh) * 2014-11-19 2015-06-03 西安交通大学 一种基于内容的h.264压缩域视频检索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HYUN-SEOK MIN,: "Bimodal fusionoflow-levelvisualfeaturesandhigh-levelsemantic", 《SIGNAL PROCESSING: IMAGE COMMUNICATION 26》 *
郭延明等: "相似视频片段的检测与定位方法研究", 《计算机科学》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107734387A (zh) * 2017-10-25 2018-02-23 北京网博视界科技股份有限公司 一种视频切割方法、装置、终端和存储介质
CN107734387B (zh) * 2017-10-25 2020-11-24 北京网博视界科技股份有限公司 一种视频切割方法、装置、终端和存储介质
CN110738083A (zh) * 2018-07-20 2020-01-31 浙江宇视科技有限公司 基于视频处理的串并案分析方法及装置
CN110738083B (zh) * 2018-07-20 2022-06-14 浙江宇视科技有限公司 基于视频处理的串并案分析方法及装置
CN112188246A (zh) * 2020-09-30 2021-01-05 深圳技威时代科技有限公司 一种视频云存储方法
CN112839257A (zh) * 2020-12-31 2021-05-25 四川金熊猫新媒体有限公司 视频内容检测方法、装置、服务器及存储介质
CN112839257B (zh) * 2020-12-31 2023-05-09 四川金熊猫新媒体有限公司 视频内容检测方法、装置、服务器及存储介质
CN112804586A (zh) * 2021-04-13 2021-05-14 北京世纪好未来教育科技有限公司 一种视频片段的获取方法、装置及设备
CN112804586B (zh) * 2021-04-13 2021-07-16 北京世纪好未来教育科技有限公司 一种视频片段的获取方法、装置及设备

Also Published As

Publication number Publication date
CN106777159B (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN106777159A (zh) 一种基于内容的视频片段检索及定位方法
CN103077512B (zh) 基于主成分析的数字图像的特征提取与匹配方法
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN112396027A (zh) 基于图卷积神经网络的车辆重识别方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN108564598B (zh) 一种改进的在线Boosting目标跟踪方法
CN104866616A (zh) 监控视频目标搜索方法
CN103390040A (zh) 一种视频拷贝检测方法
Pu et al. Estimation of crowd density in surveillance scenes based on deep convolutional neural network
CN106055653A (zh) 基于图像语义注释的视频浓缩对象检索方法
CN114120361B (zh) 一种基于编解码结构的人群计数定位方法
CN105512175A (zh) 一种基于颜色特征和纹理特征的快速图像检索方法
CN101232571A (zh) 一种人体图像匹配方法及视频分析检索系统
CN115131760B (zh) 一种基于改进特征匹配策略的轻量级车辆追踪方法
CN103714554A (zh) 一种基于传播融合的视频跟踪方法
Park et al. The analysis of CNN structure for image denoising
CN112288778A (zh) 一种基于多帧回归深度网络的红外小目标检测方法
CN101794383B (zh) 基于隐马尔科夫模型的拥塞交通场景的视频车辆检测方法
CN106570889A (zh) 一种检测红外视频中弱小目标的方法
Son et al. Partial convolutional LSTM for spatiotemporal prediction of incomplete data
CN104392209A (zh) 一种目标与背景的图像复杂度评价模型
Li et al. Research on YOLOv3 pedestrian detection algorithm based on channel attention mechanism
CN115439930A (zh) 一种基于时空维度筛选的多特征融合步态识别方法
Almalki et al. Characterizing scattered occlusions for effective dense-mode crowd counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant