CN104185017B - 视频匹配方法和系统 - Google Patents

视频匹配方法和系统 Download PDF

Info

Publication number
CN104185017B
CN104185017B CN201310196232.4A CN201310196232A CN104185017B CN 104185017 B CN104185017 B CN 104185017B CN 201310196232 A CN201310196232 A CN 201310196232A CN 104185017 B CN104185017 B CN 104185017B
Authority
CN
China
Prior art keywords
video
scene
frame
matched
masterplate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310196232.4A
Other languages
English (en)
Other versions
CN104185017A (zh
Inventor
陈先开
邓亮
吴斯
陈前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201310196232.4A priority Critical patent/CN104185017B/zh
Publication of CN104185017A publication Critical patent/CN104185017A/zh
Application granted granted Critical
Publication of CN104185017B publication Critical patent/CN104185017B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供一种视频匹配方法和系统,所述方法包括如下步骤:获取模版视频和待匹配视频;对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合;根据所述模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置;根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置;根据所述精确匹配位置输出视频匹配结果。上述视频匹配方法和系统,提高了视频匹配的适应性和准确性,提高了视频匹配效率,能够精确定位广告视频的边缘位置。

Description

视频匹配方法和系统
技术领域
本发明涉及多媒体技术,特别是涉及一种视频匹配方法和系统。
背景技术
在常见的电视视频中,如电视剧、娱乐节目、综艺节目中,常以插播广告来获取收益或者进行宣传。
对于插播的广告往往难以监管,传统技术中,通过获取广告视频和电视视频的最长公共子串来检测电视视频中播放的广告视频,然而,对于场景变化不明显的电视视频,往往检测不够准确。
发明内容
基于此,有必要针对检测电视视频中的广告视频不够准确的问题,提供一种能提高检测准确度的视频匹配方法。
此外,还有必要针对检测电视视频中的广告视频不够准确的问题,提供一种能提高检测准确度的视频匹配系统。
一种视频匹配方法,包括如下步骤:
获取模版视频和待匹配视频;
对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合;
根据所述模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置;
根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置;
根据所述精确匹配位置输出视频匹配结果。
在其中一个实施例中,所述对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合的步骤包括:
统计所述视频中每帧图像的颜色直方图;
根据所述颜色直方图分析连续帧之间的差异值;
根据所述差异值对所述视频进行自适应场景分割。
在其中一个实施例中,所述统计所述视频中每帧图像的颜色直方图的步骤包括:
统计所述视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图;
利用计算式H=T·Ho对所述第一颜色直方图进行平滑,得到第二颜色直方图,其中Ho表示所述三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
在其中一个实施例中,所述根据所述颜色直方图分析连续帧之间的差异值的步骤包括:
获取视频连续帧中颜色通道的差异值其中k∈{r,g,b},i表示帧序号,<·,·>表示内积,L表示直方图的长度,Abs(·)表示将直方图的每个元素取绝对值,W表示高斯权重;
根据所述颜色通道的差异值计算视频连续帧之间的差异值
在其中一个实施例中,所述获取视频连续帧中颜色通道的差异值的步骤之前包括:
进行降序排序其中Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值;
根据所述的元素值的排列顺序计算所述高斯权重W:其中σ值取范围(0,1)。
在其中一个实施例中,所述根据所述差异值对所述视频进行自适应场景分割的步骤包括:
获取所述差异值的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,N表示帧数;
根据所述均值Avg和标准方差Std计算所述场景分割阈值Ti=Avg+c*Std,其中c为正整数;
判断到所述连续帧之间的差异值Di,i+1满足条件Di,i+1>Ti,则确定i为场景分割位置;
根据所述场景分割位置i对所述视频进行场景分割,得到场景集合。
在其中一个实施例中,所述根据所述模版视频场景集合与所述待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置的步骤包括:
根据计算式计算所述模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数,为每帧的颜色直方图;
根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值;
根据所述场景匹配结果及预设编辑操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离;
根据所述编辑距离查找粗匹配位置。
在其中一个实施例中,所述根据所述场景匹配的预设操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离包括:
查找所述预设编辑操作代价:场景匹配成功的操作代价为-1,删除一个场景的操作代价为1,插入一个场景的操作代价为1,替换一个场景的操作代价为1,删除最开始或最后多个连续场景的操作代价为0;
计算所述模版视频场景集合与所述待匹配视频场景集合中的预设场景集之间的编辑距离其中Qo为待匹配视频,Qt为模版视频。
在其中一个实施例中,所述根据所述编辑距离查找粗匹配位置的步骤包括:
判断所述编辑距离是否满足如下条件:
EditDist(Qo,i,Qt)<TM,且
EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数;
若是,则记录所述预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除所述预设场景集,从余下场景中查找下一个粗匹配位置。
在其中一个实施例中,所述根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置的步骤包括:
获取所述粗匹配位置的中间帧;
根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧。
在其中一个实施例中,所述根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧的步骤包括:
从所述中间帧开始抽取连续的视频帧;
获取所述抽取的视频帧与所述模版视频的视频帧之间关于颜色直方图的最小欧氏距离;
判断所述最小欧氏距离从当前视频帧开始是否连续预设帧数都小于预设距离值;
若是,则停止搜索并记录所述当前视频帧的位置。
一种视频匹配系统,包括:
视频获取模块,用于获取模版视频和待匹配视频;
视频分割模块,用于对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合;
粗匹配模块,用于根据所述模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置;
精确匹配模块,用于根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置;
输出模块,用于根据所述精确匹配位置输出视频匹配结果。
在其中一个实施例中,所述视频分割模块包括:
帧颜色统计单元,用于统计所述视频中每帧图像的颜色直方图;
帧差异分析单元,用于根据所述颜色直方图分析连续帧之间的差异值;
场景分割单元,用于根据所述差异值对所述视频进行自适应场景分割。
在其中一个实施例中,所述颜色统计单元还用于统计所述视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图,利用计算式H=T·Ho对所述第一颜色直方图进行平滑,得到第二颜色直方图,其中Ho表示所述三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
在其中一个实施例中,所述差异分析单元还用于获取视频连续帧中颜色通道的差异值其中k∈{r,g,b},i表示帧序号,<·,·>表示内积,L表示直方图的长度,Abs(·)表示将直方图的每个元素取绝对值,W表示高斯权重,根据所述颜色通道的差异值计算视频连续帧之间的差异值
在其中一个实施例中,所述视频分割模块还包括:
排序单元,对进行降序排序其中Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值;
高斯权重计算单元,用于根据所述的元素值的排列顺序计算所述高斯权重W:其中σ值取范围(0,1)。
在其中一个实施例中,所述场景分割单元还用于获取所述差异值的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,N表示帧数,根据所述均值Avg和标准方差Std计算所述场景分割阈值Ti=Avg+c*Std,其中c为正整数,判断到所述连续帧之间的差异值Di,i+1满足条件Di,i+1>Ti,则确定i为场景分割位置,根据所述场景分割位置i对所述视频进行场景分割,得到场景集合。
在其中一个实施例中,所述粗匹配模块包括:
场景颜色统计单元,用于根据计算式计算所述模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数,为每帧的颜色直方图;
场景匹配单元,用于根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值;
编辑距离获取单元,用于根据所述场景匹配结果及预设编辑操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离;
粗匹配位置查找单元,用于根据所述编辑距离查找粗匹配位置。
在其中一个实施例中,所述编辑距离获取单元还用于查找所述预设编辑操作代价:场景匹配成功的操作代价为-1,删除一个场景的操作代价为1,插入一个场景的操作代价为1,替换一个场景的操作代价为1,删除最开始或最后多个连续场景的操作代价为0,计算所述模版视频场景集合与所述待匹配视频场景集合中的预设场景集之间的编辑距离其中Qo为待匹配视频,Qt为模版视频。
在其中一个实施例中,所述粗匹配位置查找单元还用于判断所述编辑距离是否满足条件:EditDist(Qo,i,Qt)<TM且EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数,若是,则记录所述预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除所述预设场景集,从余下场景中查找下一个粗匹配位置。
在其中一个实施例中,所述精确匹配模块包括:
中间帧获取单元,用于获取所述粗匹配位置的中间帧;
帧搜索单元,用于根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧和向后搜索精确匹配位置的终止帧。
在其中一个实施例中,所述帧搜索单元还用于从所述中间帧开始抽取视频帧,获取所述抽取的视频帧与所述模版视频的视频帧之间关于颜色直方图的最小欧氏距离,判断所述最小欧氏距离从当前帧开始是否连续预设帧数都小于预设距离值,若是,则停止搜索并记录所述当前视频帧的位置。
上述视频匹配方法和系统,通过获取模版视频和待匹配视频,根据相邻视频帧的差异进行视频的自适应场景分割,根据模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,获取粗匹配位置,根据模版视频、待匹配视频和粗匹配位置进行精确匹配,获取精确匹配位置,利用自适应的算法对视频进行镜头分割提高了视频匹配的适应性和准确性,根据场景集合的编辑距离进行粗匹配提高了视频匹配效率,进行视频的精确匹配能够精确定位广告视频的边缘位置。
附图说明
图1为一个实施例中一种视频匹配方法流程示意图;
图2为另一个实施例中一种视频匹配方法流程示意图;
图3为又一个实施例中一种视频匹配方法流程示意图;
图4为又一个实施例中一种视频匹配方法流程示意图;
图5为一个实施例中一种视频匹配系统结构示意图;
图6为另一个实施例中一种视频匹配系统结构示意图;
图7为又一个实施例中一种视频匹配方系结构示意图;
图8为又一个实施例中一种视频匹配方系结构示意图。
具体实施方式
下面结合具体的实施例及附图对视频匹配方法和系统的技术方案进行详细的描述,以使其更加清楚。
如图1所示,在一个实施例中,一种视频匹配方法,包括如下步骤:
步骤S110,获取模版视频和待匹配视频。
本实施例中,获取用户输入的模版视频和待匹配视频,模版视频可以是一个广告视频,待匹配视频可以是包含有一个或者多个模版视频的电视视频,模版视频和待匹配视频可以是帧率相同和宽高相同,若不同,通过视频转换使其相同,便于视频匹配。另外,分别获取模版视频和待匹配视频的时间长度以及帧数等,便于记录视频帧位置。
步骤S130,对模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合。
本实施例中,获取连续帧的之间的差异,根据该差异对视频进行自适应场景分割,即将相似度较高的相邻视频帧分割到同一个场景中,根据视频分割标志位置,将模版视频分割成一个视频场景集合得到模版视频场景集合,将带匹配视频分割成一个视频场景集合得到待匹配场景集合。
步骤S150,根据模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置。
本实施例中,由于场景分割是自适应分割,模板视频的场景与待匹配视频的场景并不能完全对应上,所以采用动态规划中编辑距离算法来进行视频的粗匹配,即将每一个场景对应字符串中的一个字符,两个场景匹配相同则对应两个字符相同,将一个字符串通过拷贝、替换、删除及插入等操作变换成另外一个模板字符串,由于每一个操作都有一定的代价,获取最小的代价,即编辑距离,若该编辑距离满足预设要求,则匹配成功,记录匹配场景集合的起止帧位置作为粗匹配位置。根据场景集合的编辑距离进行粗匹配,能够在广告视频有缺失部分内容的情况下,仍可准确的判断广告的粗略位置,从而大幅度地提高了粗匹配的成功率。
步骤S170,根据模版视频、待匹配视频和粗匹配位置进行精确匹配,得到精确匹配位置。
本实施例中,通过搜索待匹配视频中粗匹配位置所限定的帧范围内的视频帧与模版视频中的视频帧是否匹配,定位与模版视频匹配的起止帧位置,即精确匹配位置。
步骤S190,根据精确匹配位置输出视频匹配结果。
本实施例中,输出所有记录的精确匹配位置,以及输出模版视频在待匹配视频中播放的帧总数、少播放了多少帧、播放时间长度或者播放次数等,便于快速清楚查看视频匹配结果。
上述视频匹配方法,通过获取模版视频和待匹配视频,根据相邻视频帧的差异进行视频的自适应场景分割,根据模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,获取粗匹配位置,根据模版视频、待匹配视频和粗匹配位置进行精确匹配,获取精确匹配位置,利用自适应的算法对视频进行镜头分割提高了视频匹配的适应性和准确性,根据场景集合的编辑距离进行粗匹配提高了视频匹配效率,进行视频的精确匹配能够精确定位广告视频的边缘位置。
如图2所示,在一个实施例中,上述步骤S130包括如下步骤:
步骤S131,统计视频中每帧图像的颜色直方图。
已知一段视频V={F1,F2,...,FN},统计每帧图像Fi计算关于RGB(红绿蓝)的每个通道的直方图,具体的,统计视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图,然后利用计算式H=T·Ho对第一颜色直方图进行平滑,以降低直方图噪音的影响,得到经过平滑的第二颜色直方图其中Ho表示三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
步骤S133,根据颜色直方图分析连续帧之间的差异值。
具体的,对进行降序排序其中k∈{r,g,b},i表示视频帧序号,Abs(·)表示将直方图的每个元素取绝对值,Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值。根据的元素值的排列顺序计算高斯权重W:其中σ值取范围(0,1)。获取视频连续帧中颜色通道的差异值其中<·,·>表示内积,L表示直方图的长度,W表示高斯权重。对连续帧之间的直方图差进行加权,可以提高视频图像帧与帧之间差异的稳定性。根据颜色通道的差异值计算视频连续帧之间的差异值D={D1,2,...,DN-1,N},其中Di,i+1表示第i帧图像与第i+1帧图像的差异值。
步骤S135,根据差异值对视频进行自适应场景分割。
具体的,获取差异值的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,可以设置为20,N表示帧数。根据均值Avg和标准方差Std计算场景分割阈值Ti=Avg+c*Std,其中c为正整数,可以设置为4。判断连续帧之间的差异值Di,i+1是否满足条件Di,i+1>Ti,其中阈值Ti为自适应确定,若是,则确定i为场景分割位置,否则判断结束。根据场景分割位置i对视频进行场景分割,得到模版视频场景集合和待匹配视频场景集合。通过自适应确定判断差异值的阈值,提高了场景分割的准确性。
如图3所示,在一个实施例中,上述步骤S150包括如下步骤:
步骤S151,根据计算式计算模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数,为每帧的颜色直方图。
将场景中每帧的颜色直方图的平均值作为场景的颜色直方图,可以提高统计场景颜色直方图的准确性。
步骤S153,根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值。
在计算场景集合之间的编辑距离之前先在场景之间进行匹配,获取场景集合之间的匹配程度,便于对场景集合的编辑操作,通过设置场景匹配的预设直方图阈值,提高场景匹配的兼容性。
步骤S155,根据场景匹配结果及预设编辑操作代价获取模版视频场景集合与待匹配视频场景集合之间的编辑距离。
具体的,查找预设编辑操作所对应的代价,如表1所示:
表1编辑操作定义及其代价
DELETE_ENDS操作是专门为长视频中匹配短视频而设计的,当在一个长视频中找到一个短视频的匹配点,这时删掉长视频中相应的最前面或最后面连续场景是没有代价的。
计算模版视频场景集合Qt与待匹配视频场景集合Qo中的预设场景集之间的编辑距离
其中i可以根据模版视频场景集合中的场景数来确定,或者根据模版视频的时间长度来确定,将模版视频场景集合的场景数或者模版视频的时间长度作为固定对比窗口,在待匹配视频场景集合中移动,计算与待匹配场景集合中每个可能的粗匹配位置之间的编辑距离。
步骤S157,根据编辑距离查找粗匹配位置。
与经典的编辑距离相比,场景匹配中可能存在多次匹配的问题,即长的待匹配视频中存在多处短视频,无法用最小代价来寻找最优的位置;但如果能够找到第一处匹配位置,可以去掉从视频开头到此视频位置,再用相同的办法来寻找下一个可能的匹配位置。
设已分割为一系列场景的待匹配视频模板视频其中Si为分割的场景,No与Nt分别为待匹配视频与模板视频的场景数,且No>Nt,视频Qo中可能存在多个Qt的匹配。
判断编辑距离是否满足如下条件:
EditDist(Qo,i,Qt)<TM,且
EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数。
EditDist(Qo,i,Qt)<TM表示Qo中的部分场景已经与Qt匹配上,阈值TM要结合编辑操作的代价来确定,如表1所示,TM=0表示至少有一半场景成功匹配上;EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM表示匹配已经稳定,局部范围没有其他场景能够匹配了,NM为局部稳定的比较次数。
若编辑距离满足上述条件,则找到了一个有效的匹配位置,记录预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除预设场景集,从余下场景中查找下一个粗匹配位置。即,记录匹配位置(st,ed),st和ed为视频Qo的帧的绝对位置,删除Qo中场景对Qo中剩下的场景重新从1开始编号,No=Nt-(i-NM),然后继续搜索下一个粗匹配位置,依次类推下去。
若满足条件i=No并且编辑距离值满足约束条件EditDist(Qo,i,Qt)<TM,那么找到了最后一个有效的匹配位置。
否则,如果i=No并且不满足约束条件EditDist(Qo,i,Qt)<TM,则计算结束,输出所有匹配的记录P={(st,ed)|st,ed∈{1,...,N}}。
如图4所示,在一个实施例中,上述步骤S170包括如下步骤:
步骤S171,获取粗匹配位置的中间帧。
本实施例中,获取已经通过动态规划找到了视频中的N个视频粗匹配位置{(st1,ed1),(st2,ed2),…,(stN,edN)},其中(sti,edi)表示第i个匹配视频的帧范围,从每个粗匹配位置的中间帧开始分别向前和向后进行搜索,从中间帧开始搜索可以提高帧匹配的准确性,提高效率。
步骤S173,根据中间帧在粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧。
本实施例中,在每个粗匹配位置的帧范围内,搜索出精确匹配位置的起始帧和终止帧,从而获取精确匹配位置。
具体的,从中间帧开始抽取连续的视频帧,计算每帧的颜色直方图。然后,获取抽取的视频帧与模版视频的视频帧之间关于颜色直方图的最小欧氏距离,如上述中间帧对应的最小欧氏距离为其中,H(·)为计算帧的颜色直方图,Fj为模板视频中的帧,||·||为计算彩色直方图的欧氏距离。
判断最小欧氏距离从当前视频帧开始是否连续预设帧数都小于预设距离值,如连续3帧都小于预设距离值T2,即MinDist(i+k)<T2。若是,则停止搜索并记录当前视频帧的位置,根据当前视频帧是向前抽取过程中的视频帧还是向后抽取过程中的视频帧,判断该当前视频帧的位置是一个精确匹配位置的起始帧还是终止帧。如记录向前抽取过程中的当前视频帧的位置f1,记录向后抽取过程中当前视频帧的位置f2,那么帧范围[f1,f2]为模版视频与待匹配视频的一个精确匹配位置。
如图5所示,在一个实施例中,一种视频匹配系统,包括视频获取模块110、视频分割模块130、粗匹配模块150、精确匹配模块170和输出模块190。
视频获取模块110,用于获取模版视频和待匹配视频。
本实施例中,视频获取模块110获取用户输入的模版视频和待匹配视频,模版视频可以是一个广告视频,待匹配视频可以是包含有一个或者多个模版视频的电视视频,模版视频和待匹配视频可以是帧率相同和宽高相同,若不同,通过视频转换使其相同,便于视频匹配。另外,分别获取模版视频和待匹配视频的时间长度以及帧数等,便于记录视频帧位置。
视频分割模块130,用于对模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合。
本实施例中,视频分割模块130获取连续帧的之间的差异,根据该差异对视频进行自适应场景分割,即将相似度较高的相邻视频帧分割到同一个场景中,根据视频分割标志位置,将模版视频分割成一个视频场景集合得到模版视频场景集合,将带匹配视频分割成一个视频场景集合得到待匹配场景集合。
粗匹配模块150,用于根据模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置。
本实施例中,由于场景分割是自适应分割,模板视频的场景与待匹配视频的场景并不能完全对应上,所以采用动态规划中编辑距离算法来进行视频的粗匹配,即将每一个场景对应字符串中的一个字符,两个场景匹配相同则对应两个字符相同,将一个字符串通过拷贝、替换、删除及插入等操作变换成另外一个模板字符串,由于每一个操作都有一定的代价,获取最小的代价,即编辑距离,若该编辑距离满足预设要求,则匹配成功,记录匹配场景集合的起止帧位置作为粗匹配位置。根据场景集合的编辑距离进行粗匹配,能够在广告视频有缺失部分内容的情况下,仍可准确的判断广告的粗略位置,从而大幅度地提高了粗匹配的成功率。
精确匹配模块170,用于根据模版视频、待匹配视频和粗匹配位置进行精确匹配,得到精确匹配位置。
本实施例中,精确匹配模块170通过搜索待匹配视频中粗匹配位置所限定的帧范围内的视频帧与模版视频中的视频帧是否匹配,定位与模版视频匹配的起止帧位置,即精确匹配位置。
输出模块190,用于根据精确匹配位置输出视频匹配结果。
本实施例中,输出模块190输出所有记录的精确匹配位置,以及输出模版视频在待匹配视频中播放的帧总数、少播放了多少帧、播放时间长度或者播放次数等,便于快速清楚查看视频匹配结果。
上述视频匹配系统,通过获取模版视频和待匹配视频,根据相邻视频帧的差异进行视频的自适应场景分割,根据模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,获取粗匹配位置,根据模版视频、待匹配视频和粗匹配位置进行精确匹配,获取精确匹配位置,利用自适应的算法对视频进行镜头分割提高了视频匹配的适应性和准确性,根据场景集合的编辑距离进行粗匹配提高了视频匹配效率,进行视频的精确匹配能够精确定位广告视频的边缘位置。
如图6所示,在一个实施例中,上述视频分割模块130包括帧颜色统计单元131、帧差异分析单元133和场景分割单元135。
帧颜色统计单元131,用于统计视频中每帧图像的颜色直方图。
已知一段视频V={F1,F2,...,FN},帧颜色统计单元131统计每帧图像Fi计算关于RGB(红绿蓝)的每个通道的直方图,具体的,统计视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图,然后利用计算式H=T·Ho对第一颜色直方图进行平滑,以降低直方图噪音的影响,得到经过平滑的第二颜色直方图其中Ho表示三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
帧差异分析单元133,用于根据颜色直方图分析连续帧之间的差异值。
具体的,帧差异分析单元133对进行降序排序 其中k∈{r,g,b},i表示视频帧序号,Abs(·)表示将直方图的每个元素取绝对值,Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值。根据的元素值的排列顺序计算高斯权重W:其中σ值取范围(0,1)。获取视频连续帧中颜色通道的差异值其中<·,·>表示内积,L表示直方图的长度,W表示高斯权重。对连续帧之间的直方图差进行加权,可以提高视频图像帧与帧之间差异的稳定性。根据颜色通道的差异值计算视频连续帧之间的差异值D={D1,2,...,DN-1,N},其中Di,i+1表示第i帧图像与第i+1帧图像的差异值。
场景分割单元135,用于根据差异值对视频进行自适应场景分割。
具体的,场景分割单元135获取差异值的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,可以设置为20,N表示帧数。根据均值Avg和标准方差Std计算场景分割阈值Ti=Avg+c*Std,其中c为正整数,可以设置为4。判断连续帧之间的差异值Di,i+1是否满足条件Di,i+1>Ti,其中阈值Ti为自适应确定,若是,则确定i为场景分割位置,否则判断结束。根据场景分割位置i对视频进行场景分割,得到模版视频场景集合和待匹配视频场景集合。通过自适应确定判断差异值的阈值,提高了场景分割的准确性。
如图7所示,在一个实施例中,上述粗匹配模块150包括场景颜色统计单元151、场景匹配单元153、编辑距离获取单元155和粗匹配位置查找单元157。
场景颜色统计单元151,用于根据计算式计算模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数, 为每帧的颜色直方图。
将场景中每帧的颜色直方图的平均值作为场景的颜色直方图,可以提高统计场景颜色直方图的准确性。
场景匹配单元153,用于根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值。
场景匹配单元153在计算场景集合之间的编辑距离之前先在场景之间进行匹配,获取场景集合之间的匹配程度,便于对场景集合的编辑操作,通过设置场景匹配的预设直方图阈值,提高场景匹配的兼容性。
编辑距离获取单元155,用于根据场景匹配结果及预设编辑操作代价获取模版视频场景集合与待匹配视频场景集合之间的编辑距离。
具体的,编辑距离获取单元155查找预设编辑操作所对应的代价,如表1所示:
表1编辑操作定义及其代价
DELETE_ENDS操作是专门为长视频中匹配短视频而设计的,当在一个长视频中找到一个短视频的匹配点,这时删掉长视频中相应的最前面或最后面连续场景是没有代价的。
编辑距离获取单元155计算模版视频场景集合Qt与待匹配视频场景集合Qo中的预设场景集之间的编辑距离其中i可以根据模版视频场景集合中的场景数来确定,或者根据模版视频的时间长度来确定,将模版视频场景集合的场景数或者模版视频的时间长度作为固定对比窗口,在待匹配视频场景集合中移动,计算与待匹配场景集合中每个可能的粗匹配位置之间的编辑距离。
粗匹配位置查找单元157,用于根据编辑距离查找粗匹配位置。
与经典的编辑距离相比,场景匹配中可能存在多次匹配的问题,即长的待匹配视频中存在多处短视频,无法用最小代价来寻找最优的位置;但如果能够找到第一处匹配位置,可以去掉从视频开头到此视频位置,再用相同的办法来寻找下一个可能的匹配位置。
设已分割为一系列场景的待匹配视频模板视频其中Si为分割的场景,No与Nt分别为待匹配视频与模板视频的场景数,且No>Nt,视频Qo中可能存在多个Qt的匹配。
粗匹配位置查找单元157判断编辑距离是否满足如下条件:
EditDist(Qo,i,Qt)<TM,且
EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数。
EditDist(Qo,i,Qt)<TM表示Qo中的部分场景已经与Qt匹配上,阈值TM要结合编辑操作的代价来确定,如表1所示,TM=0表示至少有一半场景成功匹配上;EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM表示匹配已经稳定,局部范围没有其他场景能够匹配了,NM为局部稳定的比较次数。
若编辑距离满足上述条件,则找到了一个有效的匹配位置,粗匹配位置查找单元157记录预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除预设场景集,从余下场景中查找下一个粗匹配位置。即,记录匹配位置(st,ed),st和ed为视频Qo的帧的绝对位置,删除Qo中场景对Qo中剩下的场景重新从1开始编号,No=Nt-(i-NM),然后继续搜索下一个粗匹配位置,依次类推下去。
若满足条件i=No并且编辑距离值满足约束条件EditDist(Qo,i,Qt)<TM,那么找到了最后一个有效的匹配位置。
否则,如果i=No并且不满足约束条件EditDist(Qo,i,Qt)<TM,则计算结束,粗匹配位置查找单元157输出所有匹配的记录P={(st,ed)|st,ed∈{1,...,N}}。
如图8所示,在一个实施例中,上述精确匹配模块170包括中间帧获取单元171和帧搜索单元173。
中间帧获取单元171,用于获取粗匹配位置的中间帧。
本实施例中,中间帧获取单元171获取已经通过动态规划找到了视频中的N个粗视频匹配位置{(st1,ed1),(st2,ed2),…,(stN,edN)},其中(sti,edi)表示第i个匹配视频的帧范围,从每个粗匹配位置的中间帧开始分别向前和向后进行搜索,从中间帧开始搜索可以提高帧匹配的准确性,提高效率。
帧搜索单元173,用于根据中间帧在粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧。
本实施例中,帧搜索单元173在每个粗匹配位置的帧范围内,搜索出精确匹配位置的起始帧和终止帧,从而获取精确匹配位置。
具体的,帧搜索单元173从中间帧开始抽取连续的视频帧,计算每帧的颜色直方图。然后,帧搜索单元173获取抽取的视频帧与模版视频的视频帧之间关于颜色直方图的最小欧氏距离,如上述中间帧对应的最小欧氏距离为其中,H(·)为计算帧的颜色直方图,Fj为模板视频中的帧,||·||为计算彩色直方图的欧氏距离。
帧搜索单元173判断最小欧氏距离从当前帧开始是否连续预设帧数都小于预设距离值,如连续3帧都小于预设距离值T2,即MinDist(i+k)<T2。若是,则帧搜索单元173停止搜索并记录当前视频帧的位置,根据当前视频帧是向前抽取过程中的视频帧还是向后抽取过程中的视频帧,判断该当前视频帧的位置是一个精确匹配位置的起始帧还是终止帧。如记录向前抽取过程中的当前视频帧的位置f1,记录向后抽取过程中的当前视频帧的位置f2,那么帧范围[f1,f2]为模版视频与待匹配视频的一个精确匹配位置。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (18)

1.一种视频匹配方法,包括如下步骤:
获取模版视频和待匹配视频;
对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合;
根据所述模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,若该编辑距离满足预设要求,则匹配成功,记录匹配场景集合的起止帧位置作为粗匹配位置;
根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置;
其中所述精确匹配位置为所述粗匹配位置所限定的帧范围内的视频帧与所述模板视频中的视频帧匹配的起止帧位置;
根据所述精确匹配位置输出视频匹配结果;
其中所述根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置的步骤包括:
获取所述粗匹配位置的中间帧;
根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧;
并且所述根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧的步骤包括:
从所述中间帧开始抽取连续的视频帧;
获取所述抽取的视频帧与所述模版视频的视频帧之间关于颜色直方图的最小欧氏距离;
判断所述最小欧氏距离从当前视频帧开始是否连续预设帧数都小于预设距离值;
若是,则停止搜索并记录所述当前视频帧的位置。
2.根据权利要求1所述的视频匹配方法,其特征在于,所述对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合的步骤包括:
统计所述视频中每帧图像的颜色直方图;
根据所述颜色直方图分析连续帧之间的差异值;
根据所述差异值对所述视频进行自适应场景分割。
3.根据权利要求2所述的视频匹配方法,其特征在于,所述统计所述视频中每帧图像的颜色直方图的步骤包括:
统计所述视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图;
利用计算式H=T·Ho对所述第一颜色直方图进行平滑,得到第二颜色直方图,其中Ho表示所述三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
4.根据权利要求3所述的视频匹配方法,其特征在于,所述根据所述颜色直方图分析连续帧之间的差异值的步骤包括:
获取视频连续帧中颜色通道的差异值其中k∈{r,g,b},i表示帧序号,为每帧的颜色直方图,<·,·>表示内积,L表示直方图的长度,Abs(·)表示将直方图的每个元素取绝对值,W表示高斯权重;
根据所述颜色通道的差异值计算视频连续帧之间的差异值
5.根据权利要求4所述的视频匹配方法,其特征在于,所述获取视频连续帧中颜色通道的差异值的步骤之前包括:
进行降序排序其中Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值;
根据所述的元素值的排列顺序计算所述高斯权重W:σ值取范围(0,1)。
6.根据权利要求4所述的视频匹配方法,其特征在于,所述根据所述差异值对所述视频进行自适应场景分割的步骤包括:
获取所述差异值Di,i+1的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,N表示帧数;
根据所述均值Avg和标准方差Std计算所述场景分割阈值Ti=Avg+c*Std,其中c为正整数;
判断到所述连续帧之间的差异值Di,i+1满足条件Di,i+1>Ti,则确定i为场景分割位置;
根据所述场景分割位置i对所述视频进行场景分割,得到场景集合。
7.根据权利要求4所述的视频匹配方法,其特征在于,所述根据所述模版视频场景集合与所述待匹配视频场景集合之间的编辑距离进行粗匹配,得到粗匹配位置的步骤包括:
根据计算式计算所述模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数;
根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值;
根据所述场景匹配结果及预设编辑操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离;
根据所述编辑距离查找粗匹配位置。
8.根据权利要求7所述的视频匹配方法,其特征在于,所述根据所述场景匹配的预设操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离包括:
查找所述预设编辑操作代价:场景匹配成功的操作代价为-1,删除一个场景的操作代价为1,插入一个场景的操作代价为1,替换一个场景的操作代价为1,删除最开始或最后多个连续场景的操作代价为0;
计算所述模版视频场景集合与所述待匹配视频场景集合中的预设场景集之间的编辑距离其中Qo为待匹配视频,Qt为模版视频。
9.根据权利要求8所述的视频匹配方法,其特征在于,所述根据所述编辑距离查找粗匹配位置的步骤包括:
判断所述编辑距离是否满足如下条件:
EditDist(Qo,i,Qt)<TM,且
EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数;
若是,则记录所述预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除所述预设场景集,从余下场景中查找下一个粗匹配位置。
10.一种视频匹配系统,包括:
视频获取模块,用于获取模版视频和待匹配视频;
视频分割模块,用于对所述模版视频和待匹配视频进行自适应场景分割,得到模版视频场景集合与待匹配视频场景集合;
粗匹配模块,用于根据所述模版视频场景集合与待匹配视频场景集合之间的编辑距离进行粗匹配,若该编辑距离满足预设要求,则匹配成功,记录匹配场景集合的起止帧位置作为粗匹配位置;
精确匹配模块,用于根据所述模版视频、待匹配视频和所述粗匹配位置进行精确匹配,得到精确匹配位置;其中所述精确匹配位置为所述粗匹配位置所限定的帧范围内的视频帧与所述模板视频中的视频帧匹配的起止帧位置;
输出模块,用于根据所述精确匹配位置输出视频匹配结果;
其中所述精确匹配模块包括:
中间帧获取单元,用于获取所述粗匹配位置的中间帧;
帧搜索单元,用于根据所述中间帧在所述粗匹配位置中向前搜索精确匹配位置的起始帧以及向后搜索精确匹配位置的终止帧;以及所述帧搜索单元还用于从所述中间帧开始抽取视频帧,获取所述抽取的视频帧与所述模版视频的视频帧之间关于颜色直方图的最小欧氏距离,判断所述最小欧氏距离从当前视频帧开始是否连续预设帧数都小于预设距离值,若是,则停止搜索并记录所述当前视频帧的位置。
11.根据权利要求10所述的视频匹配系统,其特征在于,所述视频分割模块包括:
帧颜色统计单元,用于统计所述视频中每帧图像的颜色直方图;
帧差异分析单元,用于根据所述颜色直方图分析连续帧之间的差异值;
场景分割单元,用于根据所述差异值对所述视频进行自适应场景分割。
12.根据权利要求11所述的视频匹配系统,其特征在于,所述颜色统计单元还用于统计所述视频每帧图像在红、绿和蓝三个颜色通道的第一颜色直方图,利用计算式H=T·Ho对所述第一颜色直方图进行平滑,得到第二颜色直方图,其中Ho表示所述三个颜色通道中某个通道的第一颜色直方图,长度为L,T为L*L的变换矩阵,T的元素值am,n=exp((m-n)22),am,n∈T,0≤m,n≤L,σ的值取范围为(0,1)。
13.根据权利要求12所述的视频匹配系统,其特征在于,所述差异分析单元还用于获取视频连续帧中颜色通道的差异值其中k∈{r,g,b},i表示帧序号,为每帧的颜色直方图,<·,·>表示内积,L表示直方图的长度,Abs(·)表示将直方图的每个元素取绝对值,W表示高斯权重,根据所述颜色通道的差异值计算视频连续帧之间的差异值
14.根据权利要求13所述的视频匹配系统,其特征在于,所述视频分割模块还包括:
排序单元,对进行降序排序其中Val=[Val1,Val2,...,ValL]表示降序排列后的元素值,Idx=[Idx1,Idx2,...,IdxL]表示降序排列后元素的原始索引值;
高斯权重计算单元,用于根据所述的元素值的排列顺序计算所述高斯权重W:σ值取范围(0,1)。
15.根据权利要求13所述的视频匹配系统,其特征在于,所述场景分割单元还用于获取所述差异值的附近元素{Dj,j+1|j∈[max{0,i-r},min{i+r,N}]}的均值Avg和标准方差Std,其中i、j表示帧序号,r为正整数,N表示帧数,根据所述均值Avg和标准方差Std计算所述场景分割阈值Ti=Avg+c*Std,其中c为正整数,判断到所述连续帧之间的差异值Di,i+1满足条件Di,i+1>Ti,则确定i为场景分割位置,根据所述场景分割位置i对所述视频进行场景分割,得到场景集合。
16.根据权利要求13所述的视频匹配系统,其特征在于,所述粗匹配模块包括:
场景颜色统计单元,用于根据计算式计算所述模版视频和待匹配视频中每个场景的颜色直方图,其中R为场景S的帧数;
场景匹配单元,用于根据计算式进行场景匹配,dist(S1,S2)=0表示匹配成功,否则表示匹配失败,T为预设直方图阈值;
编辑距离获取单元,用于根据所述场景匹配结果及预设编辑操作代价获取所述模版视频场景集合与待匹配视频场景集合之间的编辑距离;
粗匹配位置查找单元,用于根据所述编辑距离查找粗匹配位置。
17.根据权利要求16所述的视频匹配系统,其特征在于,所述编辑距离获取单元还用于查找所述预设编辑操作代价:场景匹配成功的操作代价为-1,删除一个场景的操作代价为1,插入一个场景的操作代价为1,替换一个场景的操作代价为1,删除最开始或最后多个连续场景的操作代价为0,计算所述模版视频场景集合与所述待匹配视频场景集合中的预设场景集之间的编辑距离其中Qo为待匹配视频,Qt为模版视频。
18.根据权利要求17所述的视频匹配系统,其特征在于,所述粗匹配位置查找单元还用于判断所述编辑距离是否满足条件:EditDist(Qo,i,Qt)<TM且EditDist(Qo,i,Qt)≤EditDist(Qo,i+k,Qt),k=1,2,…,NM,其中TM为编辑距离阈值,NM为预设比较次数,若是,则记录所述预设场景集的起始帧位置作为粗匹配位置,从待匹配场景集合中删除所述预设场景集,从余下场景中查找下一个粗匹配位置。
CN201310196232.4A 2013-05-23 2013-05-23 视频匹配方法和系统 Active CN104185017B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310196232.4A CN104185017B (zh) 2013-05-23 2013-05-23 视频匹配方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310196232.4A CN104185017B (zh) 2013-05-23 2013-05-23 视频匹配方法和系统

Publications (2)

Publication Number Publication Date
CN104185017A CN104185017A (zh) 2014-12-03
CN104185017B true CN104185017B (zh) 2017-02-08

Family

ID=51965709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310196232.4A Active CN104185017B (zh) 2013-05-23 2013-05-23 视频匹配方法和系统

Country Status (1)

Country Link
CN (1) CN104185017B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354736A (zh) * 2015-07-23 2017-01-25 无锡天脉聚源传媒科技有限公司 一种重复视频的判断方法及装置
CN105072455A (zh) * 2015-08-11 2015-11-18 精硕世纪科技(北京)有限公司 视频匹配方法和装置
CN105678244B (zh) * 2015-12-31 2018-12-18 北京理工大学 一种基于改进编辑距离的近似视频检索方法
CN105975924A (zh) * 2016-04-29 2016-09-28 杭州当虹科技有限公司 一种基于视频帧数统计进行精确识别广告内容的回归测试方法
CN110399842B (zh) * 2019-07-26 2021-09-28 北京奇艺世纪科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1582545A (zh) * 2001-09-04 2005-02-16 皇家飞利浦电子股份有限公司 利用脚本信息识别和查明节目的广告部分的方法
CN101162470A (zh) * 2007-11-16 2008-04-16 北京交通大学 一种基于分层匹配的视频广告识别方法
CN101442641A (zh) * 2008-11-21 2009-05-27 清华大学 一种基于内容的视频拷贝监测的方法及系统
CN101650740A (zh) * 2009-08-27 2010-02-17 中国科学技术大学 一种电视广告检测方法及装置
CN103617263A (zh) * 2013-11-29 2014-03-05 安徽大学 一种基于多模态特征的电视广告片花自动检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1582545A (zh) * 2001-09-04 2005-02-16 皇家飞利浦电子股份有限公司 利用脚本信息识别和查明节目的广告部分的方法
CN101162470A (zh) * 2007-11-16 2008-04-16 北京交通大学 一种基于分层匹配的视频广告识别方法
CN101442641A (zh) * 2008-11-21 2009-05-27 清华大学 一种基于内容的视频拷贝监测的方法及系统
CN101650740A (zh) * 2009-08-27 2010-02-17 中国科学技术大学 一种电视广告检测方法及装置
CN103617263A (zh) * 2013-11-29 2014-03-05 安徽大学 一种基于多模态特征的电视广告片花自动检测方法

Also Published As

Publication number Publication date
CN104185017A (zh) 2014-12-03

Similar Documents

Publication Publication Date Title
CN104185017B (zh) 视频匹配方法和系统
CN110267061B (zh) 一种新闻拆条方法及系统
CN108769731B (zh) 一种检测视频中目标视频片段的方法、装置及电子设备
US9087125B2 (en) Robust video retrieval utilizing video data
US7715621B2 (en) Method and apparatus for representing a group of images
US8942469B2 (en) Method for classification of videos
WO2017114211A1 (zh) 用于对视频场景切换进行检测的方法和装置
US20020047936A1 (en) Moving image processing apparatus and method, and computer readable memory
US9596520B2 (en) Method and system for pushing information to a client
CN103714314B (zh) 一种结合边缘和颜色信息的电视视频台标识别方法
CN103605991A (zh) 一种视频广告的自动检测方法
CN110472484B (zh) 基于多视图特征的视频关键帧提取方法、系统及设备
JP5685324B2 (ja) 映像を比較する方法および装置
CN101872415A (zh) 适用于iptv的视频拷贝检测方法
CN110175591A (zh) 一种获取视频相似度的方法及系统
CN108966042A (zh) 一种基于最短路径的视频摘要生成方法及装置
CN107169004A (zh) 一种特征数据库更新方法及装置
CN108446603B (zh) 一种新闻标题检测方法及装置
CN112437344B (zh) 一种视频匹配方法及终端
Latecki et al. Extraction of key frames from videos by optimal color composition matching and polygon simplification
CN108388872A (zh) 一种基于字体颜色的新闻标题识别方法及装置
AT&T
CN113032631A (zh) 一种基于全局运动统计特征的团队体育视频关键帧提取方法
KR20100109345A (ko) 방송통신시스템에서 시공간적 특징정보 추출 및 비교판별 장치 및 방법
JP2002204392A (ja) 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141203

Assignee: Dongguan Dianzan Technology Co.,Ltd.

Assignor: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

Contract record no.: X2023980039225

Denomination of invention: Video matching methods and systems

Granted publication date: 20170208

License type: Common License

Record date: 20230808

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141203

Assignee: Shenzhen Huayun Xingchuang Cultural Technology Co.,Ltd.

Assignor: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

Contract record no.: X2023980043802

Denomination of invention: Video matching methods and systems

Granted publication date: 20170208

License type: Common License

Record date: 20231018

Application publication date: 20141203

Assignee: Shenzhen Xingfei Software Technology Co.,Ltd.

Assignor: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

Contract record no.: X2023980043566

Denomination of invention: Video matching methods and systems

Granted publication date: 20170208

License type: Common License

Record date: 20231016

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141203

Assignee: Shenzhen achievement transformation Center Co.,Ltd.

Assignor: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

Contract record no.: X2023980044071

Denomination of invention: Video matching methods and systems

Granted publication date: 20170208

License type: Common License

Record date: 20231023

Application publication date: 20141203

Assignee: Shenzhen No.1 Yuanbang Technology Co.,Ltd.

Assignor: SHENZHEN INSTITUTES OF ADVANCED TECHNOLOGY CHINESE ACADEMY OF SCIENCES

Contract record no.: X2023980043925

Denomination of invention: Video matching methods and systems

Granted publication date: 20170208

License type: Common License

Record date: 20231020

EE01 Entry into force of recordation of patent licensing contract