CN102929970A - 基于时域视觉关注的视频拷贝检测方法 - Google Patents
基于时域视觉关注的视频拷贝检测方法 Download PDFInfo
- Publication number
- CN102929970A CN102929970A CN2012103896924A CN201210389692A CN102929970A CN 102929970 A CN102929970 A CN 102929970A CN 2012103896924 A CN2012103896924 A CN 2012103896924A CN 201210389692 A CN201210389692 A CN 201210389692A CN 102929970 A CN102929970 A CN 102929970A
- Authority
- CN
- China
- Prior art keywords
- video
- visual attention
- attention location
- frame
- time domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种基于时域视觉关注的视频拷贝检测方法。先根据视觉注意机制得到不同视频帧之间视觉关注的变化,并得出时域关注度的表示,再根据时域关注度计算一个视频片段内的视频帧的时域关注权重,由此形成视频片段的视觉关注转移图像,最后在生成的带有时域和空域信息的视觉关注转移图像上提取视频哈希。本发明的方法充分考虑视频的时域信息,不仅能够将突出视频内容的视频帧重点加权,而且提取的特征综合了时域和空域的信息,对时域攻击有很好的鲁棒性。
Description
技术领域
本发明涉及一种基于时域视觉关注的视频拷贝检测方法,属于基于内容的视频检索技术领域。
背景技术
随着多媒体技术的发展,每天都有成千上万的数字视频产生和发布。利用数字处理工具,视频可以被转换成各种不同的版本。因此,如何快速而有效地从大量视频中找出数字视频的拷贝成为亟待解决的问题。除版权保护外,拷贝检测还可应用于视频搜索结果的去冗余、有害内容视频的过滤等方面,具有巨大的市场应用需求和广阔的应用前景。基于内容的视频拷贝检测技术正是在这种情况下产生的,并且成为近年来的研究热点。目前很多的拷贝检测技术是在视频的空域特征上进行检测的,却忽略了视频的最大特点:时域信息。因此,研究者开始考虑利用特征的时域变化来表征视频的时域信息再进行视频拷贝检测。
现有方法一般对时域上的信息考虑方式比较简单,在生成时域信息代表图像时,采用的帧加权权重wk一般是常量1、线性k或者指数γk等。这几种形式都是根据实验得到的,没有系统的理论支持。并且,这类方法没有突出视频时域上的内容变化,不能将突出视频内容的信息有效提取出来,对时域上的攻击缺乏鲁棒性。本发明的方法不仅能够将突出视频内容的视频帧重点加权,而且提取的特征综合了时域和空域的信息,对时域攻击有很好的鲁棒性。
发明内容
针对已有方法对时域信息考虑不足的问题,本发明提供了一种融合视频的时域信息和空域信息,突出视频内容在时域上变化的特点,并且在鲁棒性和区分性上性能较好的拷贝检测方法。
本发明的基于时域视觉关注的视频拷贝检测方法,先根据视觉注意机制得到不同视频帧之间视觉关注的变化,并得出时域关注度的表示,再根据时域关注度计算一个视频片段内的视频帧的时域关注权重,由此形成视频片段的视觉关注转移图像,最后在生成的带有时域和空域信息的视觉关注转移图像上提取视频哈希,通过形成的视频哈希进行视频拷贝检测,具体包括以下步骤:
(1)建立视频的视觉关注模型:根据视觉注意机制,分别建立视频帧的静态关注模型和动态关注模型,然后将两者融合成最终的视觉关注模型;
(2)生成视觉关注节奏曲线:根据生成的视觉关注模型,计算视频帧的视觉关注转移,由此形成视觉关注节奏曲线;
(3)生成视觉关注转移图像:根据视觉关注节奏曲线的强度变化计算时域权重,然后将视频片段合成视觉关注转移图像;
(4)视频哈希提取:在生成的视觉关注转移图像上提取空域上的特征,形成视频哈希;
(5)拷贝检测:对待检测视频和参考视频分别按照上述方法提取哈希并进行哈希对比,确定待检测视频是否为参考视频的拷贝。
上述步骤(1)的具体实现步骤为:
a.对视频帧进行多尺度变换后提取其局部对照特征,生成相应的特征图,然后线性结合各个特征图,形成最终的显著图;
b.采用基于块的LK光流算法得到视频各帧的光流,然后利用混合高斯背景建模的方法消除检测过程中可能出现的阴影问题,并得到每帧的运动前景,对光流和运动前景进行膨胀和腐蚀运算后归一化形成最终的动态关注模型;
c.通过权重加权将静态关注模型和动态关注模型融合成最终的视觉关注模型。
上述步骤(2)的具体实现步骤为:
a.将每个视频帧的最终视觉显著图分成无重叠的大小为8*8的块,计算每块的均值,并找出均值最大的块,以这个块为中心,通过区域扩展形成一个最优的矩形区域作为视觉关注区域;
b.将第一个视觉关注区域置零后,在视觉显著图的剩余区域中,用同样的方法找到第二个视觉关注区域;
c.判断相邻两帧之间是否发生视觉关注转移,判断方法为:若从前后两帧中选出来的关注区域发生变化,或者前后两帧中选出来的关注区域没有变化但两个受关注区域的均值之间的大小关系在前后两帧中发生变化,则表明视觉关注发生转移;
d.计算视觉转移量,由此得到视觉关注节奏曲线,视觉转移量是指视觉转移之前,视觉关注保持在某一关注区域的时间,用视频中没有视觉转移发生的这段时间内视频的帧数来表示。
上述步骤(3)的具体实现步骤为:
a.在一个视频片段内,视觉关注节奏曲线的幅度为零的视频帧的权重都是相同的;
b.视觉关注节奏曲线的幅度非零的视频帧的权重根据其幅度的大小计算,幅度较大的视频帧的权重较大,幅度较小的视频帧的权重较小;
c.视频帧的权重生成后,将此片段内的所有帧进行加权叠加生成视觉关注转移图像。上述步骤(4)的具体实现步骤为:
a.先将代表图像进行分块,并根据特定规律分配块的序号,计算各分块的强度;
b.根据相邻块之间的强度差异得到视频哈希。
优选地,块的序号按照从左到右、从上到下的顺序或者希尔伯特曲线的顺序进行分配。
优选地,各分块的强度是灰度和、灰度平均值、灰度中值的其中一种。
上述步骤(5)的具体实现步骤为:
a.对待检测视频和参考视频分别得到视频哈希,生成衡量哈希匹配准确性的比特误码率;
b.设置一个阈值T来决定待检测视频是否为参考视频的拷贝视频,如果比特误码率高于阈值T,则待检测视频不是拷贝视频,反之亦然。
本发明将被用于基于内容的视频拷贝检测中,这样的哈希提取方法着眼于人眼对视频时域上内容变化的关注程度,根据这个关注的程度决定在哈希提取过程中重点突出哪些视频帧的内容。
本发明将被用于基于内容的视频检索的镜头分割中,这样的分割方法着眼于采用低维特征进行视频分析,在进行完视频分割之后,也可以对后续的视频摘要、视频检索等提供有效的参考。
附图说明
图1是本发明的框架;
图2是视觉关注转移流程图;
图3是视频“hall”的视觉关注曲线;
图4是本发明方法与没有时域加权方法的比特错误率的查全查准率的比较;
图5是本发明方法与Wang的时域加权方法的比特错误率的查全查准率的比较。
具体实施方式
实验中采用了包括纪录片、新闻、体育、动画等在内的视频,并采用直方图均衡化、高斯噪声、对比度变化、随机帧交换、丢帧、随机帧加高斯噪声等在内的视频攻击。
图1给出了本发明方法的框架图,按所示流程,包括如下具体步骤:
(1)建立视频的视觉关注模型。
a.对视频帧的静态关注模型的建立,我们首先对视频帧进行多尺度变换,接着提取颜色、亮度、纹理等局部对照特征。根据不同尺度上的局部对照图生成相对应的特征图,然后将全局归一化的特征图通过线性结合形成最终的显著图,即S_sm。
b.采用基于块的LK光流算法得到视频各帧的光流LKmotion,然后利用混合高斯背景建模的方法消除检测过程中可能出现的阴影问题,并得到每帧的运动前景Gfg。对光流LKmotion和运动前景Gfg进行膨胀和腐蚀运算后归一化形成最终的动态关注模型T_sm,如下:
T=dilatation(LKmotion,Gfg)(1)
T_sm=erosion(T)(2)
其中dilatation是膨胀运算,erosion是腐蚀运算。
c.静态关注模型和动态关注模型融合成最终的视觉关注模型。在两者融合的过程中,由于人眼对动态的目标更关注,因此对两者采用不同的权重。如下所示:
wT=T_sm'×exp(1-T_sm′)(3)
wS=1-wT(4)
其中,wT和wS分别是动态关注模型和静态关注模型的权重。公式(3)中的T_sm′表示动态模型的最大值与其平均值的差值,如下式所示:
T_sm'=Max(T_sm)-Mean(T_sm)(5)
其中,Max(T_sm)是T_sm的最大值,Mean(T_sm)是T_sm的平均值。
(2)视觉关注节奏曲线。根据生成的视觉关注模型,计算视频帧的视觉关注转移,由此形成视觉关注节奏曲线。
a.将每个视频帧的最终视觉显著图分成无重叠的大小为8*8的块。计算每块的均值,并找出均值最大的块。本发明中图像块的受关注程度通过图像块的平均灰度值体现,均值越大,受关注程度越大。找到均值最大的块后,以这个块为中心,通过区域扩展形成一个最优的矩形区域作为视觉关注区域。这个最优的矩形区域必须面积最小且局部平均像素值最大。通过这样的方法得到第一个视觉受关注区域。用同样的方法找到第二个视觉关注区域。
b.计算选出的两个受关注区域的均值,以受关注区域或其均值的变化来表征视觉关注的转移。具体来说,若从前后两帧中选出来的关注区域发生变化,则表明视觉关注发生转移;或者,若前后两帧中选出来的关注区域没有变化,但两个受关注区域之间的均值大小关系在前后两帧中发生变化时,也表明视觉关注发生转移,用公式表示为:
用av1(i)和av2(i)表示第i帧选出的两个受关注区域的均值,那么,当av1(i)>av2(i)&av2(i+1)>av1(i+1)或者av2(i)>av1(i)&av1(i+1)>av2(i+1)时,表示在第i帧时刻发生了视觉转移。
c.我们定义视觉转移量来表示视觉转移程度的大小。视觉转移量是指视觉转移之前,视觉关注保持在某一关注区域的时间,它可以用视频中没有视觉转移发生的这段时间内视频的帧数来表示:
其中,T是没有视觉转移发生的一段时间内出现的视频帧数,N是正整数或零,δt(i)为第i帧出现时刻的视觉转移量。
视频当前帧选出的两个关注区域的均值与前一帧选出的两个关注区域的均值相比没有发生变化时,视觉转移量为零,若发生变化,视觉转移量累加,以此获得视觉关注节奏曲线。图3展示了视频“hall”的视觉关注节奏曲线。
(3)视觉关注转移图像。
时域权重wk的计算方法如下:
其中,N(δt=0)表示在包含J帧视频片段中,视觉转移量为0的帧数0。Ak表示在J帧视频片段中第k帧的视觉转移量的绝对值。
对于视觉转移量为零的帧,采用相同的权重,而视觉转移量非零时的权重与视觉转移量的绝对值相关。
因此,视觉关注转移图像F(m,n)生成如下:
其中F(m,n,k)是在包含J帧视频片段中第k帧的(m,n)位置的像素的亮度值。
(4)视频哈希提取。在生成的视觉关注转移图像上提取空域上的特征,形成视频哈希。
a.先将代表图像进行分块,并根据希尔伯特曲线分配块的序号,计算分块的强度,然后根据相邻块之间的强度差异得到视频哈希。故第n个视频片段的哈希生成如下:
(5)拷贝检测。对待检测视频和参考视频分别计算视频哈希,然后进行拷贝检测。
a.使用比特误码率BER衡量哈希提取和匹配的准确性。
b.通常设置一个阈值T来决定实验的视频是否为拷贝视频。如果BER高于阈值T,则实验视频不是拷贝视频,反之亦然。
从图4和图5中可以看出,采用本发明方法所得到的查全率明显高于无时域加权的方法以及Wang的时域加权方法(Jing Wang,Jiande Sun,Ju Liu,Xiushan Nie,Hua Yan,A VisualSaliency Based Video Hashing Algorithm,ICIP 2012,645-648.)所得到的查全率。
Claims (8)
1.一种基于时域视觉关注的视频拷贝检测方法,先根据视觉注意机制得到不同视频帧之间视觉关注的变化,并得出时域关注度的表示,再根据时域关注度计算一个视频片段内的视频帧的时域关注权重,由此形成视频片段的视觉关注转移图像,最后在生成的带有时域和空域信息的视觉关注转移图像上提取视频哈希,通过形成的视频哈希进行视频拷贝检测,具体包括以下步骤:
(1)建立视频的视觉关注模型:根据视觉注意机制,分别建立视频帧的静态关注模型和动态关注模型,然后将两者融合成最终的视觉关注模型;
(2)生成视觉关注节奏曲线:根据生成的视觉关注模型,计算视频帧的视觉关注转移,由此形成视觉关注节奏曲线;
(3)生成视觉关注转移图像:根据视觉关注节奏曲线的强度变化计算时域权重,然后将视频片段合成视觉关注转移图像;
(4)视频哈希提取:在生成的视觉关注转移图像上提取空域上的特征,形成视频哈希;
(5)拷贝检测:对待检测视频和参考视频分别按照上述方法提取哈希并进行哈希对比,确定待检测视频是否为参考视频的拷贝。
2.根据权利要求1所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:步骤(1)的具体实现步骤为:
a.对视频帧进行多尺度变换后提取其局部对照特征,生成相应的特征图,然后线性结合各个特征图,形成最终的显著图;
b.采用基于块的LK光流算法得到视频各帧的光流,然后利用混合高斯背景建模的方法消除检测过程中可能出现的阴影问题,并得到每帧的运动前景,对光流和运动前景进行膨胀和腐蚀运算后归一化形成最终的动态关注模型;
c.通过权重加权将静态关注模型和动态关注模型融合成最终的视觉关注模型。
3.根据权利要求1所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:步骤(2)的具体实现步骤为:
a.将每个视频帧的最终视觉显著图分成无重叠的大小为8*8的块,计算每块的均值,并找出均值最大的块,以这个块为中心,通过区域扩展形成一个最优的矩形区域作为视觉关注区域;
b.将第一个视觉关注区域置零后,在视觉显著图的剩余区域中,用同样的方法找到第二个视觉关注区域;
c.判断相邻两帧之间是否发生视觉关注转移,判断方法为:若从前后两帧中选出来的关注区域发生变化,或者前后两帧中选出来的关注区域没有变化但两个受关注区域的均值之间的大小关系在前后两帧中发生变化,则表明视觉关注发生转移;
d.计算视觉转移量,由此得到视觉关注节奏曲线,视觉转移量是指视觉转移之前,视觉关注保持在某一关注区域的时间,用视频中没有视觉转移发生的这段时间内视频的帧数来表示。
4.根据权利要求1所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:步骤(3)的具体实现步骤为:
a.在一个视频片段内,视觉关注节奏曲线的幅度为零的视频帧的权重都是相同的;
b.视觉关注节奏曲线的幅度非零的视频帧的权重根据其幅度的大小计算,幅度较大的视频帧的权重较大,幅度较小的视频帧的权重较小;
c.视频帧的权重生成后,将此片段内的所有帧进行加权生成视觉关注转移图像。
5.根据权利要求1所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:步骤(4)的具体实现步骤为:
a.先将代表图像进行分块,并根据特定规律分配块的序号,计算各分块的强度;
b.根据相邻块之间的强度差异得到视频哈希。
6.根据权利要求5所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:块的序号按照从左到右、从上到下的顺序或者希尔伯特曲线的顺序进行分配。
7.根据权利要求5所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:各分块的强度是灰度和、灰度平均值、灰度中值的其中一种。
8.根据权利要求1所述的基于时域视觉关注的视频拷贝检测方法,其特征在于:步骤(5)的具体实现步骤为:
a.对待检测视频和参考视频分别得到视频哈希,生成衡量哈希匹配准确性的比特误码率;
b.设置一个阈值T来决定待检测视频是否为参考视频的拷贝视频,如果比特误码率高于阈值T,则待检测视频不是拷贝视频,反之亦然。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012103896924A CN102929970A (zh) | 2012-10-15 | 2012-10-15 | 基于时域视觉关注的视频拷贝检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012103896924A CN102929970A (zh) | 2012-10-15 | 2012-10-15 | 基于时域视觉关注的视频拷贝检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102929970A true CN102929970A (zh) | 2013-02-13 |
Family
ID=47644768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012103896924A Pending CN102929970A (zh) | 2012-10-15 | 2012-10-15 | 基于时域视觉关注的视频拷贝检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102929970A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747254A (zh) * | 2014-01-27 | 2014-04-23 | 深圳大学 | 一种基于时域感知哈希的视频篡改检测方法和装置 |
CN107682701A (zh) * | 2017-08-28 | 2018-02-09 | 南京邮电大学 | 基于感知哈希算法的分布式视频压缩感知自适应分组方法 |
CN109919110A (zh) * | 2019-03-13 | 2019-06-21 | 北京航空航天大学 | 视频关注区域检测方法、装置及设备 |
CN110650359A (zh) * | 2014-04-07 | 2020-01-03 | 尼尔森(美国)有限公司 | 使用散列键识别媒体的方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102419816A (zh) * | 2011-11-18 | 2012-04-18 | 山东大学 | 用于相同内容视频检索的视频指纹方法 |
-
2012
- 2012-10-15 CN CN2012103896924A patent/CN102929970A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102419816A (zh) * | 2011-11-18 | 2012-04-18 | 山东大学 | 用于相同内容视频检索的视频指纹方法 |
Non-Patent Citations (2)
Title |
---|
张丽坤 等: "视觉关注转移的事件检测算法", 《智能系统学报》, vol. 7, no. 4, 31 August 2012 (2012-08-31), pages 333 - 338 * |
赵玉鑫: "多媒体感知哈希算法及应用研究", 《万方数据库》, 29 October 2010 (2010-10-29), pages 66 - 87 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747254A (zh) * | 2014-01-27 | 2014-04-23 | 深圳大学 | 一种基于时域感知哈希的视频篡改检测方法和装置 |
CN110650359A (zh) * | 2014-04-07 | 2020-01-03 | 尼尔森(美国)有限公司 | 使用散列键识别媒体的方法和装置 |
CN110650359B (zh) * | 2014-04-07 | 2021-12-24 | 尼尔森(美国)有限公司 | 使用散列键识别媒体的方法和装置 |
CN107682701A (zh) * | 2017-08-28 | 2018-02-09 | 南京邮电大学 | 基于感知哈希算法的分布式视频压缩感知自适应分组方法 |
CN109919110A (zh) * | 2019-03-13 | 2019-06-21 | 北京航空航天大学 | 视频关注区域检测方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ou et al. | Reversible data hiding based on PDE predictor | |
Yang et al. | Graph-regularized saliency detection with convex-hull-based center prior | |
Richao et al. | Detection of object-based manipulation by the statistical features of object contour | |
Sun et al. | Video hashing based on appearance and attention features fusion via DBN | |
CN102393900B (zh) | 基于鲁棒哈希的视频拷贝检测方法 | |
CN104794685B (zh) | 一种实现图像去噪的方法及装置 | |
CN104159120B (zh) | 一种视频稳像方法、装置及系统 | |
CN102034113A (zh) | 基于l1差距量度来测量局部图像相似度的方法 | |
CN102929970A (zh) | 基于时域视觉关注的视频拷贝检测方法 | |
Ting et al. | Image inpainting by global structure and texture propagation | |
Luo et al. | Convolutional neural networks-based stereo image reversible data hiding method | |
Xue et al. | Mse period based estimation of first quantization step in double compressed jpeg images | |
Liu et al. | Visual attention based temporally weighting method for video hashing | |
Sun et al. | Video hashing algorithm with weighted matching based on visual saliency | |
Song et al. | Robust single image reflection removal against adversarial attacks | |
Lu et al. | Revealing digital fakery using multiresolution decomposition and higher order statistics | |
CN102013101A (zh) | 一种经过模糊后处理的置换篡改图像盲检测方法 | |
CN107993230A (zh) | 基于三角网格综合特征的图像篡改检测方法 | |
Wang et al. | A visual saliency based video hashing algorithm | |
CN109741300B (zh) | 一种适用于视频编码的图像显著性快速检测方法和装置 | |
CN107147909A (zh) | 基于方差的重压缩jpeg图像原始量化步长估计方法 | |
CN102881008A (zh) | 基于圆环统计特征的抗旋转图像Hash方法 | |
Zhu et al. | MMSE-directed linear image interpolation based on nonlocal geometric similarity | |
Hrudya et al. | Digital image forgery detection on artificially blurred images | |
Li et al. | Stereo Superpixel Segmentation Via Decoupled Dynamic Spatial-Embedding Fusion Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130213 |