CN103747271A - 一种基于混合感知哈希的视频篡改检测方法和装置 - Google Patents

一种基于混合感知哈希的视频篡改检测方法和装置 Download PDF

Info

Publication number
CN103747271A
CN103747271A CN201410039341.XA CN201410039341A CN103747271A CN 103747271 A CN103747271 A CN 103747271A CN 201410039341 A CN201410039341 A CN 201410039341A CN 103747271 A CN103747271 A CN 103747271A
Authority
CN
China
Prior art keywords
video
checked
hash
distance
temporal signatures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410039341.XA
Other languages
English (en)
Other versions
CN103747271B (zh
Inventor
文振焜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201410039341.XA priority Critical patent/CN103747271B/zh
Publication of CN103747271A publication Critical patent/CN103747271A/zh
Application granted granted Critical
Publication of CN103747271B publication Critical patent/CN103747271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明公开了一种基于混合感知哈希的视频篡改检测方法和装置,通过在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改;大大提高了视频篡改检测速度和准确率。

Description

一种基于混合感知哈希的视频篡改检测方法和装置
技术领域
本发明涉及视频检测领域,尤其涉及的是一种基于混合感知哈希的视频篡改检测方法和装置。
背景技术
随着数字多媒体技术的飞速发展,视频媒体应用逐渐占据了网络多媒体应用中的主要份额。面对极度膨胀的信息量和越来越多的使用方式,视频信息安全问题和大规模视频文件库的管理问题日益突出,成为制约多媒体技术以及相关学科发展的一大瓶颈,如何对视频信息进行版权保护,如何对篡改的视频进行准确、快速的篡改检测与定位,如何从海量的视频数据中检测到可疑的视频内容,这些均是迫切需要解决的问题。同时,当今对于视频处理缺少人眼感知因素的加入,制约各种有效方法的形成,这些也成为亟待解决的关键问题。
为解决上述问题,国内外研究人员展开了深入的探讨,提出了视频数字签名和视频指纹等内容标识技术。国内外研究人员展开了深入的探讨,提出了视频数字签名和视频指纹等内容标识技术。然而,多年来的研究虽然已取得一定的进展,但是仍然无法有效满足视频应用的需要,原因主要在于两点:第一,由于视频结构信息,无法准确捕捉丰富的视频特征;第二,视频数据量巨大,无法准确区分在传输或存储过程中出现的视频内容保持操作与内容非法篡改操作。
国内视频内容检测与篡改定位研究相对分离,主要表现为拷贝检测与篡改检测。在前者中,研究者们重点关注视频特征提取方法,而且以帧为单位的提取与匹配方法占据了主导地位,通过视频特征的相似度计算达到对具有相似或者相同内容的视频检测。检测算法复杂度较高且对于视频特征的结构组织形式讨论较少。篡改检测中,以模式噪声为主的检测方法成为研究热点,该方法虽然对于是否进行篡改的检测较为准确,但是由于需要原始摄像机才能进行计算,具有天然的不足,并且对定位技术研究不深。通过嵌入水印的方式对篡改进行定位成为讨论热点,然而由于其需要严格控制水印的嵌入方式与嵌入规模,定位精度亦较低。其他方法多数实现篡改模糊定位或者侧重于篡改检测,定位技术涉及甚少。
而国外文献中的算法对于特征提取方法以基本的信号变换方法居多:如傅里叶变换、DCT变换、奇异值分解、小波变换等。DCT变换和傅里叶分析揭示了时域与频域之间的内在联系,反映了整个时间范围内的“全部”频谱成分,虽然具有很强的频域局域化能力,但并不具有时间局域化能力;信号变换技术无法有效体现人类感知特性,且时间复杂度、空间复杂度较高,针对海量的视频数据信息,难以起到有价值的实际应用。对于视频的篡改检测与定位,多数算法是通过视频帧的逐一匹配策略,利用海明距离,JND等手段计算特征之间的相似度,算法的时间复杂度、空间复杂度更高,计算起来既耗时、又耗力,难以实现大数据量视频处理的有效应用。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于混合感知哈希的视频篡改检测方法和装置,旨在解决现有技术中视频篡改检测复杂、检测速度慢及准确率不高问题。
本发明解决技术问题所采用的技术方案如下:
一种基于混合感知哈希的视频篡改检测方法,其中,包括以下步骤:
A、在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
B、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
C、对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;
D、提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;
E、将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
所述的基于混合感知哈希的视频篡改检测方法,其中,所述步骤A还包括:
A1、在待检视频的每一帧图像上根据密钥,在伪随机函数的控制下产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生。 
所述的基于混合感知哈希的视频篡改检测方法,其中,所述步骤B具体包括:
B1、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;
B2、对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
所述的混合感知哈希的视频篡改检测方法,其中,所述步骤C具体包括:
C1、每一帧的结构信息特征矩阵,采用如下公式:                                                
Figure 650884DEST_PATH_IMAGE001
量化得到对应的结构哈希向量;其中,di表示亮度均值差;将结构信息特征矩阵中亮度均值差小于零的值量化为0;将亮度差不小于零的值量化为1;得到对应的结构哈希向量;
C2、在时域特征矩阵中,以每一个时域通道为指标行,依次计算该行第
Figure 858191DEST_PATH_IMAGE003
列与第
Figure 746513DEST_PATH_IMAGE004
列亮度均值的差值,然后根据以下公式量化为哈希位串:
Figure 629018DEST_PATH_IMAGE005
;其中 
Figure 981502DEST_PATH_IMAGE006
为分块数目,即时域特征矩阵的行数,
Figure 299668DEST_PATH_IMAGE008
为视频帧数目,即时域特征矩阵的列数;从而得到对应的哈希序列。
所述的混合感知哈希的视频篡改检测方法,其中,所述步骤D具体包括:
D1、对视频长度为M的待检视频
Figure 657968DEST_PATH_IMAGE009
以及视频长度同样为M的目标视频
Figure 130538DEST_PATH_IMAGE010
,分别计算提取帧图像结构特征矩阵,并量化得到对应的结构哈希向量,分别为:
Figure 243987DEST_PATH_IMAGE011
Figure 106901DEST_PATH_IMAGE012
再根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离,特征距离计算方法为:
Figure 331209DEST_PATH_IMAGE013
其中,C为量化系数,其值为视频序列结构特征之间的最大特征距离,计算方式为:
Figure 614740DEST_PATH_IMAGE015
表示待检视频
Figure 964950DEST_PATH_IMAGE016
对应的结构哈希向量中第
Figure 992949DEST_PATH_IMAGE017
行第
Figure 174531DEST_PATH_IMAGE018
列的值;
Figure 301887DEST_PATH_IMAGE019
表示原始视频对应的结构哈希向量中第
Figure 201410039341X100002DEST_PATH_IMAGE021
行第
Figure 705504DEST_PATH_IMAGE018
列的值;
D2、对于给定的待检视频
Figure 7172DEST_PATH_IMAGE022
以及某一目标视频
Figure 305430DEST_PATH_IMAGE023
,计算得到待检视频第K个分块的时域特征对应的哈希序列为
Figure 692549DEST_PATH_IMAGE024
,这里用表示,同时计算得到原始视频中某一视频片段
Figure 890629DEST_PATH_IMAGE026
的时域特征对应的哈希序列命名为
Figure 687683DEST_PATH_IMAGE027
,在此基础上,定义待检视频与目标视频片段的时域特征距离如下公式:
Figure 296519DEST_PATH_IMAGE028
其中,的取值为系数权值,表达式如下式所示: 
Figure 386332DEST_PATH_IMAGE031
Figure 420147DEST_PATH_IMAGE032
为量化系数,它的值为视频时域特征对应的哈希序列之间的最大特征距离, 同样为两个时域特征对应的哈希序列完全翻转后得到最大的感知距离,表达式为
Figure 996939DEST_PATH_IMAGE034
D3、根据所述结构特征距离和时域特征距离,得出待检视频和原始视频之间的特征距离为:
Figure 73480DEST_PATH_IMAGE035
,其中,
所述的混合感知哈希的视频篡改检测方法,其中,所述步骤E具体包括:
E1、当
Figure 829580DEST_PATH_IMAGE038
之间的特征距离小于一设定的阈值时,待检视频没有被篡改;当
Figure 139339DEST_PATH_IMAGE039
之间的特征距离不小于所述阈值时,待检视频被篡改。
所述的混合感知哈希的视频篡改检测方法,其中,在所述步骤E之后,还包括:
F、将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
G、计算相似度矩阵对角线的海民距离,当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
一种基于混合感知哈希的视频篡改检测装置,其中,包括:
分块产生模块,用于在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
特征矩阵提取模块,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
量化模块,用于对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;
特征距离计算模块,用于提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;
比较模块,用于将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
所述的基于混合感知哈希的视频篡改检测装置,其中,所述特征矩阵提取模块包括:
结构信息特征矩阵提取单元,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;
时域特征矩阵提取单元,用于对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
所述的基于混合感知哈希的视频篡改检测装置,其中,还包括:
相似度矩阵建立模块,用于将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
海明距离计算模块,用于计算每个分段二者的海明距离;
定位模块,用于当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
本发明所提供的基于混合感知哈希的视频篡改检测方法和装置,有效的解决了现有技术中视频篡改检测复杂、检测速度慢及准确率不高的问题,实现了对待检视频是否被篡改的检测,其检测速度快,准确率高,通过研究人类视觉注意机制,模拟人类感知视频自顶向下、随机采样过程,提出融合人类视觉感知的视频空域特征信息和时域特征信息的特征提取及量化方案,体现更强的视觉感知因素影响,大大提高了视频篡改检测速度和准确率,操作简单便捷,其实现方法简单,通过软件实现,成本较低。
附图说明
图1为本发明提供的基于混合感知哈希的视频篡改检测方法第一实施例的流程图。
图2为本发明提供的基于混合感知哈希的视频篡改检测方法第二实施例的流程图。
图3为本发明提供的基于混合感知哈希的视频篡改检测装置的结构框图。
具体实施方式
本发明提供一种基于混合感知哈希的视频篡改检测方法和装置,为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
请参阅图1,图1为本发明提供的基于混合感知哈希的视频篡改检测方法的流程图,如图1所示,所述方法包括:
S100、在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
S200、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
S300、对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;
S400、提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;
S500、将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
以下结合具体的实施例对本发明提供的基于时域感知哈希的视频篡改检测方法进行详细说明。
具体来说,在步骤S100中,以帧图像的数量关系作为每一帧的结构特征,利用随机分块的方式模拟人类视觉选择的随机采样,首先将视频帧看做由其内部各个局部区域构成的集合
Figure 201153DEST_PATH_IMAGE041
,其中
Figure 40933DEST_PATH_IMAGE042
表示可能被关注的局部区域的个数。每个局部区域可以使用一个简单的矩形块
Figure 521592DEST_PATH_IMAGE043
来表示。矩形块之间的亮度差是它们之间的一个简单的数量关系,如
Figure 751717DEST_PATH_IMAGE044
,其中
Figure 608814DEST_PATH_IMAGE045
是帧分块的亮度均值。鉴于此,使用一个由随机种子seed控制的伪随机函数
Figure 880626DEST_PATH_IMAGE047
来模拟视觉选择的随机性,从而随机可重叠分块可以被描述为视频观察者在视频帧所有可能被关注的局部区域上的一个随机采样的过程:
Figure 925943DEST_PATH_IMAGE048
,其中,
Figure 321152DEST_PATH_IMAGE049
Figure 807628DEST_PATH_IMAGE050
表示特定观察者在特定时刻观察视频时基于视角seed所选择的感知区域,随机可重叠分块使得感知区域的选择符合人类随机选取的视觉特性。优选地,这里用密钥key代替随机种子seed进行描述,在伪随机函数
Figure 895670DEST_PATH_IMAGE051
的控制下产生N个随机分块
Figure 162703DEST_PATH_IMAGE052
。各个分块以互相交叠的方式散布在整个帧图像上,大小同样随机产生。对分块进行编号,得到
序列。
所述步骤S200具体包括:S210、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;S220、对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
具体来说,针对待检视频的视频序列每一帧进行结构特征描述,在随机种子的控制下产生N个随机的矩形块
Figure 702586DEST_PATH_IMAGE054
。各个分块以互相交叠的方式散布在整个帧图像上,大小同样随机产生。对分块进行编号,得到
Figure 961529DEST_PATH_IMAGE053
序列,确定步长为
Figure 653541DEST_PATH_IMAGE055
,通过步长确定亮度差计算的两个分块,然后统计帧的分块亮度均值差作为结构信息,形成该帧图像对应的结构信息特征矩阵。所述步长T根据需要进行设定。
优选地,针对上述结构特征提取方案,每一帧的结构信息可以定义为:
Figure 390553DEST_PATH_IMAGE056
;其中,。这里用密钥key代替seed随机种子进行描述,随机可重叠分块不仅使得感知区域的选择符合人类随机选取的视觉特性,同时通过密钥控制的分块策略增强了算法的安全性。在伪随机函数的控制下产生N个随机分块
Figure 257512DEST_PATH_IMAGE052
,然后使用公式计算分块之间的亮度差
Figure 798215DEST_PATH_IMAGE058
,从而得到结构信息特征矩阵。
在步骤S200中还采用上述随机分块策略,每一帧采用相同的分块方案。在此基础上,以每一帧为单位计算随机可重叠分块亮度均值
Figure 441686DEST_PATH_IMAGE059
,然后针对每个分块,在时域通道上进行亮度均值变化情况统计,综合各个分块通道的亮度均值时域特征用于描述视频画面变化信息,统计每一帧的各个分块亮度均值,形成待检视频对应的时域特征矩阵。具体来说,就是统计上述结构特征提取过程中的分块亮度均值,然后以时域通道为单位,统计构造分块亮度特征矩阵,每一行代表一个分块时域通道。
所述步骤S300具体包括:S310、每一帧的结构信息特征矩阵,采用如下公式:
Figure 714535DEST_PATH_IMAGE001
量化得到对应的结构哈希向量
Figure 443457DEST_PATH_IMAGE002
;其中,di表示亮度均值差;将结构信息特征矩阵中亮度均值差小于零的值量化为0;将亮度差不小于零的值量化为1;得到对应的结构哈希向量;
S320、在时域特征矩阵中,以每一个时域通道为指标行,依次计算该行第
Figure 522271DEST_PATH_IMAGE003
列与第
Figure 957932DEST_PATH_IMAGE004
列亮度均值的差值,然后根据以下公式量化为哈希位串:
Figure 464000DEST_PATH_IMAGE005
;其中 
Figure 680217DEST_PATH_IMAGE006
为分块数目,即时域特征矩阵的行数,
Figure 852890DEST_PATH_IMAGE008
为视频帧数目,即时域特征矩阵的列数;从而得到对应的哈希序列。
具体来说,将结构信息特征矩阵中亮度差小于零的值量化为0;将亮度差大于等于零的值量化为1;得到对应的结构哈希向量。具体来说,针对每一帧的结构信息特征矩阵,采用如下公式所示量化方式得到结构哈希向量
Figure 171056DEST_PATH_IMAGE001
;其中,di表示亮度均值差。这样,利用结构信息量化方式得到结构哈希向量和哈希序列,起到了降低奇异值影响和压缩的目的。
分析时域特征矩阵,通过符合特征变化规则的量化方案达到反映视频画面时域变化信息,统计各个分块时域通道,得到视频时域信息。在时域特征矩阵中,以每一个时域通道为指标行,依次计算该行第列与第
Figure 64242DEST_PATH_IMAGE004
列亮度均值的差值,然后根据以下公式量化为哈希位串:
Figure 912113DEST_PATH_IMAGE005
;其中 
Figure 775026DEST_PATH_IMAGE006
为分块数目,即时域特征矩阵的行数,
Figure 326410DEST_PATH_IMAGE008
为视频帧数目,即时域特征矩阵的列数;从而得到对应的哈希序列。
在具体应用时,所述步骤S400具体包括:
S410、依据上述计算得到的结构特征矩阵,对视频长度为M的待检视频
Figure 548444DEST_PATH_IMAGE009
以及视频长度同样为M的目标视频
Figure 960971DEST_PATH_IMAGE010
,分别计算提取帧图像结构特征矩阵,,并量化得到对应的结构哈希向量,分别为:
Figure 723391DEST_PATH_IMAGE011
再根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离,特征距离计算方法为:
Figure 297909DEST_PATH_IMAGE013
其中,C为量化系数,其值为视频序列结构特征之间的最大特征距离,计算方式为
Figure 197732DEST_PATH_IMAGE014
Figure 763842DEST_PATH_IMAGE060
表示待检视频
Figure 737614DEST_PATH_IMAGE061
结构哈希向量中第
Figure 363768DEST_PATH_IMAGE017
行第
Figure 750887DEST_PATH_IMAGE018
列的值;
Figure 855109DEST_PATH_IMAGE062
表示原始视频
Figure 948967DEST_PATH_IMAGE063
结构哈希向量中第
Figure 746022DEST_PATH_IMAGE021
行第
Figure 354858DEST_PATH_IMAGE018
列的值。
S420、对于给定的待检视频
Figure 466033DEST_PATH_IMAGE022
以及某一目标视频
Figure 476714DEST_PATH_IMAGE023
,计算得到待检视频第K个分块的时域特征对应的哈希序列为,这里用表示,同时计算得到原始视频中某一视频片段
Figure 924510DEST_PATH_IMAGE026
的时域特征对应的哈希序列命名为
Figure 55277DEST_PATH_IMAGE027
,在此基础上,定义待检视频与目标视频片段的时域特征距离如下公式:
其中,
Figure 715246DEST_PATH_IMAGE029
的取值为系数权值,表达式如下式所示: 
Figure 950235DEST_PATH_IMAGE064
Figure 197677DEST_PATH_IMAGE032
为量化系数,它的值为视频序列时域特征之间的最大特征距离,同样为两个时域特征序列完全翻转后得到最大的感知距离,表达式为
Figure 321808DEST_PATH_IMAGE034
S430、根据结构特征距离和时域特征距离,得出待检视频和原始视频之间的特征距离为:
Figure 36954DEST_PATH_IMAGE035
,其中,
具体来说,针对时域特征矩阵对应的哈希序列,采用加入系数权值矩阵的距离度量标准,鉴于当前大多数算法对于旋转和边缘无效信息过于敏感,导致整体鲁棒性下降的特性,本文给出一个系数权值矩阵,能够显著的降低边缘无效信息对于鲁棒性的破坏。分块号与对应权值如下式子所示:
Figure 810055DEST_PATH_IMAGE066
  
分块序列号                感知系数权值矩阵
对于给定的待检视频
Figure 604836DEST_PATH_IMAGE067
以及某一目标视频
Figure 299122DEST_PATH_IMAGE068
,算法首先对于视频每一帧图像进行
Figure 950683DEST_PATH_IMAGE069
分块,计算得到待检视频第K个分块的时域特征对应的哈希序列为,这里用
Figure 328892DEST_PATH_IMAGE071
表示,同时计算得到目标视频中某一视频片段
Figure 877685DEST_PATH_IMAGE026
的时域特征对应的哈希序列命名为为
Figure 903410DEST_PATH_IMAGE072
,在此基础上,定义待检视频与目标视频片段的时域特征距离如下公式:
Figure 170443DEST_PATH_IMAGE073
,其中, 
Figure 103764DEST_PATH_IMAGE074
Figure 772643DEST_PATH_IMAGE075
的取值为系数权值,表达式如下式所示: 
Figure 969269DEST_PATH_IMAGE076
,其中,
Figure 458019DEST_PATH_IMAGE077
为量化系数,它的值为视频时域特征对应的哈希序列之间的最大特征距离,同样
Figure 460610DEST_PATH_IMAGE065
在两个时域特征对应的哈希序列完全翻转后得到最大的感知距离,表达式为
Figure 921678DEST_PATH_IMAGE078
,当
Figure 85944DEST_PATH_IMAGE079
为9时,
Figure 327569DEST_PATH_IMAGE080
优选地,在实际应用时,所述步骤S500具体包括:当
Figure 805955DEST_PATH_IMAGE037
之间的特征距离小于一设定的阈值时,待检视频没有被篡改;当
Figure 784592DEST_PATH_IMAGE039
Figure 185618DEST_PATH_IMAGE082
之间的特征距离不小于所述阈值时,待检视频被篡改。具体来说,将待检视频和原始视频片段的特征距离与一设定的阈值比较,当
Figure 530011DEST_PATH_IMAGE083
Figure 27989DEST_PATH_IMAGE084
之间的特征距离小于设定的阈值时,待检视频没有被篡改;当
Figure 471740DEST_PATH_IMAGE085
Figure 687957DEST_PATH_IMAGE086
之间的特征距离不小于设定的阈值时,待检视频被篡改。所述设定的阈值可根据实际情况进行设定。由于放置一段时间之后的待检视频或拷贝的待检视频,其视频的图像可能会发生一点点变化,在阈值范围内,这都是可以接受的。
为使视频感知哈希算法在主观上和客观上统一,定义了一个粗略的人的视觉感知评价准则,该评价准则可以直观地应用于算法实验结果的各种显示图形上,使得我们对实验结果有个直观的认识,下述的感知距离即所述特征距离,定义如下表1所示:
感知距离 评级
Figure 570463DEST_PATH_IMAGE088
感知最相似(感知质量最好)
感知基本相似(感知较好)
Figure DEST_PATH_IMAGE092
感知一般相似(感知质量属正常)
Figure DEST_PATH_IMAGE094
感知不同(感知质量较差)
Figure DEST_PATH_IMAGE096
感知完全不同(感知质量最差)
表1
优选地,在所述步骤S100之前,还包括步骤S90、对待检视频进行预处理。具体来说,.对输入视频进行预处理,灰度化、统一分辨率并取得随机分块时域通道等,从而达到视频尺度无关性,算法的一般性。
优选地,在检测待检视频被篡改之后,还可以进一步对篡改的地方进行定位,定位的方式主要通过相似度矩阵进行,首先对原始视频和待检视频哈希结果进行区段划分,这里可以是较大的步长,在此基础上绘制相似度矩阵拟合图,利用相似度作为拟合图的灰度值,则在灰度值显著的地方就为定位的区段范围;经过第一次比对,可以得到大区段的准确定位,再将该区段拿出来进行二次划分,这时的区段范围更小更加精确,同样采用相似度拟合图进行定位得到篡改位置,依次类推,定位可以设定不同粒度、不同精度、并可以精准定位。如图2所示,所述基于混合感知哈希的视频篡改检测方法还包括:
S600、将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
S700、计算相似度矩阵对角线的海民距离,当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
具体来说,首先将原始视频与篡改视频感知哈希值进行相同的分段(分段大小随机确定,多数以粒度为参考目标)处理,在此基础上构建相似度矩阵。以原始视频为X轴,以篡改视频为Y轴,对于每个分段计算二者相似度(海明距离等)。这里,对角线反映二者对应的整体匹配程度,通过计算相似度矩阵对角线相似度达到整体检测的目的。在没有被篡改的情况下,理论上相似度矩阵会在对角线处达到最大值。当相似度矩阵在对角线处没有达到最大值时,在被篡改视频中此处视频符合定位要求,即此处视频为待检视频被篡改之处。优选地,举例说明如下:在检测相似度矩阵中某分段中的对角线处未达到最大值,则对该分段又进行分段,即循环处理,建立下一粒度的相似度矩阵,循环逼近符合定位要求之处,也就是待检视频的被篡改之处,实现精确定位。
本发明提供的基于混合感知哈希的视频篡改检测方法,大大提高了视频篡改检测速度和准确率;由于在视频感知哈希技术中,对于经过内容保持和修改操作的视频而言,非平稳信号占主要部分,小波变换以牺牲部分频域定位性能来取得时-频局部性的折衷,能提供较好的时域定位,本发明通过研究人类视觉注意机制,模拟人类感知视频自顶向下、随机采样过程,提出融合人类视觉感知的视频空域和时域信息的特征提取及量化方案,体现更强的视觉感知因素影响;针对感知哈希得到的最终结果,通过计算特征距离降低了特征相似度计算的复杂性,提高了篡改检测速度,准确区分视频篡改操作与内容保持操作,提高了视频内容篡改的检测速度,通过相似度及阈值分析,实现对视频内容保持操作与篡改操作的准确区分,实现篡改精确定位;加大空域和时域混合信息的影响,实现了视频快速、准确篡改检测与定位。
基于上述混合感知哈希的视频篡改检测方法,本发明还提供了一种基于混合感知哈希的视频篡改检测装置,如图3所示,包括:
分块产生模块110,用于在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;具体如步骤S100所述;
特征矩阵提取模块120,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;具体如步骤S200所述;
量化模块130,用于对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;具体如步骤S300所述;
特征距离计算模块140,用于提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;具体如步骤S400所述;
比较模块150,用于将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改;具体如步骤S500所述;
所述分块产生模块110、特征矩阵提取模块120、量化模块130、特征距离计算模块140和比较模块150依次连接。
具体来说,所述分块产生模块110对待测视频和原始视频进行随机分块,特征矩阵提取模块120提取同样长度的待检视频和原始视频的帧图像的结构特征矩阵和时域特征矩阵,也就是对应的两个视频的结构特征矩阵和时域特征矩阵。然后将其发送至量化模块130中,转换为对应的结构哈希向量和时域哈希序列。所述特征距离计算模块140据待检视频和原始视频中的结构特征矩阵计算待检视频和原始视频中对应帧的结构特征距,还根据待检视频和原始视频中的时域特征矩阵计算待检视频和原始视频中的时域特征距离,然后根据结构特征距离和时域特征距离得出待检视频和原始视频的特征距离。然后所述特征距离计算模块140将结果发送至比较模块150中,所述比较模块150将特征距离与阈值进行比较,小于阈值的,表明待检视频中没有被篡改,超过阈值的,则被篡改。
进一步地,所述时域特征矩阵提取模块120包括:
结构信息特征矩阵提取单元,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;
时域特征矩阵提取单元,用于对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
所述量化模块130具体包括:
结构特征矩阵量化单元,用于对每一帧对应的结构信息特征矩阵进行量化,得到结构哈希向量;
时域特征矩阵量化单元,用于对时域特征矩阵进行量化,得到时域哈希序列。
所述特征距离计算模块140具体包括:
结构特征距离计算单元,用于根据待检视频和原始视频的结构特征矩阵计算待检视频和原始视频中对应帧的结构特征距离;
时域特征距离计算单元,用于根据待检视频和原始视频的时域特征矩阵计算待检视频和原始视频的时域特征距离;
特征距离混合计算单元,用于根据结构特征距离和时域特征距离得出待检视频和原始视频的特征距离。
进一步地,所述基于混合感知哈希的视频篡改检测装置还包括:
相似度矩阵建立模块,用于将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;具体如步骤S600所述;
海明距离计算模块,用于计算相似度矩阵对角线的海民距离;具体如步骤S700所述;
定位模块,用于当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位;具体如步骤S700所述。
具体来说,所述相似度矩阵建立模块先将原始视频与篡改视频感知哈希值进行相同的分段(分段大小随机确定,多数以粒度为参考目标)处理,在此基础上构建相似度矩阵,以原始视频为X轴,以篡改视频为Y轴。然后海明距离计算模块对于每个分段计算二者相似度(海明距离等),计算相似度矩阵对角线的海民距离。对角线反映二者对应的整体匹配程度,通过计算相似度矩阵对角线相似度达到了整体检测的目的。在没有被篡改的情况下,理论上相似度矩阵会在对角线处达到最大值。当相似度矩阵在对角线处没有达到最大值时,在被篡改视频中此处视频符合定位要求,即此处视频为待检视频被篡改之处,定位模块对该处进行定位。优选地,在检测相似度矩阵中某分段中的对角线处未达到最大值,则对该分段又进行分段,建立下一粒度的相似度矩阵,循环逼近符合定位要求之处,也就是待检视频的被篡改之处,实现精确定位。
综上所述,本发明提供的基于混合感知哈希的视频篡改检测方法和装置,通过在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改;大大提高了视频篡改检测速度和准确率;通过相似度及阈值分析,实现对视频内容保持操作与篡改操作的准确区分。本发明采用随机可重叠分块的方法模拟人眼感知多媒体信息随机采样过程,更加准确描述了随机采样过程,进一步合理设置随机密钥,更加准确合理的描述人类感知多媒体信息的自顶向下模型,从而掌握视频帧图像视频信息。进一步地,本发明提供的定位方法,定位耗时短,定位精确。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种基于混合感知哈希的视频篡改检测方法,其特征在于,包括以下步骤:
A、在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
B、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
C、对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;
D、提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;
E、将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
2.根据权利要求1所述的基于混合感知哈希的视频篡改检测方法,其特征在于,所述步骤A还包括:
A1、在待检视频的每一帧图像上根据密钥,在伪随机函数的控制下产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生。
3.根据权利要求1所述的基于混合感知哈希的视频篡改检测方法,其特征在于,所述步骤B具体包括:
B1、设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;
B2、对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
4.根据权利要求1所述的混合感知哈希的视频篡改检测方法,其特征在于,所述步骤C具体包括:
C1、每一帧的结构信息特征矩阵,采用如下公式:                                                
Figure 574063DEST_PATH_IMAGE001
量化得到对应的结构哈希向量;其中,di表示亮度均值差;将结构信息特征矩阵中亮度均值差小于零的值量化为0;将亮度差不小于零的值量化为1;得到对应的结构哈希向量;
C2、在时域特征矩阵中,以每一个时域通道为指标行,依次计算该行第
Figure 270940DEST_PATH_IMAGE003
列与第
Figure 603832DEST_PATH_IMAGE004
列亮度均值的差值,然后根据以下公式量化为哈希位串:
Figure DEST_PATH_IMAGE005
;其中 
Figure 418205DEST_PATH_IMAGE006
为分块数目,即时域特征矩阵的行数,
Figure 178350DEST_PATH_IMAGE008
为视频帧数目,即时域特征矩阵的列数;从而得到对应的哈希序列。
5.根据权利要求1所述的混合感知哈希的视频篡改检测方法,其特征在于,所述步骤D具体包括:
D1、对视频长度为M的待检视频
Figure DEST_PATH_IMAGE009
以及视频长度同样为M的目标视频
Figure 445384DEST_PATH_IMAGE010
,分别计算提取帧图像结构特征矩阵,并量化得到对应的结构哈希向量,分别为:
Figure DEST_PATH_IMAGE011
Figure 581967DEST_PATH_IMAGE012
再根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离,特征距离计算方法为:
Figure DEST_PATH_IMAGE013
其中,C为量化系数,其值为视频序列结构特征之间的最大特征距离,计算方式为:
Figure 250846DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE015
表示待检视频
Figure 181893DEST_PATH_IMAGE016
结构哈希向量中第
Figure DEST_PATH_IMAGE017
行第
Figure 936222DEST_PATH_IMAGE018
列的值;
Figure DEST_PATH_IMAGE019
表示原始视频
Figure 610917DEST_PATH_IMAGE020
结构哈希向量中第
Figure DEST_PATH_IMAGE021
行第
Figure 134302DEST_PATH_IMAGE018
列的值;
D2、对于给定的待检视频以及某一目标视频
Figure 743455DEST_PATH_IMAGE023
,计算得到待检视频第K个分块的时域特征对应的哈希序列为
Figure 18579DEST_PATH_IMAGE024
,这里用
Figure DEST_PATH_IMAGE025
表示,同时计算得到原始视频中某一视频片段
Figure 662049DEST_PATH_IMAGE026
的时域特征对应的哈希序列命名为,在此基础上,定义待检视频与目标视频片段的时域特征距离如下公式:
其中,
Figure 601504DEST_PATH_IMAGE030
的取值为系数权值,表达式如下式所示: 
Figure 680318DEST_PATH_IMAGE032
为量化系数,它的值为视频时域特征对应的哈希序列之间的最大特征距离, 同样
Figure DEST_PATH_IMAGE033
为两个时域特征对应的哈希序列完全翻转后得到最大的感知距离,表达式为
Figure 178296DEST_PATH_IMAGE034
D3、根据所述结构特征距离和时域特征距离,得出待检视频和原始视频之间的特征距离为:
Figure DEST_PATH_IMAGE035
,其中,
Figure 887626DEST_PATH_IMAGE036
6.根据权利要求5所述的混合感知哈希的视频篡改检测方法,其特征在于,所述步骤E具体包括:
E1、当
Figure 838264DEST_PATH_IMAGE038
之间的特征距离小于一设定的阈值时,待检视频没有被篡改;当
Figure 658453DEST_PATH_IMAGE037
Figure 10936DEST_PATH_IMAGE038
之间的特征距离不小于所述阈值时,待检视频被篡改。
7.根据权利要求1所述的混合感知哈希的视频篡改检测方法,其特征在于,在所述步骤E之后,还包括:
F、将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
G、计算相似度矩阵对角线的海民距离,当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
8.一种基于混合感知哈希的视频篡改检测装置,其特征在于,包括:
分块产生模块,用于在待检视频的每一帧图像上随机产生多个矩形块,并对各个矩形块依次进行编号,其中,各个矩形块互相交叠,各个矩形块的大小随机产生;
特征矩阵提取模块,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,并形成对应的结构信息特征矩阵;对待检视频的每一帧图像进行同样的随机分块;以每一帧为单位计算各个分块的亮度均值,统计各个分块在时域通道上的亮度均值变化情况,形成待检视频的时域特征矩阵;
量化模块,用于对结构信息特征矩阵和时域特征矩阵分别进行量化,得到对应的结构哈希向量和哈希序列;
特征距离计算模块,用于提取相同视频长度的原始视频的帧图像结构信息特征矩阵和时域特征矩阵,并量化得到对应的结构哈希向量和哈希序列;根据待检视频和原始视频的结构哈希向量计算待检视频和原始视频中对应帧的结构特征距离;根据待检视频和原始视频的哈希序列计算待检视频和原始视频的时域特征距离;根据所述结构特征距离和时域特征距离得出待检视频和原始视频的特征距离;
比较模块,用于将所述特征距离与一设定的阈值进行比较,当所述特征距离小于所述阈值时,则待检视频没有被篡改;反之,则被篡改。
9.根据权利要求8所述的基于混合感知哈希的视频篡改检测装置,其特征在于,所述特征矩阵提取模块包括:
结构信息特征矩阵提取单元,用于设定步长,计算编号差为设定的步长的两个矩形块的亮度均值差,根据亮度差形成对应的结构信息特征矩阵;
时域特征矩阵提取单元,用于对待检视频的每一帧图像进行同样的随机分块,在每一帧图像上随机产生多个矩形块,其中,各个矩形块互相交叠,各个矩形块的大小随机产生,计算每一帧图像上相应的各个矩形块的亮度均值,将亮度均值形成对应的时域特征矩阵;每一行代表一个分块时域通道。
10.根据权利要求8所述的基于混合感知哈希的视频篡改检测装置,其特征在于,还包括:
相似度矩阵建立模块,用于将原始视频和被篡改视频感知哈希值进行相同的分段,其中分段大小随机确定,以原始视频为X轴,以被篡改视频为Y轴,建立相似度矩阵;
海明距离计算模块,用于计算每个分段二者的海明距离;
定位模块,用于当相似度矩阵在对角线处没有达到最大值时,对被篡改视频中此处视频进行定位。
CN201410039341.XA 2014-01-27 2014-01-27 一种基于混合感知哈希的视频篡改检测方法和装置 Active CN103747271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410039341.XA CN103747271B (zh) 2014-01-27 2014-01-27 一种基于混合感知哈希的视频篡改检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410039341.XA CN103747271B (zh) 2014-01-27 2014-01-27 一种基于混合感知哈希的视频篡改检测方法和装置

Publications (2)

Publication Number Publication Date
CN103747271A true CN103747271A (zh) 2014-04-23
CN103747271B CN103747271B (zh) 2017-02-01

Family

ID=50504253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410039341.XA Active CN103747271B (zh) 2014-01-27 2014-01-27 一种基于混合感知哈希的视频篡改检测方法和装置

Country Status (1)

Country Link
CN (1) CN103747271B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077590A (zh) * 2014-06-30 2014-10-01 安科智慧城市技术(中国)有限公司 一种视频指纹提取方法及系统
CN104581431A (zh) * 2014-11-28 2015-04-29 安科智慧城市技术(中国)有限公司 一种视频认证方法及装置
CN104715440A (zh) * 2015-03-10 2015-06-17 南京师范大学 基于Gabor滤波器组与DWT变换的遥感影像感知哈希认证方法
CN106060568A (zh) * 2016-06-28 2016-10-26 电子科技大学 一种视频篡改检测及定位方法
CN106157964A (zh) * 2016-07-14 2016-11-23 西安元智系统技术有限责任公司 一种确定回声消除中系统延时的方法
CN106454384A (zh) * 2015-08-04 2017-02-22 中国科学院深圳先进技术研究院 视频帧插入和帧删除检测方法
CN112232428A (zh) * 2020-10-23 2021-01-15 上海电力大学 一种基于三维特征和能量变化特征的图像哈希获取方法
CN113191380A (zh) * 2020-01-14 2021-07-30 天津工业大学 一种基于多视角特征的图像取证方法及系统
CN113297899A (zh) * 2021-03-23 2021-08-24 上海理工大学 一种基于深度学习的视频哈希算法
CN114359784A (zh) * 2021-12-03 2022-04-15 湖南财政经济学院 一种面向视频压缩的人眼恰可察觉失真的预测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102497597A (zh) * 2011-12-05 2012-06-13 中国华录集团有限公司 高清视频文件的完整性校验方法
CN103313142A (zh) * 2013-05-26 2013-09-18 中国传媒大学 面向三网融合的视频内容安全责任认定方法
EP2670151A1 (en) * 2012-05-28 2013-12-04 Tektronix Inc. Heuristic method for drop frame detection in digital baseband video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102497597A (zh) * 2011-12-05 2012-06-13 中国华录集团有限公司 高清视频文件的完整性校验方法
EP2670151A1 (en) * 2012-05-28 2013-12-04 Tektronix Inc. Heuristic method for drop frame detection in digital baseband video
CN103313142A (zh) * 2013-05-26 2013-09-18 中国传媒大学 面向三网融合的视频内容安全责任认定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱映映; 文振焜; 杜以华; 邓良太: "基于视频感知哈希的视频篡改检测与多粒度定位", 《中国图象图形学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077590A (zh) * 2014-06-30 2014-10-01 安科智慧城市技术(中国)有限公司 一种视频指纹提取方法及系统
CN104581431A (zh) * 2014-11-28 2015-04-29 安科智慧城市技术(中国)有限公司 一种视频认证方法及装置
CN104581431B (zh) * 2014-11-28 2018-01-30 精宸智云(武汉)科技有限公司 一种视频认证方法及装置
CN104715440A (zh) * 2015-03-10 2015-06-17 南京师范大学 基于Gabor滤波器组与DWT变换的遥感影像感知哈希认证方法
CN106454384A (zh) * 2015-08-04 2017-02-22 中国科学院深圳先进技术研究院 视频帧插入和帧删除检测方法
CN106060568A (zh) * 2016-06-28 2016-10-26 电子科技大学 一种视频篡改检测及定位方法
CN106060568B (zh) * 2016-06-28 2018-12-18 电子科技大学 一种视频篡改检测及定位方法
CN106157964A (zh) * 2016-07-14 2016-11-23 西安元智系统技术有限责任公司 一种确定回声消除中系统延时的方法
CN113191380A (zh) * 2020-01-14 2021-07-30 天津工业大学 一种基于多视角特征的图像取证方法及系统
CN113191380B (zh) * 2020-01-14 2022-12-13 天津工业大学 一种基于多视角特征的图像取证方法及系统
CN112232428A (zh) * 2020-10-23 2021-01-15 上海电力大学 一种基于三维特征和能量变化特征的图像哈希获取方法
CN113297899A (zh) * 2021-03-23 2021-08-24 上海理工大学 一种基于深度学习的视频哈希算法
CN113297899B (zh) * 2021-03-23 2023-02-03 上海理工大学 一种基于深度学习的视频哈希算法
CN114359784A (zh) * 2021-12-03 2022-04-15 湖南财政经济学院 一种面向视频压缩的人眼恰可察觉失真的预测方法及系统

Also Published As

Publication number Publication date
CN103747271B (zh) 2017-02-01

Similar Documents

Publication Publication Date Title
CN103747271A (zh) 一种基于混合感知哈希的视频篡改检测方法和装置
CN103747254A (zh) 一种基于时域感知哈希的视频篡改检测方法和装置
CN103747255A (zh) 一种基于空域感知哈希的视频篡改检测方法和装置
Singh et al. Video frame and region duplication forgery detection based on correlation coefficient and coefficient of variation
Liu et al. A passive image authentication scheme for detecting region-duplication forgery with rotation
Wang et al. A visual model-based perceptual image hash for content authentication
Bravo-Solorio et al. Automated detection and localisation of duplicated regions affected by reflection, rotation and scaling in image forensics
CN103345758B (zh) 基于dct统计特征的jpeg图像区域复制篡改盲检测方法
Fadl et al. Authentication of surveillance videos: detecting frame duplication based on residual frame
CN111898538B (zh) 证件鉴伪方法、装置、电子设备及存储介质
CN106530200A (zh) 一种基于深度学习模型的隐写图像检测方法及系统
CN104636764B (zh) 一种图像隐写分析方法以及其装置
Su et al. A novel forgery detection algorithm for video foreground removal
CN110807396B (zh) 基于光照方向一致性的换脸视频篡改检测方法及系统
US8588462B1 (en) Video watermarking with fast detection
CN104166955A (zh) 基于保角变换图像哈希生成及图像篡改检测定位方法
CN110457996B (zh) 基于vgg-11卷积神经网络的视频运动对象篡改取证方法
CN102693522A (zh) 一种彩色图像区域复制篡改检测方法
Hou et al. Detection of hue modification using photo response nonuniformity
CN117010532B (zh) 基于多模态深度学习的综合管廊火灾趋势预测方法
CN106027850A (zh) 云端中值滤波系统
Kang et al. Color Image Steganalysis Based on Residuals of Channel Differences.
Lu et al. Steganalysis of content-adaptive steganography based on massive datasets pre-classification and feature selection
CN103561274B (zh) 静止摄像头拍摄的运动目标被移除视频时域篡改检测方法
Zhang et al. PRNU-based image forgery localization with deep multi-scale fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant