CN103164856B - 一种基于稠密sift流的视频复制粘贴盲检测方法 - Google Patents

一种基于稠密sift流的视频复制粘贴盲检测方法 Download PDF

Info

Publication number
CN103164856B
CN103164856B CN201310072601.9A CN201310072601A CN103164856B CN 103164856 B CN103164856 B CN 103164856B CN 201310072601 A CN201310072601 A CN 201310072601A CN 103164856 B CN103164856 B CN 103164856B
Authority
CN
China
Prior art keywords
key frame
video
sift
doubtful
testing result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310072601.9A
Other languages
English (en)
Other versions
CN103164856A (zh
Inventor
杜振龙
焦丽鑫
李晓丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tech University
Original Assignee
Nanjing Tech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tech University filed Critical Nanjing Tech University
Priority to CN201310072601.9A priority Critical patent/CN103164856B/zh
Publication of CN103164856A publication Critical patent/CN103164856A/zh
Application granted granted Critical
Publication of CN103164856B publication Critical patent/CN103164856B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稠密SIFT流的视频复制粘贴盲检测方法,包括以下步骤:步骤A、提取待检测视频的关键帧和各关键帧所对应的非关键帧;步骤B、对于步骤A中所提取出的每一幅关键帧,确定该关键帧的复制区域和粘贴区域,得到各关键帧的复制粘贴检测结果图;步骤C、根据各关键帧的复制粘贴检测结果,利用稠密SIFT流算法得到待检测视频的复制粘贴检测结果。相比现有技术,本发明算法复杂度较低,能够准确地检测出视频中的复制粘贴伪造区域,对刚体目标检测具有较好的鲁棒性。

Description

一种基于稠密SIFT流的视频复制粘贴盲检测方法
技术领域
本发明涉及一种基于稠密SIFT流的视频复制粘贴盲检测方法,属于图像处理技术领域。
背景技术
随着数字获取技术和数字视频编辑技术的发展,数码相机、摄像机的家庭普及化,iPhone、智能移动终端等用户群的扩大,媒体的获取越来越快捷、方便,相应地个人、单位和互联网内积聚了大量的视频媒体文档,这些视频文档内容丰富、广泛应用于各个领域,对丰富现代人们的精神生活发挥着巨大的作用。利用目前的视频编辑软件可比较容易地篡改视频内容,例如,通过编辑改变背景颜色、突出目标、使视频更加炫彩,植入企业或产品商标,达到商业宣传的目的等。然而,互联网云的非授权篡改视频文档侵害了人们的肖像权和隐私、掩盖了事实的真实性,甚至危及到国家安全。因此,视频伪造的检测具有重大的现实需求和意义。
传统的图像伪造检测算法可以分为三类:基于图像伪造遗留痕迹的伪造检测;基于成像设备一致性的伪造检测;基于自然图像统计特征的伪造检测。但用现有的图像伪造检测方法逐帧检测视频计算量大、耗时长,且获取的视频检测结果存在时空不一致,因此不能直接扩展至视频的伪造检测。常见的视频复制粘贴伪造分为基于帧的复制伪造和基于区域复制伪造。通常基于帧的复制检测方法通过两两比较视频帧间的时空相关性的相似度来判定是否为复制伪造,但两两比较相似度,计算量大,不适合长视频片段;基于区域复制的检测方法是通过估计某一区域像素的综合特征(如颜色、纹理、噪声、运动信息或空间位置等)在两帧间的相似程度来实现区域复制检测,但目前基于区域的复制粘贴检测针对较大的伪造区域具有较好的效果,很难寻找到尺寸较小的区域,且计算量大、耗时长、应用范围具有一定的局限性。
发明内容
本发明所要解决的技术问题在于克服现有技术的不足,提供一种基于稠密SIFT流的视频复制粘贴盲检测方法,能够有效地检测出视频中的复制粘贴伪造区域,且对刚体检测具有鲁棒性。
本发明的基于稠密SIFT流的视频复制粘贴盲检测方法,包括以下步骤:
步骤A、提取待检测视频的关键帧和各关键帧所对应的非关键帧;
步骤B、对于步骤A中所提取出的每一幅关键帧,确定该关键帧的复制区域和粘贴区域,得到各关键帧的复制粘贴检测结果图;
步骤C、根据各关键帧的复制粘贴检测结果,利用稠密SIFT流算法得到待检测视频的复制粘贴检测结果,具体如下::
步骤C1、对于任一视频关键帧ki,以及与该关键帧ki对应的一幅非关键帧fj,分别提取ki和fj的稠密SIFT局部特征;
步骤C2、利用所述稠密SIFT局部特征,计算视频关键帧ki与非关键帧fj间的像素匹配,从而生成运动流场w(u,v),即稠密SIFT流场,其中u、v分别为稠密SIFT流场的水平和垂直分量;
步骤C3、在步骤C2求得的稠密SIFT流场的约束作用下,利用双线性插值的方法求取ki的复制粘贴检测结果图的每个像素的插值,从而获得当前视频关键帧伪造检测结果图的插值图像,即为非关键帧fj的复制粘贴检测结果,具体方法为;
步骤C301、按照关键帧ki的复制粘贴检测结果图的尺寸大小创建新图像;
步骤C302、取新图像的某一像素点(x,y),将其映射到关键帧ki的复制粘贴检测结果图相应的位置(x',y');
步骤C303、(x',y')在该点对应的稠密SIFT流场(u(x,y),v(x,y))的约束作用下,变为(x'+u(x,y),y'+v(x,y)),将其取整到(xx,yy),并得到该点及该点周围相邻点的像素值;
步骤C304、利用双线性插值的方法得到像素点(x,y)的值;重复步骤C302和步骤C303,直到得到新图像的所有像素点的值,新图像即为当前非关键帧fj的复制粘贴检测结果图;
步骤C4、对于关键帧ki所对应的各非关键帧,分别重复步骤C1至C3,得到关键帧ki所对应的所有非关键帧的复制粘贴检测结果图;
步骤C5、对各关键帧分别重复步骤C1~步骤C4,得到待检测视频中所有非关键帧的复制粘贴检测结果图,进而得到待检测视频的复制粘贴检测结果。
作为本发明的优选方案,步骤B中所述确定关键帧的复制区域和粘贴区域,具体按照以下方法:
步骤B1、利用SIFT算法提取视频帧的SIFT特征点集,并通过SIFT特征匹配算法匹配SIFT特征点,从而滤除复制区域与粘贴区域以外的冗余的SIFT特征点,得到SIFT特征点对,每一对SIFT特征点分别作为一对疑似复制区域和疑似粘贴区域的SIFT特征点;
步骤B2、利用均值漂移算法迭代求解步骤B1得到的疑似复制区域和疑似粘贴区域的SIFT特征点的邻域,所有疑似复制区域内的SIFT特征点的邻域构成疑似复制区域,所有疑似粘贴区域内的SIFT特征点的邻域构成疑似粘贴区域,从而初步定位疑似复制区域和疑似粘贴区域;
步骤B3、依据初步定位出的疑似复制区域和疑似粘贴区域,使用区域匹配的细化方法精确定位出复制区域和粘贴区域,即通过比较视频关键帧的每个SIFT特征点的邻域与其相邻的小区域的特征参数(例如颜色、纹理或位置等特征参数)进行区域相似度比较,将相似度大于所预设相似度阈值的区域划分到相应的疑似复制区域或疑似粘贴区域当中,从而精确定位出复制区域与粘贴区域。
上述技术方案中,关键帧的提取可采用现有的各种方法,为了降低算法复杂度,减少计算时间,提高算法实时性,优选采用以下技术方案:所述提取待检测视频的关键帧和各关键帧所对应的非关键帧,使用聚类的方法,具体如下:通过两两比较视频帧间的相似度,对待检测视频的视频帧进行聚类;对于聚类得到的每一类,以其中时间顺序最靠前的视频帧作为关键帧,其余视频帧作为该关键帧所对应的非关键帧。
相比现有技术,本发明的基于稠密SIFT流的视频复制粘贴盲检测方法具有以下有益效果:
本发明算法复杂度较低,能够准确地检测出视频中的复制粘贴伪造区域,对刚体目标检测具有较好的鲁棒性。
附图说明
图1为本发明的基于稠密SIFT流的视频复制粘贴盲检测方法流程图;
图2为具体实施方式中所述视频关键帧提取示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
本发明的思路是利用SIFT特征的尺度不变性、旋转不变性及访射不变性等特点,检测出待检测视频关键帧的SIFT特征点集,并通过SIFT特征点匹配确定视频关键帧的复制粘贴伪造区域的SIFT特征点集,然后通过均值漂移算法迭代求解SIFT特征点的邻域并进一步细化确定视频关键帧的复制粘贴伪造区域,最后通过稠密SIFT流将视频关键帧的复制粘贴伪造检测结果过渡至该视频关键帧所对应的当前聚类下的视频非关键帧,从而得到整个视频的复制粘贴伪造检测结果。
为了便于公众理解,在对本发明技术方案进行详细说明前,下面先对本发明技术方案所涉及的相关现有技术进行简要说明。
1.SIFT描述符
SIFT描述符是一种尺度无关、旋转不变和光照无关的局部图像特征描述算子。SIFT描述符提取包括极值点检测和特征向量描述符计算。
2.极值点检测
极值点检测涉及高斯尺度空间和DOG(Difference of Gaussians,高斯差分尺度)空间。高斯尺度空间是由一系列不同尺度的高斯平滑图像构成的高斯金字塔,同层相邻不同尺度的高斯卷积核的比为高阶图像由低阶图像进行下采样生成。图像I(x,y)对应的高斯尺度图像L由式(1)生成。
L(x,y,δ)=G(x,y,δ)*I(x,y)(1)
3.SIFT特征向量
SIFT特征向量描述符是基于梯度的直方图描述子,包括主方向和特征向量。
SIFT算法利用局部极值点所在圆形区域内的邻域像素来计算该点的梯度幅值m(x,y)和方向θ(x,y)。
M ( x , y ) = ( L ( x + 1 , y ) - L ( x - 1 , y ) 2 ) + ( L ( x , y + 1 ) - L ( x , y - 1 ) ) 2 - - - ( 2 )
q ( x , y ) = tan - 1 ( ( L ( x , y + 1 ) - L ( x , y - 1 ) ) ( L ( x + 1 , y ) - L ( x - 1 , y ) ) ) - - - ( 3 )
局部极值点的主方向通过梯度直方图确定。直方图以每10度圆周向间隔为一个单元,整个圆周共36个单元。圆形区域中所有像素点的梯度按大小范围归类至直方图的相应单元中。像素点对单元直方图桶的贡献权值为该点梯度幅值m(x,y)和对应的高斯权值的乘积。直方图的最大峰值方向为该点的主方向。
一个点可能具有一个主方向和多个辅方向,一个主方向辅以多个辅方向的方式增强了特征的方向性描述能力。辅方向的检测方法是把最大峰值与其它方向值做比较,若某一方向的值大于或等于峰值的80%,则定义该方向为该点的辅方向。
极值点的SIFT特征向量是对以极值点为中心的区域特征的抽取,把区域的特征综合起来作为局部极值点的描述符。为了保证局部特征的旋转不变性,把局部区域旋转主方向角度后进行特征处理。
4.均值漂移
均值漂移方法的实质是一种沿梯度下降方向进行迭代的非参数核密度估计方法,通过反复迭代搜索特征空间数据最密集的区域,沿样本数据核密度增加的方向收敛到局部概率密度极大位置,本发明所涉及的样本数据即为提取到的经过特征匹配后SIFT特征点。求概率密度极大值首先根据公式(4)求取样本点处的均值漂移向量:
M h ( x ) = Σ i = 1 n G ( x i - x h ) w ( x i ) x i Σ i = 1 n G ( x i - x h ) w ( x i ) - - - ( 4 )
漂移搜索的局部收敛条件为:
||Mh(x)-x||<e(5)
5.SIFT流
SIFT流是通过空间的目标场景与图像物体运动相对应关系在图像中确定物体运动场。SIFT流场通过定义目标函数优化求解获取,本发明中定义的目标函数为一个能量函数:
E ( w ) 1 = &Sigma; p | | S 1 ( p ) - S 2 ( p ) | | 1 + 1 &sigma; 2 &Sigma; p ( u 2 ( p ) + v 2 ( p ) ) ( 6 )
+ &Sigma; ( p , q ) &Element; &epsiv; min ( &alpha; | u ( p ) - u ( q ) | , d ) + min ( &alpha; | v ( p ) - v ( q ) | , d )
S1和S2为两个视频帧的SIFT图像,式(5)中第一项为数据项,计算两个视频帧按照SIFT局部特征的相似度进行匹配;第二项为移动最小化项,对SIFT流场的流速进行最小化限制;最后一项是平滑项,在考虑到运动连续的情况下,优先匹配视频帧像素点的邻域,其中ε是空间邻域,通常采用像素的四邻域进行搜索。
本发明的基于稠密SIFT流的视频复制粘贴盲检测方法,其流程如图1所示,具体包括以下步骤:
步骤A、通过自适应阈值聚类的算法提取待检测视频的关键帧;
本发明的关键帧提取可采用现有的各种方法,目前现有的关键帧的提取方法主要有以下几种:基于镜头的方法、基于内容的分析方法、基于运动的分析方法、基于压缩视频流提取的方法以及本文所述的基于聚类的方法。考虑到聚类算法在图像、视频研究领域的广泛应用及算法复杂度、计算时间及算法实时性的影响,本发明优选采用自适应阈值的聚类方法实现视频关键帧的提取,该方法的原理如图2所示,具体如下:根据视频帧的内容、结构及颜色等特征的变化,自适应地确定聚类所需阈值的大小,然后采用聚类方法提取视频关键帧,具体方法为:在YCbCr颜色空间内,将视频帧的三颜色分量Y、Cb、Cr的均值和方差作为每一帧的特征参数,两两比较视频帧间的特征参数并作为两帧间相似度的衡量标准,在聚类阈值的限制下实现视频帧的聚类,进一步通过比较视频帧间颜色分量的差异来确定各聚类的类中心;对于聚类得到的每一类,考虑到视频帧序列时间先后的影响,将其中时间顺序最靠前的视频帧作为关键帧,其余视频帧作为该关键帧所对应的非关键帧。利用自适应阈值聚类方法提取关键帧的一种具体实现算法如下:
步骤A1、按时间先后的顺序输出视频帧,并构造聚类c1,取第一个视频帧F1,将其划分到c1中,并令其作为c1的初始类中心,设定聚类阈值T;
步骤A2、取下一视频帧F2,并与c1的类中心进行相似度比较,将大于T的视频帧划分到当前聚类下,并通过视频帧间颜色分量的差异更新当前聚类的类中心;否则构造新的聚类,将其划分到新的聚类下,并作为其初始类中心;
步骤A3、以此类推,按序依次取出下一视频帧,并将其与上一聚类中心进行相似度比较,重复步骤A2,直到所有的视频帧处理完毕;
步骤A4、取每个聚类的首帧作为当前聚类下的视频关键帧。
步骤B、对于步骤A中所提取出的每一幅关键帧,确定该关键帧的复制区域和粘贴区域,得到各关键帧的复制粘贴检测结果图。
关键帧的复制区域、粘贴区域的确定,可利用现有的各种图像复制粘贴伪造检测算法实现,例如Li[Li G H,Wu Q,Tu D.Sun S J.A sorted neighborhood approach fordetecting duplicated regions in image forgeries based on DWT and SVD.In:Proceedings of2007IEEE.International Conference on Multimedia and Expo.IEEE,2007,pp.1750-1753.]提出了一种基于离散小波变换和奇异值分解的字典排序的图像复制粘贴伪造检测算法,该算法减少了图像分块的数目,且对经过压缩和边缘处理的图像检测具有鲁棒性,但其计算量大、处理时间较长。图像伪造过程中很容易破坏图像的色差,Johnson[Johnson MK,Farid H.Exposing digital forgeries through chromatic aberration.In:Proceedings of the8th Workshop on Multimedia and Security.ACM,2006,pp.48-55.]提出一种利用横向色差检测图像篡改的方法,并从图像成像设备特性鉴定伪造区域,但该方法要依赖较多的获取设备特性数据且多针对特定类型的设备检测。复制伪造会造成像素值、灰度直方图、噪声成分、图像的统计特征等与源图像的不同。Ng[Ng T T,Chang S F.A model for imagesplicing.In:Proceedings of2004International Conference on Image Processing.Singapore,Singapore:IEEE,2004,pp.1169-1172.]提出了一种利用双极性信号干扰的伪造检测算法,该算法打破了传统的单纯通过双向干幅值和相位特征获取经验观测值进行拼接检测的限制,利用对双相干敏感的图像特征对拼接图像进行检测,并给出了理论上的验证,但该算法需要计算双相干系数,计算量大,且时空复杂度较高。Heng Yao[Heng Yao,Tong Qiao,Zhenjun Tang.Detecting copy-move forgery using Non-negative matrixfactorization.Multimedia Information Networking and Security.IEEE,2011,pp.591-594.]提出了一种基于非负矩阵分解的复制粘贴伪造检测方法,该算法首先将图像进行分块,并提取每一块的非负矩阵分解系数,然后通过匹配量化后的系数实现对图像复制伪造区域的检测,该算法对检测经过模糊预处理后的图像具有有效性,且利用了字典排序的方法提高了块匹配的效率,但该方法不适用于经过一些几何变换,如旋转,反射等的图像伪造检测。Sevinc Bayram等人[S.Bayram,H.Taha Sencar,N.Memon.An efficient androbust method for detecting copy-move forgery.In:ICASSP09:Proceedings of the2009IEEE International Conference on Acoustics,Speech and Signal Processing,IEEE ComputerSociety.2009,pp.1053-1056.]提出了一种基于图像块的傅里叶梅林变换方法,考虑到傅里叶梅林变换具有尺度、旋转不变性,因此该算法可以有效地检测出存在轻微放大或缩小以及旋转的图像的伪造区域。Jing Zhang[J.Zhang,Z Feng,Y.Su,A new approach fordetecting copy-move forgery in digital images.In:IEEE Singapore International conferenceon Communication Systems,2008,pp.362-366.]提出了一种基于小波变换和相位相关性的复制粘贴检测方法,该方法首先对待检测图像进行离散小波变换,然后利用相位相关计算复制区域与粘贴区域的空间偏移,最后通过像素匹配确定伪造区域,该算法易于实现、计算复杂度低、且对单幅图像中存在的各种形式的复制粘贴伪造检测具有很好的鲁棒性和有效性,但是该算法对于较大的伪造区域需要进行二次甚至多次分块,增加了计算的复杂度。Pan等人[PAN X,LYU S.Region duplication detection using image featurematching.IEEE Trans,Information Forensics and Security,2010,pp.857-867.]基于SIFT关键点发现疑似伪造区域,利用相关系数检测仿射变换区域,但搜索效率仍有待于改善。
考虑到上述现有方法的不足,本发明进一步在降低运算量,加快检测速度的基础上,考虑SIFT特征的尺度、旋转不变性等的特点,以及均值漂移算法的实时性和对图像的形变和旋转变化、部分遮挡等具有较强的鲁棒性,提出一种基于均值漂移的复制粘贴伪造检测方法,该方法可以有效地检测出图像中存在的多处复制粘贴篡改,且对含有高斯噪声及有损压缩的图像具有较好的鲁棒性,该方法具体如下:
步骤B1、利用SIFT算法提取视频帧的SIFT特征点集,并通过SIFT特征匹配算法匹配SIFT特征点,从而滤除复制区域与粘贴区域以外的冗余的SIFT特征点,得到SIFT特征点对,每一对SIFT特征点分别作为一对疑似复制区域和疑似粘贴区域的SIFT特征点;
步骤B2、利用均值漂移算法迭代求解步骤B1得到的疑似复制区域和疑似粘贴区域的SIFT特征点的邻域,所有疑似复制区域内的SIFT特征点的邻域构成疑似复制区域,所有疑似粘贴区域内的SIFT特征点的邻域构成疑似粘贴区域,从而初步定位疑似复制区域和疑似粘贴区域;
步骤B3、依据初步定位出的疑似复制区域和疑似粘贴区域,使用区域匹配的细化方法精确定位出复制区域和粘贴区域,即通过比较视频关键帧的每个SIFT特征点的邻域与其相邻的小区域的颜色、纹理或位置等特征参数进行区域相似度比较,将相似度大于预设相似度阈值的区域划分到相应的疑似复制区域或疑似粘贴区域当中,从而精确定位出复制区域与粘贴区域。
步骤C、根据各关键帧的复制粘贴检测结果,利用稠密SIFT流算法得到待检测视频的复制粘贴检测结果,具体如下::
步骤C1、对于任一视频关键帧ki,以及与该关键帧ki对应的一幅非关键帧fj,分别提取ki和fj的稠密SIFT局部特征;
步骤C2、利用所述稠密SIFT局部特征,计算视频关键帧ki与非关键帧fj间的像素匹配,从而生成运动流场w(u,v),即稠密SIFT流场,其中u、v分别为稠密SIFT流场的水平和垂直分量;稠密SIFT流场的计算为现有技术(参见文献[Ce Liu,Jenny Yuen,Antonio Torralba,Jose Sivic,William T.Freeman.SIFT:dense correspondence acrossdifference scene.IEEE Tramsactions on Pattern Analysis and Machine Intelligence,2011]),具体为:在条件001至003的约束限制下优化求解下述目标函数E(w):
E ( w ) = &Sigma; p | | F s 1 ( p ) - F s 2 ( p ) | | 1 + 1 &sigma; 2 &Sigma; ( u 2 ( p ) + v 2 ( p ) )
+ &Sigma; ( p , q ) &Element; &epsiv; min ( &alpha; | u ( p ) - u ( q ) | , d ) + min ( &alpha; | u ( p ) - u ( q ) | , d )
式中,E(w)定义为SIFT流场的目标函数,Fs1(p)、Fs2(p)分别为两视频帧的SIFT特征图像,s、e、a、d为参数)
条件001:在第一项数据项中,按照视频帧的SIFT局部特征的相似程度,采用欧氏距离的方法匹配两帧间的像素;
条件002:在第二项移动最小化项中,对SIFT流场的流矢量的速度进行最小化限制;
条件003:在第三项平滑项中,考虑到运动的连续性,优先匹配视频帧像素点周围的邻近区域,采用欧式距离的方法进行像素间的匹配;
步骤C3、在步骤C2求得的稠密SIFT流场的约束作用下,利用双线性插值的方法求取ki的复制粘贴检测结果图的每个像素的插值,从而获得当前视频关键帧伪造检测结果图的插值图像,即为非关键帧fj的复制粘贴检测结果,具体方法为;
步骤C301、按照关键帧ki的复制粘贴检测结果图的尺寸大小创建新图像;
步骤C302、取新图像的某一像素点(x,y),将其映射到关键帧ki的复制粘贴检测结果图相应的位置(x',y');
步骤C303、(x',y')在该点对应的稠密SIFT流场(u(x,y),v(x,y))的约束作用下,变为(x'+u(x,y),y'+v(x,y)),将其取整到(xx,yy),并得到该点及该点周围相邻点的像素值;
步骤C304、利用双线性插值的方法得到像素点(x,y)的值;重复步骤C302和步骤C303,直到得到新图像的所有像素点的值,新图像即为当前非关键帧fj的复制粘贴检测结果图;
步骤C4、对于关键帧ki所对应的各非关键帧,分别重复步骤C1至C3,得到关键帧ki所对应的所有非关键帧的复制粘贴检测结果图;
步骤C5、对各关键帧分别重复步骤C1~C4,得到待检测视频中所有非关键帧的复制粘贴检测结果图,进而得到待检测视频的复制粘贴检测结果。

Claims (2)

1.一种基于稠密SIFT流的视频复制粘贴盲检测方法,其特征在于包括以下步骤:
步骤A、提取待检测视频的关键帧和各关键帧所对应的非关键帧;
步骤B、对于步骤A中所提取出的每一幅关键帧,确定该关键帧的复制区域和粘贴区域,得到各关键帧的复制粘贴检测结果图;所述确定关键帧的复制区域和粘贴区域,具体按照以下方法:
步骤B1、利用SIFT特征提取算法提取视频帧的SIFT特征点集,并通过SIFT特征匹配算法匹配SIFT特征点,从而滤除复制区域与粘贴区域以外的冗余的SIFT特征点,得到SIFT特征点对,每一对SIFT特征点分别作为一对疑似复制区域和疑似粘贴区域的SIFT特征点;
步骤B2、利用均值漂移算法迭代求解步骤B1得到的疑似复制区域和疑似粘贴区域的SIFT特征点的邻域,所有疑似复制区域内的SIFT特征点的邻域构成疑似复制区域,所有疑似粘贴区域内的SIFT特征点的邻域构成疑似粘贴区域,从而初步定位疑似复制区域和疑似粘贴区域;
步骤B3、依据初步定位出的疑似复制区域和疑似粘贴区域,使用区域匹配的细化方法精确定位出复制区域和粘贴区域,即对视频关键帧的每个SIFT特征点的邻域和与其相邻的小区域的特征参数进行区域相似度比较,将相似度大于预设相似度阈值的区域划分到相应的疑似复制区域或疑似粘贴区域当中,从而精确定位出复制区域与粘贴区域;
步骤C、根据各关键帧的复制粘贴检测结果,利用稠密SIFT流算法得到待检测视频的复制粘贴检测结果,具体如下:
步骤C1、对于任一视频关键帧                                                ,以及与该关键帧对应的一幅非关键帧,分别提取的稠密SIFT局部特征;
步骤C2、利用所述稠密SIFT局部特征,计算视频关键帧与非关键帧间的像素匹配,从而生成运动流场,即稠密SIFT流场,其中分别为稠密SIFT流场的水平和垂直分量; 
步骤C3、在步骤C2求得的稠密SIFT流场的约束作用下,利用双线性插值的方法求取的复制粘贴检测结果图的每个像素的插值,从而获得当前视频关键帧伪造检测结果图的插值图像,即为非关键帧的复制粘贴检测结果,具体方法为;
步骤C301、按照关键帧的复制粘贴检测结果图的尺寸大小创建新图像;
步骤C302、取新图像的某一像素点,将其映射到关键帧的复制粘贴检测结果图相应的位置
步骤C303、在该点对应的稠密SIFT流场的约束作用下,变为,将其取整到,并得到该点及该点周围相邻点的像素值;
步骤C304、利用双线性插值的方法得到像素点的像素值;重复步骤C302和步骤C303,直到得到新图像的所有像素点的像素值,新图像即为当前非关键帧的复制粘贴检测结果图;
步骤C4、对于关键帧所对应的各非关键帧,分别重复步骤C1至C3,得到关键帧所对应的所有非关键帧的复制粘贴检测结果图;
步骤C5、对各关键帧分别重复步骤C1~步骤C4,得到待检测视频中所有非关键帧的复制粘贴检测结果图,进而得到待检测视频的复制粘贴检测结果。
2.如权利要求1所述基于稠密SIFT流的视频复制粘贴盲检测算法,其特征在于,所述提取待检测视频的关键帧和各关键帧所对应的非关键帧,使用聚类的方法,具体如下:通过两两比较视频帧间的相似度,对待检测视频的视频帧进行聚类;对于聚类得到的每一类,以其中时间顺序最靠前的视频帧作为关键帧,其余视频帧作为该关键帧所对应的非关键帧。
CN201310072601.9A 2013-03-07 2013-03-07 一种基于稠密sift流的视频复制粘贴盲检测方法 Active CN103164856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310072601.9A CN103164856B (zh) 2013-03-07 2013-03-07 一种基于稠密sift流的视频复制粘贴盲检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310072601.9A CN103164856B (zh) 2013-03-07 2013-03-07 一种基于稠密sift流的视频复制粘贴盲检测方法

Publications (2)

Publication Number Publication Date
CN103164856A CN103164856A (zh) 2013-06-19
CN103164856B true CN103164856B (zh) 2014-08-20

Family

ID=48587912

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310072601.9A Active CN103164856B (zh) 2013-03-07 2013-03-07 一种基于稠密sift流的视频复制粘贴盲检测方法

Country Status (1)

Country Link
CN (1) CN103164856B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268546A (zh) * 2014-05-28 2015-01-07 苏州大学 一种基于主题模型的动态场景分类方法
CN104182973A (zh) * 2014-08-11 2014-12-03 福州大学 基于圆形描述算子csift的图像复制粘贴检测方法
CN106557772B (zh) * 2016-11-24 2020-01-10 泰康保险集团股份有限公司 用于提取局部特征子的方法、装置及图像处理方法
US10332243B2 (en) 2016-12-12 2019-06-25 International Business Machines Corporation Tampering detection for digital images
CN111368125B (zh) * 2017-02-13 2022-06-10 哈尔滨理工大学 一种面向图像检索的距离度量方法
CN110084781B (zh) * 2019-03-22 2021-11-09 西安电子科技大学 基于特征点的监控视频篡改检测的被动取证方法及系统
CN110895811B (zh) * 2019-11-05 2023-05-09 泰康保险集团股份有限公司 一种图像篡改检测方法和装置
CN114764858B (zh) * 2022-06-15 2022-11-01 深圳大学 一种复制粘贴图像识别方法、装置、计算机设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007130688A2 (en) * 2006-05-10 2007-11-15 Evolution Robotics, Inc. Mobile computing device with imaging capability
US8374390B2 (en) * 2009-06-24 2013-02-12 Navteq B.V. Generating a graphic model of a geographic object and systems thereof
CN101714254A (zh) * 2009-11-16 2010-05-26 哈尔滨工业大学 联合多尺度sift和区域不变矩特征的配准控制点提取方法
CN102609948B (zh) * 2012-02-10 2014-04-16 浙江理工大学 一种针对复制粘贴篡改的数码照片伪造检测方法
CN102930529B (zh) * 2012-09-24 2014-04-16 南京工业大学 一种基于非对称模板搜索的快速伪造区域盲检测方法

Also Published As

Publication number Publication date
CN103164856A (zh) 2013-06-19

Similar Documents

Publication Publication Date Title
CN103164856B (zh) 一种基于稠密sift流的视频复制粘贴盲检测方法
Bappy et al. Exploiting spatial structure for localizing manipulated image regions
Chang et al. A forgery detection algorithm for exemplar-based inpainting images using multi-region relation
Bi et al. Fast reflective offset-guided searching method for copy-move forgery detection
Wang et al. Background-driven salient object detection
Jaiprakash et al. Low dimensional DCT and DWT feature based model for detection of image splicing and copy-move forgery
Shahroudnejad et al. Copy-move forgery detection in digital images using affine-SIFT
Cun et al. Image splicing localization via semi-global network and fully connected conditional random fields
AlSawadi et al. Copy-move image forgery detection using local binary pattern and neighborhood clustering
Xiao et al. Defocus blur detection based on multiscale SVD fusion in gradient domain
Cristin et al. Illumination‐based texture descriptor and fruitfly support vector neural network for image forgery detection in face images
CN111754441B (zh) 一种图像复制粘贴伪造被动检测方法
CN111652240A (zh) 一种基于cnn的图像局部特征检测与描述方法
Zhu et al. Towards automatic wild animal detection in low quality camera-trap images using two-channeled perceiving residual pyramid networks
Ahmed et al. A comparative analysis of image copy-move forgery detection algorithms based on hand and machine-crafted features
Yuan et al. Few-shot scene classification with multi-attention deepemd network in remote sensing
Pawade et al. Comparative study of different paper currency and coin currency recognition method
Hebbar et al. TRANSFER LEARNING APPROACH FOR SPLICING AND COPY-MOVE IMAGE TAMPERING DETECTION.
Dixit et al. Copy-move image forgery detection a review
Rathi et al. Copy move forgery detection by using integration of SLIC and SIFT
Li et al. A new algorithm of vehicle license plate location based on convolutional neural network
Wu et al. Review of imaging device identification based on machine learning
Ernawati et al. Image Splicing Forgery Approachs: A Review and Future Direction
Das et al. Image splicing detection with principal component analysis generated low-dimensional homogeneous feature set based on local binary pattern and support vector machine
Diaa A Deep Learning Model to Inspect Image Forgery on SURF Keypoints of SLIC Segmented Regions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant