CN112435226B - 一种细粒度图像拼接区域检测方法 - Google Patents

一种细粒度图像拼接区域检测方法 Download PDF

Info

Publication number
CN112435226B
CN112435226B CN202011272089.9A CN202011272089A CN112435226B CN 112435226 B CN112435226 B CN 112435226B CN 202011272089 A CN202011272089 A CN 202011272089A CN 112435226 B CN112435226 B CN 112435226B
Authority
CN
China
Prior art keywords
image
blocks
splicing
suspicious
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011272089.9A
Other languages
English (en)
Other versions
CN112435226A (zh
Inventor
王晓峰
王妍
胡钢
雷锦锦
李斌
张旋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202011272089.9A priority Critical patent/CN112435226B/zh
Publication of CN112435226A publication Critical patent/CN112435226A/zh
Application granted granted Critical
Publication of CN112435226B publication Critical patent/CN112435226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种细粒度的图像拼接区域检测方法,首先提取图像RGB三个颜色通道,建立线性插值模型,并通过协方差矩阵分别估计三个通道的插值系数,从而重建三通道。然后,利用拉普拉斯算子构建图像取证特征,并对取证特征进行二值化处理和形态学操作,同时对粗粒度检测结果进行非重叠分块,提取粗粒度块的纹理强度特征,然后进行分类、去除误检,得到细粒度拼接区域的检测结果。最后通过超像素分割算法平滑细粒度拼接区域检测结果的边缘,得到最终的图像拼接区域检测结果。本发明解决了一般基于CFA的图像拼接检测方法对JPEG压缩不鲁棒的问题。

Description

一种细粒度图像拼接区域检测方法
技术领域
本发明属于图像篡改检测技术领域,具体涉及一种细粒度图像拼接区域检测方法。
背景技术
随着数字技术的迅猛发展及各种强大的数字图像编辑工具的广泛使用,非专业人士可以非常容易地对数字图像进行美化、编辑,甚至篡改和伪造,这将破坏图像内容的真实性、完整性和原始性。近年来出现了很多篡改伪造的图像被用在科学研究、新闻传媒、司法取证、金融和军事等领域的报道,严重影响了图像内容的可信度,在很多领域造成了严重的负面影响。
图像内容篡改包括异源图像拼接/合成(splicing/compositing),同源图像Copy-Move攻击,和图像局部性质改变。图像拼接/合成技术是指将图像的部分内容拼接到其他图像生成一幅合成图像,其目的是隐藏或添加一些虚假内容来伪造不存在的场景。由于图像拼接/合成是最常用的图像内容篡改手段之一,因此,近年来,针对图像拼接/合成伪造的检测方法得到了工业界和学术界的极大关注。
现有的图像拼接检测技术主要分为两类:一类为判别技术,仅检测图像是否经过拼接操作;另一类为识别技术,可检测到图像拼接区域的位置和形状。早期的许多方法都属于判别技术,虽然这类方法一般都具有较高的检测精度,但由于它不能检测到图像拼接区域的位置和形状,因此其使用价值得到了限制。目前,许多学者致力于识别技术的研究,并涌现出了许多优秀的图像拼接区域检测方法。现存的方法主要包括:基于双JPEG压缩的图像拼接区域检测方法[1],基于噪声水平不一致性的图像拼接区域检测方法[2-5],基于模糊类型不一致性的图像拼接区域检测方法[6]以及基于光照不一致性的图像拼接区域检测方法[7]。
考虑到多数数码相机使用了彩色滤波阵列(Color Filter Array,CFA),所拍摄的彩色照片,三分之一的像素点是由相机传感器直接获得的,而另外三分之二的像素点是通过CFA插值得到的,这样,每个颜色通道上的像素之间必然存在着一致的相关性模式,而图像拼接会破坏甚至改变这种模式的一致性。基于这一事实,文献[8]使用期望最大化和线性模型来估计图像的去马赛克伪影,并以此来检测和定位拼接区域,达到了很好的检测效果。文献[9]提出了一种新的图像拼接检测方法,该方法利用CFA插值过程中生成的伪影来估计图像特征,并利用阈值对图像特征进行分类,从而完成拼接区域定位。文献[10]提出了一种基于CFA去马赛克伪影的图像拼接区域检测方法,首先采用二维线性滤波器估计绿色通道,并得到残差图像;然后估计局部加权方差,生成概率图;最后,将概率图中的低值区域判定为可能的伪造区域。文献[11]提出了一种图像拼接区域定位方法,通过CFA插值对图像的R,G, B三通道进行估计,并利用估计图像提取边缘像素点的连续性特征,实现拼接区域的定位。文献[12]通过分析插值区域和非插值区域的像素模式,提出了一种新的图像篡改检测方法,该方法使用检测映射算法来分离插值区域和非插值区域,并使用最小滤波、拉普拉斯运算和最大滤波开发了一个改进算法,识别图像中的篡改区域,结果表明,该方法虽然有良好的视觉检测效果,但对JPEG压缩不够鲁棒。文献[13]提出了一种基于颜色分量相关性的图像拼接检测方法,此方法首先对图像的颜色分量进行CFA插值估计,利用估计误差作为取证特征,然后通过高斯混合参数模型对所提取的特征进行分类,从而完成拼接区域的定位。此方法虽然能够精确的检测出图像的拼接区域,但对图像中较平滑的拼接区域检测时,仍然存在一定的误差。
纵观近年来图像拼接区域检测领域的最新研究和发展动态,尽管涌现出很多优秀的技术,但依然存在许多具有挑战性的问题:
(1)漏检测。有些基于特征点的检测方法由于无法提取纹理平坦区域的特征点,因此对于纹理平坦区域的篡改无能为力,出现漏检测的现象。
(2)误检测区域大甚至对目标区域检测失败。有些基于图像块的检检测方法把图像分成规则的图像块,只能检测出篡改区域所在的图像块,导致出现较大的误检测区域,无法定位出篡改区域的精确位置和形状。
(3)强烈依赖于其它算法。有些基于对象的图像篡改检查方法强烈依赖于对象提取或图像分割算法。
(4)鲁棒性差。有些算法当测试图像经历了JPEG压缩、添加噪声、滤波、增强等内容保持的图像处理操作时就会失效,这样的算法只能在理想的情况下有效,无法走出实验室,实际应用价值不高。
参考文献:
[1]A.V.Mire,S.B.Dhok.Automated approach for splicing detection usingfirst digit probability distribution Features[J].EURASIP Journal on Image andVideo Processing.2018,2018(1):18.
[2]Lyu S,Pan X,Zhang X.Exposing region splicing forgeries with blindlocal noise estimation[J].Int J Comput Vis.2014,110(2):202-221.
[3]H.Zeng,Y.F.Zhan,X.G.Kang,X.D.Lin.Image splicing localization usingPCA-based noise level estimation[J].Multimedia Tools and Applications,2017,76(4):4783-4799.
[4]C.Destruel,V.Itier.Color noise-based feature for splicingdetection and localization[J]. IEEE 20th International Workshop on MultimediaSignal Processing(MMSP).2018:1-6.
[5]N.Zhu,Z.Li.Blind image splicing detection via noise level function[J].Signal Processing: Image Communication.2018,68:181-192.
[6]K.Bahrami,C.Alex,L.D.Li,H.L.Li.Blurred Image Splicing Localizationby Exposing Blur Type Inconsistency[J].IEEE Transactions on InformationForensics and Security.2015,10(5):999-1008.
[7]Q Liu,X Cao,D Chao.Identifying Image Composites Through ShadowMatte Consistency.IEEE Transactions on Information Forensics&Security.2011,6(3):1111-1122.
[8]A.C.Popescu,H.Farid.Exposing digital forgeries in color filterarray interpolated images[J].IEEE Transactions on Signal Processing.2005,53(10):3948-3959.
[9]A.E.Dirik,N.Memon.Image tamper detection based on demosaicingartifacts[C]. International conference on Image Processing.2009:429–432.
[10]P.Ferrara,A.De Rosa.Image Forgery Localization via Fine-GrainedAnalysis of CFA Artifacts[J].IEEE Transactions on Information Forensics andSecurity.2012,7(5):1566-1577.
[11]Yi Liang Y,Ying W.A splicing image detecting method based onoriginal image estimation[C].Proc.of the 2nd International Conference onComputer Science and Electronics Engineering.2013:560-563.
[12]M.G.Hwang,D.H.Har.Identification Method for Digital Image Forgeryand Filtering Region through Interpolation[J].Journal of forensicsciences.2014,59(5):1372-1385. [13]J.M.Zhen,H.J.Su.Image splicing tamperdetection method based on correlation between color components[J].computerapplication.2017,37(10):2903-2906.
[14]Q.Yong,R.L.Bai,L.C.Yao,W.He.Realization of automatic whitebalance algorithm based on Bayer CFA[J].Journal of Data Acquisition&Processing.2012,27(3):359.
[15]B.Wang,X.W.Kong,X.G.You,H.Y.Fu.Blind detection method of CFAinterpolation based on covariance matrix[J].Journal of Electronics&Information Technology. 2009,31(5):1175-1178.
发明内容
本发明的目的是提供一种细粒度图像拼接区域检测方法,解决了现有技术中存在的漏检测、误检测区域大等精度不高的问题,以及对目标区域检测失败的问题;避免了对象提取或图像分割算法的依赖性,并解决了现有技术鲁棒性差的问题。
本发明所采用的技术方案是,一种细粒度图像拼接区域检测方法,具体按照以下步骤实施:
步骤1、对于大小为W×H的图像Im,令ImR,ImG,ImB分别表示R,G,B 三个颜色通道;
步骤2、取证特征提取;
步骤3、拼接区域检测。
本发明的特点还在于,
步骤1具体如下:
步骤1.1、CFA插值系数的估计;
步骤1.2、无效块的剔除;
步骤1.3、重建RGB三通道。
步骤1.1具体如下:
将图像ImG分成尺寸为τ×τ的非重叠块,得到个图像块,令第u个图像块ImGu为:
其中,W和H分别表示图像ImG的长和宽。在不同尺寸τ×τ的分割块下,当尺寸为16×16时,拼接区域边缘更清晰,γ的值最大,因此取τ=16。
为了估计ImGu的CFA插值系数,假设所选择的插值邻域大小为(2l+1)×(2l+1),则建立如下的线性插值模型:
其中,cGu,cRu和cBu分别表示绿色、红色、蓝色通道的CFA插值系数,ImGu, ImRu和ImBu分别表示绿色、红色、蓝色分量;
在图像块ImGu中,需插值的像素点的个数为ω=(τ×τ)/2,并可将(2)式改写为:
其中,表示图像块ImGu中,第t个待插值像素点的灰度值,/>表示图像块ImGu中待插值像素点的(2l+1)×(2l+1)邻域内第q个像素点的CFA插值系数,/>表示图像块ImGu中第t个待插值像素点的(2l+1)×(2l+1)邻域内第q 个像素点的灰度值,其中,q=1,2,…,(2l+1)2-1,t=1,2,…,ω。/>的定义与/>类似,/>的定义与/>类似,/>的定义与/>类似。
为了便于描述,将(3)式表示为:
其中,其余符号类似;
随之采用协方差矩阵估计ImGu的插值系数,得到:
假设三个颜色通道相互独立,并令i=(2l+1)2-1,将(5)式变形为:
最终,图像块ImGu中的CFA插值系数估计如下:
步骤1.2具体如下:
将(7)式简写为如下形式:
由(8)式可知,当且仅当矩阵DGu为非奇异矩阵时,插值系数CGu才有解;为此,可计算DGu的行列式|DGu|,并定义如下规则:
步骤1.3具体如下:
令l=1,利用所有有效图像块插值系数CGu的平均值构建矩阵SG如下:
其中,m为有效图像块的个数,通过矩阵SG重建绿色通道Im′G如下:
Im′G=ImG*SG (11)
同理得到重建后的R、B通道分别为Im′R,Im′B
步骤2具体如下:
步骤2.1、利用拉普拉斯算子Lap对经过所述步骤1重建后的三通道Im′R、 Im′G、Im′B、以及原始三通道ImR、ImG、ImB分别进行卷积处理:
步骤2.2、令
步骤2.3、则Im'=abs(Im1-Im2)为所提取的取证特征。
步骤3具体如下:
步骤3.1、粗粒度拼接区域检测:
对所述步骤2得到的取证特征Im'进行二值化处理,在此基础上同时进行形态学操作,得到粗粒度拼接区域的检测结果Imcu
Imcu=imdilate(Im',SE) (13)
其中,SE为结构元素,imdilate(·)表示形态学操作;
步骤3.2、进一步进行细粒度拼接区域检测;
步骤3.3、采用超像素分割算法平滑细粒度定位结果边缘。
步骤3.2具体如下:
步骤3.2.1、纹理强度特征提取:
将Imcu分成尺寸为κ×κ的不重叠块,κ=τ=16,设为每个粗粒度块,对每个块进行拉普拉斯算子卷积处理:
X′y=Xy*Lap (14)
在此基础上,计算X′y的协方差矩阵Ay为:
对协方差矩阵Ay进行奇异值分解,具体如下:
其中,为单位矩阵,T(1)>T(2)>…>T(s),用奇异值 T(1),T(2),…,T(s)之和反映每个粗粒度块的纹理强度特征,并将其定义为:
fy=T(1)+T(2)+…+T(s) (17)
其中,fy表示第y个粗粒度块的纹理强度特征;
步骤3.2.2、区分可疑拼接块:
用大津法对纹理强度数据集进行分类,如果图像块被分为两个集合Ψ1和Ψ2,定义:
其中,number(Ψ1),number(Ψ2)分别表示集合Ψ1和Ψ2中元素的数目,RSplicing,ROrginal分别表示拼接区域和原始区域;
步骤3.2.3、去除误检块:
为了去除误检测,定义:若一个图像块的四邻域全为可疑拼接块,则定义该块为可疑拼接块,若一个图像块的四邻域全为原始块,则定义该块为原始块,即对于一个图像块Yα,β
步骤3.2.4、合并可疑拼接区域:
首先,利用图像块的邻域标记方法,逐行扫描所有粗粒度块,寻找式(19) 中检测结果的可疑拼接连通区域,直至将所有可疑拼接图像块标记完,假设共有δ个标签,即就有δ个可疑拼接连通区域,可将其记为:Γ={Γ12,…,Γδ};
然后,计算任意两个连通区域Γv、Γu中,像素点Q和Q的之间的欧式距离Divχ,uξ
其中,(XX,YY)表示连通区域Γv中,第χ个像素点Q的位置坐标; (XX,YY)表示连通区域Γu中,第ξ个像素点Q的位置坐标;
最后,定义如下规则对可疑拼接区域进行合并:
其中,th为合并阈值,将哥伦比亚数据库中的图像作为测试图像,设置一系列的合并参数th0∈{20,40,60,…,200},令拼接像素为阳性样本,原始像素为阴性样本,并计算在不同参数下的假阴性率FNR和假阳性率FPR,由于当th0=100时,FNR和FPR的值均比较合理,因此th=100,将可疑拼接区域合并的结果记为Imhe
步骤3.2.5、精确定位:
对Imhe进行孔洞填充:
Imtian=imfill(Imhe,'holes') (22)
其中,imfill(·)表示孔洞填充函数;
在此基础上,使用步骤3.2.4中的图像区域标记方法标记Imtian,假设共有θ个连通区域,并将其记为P1,P2,…,Pθ;定义P=argmaxArea(P1,P2,…,Pθ)为拼接区域,其中,Area(·)表示计算连通区域面积的函数,并将最终的细粒度拼接区域定位结果记为Imzui
步骤3.2.4利用图像块的邻域标记方法,逐行扫描所有粗粒度块,寻找式(19)中检测结果的可疑拼接连通区域,具体步骤如下:
令深色表示要标记的可疑拼接图像块,从第一行开始逐行扫描每一行的每个可疑拼接图像块,第一行有两个区域,其位置分别记为[2,6]和[9],分别给它们标记区域标签为1,2;接着扫描第二行,也有两个区域,所包含的可疑拼接图像块的位置分别为:[5],[9],但它们分别与上一行的两个区域邻接,所以沿用上一行的区域标签,即1和2;第三行有两个区域[5,9]和[13,14],因为[5,9]与上一行的两个区域都有邻接,所以把之前的两个区域合并为一个区域,标记为两者中最小的标签号,即1;[13,14]为新产生的独立区域,所以赋予新的标号2,对每一行进行上述过程。
步骤3.3具体如下:
步骤3.3.1、找到细粒度定位结果Imzui中,包含可疑拼接区域的最小矩形边界;
步骤3.3.2、将最小矩形区域映射到测试图像中,并对测试图像中的最小矩形区域进行超像素分割;
步骤3.3.3、将步骤3.3.2得到的超像素分割结果映射到Imzui的小矩形区域中,并将此超像素块集合记为:E={E1,E2,…,Ez},其中,z为超像素块的个数;
步骤3.3.4、计算超像素块En(n=1,2,…,z)中,可疑拼接像素个数占总像素个数比重εn
步骤3.3.5由于在连通区域合并时,会产生大量的误检,因此,定义如下规则:
即得到最终的图像拼接区域检测结果。
本发明的有益效果是,(1)本发明的方法提供了一种细粒度图像拼接区域检测方法,解决了现有技术中漏检测、误检测区域大等精度不高的问题,以及对目标区域检测失败的问题;避免了对象提取或图像分割算法的依赖性,并解决了现有技术鲁棒性差的问题。
(2)本发明的方法提供了一种具有强可区分性的取证特征。利用原始图像CFA插值模式和估计图像CFA插值模式之间的差异构建取证特征,该特征可识别拼接图像局部CFA插值模式的不一致性,对于拼接区域具有较强的敏感性,能够区分拼接区域与真实图像区域的特异性,而且,对于内容保持的图像处理操作具有较强的鲁棒性。
(3)本发明的方法使用图像取证特征定位粗粒度拼接区域,进而通过提取粗粒度检测结果的局部纹理强度特征进行细粒度拼接区域定位,并通过超像素分割算法平滑细粒度检测结果的边缘,得到准确的拼接区域的位置和形状。
(4)本发明的方法可以检测出图像拼接区域的位置和形状,与现有的图像拼接区域检测方法相比,本发明方法具有较高的拼接区域定位精度。
(5)本发的方法对于内容保持的图像处理操作,如不同质量因子的 JPEG压缩、高斯模糊、伽马矫正、重采样等具有较强的鲁棒性。
附图说明
图1.本发明方法的算法框架;
图2.不同尺寸块的粗粒度拼接区域检测结果;
图3.粗粒度拼接区域的检测结果示例;
图4.分类结果示例;(a)测试图像,(b)利用大津法对(a)分类的结果,其中-表示阈值,○表示可疑图像块,*表示真实图像块;
图5.移除误检测块的示意图;
图6.寻找连通区域的示意图;
图7.在整个哥伦比亚图像上,不同合并参数下的假阴性率(FNR)和假阳性率(FPR);
图8.细粒度图像拼接区域的边缘平滑;(a)表示测试图像,(b)表示细粒度定位结果中,包含可疑拼接区域的最小矩形边界,(c)表示映射到原始测试图像(a)上的最小矩形边界,(d)表示对(c)的最小矩形边界内的区域进行超像素分割的结果,(e)表示映射到(b)上的超像素分割结果,(f) 表示最终的图像拼接区域检测结果;
图9.本发明的方法对拼接图像进行检测的视觉效果;(a)和(c)是测试图像,(b)和(d)是本发明方法的检测视觉效果,白色区域为检查出的拼接区域;
图10.本发明方法与其他相关方法对拼接图像进行检测的视觉效果;第一行是原始图像,第二行是拼接篡改图像,第三行是本发明方法的检测视觉效果,第四行到第七行分别为文献[2]、文献[3]、文献[4]以及文献[5]中方法的检测视觉效果;
图11.本发明方法和其他相关方法对不同质量因子的JPEG压缩图像及伽马矫正(gamma=1.2)图像进行检测的视觉效果;I和III是原始图像,II 和IV是拼接篡改图像,(a1)是未经过JPEG压缩操作的图像的检测视觉效果,(b1)是质量因子为95的JPEG压缩图像的检测视觉效果,(c1)是质量因子为85的JPEG压缩图像的检测视觉效果,(d1)是质量因子为75的JPEG 压缩图像的检测视觉效果,(a2)是未经过伽马矫正操作的图像的检测视觉效果,(b2)是伽马矫正图像的检测视觉效果,(e)是本发明方法的检测视觉效果,(f)是文献[2]中方法的检测视觉效果,(g)是文献[3]中方法的检测视觉效果,(h)是文献[4]中方法的检测视觉效果,(i)是文献[5]中方法的检测视觉效果;
图12.本发明方法和其他相关方法对窗口的高斯模糊(3×3)图像以及下采样(20%)图像进行检测的视觉效果;I和III是原始图像,II和IV是拼接篡改图像,(a1)是未经过高斯模糊操作的图像的检测视觉效果,(b1)是高斯模糊图像的检测视觉效果,(a2)是未经过下采样操作的图像的检测视觉效果,(b2)是下采样图像的检测视觉效果,(c)是本发明方法的检测视觉效果,(d)是文献[2]中方法的检测视觉效果,(e)是文献[3]中方法的检测视觉效果,(f)是文献[4]中方法的检测视觉效果,(g)是文献[5]中方法的检测视觉效果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
在本发明的方法中,首先,提取图像R,G,B三个颜色通道,建立线性插值模型,并通过协方差矩阵分别估计三个通道的插值系数,从而重建三通道。然后,利用拉普拉斯算子构建图像取证特征,并对取证特征进行二值化处理和形态学操作,得到粗粒度的拼接区域检测结果;同时,对粗粒度检测结果进行分块,提取粗粒度块的纹理强度特征,使用大津法对其进行分类,分类结果中的少数类即可认为是可疑拼接块,并在此基础上,去除误检测,得到细粒度的拼接区域检测结果。最后,通过超像素分割算法平滑细粒度拼接区域检测结果的边缘,得到最终的图像拼接区域检测结果。
根据数码相机成像原理,全彩色图像中只有三分之一的像素值是通过相机传感器直接获得的,剩余像素是通过CFA插值获得的。这样,同一相机所拍摄的照片就会具有一致的CFA插值模式。对于真实图像,整幅图像的 CFA插值模式通常一致,而对于拼接图像,拼接区域可能来自不同的图像,具有不同的CFA插值模式。因此,如果在图像中发现不同区域的CFA插值模式不一致,则该图像的真实性将受到质疑。根据这一原理,本发明基于常用的Bayer CFA模式[14],提供一种细粒度的图像拼接区域检测方法,算法框架图如图1所示,包括以下步骤:
步骤1、R,G,B三个颜色通道的重建:
对于大小为W×H的图像Im,令ImR,ImG,ImB分别表示R、G、B三个颜色通道。详细描述对G通道进行重建,R,B通道的重建过程类似。
步骤1.1、CFA插值系数的估计
将ImG分成尺寸为τ×τ的非重叠块,可得到个图像块,令第u 个图像块ImGu为:
在不同尺寸τ×τ的分割块下,利用本发明方法进行粗粒度拼接区域检测,见图2,并计算了其粗粒度检测结果中,检测到的拼接边缘像素占实际拼接边缘像素的比重γ,结果如表1所示。由于当尺寸为16×16时,拼接区域边缘更清晰,γ的值最大,因此取τ=16。
表1.不同尺寸下的比重γ(%)
块尺寸 (4×4) (8×8) (16×16) (32×32)
γ 48.3 68.1 73.8 44.7
为了估计ImGu的CFA插值系数,假设所选择的插值邻域大小为 (2l+1)×(2l+1),则根据文献[15],可建立如下的线性插值模型:
其中,cGu,cRu和cBu分别表示绿色、红色、蓝色通道的CFA插值系数,ImGu, ImRu和ImBu分别表示绿色、红色、蓝色分量。
由于常见的Bayer CFA基本单元中,绿色分量占所有像素总数的1/2,因此,在图像块ImGu中,需插值的像素点的个数为ω=(τ×τ)/2,并可将(2) 式改写为:
其中,表示图像块ImGu中,第t个待插值像素点的灰度值,/>表示图像块ImGu中待插值像素点的(2l+1)×(2l+1)邻域内第q个像素点的CFA插值系数,/>表示图像块ImGu中第t个待插值像素点的(2l+1)×(2l+1)邻域内第q 个像素点的灰度值,其中,q=1,2,…,(2l+1)2-1,t=1,2,…,ω。/>的定义与/>类似,/>的定义与/>类似,的定义与/>类似。
为了便于描述,将(3)式表示为:
其中,其余符号类似。
随之采用协方差矩阵估计ImGu的插值系数,得到:
假设三个颜色通道相互独立,并令i=(2l+1)2-1,可将(5)式变形为:
最终,图像块ImGu中的CFA插值系数估计如下:
步骤1.2无效块的剔除
将(7)式简写为如下形式:
由(8)式可知,当且仅当矩阵DGu为非奇异矩阵时,插值系数CGu才有解。为此,可计算DGu的行列式|DGu|,并定义如下规则:
步骤1.3重建RGB三通道
令l=1,利用所有有效图像块插值系数CGu的平均值构建矩阵SG如下:
其中,m为有效图像块的个数,通过矩阵SG重建绿色通道Im′G如下:
Im′G=ImG*SG (11)
步骤2.取证特征提取
本发明将原始图像模式与步骤1中估计的图像模式之间的差异定义为取证特征,提取过程如下:
步骤2.1利用拉普拉斯算子Lap对重建后的三通道Im′R、Im′G、Im′B,以及原始三通道ImR、ImG、ImB分别进行卷积处理:
步骤2.2令
步骤2.3令Im'=abs(Im1-Im2)为所提取的取证特征。
步骤3.拼接区域检测
步骤3.1粗粒度拼接区域检测
由于在拼接图像中,拼接区域与原始区域的CFA插值模式可能不同,其取证特征也会呈现不一致性,因此,对取证特征Im'进行二值化处理,在此基础上又进行形态学操作,就得到了粗粒度拼接区域的检测结果Imcu
Imcu=imdilate(Im',SE) (13)
其中,SE为结构元素,imdilate(·)表示形态学操作。
步骤3.2细粒度拼接区域检测
由于在粗粒度拼接区域检测结果中(见图3),只能大致定位出可疑拼接区域的边缘,因此,还需进一步进行细粒度拼接区域检测。
步骤3.2.1纹理强度特征提取
将Imcu分成尺寸为κ×κ的不重叠块(κ=τ=16),设为每个粗粒度块,对每个块进行拉普拉斯算子卷积处理:
Xy=Xy*Lap (14)
在此基础上,计算X′y的协方差矩阵Ay为:
对协方差矩阵Ay进行奇异值分解,具体如下:
其中,为单位矩阵,T(1)>T(2)>…>T(s),用奇异值 T(1),T(2),…,T(s)之和来反映每个粗粒度块的纹理强度特征,并将其定义为:
fy=T(1)+T(2)+…+T(s) (17)
其中,fy表示第y个粗粒度块的纹理强度特征。
步骤3.2.2区分可疑拼接块
用大津法对纹理强度数据集进行分类,图4展示了一个分类结果的示例,在图4中,(a)表示测试图像,(b)表示分类结果,其中——表示分类阈值,○表示可疑拼接块,*表示原始图像块。
一般来说,图像中的拼接区域通常只是图像的部分内容,所以假设分类结果中数目少的一类为图像拼接区域。即,如果图像块被分为两个集合Ψ1和Ψ2,就可定义:
其中,number(Ψ1),number(Ψ2)分别表示集合Ψ1和Ψ2中元素的数目,RSplicing,ROrginal分别表示拼接区域和原始区域。
步骤3.2.3去除误检块
为了去除误检测,本发明定义:若一个图像块的四邻域全为可疑拼接块,则定义该块为可疑拼接块,若一个图像块的四邻域全为原始块,则定义该块为原始块。如图5所示,即对于一个图像块Yα,β
/>
步骤3.2.4合并可疑拼接区域
首先,利用图像块的邻域标记方法,逐行扫描所有粗粒度块,寻找式(19) 中检测结果的可疑拼接连通区域,具体步骤如下:
如图6所示,令深色表示要标记的可疑拼接图像块,从第一行开始逐行扫描每一行的每个可疑拼接图像块,第一行有两个区域,其位置分别记为[2,6] 和[9],分别给它们标记区域标签为1,2。接着扫描第二行,也有两个区域,所包含的可疑拼接图像块的位置分别为:[5],[9],但它们分别与上一行的两个区域邻接,所以可以沿用上一行的区域标签,即1和2。第三行有两个区域[5,9]和[13,14],因为[5,9]与上一行的两个区域都有邻接,所以把之前的两个区域合并为一个区域,标记为两者中最小的标签号,即1;[13,14]为新产生的独立区域,所以赋予新的标号2。
对每一行进行上述过程,直至将所有可疑拼接图像块标记完。假设共有δ个标签,即就有δ个可疑拼接连通区域,可将其记为:Γ={Γ12,…,Γδ}。
然后,计算任意两个连通区域Γv、Γu中,像素点Q和Q的之间的欧式距离Divχ,uξ
其中,(XX,YY)表示连通区域Γv中,第χ个像素点Q的位置坐标; (XX,YY)表示连通区域Γu中,第ξ个像素点Q的位置坐标。
最后,定义如下规则对可疑拼接区域进行合并:
其中,th为合并阈值。将哥伦比亚数据库中的图像作为测试图像,设置一系列的合并参数th0∈{20,40,60,…,200},令拼接像素为阳性样本,原始像素为阴性样本,并计算在不同参数下的假阴性率(FNR)和假阳性率(FPR),由于当th0=100时,FNR和FPR的值均比较合理,见图7,因此th=100。将可疑拼接区域合并的结果记为Imhe
步骤3.2.5精确定位
对Imhe进行孔洞填充:
Imtian=imfill(Imhe,'holes') (22)
其中,imfill(·)表示孔洞填充函数。
在此基础上,使用步骤3.2.4中的图像区域标记方法标记Imtian,假设共有θ个连通区域,并将其记为P1,P2,…,Pθ。定义P=argmaxArea(P1,P2,…,Pθ)为拼接区域,其中,Area(·)表示计算连通区域面积的函数,并将最终的细粒度拼接区域定位结果记为Imzui
步骤3.3细粒度拼接区域边缘的平滑
由于图像规则分块和可疑拼接区域合并,会导致细粒度定位结果边缘不光滑,增加误检率,因此,本发明采用超像素分割算法平滑细粒度定位结果边缘。具体步骤如下:
步骤3.3.1找到测试图像8(a)的细粒度定位结果Imzui中,包含可疑拼接区域的最小矩形边界,如图8(b)所示,红色边框就为此最小矩形边界。
步骤3.3.2将最小矩形区域映射到测试图像中,见图8(c),并对测试图像中的最小矩形区域进行超像素分割,见图8(d)。
步骤3.3.3将步骤3.3.2得到的超像素分割结果映射到Imzui的小矩形区域中,见图8(e),并将此超像素块集合记为:E={E1,E2,…,Ez},其中,z为超像素块的个数。
步骤3.3.4计算超像素块En(n=1,2,…,z)中,可疑拼接像素个数占总像素个数比重εn
步骤3.3.5由于在连通区域合并时,会产生大量的误检,如图8(e)所示,因此,定义如下规则:
即可得到最终的图像拼接区域检测结果,如图8(f)所示。
本发明方法的仿真实验结果:
为了检测本文发明方法的性能,选用了哥伦比亚图像库IPDED中的图像进行测试。
(1)篡改定位的视觉效果:
为了检验本发明方法的检测性能,从哥伦比亚图像库中随机选取5张图像,并手动拼接5张图像,利用本发明方法对其进行检测。图9展示的是用本发明的方法对拼接图像进行检测所得出的视觉效果。在图9中,(a)和(c) 是测试图像,(b)和(d)是本发明方法的检测视觉效果,白色区域为检查出的拼接区域。从图9可以看出,本发明方法具有良好的检测性能,能够准确地检查出拼接区域的位置和形状。
为了证明本发明方法的优越性,又从哥伦比亚图像库中随机抽取5张图像,将本发明方法与文献[2]、文献[3]、文献[4]以及文献[5]中的图像拼接检测方法进行对比。图10展示了用不同方法对拼接图像进行检测的视觉效果。在图10中,(a)是原始图像,(b)是拼接篡改图像,(c)是本发明方法的检测视觉效果,(d)到(g)分别是文献[2]、文献[3]、文献[4]以及文献[5]中方法的检测视觉效果。从图10可看出,本发明方法具有优越的拼接区域定位能力。文献[2]和[3]的定位结果不太理想,主要是因为这些方法仅将噪声作为图像的单一特征来定位拼接区域,容易出现误检。文献[4]虽然能大致定位出图像的拼接区域,但出现了较多的假阳性区域。文献[5]采用噪声水平函数来定位拼接区域,虽然能基本检测出图像拼接区域的位置和形状,但仍未达到理想的检测效果。
(2)检测精度的分析与比较:
为了量化分析本发明方法及相关方法的检测性能,引入了四个评价指标:真阳性率(TPR)、假阳性率(FPR)、像素级的检测精度(Pre)及F1分数,其定义如下:
其中,TP表示实际拼接像素被检测为拼接像素的个数;FN表示实际拼接像素被检测为原始像素的个数;FP表示实际原始像素被检测为拼接像素的个数;TN表示实际原始像素被检测为原始像素的个数。
以图10中的5副测试图像为例,在表2中分别计算了利用本发明方法、文献[2]、文献[3]、文献[4]以及文献[5]中方法进行检测的真阳性率(TPR) 和假阳性率(FPR)。
表2利用本发明方法、文献[2]、文献[3]、文献[4]以及文献[5]中方法,分别对图10中5幅图像检测的真阳性率(TPR)和假阳性率(FPR)(%)
由表2可知,对于5幅测试图像,与文献[2]、文献[3]、文献[4]以及文献[5]中的方法相比,本发明方法具有较高的TPR和较低的FPR,表现出良好的检测性能。为了更全面地测试本发明方法的性能,对整个哥伦比亚图像库中的图像进行检测,并计算了利用本发明方法、文献[2]、文献[3]、文献[4] 以及文献[5]中方法进行检测的平均真阳性率(TPR)、假阳性率(FPR)、像素级的检测精度(Pre)及F1分数(%),结果如表3所示。
表3在整个哥伦比亚图像库上,利用本发明方法、文献[2]、文献[3]、文献[4]以及文献[5]中方法进行检测的平均真阳性率(TPR)、假阳性率(FPR)、像素级的检测精度(Pre)及F1分数(%)
方法 本发明方 [2] [3] [4] [5]
TPR 95.2 36.8 47.9 71.1 67.3
FPR 3.9 23.0 5.5 30.5 38.1
Pre 96.0 61.5 72.1 69.9 63.8
F1 95.5 46.0 57.6 70.5 65.5
由表3可知,与文献[2]、文献[3]、文献[4]以及文献[5]中的方法相比,本发明方法具有较高的TPR、Pre和F1分数,表现出良好的检测性能。
(3)鲁棒性:
对于图像拼接检测算法来说,另一个评价算法性能的重要指标是算法的鲁棒性。鲁棒性是指对图像进行内容保持操作(如不同质量因子的JPEG压缩,高斯模糊,伽马矫正,重采样等)以后,所提出的算法对图像的检测结果依然是稳定的。
在本节中,将对本发明方法的鲁棒性进行评估,并与其他相关方法作比较。
①鲁棒性的视觉检测效果
从哥伦比亚图像库中随机抽取部分拼接图像,并针对四种常见的后处理操作:JPEG压缩、伽马校正、高斯模糊和下采样,利用本发明方法、文献 [2]、文献[3]、文献[4]以及文献[5]中的方法对所抽取图像进行检测。
图11显示的是利用是本发明方法和其他相关方法,对不同质量因子的 JPEG压缩图像及伽马校正图像进行检测的视觉效果。在图11中,II和III 是原始图像;III和IV是拼接图像;(a1)是未经过JPEG压缩操作图像的检测视觉效果;(b1)是质量因子为95的JPEG压缩图像的检测视觉效果;(c1) 是质量因子为85的JPEG压缩图像的检测视觉效果;(d1)是质量因子为75 的JPEG压缩图像的检测视觉效果;(a2)是未经过伽马矫正操作的图像的检测视觉效果;(b2)是伽马矫正图像的检测视觉效果;(e)是本发明方法的检测视觉效果;(f)到(i)分别是文献[2]、文献[3]、文献[4]以及文献[5]中方法的检测视觉效果。
图12显示的是利用本发明方法和其他相关方法,对3×3窗口的高斯模糊 (σ=1)图像及下采样(20%)图像进行检测的视觉效果。在图12中,II 和III是原始图像;III和IV是拼接图像;(a1)是未经过高斯模糊操作的图像的检测视觉效果;(b1)是高斯模糊图像的检测视觉效果;(a2)是未经过下采样操作的图像的检测视觉效果;(b2)是下采样图像的检测视觉效果;(c) 是本发明方法的检测视觉效果;(d)到(g)分别是文献[2]、文献[3]、文献[4]以及文献[5]中方法的检测视觉效果。
从图11和图12中可以看出,本发明方法对于JPEG压缩、伽马校正、高斯模糊和下采样,具有良好的鲁棒性,能够准确定位图像拼接区域的位置和形状。文献[3]中方法对JPEG压缩不够鲁棒,当JPEG压缩因子比较小时,可能会出现图像拼接区域定位失败的情况。文献[2]和文献[5]中方法都对伽马矫正的鲁棒性较差。对于上面四种常见的图像处理操作,文献[4]中方法的检测效果显示出很高的假阳性区域。
②不同图像后处理操作前后的检测精度比较
为了定量分析本发明方法与其他相关方法的鲁棒性,利用本发明方法对整个哥伦比亚图像库上进行后处理操作后的图像进行检测,并与文献[2]、文献[3]、文献[4]以及文献[5]中的方法进行比较。表4给出了不同方法对处理前后的整个哥伦比亚图像库上图像进行检测的平均真阳性率(TPR)、假阳性率(FPR)、像素级的检测精度(Pre)及Pre分数(%)。
表3在后处理操作前后的整个哥伦比亚图像库上,利用本发明方法、文献[2]、文献[3]、文献[4]以及文献[5]中方法进行检测的平均真阳性率(TPR)、假阳性率(FPR)、像素级的检测精度(Pre)及F1分数(%)
/>
由表4中知,针对四种常见的图像后处理操作,本文所提方法的鲁棒性较好,均优于文献[2]、文献[3]、文献[4]以及文献[5]中的方法。
(4)时间复杂度:
在整个哥伦比亚图像库上,测试了本发明方法的平均运行时间,即时间复杂度,并与文献[2]、文献[3]、文献[4]以及文献[5]中方法的时间复杂度进行比较,其结果见表4。
表4在哥伦比亚图像库上,本发明方法、文献[2]、文献[3]、文献[4]以及文献[5]中方法的时间复杂度
方法 本发明方法 [2] [3] [4] [5]
时间复杂度 53.6 94.2 24. 32.2 54.1
由表4可知,文献[3]和文献[4]的时间复杂度较低,主要是由于这些方法对图像只是进行均匀非重叠分割。文献[2]中方法由于对分割图像块进行了两次聚类,因此比较耗时。本发明方法仅对可疑的拼接区域分割,在提高检测精度的同时,又降低了时间复杂度。

Claims (1)

1.一种细粒度图像拼接区域检测方法,其特征在于,具体按照以下步骤实施:
步骤1、对于大小为W×H的图像Im,令ImR,ImG,ImB分别表示R,G,B三个颜色通道;
所述步骤1具体如下:
步骤1.1、CFA插值系数的估计;
所述步骤1.1具体如下:
将图像ImG分成尺寸为τ×τ的非重叠块,得到个图像块,令第u个图像块ImGu为:
其中,W和H分别表示图像ImG的长和宽,在不同尺寸τ×τ的分割块下,当尺寸为16×16时,拼接区域边缘更清晰,γ的值最大,因此取τ=16;
为了估计ImGu的CFA插值系数,假设所选择的插值邻域大小为(2l+1)×(2l+1),则建立如下的线性插值模型:
其中,cGu,cRu和cBu分别表示绿色、红色、蓝色通道的CFA插值系数,ImGu,ImRu和ImBu分别表示绿色、红色、蓝色分量;
在图像块ImGu中,需插值的像素点的个数为ω=(τ×τ)/2,并可将(2)式改写为:
其中,表示图像块ImGu中,第t个待插值像素点的灰度值,/>表示图像块ImGu中待插值像素点的(2l+1)×(2l+1)邻域内第q个像素点的CFA插值系数,/>表示图像块ImGu中第t个待插值像素点的(2l+1)×(2l+1)邻域内第q个像素点的灰度值,其中,q=1,2,…,(2l+1)2-1,t=1,2,…,ω;/>的定义与/>类似,/>的定义与/>类似,/>的定义与/>类似;
为了便于描述,将(3)式表示为:
其中,其余符号类似;
随之采用协方差矩阵估计ImGu的插值系数,得到:
假设三个颜色通道相互独立,并令i=(2l+1)2-1,将(5)式变形为:
最终,图像块ImGu中的CFA插值系数估计如下:
步骤1.2、无效块的剔除;
所述步骤1.2具体如下:
将(7)式简写为如下形式:
由(8)式可知,当且仅当矩阵DGu为非奇异矩阵时,插值系数CGu才有解;为此,可计算DGu的行列式|DGu|,并定义如下规则:
步骤1.3、重建RGB三通道,
所述步骤1.3具体如下:
令l=1,利用所有有效图像块插值系数CGu的平均值构建矩阵SG如下:
其中,m为有效图像块的个数,通过矩阵SG重建绿色通道Im′G如下:
Im′G=ImG*SG (11)
同理,也可得到重建后的R,B通道为Im′R,Im′B
步骤2、取证特征提取;
所述步骤2具体如下:
步骤2.1、利用拉普拉斯算子Lap对经过所述步骤1重建后的三通道Im′R、Im′G、Im′B、以及原始三通道ImR、ImG、ImB分别进行卷积处理:
其中:/>
步骤2.2、令
步骤2.3、则Im'=abs(Im1-Im2)为所提取的取证特征;
步骤3、拼接区域检测,
所述步骤3具体如下:
步骤3.1、粗粒度拼接区域检测:
对所述步骤2得到的取证特征Im'进行二值化处理,在此基础上同时进行形态学操作,得到粗粒度拼接区域的检测结果Imcu
Imcu=imdilate(Im',SE) (13)
其中,SE为结构元素,imdilate(·)表示形态学操作;
步骤3.2、进一步进行细粒度拼接区域检测;
所述步骤3.2具体如下:
步骤3.2.1、纹理强度特征提取:
将Imcu分成尺寸为κ×κ的不重叠块,κ=τ=16,设为每个粗粒度块,对每个块进行拉普拉斯算子卷积处理:
X′y=Xy*Lap (14)
在此基础上,计算X′y的协方差矩阵Ay为:
对协方差矩阵Ay进行奇异值分解,具体如下:
其中,为单位矩阵,T(1)>T(2)>…>T(s),用奇异值T(1),T(2),…,T(s)之和反映每个粗粒度块的纹理强度特征,并将其定义为:
fy=T(1)+T(2)+…+T(s) (17)
其中,fy表示第y个粗粒度块的纹理强度特征;
步骤3.2.2、区分可疑拼接块:
用大津法对纹理强度数据集进行分类,如果图像块被分为两个集合Ψ1和Ψ2,定义:
其中,number(Ψ1),number(Ψ2)分别表示集合Ψ1和Ψ2中元素的数目,RSplicing,ROrginal分别表示拼接区域和原始区域;
步骤3.2.3、去除误检块:
为了去除误检测,定义:若一个图像块的四邻域全为可疑拼接块,则定义该块为可疑拼接块,若一个图像块的四邻域全为原始块,则定义该块为原始块,即对于一个图像块Yα,β
步骤3.2.4、合并可疑拼接区域:
首先,利用图像块的邻域标记方法,逐行扫描所有粗粒度块,寻找式(19)中检测结果的可疑拼接连通区域,直至将所有可疑拼接图像块标记完,假设共有δ个标签,即就有δ个可疑拼接连通区域,可将其记为:Γ={Γ12,…,Γδ};
然后,计算任意两个连通区域Γv、Γu中,像素点Q和Q的之间的欧式距离Divχ,uξ
其中,(XX,YY)表示连通区域Γv中,第χ个像素点Q的位置坐标;(XX,YY)表示连通区域Γu中,第ξ个像素点Q的位置坐标;
最后,定义如下规则对可疑拼接区域进行合并:
其中,th为合并阈值,将哥伦比亚数据库中的图像作为测试图像,设置一系列的合并参数th0∈{20,40,60,…,200},令拼接像素为阳性样本,原始像素为阴性样本,并计算在不同参数下的假阴性率(FNR)和假阳性率(FPR),由于当th0=100时,FNR和FPR的值均比较合理,因此th=100,将可疑拼接区域合并的结果记为Imhe
步骤3.2.5、精确定位:
对Imhe进行孔洞填充:
Imtian=imfill(Imhe,'holes') (22)
其中,imfill(·)表示孔洞填充函数;
在此基础上,使用步骤3.2.4中的图像区域标记方法标记Imtian,假设共有θ个连通区域,并将其记为P1,P2,…,Pθ;定义P=argmaxArea(P1,P2,…,Pθ)为拼接区域,其中,Area(·)表示计算连通区域面积的函数,并将最终的细粒度拼接区域定位结果记为Imzui
所述步骤3.2.4利用图像块的邻域标记方法,逐行扫描所有粗粒度块,寻找式(19)中检测结果的可疑拼接连通区域,具体步骤如下:
令深色表示要标记的可疑拼接图像块,从第一行开始逐行扫描每一行的每个可疑拼接图像块,第一行有两个区域,其位置分别记为[2,6]和[9],分别给它们标记区域标签为1,2;接着扫描第二行,也有两个区域,所包含的可疑拼接图像块的位置分别为:[5],[9],但它们分别与上一行的两个区域邻接,所以沿用上一行的区域标签,即1和2;第三行有两个区域[5,9]和[13,14],因为[5,9]与上一行的两个区域都有邻接,所以把之前的两个区域合并为一个区域,标记为两者中最小的标签号,即1;[13,14]为新产生的独立区域,所以赋予新的标号2,对每一行进行上述过程;
步骤3.3、采用超像素分割算法平滑细粒度定位结果边缘;
所述步骤3.3具体如下:
步骤3.3.1、找到细粒度定位结果Imzui中,包含可疑拼接区域的最小矩形边界;
步骤3.3.2、将最小矩形区域映射到测试图像中,并对测试图像中的最小矩形区域进行超像素分割;
步骤3.3.3、将步骤3.3.2得到的超像素分割结果映射到Imzui的小矩形区域中,并将此超像素块集合记为:E={E1,E2,…,Ez},其中,z为超像素块的个数;
步骤3.3.4、计算超像素块En(n=1,2,…,z)中,可疑拼接像素个数占总像素个数比重εn
步骤3.3.5由于在连通区域合并时,会产生大量的误检,因此,定义如下规则:
即得到最终的图像拼接区域检测结果。
CN202011272089.9A 2020-11-13 2020-11-13 一种细粒度图像拼接区域检测方法 Active CN112435226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011272089.9A CN112435226B (zh) 2020-11-13 2020-11-13 一种细粒度图像拼接区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011272089.9A CN112435226B (zh) 2020-11-13 2020-11-13 一种细粒度图像拼接区域检测方法

Publications (2)

Publication Number Publication Date
CN112435226A CN112435226A (zh) 2021-03-02
CN112435226B true CN112435226B (zh) 2023-09-15

Family

ID=74700078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011272089.9A Active CN112435226B (zh) 2020-11-13 2020-11-13 一种细粒度图像拼接区域检测方法

Country Status (1)

Country Link
CN (1) CN112435226B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256662B (zh) * 2021-06-28 2021-11-05 杭州迪英加科技有限公司 病理切片图像分割方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010027476A1 (en) * 2008-09-03 2010-03-11 Rutgers, The State University Of New Jersey System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis
CN102968803A (zh) * 2012-11-15 2013-03-13 西安理工大学 针对cfa插值图像的篡改检测与篡改定位方法
CN111275687A (zh) * 2020-01-20 2020-06-12 西安理工大学 一种基于连通区域标记的细粒度图像拼接检测方法
CN111768368A (zh) * 2020-05-26 2020-10-13 西安理工大学 一种基于最大稳定极值区域的图像区域复制篡改检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010027476A1 (en) * 2008-09-03 2010-03-11 Rutgers, The State University Of New Jersey System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis
CN102968803A (zh) * 2012-11-15 2013-03-13 西安理工大学 针对cfa插值图像的篡改检测与篡改定位方法
CN111275687A (zh) * 2020-01-20 2020-06-12 西安理工大学 一种基于连通区域标记的细粒度图像拼接检测方法
CN111768368A (zh) * 2020-05-26 2020-10-13 西安理工大学 一种基于最大稳定极值区域的图像区域复制篡改检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李思纤 ; 魏为民 ; 楚雪玲 ; 华秀茹 ; 栗风永 ; .利用改进的超像素分割和噪声估计的图像拼接篡改定位方法.华侨大学学报(自然科学版).2020,(第02期),全文. *
熊士婷 ; 张玉金 ; 吴飞 ; 刘婷婷 ; .基于统计噪声水平分析的图像拼接检测.光电子・激光.2020,(第02期),全文. *
郑继明 ; 苏慧嘉 ; .基于颜色分量间相关性的图像拼接篡改检测方法.计算机应用.2017,(第10期),全文. *

Also Published As

Publication number Publication date
CN112435226A (zh) 2021-03-02

Similar Documents

Publication Publication Date Title
Ahmed Comparative study among Sobel, Prewitt and Canny edge detection operators used in image processing
Pan et al. Detecting image region duplication using SIFT features
Chang et al. A forgery detection algorithm for exemplar-based inpainting images using multi-region relation
CN108765465B (zh) 一种无监督sar图像变化检测方法
Ren et al. Fusion of intensity and inter-component chromatic difference for effective and robust colour edge detection
Uliyan et al. A novel forged blurred region detection system for image forensic applications
Muhammad et al. Copy-move forgery detection using dyadic wavelet transform
Xiao et al. Defocus blur detection based on multiscale SVD fusion in gradient domain
Thajeel et al. A Novel Approach for Detection of Copy Move Forgery using Completed Robust Local Binary Pattern.
Jaberi et al. Improving the detection and localization of duplicated regions in copy-move image forgery
Wang et al. Coarse-to-fine-grained method for image splicing region detection
Muhammad et al. A non-intrusive method for copy-move forgery detection
CN112435226B (zh) 一种细粒度图像拼接区域检测方法
CN111275687B (zh) 一种基于连通区域标记的细粒度图像拼接检测方法
Julliand et al. Automated image splicing detection from noise estimation in raw images
Garg et al. Color based segmentation using K-mean clustering and watershed segmentation
Sharma et al. Feature-level fusion for object segmentation using mutual information
CN116596899A (zh) 基于荧光图像识别循环肿瘤细胞方法、装置、终端及介质
Zhang et al. Exposing digital image forgeries by using canonical correlation analysis
Cozzolino et al. A comparative analysis of forgery detection algorithms
Ulutas et al. Image forgery detection using color coherence vector
Zambanini et al. Robust automatic segmentation of ancient coins
Zhan et al. An image splicing detection method based on PCA minimum eigenvalues.
CN111768368B (zh) 一种基于最大稳定极值区域的图像区域复制篡改检测方法
Kaur et al. Forgery detection using noise estimation and hog feature extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant