CN112861960A - 一种图像篡改检测方法、系统及存储介质 - Google Patents
一种图像篡改检测方法、系统及存储介质 Download PDFInfo
- Publication number
- CN112861960A CN112861960A CN202110149496.9A CN202110149496A CN112861960A CN 112861960 A CN112861960 A CN 112861960A CN 202110149496 A CN202110149496 A CN 202110149496A CN 112861960 A CN112861960 A CN 112861960A
- Authority
- CN
- China
- Prior art keywords
- image
- rgb
- tampered
- features
- tampering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000007500 overflow downdraw method Methods 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像篡改检测方法、系统及存储介质。一个实施例中的方法包括一个双分支的图像篡改检测方法。其中一个分支学习一个类似高通滤波器的卷积核,该分支能够过滤所述图像的内容特征,自适应的提取图像的高频特征;获取由所述高频特征引导的RGB特征;将通过引导学习到的RGB特征输入检测模型判断图像是否被篡改并定位篡改区域。目前先进的图像篡改检测方法大多采用融合的方式结合几种对篡改检测有利的特征,但是多种特征仅在模型的两端进行融合,特征之间的鸿沟难以跨越。本发明结合了两种特征,但是所提出的方法使用一种特征去引导另一种特征的学习,在很好的结合了多种特征的同时又有效的避免了融合方法中不同特征之间的语义鸿沟问题。
Description
技术领域
本发明涉及一种图像处理技术领域,特别是一种图像篡改检测方法、系统及存储介质。
背景技术
随着照相机、手机、平板电脑、摄像机等数码设备的飞速发展,图像生成已经变得非常容易。此外,随着计算机和互联网的飞速发展,图像的存储和传递也变得非常简单。相对于以文字作为载体,通过图像传递信息更为直观,也更为可信。在过去,大家相信“眼见为实”、“有图有真相”,但随着数字媒体技术的不断发展,这种可信度也在不断被破坏。如今,诸如Photoshop、美图秀秀、美颜相机等图像编辑软件的盛行,导致图像修改变得越来越容易,普通人也能很轻易地对图像进行加工和修改。此外,随着技术的发展,伪造图像也变得越来越不易察觉,甚至能够以假乱真。在当今社会,所谓的“眼见为实”已经变得越来越不可信,当人们面对一张图像的时候,往往首先对图像的真实性存在怀疑。日常生活中人们对图像进行修改,往往是出于美化、娱乐的目的,这并不会带来不良影响,但是在有些情况下,被恶意篡改的图像经过传播,就会影响人们对客观事物的判断,有时甚至会对社会和国家造成不良的影响,近些年,这类情况也越来越多。
在众多的篡改技术中,拼接、复制-移动、移除由于更改了图像本身的内容,危害性最大,因而大多数的篡改检测方法都是针对上述三种篡改方法(见图1)进行设计。图像拼接操作是指将供体图像中的某部分拼接到源图像中,生成新的篡改图像。图像复制-粘贴操作是指复制图像中某一区域并粘贴到同一图像中。通常,复制-粘贴操作用来掩盖图像中某一区域,达到真假难辨的效果。而移除操作则是图像中的某个物体或者对象抠除,并对图像进行后处理,达到让人无法察觉的目的。
图像篡改检测的早期方法大多利用频域特征对图像进行检测。这些特征都是手工设计的,因而缺乏足够的泛化能力。近几年,深度学习技术快速发展,借助于卷积神经网络,能够直接从像素中学习图像的特征,具有强大的泛化能力。但是,卷积神经网络通常学习到的是图像的内容特征,而不是图像的篡改特征,例如篡改伪影,即为频域特征。图像篡改领域中最近的一些工作采用多分支的结构,每个分支提取一种特征。例如,一个分支利用卷积神经网络提取图像内容特征,利用其强大的泛化能力,能够检测多种篡改技术。另外一个分支提取手工设计的频域特征,可以很好的提取图像的篡改特征。然而,多种特征仅在模型的两端进行融合,多种特征的鸿沟难以跨越。另外,需要注意的是,图像篡改检测可以分为两个任务,一是对篡改方法进行分类,判断一张图像是否被篡改过,如果被篡改,使用的是何种篡改技术(是拼接,还是复制-移动,还是移除),二是对篡改区域进行定位。一个好的图像篡改检测模型应要很好的完成上述两个任务。
现有的最先进的图像篡改检测模型大多采用多分支的结构,其中每个分支提取一种特征,这些特征包含对篡改检测互补的信息,因为取得了较好的精度。但是,多种特征仅在模型的两端进行融合,多种特征的鸿沟难以跨越,检测精度仍较低。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种一种图像篡改检测方法、系统及存储介质,提高图形篡改检测精度。
为解决上述技术问题,本发明所采用的技术方案是:一种图像篡改检测方法,包括以下步骤:
S1、提取图像的RGB特征;过滤所述图像的内容特征,提取出预测残差特征,作为低层篡改特征,将所述低层篡改特征提取高层的篡改特征,得到高频特征S2、获取由所述高频特征引导的RGB特征Frgb-att;
S3、利用所述高频特征引导的RGB特征Frgb-att提取更高层的特征Frgb-high,将所述特征Frgb-high输入区域推荐网络,生成候选框;在Frgb-high上摘取各个候选框的特征,记为Frgb-roi;
S4、将所述候选框的特征Frgb-roi输入多层感知机,判断图像是否被篡改且输出篡改类型;
S5、利用步骤S4识别得到的候选框,定位图像中被篡改的区域。
本发明的方法采用引导的方式学习有利于图像篡改检测的特征,与目前最先进的融合方法相比,本发明的方法避免了融合方法中不同特征之间的语义鸿沟问题。
步骤S1中,利用卷积神经网络提取图像的RGB特征。卷积神经网络通过样本数据进行训练学习,具有强大的泛化能力。与手工设计的特征相比,利用卷积神经网络提取的RGB特征鲁棒性更强。
步骤S1中,获取所述高频特征的具体实现过程包括:利用约束卷积层过滤所述图像的内容特征,提取出预测方差,作为所述低层篡改特征;将所述低层篡改特征输入由多个卷积层串联而成的卷积层组,得到所述高频特征。本发明利用约束卷积层过滤了图像的内容特征,可以让后续的卷积层组专注于提取图像的篡改特征,而不是图像的内容特征,从而有利于图像篡改的检测。
步骤S2中,Frgb-att=Frgb⊙αc⊙αs;其中,Frgb∈RC×H×W,C、H、W分别为RGB特征Frgb的通道数、高度和宽度;αs=σ(f7×7([αs-avg;αs-max])),f7×7表示7x7的卷积核,σ为sigmoid函数,;表示拼接操作,αs-avg=AvgPoolc(Ffre),αs-max=MaxPoolc(Ffre);AvgPoolc、MaxPoolc分别表示平均值池化和最大值池化;Ffre为高频特征;αc=σ(αc-avg+αc-max),αc-avg=W1(AvgPools(Ffre))+b1,αc-max=W1(MaxPools(Ffre))+b1,W1和b1为多层感知机的权重和偏置。
步骤S3中,将所述RGB特征Frgb-att作为卷积层组的输入,获得所述更高层的特征Frgb-high;其中,所述卷积层组包括多个串联的卷积层。
步骤S5的具体实现过程包括:将判定为被篡改过的候选框的特征输入第二多层感知机,该第二多层感知机的输出为(tx,ty,tw,th,),tx,ty,分别表示真实篡改区域的中心点的坐标(x1,y1)相对于被篡改过的候选框的中心点坐标(x2,y2)的偏移量,tw表示真实篡改区域的高度w1相对于被篡改过的候选框的高度w2的偏移量,th表示真实篡改区域的宽度h1相对于被篡改过的候选框的宽度h2的偏移量宽度h1;用所述偏移量tx,ty,tw,th对被篡改过的候选框的位置进行的修正,输出最终的篡改区域的边框级别定位;和/或将被篡改过的候选框的特征输入第三多层感知机,输出一个Wi×Hi的0-1矩阵,即得到二进制掩码,其中Wi为图像的宽度,Hi为图像的高度;所述矩阵中等于1的位置对应于图像中未篡改的区域,矩阵中等于0的位置对应于图像中被篡改的区域。本发明的方法不仅能够识别篡改图像的篡改类型,还可以定位篡改区域。此外,本发明的方法在定位篡改区域上,不仅能够提供边框级别的粗略定位,还是提供像素级别的精确定位。
与现有技术相比,本发明所具有的有益效果为:
1、相较于现有的融合方式,本发明采用的引导的方式(利用一种特征引导另一种特征的学习),因而避免了特征之间的语义鸿沟问题,篡改检测精度高;
2、本发明利用约束卷积层过滤了图像的内容特征,可以让后续的卷积层组专注于提取图像的篡改特征,而不是图像的内容特征,从而有利于图像篡改的检测,进一步提高了篡改检测精度;
3、本发明的方法不仅能够识别篡改图像的篡改类型,还可以定位篡改区域。
附图说明
图1为三种常见的图像篡改技术。
图2为本发明实施例方法原理框图。
具体实施方式
如图2所示,本发明实施例具体实现过程如下:
步骤一,考虑到卷积神经网络强大的学习能力和泛化能力,我们使用它来学习图像的篡改特征。准确的说,我们使用的是Resnet50网络的前3个block。如图1的RGB流所示。因为输入的是3通道的RGB图像,因而我们称其为RGB流。但是,一个众所周知的问题即是,卷积神经网络通常学习到的是图像的内容特征而不是篡改特征。我们认为在正确的引导下,可以抑制其学习内容特征,引导其学习篡改特征。
技术方案:使用Resnet50网络(一种卷积神经网络)的前三个block(对应于图1中RGB流中的Conv_1x Group、Conv_2x Group和Conv_3x Group即为Resnet50网络的前三个block,Group=block)。Conv1_1x Group由一个卷积层连接而成,卷积核大小为7X7。Conv_2x Group由9个卷积层连接而成,卷积核大小依次为(1X1,3X3,1X1)这样交替三次,即(1X1,3X3,1x1,1X1,3X3,1x1,1X1,3X3,1x1)。Conv_3x Group由12个卷积层连接而成,卷积核大小依次为(1X1,3X3,1X1)交替四次。
步骤二,为了能够引导RGB流学习篡改特征,而不是图像的内容特征。为此,我们设计了频域流,利用频域流提取到的图像的高频特征来引导RGB流学习图像的篡改特征。为了达到这个目的,我们首先利用约束卷积层过滤图像的内容特征,提取出预测方差,作为低层篡改特征。然后,这些低层篡改特征被输入后续的卷积层提取高层的篡改特征(如图1中频域流所示),即为高频特征。其中,约束卷积层是指是对卷积层的卷积核作出了限定:卷积核中心权值被设置为1,其余权值之和限定为-1。假设w为约束卷积层的卷积核,k为约束卷积层卷积核的个数,坐标(0,0)表示卷积核中间元素的坐标,其公式表示如下:
这种限定使网络自适应学习到一个类似高通滤波器的卷积核,能够过滤图像的内容特征,从而提取出篡改特征。wk表示第k个卷积核,m,n分别表示卷积核的横、纵坐标。
步骤三,注意力机制被广泛应用于计算机视觉和自然语言处理领域。它能使模型对输入的某一部分投入更多的关注。在本发明中,我们使用注意力机制去引导RGB流中的卷积神经网络专注于学习篡改边缘的高频特征。为此,我们设计了注意力模块,使用CBAM(Convolutional Block Attention Module,卷积模块的注意力机制模块,见SanghyunWoo,Jongchan Park,Joon-Young Lee and In So Kweon,“CBAM:Convolutional BlockAttention Module”,in CVPR,2018.)获取高频特征对应的通道权重系数和空间权重系数。CBAM是一种简单有效的轻量级注意力模块,从空间和通道两个维度计算卷积特征图中的权重,分别得到通道权重系数和空间权重系数。假设RGB流的输出为Frgb∈RC×H×W,C、H、W分别为Frgb(Frgb即输出特征图)的通道数、高度和宽度。频域流的输出为Ffre∈RC×H×W,同理,C、H、W分别为Ffre的通道数、高度和宽度。计算通道权重的计算过程如下:
αc-avg=W1(AvgPools(Ffre))+b1
αc-max=W1(MaxPools(Ffre))+b1
αc=σ(αc-avg+αc-max)
其中W1和b1为多层感知机的权重和偏置,AvgPools,MaxPools分别指对Ffre沿着通道维度做平均值池化和最大值池化。σ为sigmoid函数,输出的αc即为通道权重。接下来计算空间权重:
αs-avg=AvgPoolc(Ffre)
αs-max=MaxPoolc(Ffre)
αs=σ(f7×7([αs-avg;αs-max]))
其中,AvgPoolc,MaxPoolc分别表示平均值池化和最大值池化,f7×7表示7x7的卷积核,;表示拼接操作,σ为sigmoid函数,αs即为输出的空间权重。计算好了通道权重αc和空间权重αs,就可以得到高频特征引导的RGB特征Frgb-att:
Frgb-att=Frgb⊙αc⊙αs.
其中,⊙表示逐元素相乘。
步骤四,高频特征引导学习的RGB特征中包含篡改线索,因为可以很好的检测篡改技术以及进行篡改区域定位。将Frgb-att输入Conv_4x Group这么一个卷积层组,提取更为高层的特征,设此特征为Frgb-high。接着,通过一个RPN(Region Proposal Network,区域推荐网络,见Shaoqing Ren,Kaiming He,Ross Girshickand Jian Sun,“Faster R-CNN:TowardsReal-Time Object Detection with Region Proposal Networks”,in NIPS,2015.)生成可能包含篡改区域的候选框。Conv_4x Group表示由18个4×4的卷积层连接而成的卷积层组。
步骤五,图像篡改检测可以分为两个任务,一是对篡改方法进行分类,判断一张图像是否被篡改过,如果被篡改,使用的是何种篡改技术(是拼接,还是复制-移动,还是移除)。步骤五正是完成这一任务。通过感兴趣区域池化(Region of Interest Pooling,ROIPooling,见Shaoqing Ren,Kaiming He,Ross Girshick and Jian Sun,“Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks”,in NIPS,2015.)从Frgb-high上摘取各个候选框的特征,记为Frgb-roi。随后,各个候选框的特征Frgb-roi被输入进一个多层感知机进行分类(见Shaoqing Ren,Kaiming He,Ross Girshick and JianSun,“Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks”,in NIPS,2015.),类别包含有三种篡改方式(剪切、复制-移动、移除)以及背景这一类(背景表示该区域没有被篡改)。多层感知机输出每个候选框对应的篡改方式。如果每个候选框输出的类别均为背景(即未被篡改),则判定图像没有被篡改。如果多层感知机输出任一候选框的类别为三种篡改方式中的一个,则判定图像被篡改。
步骤六,图像篡改检测的第二个任务是对篡改区域进行定位。对虚假图像的篡改区域进行定位,有两种方式,一种是以边界框的方式进行输出(边框级别定位),另一种是以篡改区域二进制掩码(mask)的方式输出。步骤六先对篡改区域进行边框级别的定位,这是一种对篡改区域粗糙的定位,即用一个长方形将篡改区域包围起来。步骤五中生成了候选框,步骤六中对这些候选框进行了分类,判断这些候选框属于哪种篡改方式(被篡改过)或是属于背景一类(没有被篡改)。
将步骤五中判定为被篡改过的候选框的特征Frgb-roi输入进一个多层感知机。该感知机的输出为(tx,ty,tw,th,),tx,ty,分别表示真实篡改区域的中心点的坐标(x1,y1)相对于被篡改过的候选框的中心点坐标(x2,y2)的偏移量,tw表示真实篡改区域的高度w1相对于被篡改过的候选框的高度w2的偏移量,th表示真实篡改区域的宽度h1相对于被篡改过的候选框的宽度h2的偏移量宽度h1;用偏移量对候选框的位置进行进一步的修正(用初始的候选框的四个坐标(x2,y2,w2,h2)加上偏移量(tx,ty,tw,th)),以输出最终的篡改区域的边框级别定位。
步骤七,对篡改区域进行更精细的定位,即以篡改区域二进制掩码(mask)的方式输出篡改区域,实现像素级别的定位。将步骤五中获得的Frgb-roi输入进另外一个多层感知机,输出一个Wi×Hi的0-l矩阵,即为二进制掩码。其中Wi为输入图像的宽度,Hi为输入图像的高度。矩阵大小和图像大小相等,矩阵中等于1的位置对应于图像中未篡改的区域,矩阵中等于0的位置对应于图像中篡改的区域。
至此,整个篡改检测流程就已描述完毕。模型以端到端的方式进行训练(见Shaoqing Ren,Kaiming He,Ross Girshick and Jian Sun,“Faster R-CNN:TowardsReal-Time Object Detection with Region Proposal Networks”,in NIPS,2015.),使用的损失函数为:
本发明在仿真实验中,使用三个经典的数据集:NIST16、COVER、Columbia进行实验,实验所使用的评价指标为F1和AUC。下表展示了本发明的方法与现有技术的实验结果对比。
注:评价指标越高越好。-表示该方法没有在该数据集上使用该评价指标进行测试。其他方法实验数据均从其论文中摘抄而得。/左边表示F1分数,右边表示AUC。
现有方法的参考文献:
[1]Babak Mahdian and Stanislav Saic,“Using noise inconsistencies forblind image forensics,”Image and Vision Computing,2009.
[2]Neal Krawetz,“A picture’s worth... digital image analysis andforensics,”http://www.hackerfactor.com/papers/bh-usa-07-krawetz-wp.pdf.
[3]P.Zhou,X.Han,V.I.Morariu,and L.S.Davis,“Learning rich features forimage manipulation detection,”in CVPR,2018.
[4]J.H.Bappy,C.Simons,L.Nataraj,B.S.Manjunath,and A.K.Roy-Chowdhury,“Hybrid lstm and encoder–decoder architecture for detection of imageforgeries,”IEEE Transactions on Image Processing,2019.
[5]Y.Wu,W.AbdAlmageed,and P.Natarajan,“Mantranet:Manipulation tracingnetwork for detection and localization of image forgeries with anomalousfeatures,”in CVPR.
[6]C.Yang,H.Li,F.Lin,B.Jiang,and H.Zhao,“Constrained r-cnn:A generalimage manipulation detection model,”in ICME,2020.
Claims (8)
1.一种图像篡改检测方法,其特征在于,包括以下步骤:
S1、提取图像的RGB特征;过滤所述图像的内容特征,提取出残差特征,作为低层篡改特征,从所述低层篡改特征提取高层的篡改特征,得到高频特征;
S2、获取由所述高频特征引导的RGB特征Frgb-att;
S3、利用所述高频特征引导的RGB特征Frgb-att提取更高层的特征Frgb-high,将所述特征Frgb-high输入区域推荐网络,生成候选框;在Frgb-high上摘取各个候选框的特征,记为Frgb-roi;
S4、将所述候选框的特征Frgb-roi输入第一多层感知机,判断图像是否被篡改且输出篡改类型;
S5、利用步骤S4识别得到的候选框,定位图像中被篡改的区域。
2.根据权利要求1所述的图像篡改检测方法,其特征在于,步骤S1中,利用卷积神经网络提取图像的RGB特征。
3.根据权利要求1所述的图像篡改检测方法,其特征在于,步骤S1中,获取所述高频特征的具体实现过程包括:利用约束卷积层过滤所述图像的内容特征,提取出预测方差,作为所述低层篡改特征;将所述低层篡改特征输入由多个卷积层串联而成的卷积层组,得到所述高频特征。
4.根据权利要求1所述的图像篡改检测方法,其特征在于,步骤S2中,Frgb-att=Frgb⊙αc⊙αs;其中,Frgb∈RC×H×W,C、H、W分别为RGB特征Frgb的通道数、高度和宽度;αs=σ(f7×7([αs-avg;αs-max])),f7×7表示7x7的卷积核,σ为sigmoid函数,;表示拼接操作,αs-avg=AvgPoolc(Ffre),αs-max=MaxPoolc(Ffre);AvgPoolc、MaxPoolc分别表示平均值池化和最大值池化;Ffre为高频特征;αc=σ(αc-avg+αc-max),αc-avg=W1(AvgPools(Ffre))+b1,αc-max=W1(MaxPools(Ffre))+b1,W1和b1为多层感知机的权重和偏置。
5.根据权利要求1所述的图像篡改检测方法,其特征在于,步骤S3中,将所述RGB特征Frgb-att作为卷积层组的输入,获得所述更高层的特征Frgb-high;其中,所述卷积层组包括多个串联的卷积层。
6.根据权利要求1~5之一所述的图像篡改检测方法,其特征在于,步骤S5的具体实现过程包括:将判定为被篡改过的候选框的特征输入第二多层感知机,该第二多层感知机的输出为(tx,ty,tw,th,),tx,ty,分别表示真实篡改区域的中心点的坐标(x1,y1)相对于被篡改过的候选框的中心点坐标(x2,y2)的偏移量,tw表示真实篡改区域的高度w1相对于被篡改过的候选框的高度w2的偏移量,th表示真实篡改区域的宽度h1相对于被篡改过的候选框的宽度h2的偏移量宽度h1;用所述偏移量tx,ty,tw,th对被篡改过的候选框的位置进行的修正,输出最终的篡改区域的边框级别定位;和/或
将被篡改过的候选框的特征输入第三多层感知机,输出一个Wi×Hi的0-1矩阵,即得到二进制掩码,其中Wi为图像的宽度,Hi为图像的高度;所述矩阵中等于1的位置对应于图像中未篡改的区域,矩阵中等于0的位置对应于图像中被篡改的区域。
7.一种图像篡改检测系统,其特征在于,包括计算机设备;所述计算机设备被配置或编程为用于执行权利要求1~6之一所述方法的步骤。
8.一种计算机可读存储介质,其特征在于,其存储有程序,所述程序被配置为用于执行权利要求1~6之一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110149496.9A CN112861960B (zh) | 2021-02-03 | 2021-02-03 | 一种图像篡改检测方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110149496.9A CN112861960B (zh) | 2021-02-03 | 2021-02-03 | 一种图像篡改检测方法、系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861960A true CN112861960A (zh) | 2021-05-28 |
CN112861960B CN112861960B (zh) | 2022-09-02 |
Family
ID=75987770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110149496.9A Active CN112861960B (zh) | 2021-02-03 | 2021-02-03 | 一种图像篡改检测方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861960B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850307A (zh) * | 2021-09-14 | 2021-12-28 | 长沙理工大学 | 基于深度学习的图像修改区域定位方法、系统及存储介质 |
CN114418988A (zh) * | 2022-01-18 | 2022-04-29 | 三峡大学 | 一种基于注意力机制的拼接图像篡改检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222728A1 (en) * | 2010-03-10 | 2011-09-15 | Huawei Device Co., Ltd | Method and Apparatus for Scaling an Image in Segments |
WO2018120724A1 (zh) * | 2016-12-30 | 2018-07-05 | 平安科技(深圳)有限公司 | 图像篡改检测方法、系统、电子装置及存储介质 |
CN111080628A (zh) * | 2019-12-20 | 2020-04-28 | 湖南大学 | 图像篡改检测方法、装置、计算机设备和存储介质 |
CN111612090A (zh) * | 2020-05-29 | 2020-09-01 | 中国科学技术大学 | 基于内容颜色交叉相关的图像情感分类方法 |
-
2021
- 2021-02-03 CN CN202110149496.9A patent/CN112861960B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222728A1 (en) * | 2010-03-10 | 2011-09-15 | Huawei Device Co., Ltd | Method and Apparatus for Scaling an Image in Segments |
WO2018120724A1 (zh) * | 2016-12-30 | 2018-07-05 | 平安科技(深圳)有限公司 | 图像篡改检测方法、系统、电子装置及存储介质 |
CN111080628A (zh) * | 2019-12-20 | 2020-04-28 | 湖南大学 | 图像篡改检测方法、装置、计算机设备和存储介质 |
CN111612090A (zh) * | 2020-05-29 | 2020-09-01 | 中国科学技术大学 | 基于内容颜色交叉相关的图像情感分类方法 |
Non-Patent Citations (1)
Title |
---|
杨超等: "基于检测-分割的图像拼接篡改盲取证算法", 《电子设计工程》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850307A (zh) * | 2021-09-14 | 2021-12-28 | 长沙理工大学 | 基于深度学习的图像修改区域定位方法、系统及存储介质 |
CN114418988A (zh) * | 2022-01-18 | 2022-04-29 | 三峡大学 | 一种基于注意力机制的拼接图像篡改检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112861960B (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Salloum et al. | Image splicing localization using a multi-task fully convolutional network (MFCN) | |
Qureshi et al. | A bibliography of pixel-based blind image forgery detection techniques | |
CN112818862B (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
Lin et al. | Recent advances in passive digital image security forensics: A brief review | |
Tang et al. | Median filtering detection of small-size image based on CNN | |
Yang et al. | Source camera identification based on content-adaptive fusion residual networks | |
Wang et al. | Detection and localization of image forgeries using improved mask regional convolutional neural network | |
Chang et al. | A forgery detection algorithm for exemplar-based inpainting images using multi-region relation | |
CN112381775B (zh) | 一种图像篡改检测方法、终端设备及存储介质 | |
Rao et al. | Multi-semantic CRF-based attention model for image forgery detection and localization | |
Wang et al. | Background-driven salient object detection | |
Chen et al. | SNIS: A signal noise separation-based network for post-processed image forgery detection | |
Sharma et al. | Comprehensive analyses of image forgery detection methods from traditional to deep learning approaches: an evaluation | |
CN112150450B (zh) | 一种基于双通道U-Net模型的图像篡改检测方法及装置 | |
Wang et al. | Image splicing detection based on convolutional neural network with weight combination strategy | |
Wang et al. | Source camera model identification based on convolutional neural networks with local binary patterns coding | |
CN112861960B (zh) | 一种图像篡改检测方法、系统及存储介质 | |
Kaur et al. | A passive approach for the detection of splicing forgery in digital images | |
Mazumdar et al. | Two-stream encoder–decoder network for localizing image forgeries | |
Mehta et al. | Near-duplicate detection for LCD screen acquired images using edge histogram descriptor | |
Assefa et al. | Small‐Scale and Occluded Pedestrian Detection Using Multi Mapping Feature Extraction Function and Modified Soft‐NMS | |
El-Gayar et al. | A novel approach for detecting deep fake videos using graph neural network | |
Vijayalakshmi K et al. | Copy-paste forgery detection using deep learning with error level analysis | |
Chen et al. | Color image splicing localization algorithm by quaternion fully convolutional networks and superpixel-enhanced pairwise conditional random field | |
Nataraj et al. | Holistic image manipulation detection using pixel co-occurrence matrices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |