CN116863319A - 基于跨尺度建模和交替细化的复制移动篡改检测方法 - Google Patents

基于跨尺度建模和交替细化的复制移动篡改检测方法 Download PDF

Info

Publication number
CN116863319A
CN116863319A CN202311132103.9A CN202311132103A CN116863319A CN 116863319 A CN116863319 A CN 116863319A CN 202311132103 A CN202311132103 A CN 202311132103A CN 116863319 A CN116863319 A CN 116863319A
Authority
CN
China
Prior art keywords
features
feature
scale
cross
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311132103.9A
Other languages
English (en)
Other versions
CN116863319B (zh
Inventor
聂婕
王京禹
王晓东
景年太
温琦
梁馨月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202311132103.9A priority Critical patent/CN116863319B/zh
Publication of CN116863319A publication Critical patent/CN116863319A/zh
Application granted granted Critical
Publication of CN116863319B publication Critical patent/CN116863319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Processing (AREA)

Abstract

本发明属于图像处理技术领域,公开了基于跨尺度建模和交替细化的复制移动篡改检测方法,将原始图像下采样,分别对原始图像和下采样图像通过卷积操作进行特征提取,输入跨尺度相似区域检测模块,获得粗相似区域特征;将原始图像输入基于边缘监督的篡改区域检测模块,获得篡改域特征;利用粗相似区域特征减去篡改域特征获得源域特征;将粗相似区域特征、篡改域特征、源域特征三者输入交互细化融合模块,得到细化后的相似区域特征、细化后的篡改域特征、细化后的源域特征,以获得边缘结构完整的检测结果。

Description

基于跨尺度建模和交替细化的复制移动篡改检测方法
技术领域
本发明属于图像处理技术领域,特别涉及基于跨尺度建模和交替细化的复制移动篡改检测方法。
背景技术
图像篡改检测研究具有极其重要的现实重要意义。复制移动篡改图像检测及区分方法包括篡改图像中的两个相似区域的提取以及区分出源域与篡改域两方面。
前沿的篡改检测方法通过计算像素间的相关性获得相似区域特征,同时提取篡改区域特征用于提升检测效果以及区分源域和篡改域,最终融合相似区域特征和篡改区域特征以实现源域和和篡改域的检测和区分。但是,该方法存在以下问题:
第一,忽略了源域和目标域之间存在的尺度鸿沟。篡改者为了使篡改图像更加真实并展现其想表达的误导性内容,通常会对图像进行一些后处理操作,如缩放等,这将导致源域和篡改域尺度(即大小)差距悬殊。现有研究通常采用ASPP等方法进行多尺度建模,然而这种方法只能提取到包含不同尺度信息的特征,而没有从本质上探索尺度跨度较大的源域和目标域之间的相关关系,而这种相关关系是相似区域提取的关键。第二,未能充分提取源域和篡改域实现检测并区分的任务。高质量的源域和篡改域检测有助于对最终目标区域的检测,然而,在目前存在的利用篡改域辅助检测和定位的研究中,仅通过简单的卷积操作无法提取出准确的篡改区域。另外,由于源域检测方法的局限性,目前的研究仅利用篡改域信息进行检测和定位而忽略了对源域信息的利用。第三,未能充分利用源域和篡改域辅助相似区域检测和区分。具体表现在源域、篡改域以及相似区域特征的融合方法中。目前的研究中,篡改域和相似区域通过相加的方法融合,融合方法过于简单,无法充分发挥二者间的相互正向引导作用。
发明内容
针对现有技术存在的不足,本发明提供基于跨尺度建模和交替细化的复制移动篡改检测方法。分别从以下三方面改进:提出跨尺度相似区域检测模块,建模不同尺度的特征图之间各像素间的关联关系,从而检测相似区域;提出基于边缘监督的篡改区域检测模块,并在基于边缘监督的篡改区域检测模块中使用显著边缘选择机制,自适应选择每层中重要的信息,抑制冗余信息,实现在深层网络中丢失的浅层特征的合理利用;提出了交互细化融合模块,促进源域、篡改域和相似区域的循环优化。
为了解决上述技术问题,本发明采用的技术方案是:
基于跨尺度建模和交替细化的复制移动篡改检测方法,包括以下步骤:
步骤1、输入复制移动篡改原始图像,大小为2H×2W,W和H分别表示图像的宽和高包含的像素个数;
步骤2、将原始图像下采样为1/2大小,下采样图像大小为H×W,分别对原始图像和下采样图像通过卷积操作进行特征提取,将获得的两个特征同时输入跨尺度相似区域检测模块,通过跨尺度相似区域检测模块获得粗相似区域特征Fc
步骤3、将原始图像输入基于边缘监督的篡改区域检测模块,获得篡改域特征Ft
步骤4、利用粗相似区域特征Fc减去篡改域特征Ft获得源域特征Fr
步骤5、将粗相似区域特征Fc、篡改域特征Ft、源域特征Fr三者输入交互细化融合模块,基于交叉注意力机制得到细化后的相似区域特征Fref、细化后的篡改域特征F’t、细化后的源域特征F’r,以获得边缘结构完整的检测和区分结果。
进一步的,所述跨尺度相似区域检测模块对于输入的特征先进行拉平、拼接操作,然后进行自相关计算获得亲和矩阵M,将亲和矩阵M分为四部分:计算原始尺度图像特征的亲和矩阵、计算下采样尺度图像特征的亲和矩阵、以及通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵、通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵;然后分别对亲和矩阵M的四部分进行百分比池化操作,再通过拼接、融合的方法,获得粗相似区域特征图Fc
进一步的,所述跨尺度相似区域检测模块的输入为特征Fo,大小为2H×2W×C,以及Fd,大小为H×W×C,将其分别展平为Vo,大小为4HW×C,以及Vd,大小为H×W×C,并将Vo和Vd二者进行拼接表示为V,大小为5WH×C,对V进行自相关计算获得亲和矩阵M,大小为5HW×5HW。
进一步的,将M划分为四部分,分别用①、②、③、④来表示,其中,①代表计算原始尺度图像特征的亲和矩阵,④表示计算下采样后的尺度图像特征的亲和矩阵,对①和④分别执行百分比池化操作,具体为,按行排序并选择前k个以突出相似区域,然后将①和④分别变换为2W×2H×k以及W×H×k大小,将后者上采样为2W×2H×k后与前者通过哈达玛机融合生成特征Fm,大小为2H×2W×k;②代表通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵,③代表通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵,对②和③区域执行百分比池化操作分别获得特征,将③通过百分比池化操作得到的特征上采样生成特征Fl,大小为2H×2W×k,然后将特征Fl与②通过百分比池化操作得到的特征Fs,大小为H×W×k,通过拼接进行融合获得特征Fa;最后,通过拼接的方法融合特征Fm和Fa获得粗相似区域特征图Fc
进一步的,所述基于边缘监督的篡改区域检测模块包括主网络、边缘增强模块和显著边缘选择模块,主网络包括三个残差块,每个残差块的输出通过边缘增强模块后,继续进行显著边缘选择模块以检测篡改区域边缘,获得边缘特征X,用于监督篡改区域检测;同时最后一个残差块的输出作为篡改域特征Ft
进一步的,所述基于边缘监督的篡改区域检测模块的输入为原始图像,首先通过三个残差块1#、2#、3#对原始图像进行特征提取;将每个残差块的输出特征分别进行边缘增强处理,分别对应边缘增强模块1#,边缘增强模块2#和边缘增强模块3#,分别输出X1、X2和X3,作为显著边缘选择模块的输入,所述显著边缘选择模块包括门控处理单元和一个边缘增强模块,在显著边缘选择模块内处理过程如下:分别对X1、X2和X3通过G1、G2、G3门控函数进行门控处理,并将处理结果与X1、X2和X3对应元素相乘,以获得突出重要信息同时抑制无用信息的调整后的特征;将由X1和X2获得的调整后的特征相加,并使用一个边缘增强模块提取边缘信息,将得到的特征与1−G3对应元素相乘以获得包含浅层补充信息的特征;最后,将包含浅层补充信息的特征以及对应于X3的通过门控调整后的特征与X3相加,得到最终的边缘特征X,上述操作表述为:
其中,G1、G2、G3分别为对X1、X2、X3进行处理的门控函数。
进一步的,边缘增强模块包括执行一个索贝尔卷积层和一个空间注意力操作。
进一步的,步骤5中,细化后的相似区域特征Fref通过以下方式获得:
将源域特征Fr作为“键”和“值”,将粗相似区域特征Fc作为“询问”,首先进行交叉注意力计算得到注意力特征Ar;然后,利用一个卷积层对源域特征Fr进行卷积,并将其与注意力特征Ar相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Frc,计算公式如下:
其中,conv表示卷积操作,T表示转置操作,d(.)表示特征维度;
同理,篡改域特征Ft作为“键”和“值”,将粗相似区域特征Fc作为“询问”,首先进行交叉注意力计算得到注意力特征At,然后,利用一个卷积层对Ft进行卷积,并将其与At相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Ftc,计算公式如下:
将Frc与Ftc相加获得细化后的相似区域特征Fref
进一步的,步骤5中,细化后的源域特征F’r通过以下方式获得:将细化后的相似区域特征Fref作为“键”和“值”,将源域特征Fr作为“询问”,进行交叉注意力计算获得注意力特征Aref1;然后,利用一个卷积层对细化后的相似区域特征Fref进行卷积,并将其与注意力特征Aref1相乘,生成包含全局信息的特征,将生成特征与源域特征Fr相加,得到细化后的源域特征F’r,计算公式如下:
进一步的,步骤5中,细化后的篡改域特征F’t通过以下方式获得:将细化后的相似区域特征Fref作为“键”和“值”,将篡改域特征Ft作为“询问”,进行交叉注意力计算获得注意力特征Aref2;然后,利用一个卷积层对Fref进行卷积,并将其与Aref2相乘,生成包含全局信息的特征;将生成特征与篡改域特征Ft相加,得到细化后的篡改域特征F’t,计算公式如下:
与现有技术相比,本发明优点在于:
(1)提出跨尺度相似区域检测模块,建模不同尺度的特征图之间各像素间的关联关系,从而检测相似区域,解决了相似区域(源域和篡改域)由于尺度差距大造成的检测效果不佳的问题。
(2)在基于边缘监督的篡改区域检测模块中,提出了显著边缘选择机制,自适应选择每层中重要的信息,抑制冗余信息,可以合理利用在深层网络中丢失的浅层特征。
(3)提出了交互细化融合模块。首先,同时利用源域和篡改域对粗相似区域特征进行全局建模,以细化粗相似区域。其次,利用细化后的相似区域反对来对源域和目标域进行优化,这种交互细化的方法能够促进源域、篡改域和相似区域的循环优化。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的网络架构图;
图2为本发明的显著边缘选择模块架构图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的说明。
本发明的原理是:构建一个网络模型,包括跨尺度相似区域检测模块、基于边缘监督的篡改区域检测模块、交互细化融合模块,分别用于检测相似区域、检测篡改区域、融合交互细化后的特征。网络模型的输入为复制移动篡改图像,大小为2H×2W。将原始图像下采样为H×W大小,然后分别对原始图像和下采样后的图像通过卷积操作进行特征提取,将获得的两个特征同时输入跨尺度相似区域检测模块。通过跨尺度相似区域检测模块,获得粗相似区域特征Fc。同时将原始图像输入基于边缘监督的篡改区域检测模块用于获得篡改域特征Ft。基于边缘监督的篡改区域检测模块主网络由三个残差块组成,每个残差块的输出通过边缘增强模块后,继续进行显著边缘选择模块以准确检测篡改区域边缘,从而监督篡改区域的检测,获得篡改域特征Ft。然后,利用粗相似特征减去篡改特征获得源域特征Fr,并将三者输入交互细化融合模块,对粗相似区域进行细化,以获得边缘结构完整的检测和区分结果。
结合图1,对本发明的基于跨尺度建模和交替细化的复制移动篡改检测方法进行详细介绍。
具体包括以下步骤:
步骤1、输入复制移动篡改原始图像,大小为2H×2W,H为维度,W为宽度。
步骤2、将原始图像下采样为1/2大小,下采样图像大小为H×W,分别对原始图像和下采样图像通过卷积操作进行特征提取,将获得的两个特征同时输入跨尺度相似区域检测模块,通过跨尺度相似区域检测模块获得粗相似区域特征Fc。
其中,跨尺度相似区域检测模块对于输入的特征先进行拉平、拼接操作,然后进行自相关计算获得亲和矩阵M,将亲和矩阵M分为四部分:计算原始尺度图像特征的亲和矩阵、计算下采样尺度图像特征的亲和矩阵、以及通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵、通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵;然后分别对亲和矩阵M的四部分进行百分比池化操作,再通过拼接、融合的方法,获得粗相似区域特征图Fc
更具体的是,跨尺度相似区域检测模块的输入为特征Fo(大小为2H×2W×C)以及Fd(大小为H×W×C),将其分别展平为Vo(大小为4HW×C)以及Vd(大小为H×W×C),并将Vo和Vd二者进行拼接表示为V(大小为5WH×C),对V进行自相关计算获得亲和矩阵M(大小为5HW×5HW)。
更具体的是,将M划分为四部分,分别用①、②、③、④来表示,其中,①代表计算原始尺度图像特征的亲和矩阵,④表示计算下采样后的尺度图像特征的亲和矩阵,对①和④分别执行百分比池化操作,具体为,按行排序并选择前k个以突出相似区域,然后将①和④分别变换为2W×2H×k以及W×H×k大小,将后者上采样为2W×2H×k后与前者通过哈达玛机融合生成特征Fm(大小为2H×2W×k)以实现多尺度建模,突出关键区域同时弱化非目标区域。
②和③代表计算原始尺度图像特征和下采样后的尺度图像特征之间的亲和矩阵。不同的是,②通过下采样尺度特征对原始尺度进行计算,而③通过原始尺度特征对下采样尺度进行计算,即②代表通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵,③代表通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵。对②和③区域执行百分比池化操作分别获得特征,②和③表示不同尺度特征之间的相关性,对其进行百分比池操作能够分别获得原始尺度中较小尺寸目标区域和下采样尺度流中较大尺寸目标区域的特征。这是因为在源域和篡改域存在尺度鸿沟的篡改图像中,同一尺度中源域和目标域的尺度差距较大,而在下采样尺度中的较大的目标区域(源域或篡改域中的一个)与原始尺度中的较小目标区域(源域或篡改域中的另外一个)之间的尺度差距缩小。因此,通过跨尺度相关性计算,可以解决源和篡改区域之间的尺度差距导致的相似区域提取效果不佳的问题。
将③通过百分比池化操作得到的特征上采样生成特征Fl (大小为2H×2W×k),然后将特征Fl与②通过百分比池化操作得到的特征Fs(大小为H×W×k),通过拼接进行融合获得特征Fa;最后,通过拼接的方法融合特征Fm和Fa获得粗相似区域特征图Fc
步骤3、将原始图像输入基于边缘监督的篡改区域检测模块,获得篡改域特征Ft。
仅用单一分割方法检测篡改区域是次优的,因为它忽略了篡改区域与其他部分之间的显著差异,即,即使经过人工处理,边缘仍会存在不可避免的篡改痕迹。因此,利用边缘监督能够使网络更容易定位篡改区域。本发明提出的基于边缘监督的篡改区域检测模块中使用了一种显著边缘选择方案,通过融合每个边缘增强模块输出的有效边缘信息来确保浅层边缘信息的有效利用。
结合图1、图2,基于边缘监督的篡改区域检测模块包括主网络、边缘增强模块和显著边缘选择模块,主网络包括三个残差块,每个残差块的输出通过边缘增强模块后,继续进行显著边缘选择模块以检测篡改区域边缘,获得边缘特征X,用于监督篡改区域检测,通过边缘特征X可以获得边缘检测图,该边缘检测图与原始图像篡改区域边缘的真实边缘逐像素对比,可以判断边缘是否被篡改。通过计算边缘损失,可监督篡改区域检测,边缘损失越低表示边缘检测的越好。同时最后一个残差块的输出作为篡改域特征Ft
具体来说,基于边缘监督的篡改区域检测模块的输入为原始图像,首先通过三个残差块1#、2#、3#对原始图像进行特征提取。其中,三个残差块采用现有技术中普通的特征提取模块即可实现,将每个残差块的输出特征分别进行边缘增强处理,分别对应边缘增强模块1#,边缘增强模块2#和边缘增强模块3#,分别输出X1、X2和X3,作为显著边缘选择模块的输入。
显著边缘选择模块包括门控处理单元和一个边缘增强模块,如图2所示,包括门控1、门控2、门控3,在显著边缘选择模块内处理过程如下:分别对X1、X2和X3通过G1、G2、G3门控函数进行门控处理,并将处理结果与X1、X2和X3对应元素相乘,以获得突出重要信息同时抑制无用信息的调整后的特征;将由X1和X2获得的调整后的特征相加,并使用一个边缘增强模块提取边缘信息,将得到的特征与1−G3对应元素相乘以获得包含浅层补充信息的特征;最后,将包含浅层补充信息的特征以及对应于X3的通过门控调整后的特征与X3相加,得到最终的边缘特征X,上述操作表述为:
其中,G1、G2、G3分别为对X1、X2、X3进行处理的门控函数,这里使用Sigmoid作为门控函数。
需要说明的是,边缘增强模块1#、2#、3#和显著边缘选择模块内的边缘增强模块结构相同,包括执行一个索贝尔(Sobel)卷积层和一个空间注意力操作,如图2中所示,图中的表示元素相乘,/>表示元素相加。
步骤4、利用粗相似区域特征Fc减去篡改域特征Ft获得源域特征Fr
利用跨尺度相似区域检测模块获得的粗相似特征减去基于边缘监督的篡改区域检测模块获得的篡改域特征,获得源域特征,该方法采用隐式方法获得源区域特征,缓解了源域缺少区别于图像中其他区域的特性而造成的检测困难的问题。另一方面,该方法可以动态地联合优化源域和目标域,在提取源域的同时进一步优化篡改域特征。
步骤5、将粗相似区域特征Fc、篡改域特征Ft、源域特征Fr三者输入交互细化融合模块,基于交叉注意力机制得到细化后的相似区域特征Fref、细化后的篡改域特征F’t、细化后的源域特征F’r,以获得边缘结构完整的检测和区分结果。
为了进一步细化跨尺度相似区域检测模块输出的粗相似区域检测结果,获得边缘结构完整的目标区域,本发明提出了交互细化融合模块。不同于传统方法中仅利用篡改域特征辅助相似目标区域检测的方法,交互细化融合模块中增加了对同样有利于相似区域检测的源域特征的利用。另外,在融合过程中,该模块也摒弃了传统方法中的拼接融合方法,而采用了一种能够建模像素间远程依赖关系的交互式融合方法,从而进一步优化了相似区域的提取,并且该融合方法对于存在尺度鸿沟的一对相似区域中的小目标区域的检测尤其有利。
(1)细化后的相似区域特征Fref通过以下方式获得:
将源域特征Fr作为“键”(key)和“值”(value),将粗相似区域特征Fc作为“询问”(query),其中注意力机制的原理此处不过多赘述,首先进行交叉注意力计算得到注意力特征Ar;然后,利用一个卷积层对源域特征Fr进行卷积,并将其与注意力特征Ar相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Frc,计算公式如下:
其中,conv表示卷积操作,T表示转置操作,d(.)表示特征维度。
类似的,篡改域特征Ft作为“键”(key)和“值”(value),将粗相似区域特征Fc作为“询问”(query),首先进行交叉注意力计算得到注意力特征At,然后,利用一个卷积层对Ft进行卷积,并将其与At相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Ftc,计算公式如下:
将Frc与Ftc相加获得细化后的相似区域特征Fref
(2)细化后的源域特征F’r通过以下方式获得:将细化后的相似区域特征Fref作为“键”(key)和“值”(value),将源域特征Fr作为“询问”(query),进行交叉注意力计算获得注意力特征Aref1;然后,利用一个卷积层对细化后的相似区域特征Fref进行卷积,并将其与注意力特征Aref1相乘,生成包含全局信息的特征,将生成特征与源域特征Fr相加,得到细化后的源域特征F’r,计算公式如下:
(3)细化后的篡改域特征F’t通过以下方式获得:将细化后的相似区域特征Fref作为“键”(key)和“值”(value),将篡改域特征Ft作为“询问”(query),进行交叉注意力计算获得注意力特征Aref2;然后,利用一个卷积层对Fref进行卷积,并将其与Aref2相乘,生成包含全局信息的特征;将生成特征与篡改域特征Ft相加,得到细化后的篡改域特征F’t,计算公式如下:
此处需要说明的是,为了优化所提出的网络,定义总损失函数为:
其中,Ledg表示使用Dice loss计算的边缘损失,Ldet表示使用交叉熵计算的检测损失,Lssim表示利用SSIM损失来确保被检测篡改区域和源区域的空间结构的完整性,α和β为可学习参数。
其中,yi∈{0,1}表示图像中的第i个像素是否是被篡改区域的边缘像素,表示该像素被预测为被篡改边缘的概率,W和H分别表示图像的宽和高包含的像素个数。
其中,pi∈{0,1}表示第i 个像素是否属于需要检测的区域,表示该像素被预测为属于目标区域的概率,w1和w2为超参数。
其中x和y分别真值和网络的检测结果,ux和uy表示x和y的均值,和/>表示x和y的标准差,/>表示x和y的协方差,/>和/>为超参数。
作为一个举例,该网络可以使用PyTorch深度学习框架实现,使用USC-ISI CMFD数据集进行实验,将数据集划分为6:2:2分别进行训练、验证以及测试。训练过程中将批处理大小设置为16,使用SGD优化器进行优化,初始学习率设为1e-2。所有实验均在NVIDIATesla P100 GPU服务器上进行。
综上所述,本发明1、提出跨尺度相似区域检测模块,解决了相似区域(源域和篡改域)由于尺度差距大造成的检测效果不佳的问题。因为在源域和篡改域存在尺度鸿沟的篡改图像中,同一尺度中源域和目标域的尺度差距较大,而在下采样尺度中的较大的目标区域(源域或篡改域中的一个)与原始尺度中的较小目标区域(源域或篡改域中的另外一个)之间的尺度差距缩小。因此,通过跨尺度相关性计算,可以解决源和篡改区域之间的尺度差距导致的相似区域提取效果不佳的问题。
2、在基于边缘监督的篡改区域检测模块中,提出了显著边缘选择机制,以合理利用在深层网络中丢失的浅层特征。浅层特征中包含用于进行边缘这类低层级特征检测的重要的信息,而在网络深层提取的高层语义特征中,这些低层级信息会部分丢失。因此,本发明同时利用深浅层特征进行边缘提取。然而现有的方法通过直接融合或级联相加的方法利用浅层信息,这不可避免的造成了大量的信息冗余。而本发明提出的显著边缘选择机制自适应选择每层中重要的信息,抑制冗余信息,能够实现浅层特征的合理利用。
3、提出了交互细化融合模块,首先,同时利用源域和篡改域细化相似区域,其次,利用细化后的相似区域反过来优化源域和篡改域。经过这种交互细化机制,进一步优化了最终检测结果。
当然,上述说明并非是对本发明的限制,本发明也并不限于上述举例,本技术领域的普通技术人员,在本发明的实质范围内,做出的变化、改型、添加或替换,都应属于本发明的保护范围。

Claims (10)

1.基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,包括以下步骤:
步骤1、输入复制移动篡改原始图像,大小为2H×2W,W和H分别表示图像的宽和高包含的像素个数;
步骤2、将原始图像下采样为1/2大小,下采样图像大小为H×W,分别对原始图像和下采样图像通过卷积操作进行特征提取,将获得的两个特征同时输入跨尺度相似区域检测模块,通过跨尺度相似区域检测模块获得粗相似区域特征Fc
步骤3、将原始图像输入基于边缘监督的篡改区域检测模块,获得篡改域特征Ft
步骤4、利用粗相似区域特征Fc减去篡改域特征Ft获得源域特征Fr
步骤5、将粗相似区域特征Fc、篡改域特征Ft、源域特征Fr三者输入交互细化融合模块,基于交叉注意力机制得到细化后的相似区域特征Fref、细化后的篡改域特征F’t、细化后的源域特征F’r,以获得边缘结构完整的检测和区分结果。
2.根据权利要求1所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,所述跨尺度相似区域检测模块对于输入的特征先进行拉平、拼接操作,然后进行自相关计算获得亲和矩阵M,将亲和矩阵M分为四部分:计算原始尺度图像特征的亲和矩阵、计算下采样尺度图像特征的亲和矩阵、以及通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵、通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵;然后分别对亲和矩阵M的四部分进行百分比池化操作,再通过拼接、融合的方法,获得粗相似区域特征图Fc
3.根据权利要求1所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,所述跨尺度相似区域检测模块的输入为特征Fo,大小为2H×2W×C,以及Fd,大小为H×W×C,将其分别展平为Vo,大小为4HW×C,以及Vd,大小为H×W×C,并将Vo和Vd二者进行拼接表示为V,大小为5WH×C,对V进行自相关计算获得亲和矩阵M,大小为5HW×5HW。
4.根据权利要求2所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,将M划分为四部分,分别用①、②、③、④来表示,其中,①代表计算原始尺度图像特征的亲和矩阵,④表示计算下采样后的尺度图像特征的亲和矩阵,对①和④分别执行百分比池化操作,具体为,按行排序并选择前k个以突出相似区域,然后将①和④分别变换为2W×2H×k以及W×H×k大小,将后者上采样为2W×2H×k后与前者通过哈达玛机融合生成特征Fm,大小为2H×2W×k;②代表通过下采样尺度图像特征对原始尺度图像特征进行计算亲和矩阵,③代表通过原始尺度图像特征对下采样尺度图像特征进行计算亲和矩阵,对②和③区域执行百分比池化操作分别获得特征,将③通过百分比池化操作得到的特征上采样生成特征Fl,大小为2H×2W×k,然后将特征Fl与②通过百分比池化操作得到的特征Fs,大小为H×W×k,通过拼接进行融合获得特征Fa;最后,通过拼接的方法融合特征Fm和Fa获得粗相似区域特征图Fc
5.根据权利要求1所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,所述基于边缘监督的篡改区域检测模块包括主网络、边缘增强模块和显著边缘选择模块,主网络包括三个残差块,每个残差块的输出通过边缘增强模块后,继续进行显著边缘选择模块以检测篡改区域边缘,获得边缘特征X,用于监督篡改区域检测;同时最后一个残差块的输出作为篡改域特征Ft
6.根据权利要求5所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,所述基于边缘监督的篡改区域检测模块的输入为原始图像,首先通过三个残差块1#、2#、3#对原始图像进行特征提取;将每个残差块的输出特征分别进行边缘增强处理,分别对应边缘增强模块1#,边缘增强模块2#和边缘增强模块3#,分别输出X1、X2和X3,作为显著边缘选择模块的输入,所述显著边缘选择模块包括门控处理单元和一个边缘增强模块,在显著边缘选择模块内处理过程如下:分别对X1、X2和X3通过G1、G2、G3门控函数进行门控处理,并将处理结果与X1、X2和X3对应元素相乘,以获得突出重要信息同时抑制无用信息的调整后的特征;将由X1和X2获得的调整后的特征相加,并使用一个边缘增强模块提取边缘信息,将得到的特征与1−G3对应元素相乘以获得包含浅层补充信息的特征;最后,将包含浅层补充信息的特征以及对应于X3的通过门控调整后的特征与X3相加,得到最终的边缘特征X,上述操作表述为:
其中,G1、G2、G3分别为对X1、X2、X3进行处理的门控函数。
7.根据权利要求6所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,边缘增强模块包括执行一个索贝尔卷积层和一个空间注意力操作。
8.根据权利要求1所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,步骤5中,细化后的相似区域特征Fref通过以下方式获得:
将源域特征Fr作为“键”和“值”,将粗相似区域特征Fc作为“询问”,首先进行交叉注意力计算得到注意力特征Ar;然后,利用一个卷积层对源域特征Fr进行卷积,并将其与注意力特征Ar相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Frc,计算公式如下:
其中,conv表示卷积操作,T表示转置操作,d(.)表示特征维度;
同理,篡改域特征Ft作为“键”和“值”,将粗相似区域特征Fc作为“询问”,首先进行交叉注意力计算得到注意力特征At,然后,利用一个卷积层对Ft进行卷积,并将其与At相乘,生成包含全局信息的特征,将生成特征与粗相似区域特征Fc相加,得到细化相关特征Ftc,计算公式如下:
将Frc与Ftc相加获得细化后的相似区域特征Fref
9.根据权利要求8所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,步骤5中,细化后的源域特征F’r通过以下方式获得:将细化后的相似区域特征Fref作为“键”和“值”,将源域特征Fr作为“询问”,进行交叉注意力计算获得注意力特征Aref1;然后,利用一个卷积层对细化后的相似区域特征Fref进行卷积,并将其与注意力特征Aref1相乘,生成包含全局信息的特征,将生成特征与源域特征Fr相加,得到细化后的源域特征F’r,计算公式如下:
10.根据权利要求8所述的基于跨尺度建模和交替细化的复制移动篡改检测方法,其特征在于,步骤5中,细化后的篡改域特征F’t通过以下方式获得:将细化后的相似区域特征Fref作为“键”和“值”,将篡改域特征Ft作为“询问”,进行交叉注意力计算获得注意力特征Aref2;然后,利用一个卷积层对Fref进行卷积,并将其与Aref2相乘,生成包含全局信息的特征;将生成特征与篡改域特征Ft相加,得到细化后的篡改域特征F’t,计算公式如下:
CN202311132103.9A 2023-09-05 2023-09-05 基于跨尺度建模和交替细化的复制移动篡改检测方法 Active CN116863319B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311132103.9A CN116863319B (zh) 2023-09-05 2023-09-05 基于跨尺度建模和交替细化的复制移动篡改检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311132103.9A CN116863319B (zh) 2023-09-05 2023-09-05 基于跨尺度建模和交替细化的复制移动篡改检测方法

Publications (2)

Publication Number Publication Date
CN116863319A true CN116863319A (zh) 2023-10-10
CN116863319B CN116863319B (zh) 2023-12-01

Family

ID=88230833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311132103.9A Active CN116863319B (zh) 2023-09-05 2023-09-05 基于跨尺度建模和交替细化的复制移动篡改检测方法

Country Status (1)

Country Link
CN (1) CN116863319B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351015A (zh) * 2023-12-05 2024-01-05 中国海洋大学 基于边缘监督和多域交叉相关的篡改检测方法及系统
CN117456171A (zh) * 2023-12-26 2024-01-26 中国海洋大学 基于抑制相关区域挖掘的复制移动篡改检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050105824A1 (en) * 2003-11-14 2005-05-19 Microsoft Corporation Correlative assessment between scanned and original digital images
CN116363489A (zh) * 2023-03-31 2023-06-30 广东技术师范大学 一种复制粘贴篡改图像数据检测方法、装置、计算机及计算机可读存储介质
CN116385407A (zh) * 2023-04-10 2023-07-04 南京信息工程大学 一种基于多尺度可疑预测框的资质证书图像篡改检测方法
WO2023151141A1 (zh) * 2022-02-09 2023-08-17 苏州大学 一种基于全局与局部特征重建网络的医学图像分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050105824A1 (en) * 2003-11-14 2005-05-19 Microsoft Corporation Correlative assessment between scanned and original digital images
WO2023151141A1 (zh) * 2022-02-09 2023-08-17 苏州大学 一种基于全局与局部特征重建网络的医学图像分割方法
CN116363489A (zh) * 2023-03-31 2023-06-30 广东技术师范大学 一种复制粘贴篡改图像数据检测方法、装置、计算机及计算机可读存储介质
CN116385407A (zh) * 2023-04-10 2023-07-04 南京信息工程大学 一种基于多尺度可疑预测框的资质证书图像篡改检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIE NIE等: "Cross-scale Graph Interaction Network for Semantic Segmentation of Remote Sensing Images", 《ACM JOURNALS》 *
YAQI LIU等: "Two-Stage Copy-Move Forgery Detection with Self Deep Matching and Proposal SuperGlue", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
徐代;岳璋;杨文霞;任潇;: "基于改进的三向流Faster R-CNN的篡改图像识别", 计算机应用, no. 05 *
李倩雯: "基于深度卷积网络的图像复制—粘贴篡改检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351015A (zh) * 2023-12-05 2024-01-05 中国海洋大学 基于边缘监督和多域交叉相关的篡改检测方法及系统
CN117351015B (zh) * 2023-12-05 2024-03-19 中国海洋大学 基于边缘监督和多域交叉相关的篡改检测方法及系统
CN117456171A (zh) * 2023-12-26 2024-01-26 中国海洋大学 基于抑制相关区域挖掘的复制移动篡改检测方法及系统
CN117456171B (zh) * 2023-12-26 2024-03-22 中国海洋大学 基于抑制相关区域挖掘的复制移动篡改检测方法及系统

Also Published As

Publication number Publication date
CN116863319B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
CN116863319B (zh) 基于跨尺度建模和交替细化的复制移动篡改检测方法
Lin et al. Image manipulation detection by multiple tampering traces and edge artifact enhancement
Ma et al. Motion stimulation for compositional action recognition
Li et al. Detection-friendly dehazing: Object detection in real-world hazy scenes
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
Wang et al. Defect transformer: An efficient hybrid transformer architecture for surface defect detection
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
Li et al. A review of deep learning methods for pixel-level crack detection
Fang et al. UDNet: Uncertainty-aware deep network for salient object detection
CN114119993A (zh) 一种基于自注意力机制的显著目标检测方法
Xu et al. AMCA: Attention-guided multiscale context aggregation network for remote sensing image change detection
Song et al. PSTNet: Progressive sampling transformer network for remote sensing image change detection
Ge et al. WGI-Net: A weighted group integration network for RGB-D salient object detection
Wei et al. Bidirectional attentional interaction networks for rgb-d salient object detection
Xie et al. pmbqa: Projection-based blind point cloud quality assessment via multimodal learning
Wang et al. CS2Fusion: Contrastive learning for Self-Supervised infrared and visible image fusion by estimating feature compensation map
Hu et al. Hierarchical attention vision transformer for fine-grained visual classification
CN113837290A (zh) 一种基于注意力生成器网络的无监督非成对图像翻译方法
Gan et al. Adaptive depth-aware visual relationship detection
Xu et al. Highlight detection and removal method based on bifurcated-CNN
Wang et al. Occluded person re-identification based on differential attention siamese network
Xiang et al. Structure-aware multi-view image inpainting using dual consistency attention
An et al. HFT6D: Multimodal 6D object pose estimation based on hierarchical feature transformer
Chai et al. Defocus blur detection based on transformer and complementary residual learning
Wang et al. Stereo matching network based on aanet+ improved attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant