CN110992238A - 一种基于双通道网络的数字图像篡改盲检测方法 - Google Patents
一种基于双通道网络的数字图像篡改盲检测方法 Download PDFInfo
- Publication number
- CN110992238A CN110992238A CN201911241250.3A CN201911241250A CN110992238A CN 110992238 A CN110992238 A CN 110992238A CN 201911241250 A CN201911241250 A CN 201911241250A CN 110992238 A CN110992238 A CN 110992238A
- Authority
- CN
- China
- Prior art keywords
- data set
- network
- channel
- picture
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/0042—Fragile watermarking, e.g. so as to detect tampering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
本发明公开了一种基于双通道网络的数字图像篡改盲检测方法,包括以下步骤,构建训练数据集与测试数据集;搭建包括彩色图像通道和隐写分析通道的R‑FCN网络模型,并设置相应参数;基于所述训练数据集对所述网络模型进行训练;使用所述测试数据集对训练后的所述网络模型的性能进行测试;利用测试后的所述网络模型对数字图像篡改进行盲检测,与现有技术相比,本发明提高了图像篡改检测效率及小区域篡改区域检测精度,具有一定的应用价值。
Description
技术领域
本发明涉及图像信息安全技术领域,尤其涉及一种基于双通道网络的数字图像篡改盲检测方法。
背景技术
在人类进行信息获取与传递中,图像扮演着重要的角色,伴随着多媒体、互联网和存储技术的出现与发展,数字图像的传播与存储成本变得越来越低,它已经深入应用到人类的生活、工作等各个领域,并影响着人们的思维方式。然而,随着一系列图像处理和编辑软件的出现,让图像篡改的门槛也大大降低,使得不需要专业的图像处理知识也能对图像进行编辑处理,这对图像的真实性构成了极大的威胁。
经过十几年的发展,图像篡改检测技术可分为主动篡改检测技术与被动篡改检测技术(盲检测)两大类。主动篡改检测技术主要以数字签名技术和数字水印技术为代表,需要在图像建立时主动对图像进行预处理,如对图像的哈希串进行计算或在图像中嵌入特征信息,这些特征信息通常为具有特定意义的水印或图像等,检验时会对嵌入信息的完整性进行验证,从而判断图像是否发生过篡改;被动篡改检测技术则不需要事先给图像添加任何特征信息,仅凭借图像本身的统计信息或物理特性便可达到篡改检测目的。由于主动篡改检测技术的使用具有很强的局限性,数字水印的抗攻击性也有待加强,所以被动篡改检测技术逐渐成为研究的热点。
随着图像处理与图像检索技术的发展,被动篡改检测技术的研究有了一定程度的进展。然而,通过对现有的方法研究发现,当前多数方法计算复杂度高,检测效率低,无法在实际应用中取得很好的检测效果。此外,当前多数方法对小区域篡改检测存在较大的难度。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述现有被动篡改检测技术存在的问题,提出了本发明。
因此,本发明解决的技术问题是:解决现有被动篡改检测技术计算复杂度高,检测效率低,对小区域篡改检测存在较大的难度,无法在实际应用中取得很好的检测效果的问题。
为解决上述技术问题,本发明提供如下技术方案:一种基于双通道网络的数字图像篡改盲检测方法,包括以下步骤,构建训练数据集与测试数据集;搭建包括彩色图像通道和隐写分析通道的R-FCN网络模型,并设置相应参数;基于所述训练数据集对所述网络模型进行训练;使用所述测试数据集对训练后的所述网络模型的性能进行测试;利用测试后的所述网络模型对数字图像篡改进行盲检测。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:构建所述训练数据集与所述测试数据集具体包括以下步骤,以PASCAL VOC 2012数据集为基础,创建合成的图像篡改数据集为所述网络模型的预训练数据集;选取NIST数据集、CASIA 2.0数据集、Columbia数据集为所述网络模型的微调数据集;对所述图像篡改数据集、所述NIST数据集、所述CASIA 2.0数据集以及所述Columbia数据集分别进行所述训练数据集与所述测试数据集的构建。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:构建所述预训练数据集具体包括如下步骤,顺序选择所述PASCAL VOC 2012数据集中的一张图片为原始图片;随机在所述PASCAL VOC 2012数据集中选择一张除所述原始图片外的一张图片为待处理图片;读取所述待处理图片对应的真值掩膜图片中所有目标的真值掩膜,并随机选取一类目标的所述真值掩膜;根据所述真值掩膜图片中选取的所述真值掩膜,读取所述待处理图片中对应选取所述真值掩膜的区域;将所述区域从所述待处理图片中截取,并粘贴至所述原始图片的随机位置上,形成合成图片;从所述PASCAL VOC 2012数据集的Annotations文件夹中读取所述待处理图片对应的xml文件,读出选取的所述一类目标所对应的边界框位置信息;根据读出的所述边界框位置信息以及所述合成图片中粘贴所述区域的位置,修改所述原始图片对应的xml文件,修改检测类别为“tamper”,将所述原始图片中的所述边界框位置信息修改为所述合成图片中粘贴所述区域的位置信息,并将修改后的xml文件作为所述合成图片所对应的xml文件;将所述PASCAL VOC 2012数据集中每一张图片循环上述步骤,创建出合成的所述图像篡改数据集;其中,所述位置信息为边界框左上角坐标及右下角坐标。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:搭建所述网络模型具体包括以下步骤,对所述彩色图像通道和所述隐写分析通道的特征提取部分分别进行特征提取,并对所述特征提取部分中每个卷积块生成的特征图通过双线性插值法进行尺寸调整;将所述彩色图像通道输出的特征图作为区域建议网络RPN的输入;接受所述彩色图像通道的输出、所述隐写分析通道的输出和所述区域建议网络RPN的输出为位置敏感区域池化部分的输入;对所述位置敏感区域池化部分进行双线性回归。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:基于所述训练数据集对所述网络模型进行训练具体包括如下步骤,使用ResNet 101网络在ImageNet数据集上的预训练权重参数对所述网络模型进行初始化;使用所述PASCALVOC 2012数据集中的图像对所述网络模型进行预训练;使用所述图像篡改数据集中的图像对所述网络模型进行微调训练。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:使用所述PASCAL VOC 2012中的图像对所述网络模型进行预训练具体包括如下步骤,将所述PASCAL VOC 2012数据集中的图像输入所述网络模型,通过所述特征提取部分的网络结构提取出所述彩色图像通道与所述隐写分析通道的特征图,并通过双线性插值法对特征提取网络中每个卷积块输出的特征图进行尺寸调整,利用如下式子:
其中,i表示第i个位置,xi表示第i个位置的特征向量,o表示原始特征图,x表示上采样后的特征图,插值权重αik取决于i和k两个相邻特征向量的位置;在所述区域建议网络RPN中使用anchor boxes生成篡改区域的候选框;对所述候选框进行前景与背景的筛选;计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa)th=log(h/ha)tx=log(x-xa)/waty=log(y-ya)/ha
其中,(x,y)表示所述预测框的中心坐标,(w,h)表示所述预测框的宽和高,(xa,ya)表示所述anchor box的中心坐标,(wa,ha)表示所述anchor box的宽和高,(tx,ty)表示所述预测框横坐标方向和纵坐标方向的位置平移尺度,(tw,ty)表示所述预测框宽和高的缩放尺度;计算标定框的缩放尺度与平移尺度,利用如下式子:
其中,(x*,y*)表示所述标定框的中心坐标,(w*,h*)表示所述标定框的宽和高,表示所述标定框横坐标方向和纵坐标方向的位置平移尺度,为所述标定框宽和高的缩放尺度;通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,并剔除太小和超出边界的建议框;计算RPN的损失函数:
其中,i表示每个锚点,gi表示每个锚中包含篡改区域的概率预测,gi*表示每个锚的真值标签,ti与ti*分别表示每个锚边界框的四个描述值及其真值,,Lcls表示两个目标(前景与背景)的交叉熵损失,Ncls表示小批量的大小,Lreg表示用于边界框回归的smoothL1损失函数,Nreg表示锚点位置的总数量,λ表示平衡参数;在所述区域建议网络RPN输出的基础上分类进行所述位置敏感区域池化操作;对所述彩色图像通道输出的信息进行计算所述预测框的缩放尺度与平移尺度后计算所述标定框的缩放尺度与平移尺度的操作,通过平移尺度与缩放尺度对检测目标进行位置修正,获取所述建议框,同时剔除太小和超出边界的所述建议框,并对边界框进行调整;对所述彩色图像通道和所述隐写分析通道的信息执行双线性池化操作,进行信息的融合,并利用融合后的信息输出篡改概率,其中,所述双线性池化操作的公式如下所示:
其中,x表示双线性池化的输出,fc表示所述彩色图像通道的位置敏感图特征,fs表示所述隐写分析通道的位置敏感图特征;计算总模型的损失函数,公式如下所所示:
Lt=LR+LC(fc,fs)+LB(fc)
其中,Lt表示所述网络模型总的损失,LR表示RPN网络损失函数,LC表示最后的交叉熵分类损失,LB表示最后的边界框回归损失;通过所述网络模型设置过的迭代次数及学习率,对所述网络模型重复训练与调整,最终得到所述网络模型的训练参数。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:在所述区域建议网络RPN输出的基础上分类进行所述位置敏感区域池化操作具体包括如下步骤,在所述区域建议网络的基础上,通过卷积在整幅图像上为每类物体生成k*k个位置敏感得分图,每个位置敏感得分图的通道数为C,其中,对于一个大小为w*h的区域候选框,会将其划分为k*k个块,则每个块的大小为w*h/k2;对任意一个块bin(i,j)执行位置敏感池化操作,其中0≤i,j≤k-1,且池化公式如下所示:
其中,rc(i,j|Θ)表示对应第C个类别块bin(i,j)的池化响应,zi,j,c表示块bin(i,j)所对应的位置敏感得分图,(x0,y0)表示每个区域候选框左上角的坐标值,Θ表示网络中所有可学习的参数;对k*k个块的池化响应rc(i,j|Θ)进行均值池化。
作为本发明所述的基于双通道网络的数字图像篡改盲检测方法的一种优选方案,其中:使用所述测试数据集对训练后的所述网络模型的性能进行测试具体包括如下步骤,采用相关评判标准,利用网络训练参数及所述测试数据集,对所述网络模型进行评判;利用所述网络训练参数,对篡改图像进行检测。
本发明的有益效果:本发明方法利用双通道网络对篡改图像多个层次的特征信息进行提取,弥补了人工设计特征较为单一的缺陷,扩大了图像篡改检测的适用面,提高了图像篡改检测的鲁棒性;采用基于R-FCN的网络架构,利用R-FCN中位置敏感得分图的设计,通过改变ROI池化层的位置来增加共享计算的层数,进而提升了模型的检测效率;采用双线性插值法对特征提取网络中特征图的输出尺寸进行调整,减少了卷积过程中细节的流失,提高了小区域篡改检测的精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明提供的基于双通道网络的数字图像篡改盲检测方法的流程示意图;
图2为本发明提供的基于双通道网络的数字图像篡改盲检测方法的网络模型结构图;
图3为本发明提供的基于双通道网络的数字图像篡改盲检测方法的残差模块结构图;
图4为本发明提供的基于双通道网络的数字图像篡改盲检测方法中的双线性插值过程示意图;
图5为本发明提供的基于双通道网络的数字图像篡改盲检测方法中的区域建议网络RPN的结构图;
图6为本发明提供的基于双通道网络的数字图像篡改盲检测方法对篡改图像的检测效果图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例1
请参阅图1,为本发明提供的基于双通道网络的数字图像篡改盲检测方法的第一个实施例:一种基于双通道网络的数字图像篡改盲检测方法,包括以下步骤,
构建训练数据集与测试数据集;
搭建包括彩色图像通道和隐写分析通道的R-FCN网络模型,并设置相应参数;
基于训练数据集对网络模型进行训练;
使用测试数据集对训练后的网络模型的性能进行测试;
利用测试后的网络模型对数字图像篡改进行盲检测。
需要注意的是:本发明整个训练和测试的过程均在Ubuntu 16.04.6系统下的深度学习开源框架TensorFlow下运行,显卡型号为Nvidia GeForce RTX 2080TI,CPU型号为Intel Core i9-9900K,CUDA版本为CUDA 10.1,cuDNN版本为cuDNN v7.5.0。
进一步的,构建训练数据集与测试数据集具体包括以下步骤,
以PASCAL VOC 2012数据集为基础,创建合成的图像篡改数据集作为网络模型的预训练数据集;
选取NIST数据集、CASIA 2.0数据集、Columbia数据集为网络模型的微调数据集;
对图像篡改数据集、NIST数据集、CASIA 2.0数据集以及Columbia数据集分别进行训练数据集与测试数据集的构建,构建情况如表1所示。
训练数据集与测试数据集的构建
表1
具体的,构建预训练数据集具体包括如下步骤,
顺序选择PASCAL VOC 2012数据集中的一张图片作为原始图片;
随机在PASCAL VOC 2012数据集中选择一张除原始图片外的一张图片为待处理图片;
读取待处理图片对应的真值掩膜图片中所有目标的真值掩膜,并随机选取一类目标的真值掩膜;
根据真值掩膜图片中选取的真值掩膜,读取待处理图片中对应选取真值掩膜的区域;
将此区域从待处理图片中截取,并粘贴至原始图片的随机位置上,形成合成图片;
从PASCAL VOC 2012数据集的Annotations文件夹中读取待处理图片对应的xml文件,读出上述选取的一类目标所对应的边界框位置信息;
根据读出的边界框位置信息以及合成图片中粘贴区域的位置,修改原始图片对应的xml文件,修改检测类别为“tamper”,将原始图片中的边界框位置信息修改为合成图片中粘贴区域的位置信息,并将修改后的xml文件作为合成图片所对应的xml文件;
将PASCAL VOC 2012数据集中每一张图片均循环上述步骤,创建出合成的图像篡改数据集;
其中,位置信息为边界框左上角坐标及右下角坐标。
其中,需要说明的是,在PASCAL VOC 2012数据集中提到的xml后缀文件,包含了对应图片的信息,将其打开后,由于该数据集最初是用作图片中物体的识别、检测和分类,如目标为person(人),用此数据集对模型进行训练,最终就会检测出图片中包含person的区域,在将PASCAL VOC 2012数据集转换为合成的图像篡改数据集时,用来训练模型的最终目的是为了检测出图片中的篡改区域,所以我们将合成区域的物体类别改为tamper(篡改),用合成数据集对模型进行训练,最终就会检测出图片中篡改的区域。
进一步的,搭建网络模型具体包括以下步骤,
对彩色图像通道和隐写分析通道的特征提取部分分别进行特征提取,并对特征提取部分中每个卷积块生成的特征图通过双线性插值法进行尺寸调整;
将彩色图像通道输出的特征图作为区域建议网络RPN的输入,其中,该网络一部分进行锚的生成和前景与背景的筛选,另一部分进行候选框的微调,区域建议网络RPN的结构如图5所示;
接受彩色图像通道的输出、隐写分析通道的输出和区域建议网络RPN的输出为位置敏感区域池化部分的输入,包括一个用于降维的1x1x1024的卷积层,一个生成k2*(C+1)维位置敏感得分图的卷积层以及对位置敏感得分图进行池化操作的池化层;
对位置敏感区域池化部分进行双线性回归,包含一个对来自双通道信息进行组合的池化层,最终分类须使用组合后的信息,而边界框的回归仅使用彩色图像通道的信息。
其中,彩色图像通道的特征提取部分为ResNet101的conv1,conv2_x,conv3_x,conv4_x,用来对RGB图像进行特征提取;隐写分析通道的特征提取部分,包括SRM滤波器层和ResNet101的conv1,conv2_x,conv3_x,conv4_x,用来对噪声图像进行特征提取,其中,SRM滤波器层的参数如下所示:
需要说明的是:
①ResNet101作为模型的骨干网络,它的基本组成单位是残差学习模块,其结构如图3所示,这种结构不仅可以将原始的输入通过卷积层与非线性函数映射到下一层,还允许原始的输入信息直接映射到后面的层,通过这种连接方式实现残差网络结构输入与输出的加叠,在减少计算量的同时,缓解了网络层数的增加造成的梯度消失现象;
②特征提取部分中每个卷积块生成的特征图使用双线性插值法进行尺寸调整,其过程示意图如图4所示,通过将特征提取网络中每一个堆叠卷积层输出的特征图调整为更大尺寸,来缓解检测中小目标信息缺失的问题;
③搭建的基于双通道R-FCN的网络模型的结构如图2所示;
④根据模型与数据集,设置模型的相关参数:学习率设置为0.0001,最大迭代次数为110000次,将输入图像的短边调整为600像素,在区域建议网络RPN部分,将4个锚的尺寸分别设置为82,162,322,642,并将长宽比分别设置为1:2,1:1以及2:1,将区域建议网络RPN中用于判断正样本(可能为篡改区域)的IOU阈值设置为0.7,负样本设置为0.3,非极大值抑制的阈值设置为0.3;
⑤在模型的隐写分析通道,需要对RGB图像进行隐写分析操作,空间富模型(spatial rich models,SRM)是一种高效的隐写方法,此处将其设计为预处理层,作为模型的一部分。
进一步的,基于训练数据集对网络模型进行训练具体包括如下步骤,
使用ResNet 101网络在ImageNet数据集上的预训练权重参数对网络模型进行初始化;
使用PASCAL VOC 2012数据集中的图像对网络模型进行预训练;
使用图像篡改数据集中的图像对网络模型进行微调训练。
具体的,使用PASCAL VOC 2012中的图像对网络模型进行预训练具体包括如下步骤,
将PASCAL VOC 2012数据集中的图像输入网络模型,通过特征提取部分的网络结构提取出彩色图像通道与隐写分析通道的特征图,并通过双线性插值法对特征提取网络中每个卷积块输出的特征图进行尺寸调整,利用如下式子:
其中,i表示第i个位置,xi表示第i个位置的特征向量,o表示原始特征图,x表示上采样后的特征图,插值权重αik取决于i和k两个相邻特征向量的位置;
在区域建议网络RPN中使用anchor boxes生成篡改区域的候选框;
对候选框进行前景与背景的筛选;
计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa)th=log(h/ha)tx=log(x-xa)/waty=log(y-ya)/ha
其中,(x,y)表示所述预测框的中心坐标,(w,h)表示所述预测框的宽和高,(xa,ya)表示所述anchor box的中心坐标,(wa,ha)表示所述anchor box的宽和高,(tx,ty)表示预测框横坐标方向和纵坐标方向的位置平移尺度,(tw,ty)表示预测框宽和高的缩放尺度;
计算标定框的缩放尺度与平移尺度,利用如下式子:
通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,并剔除太小和超出边界的建议框;
计算RPN的损失函数:
其中,i表示每个锚点,gi表示每个锚中包含篡改区域的概率预测,gi*表示每个锚的真值标签,ti与ti*分别表示每个锚边界框的四个描述值及其真值,用来表示锚的偏移量,Lcls表示两个目标(前景与背景)的交叉熵损失,Ncls表示小批量的大小,Lreg表示用于边界框回归的smooth L1损失函数,Nreg表示锚点位置的总数量,λ表示平衡参数,用来平衡两种损失函数;
在区域建议网络RPN输出的基础上分类进行位置敏感区域池化操作;
对彩色图像通道输出的信息进行计算预测框的缩放尺度与平移尺度后计算标定框的缩放尺度与平移尺度的操作,通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,同时剔除太小和超出边界的建议框,并对边界框进行调整;
对彩色图像通道和隐写分析通道的信息执行双线性池化操作,进行信息的融合,并利用融合后的信息输出篡改概率,其中,双线性池化操作的公式如下所示:
其中,x表示双线性池化的输出,fc表示彩色图像通道的位置敏感图特征,fs表示隐写分析通道的位置敏感图特征;
计算总模型的损失函数,公式如下所示:
Lt=LR+LC(fc,fs)+LB(fc)
其中,Lt表示网络模型总的损失,LR表示RPN网络损失函数,LC表示最后的交叉熵分类损失,它是由经过双线性池化层的双通道特征fc与fs共同决定的,LB表示最后的边界框回归损失,仅由来自彩色图像通道的特征fc决定;
通过网络模型设置过的迭代次数及学习率,对网络模型重复训练与调整,最终得到网络模型的训练参数。
其中,在区域建议网络RPN输出的基础上分类进行位置敏感区域池化操作具体包括如下步骤,
在区域建议网络的基础上,通过卷积在整幅图像上为每类物体生成k*k个位置敏感得分图,每个位置敏感得分图的通道数为C(代表C-1类的物体加1个背景),其中,对于一个大小为w*h的区域候选框,会将其划分为k*k个块,则每个块的大小为w*h/k2;
其中,rc(i,j|Θ)表示对应第C个类别块bin(i,j)的池化响应,zi,j,c表示块bin(i,j)所对应的位置敏感得分图,(x0,y0)表示每个区域候选框左上角的坐标值,Θ表示网络中所有可学习的参数,随后对k*k个块的池化响应rc(i,j|Θ)进行均值池化。
需要注意的是:在区域建议网络RPN输出的基础上进行位置敏感区域池化操作,彩色图像通道与隐写分析通道执行的位置敏感区域池化操作相同。
更进一步的,使用测试数据集对训练后的网络模型的性能进行测试具体包括如下步骤,
采用相关评判标准,利用网络训练参数及测试数据集,对网络模型进行评判;
利用网络训练参数,对篡改图像进行检测。
需要注意的是:
①评估指标如下所示:
平均精度AP,其计算公式如下所示:
其中,N表示测试集中所有图像的个数,p(k)表示识别出k张图像时的精度值,Δr(k)表示识别图像数量从k-1张变化到k张时的召回率的变化量。
检测速率Fps,表示每秒钟检测器处理图片的张数,它可以很好地评估模型在速度上的提升。
为了验证基于双通道R-FCN的图像篡改检测方法在精度与速度上的提升,我们在NIST数据集、CASIA 2.0数据集、Columbia数据集三个图像测试数据集上,与CFA1、Tam-D、J-Conv-LSTM、RGB-N四种模型进行了对比实验,对比结果如表2所示。
不同模型间平均精度与速率对比
模型 | NIST | CASIA 2.0 | Columbia | Rate |
CFA1 | 20.37% | 51.29% | 27.95% | 0.2fps |
Tam-D | - | 72.30% | 79.12% | 1.7fps |
J-Conv-LSTM | 81.93% | 78.42% | 78.61% | 2fps |
RGB-N | 94.16% | 87.27% | 80.53% | 4fps |
本文模型 | 95.29% | 89.63% | 83.74% | 9fps |
表2
其中2,3,4列分别为模型在3个标准数据集上的平均精度得分,第5列表示模型的速率,从表中可以看出基于深度学习的篡改检测方法要明显优于传统的篡改检测方法,如CFA1,这是因为传统方法采用人工设计的特征,它更加专注于特定的篡改手段,面对多样的篡改图像,反而会限制它的性能,本文的模型在三个数据集上都要优于Tam-D模型,J-Conv-LSTM模型更多关注篡改区域的边缘信息,而本文模型考虑的篡改信息更加丰富,这也使本文模型的性能要优于J-Conv-LSTM,与RGB-N模型相比,本文模型使用R-FCN对主干网络进行重建,增加了共享参数的网络层数,从而提高了检测速率,并通过双线性插值法对特征提取网络进行设计,提高小面积篡改区域的检测率,这也使得模型总的准确率有了一定提升。
②利用网络训练参数,对篡改图像进行检测,篡改图像检测效果图如图6所示。
其中,图中第一行是对复制移动方式篡改图像的检测,图片取自CASIA2.0数据集;第二行是对拼接方式篡改图像的检测,图片取自Columbia数据集;第三行是对移除方式篡改图像的检测,图片取自CASIA2.0数据集;第四行是针对小区域篡改图像的检测,图片取自COCO数据集的合成图像,COCO数据集是是由微软公司创建的,用于物体检测与分割的大型数据集;第一列到第三列分别为真实图像、篡改图像、本文模型检测效果图。
需要说明的是:
①PASCAL VOC 2012数据集是一套标准的图像数据集,用于图片中物体的识别、检测和分类,该数据集包含20类物体,并且每张图片都进行了标注,该数据集由5个文件夹构成,分别为Annotations文件夹、ImageSets文件夹、JPEGImages文件夹、SegmentationClass文件夹、SegmentationObject文件夹。其中,Annotations文件夹中存放的是xml后缀的文件,xml后缀的文件为图片的标注信息,主要介绍了对应图片的信息,如来自那个文件夹、文件名、来源、图像尺寸以及图像中包含哪些目标以及目标的信息等等,每一个xml文件与数据集中的每一张图片一一对应,对图片作出解释;
②NIST数据集是一套标准的篡改图像数据集,该数据集中提供复制移动,拼接,移除三种篡改手段的图像,并提供真值掩膜图像用于模型的评估;
③CASIA 2.0数据集是一套标准的篡改图像数据集,该数据集中包含复制移动,拼接,移除三种篡改手段的图像,除了对篡改区域进行过精心选择外,还通过预处理对篡改痕迹进行掩盖,并提供真值掩膜图像用于模型的评估;
④Columbia数据集是一套标准的篡改图像数据集,该数据集侧重于提供未压缩图像的拼接篡改图像,并提供真值掩膜图像用于模型的评估;
⑤ResNet101是一种卷积神经网络,它由各种卷积层构成,本发明把用于特征提取的4个卷积层分别称为conv1,conv2_x,conv3_x,conv4_x;RGB图像又称为真彩图像,它使用R、G、B 3个分量标识一个像素的颜色,R、G、B分别代表红、绿、蓝3种不同的基础颜色,通过3基色可以合成出任意颜色;ImageNet是一个计算机视觉系统识别项目,是目前世界上图像识别最大的数据集。是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。能够从图片识别物体。超过1400万的图像被ImageNet手动注释,以指示图片中的对象,在至少一百万个图像中,还提供了边界框信息,包含2万多个类别;RPN网络(Region Proposal Network)是用来生成候选框,找出可能篡改区域。RPN网络将特征提取网络输出的特征图作为输入,使用锚(anchors)机制生成区域候选框,这里生成的区域候选框称为anchor boxes;损失函数(loss function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。smooth L1损失函数是一种优秀的损失函数,相比于L1损失函数,它可以收敛得更快;相比于L2损失函数,对离群点、异常值不敏感,梯度变化相对更小,训练时不容易梯度爆炸;CFA1是一种图像篡改检测模型,采用彩色滤波阵列模式估计,将图像中邻近像素模拟为相机的滤波器阵列,据此判断每个像素被篡改的概率;Tam-D是一种图像篡改检测模型,利用卷积神经网络对不同相机模型在图片上遗留的痕迹进行检测。根据不同相机遗留噪声的不一致性,实现篡改区域的定位;J-Conv-LSTM是一种图像篡改检测模型,提出一个统一的深度学习框架,将块的标签与像素分割进行联合训练。通过块的分类发现可能被篡改的像素,通过像素分割判断图像块是否发生过篡改;RGB-N是一种图像篡改检测模型,基于Faster R-CNN的双流篡改检测网络,通过RGB流与噪声流的融合来实现检测精度的提升;R-FCN是一种目标检测模型,该模型移除了全连接层,只保留可学习的卷积层,这样可以进行端对端的训练,而且全卷积网络的设计提高了共享计算的网络层数,模型的效率得到大幅地提升。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于双通道网络的数字图像篡改盲检测方法,其特征在于:包括以下步骤,
构建训练数据集与测试数据集;
搭建包括彩色图像通道和隐写分析通道的R-FCN网络模型,并设置相应参数;
基于所述训练数据集对所述网络模型进行训练;
使用所述测试数据集对训练后的所述网络模型的性能进行测试;
利用测试后的所述网络模型对数字图像篡改进行盲检测。
2.根据权利要求1所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:构建所述训练数据集与所述测试数据集具体包括以下步骤,
以PASCAL VOC 2012数据集为基础,创建合成的图像篡改数据集为所述网络模型的预训练数据集;
选取NIST数据集、CASIA 2.0数据集、Columbia数据集为所述网络模型的微调数据集;
对所述图像篡改数据集、所述NIST数据集、所述CASIA 2.0数据集以及所述Columbia数据集分别进行所述训练数据集与所述测试数据集的构建。
3.根据权利要求2所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:构建所述预训练数据集具体包括如下步骤,
顺序选择所述PASCAL VOC 2012数据集中的一张图片为原始图片;
随机在所述PASCAL VOC 2012数据集中选择一张除所述原始图片外的一张图片为待处理图片;
读取所述待处理图片对应的真值掩膜图片中所有目标的真值掩膜,并随机选取一类目标的所述真值掩膜;
根据所述真值掩膜图片中选取的所述真值掩膜,读取所述待处理图片中对应选取所述真值掩膜的区域;
将所述区域从所述待处理图片中截取,并粘贴至所述原始图片的随机位置上,形成合成图片;
从所述PASCAL VOC 2012数据集的Annotations文件夹中读取所述待处理图片对应的xml文件,读出选取的所述一类目标所对应的边界框位置信息;
根据读出的所述边界框位置信息以及所述合成图片中粘贴所述区域的位置,修改所述原始图片对应的xml文件,修改检测类别为“tamper”,将所述原始图片中的所述边界框位置信息修改为所述合成图片中粘贴所述区域的位置信息,并将修改后的xml文件作为所述合成图片所对应的xml文件;
将所述PASCAL VOC 2012数据集中每一张图片循环上述步骤,创建出合成的所述图像篡改数据集;
其中,所述位置信息为边界框左上角坐标及右下角坐标。
4.根据权利要求1所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:搭建所述网络模型具体包括以下步骤,
对所述彩色图像通道和所述隐写分析通道的特征提取部分分别进行特征提取,并对所述特征提取部分中每个卷积块生成的特征图通过双线性插值法进行尺寸调整;
将所述彩色图像通道输出的特征图作为区域建议网络RPN的输入;
接受所述彩色图像通道的输出、所述隐写分析通道的输出和所述区域建议网络RPN的输出为位置敏感区域池化部分的输入;
对所述位置敏感区域池化部分进行双线性回归。
5.根据权利要求1所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:基于所述训练数据集对所述网络模型进行训练具体包括如下步骤,
使用ResNet 101网络在ImageNet数据集上的预训练权重参数对所述网络模型进行初始化;
使用所述PASCAL VOC 2012数据集中的图像对所述网络模型进行预训练;
使用所述图像篡改数据集中的图像对所述网络模型进行微调训练。
6.根据权利要求5所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:使用所述PASCAL VOC 2012中的图像对所述网络模型进行预训练具体包括如下步骤,
将所述PASCAL VOC 2012数据集中的图像输入所述网络模型,通过所述特征提取部分的网络结构提取出所述彩色图像通道与所述隐写分析通道的特征图,并通过双线性插值法对特征提取网络中每个卷积块输出的特征图进行尺寸调整,利用如下式子:
其中,i表示第i个位置,xi表示第i个位置的特征向量,o表示原始特征图,x表示上采样后的特征图,插值权重αik取决于i和k两个相邻特征向量的位置;
在所述区域建议网络RPN中使用anchor boxes生成篡改区域的候选框;
对所述候选框进行前景与背景的筛选;
计算预测框的缩放尺度与平移尺度,利用如下式子:
tw=log(w/wa)th=log(h/ha)tx=log(x-xa)/wa ty=log(y-ya)/ha
其中,(x,y)表示所述预测框的中心坐标,(w,h)表示所述预测框的宽和高,(xa,ya)表示所述anchor box的中心坐标,(wa,ha)表示所述anchor box的宽和高,(tx,ty)表示所述预测框横坐标方向和纵坐标方向的位置平移尺度,(tw,ty)表示所述预测框宽和高的缩放尺度;
计算标定框的缩放尺度与平移尺度,利用如下式子:
通过平移尺度与缩放尺度对检测目标进行位置修正,获取建议框,并剔除太小和超出边界的建议框;
计算RPN的损失函数:
其中,i表示每个锚点,gi表示每个锚中包含篡改区域的概率预测,gi*表示每个锚的真值标签,ti与ti*分别表示每个锚边界框的四个描述值及其真值,Lcls表示两个目标(前景与背景)的交叉熵损失,Ncls表示小批量的大小,Lreg表示用于边界框回归的smooth L1损失函数,Nreg表示锚点位置的总数量,λ表示平衡参数;
在所述区域建议网络RPN输出的基础上分类进行所述位置敏感区域池化操作;
对所述彩色图像通道输出的信息进行计算所述预测框的缩放尺度与平移尺度后计算所述标定框的缩放尺度与平移尺度的操作,通过平移尺度与缩放尺度对检测目标进行位置修正,获取所述建议框,同时剔除太小和超出边界的所述建议框,并对边界框进行调整;
对所述彩色图像通道和所述隐写分析通道的信息执行双线性池化操作,进行信息的融合,并利用融合后的信息输出篡改概率,其中,所述双线性池化操作的公式如下所示:
其中,x表示双线性池化的输出,fc表示所述彩色图像通道的位置敏感图特征,fs表示所述隐写分析通道的位置敏感图特征;
计算总模型的损失函数,公式如下所所示:
Lt=LR+LC(fc,fs)+LB(fc)
其中,Lt表示所述网络模型总的损失,LR表示RPN网络损失函数,LC表示最后的交叉熵分类损失,LB表示最后的边界框回归损失;
通过所述网络模型设置过的迭代次数及学习率,对所述网络模型重复训练与调整,最终得到所述网络模型的训练参数。
7.根据权利要求6所述的基于双通道网络的数字图像篡改盲检测方法,其特征在于:在所述区域建议网络RPN输出的基础上分类进行所述位置敏感区域池化操作具体包括如下步骤,
在所述区域建议网络的基础上,通过卷积在整幅图像上为每类物体生成k*k个位置敏感得分图,每个位置敏感得分图的通道数为C,其中,对于一个大小为w*h的区域候选框,会将其划分为k*k个块,则每个块的大小为w*h/k2;
对任意一个块bin(i,j)执行位置敏感池化操作,其中0≤i,j≤k-1,且池化公式如下所示:
其中,rc(i,j|Θ)表示对应第C个类别块bin(i,j)的池化响应,zi,j,c表示块bin(i,j)所对应的位置敏感得分图,(x0,y0)表示每个区域候选框左上角的坐标值,Θ表示网络中所有可学习的参数;
对k*k个块的池化响应rc(i,j|Θ)进行均值池化。
8.一种基于双通道网络的数字图像篡改盲检测方法,其特征在于:使用所述测试数据集对训练后的所述网络模型的性能进行测试具体包括如下步骤,
采用相关评判标准,利用网络训练参数及所述测试数据集,对所述网络模型进行评判;
利用所述网络训练参数,对篡改图像进行检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911241250.3A CN110992238B (zh) | 2019-12-06 | 2019-12-06 | 一种基于双通道网络的数字图像篡改盲检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911241250.3A CN110992238B (zh) | 2019-12-06 | 2019-12-06 | 一种基于双通道网络的数字图像篡改盲检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992238A true CN110992238A (zh) | 2020-04-10 |
CN110992238B CN110992238B (zh) | 2023-10-17 |
Family
ID=70090799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911241250.3A Active CN110992238B (zh) | 2019-12-06 | 2019-12-06 | 一种基于双通道网络的数字图像篡改盲检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992238B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783608A (zh) * | 2020-06-24 | 2020-10-16 | 南京烽火星空通信发展有限公司 | 一种换脸视频检测方法 |
CN111986179A (zh) * | 2020-08-21 | 2020-11-24 | 中国科学技术大学 | 脸部篡改图像检测器 |
CN112102261A (zh) * | 2020-08-28 | 2020-12-18 | 国网甘肃省电力公司电力科学研究院 | 一种基于多尺度生成对抗网络的篡改图像检测方法 |
CN112116585A (zh) * | 2020-09-28 | 2020-12-22 | 苏州科达科技股份有限公司 | 图像移除篡改盲检测方法、系统、设备及存储介质 |
CN112116565A (zh) * | 2020-09-03 | 2020-12-22 | 深圳大学 | 篡改翻拍图像的对抗样本生成方法、设备及存储介质 |
CN112381775A (zh) * | 2020-11-06 | 2021-02-19 | 厦门市美亚柏科信息股份有限公司 | 一种图像篡改检测方法、终端设备及存储介质 |
CN112750122A (zh) * | 2021-01-21 | 2021-05-04 | 山东省人工智能研究院 | 基于双流边界感知神经网络的图像篡改区域定位方法 |
CN113033379A (zh) * | 2021-03-18 | 2021-06-25 | 贵州大学 | 一种基于双流cnn的帧内取证深度学习方法 |
CN113436287A (zh) * | 2021-07-05 | 2021-09-24 | 吉林大学 | 一种基于lstm网络与编解码网络的篡改图像盲取证方法 |
CN113901247A (zh) * | 2021-10-09 | 2022-01-07 | 上海脉衍人工智能科技有限公司 | 一种光学图像目标检测的方法及计算设备 |
CN115953453A (zh) * | 2023-03-03 | 2023-04-11 | 国网吉林省电力有限公司信息通信公司 | 基于图像错位分析和北斗卫星的变电站地质形变监测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003005291A1 (en) * | 2001-07-02 | 2003-01-16 | Digimarc Corporation | Hiding information out-of-phase in color channels |
CN103914839A (zh) * | 2014-03-27 | 2014-07-09 | 中山大学 | 一种基于隐写分析的图像拼接篡改检测方法及装置 |
CN106504179A (zh) * | 2016-10-31 | 2017-03-15 | 重庆邮电大学 | 一种基于边缘检测的灰度图像隐写方法 |
CN109766884A (zh) * | 2018-12-26 | 2019-05-17 | 哈尔滨工程大学 | 一种基于Faster-RCNN的机场跑道异物检测方法 |
CN109816585A (zh) * | 2019-01-28 | 2019-05-28 | 深圳大学 | 一种基于深度学习的数字图像隐写分析方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
-
2019
- 2019-12-06 CN CN201911241250.3A patent/CN110992238B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003005291A1 (en) * | 2001-07-02 | 2003-01-16 | Digimarc Corporation | Hiding information out-of-phase in color channels |
CN103914839A (zh) * | 2014-03-27 | 2014-07-09 | 中山大学 | 一种基于隐写分析的图像拼接篡改检测方法及装置 |
CN106504179A (zh) * | 2016-10-31 | 2017-03-15 | 重庆邮电大学 | 一种基于边缘检测的灰度图像隐写方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN109766884A (zh) * | 2018-12-26 | 2019-05-17 | 哈尔滨工程大学 | 一种基于Faster-RCNN的机场跑道异物检测方法 |
CN109816585A (zh) * | 2019-01-28 | 2019-05-28 | 深圳大学 | 一种基于深度学习的数字图像隐写分析方法 |
Non-Patent Citations (1)
Title |
---|
周国帅;田秀霞;徐曼: "用于PS图像检测的特征提取算法研究", 2019年上海市\"智能计算与智能电网\"研究生学术论坛 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783608B (zh) * | 2020-06-24 | 2024-03-19 | 南京烽火星空通信发展有限公司 | 一种换脸视频检测方法 |
CN111783608A (zh) * | 2020-06-24 | 2020-10-16 | 南京烽火星空通信发展有限公司 | 一种换脸视频检测方法 |
CN111986179B (zh) * | 2020-08-21 | 2021-07-06 | 中国科学技术大学 | 脸部篡改图像检测器 |
CN111986179A (zh) * | 2020-08-21 | 2020-11-24 | 中国科学技术大学 | 脸部篡改图像检测器 |
CN112102261A (zh) * | 2020-08-28 | 2020-12-18 | 国网甘肃省电力公司电力科学研究院 | 一种基于多尺度生成对抗网络的篡改图像检测方法 |
CN112116565A (zh) * | 2020-09-03 | 2020-12-22 | 深圳大学 | 篡改翻拍图像的对抗样本生成方法、设备及存储介质 |
CN112116565B (zh) * | 2020-09-03 | 2023-12-05 | 深圳大学 | 篡改翻拍图像的对抗样本生成方法、设备及存储介质 |
CN112116585A (zh) * | 2020-09-28 | 2020-12-22 | 苏州科达科技股份有限公司 | 图像移除篡改盲检测方法、系统、设备及存储介质 |
CN112381775A (zh) * | 2020-11-06 | 2021-02-19 | 厦门市美亚柏科信息股份有限公司 | 一种图像篡改检测方法、终端设备及存储介质 |
CN112381775B (zh) * | 2020-11-06 | 2023-02-21 | 厦门市美亚柏科信息股份有限公司 | 一种图像篡改检测方法、终端设备及存储介质 |
CN112750122A (zh) * | 2021-01-21 | 2021-05-04 | 山东省人工智能研究院 | 基于双流边界感知神经网络的图像篡改区域定位方法 |
CN113033379A (zh) * | 2021-03-18 | 2021-06-25 | 贵州大学 | 一种基于双流cnn的帧内取证深度学习方法 |
CN113436287A (zh) * | 2021-07-05 | 2021-09-24 | 吉林大学 | 一种基于lstm网络与编解码网络的篡改图像盲取证方法 |
CN113436287B (zh) * | 2021-07-05 | 2022-06-24 | 吉林大学 | 一种基于lstm网络与编解码网络的篡改图像盲取证方法 |
CN113901247A (zh) * | 2021-10-09 | 2022-01-07 | 上海脉衍人工智能科技有限公司 | 一种光学图像目标检测的方法及计算设备 |
CN115953453A (zh) * | 2023-03-03 | 2023-04-11 | 国网吉林省电力有限公司信息通信公司 | 基于图像错位分析和北斗卫星的变电站地质形变监测方法 |
CN115953453B (zh) * | 2023-03-03 | 2023-08-15 | 国网吉林省电力有限公司信息通信公司 | 基于图像错位分析和北斗卫星的变电站地质形变监测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110992238B (zh) | 2023-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992238A (zh) | 一种基于双通道网络的数字图像篡改盲检测方法 | |
CN109583483B (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN112084869B (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
CN111179229A (zh) | 一种基于深度学习的工业ct缺陷检测方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
JP2006350704A (ja) | 判別器の学習方法、顔判別方法および装置並びにプログラム | |
US20210166015A1 (en) | Certificate image extraction method and terminal device | |
CN105809146A (zh) | 一种图像场景识别方法和装置 | |
CN103186894B (zh) | 一种自适应分块的多聚焦图像融合方法 | |
CN110084309B (zh) | 特征图放大方法、装置和设备及计算机可读存储介质 | |
EP2613294A1 (en) | System and method for synthesizing portrait sketch from photo | |
CN110826411B (zh) | 一种基于无人机图像的车辆目标快速识别方法 | |
CN108710893A (zh) | 一种基于特征融合的数字图像相机源模型分类方法 | |
CN111738133A (zh) | 模型训练方法、目标检测方法、装置、电子设备及可读存储介质 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
CN110084284A (zh) | 基于区域卷积神经网络的目标检测与二级分类算法及装置 | |
CN113065598A (zh) | 一种绝缘子识别模型的获取方法、装置及计算机设备 | |
CN113569788A (zh) | 一种建筑物语义分割网络模型训练方法、系统及应用方法 | |
CN112308040A (zh) | 一种基于高清图像的河流排污口检测方法及系统 | |
CN102509299B (zh) | 基于视觉注意机制的图像显著区域检测方法 | |
CN113609944A (zh) | 一种静默活体检测方法 | |
CN113205502A (zh) | 一种基于深度学习的绝缘子缺陷检测方法及其系统 | |
CN115953330B (zh) | 虚拟场景图像的纹理优化方法、装置、设备和存储介质 | |
CN111178275A (zh) | 一种基于卷积神经网络的火灾检测方法 | |
CN106469437B (zh) | 图像处理方法和图像处理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |