CN114549481A - 一种融合深度和宽度学习的深度伪造图像检测方法 - Google Patents
一种融合深度和宽度学习的深度伪造图像检测方法 Download PDFInfo
- Publication number
- CN114549481A CN114549481A CN202210177248.XA CN202210177248A CN114549481A CN 114549481 A CN114549481 A CN 114549481A CN 202210177248 A CN202210177248 A CN 202210177248A CN 114549481 A CN114549481 A CN 114549481A
- Authority
- CN
- China
- Prior art keywords
- image
- features
- att
- attention
- frequency domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 238000001228 spectrum Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000844 transformation Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 11
- 230000007246 mechanism Effects 0.000 abstract description 3
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 9
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 9
- 238000010276 construction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明为一种融合深度和宽度学习的深度伪造图像检测方法,首先将待检测图像转换为灰度图像并分割为两组图像块,提取每个图像块的中心化频域幅度谱并对其施加注意力机制,再对两组图像块进行通道连接,得到初级特征;其次,构建通道卷积自编码模块,利用预训练的通道卷积自编码模块的编码器对初级特征进行特征融合得到两个中级特征,分别作为特征映射流和特征增强流的输入,得到两个映射特征和增强特征;最后,根据宽度学习系统原理构建三个分类器,将三个分类器的输出结果进行加权平均,得到最终的检测结果。本方法对图像块施加注意力机制,可以从全局信息中关注篡改痕迹明显的区域,模型训练所需的数据和时间少,实现了准确度和效率的兼顾。
Description
技术领域
本发明属于伪造图像检测技术领域,具体是一种融合深度和宽度学习的深度伪造图像检测方法。
背景技术
随着计算机技术的发展,通过人工智能(Artificial Intelligence,AI)、ProGAN、AttGAN等技术篡改或合成图像越来越容易,通过这些方式获得的图像被称作深度伪造图像,目前深度伪造图像已经达到以假乱真的水平,对安全领域存在较大威胁。
目前普遍使用VGG、DenseNet、Xception等经典的深度学习模型检测深度伪造图像,深度学习模型虽然在单一数据集上已经取得良好的检测效果,随着检测性能的提升也带来了参数量和数据需求的骤增,对于不同种类的图像检测都需要重新训练模型,重新训练的时间和计算成本较高。
深度学习模型的不足促使学者将使用非深度方法进行图像检测。Luca等2020年在《IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops》上发表的论文“DeepFake Detection byAnalyzing Convolutional Traces”中,依据GAN生成器的转置卷积层对局部像素分布所造成的影响,使用聚类算法求解出一个具有足够区分度的滤波器,利用该滤波器来提取局部像素之间的关系,即卷积痕迹,并以此作为特征来检测深度伪造图像。Chen等人2021年在《IEEE International Conference on Multimedia andExpo》上发表的论文“DefakeHop:ALight-Weight High-Performance DeepfakeDetector””中,将人脸图像分块后使用多个Pixelhop++模块分别对人脸局部区域进行特征提取并降维,然后将各区域集成并分类。
在特征提取方面,目前大部分的检测方法以图像中的篡改区域伪影为特征,通过抑制图像内容、分区域提取局部特征、将图像转换至频域等方法来增强特征提取能力。随着深度伪造技术的不断发展,使得深度伪造图像越来越精细,像素内容中留下的篡改痕迹越来越少,且伪影线索可通过后处理,如高斯模糊进行消除。此外,Yu等人2019年发表在《IEEE/CVF International Conference on Computer Vision》上的论文“AttributingFake Images to GANs:Learning andAnalyzing GAN Fingerprints”分析了利用GAN指纹进行深度伪造图像检测的可能性。现有的基于GAN指纹的特征提取方法包括检测GAN的转置卷积层对局部像素的影响、提取GAN指纹之后进行聚类等。大部分基于GAN指纹的特征提取方法主要依赖于GAN生成器的结构,使得检测模型在参与训练的特定伪造图像上过拟合,而无法处理未知的生成器生成的伪造图像,特征表示能力和方法泛化性较差。
发明内容
针对现有技术的不足,本发明所要解决的技术问题是,提供一种融合深度和宽度学习的深度伪造图像检测方法。
本发明解决所述技术问题所采用的技术方案如下:
一种融合深度和宽度学习的深度伪造图像检测方法,其特征在于,该方法包括以下步骤:
第一步、获取待检测图像,将待检测图像转换为大小为256*256像素的灰度图像;
第二步、利用频域特征提取模块提取待检测图像的初级特征;
2-1将灰度图像进行两次分割,得到两个图像块组A和A′,图像块组A={a1,a2,…,a256}包含256个大小为16*16像素的图像块ai,i=1,2,…,256;图像块组A′={a′1,a′2,…,a′64}包含64个大小为32*32像素的图像块a′j,j=1,2,…,64;对于每个图像块,通过快速傅里叶变换得到频域幅度谱,再对频域幅度谱进行中心化处理,得到图像块的中心化频域幅度谱;
2-2对灰度图像进行全局快速傅里叶变换,再对频域幅度谱进行中心化处理,得到灰度图像的中心化频域幅度谱;对灰度图像的中心化频域幅度谱进行高通滤波,对高通滤波后的中心化频域幅度谱进行逆快速傅里叶变换和去中心化处理,将中心化频域幅度谱映射至空域,最后通过非线性函数对映射至空域的中心化频域幅度谱进行归一化处理,得到全局高频注意力图;
2-3对全局高频注意力图进行分割,得到两个局部注意力块组Att和Att′,局部注意力块组Att={Att1,Att2,…,Att256}包含256个局部注意力块Atti,局部注意力块组Att′={Att′1,Att′2,…,Att′64}包含64个局部注意力块Att′j,局部注意力块与步骤2-1中的图像块一一对应;对所有的局部注意力块Atti和Att′j进行中值池化操作,得到各个图像块的注意力系数;再将注意力系数与对应图像块的中心化频域幅度谱相乘,得到施加注意力后的图像块;
通过最大值池化操作将所有施加注意力的图像块的大小调整为16*16像素,得到归一化后的图像块;将所有归一化后的图像块与所有施加注意力的图像块进行通道连接,得到初级特征;
第四步、根据式(12)、(13)分别将中级特征和进行向量展平操作,得到两个一维向量fm和fe;根据式(14)、(15)对一维向量fm进行两次线性变换,得到两个映射特征和根据式(16)、(17)的Sigmoid函数对一维向量fe进行两次处理,得到增强特征和
式中,flatten(·)表示向量展平操作,分别表示权重矩阵W1的第r1列和偏置向量β1的第r1个分量,r1=1,2,…,R1;分别表示权重矩阵W2的第r2列和偏置向量β2的第r2个分量,r2=1,2,…,R2;分别表示权重矩阵W3的第r3列和偏置向量β3的第r3个分量,r3=1,2,…,R3;分别表示权重矩阵W4的第r4列和偏置向量β4的第r4个分量,r4=1,2,…,R4;W1、W2、W3和W4均为随机生成的权重矩阵,β1、β2、β3和β4均为随机生成的偏置向量,R1、R2分别为映射特征和的维度,R3、R4分别为增强特征和的维度;
第五步、通过宽度学习系统原理构建三个分类器;从两个映射特征中任选一个映射特征以及从两个增强特征中任选一个增强特征进行拼接,得到拼接特征;将拼接特征、剩余的映射特征和增强特征作为三个分类器的输入,计算各个分类器输出层的权重矩阵;将每个分类器输出层的权重矩阵与该分类器的输入相乘,得到该分类器的输出结果;最后将三个分类器的输出结果进行加权平均,得到最终的检测结果;
至此完成深度伪造图像的检测。
与现有技术相比,本发明所具有的突出实质性特点和显著进步如下:
(1)为了使模型更加容易检测到篡改痕迹,本发明首先将图像分割为多个图像块。由于深度伪造图像在高频区域的纹理特征明显,因此频域特征提取模块通过高通滤波注意力机制得到全局高频注意力图,高通滤波注意力机制可以在低级频域特征中突出或抑制局部特征,在效果上表现为增强高频区域特征,抑制低频区域特征,使得本方法可以从全局信息中关注篡改痕迹明显的区域,使得检测结果更加准确。由于将预训练的通道卷积自编码模块的编码器作为特征提取器,对初级特征进行融合,因此通道卷积自编码模块只需要使用真实图像训练一次,即可用于任意种类的深度伪造图像的检测,减少了模型的训练时间。通道卷积自编码模块的卷积核大小均为1*1,实质上是对初级特征进行特征融合,可以显著降低特征维数,减少了权重矩阵的数量,在一定程度上克服了传统宽度学习系统对于复杂模式识别任务需要随机生成大量权重矩阵的缺陷。利用宽度学习系统原理构建三个分类器,实现分类器的轻量化,大幅节约时间和计算成本,提高了检测速度。在宽度学习系统的基础上增加了综合分类器,避免了较小的随机权重矩阵造成的结果不稳定。传统深度学习模型需要大量图像参与训练,而本方法只需要训练通道卷积自编码模块,训练所需的图像数量少,此外,分类器基于宽度学习原理,通过矩阵运算即可完成学习,无需冗长的训练,因此本发明方法实现了准确度和效率的兼顾,显著降低了数据需求。
(2)公开号为CN112183501A的中国专利公开了一种深度伪造图像检测方法及装置,该方法通过深度卷积神经网络提取包含人脸纹理特征的传统图像特征,对包含人脸纹理特征的传统图像特征进一步处理,实现图像检测。人脸纹理特征属于浅层特征,随着深度伪造技术的进步,深度伪造人脸图像已经十分精细,因此图像中包含的纹理信息已经十分接近于真实人脸,因此该方法的检测能力较弱。与CN112183501A相比,本发明利用真实图像训练通道卷积自编码模块,使通道卷积自编码模块拟合真实图像的复原过程,因此使用通道卷积自编码模块的编码器对真实图像和深度伪造图像进行特征提取,提取的特征具有足够的区分性,提高了检测结果的准确性。
(3)公开号为CN112528969A的中国专利公开了一种人脸图像的真伪检测方法,该方法提取了人脸图像的纹理特征、基于梯度的清晰度指标、频域特征,并与深度特征相结合,实现了基于多特征的人脸图像检测。与CN112528969A相比,本发明通过在原始图像上施加注意力,引导原始图像进行特征提取,特征提取过程简洁高效,而且可以从全局信息中关注篡改痕迹明显的区域。
附图说明
图1是本发明的整体流程图;
图2是本发明的频域特征提取模块的结构示意图;
图3是本发明的通道卷积自编码模块的结构示意图。
具体实施方式
下面结合实施例对本发明的技术方案进行详细描述,但并不以此限定本申请的保护范围。
本发明为一种融合深度和宽度学习的深度伪造图像检测方法(简称方法),包括以下步骤:
第一步、数据准备,获取待检测图像,并将待检测图像转换为大小为256*256像素的灰度图像;
第二步、利用频域特征提取模块(FFE)提取待检测图像的初级特征;
2-1如图2所示,将灰度图像进行两次分割,得到两个图像块组A和A′,图像块组A={a1,a2,…,a256}包含256个大小为16*16像素的图像块ai,图像块组A′={a′1,a′2,…,a′64}包含64个大小为32*32像素的图像块a′j;对于每个图像块,通过快速傅里叶变换得到频域幅度谱,再对频域幅度谱进行中心化处理,得到图像块的中心化频域幅度谱,具体表达式参见式(1)和(2):
Ai=shift(FFT(ai)) i=1,2,…,256 (1)
A′j=shift(FFT(a′j)) j=1,2,…,64 (2)
式中,FFT(·)表示快速傅里叶变换,shift(·)表示中心化处理操作;Ai、A′j分别表示图像块ai和a′j的中心化频域幅度谱;
2-2根据式(3)对灰度图像进行全局快速傅里叶变换,将灰度图像映射至频域,并对频域幅度谱进行中心化处理,得到灰度图像的中心化频域幅度谱;通过式(4)对灰度图像的中心化频域幅度谱进行高通滤波,得到高通滤波后的中心化频域幅度谱;再根据式(5)对高通滤波后的中心化频域幅度谱进行逆快速傅里叶变换和去中心化处理,将中心化频域幅度谱映射至空域,最后通过Sigmoid函数对映射至空域的中心化频域幅度谱进行归一化处理,得到全局高频注意力图;
Aglobal=shift(FFT(Igray)) (3)
Iatt=Sigmoid(IFFT(Ishift(Afiltered))) (5)
其中,Aglobal表示输入图像灰度图像Igray的中心化频域幅度谱,Thigh_pass表示高通滤波模板,表示相乘操作,Afiltered表示高通滤波后的中心化频域幅度谱,IFFT(·)、Ishift(·)分别表示逆快速傅里叶变换和去中心化处理操作,Iatt表示全局高频注意力图;
2-3同理,对全局高频注意力图Iatt进行与第2-1步中相同的分割,得到两个局部注意力块组Att和Att′,局部注意力块组Att={Att1,Att2,…,Att256}包含256个局部注意力块Atti,局部注意力块组Att′={Att′1,Att′2,…,Att′64}包含64个局部注意力块Att′j,局部注意力块与步骤2-1中的图像块一一对应;对所有的局部注意力块Atti和Att′j进行中值池化操作,得到各个图像块的注意力系数;再将注意力系数与对应图像块的中心化频域幅度谱相乘,得到施加注意力后的图像块,参见式(6)、(7);
Mi=MidPool(Atti,16)·Ai i=1,2,…,256 (6)
M′j=MidPool(Att′j,32)·A′j j=1,2,…,64 (7)
其中,MidPool(·,n)表示按n*n大小进行中值池化操作,n=16、32;Mi、M′j分别表示图像块Pi和P′j施加注意力后的图像块;
通过式(8)的最大值池化操作将所有施加注意力的图像块M′j的大小调整为16*16像素,得到归一化后的图像块Nj,最大值池化的卷积核大小为2*2;最后根据式(9)将所有归一化后的图像块与所有施加注意力的图像块Mi进行通道连接,得到尺寸为320*320*16像素的初级特征F1,F1即为频域特征提取模块提取的初级特征;
Nj=MaxPool(M′j,2)j=1,2,…,64 (8)
F1={M1,M2,…,M256,N1,N2,…,N64} (9)
式中,MaxPool(·,n)表示按n*n大小进行最大值池化操作,n=2;
第三步、构建通道卷积自编码模块(CAE),如图3所示,通道卷积自编码模块包括编码器和解码器两部分;其中,编码器用于通道融合,包含四个连续的卷积层,每个卷积层的卷积核大小均为1*1,卷积核数量分别为256、128、64、32;解码器与编码器为对称结构,解码器用以恢复通道数,包含四个连续的卷积层,卷积核大小均为1*1,卷积核数量分别为32、64、128、256;利用预训练的通道卷积自编码模块的编码器对初级特征F1进行特征融合,得到两个中级特征和将中级特征和分别作为特征映射流和特征增强流的输入;
编码器的表达式为:
第四步、根据式(12)、(13)分别将中级特征和进行向量展平操作,得到两个一维向量fm和fe;根据式(14)、(15)对一维向量fm进行两次线性变换,得到两个映射特征和根据式(16)、(17)的Sigmoid函数对一维向量fe进行两次处理,得到增强特征和
式中,flatten(·)表示向量展平操作,分别表示权重矩阵W1的第r1列和偏置向量β1的第r1个分量,r1=1,2,…,R1;分别表示权重矩阵W2的第r2列和偏置向量β2的第r2个分量,r2=1,2,…,R2;分别表示权重矩阵W3的第r3列和偏置向量β3的第r3个分量,r3=1,2,…,R3;分别表示权重矩阵W4的第r4列和偏置向量β4的第r4个分量,r4=1,2,…,R4;W1、W2、W3和W4均为随机生成的权重矩阵,β1、β2、β3和β4均为随机生成的偏置向量,R1、R2分别为映射特征和的维度,R3、R4分别为增强特征和的维度;
第五步、通过宽度学习系统原理构建三个分类器;从两个映射特征中任选一个映射特征以及从两个增强特征中任选一个增强特征进行拼接,得到拼接特征;将拼接特征、剩余的映射特征和增强特征作为三个分类器的输入,根据式(18)、(19)的宽度学习系统原理计算分类器输出层的权重矩阵;
P=Q+Y (19)
其中,Q表示拼接特征、剩余的映射特征或剩余的增强特征,I表示单位矩阵,λ表示正则化系数,T表示矩阵转置,Y表示分类器学习过程中与输入图像对应的样本标签,P表示分类器输出层的权重矩阵;
将每个分类器输出层的权重矩阵与该分类器的输入相乘,得到该分类器的输出结果;最后将三个分类器的输出结果进行加权平均,得到最终的检测结果,至此完成深度伪造图像的检测。
实施例1
本实施例以深度伪造的人脸图像为例,对融合深度和宽度学习的深度伪造图像检测方法进行说明,包括以下步骤:
第一步、数据准备;本实施例以CelebA-HQ和CelebA数据集的真实人脸图像为基础,分别通过StarGAN、StyleGAN、StyleGAN2、AttGAN、FaceForensics++方法生成深度伪造人脸图像,得到五个训练集和五个测试集,每个训练集和测试集分别包含1500、500张深度伪造人脸图像;FaceForensics++为开源伪造人脸视频数据,本实施例使用其伪造视频的单帧人脸图像作为深度伪造人脸图像,以体现本发明方法对于深度伪造人脸视频也具有适用性;将所有图像转换为大小为256*256像素的灰度图像。
第二步、利用频域特征提取模块提取深度伪造人脸图像的初级特征;
2-1对灰度图像进行两次分割,得到两个图像块组A和A′,图像块组A={a1,a2,…,a256}包含256个大小为16*16像素的图像块ai,图像块组A′={a′1,a′2,…,a′64}包含64个大小为32*32像素的图像块a′j;对于每个图像块,通过快速傅里叶变换得到频域幅度谱,再对频域幅度谱进行中心化处理,得到图像块的中心化频域幅度谱,具体表达式参见式(1)和(2):
Ai=shift(FFT(ai)) i=1,2,…,256 (1)
A′j=shift(FFT(a′j)) j=1,2,…,64 (2)
式中,FFT(·)表示快速傅里叶变换,shift(·)表示中心化处理操作;Ai、A′j分别表示图像块ai和a′j的中心化频域幅度谱;
2-2根据式(3)对灰度图像进行全局快速傅里叶变换,将灰度图像映射至频域上,并对频域幅度谱进行中心化处理,得到灰度图像的中心化频域幅度谱;通过式(4)对灰度图像的中心化频域幅度谱进行高通滤波,以去除中心化频域幅度谱中的低频分量,得到高通滤波后的中心化频域幅度谱;再根据式(5)对高通滤波后的中心化频域幅度谱进行逆快速傅里叶变换和去中心化处理,将中心化频域幅度谱映射至空域,最后通过Sigmoid函数对中心化频域幅度谱映射至空域进行归一化处理,得到全局高频注意力图;
Aglobal=shift(FFT(Igray)) (3)
Iatt=Sigmoid(IFFT(Ishift(Afiltered))) (5)
其中,Aglobal表示灰度图像Igray的中心化频域幅度谱,Thigh_pass表示高通滤波模板,表示相乘操作,Afiltered表示高通滤波后的中心化频域幅度谱,IFFT(·)、Ishift(·)分别表示逆快速傅里叶变换和去中心化处理操作,Iatt表示全局高频注意力图;
2-3同理,对全局高频注意力图Iatt进行与第2-1步中相同的分割,得到两个局部注意力块组Att和Att′,局部注意力块组Att={Att1,Att2,…,Att256}包含256个局部注意力块Atti,局部注意力块组Att′={Att′1,Att′2,…,Att′64}包含64个局部注意力块Att′j,局部注意力块与步骤2-1中的图像块一一对应;对所有的局部注意力块Atti和Att′j进行中值池化,得到各个图像块的注意力系数,再将注意力系数与对应图像块的中心化频域幅度谱相乘,得到施加注意力的图像块,参见式(6)、(7);
Mi=MidPool(Atti,16)·Ai i=1,2,…,256 (6)
M′j=MidPool(Att′j,32)·A′j j=1,2,…,64 (7)
其中,MidPool(·,n)表示按n*n大小进行中值池化操作,n=16、32;Mi、M′j分别表示图像块Pi和P′j施加注意力后的图像块;
通过式(8)的最大池化操作将所有施加注意力的图像块M′j的大小调整为16*16像素,得到归一化的图像块Nj;最后将所有归一化的图像块所有施加注意力的图像块Mi进行通道连接,得到尺寸为320*320*16像素的初级特征F1,F1即为频域特征提取模块提取的初级特征;其表达式参见式(9);
Nj=MaxPool(M′j,2) j=1,2,…,64 (8)
F1={M1,M2,…,M256,N1,N2,…,N64} (9)
式中,MaxPool(·,n)表示按n*n大小进行最大值池化操作,n=2;
第三步、构建通道卷积自编码模块,如图3所示,通道卷积自编码模块包括编码器和解码器,编码器包含四个连续的卷积层,每个卷积层的卷积核大小均为1*1,卷积核数量分别为256、128、64、32;解码器与编码器为对称结构,解码器包含四个连续的卷积层,卷积核大小均为1*1,卷积核数量分别为32、64、128、256;
编码器的表达式为:
将2000张真实人脸图像经过第二步提取的初级特征,利用真实人脸图像的初级特征对通道卷积自编码模块进行训练,使用Adam优化器,采用均方损失函数计算损失,待通道卷积自编码模块收敛之后,完成通道卷积自编码模块的训练;
第四步、根据式(12)、(13)分别将中级特征和进行向量展平操作,得到两个一维向量fm和fe;根据式(14)、(15)对一维向量fm进行两次线性变换,得到两个映射特征和根据式(16)、(17)的Sigmoid函数对一维向量fe进行两次处理,得到两个增强特征和
式中,flatten(·)表示向量展平操作,分别表示权重矩阵W1的第r1列和偏置向量β1的第r1个分量,r1=1,2,…,R1;分别表示权重矩阵W2的第r2列和偏置向量β2的第r2个分量,r2=1,2,…,R2;分别表示权重矩阵W3的第r3列和偏置向量β3的第r3个分量,r3=1,2,…,R3;分别表示权重矩阵W4的第r4列和偏置向量β4的第r4个分量,r4=1,2,…,R4;W1、W2、W3和W4均为随机生成的权重矩阵,β1、β2、β3和β4均为随机生成的偏置向量,R1、R2分别为映射特征和的维度,R3、R4分别为增强特征和的维度;
第五步、通过宽度学习系统原理构建三个分类器;从两个映射特征中任选一个映射特征以及从两个增强特征和任选一个增强特征进行拼接,本实施例选择映射特征和增强特征得到拼接特征将拼接特征剩余的映射特征和增强特征这三个特征作为三个分类器的输入,根据式(18)、(19)宽度学习系统原理计算分类器输出层的权重矩阵,分别为P1、P2、P3;
P=Q+Y (19)
其中,Q表示拼接特征、剩余的映射特征或剩余的增强特征,I表示单位矩阵,λ表示正则化系数,Y表示分类器学习过程中与输入图像对应的样本标签,P表示分类器输出层的权重矩阵;
根据式(20)~(22)将三个分类器输出层的权重矩阵与对应分类器的输入相乘,得到三个分类器的输出结果Y'1、Y'2和Y'3;
通过式(23)将三个分类器的输出结果进行加权平均,得到最终的检测结果;
Y'=αY'1+βY'2+γY'3 (23)
其中,α、β和γ分别为三个分类器的权重系数,α+β+γ=1,本实施例中α=β=0.2,γ=0.4;
至此,完成本实施例的融合深度和宽度学习的深度伪造图像检测。
表1各个训练集的数据明细及训练时间
从表1可知,本发明方法的构建总用时短,在本实施例中,使用3000张训练图像参与方法构建过程,总用时仅为60分钟左右,其中分类器输出层的权重矩阵计算用时仅用2分钟左右。值得注意的是,表1中的方法构建总用时仅代表方法初始构建时所消耗时间,在方法重构时无需对通道卷积自编码器模块进行训练,方法重构总用时即为分类器输出层的权重矩阵计算用时。
表2各个测试集的数据明细及检测结果
从表2可知,本发明方法在五个测试集上均能取得较好的检测效果,准确率可达98%以上,对于不同技术合成的深度伪造人脸图像具有较强适应能力,同时兼顾检测准确率和检测效率。
本发明未述及之处适用于现有技术。
Claims (2)
1.一种融合深度和宽度学习的深度伪造图像检测方法,其特征在于,该方法包括以下步骤:
第一步、获取待检测图像,将待检测图像转换为大小为256*256像素的灰度图像;
第二步、利用频域特征提取模块提取待检测图像的初级特征;
2-1将灰度图像进行两次分割,得到两个图像块组A和A′,图像块组A={a1,a2,…,a256}包含256个大小为16*16像素的图像块ai,i=1,2,…,256;图像块组A′={a′1,a′2,…,a′64}包含64个大小为32*32像素的图像块a′j,j=1,2,…,64;对于每个图像块,通过快速傅里叶变换得到频域幅度谱,再对频域幅度谱进行中心化处理,得到图像块的中心化频域幅度谱;
2-2对灰度图像进行全局快速傅里叶变换,再对频域幅度谱进行中心化处理,得到灰度图像的中心化频域幅度谱;对灰度图像的中心化频域幅度谱进行高通滤波,对高通滤波后的中心化频域幅度谱进行逆快速傅里叶变换和去中心化处理,将中心化频域幅度谱映射至空域,最后通过非线性函数对映射至空域的中心化频域幅度谱进行归一化处理,得到全局高频注意力图;
2-3对全局高频注意力图进行分割,得到两个局部注意力块组Att和Att′,局部注意力块组Att={Att1,Att2,…,Att256}包含256个局部注意力块Atti,局部注意力块组Att′={Att′1,Att′2,…,Att′64}包含64个局部注意力块Att′j,局部注意力块与步骤2-1中的图像块一一对应;对所有的局部注意力块Atti和Att′j进行中值池化操作,得到各个图像块的注意力系数;再将注意力系数与对应图像块的中心化频域幅度谱相乘,得到施加注意力后的图像块;
通过最大值池化操作将所有施加注意力的图像块的大小调整为16*16像素,得到归一化后的图像块;将所有归一化后的图像块与所有施加注意力的图像块进行通道连接,得到初级特征;
第四步、根据式(12)、(13)分别将中级特征和进行向量展平操作,得到两个一维向量fm和fe;根据式(14)、(15)对一维向量fm进行两次线性变换,得到两个映射特征和根据式(16)、(17)的Sigmoid函数对一维向量fe进行两次处理,得到增强特征和
式中,flatten(·)表示向量展平操作,分别表示权重矩阵W1的第r1列和偏置向量β1的第r1个分量,r1=1,2,…,R1;分别表示权重矩阵W2的第r2列和偏置向量β2的第r2个分量,r2=1,2,…,R2;分别表示权重矩阵W3的第r3列和偏置向量β3的第r3个分量,r3=1,2,…,R3;分别表示权重矩阵W4的第r4列和偏置向量β4的第r4个分量,r4=1,2,…,R4;W1、W2、W3和W4均为随机生成的权重矩阵,β1、β2、β3和β4均为随机生成的偏置向量,R1、R2分别为映射特征和的维度,R3、R4分别为增强特征和的维度;
第五步、通过宽度学习系统原理构建三个分类器;从两个映射特征中任选一个映射特征以及从两个增强特征中任选一个增强特征进行拼接,得到拼接特征;将拼接特征、剩余的映射特征和增强特征作为三个分类器的输入,计算各个分类器输出层的权重矩阵;将每个分类器输出层的权重矩阵与该分类器的输入相乘,得到该分类器的输出结果;最后将三个分类器的输出结果进行加权平均,得到最终的检测结果;
至此完成深度伪造图像的检测。
2.根据权利要求1所述的融合深度和宽度学习的深度伪造图像检测方法,其特征在于,所述通道卷积自编码模块的编码器和解码器结构对称,编码器和解码器均包含四个连续的卷积层,每个卷积层的卷积核大小均为1*1;编码器四个卷积层的卷积核数量分别为256、128、64、32;编码器四个卷积层的卷积核数量分别为32、64、128、256。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177248.XA CN114549481B (zh) | 2022-02-25 | 2022-02-25 | 一种融合深度和宽度学习的深度伪造图像检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177248.XA CN114549481B (zh) | 2022-02-25 | 2022-02-25 | 一种融合深度和宽度学习的深度伪造图像检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114549481A true CN114549481A (zh) | 2022-05-27 |
CN114549481B CN114549481B (zh) | 2024-11-29 |
Family
ID=81680237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210177248.XA Active CN114549481B (zh) | 2022-02-25 | 2022-02-25 | 一种融合深度和宽度学习的深度伪造图像检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549481B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797333A (zh) * | 2023-01-29 | 2023-03-14 | 成都中医药大学 | 一种个性化定制的智能视觉训练方法 |
CN116453199A (zh) * | 2023-05-19 | 2023-07-18 | 山东省人工智能研究院 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
CN116740015A (zh) * | 2023-06-12 | 2023-09-12 | 北京长木谷医疗科技股份有限公司 | 基于深度学习的医学图像智能检测方法、装置及电子设备 |
CN117201693A (zh) * | 2023-11-01 | 2023-12-08 | 长春汽车工业高等专科学校 | 一种物联网图像压缩方法、装置、终端设备及介质 |
CN117238018A (zh) * | 2023-09-20 | 2023-12-15 | 华南理工大学 | 基于多粒度的可增量深宽网络活体检测方法、介质及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734696A (zh) * | 2020-12-24 | 2021-04-30 | 华南理工大学 | 基于多域特征融合的换脸视频篡改检测方法及系统 |
CN113657479A (zh) * | 2021-08-12 | 2021-11-16 | 广东省人民医院 | 一种新型多尺度深宽结合的病理图片分类方法、系统及介质 |
US20210390723A1 (en) * | 2020-06-15 | 2021-12-16 | Dalian University Of Technology | Monocular unsupervised depth estimation method based on contextual attention mechanism |
-
2022
- 2022-02-25 CN CN202210177248.XA patent/CN114549481B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210390723A1 (en) * | 2020-06-15 | 2021-12-16 | Dalian University Of Technology | Monocular unsupervised depth estimation method based on contextual attention mechanism |
CN112734696A (zh) * | 2020-12-24 | 2021-04-30 | 华南理工大学 | 基于多域特征融合的换脸视频篡改检测方法及系统 |
CN113657479A (zh) * | 2021-08-12 | 2021-11-16 | 广东省人民医院 | 一种新型多尺度深宽结合的病理图片分类方法、系统及介质 |
Non-Patent Citations (1)
Title |
---|
朱叶;申铉京;陈海鹏: "基于彩色LBP的隐蔽性复制-粘贴篡改盲鉴别算法", 自动化学报, vol. 43, no. 3, 7 April 2016 (2016-04-07) * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797333A (zh) * | 2023-01-29 | 2023-03-14 | 成都中医药大学 | 一种个性化定制的智能视觉训练方法 |
CN116453199A (zh) * | 2023-05-19 | 2023-07-18 | 山东省人工智能研究院 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
CN116453199B (zh) * | 2023-05-19 | 2024-01-26 | 山东省人工智能研究院 | 基于复杂纹理区域伪造痕迹的gan生成人脸检测方法 |
CN116740015A (zh) * | 2023-06-12 | 2023-09-12 | 北京长木谷医疗科技股份有限公司 | 基于深度学习的医学图像智能检测方法、装置及电子设备 |
CN117238018A (zh) * | 2023-09-20 | 2023-12-15 | 华南理工大学 | 基于多粒度的可增量深宽网络活体检测方法、介质及设备 |
CN117201693A (zh) * | 2023-11-01 | 2023-12-08 | 长春汽车工业高等专科学校 | 一种物联网图像压缩方法、装置、终端设备及介质 |
CN117201693B (zh) * | 2023-11-01 | 2024-01-16 | 长春汽车工业高等专科学校 | 一种物联网图像压缩方法、装置、终端设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114549481B (zh) | 2024-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Multi-level wavelet convolutional neural networks | |
CN114549481A (zh) | 一种融合深度和宽度学习的深度伪造图像检测方法 | |
Phung et al. | Wavelet diffusion models are fast and scalable image generators | |
Li et al. | Hyperspectral image super-resolution by band attention through adversarial learning | |
Liu et al. | Multi-level wavelet-CNN for image restoration | |
Zhao et al. | Invertible image decolorization | |
Lawgali et al. | Handwritten Arabic character recognition: Which feature extraction method? | |
CN107358576A (zh) | 基于卷积神经网络的深度图超分辨率重建方法 | |
Liu et al. | The classification and denoising of image noise based on deep neural networks | |
CN116645716A (zh) | 基于局部特征和全局特征的表情识别方法 | |
Shen et al. | Convolutional neural pyramid for image processing | |
CN113011332A (zh) | 基于多区域注意力机制的人脸伪造检测方法 | |
CN112070668A (zh) | 一种基于深度学习和边缘增强的图像超分辨方法 | |
CN104408692A (zh) | 一种基于深度学习的图像模糊模型参数分析方法 | |
CN111489405A (zh) | 基于条件增强生成对抗网络的人脸草图合成系统 | |
CN117115040A (zh) | 一种基于傅里叶变换的运动图像去模糊模型 | |
Majumder et al. | A tale of a deep learning approach to image forgery detection | |
Hussain et al. | Image denoising to enhance character recognition using deep learning | |
CN111783862A (zh) | 多注意力导向神经网络的立体显著性物体检测技术 | |
Wu et al. | Gradient-aware blind face inpainting for deep face verification | |
Raha et al. | Restoration of historical document images using convolutional neural networks | |
Liu et al. | Image denoising network based on subband information sharing using dual-tree complex wavelet | |
CN114418877B (zh) | 基于梯度幅度相似度的图像非盲去模糊方法及系统 | |
Zhou et al. | Two-subnet network for real-world image denoising | |
Yao et al. | Screen-shot and Demoiréd image identification based on DenseNet and DeepViT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |