CN114694220A - 一种基于Swin Transformer的双流人脸伪造检测方法 - Google Patents
一种基于Swin Transformer的双流人脸伪造检测方法 Download PDFInfo
- Publication number
- CN114694220A CN114694220A CN202210307917.0A CN202210307917A CN114694220A CN 114694220 A CN114694220 A CN 114694220A CN 202210307917 A CN202210307917 A CN 202210307917A CN 114694220 A CN114694220 A CN 114694220A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- double
- network
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 17
- 238000012360 testing method Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 6
- 230000008921 facial expression Effects 0.000 claims description 5
- 238000005242 forging Methods 0.000 claims description 5
- 238000007906 compression Methods 0.000 abstract description 15
- 238000013135 deep learning Methods 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 description 15
- 230000006835 compression Effects 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 6
- 230000002354 daily effect Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于Swin Transformer的双流人脸伪造检测方法,利用深度学习来进行人脸伪造图像的检测。整体搭建一个深度学习网络模型,网络模型分为三部分:双流网络、特征提取网络和分类器。由于现在公开的人脸伪造数据集全部是视频,因此需要利用OpenCV将视频裁剪成帧图片。此外,由于帧图片包含了大量的背景信息,因此需要利用人脸定位算法将人脸区域裁剪出来。然后将得到的人脸区域图像输入到双流网络和特征提取网络中提取并学习特征。最后将学习到的特征输入到分类器中,进行人脸图像真假的识别。本发明应用于解决现有人脸伪造检测方案的部分局限性即泛化能力弱的问题,同时还通过双流框架提升模型抗压缩能力,使其更符合日常生活中常见的人脸视频质量。
Description
技术领域
本发明涉及一种基于SwinTransformer的双流人脸伪造检测方法,应用于解决现有人脸伪造检测方案的部分局限性-泛化能力弱的问题,同时还提出了双流框架来提升模型一定的抗压缩能力,使其更符合日常生活中常见的人脸视频质量。
背景技术
在过去的几十年中,随着互联网的快速崛起,新兴的社交网络融入人们的生活,使得数字图像和视频成为常见的数字数据对象。据报告,每天近20亿张图片在互联网上传播,随着数字图像的巨大使用和传播,最初随之而来的是使用像Photoshop这样的编辑软件来改变图像内容的技术,但随着计算机视觉和图像处理技术取得最新进展,同时伴随着高性能计算机和GPU并行加速技术的突破,现在已经能做到在图像和视频中实时合成极其逼真的人脸,并且这种强大的人脸伪造技术仍在继续强化。这项技术的背后是无限的应用空间,但其中的某些滥用行为却为我们拉响了安全警报。现在人脸伪造技术的发展使得恶意用户可以通过操纵人脸图像来发动攻击,从而成功地识别出真实用户信息。例如最近有不法分子利用该项技术伪装成政界人物发表虚假言论,在社会上引起了很大的轰动。因此,致力于一般人脸图像和视频伪造检测的研究领域正在蓬勃发展,为了减轻伪造人脸攻击造成的负面影响,同时有利于公共安全和隐私保护,开发有效的可视化取证方案对抗这些威胁至关重要。
当前对人脸伪造图像的检测主要是通过深度学习的方式。深度学习是一个很有前景的研究方向,不论是在计算机视觉、自然语言还是语音识别或是其他领域,都能被派上用场。现在主流的人脸检测网络使用的是卷积神经网络(CNN),它被广泛运用在特征学习和图像分类等领域,使用卷积神经网络在训练大批量的真假人脸图像时,可以在保证速度和效率的前提下,已经达到较为理想的检测性能。还有一种方式就是利用图像的频域信息,对真实的人脸图像进行伪造,虽然留下的伪造痕迹大多数无法被人眼辨别出来,但是被频域上可以发现人脸真假图像存在不同,现有的检测方案也利用了这一特性。但是上述的检测方法存在一定的局限性,首先就是泛化能力不强,往往更换数据集后,这些方案的检测性能急剧下降。还有就是无法很好的抵御压缩,这样就不能应用检测在实际生活场景中出现的人脸图像或视频。所以现在的人脸检测方案正在不断探索及应用其它领域。
发明内容
本发明的目的是要解决现有人脸检测方法泛化能力不足以及抗压缩能力差的问题,提供了一种基于Swin Transformer的双流人脸伪造检测方法,在解决现有人脸伪造检测方案的部分局限性即泛化能力弱的问题的同时,还通过双流框架提升模型抗压缩能力,使其更符合日常生活中常见的人脸视频质量。
为达到上述发明目的,本发明的构想是:
利用深度学习来进行人脸伪造图像的检测。整体搭建了一个深度学习网络模型,网络模型分为三部分:双流网络、特征提取网络和分类器。由于现在公开的人脸伪造数据集全部是视频,因此首先需要利用OpenCV将视频裁剪成帧图片。除此之外,由于帧图片包含了大量的背景信息,因此需要利用人脸定位算法将人脸区域裁剪出来。然后将得到的人脸区域图像输入到双流网络和特征提取网络中提取并学习特征。最后将学习到的特征输入到分类器中,进行人脸图像真假的识别。
根据上述发明构思,本发明采用下述技术方案:
一种基于Swin Transformer的双流人脸伪造检测方法,包括以下步骤:
(1)准备人脸视频数据集:
准备人脸伪造视频数据集,选择了公共的人脸伪造视频数据集:FaceForensics++;
(2)将视频裁剪为帧:
考虑到训练目标是判断人脸图像的真假,将视频数据集进行处理,具体为:
对于所有真实或伪造的人脸视频,采用OpenCV工具库将其划分为不重叠的视频帧,具体做法是每秒至少截取15帧;
(3)提取人脸区域:
通过人脸检测器来定位人脸区域,去掉周围不相关的背景信息,提取人脸区域,得到人脸区域图片数据集;
(4)数据集的划分:
使用上一步得到的人脸区域图片数据集进行训练、验证和测试任务,使用了7-2-1的划分方式,训练集占70%,验证集占20%,测试集占10%;将测试集的预测结果作为评判模型的好坏的标准;本发明使用验证集的好处在于可以更好的选择出最佳的训练模型,以便防止训练过程中过拟合现象的发生;
(5)经双流网络检测人脸图像:
采用双流网络,包括RGB流和噪声流;RGB流的输入是原始的RGB图像,用于直接提取原始图像特征,通过对比度差异、不自然边界找出伪造的痕迹;噪声流的输入是噪声图片,噪声图像是将RGB图像通过SRM(steganalysis rich model)卷积核得到的噪声特征图像;
(6)特征提取和分类:
对于上述双流网络得到了两种不一样的图像-RGB图像和噪声图像,首先将这两种图像结合起来一起训练,学习到更丰富的特征;使用Swin Transformer作为特征提取网络对图像进行端对端的训练,最后将由Transformer学习的特征送到最后的分类器中,分类器主要是一层全连接层,由两个神经元组成,用以生成目标图像被识别为真与假的概率值;特征提取和分类,从而检测出人脸图像的真假。
优选地,在所述步骤(1)中,FaceForensics++数据集利用DeepFakes,FaceSwap,Face2Face,NeuralTextures这四种人脸伪造方法创建了不同类别的假视频,进行面部身份替换和面部表情重建,模拟互联网上传播的人脸视频,建立人脸伪造视频数据集。本发明选择了公共的人脸伪造视频数据集:FaceForensics++。FaceForensics++数据集是第一个大规模的人脸伪造视频数据集,它利用DeepFakes,FaceSwap,Face2Face,NeuralTextures这四种人脸伪造技术创建了不同类别的假视频,前两种技术是面部身份替换,后两种是面部表情重建。此数据集还同时对真假视频均进行H.264编码中的C0,C23,C40三种参数压缩,这样做是为了更好地模拟互联网上传播的人脸视频质量,以求更接近于实际生活中使用的人脸视频。
优选地,在所述步骤(3)中,人脸检测器采用Dlib工具包,对于得到的视频帧,利用Dlib得到最小的人脸矩形框,再以该人脸框为基准扩大至少1.3倍,作为新的裁剪区域进行保存,从而提取人脸区域。本发明机提取人脸区域,通过人脸检测器来定位人脸区域,去掉周围大量不相关的背景信息,因为人脸伪造技术只关注人脸,不关注背景区域。这里选择的人脸检测器是Dlib工具包,对于得到的视频帧,利用Dlib可以得到最小的人脸矩形框,再以该人脸框为基准扩大至少1.3倍作为新的裁剪区域进行保存。
优选地,在所述步骤(5)中,SRM卷积核用于进行隐写分析,包括发现图像中真实区域和被伪造区域的噪声间的不一致的卷积核组。本发明方法经双流网络检测人脸图像时,为了有效地检测人脸图像是否经过换脸或表情重建等伪造,采用一种双流网络-RGB流和噪声流。RGB流的输入是原始的RGB图像,用于直接提取原始图像特征,通过对比度差异、不自然边界等找出伪造的痕迹。噪声流的输入是噪声图片,噪声图像是将RGB图像通过SRM(steganalysis rich model)卷积核得到的噪声特征图像,SRM卷积核常用于隐写分析领域,是专门设计的一种可以有效发现图像中真实区域和被伪造区域的噪声间的不一致的卷积核组。
本发明在特征提取和分类时,利用双流网络得到了两种不一样的图像-RGB图像和噪声图像,首先将这两种图像结合起来一起训练,以便学习到更丰富的特征。本发明使用Swin Transformer作为特征提取网络对图像进行端对端的训练,这样可以检测出人脸图像的真假。Transformer有其特有的自注意力机制,可以进一步的发现伪造区域与未伪造区域的不同,因此会将重点关注伪造区域,学习到更多有用的特征用于辨别真假。最后将由Transformer学习的特征送到最后的分类器中,分类器主要是一层全连接层,由两个神经元组成,用以生成目标图像被识别为真与假的概率值。
本发明与现有技术比较,具有如下显而易见的突出实质性特点和显著优点:
1.本发明首次使用Swin Transformer来进行人脸伪造图片的检测,利用Transformer特有的自注意力机制来重点关注伪造区域与伪造区域的不同,这个可以有效提高模型网络的泛化能力,并且Swin Transformer是一种层次化视觉Transformer,它可以用作计算机视觉的通用骨干网络,本发明就是使用它来深层次的提取特征;
2.本发明提出了一种双流网络,目的在于同时利用RGB图像特征和噪声图片特征来进行学习,这样加强了伪造痕迹的特征信息,可以在一定程度上抵抗压缩,使其能够检测真实生活中出现的人脸图像。
附图说明
图1为本发明优选实施例基于Swin Transformer的双流人脸伪造检测方法流程图。
图2为本发明优选实施例方法整体网络结构图。
具体实施方式
本发明的优选实施例结合附图作进一步说明:
实施例一
参见图1,一种基于Swin Transformer的双流人脸伪造检测方法,包括以下步骤:
(1)准备人脸视频数据集:
准备人脸伪造视频数据集,选择了公共的人脸伪造视频数据集:FaceForensics++;
(2)将视频裁剪为帧:
考虑到训练目标是判断人脸图像的真假,将视频数据集进行处理,具体为:
对于所有真实或伪造的人脸视频,采用OpenCV工具库将其划分为不重叠的视频帧,具体做法是每秒至少截取15帧;
(3)提取人脸区域:
通过人脸检测器来定位人脸区域,去掉周围不相关的背景信息,提取人脸区域,得到人脸区域图片数据集;
(4)数据集的划分:
使用上一步得到的人脸区域图片数据集进行训练、验证和测试任务,使用了7-2-1的划分方式,训练集占70%,验证集占20%,测试集占10%;将测试集的预测结果作为评判模型的好坏的标准;
(5)经双流网络检测人脸图像:
采用双流网络,包括RGB流和噪声流;RGB流的输入是原始的RGB图像,用于直接提取原始图像特征,通过对比度差异、不自然边界找出伪造的痕迹;噪声流的输入是噪声图片,噪声图像是将RGB图像通过SRM(steganalysis rich model)卷积核得到的噪声特征图像;
(6)特征提取和分类:
对于上述双流网络得到了两种不一样的图像-RGB图像和噪声图像,首先将这两种图像结合起来一起训练,学习到更丰富的特征;使用Swin Transformer作为特征提取网络对图像进行端对端的训练,最后将由Transformer学习的特征送到最后的分类器中,分类器主要是一层全连接层,由两个神经元组成,用以生成目标图像被识别为真与假的概率值;特征提取和分类,从而检测出人脸图像的真假。
本实施例基于Swin Transformer的双流人脸伪造检测方法,在解决现有人脸伪造检测方案的部分局限性即泛化能力弱的问题的同时,还通过双流框架提升模型抗压缩能力,使其更符合日常生活中常见的人脸视频质量。
实施例二
本实施例与实施例一基本相同,特别之处在于:
一种基于Swin Transformer的双流人脸伪造检测方法,包括以下步骤:
(1)准备人脸视频数据集:
首先需要准备人脸伪造视频数据集。选择了公共的人脸伪造视频数据集:FaceForensics++;FaceForensics++数据集是第一个大规模的人脸伪造视频数据集,它利用DeepFakes,FaceSwap,Face2Face,NeuralTextures这四种人脸伪造技术创建了不同类别的假视频,前两种技术是面部身份替换,后两种是面部表情重建;此数据集还同时对真假视频均进行H.264编码中的C0,C23,C40三种参数压缩,这样做是为了更好地模拟互联网上传播的人脸视频质量,以求更接近于实际生活中使用的人脸视频;
(2)将视频裁剪为帧:
训练目标是判断人脸图像的真假,因此需要进一步将视频数据集进行处理,首先,对于所有真实或伪造的人脸视频,采用OpenCV工具库将其划分为不重叠的视频帧,具体做法是每秒截取15帧;
(3)提取人脸区域:
通过人脸检测器来定位人脸区域,去掉周围大量不相关的背景信息,因为人脸伪造技术只关注人脸,不关注背景区域;本实施例选择的人脸检测器是Dlib工具包,对于得到的视频帧,利用Dlib可以得到最小的人脸矩形框,再以该人脸框为基准扩大1.3倍作为新的裁剪区域进行保存;
(4)数据集的划分:
使用上一步得到的人脸区域图片数据集进行训练、验证和测试任务,这里使用了7-2-1的划分方式,训练集占70%,验证集占20%,测试集占10%;使用验证集的好处在于可以更好的选择出最佳的训练模型,以便防止训练过程中过拟合现象的发生;最后的测试集的预测结果作为评判模型的好坏;
(5)经双流网络检测人脸图像:
为了有效地检测人脸图像是否经过换脸或表情重建等伪造,提出了一种双流网络-RGB流和噪声流;RGB流的输入是原始的RGB图像,用于直接提取原始图像特征,通过对比度差异、不自然边界等找出伪造的痕迹;噪声流的输入是噪声图片,噪声图像是将RGB图像通过SRM(steganalysis rich model)卷积核得到的噪声特征图像,SRM卷积核常用于隐写分析领域,是专门设计的一种可有效发现图像中真实区域和被伪造区域的噪声间的不一致的卷积核组;
(6)特征提取和分类:
上述双流网络得到了两种不一样的图像-RGB图像和噪声图像,首先将这两种图像结合起来一起训练,以便学习到更丰富的特征;这里使用Swin Transformer作为特征提取网络对图像进行端对端的训练,这样可以检测出人脸图像的真假;Transformer有其特有的自注意力机制,可以进一步的发现伪造区域与未伪造区域的不同,因此会将重点关注伪造区域,学习到更多有用的特征用于辨别真假;最后将由Transformer学习的特征送到最后的分类器中,分类器主要是一层全连接层,由两个神经元组成,用以生成目标图像被识别为真与假的概率值。
本实施例使用Swin Transformer来进行人脸伪造图片的检测,利用Transformer特有的自注意力机制来重点关注伪造区域与伪造区域的不同,这个可以有效提高模型网络的泛化能力,并且Swin Transformer是一种层次化视觉Transformer,它可以用作计算机视觉的通用骨干网络,本实施例就是使用它来深层次的提取特征;本实施例采用双流网络,目的在于同时利用RGB图像特征和噪声图片特征来进行学习,这样加强了伪造痕迹的特征信息,可以在一定程度上抵抗压缩,使其能够检测真实生活中出现的人脸图像。本实施例基于Swin Transformer的双流人脸伪造检测方法。利用深度学习来进行人脸伪造图像的检测。整体搭建了一个深度学习网络模型,网络模型分为三部分:双流网络、特征提取网络和分类器。由于现在公开的人脸伪造数据集全部是视频,因此首先需要利用OpenCV将视频裁剪成帧图片。除此之外,由于帧图片包含了大量的背景信息,因此需要利用人脸定位算法将人脸区域裁剪出来。然后将得到的人脸区域图像输入到双流网络和特征提取网络中提取并学习特征。最后将学习到的特征输入到分类器中,进行人脸图像真假的识别。本实施例方法应用于解决现有人脸伪造检测方案的部分局限性——泛化能力弱的问题,同时还通过双流框架提升模型抗压缩能力,使其更符合日常生活中常见的人脸视频质量。
实施例三
本实施例与上述实施例基本相同,特别之处在于:
在本实施例中,一种基于Swin Transformer的双流人脸伪造检测方法,如图1所示,包括以下步骤:
首先需要对视频数据集进行预处理,这里的视频数据集使用的是FaceForensics++,这个数据集包含了四个子数据集,分别是基于人脸交换伪造方式的DeepFakes和FaceSwap,以及基于面部表情重建的Face2Face和NeuralTexture,每一个视频子数据集都包含了1000个视频,加上真实的1000个人脸视频,总共有5000个视频,是一个相对庞大的公开视频数据集。为了模拟真实生活场景传播的视频质量,这个FaceForensics++数据集还提供了三种不同压缩质量的视频,分别是C0(无压缩),C23(轻度压缩)和C40(重度压缩)。
进行视频预处理的步骤主要分为两步,首先是利用视频处理工具库-OpenCV,将视频剪切成帧图像,以便送到神经网络模型中进行训练,对于每个视频采取了每秒截取15帧,这样可以加大图像数据集。因为帧图像的人脸周围存在大量不相关的背景信息,因此需要利用人脸定位算法得到最小的人脸矩形框,去出不相关的背景信息,再以该人脸框为基准扩大1.3倍作为新的裁剪区域进行保存,作为最后的输入图像。
图2所示就是整体网络结构图。模型包括双流网络、特征提取网络和分类器。双流网络主要是RGB流和噪声流,噪声流主要是将原本的RGB图像通过SRM(steganalysis richmodel)卷积核得到的噪声特征图像,使用SRM卷积核可以有效发现人脸图像中真实区域和被伪造区域的噪声间的不一致,可以帮助神经网络模型更好地学习到伪造人脸的特征。特征提取网络使用的是Swin Transformer,Swin Transformer是一种新型视觉Transformer,它可以用作计算机视觉的通用骨干网络,同时它也是一种层次化视觉Transformer,它的设计思想吸取了卷积神经网络的精华,从局部到全局,将Transformer设计成逐步扩大感受野的工具。本发明是首先将RGB图像和噪声图像结合在一起,然后对结合的图片进行分块,展平成序列,输入进原始Swin Transformer模型的编码器Encoder部分,利用Transformer模型的self-attention(自注意力机制)学习真实区域和伪造区域的不同,让模型重点关注于伪造区域。最后将Swin Transformer模型学习到的特征输入到分类器中进行分类。分类器主要是接入一个全连接层对图片进行分类,由两个神经元组成,用以生成目标图像被识别为真与假的概率值。
本实施例基于Swin Transformer的双流人脸伪造检测方法,目的在于受启发于现在Transformer在CV领域取得的巨大成功以及Transformer特有的自注意力机制,利用层次化视觉Transformer可以解决现有人脸伪造检测方案的部分局限性,比如泛化能力弱的问题,还有就是本发明提出了双流框架来提升模型一定的抗压缩能力,使其更符合日常生活,具有较大的实际应用价值。网络分为三部分:双流网络、特征提取网络和分类器。双流网络是将输入的人脸图片经过上下两条流,分别是RGB流和噪声流。噪声流利用人脸图像的噪音特征从而一定程度抵御人脸图像压缩的不良影响。然后将不同的图像信息融合,利用SwinTransformer从不同维度学习到图像的特征。特征提取网络采用的是新型骨干网络-SwinTransformer,将融合的图像特征经过Transformer特有的自注意力机制,可以发现人脸高级语义特征图片不同区域信息的差别和联系。最后将深层特征信息输入到分类器中,判别人脸图像的真假。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明的技术原理和发明构思,都属于本发明的保护范围。
Claims (4)
1.一种基于Swin Transformer的双流人脸伪造检测方法,其特征在于,包括以下步骤:
(1)准备人脸视频数据集:
准备人脸伪造视频数据集,选择了公共的人脸伪造视频数据集:FaceForensics++;
(2)将视频裁剪为帧:
考虑到训练目标是判断人脸图像的真假,将视频数据集进行处理,具体为:
对于所有真实或伪造的人脸视频,采用OpenCV工具库将其划分为不重叠的视频帧,具体做法是每秒至少截取15帧;
(3)提取人脸区域:
通过人脸检测器来定位人脸区域,去掉周围不相关的背景信息,提取人脸区域,得到人脸区域图片数据集;
(4)数据集的划分:
使用上一步得到的人脸区域图片数据集进行训练、验证和测试任务,使用了7-2-1的划分方式,训练集占70%,验证集占20%,测试集占10%;将测试集的预测结果作为评判模型的好坏的标准;
(5)经双流网络检测人脸图像:
采用双流网络,包括RGB流和噪声流;RGB流的输入是原始的RGB图像,用于直接提取原始图像特征,通过对比度差异、不自然边界找出伪造的痕迹;噪声流的输入是噪声图片,噪声图像是将RGB图像通过SRM(steganalysis rich model)卷积核得到的噪声特征图像;
(6)特征提取和分类:
对于上述双流网络得到了两种不一样的图像-RGB图像和噪声图像,首先将这两种图像结合起来一起训练,学习到更丰富的特征;使用Swin Transformer作为特征提取网络对图像进行端对端的训练,最后将由Transformer学习的特征送到最后的分类器中,分类器主要是一层全连接层,由两个神经元组成,用以生成目标图像被识别为真与假的概率值;特征提取和分类,从而检测出人脸图像的真假。
2.根据权利要求1所述基于Swin Transformer的双流人脸伪造检测方法,其特征在于:在所述步骤(1)中,FaceForensics++数据集利用DeepFakes,FaceSwap,Face2Face,NeuralTextures这四种人脸伪造方法创建了不同类别的假视频,进行面部身份替换和面部表情重建,模拟互联网上传播的人脸视频,建立人脸伪造视频数据集。
3.根据权利要求1所述基于Swin Transformer的双流人脸伪造检测方法,其特征在于:在所述步骤(3)中,人脸检测器采用Dlib工具包,对于得到的视频帧,利用Dlib得到最小的人脸矩形框,再以该人脸框为基准扩大至少1.3倍,作为新的裁剪区域进行保存,从而提取人脸区域。
4.根据权利要求1所述基于Swin Transformer的双流人脸伪造检测方法,其特征在于:在所述步骤(5)中,SRM卷积核用于进行隐写分析,包括发现图像中真实区域和被伪造区域的噪声间的不一致的卷积核组。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210307917.0A CN114694220B (zh) | 2022-03-25 | 2022-03-25 | 一种基于Swin Transformer的双流人脸伪造检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210307917.0A CN114694220B (zh) | 2022-03-25 | 2022-03-25 | 一种基于Swin Transformer的双流人脸伪造检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114694220A true CN114694220A (zh) | 2022-07-01 |
CN114694220B CN114694220B (zh) | 2024-06-21 |
Family
ID=82138323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210307917.0A Active CN114694220B (zh) | 2022-03-25 | 2022-03-25 | 一种基于Swin Transformer的双流人脸伪造检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114694220B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115879109A (zh) * | 2023-02-06 | 2023-03-31 | 山东省计算中心(国家超级计算济南中心) | 基于视觉Transformer的恶意软件识别方法 |
CN116071809A (zh) * | 2023-03-22 | 2023-05-05 | 鹏城实验室 | 一种基于多类表征时空交互的人脸时空表征生成方法 |
CN116188691A (zh) * | 2023-02-27 | 2023-05-30 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116206375A (zh) * | 2023-04-28 | 2023-06-02 | 南京信息工程大学 | 基于双层孪生网络和可持续学习的人脸伪造检测方法 |
CN116758404A (zh) * | 2023-05-12 | 2023-09-15 | 北京长木谷医疗科技股份有限公司 | 智能检测医学图像准确性的方法及装置 |
CN117315798A (zh) * | 2023-11-20 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090135188A1 (en) * | 2007-11-26 | 2009-05-28 | Tsinghua University | Method and system of live detection based on physiological motion on human face |
CN108764270A (zh) * | 2018-04-03 | 2018-11-06 | 上海大学 | 一种利用卷积神经网络集成的信息隐藏检测方法 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、系统和可读存储介质 |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN113283403A (zh) * | 2021-07-21 | 2021-08-20 | 武汉大学 | 基于对抗学习的伪造人脸视频检测方法 |
CN113887487A (zh) * | 2021-10-20 | 2022-01-04 | 河海大学 | 一种基于CNN-Transformer的面部表情识别方法及装置 |
-
2022
- 2022-03-25 CN CN202210307917.0A patent/CN114694220B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090135188A1 (en) * | 2007-11-26 | 2009-05-28 | Tsinghua University | Method and system of live detection based on physiological motion on human face |
CN108764270A (zh) * | 2018-04-03 | 2018-11-06 | 上海大学 | 一种利用卷积神经网络集成的信息隐藏检测方法 |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、系统和可读存储介质 |
CN113283403A (zh) * | 2021-07-21 | 2021-08-20 | 武汉大学 | 基于对抗学习的伪造人脸视频检测方法 |
CN113887487A (zh) * | 2021-10-20 | 2022-01-04 | 河海大学 | 一种基于CNN-Transformer的面部表情识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
李旭嵘;于鲲;: "一种基于双流网络的Deepfakes检测技术", 信息安全学报, no. 02, 15 March 2020 (2020-03-15) * |
陈鹏;梁涛;刘锦;戴娇;韩冀中;: "融合全局时序和局部空间特征的伪造人脸视频检测方法", 信息安全学报, no. 02, 15 March 2020 (2020-03-15) * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115879109A (zh) * | 2023-02-06 | 2023-03-31 | 山东省计算中心(国家超级计算济南中心) | 基于视觉Transformer的恶意软件识别方法 |
CN116188691A (zh) * | 2023-02-27 | 2023-05-30 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116188691B (zh) * | 2023-02-27 | 2024-02-06 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116071809A (zh) * | 2023-03-22 | 2023-05-05 | 鹏城实验室 | 一种基于多类表征时空交互的人脸时空表征生成方法 |
CN116206375A (zh) * | 2023-04-28 | 2023-06-02 | 南京信息工程大学 | 基于双层孪生网络和可持续学习的人脸伪造检测方法 |
CN116758404A (zh) * | 2023-05-12 | 2023-09-15 | 北京长木谷医疗科技股份有限公司 | 智能检测医学图像准确性的方法及装置 |
CN117315798A (zh) * | 2023-11-20 | 2023-12-29 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
CN117315798B (zh) * | 2023-11-20 | 2024-03-12 | 齐鲁工业大学(山东省科学院) | 一种基于身份脸型特征的深度伪造检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114694220B (zh) | 2024-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114694220B (zh) | 一种基于Swin Transformer的双流人脸伪造检测方法 | |
Rana et al. | Deepfakestack: A deep ensemble-based learning technique for deepfake detection | |
Jia et al. | Inconsistency-aware wavelet dual-branch network for face forgery detection | |
CN111310026A (zh) | 一种基于人工智能的涉黄涉恐监测方法 | |
CN112861671B (zh) | 一种对深度伪造人脸图像和视频的鉴别方法 | |
CN113361474B (zh) | 基于图像块特征提取的双流网络图像伪造检测方法及系统 | |
Yu et al. | Detecting deepfake-forged contents with separable convolutional neural network and image segmentation | |
CN111597983B (zh) | 基于深度卷积神经网络实现生成式虚假人脸图像鉴定的方法 | |
CN115035052B (zh) | 一种基于身份差异量化的伪造换脸图像检测方法和系统 | |
Zhu et al. | Deepfake detection with clustering-based embedding regularization | |
Yu et al. | SegNet: a network for detecting deepfake facial videos | |
CN117496583B (zh) | 一种可学习局部差异的深度伪造人脸检测定位方法 | |
Zhao et al. | Detecting deepfake video by learning two-level features with two-stream convolutional neural network | |
Alnaim et al. | DFFMD: a deepfake face mask dataset for infectious disease era with deepfake detection algorithms | |
Nowroozi et al. | Impact of media forensics and deepfake in society | |
Khichi et al. | A threat of deepfakes as a weapon on digital platform and their detection methods | |
CN114842524A (zh) | 一种基于不规则显著性像素簇的人脸鉴伪方法 | |
CN117095471B (zh) | 基于多尺度特征的人脸伪造溯源方法 | |
Zhao et al. | TAN-GFD: generalizing face forgery detection based on texture information and adaptive noise mining | |
CN116563957B (zh) | 一种基于傅里叶域适应的人脸伪造视频检测方法 | |
Bansal et al. | Deepfake detection using CNN and DCGANS to drop-out fake multimedia content: a hybrid approach | |
Chowdhury et al. | Review on deep fake: A looming technological threat | |
Wang et al. | Face forgery detection with a fused attention mechanism | |
CN113205044B (zh) | 一种基于表征对比预测学习的深度伪造视频检测方法 | |
Lian et al. | A novel forgery classification method based on multi‐scale feature capsule network in mobile edge computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |