CN118135641A - 基于局部伪造区域检测的人脸伪造检测方法 - Google Patents
基于局部伪造区域检测的人脸伪造检测方法 Download PDFInfo
- Publication number
- CN118135641A CN118135641A CN202410551131.2A CN202410551131A CN118135641A CN 118135641 A CN118135641 A CN 118135641A CN 202410551131 A CN202410551131 A CN 202410551131A CN 118135641 A CN118135641 A CN 118135641A
- Authority
- CN
- China
- Prior art keywords
- image
- local
- counterfeit
- detection
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000002372 labelling Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 17
- 230000003993 interaction Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 230000001172 regenerating effect Effects 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开基于局部伪造区域检测的人脸伪造检测方法,涉及图像处理技术领域,包括以下步骤:S1:数据处理;S11:从视频数据中提取每个视频的10帧,并将其转换为图像数据集;S12:对图像中的潜在伪造区域进行标注;S13:将图像的真伪属性、图像位置信息以及伪造区域的掩码信息存储在JSON文件中,以便后续训练模型时使用。本发明要解决的技术问题是提供基于局部伪造区域检测的人脸伪造检测方法,有效地减轻了对全局信息的依赖,进一步增强了模型的泛化能力,从而在深度伪造检测领域取得更为准确和鲁棒的结果。
Description
技术领域
本发明涉及图像处理技术领域,具体地讲,涉及基于局部伪造区域检测的人脸伪造检测方法。
背景技术
随着深度学习技术的迅速发展,深度伪造技术已逐渐成熟,然而其广泛应用也带来了严重的安全隐患。这种技术能够通过对图像等多媒体数据的精密操作,使得虚假内容与真实内容之间的区分变得异常困难。因此,深度伪造检测成为当前研究领域的一项至关重要的议题。然而,当前的深度伪造检测方法往往过度依赖于全局信息,这会导致检测模型错误地学习人物的全局信息,从而影响了模型的泛化能力。因此,开发一种新的方法来解决这一问题具有重要意义。在这个新方法中,我们考虑如何更好地利用局部信息,并结合一种新的卷积方法,以提高模型的鲁棒性和准确性。这样的创新将有助于更好地应对不断演进的深度伪造技术所带来的挑战,从而维护社会信息的真实性和可信度。
当前深度伪造检测技术面临着一些重要的挑战。首先,传统方法往往过度依赖于全局信息进行检测,这可能导致在识别深度伪造时检测器记住了身份信息,检测时一些伪造的图像可能和该身份信息具有相近的全局信息,导致检测错误,从而会影响检测的准确性和泛化能力。其次,深度伪造图像中的微小痕迹,尤其是局部伪造特征,难以被传统模型准确捕捉,导致不能对虚假图片进行有效检测。
针对这些现有技术的缺点,旨在提出一种新的方法去解决这些问题。本发明致力于降低深度伪造检测模型对全局信息的依赖,使深度伪造检测时模型更加关注局部伪造区域,从而提高模型的泛化性能。其次,利用一种新的卷积方法,更准确地捕捉深度伪造图像中的微小痕迹,特别是局部伪造特征,从而提高深度伪造检测的准确性和鲁棒性。
所以,我们致力于提供一种能够更加关注局部信息的伪造检测方法,为应对深度伪造技术带来的安全挑战提供新的解决方案。
发明内容
本发明要解决的技术问题是提供基于局部伪造区域检测的人脸伪造检测方法,有效地减轻了对全局信息的依赖,进一步增强了模型的泛化能力,从而在深度伪造检测领域取得更为准确和鲁棒的结果。
本发明采用如下技术方案实现发明目的:
基于局部伪造区域检测的人脸伪造检测方法,其特征在于,包括以下步骤:
S1:数据处理;
S11:从视频数据中提取每个视频的10帧,并将其转换为图像数据集;
S12:对图像中的潜在伪造区域进行标注;
S13:将图像的真伪属性、图像位置信息以及伪造区域的掩码信息存储在JSON文件中,以便后续训练模型时使用;
S14:对图像进行数据处理,采用常规的数据增强方法如JPEG压缩、随机裁剪,以增加数据集的丰富性,提高模型的泛化能力;
S2:训练流程;
S21:将图片输入到特征提取模块进行特征提取;
S22:使用公式对这空间特征和高频特征进行交互操作;
S23:将交互完成的两类特征重新生成一个特征将不同的输入通道转换成相同的输出通道,并生成最终的输出特征;
S3:图像检测;
S31:从特征提取模块中提取的特征图作为输入,输入至锚点检测器,使用锚点检测图像上的局部伪造区域,并使用Smooth L1损失函数来指导其进行训练,以便于模型更加关注伪造区域;
S32:将从锚点分类器输出的特征图与从特征提取模块提取的特征图执行相加操作,并变成1×1大小的特征,送入最后的全连接层进行分类,预测图像是真实图像还是伪造图像。
作为本技术方案的进一步限定,所述S12的具体步骤为:
采用基于结构差异的方法来确定最可能存在伪造区域的位置,包括计算源图像和目标图像/>之间的结构差异,使用以下公式表示随机区域的位置:
(1)
其中:表示结构差异;
和/>表示随机区域的高度和宽度;
和/>表示随机区域的上位置和左位置;
其中:argmax函数表示后面的式子达到最大值时的变量及/>的取值;
i和j分别表示公式取值范围从x至x+h和y至y+w.
表示公式取值范围从/>至/>;
表示公式取值范围从/>至/>;
通过选定的随机区域计算得到一个掩码M,再利用alpha混合源图像和目标图像,得到一个具有伪造区域位置标注的伪造图像,公式如下:
(2)。
所述S21中,对Xception网络进行修改,以实现更好地对图像进行特征提取,采用一种卷积方法来替换Xception网络中的普通卷积,进一步增强特征表示和捕捉局部伪造特征;
该卷积方法将输入特征分成两个部分:使用普通卷积捕捉图像中的空间特征,使用深度可分离卷积捕捉图像中的高频特征/>;
深度可分离卷积是将传统卷积操作分家为两个步骤:深度卷积和驻点卷积。
作为本技术方案的进一步限定,所述S22中公式如下:
(3)
(4)
其中:和/>表示输入通道数和输出通道数;
为超参数,调节输入通道和输出通道之间的比例关系;
表示高频特征进行的一组卷积运算;
表示空间特征进行的一组卷积运算。
所述输出特征的实现公式如下:
(5)
其中:为高频特征更新后与空间特征相加后的结果;
空间特征更新后与高频特征相加后的结果。
作为本技术方案的进一步限定,所述S31的具体步骤为:
用来表示预测伪造区域和实际伪造区域的差异,损失函数定义如下:
(6)
一旦确定锚点位置之后,将其输入锚点分类器中,用于判断每个锚点是真实还是伪造,使用交叉熵损失函数来指导其进行训练,其公式为:
(7);
其中:是二元标签0或1,
是输出属于y标签的概率;
表示交叉熵损失函数;
使用定位损失函数来指导模型更加关注于局部伪造区域,其定义如下:
(8)
其中:表示锚点的数量;
为一个正权重,初始时将其设置为1。
作为本技术方案的进一步限定,所述S32的具体步骤为:
使用一个分类损失函数来衡量最终的预测结果,设计一个总的损失函数用于加权定位伪造函数和分类损失函数,公式如下:
(9)。
作为对本技术方案的进一步限定,所述图像数据集为FF++数据集。
与现有技术相比,本发明的优点和积极效果是:本发明在应对深度学习技术带来的人脸伪造问题。首先,通过对伪造图像进行伪造区域的准确标注,使得训练中的模型能够识别并学习局部伪造区域的特征。接下来,采用Xception网络来提取图像中的特征,并结合空间域特征和高频特征的交互,采用卷积方法进一步增强特征提取的能力,以捕捉局部伪造特征。随后,提取的特征图进入锚点分类器和锚点检测器,使得模型更加关注伪造区域,从而减少模型对于全局信息的依赖。最终,将所提取的特征图输入到全连接层来进行图像真伪的识别。这一方法的关键在于通过增强对局部伪造区域的关注,从而提高模型的泛化能力,使其能够更好地适应不同类型的伪造图像,进而提高人脸伪造检测的准确性和鲁棒性。本发明通过对局部伪造区域进行精准标注,训练时确保模型能够准确识别这些区域,从而有效地进行学习。利用空间域特征和高频特征的卷积交互,我们进一步优化了Xception网络,使其能够更有效地提取和捕捉局部伪造特征。之后将得到的特征图输入到锚点分类器和锚点检测器,使模型更专注于局部伪造区域的细节,减少了模型对全局信息的过度依赖,避免了模型错误地捕捉人脸的完整信息而导致泛化能力下降的情况。因此,本发明不仅能够增强模型对局部伪造特征的识别能力,提升检测效果,而且还有效地减轻了对全局信息的依赖,进一步增强了模型的泛化能力,从而在深度伪造检测领域取得更为准确和鲁棒的结果。
附图说明
图1为本发明的人脸伪造检测框架图。
图中,中N代表批次大小,即每次训练输入样本的数量,C代表输入通道数,对于彩色图像为3个通道,红、绿、蓝;/>代表特征图的垂直像素数和水平像素数是5;中N代表批次大小,即每次训练输入样本的数量,C代表输入通道数,对于彩色图像为3个通道,红、绿、蓝;/>代表特征图的垂直像素数和水平像素数是1。
具体实施方式
下面结合附图,对本发明的一个具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
本发明包括以下步骤:
S1:数据处理;
S11:从视频数据中提取每个视频的10帧,并将其转换为图像数据集;
所述图像数据集为FF++数据集。
本发明托于FF++数据集,该数据集包含两个子集:original_sequences和manipulated_sequences,其中original_sequences是真实数据集,manipulated_sequences为是伪造数据集,并且后者包括Deepfakes、Face2Face、FaceSwap和NeuralTextures4个子集。
S12:对图像中的潜在伪造区域进行标注;
所述S12的具体步骤为:
采用基于结构差异的方法来确定最可能存在伪造区域的位置,包括计算源图像和目标图像/>之间的结构差异,使用以下公式表示随机区域的位置:
(1)
其中:表示结构差异;
和/>表示随机区域的高度和宽度;
和/>表示随机区域的上位置和左位置;
其中:argmax函数表示后面的式子达到最大值时的变量及/>的取值;
i和j分别表示公式取值范围从x至x+h和y至y+w.
表示公式取值范围从/>至/>;
表示公式取值范围从/>至/>;
通过选定的随机区域计算得到一个掩码M,再利用alpha混合源图像和目标图像,得到一个具有伪造区域位置标注的伪造图像,公式如下:
(2)。
深度伪造检测中,准确地标注这些局部伪造区域至关重要,因为这直接影响着判断图像或视频是否被篡改。本发明是对真实图像和伪造图像进行处理,以确定图像的潜在伪造区域。
S13:将图像的真伪属性、图像位置信息以及伪造区域的掩码信息存储在JSON文件中,以便后续训练模型时使用;
S14:对图像进行数据处理,采用常规的数据增强方法如JPEG压缩、随机裁剪,以增加数据集的丰富性,提高模型的泛化能力;
S2:训练流程;
S21:将图片输入到特征提取模块进行特征提取;
所述S21中,对Xception网络进行修改,以实现更好地对图像进行特征提取,采用一种卷积方法来替换Xception网络中的普通卷积,进一步增强特征表示和捕捉局部伪造特征;
Xception网络作为主干网络在许多计算机视觉任务中表现优异,其能够帮助模型捕捉到图像中的微小差异和伪造特征,从而提高检测的准确性。
该卷积方法将输入特征分成两个部分:使用普通卷积捕捉图像中的空间特征,使用深度可分离卷积捕捉图像中的高频特征/>;
深度可分离卷积是将传统卷积操作分家为两个步骤:深度卷积和驻点卷积。
深度卷积首先对每个输入通道应用单通道的卷积核,生成相应数量的特征图。逐点卷积是对深度卷积生成的特征图应用1×1的卷积核,已将通道间的特征进行组合和整合。
S22:使用公式对这空间特征和高频特征进行交互操作;
所述S22中公式如下:
(3)
(4)
其中:和/>表示输入通道数和输出通道数;
为超参数,调节输入通道和输出通道之间的比例关系;
表示高频特征进行的一组卷积运算;
表示空间特征进行的一组卷积运算。
所述输出特征的实现公式如下:
(5)
其中:为高频特征更新后与空间特征相加后的结果;
空间特征更新后与高频特征相加后的结果。
S23:将交互完成的两类特征重新生成一个特征将不同的输入通道转换成相同的输出通道,并生成最终的输出特征;
这三步操作分离、交互和生成用以替换Xception网络中的普通卷积层,每一步可替换一个普通卷积层,需保证输入和输出的特征图维度一致。通过此步操作,将可以更好地增强特征表示,并更准确地捕捉到图像的局部伪造信息,以便于后续对图像识别真伪。
S3:图像检测;
S31:从特征提取模块中提取的特征图作为输入,输入至锚点检测器,使用锚点检测图像上的局部伪造区域,并使用Smooth L1损失函数来指导其进行训练,以便于模型更加关注伪造区域;
所述S31的具体步骤为:
用来表示预测伪造区域和实际伪造区域的差异,损失函数定义如下:
(6)
一旦确定锚点位置之后,将其输入锚点分类器中,用于判断每个锚点是真实还是伪造,使用交叉熵损失函数来指导其进行训练,其公式为:
(7);
其中:是二元标签0或1,
是输出属于y标签的概率;
表示交叉熵损失函数;
使用定位损失函数来指导模型更加关注于局部伪造区域,其定义如下:
(8)
其中:表示锚点的数量;
为一个正权重,初始时将其设置为1。
S32:将从锚点分类器输出的特征图与从特征提取模块提取的特征图执行相加操作,并变成1×1大小的特征,送入最后的全连接层进行分类,预测图像是真实图像还是伪造图像。
所述S32的具体步骤为:
使用一个分类损失函数来衡量最终的预测结果,设计一个总的损失函数用于加权定位伪造函数和分类损失函数,公式如下:
(9)。
选择Adam作为优化器,并使用AUC来评估模型在区分真实和伪造图像方面的性能。AUC为0.5时表示模型没有区分能力,越接近0表示模型区分能力越差,越接近1表示模型有很好的区分能力。
以上公开的仅为本发明的具体实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (8)
1.基于局部伪造区域检测的人脸伪造检测方法,其特征在于,包括以下步骤:
S1:数据处理;
S11:从视频数据中提取每个视频的10帧,并将其转换为图像数据集;
S12:对图像中的潜在伪造区域进行标注;
S13:将图像的真伪属性、图像位置信息以及伪造区域的掩码信息存储在JSON文件中,以便后续训练模型时使用;
S14:对图像进行数据处理,采用常规的数据增强方法如JPEG压缩、随机裁剪,以增加数据集的丰富性,提高模型的泛化能力;
S2:训练流程;
S21:将图片输入到特征提取模块进行特征提取;
S22:使用公式对这空间特征和高频特征进行交互操作;
S23:将交互完成的两类特征重新生成一个特征将不同的输入通道转换成相同的输出通道,并生成最终的输出特征;
S3:图像检测;
S31:从特征提取模块中提取的特征图作为输入,输入至锚点检测器,使用锚点检测图像上的局部伪造区域,并使用Smooth L1损失函数来指导其进行训练,以便于模型更加关注伪造区域;
S32:将从锚点分类器输出的特征图与从特征提取模块提取的特征图执行相加操作,并变成1×1大小的特征,送入最后的全连接层进行分类,预测图像是真实图像还是伪造图像。
2.根据权利要求1所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述S12的具体步骤为:
采用基于结构差异的方法来确定最可能存在伪造区域的位置,包括计算源图像和目标图像/>之间的结构差异,使用以下公式表示随机区域的位置:
(1)
其中:表示结构差异;
和/>表示随机区域的高度和宽度;
和/>表示随机区域的上位置和左位置;
其中:argmax函数表示后面的式子达到最大值时的变量及/>的取值;
i和j分别表示公式取值范围从x至x+h和y至y+w.
表示公式取值范围从/>至/>;
表示公式取值范围从/>至/>;
通过选定的随机区域计算得到一个掩码M,再利用alpha混合源图像和目标图像,得到一个具有伪造区域位置标注的伪造图像,公式如下:
(2)。
3.根据权利要求2所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述S21中,对Xception网络进行修改,以实现更好地对图像进行特征提取,采用一种卷积方法来替换Xception网络中的普通卷积,进一步增强特征表示和捕捉局部伪造特征;
该卷积方法将输入特征分成两个部分:使用普通卷积捕捉图像中的空间特征,使用深度可分离卷积捕捉图像中的高频特征/>;
深度可分离卷积是将传统卷积操作分家为两个步骤:深度卷积和驻点卷积。
4.根据权利要求3所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述S22中公式如下:
(3)
(4)
其中:和/>表示输入通道数和输出通道数;
为超参数,调节输入通道和输出通道之间的比例关系;
表示高频特征进行的一组卷积运算;
表示空间特征进行的一组卷积运算。
5.根据权利要求4所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述输出特征的实现公式如下:
(5)
其中:为高频特征更新后与空间特征相加后的结果;
空间特征更新后与高频特征相加后的结果。
6.根据权利要求5所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述S31的具体步骤为:
用来表示预测伪造区域和实际伪造区域的差异,损失函数定义如下:
(6)
一旦确定锚点位置之后,将其输入锚点分类器中,用于判断每个锚点是真实还是伪造,使用交叉熵损失函数来指导其进行训练,其公式为:
(7);
其中:是二元标签0或1,
是输出属于y标签的概率;
表示交叉熵损失函数;
使用定位损失函数来指导模型更加关注于局部伪造区域,其定义如下:
(8)
其中:表示锚点的数量;
为一个正权重,初始时将其设置为1。
7.根据权利要求6所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述S32的具体步骤为:
使用一个分类损失函数来衡量最终的预测结果,设计一个总的损失函数用于加权定位伪造函数和分类损失函数,公式如下:
(9)。
8.根据权利要求1所述的基于局部伪造区域检测的人脸伪造检测方法,其特征在于:所述图像数据集为FF++数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410551131.2A CN118135641B (zh) | 2024-05-07 | 2024-05-07 | 基于局部伪造区域检测的人脸伪造检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410551131.2A CN118135641B (zh) | 2024-05-07 | 2024-05-07 | 基于局部伪造区域检测的人脸伪造检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118135641A true CN118135641A (zh) | 2024-06-04 |
CN118135641B CN118135641B (zh) | 2024-08-13 |
Family
ID=91245996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410551131.2A Active CN118135641B (zh) | 2024-05-07 | 2024-05-07 | 基于局部伪造区域检测的人脸伪造检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118135641B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118334473A (zh) * | 2024-06-13 | 2024-07-12 | 南昌大学 | 一种基于语义解纠缠的深度伪造图像检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN113850284A (zh) * | 2021-07-04 | 2021-12-28 | 天津大学 | 一种基于多尺度特征融合和多分支预测的多操作检测方法 |
CN114444565A (zh) * | 2021-12-15 | 2022-05-06 | 厦门市美亚柏科信息股份有限公司 | 一种图像篡改检测方法、终端设备及存储介质 |
CN116310693A (zh) * | 2023-04-06 | 2023-06-23 | 福州大学 | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 |
CN117496583A (zh) * | 2023-12-29 | 2024-02-02 | 暨南大学 | 一种可学习局部差异的深度伪造人脸检测定位方法 |
-
2024
- 2024-05-07 CN CN202410551131.2A patent/CN118135641B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN113850284A (zh) * | 2021-07-04 | 2021-12-28 | 天津大学 | 一种基于多尺度特征融合和多分支预测的多操作检测方法 |
CN114444565A (zh) * | 2021-12-15 | 2022-05-06 | 厦门市美亚柏科信息股份有限公司 | 一种图像篡改检测方法、终端设备及存储介质 |
CN116310693A (zh) * | 2023-04-06 | 2023-06-23 | 福州大学 | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 |
CN117496583A (zh) * | 2023-12-29 | 2024-02-02 | 暨南大学 | 一种可学习局部差异的深度伪造人脸检测定位方法 |
Non-Patent Citations (1)
Title |
---|
陈鹏;梁涛;刘锦;戴娇;韩冀中;: "融合全局时序和局部空间特征的伪造人脸视频检测方法", 信息安全学报, no. 02, 15 March 2020 (2020-03-15) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118334473A (zh) * | 2024-06-13 | 2024-07-12 | 南昌大学 | 一种基于语义解纠缠的深度伪造图像检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN118135641B (zh) | 2024-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Identification of deep network generated images using disparities in color components | |
Zhuang et al. | Image tampering localization using a dense fully convolutional network | |
CN111401372B (zh) | 一种扫描文档图文信息提取与鉴别的方法 | |
Kong et al. | Detect and locate: Exposing face manipulation by semantic-and noise-level telltales | |
Yang et al. | Source camera identification based on content-adaptive fusion residual networks | |
CN108596141B (zh) | 一种深度网络生成人脸图像的检测方法及系统 | |
Wang et al. | Detection and localization of image forgeries using improved mask regional convolutional neural network | |
CN118135641B (zh) | 基于局部伪造区域检测的人脸伪造检测方法 | |
CN112381775A (zh) | 一种图像篡改检测方法、终端设备及存储介质 | |
Yang et al. | Spatiotemporal trident networks: detection and localization of object removal tampering in video passive forensics | |
CN112907598A (zh) | 一种基于注意力cnn文档证件类图像篡改检测方法 | |
CN114842524B (zh) | 一种基于不规则显著性像素簇的人脸鉴伪方法 | |
Zhang et al. | No one can escape: A general approach to detect tampered and generated image | |
CN112200075B (zh) | 一种基于异常检测的人脸防伪方法 | |
Huang et al. | Exploring feature coupling and model coupling for image source identification | |
Rhee | Detection of spliced image forensics using texture analysis of median filter residual | |
CN113822377B (zh) | 基于对比自学习的伪造人脸检测方法 | |
CN111259792A (zh) | 基于dwt-lbp-dct特征的人脸活体检测方法 | |
CN117496583B (zh) | 一种可学习局部差异的深度伪造人脸检测定位方法 | |
CN117373136A (zh) | 基于频率掩膜和注意力一致性的人脸伪造检测方法 | |
CN111027573A (zh) | 基于盲取证技术的图像真伪鉴别方法 | |
CN114841969A (zh) | 一种基于颜色梯度纹理表示的伪造人脸鉴别方法 | |
CN111860268A (zh) | 基于机器学习的伪造图像检测识别方法 | |
Alzamil | Image Forgery Detection with Machine Learning | |
Shichkina et al. | Synthesis of the method of operative image analysis based on metadata and methods of searching for embedded images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |