CN116188956A - 一种深度伪造人脸图像检测的方法及相关设备 - Google Patents
一种深度伪造人脸图像检测的方法及相关设备 Download PDFInfo
- Publication number
- CN116188956A CN116188956A CN202310047277.9A CN202310047277A CN116188956A CN 116188956 A CN116188956 A CN 116188956A CN 202310047277 A CN202310047277 A CN 202310047277A CN 116188956 A CN116188956 A CN 116188956A
- Authority
- CN
- China
- Prior art keywords
- face image
- loss
- similarity
- vector set
- fake
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 239000013598 vector Substances 0.000 claims abstract description 181
- 238000001514 detection method Methods 0.000 claims abstract description 76
- 238000012549 training Methods 0.000 claims abstract description 72
- 238000013135 deep learning Methods 0.000 claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 22
- 238000013434 data augmentation Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 7
- 230000003190 augmentative effect Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 125000003580 L-valyl group Chemical group [H]N([H])[C@]([H])(C(=O)[*])C(C([H])([H])[H])(C([H])([H])[H])[H] 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明提供了一种深度伪造人脸图像检测的方法及相关设备,包括:获取真实人脸图像集和伪造人脸图像集构造训练集进行特征学习,得到多维特征向量集合;对多维特征向量集合中任意两个特征向量进行相似性计算,对训练集生成类标签向量集合,对其中任意两个类标签向量进行计算;将多维特征向量集合输入分类网络,得到二维概率向量集合并进行分类损失计算;然后计算总体损失并根据其通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型;将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果;提高了伪造人脸图像检测的精度。
Description
技术领域
本发明涉及人脸伪造检测技术领域,特别涉及一种深度伪造人脸图像检测的方法及相关设备。
背景技术
随着人脸篡改技术的快速发展,伪造人脸越来越难以被人眼辨别,这会给人类和社会安全造成很大影响,因此如何检测人脸伪造是至关重要的。
在人工智能的很多应用领域,度量学习,也称为相似度学习,得到了的广泛的应用。它是指根据不同的任务,自主地学习得到针对某个特定任务的度量距离函数。AKashKumar使用了度量学习(三元网络)进行人脸伪造检测,并且实验结果说明了有效度量数据之间的距离确实能够提升深度网络的检测性能。但是,该方法的三元损失更多的是考虑类间距离,而类内距离则可能并不紧凑。Jiaming Li认为伪造人脸分布具有多样性,真实人脸分布具有一定的确定性,它们提出了单一中心损失进行人脸伪造检测-让真实数据类内更加紧凑,取得了相当好的性能。Yun shengNi等人提出了连续表征学习损失,通过约束样本在两种不同的数据增广下的嵌入空间的相似性,让网络具有对不同形式下的同一样本提取的特征具有一致性的学习能力。实际上,分析该文提出的约束方式,它等价于约束同类数据之间的相似性的一个特例。原因在于:在伪造视频数据中,同一个人的真实人脸图像集和伪造人脸图像集不是唯一的。其次,它们采用的擦除式数据增广的方式可能会导致重要的篡改伪造痕迹被擦除或者减弱,从而使得伪造数据与真实数据之间的差异变小,从而导致模型不能很好的学习真实人脸图像集与伪造人脸图像集的差异。
在伪造人脸图像集检测的相关领域,目前主要采用的是基于循环卷积神经网络的方法。其中,卷积神经网络主要用于分析图像纹理特征、人脸边缘特征、头部姿态特征等伪造特征。在这些特征中,大部分针对传统的伪造手段进行检测,如PS图像特征、翻拍屏幕的摩尔纹特征等等,但这些传统的检测方法面对目前最新的伪造手段:利用对抗生成网络生成伪造人脸图像集,已经不具备有效的检测能力。
虽然目前也有少部分针对最新的生成伪造人脸图像集的手段进行检测,但这类检测方法仍然不够成熟,检测准确率较低,且鲁棒性较差。
发明内容
本发明提供了一种深度伪造人脸图像检测的方法及相关设备,其目的是为了提高伪造人脸图像检测的精度。
为了达到上述目的,本发明提供了一种深度伪造人脸图像检测的方法,包括:
步骤1,获取真实人脸图像集和伪造人脸图像集,真实人脸图像集中的人脸图像与伪造人脸图像集中的人脸图像一一对应;
步骤2,分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并将训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
步骤3,对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;
步骤4,将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;二维概率向量集合中的二维概率向量与特征向量一一对应;
步骤5,将总体相似性损失值与平衡因子相乘,得到的乘积与总体分类损失值相加的和作为总体损失,并根据总体损失,通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型;
步骤6,将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
进一步来说,步骤2还包括:
对训练集进行数据增广处理;
将增广后的训练集输入深度学习网络进行特征学习。
进一步来说,深度学习网络包括特征提取网络和全连接神经网络,特征提取网络的输出端与全连接神经网络的输入端连接,特征提取网络的输入端为深度学习网络的输入端,全连接神经网络的输出端为深度学习网络的输出端;
将增广后的训练集输入特征提取网络进行特征提取,得到多维特征向量集合;
将多维特征向量集合输入全连接神经网络,通过全连接神经网络对多维特征向量集合进行映射,得到2维概率向量集合。
进一步来说,在真实人脸图像集和伪造人脸图像集中各随机抽取多张图片构造训练集,对训练集进行数据增广处理,包括:
给定包含多张真实人脸图像集和伪造人脸图像集的训练集(x1,x2,x3…xN),在数据增广方式集合T中任意选择一种适合用于伪造人脸检测的增广方式t1,生成由增广后的多张真实人脸图像和增广后的多张伪造人脸图像构造的训练集。
进一步来说,步骤3包括:
对多维特征向量集合中的所有多维特征向量分别进行L2范数归一化计算得到归一化后的多维特征向量集合;
使用余弦相似性损失函数对归一化后的多维特征向量集合中任意两个向量进行相似性损失计算,得到估计相似性矩阵,如下:
对训练集中的每一张人脸图像生成与每一张人脸图像对应的类标签向量,得到类标签向量集合y=(y1,y2,y3…yN),对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵;
进一步来说,步骤4包括:
将多维特征向量集合输入分类网络,得到二维概率向量集合;
其中,p'i为第i个样本对应2维概率向量,yi为第i个样本对应的类别标签。
进一步来说,计算总体损失的公式为:
其中,λ为相似性损失与分类损失之间的平衡因子,λ的取值范围为[0,5]。
本发明还提供了一种深度伪造人脸图像检测的装置,包括:
获取模块,用于获取真实人脸图像集和伪造人脸图像集,真实人脸图像集中的人脸图像与伪造人脸图像集中的人脸图像一一对应;
特征学习模块,用于分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并将训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
第一计算模块,用于对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;
第二计算模块,用于将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;二维概率向量集合中的二维概率向量与特征向量一一对应;
训练模块,用于将相似性损失与平衡因子相乘,得到的乘积与分类损失相加的和作为总体损失,并根据总体损失,通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型;
检测模块,用于将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现深度伪造人脸图像检测的方法。
本发明还提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现深度伪造人脸图像检测的方法。
本发明的上述方案有如下的有益效果:
本发明通过获取真实人脸图像集和伪造人脸图像集,分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并输入深度学习网络进行特征学习,得到多维特征向量集合;对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;有效地增加了同类样本之间的相似性,扩大了真实人脸图像集和伪造人脸图像集之间的差异;将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;将相似性损失与平衡因子相乘,得到的乘积与分类损失相加的和作为总体损失,然后利用总体损失和反向传播法对深度学习网络进行模型训练,得到伪造人脸图像检测模型;通过模型训练提高了伪造人脸图像检测模型的泛化能力,最后将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果;解决了现有技术中人脸检测模型不能很好的学习真实人脸图像集与伪造人脸图像集的差异,提高了伪造人脸图像检测的精度。
本发明的其它有益效果将在随后的具体实施方式部分予以详细说明。
附图说明
图1为本发明实施例的流程示意图;
图2为本发明实施例在FF++(c40)数据集上验证相似性损失的实验结果图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是锁定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明针对现有的问题,提供了一种深度伪造人脸图像检测的方法及相关设备。
如图1所示,本发明的实施例提供了一种深度伪造人脸图像检测的方法,包括:
步骤1,获取真实人脸图像集和伪造人脸图像集,真实人脸图像集中的人脸图像与伪造人脸图像集中的人脸图像一一对应。
在本发明实施例中,为了便于后续对深度学习网络进行训练,需要获取多个真实人脸图像集和伪造人脸图像集,因此分别对三个常用的伪造人脸数据集:FaceForensics++(FF++)、DFDC、Celeb-DF提取真实人脸图像集和伪造人脸图像集形成数据平衡的人脸检测数据集。其中FaceForensics++(FF++)包含了从视频网站Youtube上收集的1363个真实人脸视频和使用四种篡改方法合成的4000个假视频。DFDC包括119197个视频,每个视频长度为10秒,帧率从15到30帧,分辨率从320×240到3840×2160。Celeb-DF包含590个从视屏网站YouTube采集的原始视频和5639个从真实视频生成的DeepFake深度伪造视频。本示例对上述三个数据集均采用5:1的比例划分train/real、train/fake训练数据集和val/real、val/real测试数据集,其中real为保存的真实人脸图像集,fake为保存的伪造人脸图像集;train/real包含50000张真实的人脸图像,train/fake包含50000张伪造的人脸图像,val/real包含10000张真实的人脸图像,val/fake包含10000张伪造的人脸图像。
步骤2,分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并将训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
步骤3,对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;
步骤4,将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;二维概率向量集合中的二维概率向量与特征向量一一对应;
步骤5,将相似性损失与平衡因子相乘,得到的乘积与分类损失相加的和作为总体损失,并根据总体损失,通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型;
步骤6,将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
具体来说,步骤2还包括:
对训练集进行数据增广处理;
将增广后的训练集输入深度学习网络进行特征学习。
具体来说,在真实人脸图像集和伪造人脸图像集中各随机抽取多张图片构造训练集,对训练集进行数据增广处理,包括:
给定包含多张真实人脸图像集和伪造人脸图像集的训练集(x1,x2,x3…xN),在数据增广方式集合T中任意选择一种适合用于伪造人脸检测的增广方式t1,默认建议的四种数据增广的方式包括随机擦除、随机水平翻转、随机裁剪和组合式数据增广(包括随机仿射变换、随机压缩、随机下采样等);生成由增广后的多张真实人脸图像和增广后的多张伪造人脸图像构造的训练集。由于某些数据增广方式,可能会破坏伪造人脸信息,因此,本发明实施例通过增加数据增广的变化范围,例如扩大随机擦除区域的大小来验证约束样本之间的相似性,可以让深度学习网络学习到数据不变性的能力。
在本发明的一些实施例中,默认选择随机擦除(RandomErasing)进行数据增广;随机擦除是一种轻量级方法,不需要任何额外的参数或内存消耗,它可以在不改变学习策略的情况下与各种CNN模型集成;对于现有的数据增强和正则化方法的补充,两者结合使用,Random Erasing进一步提高了识别性能;在图像分类、目标检测和行人重识别方面,提高了深度模型的性能,提高鲁棒性。
具体来说,深度学习网络包括特征提取网络和全连接神经网络,特征提取网络的输出端与全连接神经网络的输入端连接,特征提取网络的输入端为深度学习网络的输入端,全连接神经网络的输出端为深度学习网络的输出端。
将增广后的训练集输入特征提取网络进行特征提取,得到多维特征向量集合。在本发明实施例中,选用具有17个卷积层和1个全连接层的经典CNN网络ResNet18和具有3个卷积层、7个倒残差结构和1个平均池化层的轻量化网络MobileNet-v2作为特征提取网络f,特征提取网络f对输入的训练集(x'1,x'2x'3…x'N)进行特征提取,得到多维特征向量为:
(f'1,f'2,f'3…f′N)=f(x'1,x'2,x'3…x′N)
其中,f'N表示第N维特征向量,N的取值可以是512或1024,x'N表示第N个人脸图像。
需要说明的是深度学习网络可以是常用的卷积神经网络,但不局限于常用的卷积神经网络。
将多维特征向量输入全连接神经网络,通过全连接神经网络对多维特征向量进行映射,得到K维向量。在本发明实施例中,K的取值为2,对应二分类。
具体来说,步骤3包括:
为了简单高效的增大同类样本的相似性,减少不同类别之间的相似性,本发明实施例引入了余弦相似性损失函数,具体来说:
为了便于计算余弦角,对多维特征向量集合中的所有多维特征向量分别进行L2范数归一化计算得到归一化后的多维特征向量集合。
使用余弦相似性损失函数对归一化后的多维特征向量集合中任意两个向量进行相似性损失计算,得到估计相似性矩阵,如下:
对训练集中的每一张人脸图像生成与每一张人脸图像对应的类标签向量,得到类标签向量集合y=(y1,y2,y3…yN),对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵。
余弦损失函数通常用于评估两个向量的相似性,两个向量的余弦值越高,则相似性越高。
通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值,让同类的特征向量趋近于1,真实人脸的特征向量与伪造人脸的特征向量趋近为-1,其函数表达式为:
其中,为第i维特征向量f'i的L2范数归一化向量,/>为第j维特征向量f'j的L2范数归一化向量,L2范数归一化的计算方式为/>yi为第i个样本对应的类标签,yj为第j个样本对应的类标签。作为一个可选的示例,上述范数归一化方法可以为P=2范数。
需要指出的是,在本发明实施例中,特征向量之间的相似性的计算,不需要任何的其他模块进行处理,不增加模型的参数。
具体来说,步骤4包括:
将多维特征向量集合输入分类网络,得到二维概率向量集合;
其中,p'i为第i个样本对应2维概率向量,yi为第i个样本对应的类别标签。
具体来说,计算总体损失的公式为:
其中,λ为相似性损失与分类损失之间的平衡因子,λ的取值范围为[0,5],本发明实施例在对深度学习网络进行训练之前需要对平衡因子λ选取不同的取值进行验证。
具体来说,根据总体损失,通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,训练迭代100次,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型。
具体的,在本发明实施例中,在训练过程中,可以将输入的人脸图像对应的分类标签作为真实标签,以基于分类网络得到分类标签为预测标签,计算真实标签与预测标签之间的分布差异。
需要说明的是,由于以块状图像为训练数据集对深度学习网络进行训练的过程,与常用的模型训练过程相同,因此在本发明实施例中不对训练过程的具体步骤进行过多赘述。
下面结合具体的验证过程对深度伪造人脸图像检测方法进行说明。
为了验证本发明提出的深度伪造人脸图像检测方法的两个优点:
(1)相似性损失可以简单有效增加同类样本之间相似性和扩大真实图像与伪造图像之间的差异,让深度学习网络学习到更加本质的伪造信息,通过具体实例进行验证,验证过程如下:
主要使用ResNet18和MobileNet-v2两种基础的卷积网络进行比较,上述两种卷积网络已在图像识别领域得到广泛的应用。为了方便对比,对使用了相似性损失的方法标记为ResNet18+,MobileNet-v2+,其中平衡因子λ都默认设置为1,并在FF++,DFDC数据集上进行了内部消融实验,如在表1所示:
表1(请将表格中的英文表述换成中文)
上表(1)说明了相似性损失是通过增加同类样本之间相似性,扩大真实数据与伪造数据之间的差异,提升深度学习网络的检测性能。为了从视觉上进行对比,本发明实施例对ResNet18和ResNet18+的Class Activation Mapping(CAM,类热力图)进行可视化,可以表明ResNet18+在发现伪造信息区域上更具有精确性。为了从聚类的角度观察到我们提出方法的有效性,本发明实施例使用t-SNE方法可视化了Resnet18和Resnet18+在FF++(c23)测试数据集上的二维图,如附图2所示,我们的方法使得类内更加紧凑。因此也相对增加了类间的距离。
(2)约束样本之间的相似性,让伪造人脸图像检测模型具有一定的数据一致性能力,从而有效利用数据增广的优势,通过具体实例进行验证,验证过程如下:
本发明实施例在水平翻转数据增广方式基础上,使用了Random Erasing随机擦除,随机擦除(Random Erasing),多种数据增广方式集合(DFDC_selmi),随机裁剪(RandomResized Crop(RC))三种数据增广方式,我们使用ResNet18作为基准网络,在DFDC数据集上进行验证,其中平衡因子λ设置为2,本发明实施例使用AUC作为评估指标,如下表2所示:
表2
有上表可看出,本发明所提供深度伪造人脸图像检测的方法在各种数据增广的方式下比基础的卷积网络在性能上更加优异。
本发明实施例通过获取真实人脸图像集和伪造人脸图像集,分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并输入深度学习网络进行特征学习,得到多维特征向量集合;对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;有效地增加了同类样本之间的相似性,扩大了真实人脸图像集和伪造人脸图像集之间的差异;将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;将相似性损失与平衡因子相乘,得到的乘积与分类损失相加的和作为总体损失,然后利用总体损失和反向传播法对深度学习网络进行模型训练,得到伪造人脸图像检测模型;通过模型训练提高了伪造人脸图像检测模型的泛化能力,最后将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果;解决了现有技术中人脸检测模型不能很好的学习真实人脸图像集与伪造人脸图像集的差异,提高了伪造人脸图像检测的精度。
本发明实施例还提供了一种深度伪造人脸图像检测的装置,包括:
获取模块,用于获取真实人脸图像集和伪造人脸图像集,真实人脸图像集中的人脸图像与伪造人脸图像集中的人脸图像一一对应;
特征学习模块,用于分别从真实人脸图像集和伪造人脸图像集中随机抽取多张图片构造训练集,并将训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
第一计算模块,用于对多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对估计相似性值矩阵与真实相似性值矩阵进行计算,得到总体相似性损失值;
第二计算模块,用于将多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对二维概率向量集合与类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;二维概率向量集合中的二维概率向量与特征向量一一对应;
训练模块,用于将相似性损失与平衡因子相乘,得到的乘积与分类损失相加的和作为总体损失,并根据总体损失,通过反向传播法对深度学习网络进行模型训练并更新深度学习网络的网络参数,直至总体损失接近于预设阈值,得到伪造人脸图像检测模型;
检测模块,用于将待检测的块状人脸图像输入伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本发明实施例方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现深度伪造人脸图像检测的方法。
集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到构建装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实施例还提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现深度伪造人脸图像检测的方法。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑、服务器、服务器集群及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器、存储器。
所称处理器可以是中央处理单元(CPU,Central Processing Unit),该处理器还可以是其他通用处理器、数字信号处理器(DSP,Digital Signal Processor)、专用集成电路(ASIC,Application Specific Integrated Circuit)、现成可编程门阵列(FPGA,Field-Programmable Gate Array)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器在一些实施例中可以是所述终端设备的内部存储单元,例如终端设备的硬盘或内存。所述存储器在另一些实施例中也可以是所述终端设备的外部存储设备,例如所述终端设备上配备的插接式硬盘,智能存储卡(SMC,Smart Media Card),安全数字(SD,Secure Digital)卡,闪存卡(Flash Card)等。进一步地,所述存储器还可以既包括所述终端设备的内部存储单元也包括外部存储设备。所述存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器还可以用于暂时地存储已经输出或者将要输出的数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本发明实施例方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
在本发明实施例所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种深度伪造人脸图像检测的方法,其特征在于,包括:
步骤1,获取真实人脸图像集和伪造人脸图像集,所述真实人脸图像集中的人脸图像与所述伪造人脸图像集中的人脸图像一一对应;
步骤2,分别从所述真实人脸图像集和所述伪造人脸图像集中随机抽取多张图片构造训练集,并将所述训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
步骤3,对所述多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对所述训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对所述类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对所述估计相似性值矩阵与所述真实相似性值矩阵进行计算,得到总体相似性损失值;
步骤4,将所述多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对所述二维概率向量集合与所述类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;所述二维概率向量集合中的二维概率向量与特征向量一一对应;
步骤5,将所述总体相似性损失值与平衡因子相乘,得到的乘积与所述总体分类损失值相加的和作为总体损失,并根据所述总体损失,通过反向传播法对所述深度学习网络进行模型训练并更新所述深度学习网络的网络参数,直至所述总体损失接近于预设阈值,得到伪造人脸图像检测模型;
步骤6,将待检测的块状人脸图像输入所述伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
2.根据权利要求1所述的深度伪造人脸图像检测的方法,其特征在于,所述步骤2还包括:
对所述训练集进行数据增广处理;
将增广后的训练集输入深度学习网络进行特征学习。
3.根据权利要求2所述的深度伪造人脸图像检测的方法,其特征在于,所述深度学习网络包括特征提取网络和全连接神经网络,所述特征提取网络的输出端与所述全连接神经网络的输入端连接,所述特征提取网络的输入端为所述深度学习网络的输入端,所述全连接神经网络的输出端为所述深度学习网络的输出端;
将增广后的训练集输入所述特征提取网络进行特征提取,得到多维特征向量集合;
将所述多维特征向量集合输入所述全连接神经网络,通过所述全连接神经网络对多维特征向量集合进行映射,得到2维概率向量集合。
4.根据权利要求2所述的深度伪造人脸图像检测的方法,其特征在于,在所述真实人脸图像集和所述伪造人脸图像集中各随机抽取多张图片构造训练集,对所述训练集进行数据增广处理,包括:
给定包含多张所述真实人脸图像集和所述伪造人脸图像集的训练集(x1,x2,x3…xN),在数据增广方式集合T中任意选择一种适合用于伪造人脸检测的增广方式t1,生成由增广后的多张真实人脸图像和增广后的多张伪造人脸图像构造的训练集。
5.根据权利要求3所述的深度伪造人脸图像检测的方法,其特征在于,所述步骤3包括:
对所述多维特征向量集合中的所有多维特征向量分别进行L2范数归一化计算得到归一化后的多维特征向量集合;
使用余弦相似性损失函数对归一化后的多维特征向量集合中任意两个向量进行相似性损失计算,得到估计相似性矩阵,如下:
对所述训练集中的每一张人脸图像生成与每一张人脸图像对应的类标签向量,得到类标签向量集合y=(y1,y2,y3…yN),对所述类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵;
8.一种深度伪造人脸图像检测的装置,其特征在于,包括:
获取模块,用于获取真实人脸图像集和伪造人脸图像集,所述真实人脸图像集中的人脸图像与所述伪造人脸图像集中的人脸图像一一对应;
特征学习模块,用于分别从所述真实人脸图像集和所述伪造人脸图像集中随机抽取多张图片构造训练集,并将所述训练集中的所有人脸图像输入深度学习网络进行特征学习,得到多维特征向量集合;
第一计算模块,用于对所述多维特征向量集合中任意两个维特征向量进行相似性计算,得到估计相似性值矩阵,对所述训练集中的每一张人脸图像生成与该人脸图像对应的类标签向量,得到类标签向量集合,对所述类标签向量集合中任意两个类标签向量进行计算得到真实相似性值矩阵,通过对所述估计相似性值矩阵与所述真实相似性值矩阵进行计算,得到总体相似性损失值;
第二计算模块,用于将所述多维特征向量集合输入分类网络,得到二维概率向量集合,通过交叉熵损失函数对所述二维概率向量集合与所述类标签向量进行分类损失计算,得到多个分类损失值,并将多个分类损失值进行求和,得到总体分类损失值;所述二维概率向量集合中的二维概率向量与特征向量一一对应;
训练模块,用于将所述相似性损失与平衡因子相乘,得到的乘积与所述分类损失相加的和作为总体损失,并根据所述总体损失,通过反向传播法对所述深度学习网络进行模型训练并更新所述深度学习网络的网络参数,直至所述总体损失接近于预设阈值,得到伪造人脸图像检测模型;
检测模块,用于将待检测的块状人脸图像输入所述伪造人脸图像检测模型进行深度伪造人脸检测,得到检测结果。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的深度伪造人脸图像检测的方法。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的深度伪造人脸图像检测的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310047277.9A CN116188956A (zh) | 2023-01-31 | 2023-01-31 | 一种深度伪造人脸图像检测的方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310047277.9A CN116188956A (zh) | 2023-01-31 | 2023-01-31 | 一种深度伪造人脸图像检测的方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116188956A true CN116188956A (zh) | 2023-05-30 |
Family
ID=86441693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310047277.9A Pending CN116188956A (zh) | 2023-01-31 | 2023-01-31 | 一种深度伪造人脸图像检测的方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116188956A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630727A (zh) * | 2023-07-26 | 2023-08-22 | 苏州浪潮智能科技有限公司 | 模型训练方法、深伪图像检测方法、装置、设备及介质 |
-
2023
- 2023-01-31 CN CN202310047277.9A patent/CN116188956A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630727A (zh) * | 2023-07-26 | 2023-08-22 | 苏州浪潮智能科技有限公司 | 模型训练方法、深伪图像检测方法、装置、设备及介质 |
CN116630727B (zh) * | 2023-07-26 | 2023-11-03 | 苏州浪潮智能科技有限公司 | 模型训练方法、深伪图像检测方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Peng et al. | Face presentation attack detection using guided scale texture | |
Ferrara et al. | Face morphing detection in the presence of printing/scanning and heterogeneous image sources | |
US20230021661A1 (en) | Forgery detection of face image | |
Tokuda et al. | Computer generated images vs. digital photographs: A synergetic feature and classifier combination approach | |
Zhang et al. | A dense u-net with cross-layer intersection for detection and localization of image forgery | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN113011387B (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
Wang et al. | S 3 D: Scalable pedestrian detection via score scale surface discrimination | |
Diwan et al. | Keypoint based comprehensive copy‐move forgery detection | |
CN116958637A (zh) | 图像检测模型的训练方法、装置、设备及存储介质 | |
Yu et al. | Salience-aware face presentation attack detection via deep reinforcement learning | |
Kiruthika et al. | Image quality assessment based fake face detection | |
CN116188956A (zh) | 一种深度伪造人脸图像检测的方法及相关设备 | |
Sedik et al. | An efficient cybersecurity framework for facial video forensics detection based on multimodal deep learning | |
Yin et al. | Contrastive learning based multi-task network for image manipulation detection | |
Xu et al. | Multi‐pyramid image spatial structure based on coarse‐to‐fine pyramid and scale space | |
Li | Saliency prediction based on multi-channel models of visual processing | |
Yang et al. | Instance specific discriminative modal pursuit: A serialized approach | |
Fang et al. | Intra and cross-spectrum iris presentation attack detection in the NIR and visible domains | |
CN112308093A (zh) | 基于图像识别的空气质量感知方法、模型训练方法及系统 | |
CN111079704A (zh) | 一种基于量子计算的人脸识别方法及装置 | |
Liu et al. | Image forgery localization based on fully convolutional network with noise feature | |
Jia et al. | Enhanced face morphing attack detection using error-level analysis and efficient selective kernel network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |