CN113537173A - 一种基于面部补丁映射的人脸图像真伪识别方法 - Google Patents
一种基于面部补丁映射的人脸图像真伪识别方法 Download PDFInfo
- Publication number
- CN113537173A CN113537173A CN202111084084.8A CN202111084084A CN113537173A CN 113537173 A CN113537173 A CN 113537173A CN 202111084084 A CN202111084084 A CN 202111084084A CN 113537173 A CN113537173 A CN 113537173A
- Authority
- CN
- China
- Prior art keywords
- patch
- face
- patches
- local
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于面部补丁映射的人脸图像真伪识别方法,包括以下步骤:获取人脸数据信息,从所述人脸数据信息中转换出单帧图像序列,对所述单帧图像序列进行面部检测,裁剪出人脸区域图像;在所述的人脸区域图像中提取局部补丁,包括眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁;将所述的局部补丁分别映射到卷积神经网络的不同卷积层来获得相应位置和大小的特征图;采用RoiAlign模块将所述的特征图由不同尺寸大小转换为固定尺寸大小的特征图;利用所述的固定尺寸大小的特征图训练二分类模型,采用局部投票的方式整合局部补丁的二分类判别结果,获得人脸图像真伪的识别结果。
Description
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于面部补丁映射的人脸图像真伪识别方法。
背景技术
在过去的十年间,大数据、云计算等技术的进步为人工智能的发展提供了海量的数据支持和广泛的应用场景,人工智能经历了辉煌的发展历程。其中,借助机器学习工具操纵图像、视频、音频内容,特别是更换面部、重塑表情的“深度伪造”技术是人工智能领域发展的一项重要成果,它能结合目标对象的脸型、语音、微表情等生物特征进行综合学习,达到以假乱真的效果,这是以往任何伪造技术都无法比拟的。另外,深度伪造技术还被应用于视频游戏、影视节目制作、虚拟现实等娱乐文化领域。然而,该技术的兴起也为不法分子提供了新工具,加剧了虚假信息的传播,冲击着现有的信息秩序和规范,所以对人脸图像真伪的自动识别技术的研究显得尤为重要。
随着业界对深度学习研究的进一步深入,现有的伪造生成器具备极强的自适应性,在与判别器的对抗学习中不断自我优化和升级换代,所生成的伪造图像和视频也更加逼真,使得肉眼难以辨别其真伪。在这种情况下,非常有必要借助卷积神经网络(CNN)强大的特征表达能力来学习伪造数据中隐含的细微判别信息,这是传统方法无法实现的。然而,以前的大多数方法都集中在如何构建复杂的特征提取器来获得完整输入图像的全局特征和二分法来区分真假人脸,这对于超逼真的伪造品来说并不是最佳的,因为它们只是略有不同,其伪造的图像确实来自某些地方的真实面孔。
发明内容
有鉴于此,为解决上述背景技术中存在的技术问题,本发明的目的在于提供基于面部补丁映射的人脸图像真伪识别方法,所述方法提供了一种基于补丁的端到端的深度伪造人脸鉴别器,用于高效精准地识别人脸图像的真伪。
本发明提供了一种基于面部补丁映射的人脸图像真伪识别方法,包括以下步骤:
步骤1,获取人脸数据信息,从所述人脸数据信息中转换出单帧图像序列,对所述单帧图像序列进行面部检测,裁剪出人脸区域图像;
步骤2,在所述的人脸区域图像中提取局部补丁,包括眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁;
步骤3,将所述的局部补丁分别映射到卷积神经网络的不同卷积层来获得相应位置和大小的特征图;
步骤4,采用RoiAlign模块将所述的特征图由不同尺寸大小转换为固定尺寸大小的特征图;
步骤5,利用所述的固定尺寸大小的特征图训练二分类模型,采用局部投票的方式整合局部补丁的二分类判别结果,获得人脸图像真伪的识别结果。
优选地,在步骤2的提取局部补丁的过程中,对局部补丁图像进行部分扩展,具体包括如下步骤:
步骤201,采用人脸定位网络监测到M个面部标志点,根据所述的面部标志点确定各个局部补丁的位置信息;
步骤202,对所述的眼睛眉毛补丁分别向上和向下扩展N11和N12个像素,对所述的左脸颊补丁分别向左和向右扩展N21和N22个像素,对所述的右脸颊补丁分别向左和向右扩展N31和N32个像素,对所述的鼻子补丁分别向左和向右扩展N41和N42个像素,对所述的嘴巴下颚补丁分别向上和向下扩展N51和N52个像素;
步骤203,将扩展之后的局部补丁图像作为局部补丁。
优选地,步骤3中所述的卷积神经网络采用在ImageNet上预训练的ResNet-50作为骨干网络,ResNet-50由5组卷积单元组成,分别用Conv_1-Conv_5表示;分别将所述的眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁输入ResNet-50,获得所述的局部补丁对应的特征图,分别表示为fA、fB、fC、fD和fE,其中,所述的眼睛眉毛补丁、左脸颊补丁和嘴巴下颚补丁对应的特征图fA、fB和fE提取自同一卷积单元S1,右脸颊补丁和鼻子补丁对应的特征图fC和fD提取自同一卷积单元S2,其中,S1和S2分别为Conv_1-Conv_5中的任一单元。
具体地,步骤5中所述的二分类模型包括三个全连接层,使用Softmax 函数将前序层的输出映射到0-1范围内的类概率,Softmax函数的定义如下:
其中,Vi代表第三个全连接层中每个节点的输出,i代表类别索引,Si代表第i类的概率;
所述的二分类模型在训练时使用二元交叉熵作为损失函数,表示为:
所述的局部投票的方式采取少数服从多数原则,通过对五个局部补丁的预测结果来确定整个人脸图像的真伪识别结果。
优选地,所述的S1为Conv_4,所述的S2为Conv_5。
优选地,所述的M为68,所述的N11为20,N12为10,N21为20,N22为10,N31为20,N32为10,N41、N42、N51和N52均为0,即鼻子补丁和嘴巴下颚补丁无扩展。
优选地,步骤4中的固定尺寸大小为2×2。
本发明提出了一种新颖的基于补丁的端到端人脸图像真伪识别方法,首先,本发明采用面部补丁映射(FPM)策略,将人脸区域中提取的关键补丁映射到CNN 网络的不同卷积模块的特征图上,既避免重复卷积操作,提高了训练效率,又避免了在输入的时候对补丁进行尺度变换而造成信息损失,对局部补丁进行扩展,最大程度地保留了每个补丁的欺骗模式和原始像素级信息;本发明训练轻量级分类架构,获得每个补丁的分类结果,最后采用局部投票机制将多个面部补丁的识别结果进行整合,提高了真伪识别的准确率。
附图说明
图1为本发明方法的整体流程示意图;
图2为本发明实施例中面部标志点的位置示意图;
图3为本发明实施例中面部补丁映射和RoiAlign模块的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
对于一个包含人脸的输入视频,本实施例首先将其转换为一系列图像序列帧。由于篡改位置主要集中在人脸区域上,因此可以通过人脸检测算法定位每一帧上的人脸区域,以缩小处理范围。本实施例采用Opencv中的CascadeClassifier级联分类器进行人脸的检测和提取。为了尽可能保留伪造痕迹并结合空间背景,检测到的面部区域沿宽度和高度扩展了若干倍,再统一调整为224×224分辨率。
如图1所示,一种基于面部补丁映射的人脸图像真伪识别方法,包括以下步骤:
步骤1,获取人脸数据信息,从所述人脸数据信息中转换出单帧图像序列,对所述单帧图像序列进行面部检测,裁剪出人脸区域图像;
步骤2,在所述的人脸区域图像中提取局部补丁,包括眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁;
步骤3,将所述的局部补丁分别映射到卷积神经网络的不同卷积层来获得相应位置和大小的特征图;
步骤4,采用RoiAlign模块将所述的特征图由不同尺寸大小转换为固定尺寸大小的特征图;
步骤5,利用所述的固定尺寸大小的特征图训练二分类模型,采用局部投票的方式整合局部补丁的二分类判别结果,获得人脸图像真伪的识别结果。
在步骤2的提取局部补丁的过程中,对局部补丁图像进行部分扩展,具体包括如下步骤:
步骤201,采用人脸定位网络监测到M个面部标志点,根据所述的面部标志点确定各个局部补丁的位置信息;
步骤202,对所述的眼睛眉毛补丁分别向上和向下扩展N11和N12个像素,对所述的左脸颊补丁分别向左和向右扩展N21和N22个像素,对所述的右脸颊补丁分别向左和向右扩展N31和N32个像素,对所述的鼻子补丁分别向左和向右扩展N41和N42个像素,对所述的嘴巴下颚补丁分别向上和向下扩展N51和N52个像素;
步骤203,将扩展之后的局部补丁图像作为局部补丁。
本实施例中,在人脸图像I上选取了5个关键的局部补丁来训练分类网络。具体来说,使用人脸定位网络face-alignment检测68个面部标志点。根据图2中这些点的分布,最终确定了5个补丁的位置信息,根据观察,眼睛眉毛补丁、左脸颊补丁、右脸颊补丁最有可能暴露欺骗模式,因此,将这3个补丁进行了一定程度的扩展,目的是将未修改的原始区域包括在一个补丁中,这样做更有利于学习到真实区域与伪造区域之间的判别特征。具体来说,眼睛和眉毛区域向上扩展20个像素,向下扩展10个像素;左脸颊向左扩展20个像素,向右扩展10个像素;右脸颊向右扩展20个像素,向左扩展10个像素,即所述的M为68,所述的N11为20,N12为10,N21为20,N22为10,N31为20,N32为10,N41、N42、N51和N52均为0,即鼻子补丁和嘴巴下颚补丁无扩展。理论上,伪造的部分改变了原始图像的表层信息,因此,伪造人脸检测更像是图像质量诊断问题,用既有伪造区域又有原始背景区域的补丁进行训练对分类任务来说是极其有利的。如表1所示。
表1 面部5个关键补丁的信息
Fast RCNN是经典的目标检测算法之一,它解决了RCNN算法存在的几个关键问题,受Fast RCNN框架的启发,我们将Fast RCNN中处理候选框的思路应用于本实施例中。
优选地,步骤3中所述的卷积神经网络采用在ImageNet上预训练的ResNet-50作为骨干网络,ResNet-50由5组卷积单元组成,分别用Conv_1-Conv_5表示;分别将所述的眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁输入ResNet-50,获得所述的局部补丁对应的特征图,分别表示为fA、fB、fC、fD和fE,其中,所述的眼睛眉毛补丁、左脸颊补丁和嘴巴下颚补丁对应的特征图fA、fB和fE提取自同一卷积单元S1,右脸颊补丁和鼻子补丁提取自同一卷积单元S2,其中,S1和S2分别为Conv_1-Conv_5中的任一单元。
实验数据表明,本实施例中在S1 = Conv_4, S2 = Conv_5 时达到了最佳性能,这证明了深度欺骗产生的轻微伪影在深度特征中往往更加突出。因此,我们本实施例中设置S1 = Conv_4, S2 = Conv_5。
由于每个补丁的大小不同,特征图 fA-fE的大小也不同。图3中RoiAlign模块的功能是将任意大小的特征图固定为N×N大小。经典的ROI Pooling由于两次量化操作而存在区域不匹配的问题。相比之下,RoiAlign 放弃了量化操作,采用双线性插值的方法,从特征图上相邻的网格点中计算坐标为浮点数的采样点的像素值,从而将整个特征聚合过程转化为连续的操作。在这里,我们将fA-fE分成2×2大小的块,然后进行最大池化(max-pooling),因此,经RoiAlign后每个补丁特征图的输出大小都被统一为2×2。
经RoiAlign池化,每张图像会得到5个尺寸相同的子特征图。然后,设计具有3个完全连接层(分别为500、100 和2个节点)的轻量级架构来训练二元分类模型,最后,使用Softmax 函数将前一层的输出映射到0-1范围内的类概率。Softmax函数的定义如下:
式中, 代表 FC3 中每个节点的输出,i代表类别索引(这里取值1和0,分别表示样本为真和为假),Si代表样本属于第i个类别的概率(输出元素值在0到1之间)。每个局部patch在训练时使用二元交叉熵(Binary Cross Entropy)作为损失函数,表示为:
训练好的分类器可以预测每个局部补丁所属的类别(真/假),每个补丁的检测结果可以代表整张图像的结果。在本实施例中,为了提高模型识别的准确率,对于输入的人脸图像,采用少数服从多数的原则,通过对5个patch的预测结果进行投票,以此来确定整张面部图像的真实性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。
Claims (7)
1.一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,包括以下步骤:
步骤1,获取人脸数据信息,从所述人脸数据信息中转换出单帧图像序列,对所述单帧图像序列进行面部检测,裁剪出人脸区域图像;
步骤2,在所述的人脸区域图像中提取局部补丁,包括眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁;
步骤3,将所述的局部补丁分别映射到卷积神经网络的不同卷积层来获得相应位置和大小的特征图;
步骤4,采用RoiAlign模块将所述的特征图由不同尺寸大小转换为固定尺寸大小的特征图;
步骤5,利用所述的固定尺寸大小的特征图训练二分类模型,采用局部投票的方式整合局部补丁的二分类判别结果,获得人脸图像真伪的识别结果。
2.根据权利要求1所述的一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,步骤3中所述的卷积神经网络采用在ImageNet上预训练的ResNet-50作为骨干网络,ResNet-50由5组卷积单元组成,分别用Conv_1-Conv_5表示;分别将所述的眼睛眉毛补丁、左脸颊补丁、右脸颊补丁,鼻子补丁和嘴巴下颚补丁输入ResNet-50,获得所述的局部补丁对应的特征图,分别表示为fA、fB、fC、fD和fE,其中,所述的眼睛眉毛补丁、左脸颊补丁和嘴巴下颚补丁对应的特征图fA、fB和fE提取自同一卷积单元S1,右脸颊补丁和鼻子补丁对应的特征图fC和fD提取自同一卷积单元S2,其中,S1和S2分别为Conv_1-Conv_5中的任一单元。
3.根据权利要求1或2所述的一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,在步骤2的提取局部补丁的过程中,对局部补丁图像进行部分扩展,具体包括如下步骤:
步骤201,采用人脸定位网络监测到M个面部标志点,根据所述的面部标志点确定各个局部补丁的位置信息;
步骤202,对所述的眼睛眉毛补丁分别向上和向下扩展N11和N12个像素,对所述的左脸颊补丁分别向左和向右扩展N21和N22个像素,对所述的右脸颊补丁分别向左和向右扩展N31和N32个像素,对所述的鼻子补丁分别向左和向右扩展N41和N42个像素,对所述的嘴巴下颚补丁分别向上和向下扩展N51和N52个像素;
步骤203,将扩展之后的局部补丁图像作为局部补丁。
5.根据权利要求2所述的一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,所述的S1为Conv_4,所述的S2为Conv_5。
6.根据权利要求3所述的一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,,所述的M为68,所述的N11为20,N12为10,N21为20,N22为10,N31为20,N32为10,N41、N42、N51和N52均为0,即鼻子补丁和嘴巴下颚补丁无扩展。
7.根据权利要求1所述的一种基于面部补丁映射的人脸图像真伪识别方法,其特征在于,步骤4中的固定尺寸大小为2×2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111084084.8A CN113537173B (zh) | 2021-09-16 | 2021-09-16 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111084084.8A CN113537173B (zh) | 2021-09-16 | 2021-09-16 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537173A true CN113537173A (zh) | 2021-10-22 |
CN113537173B CN113537173B (zh) | 2022-03-18 |
Family
ID=78092699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111084084.8A Active CN113537173B (zh) | 2021-09-16 | 2021-09-16 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537173B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113936343A (zh) * | 2021-12-20 | 2022-01-14 | 南京星耀智能科技有限公司 | 一种基于多局部特征投票的人脸图像辩伪方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868716A (zh) * | 2016-03-29 | 2016-08-17 | 中国科学院上海高等研究院 | 一种基于面部几何特征的人脸识别方法 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN109887200A (zh) * | 2019-02-28 | 2019-06-14 | 商洛学院 | 一种基于物联网的图书自助借还系统及方法 |
CN110070056A (zh) * | 2019-04-25 | 2019-07-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质及设备 |
CN110110681A (zh) * | 2019-05-14 | 2019-08-09 | 哈尔滨理工大学 | 一种用于有遮挡的人脸识别方法 |
US10579872B2 (en) * | 2016-11-11 | 2020-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus with iris region extraction |
CN111444881A (zh) * | 2020-04-13 | 2020-07-24 | 中国人民解放军国防科技大学 | 伪造人脸视频检测方法和装置 |
CN111626925A (zh) * | 2020-07-24 | 2020-09-04 | 支付宝(杭州)信息技术有限公司 | 一种对抗补丁的生成方法及装置 |
CN111723714A (zh) * | 2020-06-10 | 2020-09-29 | 上海商汤智能科技有限公司 | 识别人脸图像真伪的方法、装置及介质 |
US20200394413A1 (en) * | 2019-06-17 | 2020-12-17 | The Regents of the University of California, Oakland, CA | Athlete style recognition system and method |
CN112200115A (zh) * | 2020-10-21 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
CN112528969A (zh) * | 2021-02-07 | 2021-03-19 | 中国人民解放军国防科技大学 | 人脸图像的真伪检测方法、系统、计算机设备和存储介质 |
US20210103776A1 (en) * | 2019-01-31 | 2021-04-08 | Huawei Technologies Co., Ltd. | Three-dimension (3d) assisted personalized home object detection |
WO2021111239A1 (en) * | 2019-12-02 | 2021-06-10 | ClairLabs Ltd. | Cross-modality face registration and anti-spoofing |
CN112990166A (zh) * | 2021-05-19 | 2021-06-18 | 北京远鉴信息技术有限公司 | 一种人脸真伪的识别方法、识别装置及电子设备 |
-
2021
- 2021-09-16 CN CN202111084084.8A patent/CN113537173B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868716A (zh) * | 2016-03-29 | 2016-08-17 | 中国科学院上海高等研究院 | 一种基于面部几何特征的人脸识别方法 |
US10579872B2 (en) * | 2016-11-11 | 2020-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus with iris region extraction |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
US20210103776A1 (en) * | 2019-01-31 | 2021-04-08 | Huawei Technologies Co., Ltd. | Three-dimension (3d) assisted personalized home object detection |
CN109887200A (zh) * | 2019-02-28 | 2019-06-14 | 商洛学院 | 一种基于物联网的图书自助借还系统及方法 |
CN110070056A (zh) * | 2019-04-25 | 2019-07-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质及设备 |
CN110110681A (zh) * | 2019-05-14 | 2019-08-09 | 哈尔滨理工大学 | 一种用于有遮挡的人脸识别方法 |
US20200394413A1 (en) * | 2019-06-17 | 2020-12-17 | The Regents of the University of California, Oakland, CA | Athlete style recognition system and method |
WO2021111239A1 (en) * | 2019-12-02 | 2021-06-10 | ClairLabs Ltd. | Cross-modality face registration and anti-spoofing |
CN111444881A (zh) * | 2020-04-13 | 2020-07-24 | 中国人民解放军国防科技大学 | 伪造人脸视频检测方法和装置 |
CN111723714A (zh) * | 2020-06-10 | 2020-09-29 | 上海商汤智能科技有限公司 | 识别人脸图像真伪的方法、装置及介质 |
CN111626925A (zh) * | 2020-07-24 | 2020-09-04 | 支付宝(杭州)信息技术有限公司 | 一种对抗补丁的生成方法及装置 |
CN112200115A (zh) * | 2020-10-21 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 人脸识别训练方法、识别方法、装置、设备及存储介质 |
CN112528969A (zh) * | 2021-02-07 | 2021-03-19 | 中国人民解放军国防科技大学 | 人脸图像的真伪检测方法、系统、计算机设备和存储介质 |
CN112990166A (zh) * | 2021-05-19 | 2021-06-18 | 北京远鉴信息技术有限公司 | 一种人脸真伪的识别方法、识别装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
ZAHID AKHTAR等: "Face Authenticity: An Overview of Face Manipulation Generation, Detection and Recognition", 《INTERNATIONAL CONFERENCE ON COMMUNICATION AND INFORMATION PROCESSING(ICCIP-2019)》 * |
叶璐: "基于生成对抗网络的人脸图像修复的研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113936343A (zh) * | 2021-12-20 | 2022-01-14 | 南京星耀智能科技有限公司 | 一种基于多局部特征投票的人脸图像辩伪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113537173B (zh) | 2022-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543606B (zh) | 一种加入注意力机制的人脸识别方法 | |
CN109902806B (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN112818862B (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
CN104408449B (zh) | 智能移动终端场景文字处理方法 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN112907598B (zh) | 一种基于注意力cnn文档证件类图像篡改检测方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN112069900A (zh) | 基于卷积神经网络的票据文字识别方法及系统 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 | |
CN114898472B (zh) | 基于孪生视觉Transformer网络的签名鉴定方法和系统 | |
CN113822377B (zh) | 基于对比自学习的伪造人脸检测方法 | |
CN113537173B (zh) | 一种基于面部补丁映射的人脸图像真伪识别方法 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN113688821A (zh) | 一种基于深度学习的ocr文字识别方法 | |
CN111242114B (zh) | 文字识别方法及装置 | |
CN113903043B (zh) | 一种基于孪生度量模型的印刷汉字字体识别方法 | |
Dewan et al. | Fish detection and classification | |
Calefati et al. | Reading meter numbers in the wild | |
CN115775226A (zh) | 基于Transformer的医学图像分类方法 | |
Achar et al. | Indian currency recognition system using CNN and comparison with yolov5 | |
CN112419238A (zh) | 基于端到端深度神经网络的复制-粘贴伪造图像取证方法 | |
CN111461060A (zh) | 一种基于深度学习和极限学习机的交通标志识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |