CN113705400B - 一种基于多模态人脸训练的单模态人脸活体检测方法 - Google Patents
一种基于多模态人脸训练的单模态人脸活体检测方法 Download PDFInfo
- Publication number
- CN113705400B CN113705400B CN202110946632.7A CN202110946632A CN113705400B CN 113705400 B CN113705400 B CN 113705400B CN 202110946632 A CN202110946632 A CN 202110946632A CN 113705400 B CN113705400 B CN 113705400B
- Authority
- CN
- China
- Prior art keywords
- feature
- face
- mode
- training
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 71
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 21
- 239000000427 antigen Substances 0.000 claims abstract description 7
- 102000036639 antigens Human genes 0.000 claims abstract description 7
- 108091007433 antigens Proteins 0.000 claims abstract description 7
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 7
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 10
- 238000001727 in vivo Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 2
- 230000004913 activation Effects 0.000 description 8
- 238000010606 normalization Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 238000012856 packing Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多模态人脸训练的单模态人脸活体检测方法,包括:获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络,所述预构建的生成对抗网络包括生成器和判别器;基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型;获取单模态待测图像;基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别。本发明提高传统单模态人脸活体检测模型性能的同时,还降低了实际场景下的硬件成本。本发明作为一种基于多模态人脸训练的单模态人脸活体检测方法,可广泛应用于计算机视觉领域。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于多模态人脸训练的单模态人脸活体检测方法。
背景技术
人脸活体检测是人脸识别任务中非常重要的一部分,它可以确保人脸识别在某些关键的商业或安全场景中的可靠性,例如人脸扫描付款和人脸扫描解锁。由于对面部识别的攻击类型迅速增加,因此研究人员认为,单模态人脸活体检测抵抗攻击的能力较弱。幸运的是,多模态人脸图像可以提供附加和补充的信息,从而可以大大提高人脸活体检测的鲁棒性。具体而言,基于打印的2D攻击在深度模态中非常容易区分,但是在可见光模态中则很难区分。
但是,多模态人脸活体检测有以下局限性,使其无法在某些应用场景中广泛使用。1)难以获得多模态的人脸图像。每个模态都需要一个相应的传感器来捕获。近红外和深度信息传感器的高昂成本使其很难获得近红外和深度模态数据。2)多模态传感器难以集成,并且广泛部署在移动终端上。另外,基于单一模态的方法在训练阶段无法使用其他模态的数据,这导致模态之间互补信息的丢弃,进而导致性能较弱。
发明内容
为了解决上述问题,本发明的目的是提供一种基于多模态人脸训练的单模态人脸活体检测方法,提高了传统单模态人脸活体检测模型性能的同时,还降低了实际场景下的硬件成本。
本发明所采用的技术方案是:一种基于区块链的个人征信信息管理方法,包括以下步骤:
S1、获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络,所述预构建的生成对抗网络包括生成器和判别器;
S3、基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型;
S4、获取单模态待测图像;
S5、基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果。
进一步,所述获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络这一步骤,其具体包括:
获取输入数据并对输入数据中的原始人脸图片进行尺寸调整,所述输入数据中的原始人脸图片中可见光信息、近红外信息和深度信息的图片数量比设置为1:1:1;
基于输入数据对生成对抗网络中的生成器和判别器进行交替训练;
固定判别器,训练生成器,得到训练完成的生成器;
固定生成器,训练判别器,得到训练完成的判别器;
得到训练完成的生成对抗网络。
进一步,所述生成器包括第一特征粗提取单元、下采样特征提取单元、隐层特征学习单元、上采样特征提取单元和目标图像生成单元,所述固定判别器,训练生成器,得到训练完成的生成器这一步骤,其具体包括:
对于输入数据中的原始人脸图片及其原始模态标签,随机给定一个目标模态标签并以独热编码的形式编码;
将目标模态标签重复拓展为原始人脸图片的尺寸大小,并与原始人脸图片进行拼接,得到整合数据;
将整合数据经过特征粗提取单元处理,维持整合数据的大小尺寸不变,将通道数扩展为64维,得到第一特征图;
基于下采样特征提取单元对第一特征图进行处理,扩展通道数,得到第二特征图;
基于隐层特征学习单元对第二特征图进行处理,生成残差特征并相加,得到第三特征图;
基于上采样特征提取单元对第三特征图进行处理,压缩通道数,得到第四特征图;
基于目标图像生成单元对第四特征图进行处理,将通道数压缩为3维生成第五特征图并将第五特征图中的数值归一化,得到生成人脸;
将生成人脸和原始模态标签送入生成器,得到生成人脸在原始模态标签下的重构人脸;
采用L1正则化约束重构人脸和原始人脸图片的距离;
基于判别器对生成人脸进行判别,得到判别结果;
基于对抗损失函数优化生成器和判别器之间的损失误差,得到训练完成的生成器。
进一步,所述判别器包括第二特征粗提取单元、特征细提取单元、第一判别分支和第二判别分支,所述固定生成器,训练判别器,得到训练完成的判别器这一步骤,其具体包括:
将原始人脸图片经过生成器得到对应的其他模态下的生成图片;
将原始人脸图片和生成图片送入判别器,经过第二特征粗提取单元将通道数由3维拓展为64维,得到粗提取特征图;
基于特征细提取单元对粗提取特征图进行处理,缩减输入特征,得到细提取特征图;
基于第一判别分支对细提取特征图进行处理,映射得到真假判别输出并用于判别器和生成器的对抗学习;
基于第二判别分支对细提取特征图进行处理,映射得到模态判别输出并用于判别器的学习;
得到训练完成的判别器。
进一步,所述类多模态人脸活体检测模型由三个结构相同的特征提取分支构成,每个特征提取分支包括特征自适应第一单元、低阶特征学习单元、中阶特征学习单元、高阶特征学习单元和特征自适应第二单元组成。
进一步,所述基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型这一步骤,其具体包括:
选择输入数据中单一模态人脸图像输入至训练完成的生成对抗网络,生成对应其他模态下的人脸图像,得到合成数据集;
基于特征自适应第一单元对合成数据集中的图像进行处理,扩展通道数,得到输入特征;
将输入特征依次送入低阶特征学习单元、中阶特征学习单元和高阶特征学习单元,减少特征尺寸,得到低阶特征、中阶特征和高阶特征;
将低阶特征、中阶特征和高阶特征按通道拼接,得到的融合特征图;
基于特征自适应第二单元对融合特征图进行处理,得到输出特征图;
将三个特征提取分支的输出特征图按通道数进行拼接和特征融合,得到最终特征图;
基于均方误差损失函数约束最终特征图与目标标签之间的距离,得到训练完成的类多模态人脸活体检测模型。
进一步,所述基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果这一步骤,其具体包括:
基于生成对抗网络对待测单模态人脸图像进行处理,得到对应的模态下生成模态人脸图像;
将待测单模态人脸图像和生成模态人脸图像送入类多模态人脸活体检测模型,得到活体类别概率;
判断到活体类别概率低于预设阈值,将该待测单模态人脸图像判定为假体人脸图像。
本发明方法的有益效果是:本发明首先利用多模态的人脸数据训练一个生成器和判别器实现多个模态人脸之间的相互转换和生成,其次,在我们只使用某一种模态的人脸和训练得到的生成器,合成其在其他模态下的图片,并送入类多模态活体检测网络中进行训练。在测试阶段,我们仅用训练收敛的生成器和类多模态活体检测器实现单模态活体检测任务,有效且降低了实际场景下的硬件成本。
附图说明
图1是本发明一种基于多模态人脸训练的单模态人脸活体检测方法的流程示意图;
图2是本发明具体实施测试过程的示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1和图2,本发明提供了一种基于多模态人脸训练的单模态人脸活体检测方法,包括以下步骤:
S1、获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络,所述预构建的生成对抗网络包括生成器和判别器;
S3、基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型;
S4、获取单模态待测图像;
S5、基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果。
进一步作为本方法的优选实施例,所述获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络这一步骤,其具体包括:
获取输入数据并对输入数据中的原始人脸图片进行尺寸调整,所述输入数据中的原始人脸图片中可见光信息、近红外信息和深度信息的图片数量比设置为1∶1∶1;
具体地,每张图片的大小均为(C0=3,H0=256,W0=256),故输入数据的总体尺寸为(N,C0,H0,W0)。
基于输入数据对生成对抗网络中的生成器和判别器进行交替训练;
固定判别器,训练生成器,得到训练完成的生成器;
固定生成器,训练判别器,得到训练完成的判别器;
得到训练完成的生成对抗网络。
进一步作为本方法的优选实施例,所述生成器包括第一特征粗提取单元、下采样特征提取单元、隐层特征学习单元、上采样特征提取单元和目标图像生成单元,所述固定判别器,训练生成器,得到训练完成的生成器这一步骤,其具体包括:
对于输入数据中的原始人脸图片及其原始模态标签,随机给定一个目标模态标签并以独热编码的形式编码;
将目标模态标签重复拓展为原始人脸图片的尺寸大小,并与原始人脸图片进行拼接,得到整合数据;
具体地,尺寸大小(1,Cmodal=3,H0,W0),其中Cmodal代表了本任务中一共存在的人脸模态个数。
将整合数据经过特征粗提取单元处理,维持整合数据的大小尺寸不变,将通道数扩展为64维,得到第一特征图;
具体地,将输入数据经过一个由“卷积层→实例归一化层→ReLU激活层”组成的特征粗提取单元,其中卷积层的卷积核大小为7×7,padding大小为3,卷积滑动步长为1。该单元维持输入数据的大小尺寸不变,将通道数扩展为64维,即得到尺寸为(N,64,H0,W0)的特征图。
基于下采样特征提取单元对第一特征图进行处理,扩展通道数,得到第二特征图;
具体地,将上一步得到的特征图经过由两个串联的可学习下采样块组成的下采样特征提取单元,其中每个可学习下采样块均由“卷积层→实力归一化层→ReLU激活层”组成,其中卷积核的大小为4×4,padding大小为1,卷积滑动步长为2。每一个下采样块使得输入特征的大小尺寸减半,将通道数扩展为2倍,即经过下采样特征提取单元后得到尺寸为(N,256,H0/4,W0/4)的特征图。
基于隐层特征学习单元对第二特征图进行处理,生成残差特征并相加,得到第三特征图;
具体地,将上一步得到的特征图经过由六个串联的残差块组成的隐层特征提取单元,其中每个残差块具有相同的结构,且在隐层特征学习的过程中,不会改变特征的大小和通道数。每个残差块均由“卷积层→实例归一化层→ReLU激活层→卷积层→实例归一化层”组成,在前向计算过程中,输入特征先通过上述模块得到残差特征,再将原始输入特征和残差特征逐元素相加输出特征,经过隐层特征学习单元后,特征图的尺寸大小为(N,256,H0/4,W0/4);
基于上采样特征提取单元对第三特征图进行处理,压缩通道数,得到第四特征图;
具体地,将上一步得到的特征图经过由两个串联的可学习上采样块组成的上采样特征提取单元,其中每个可学习上采样块的结构均为“反卷积层→实力归一化层→ReLU激活层”,每一个上采样块使得输入特征的大小尺寸翻倍,将通道数压缩为一半,即经过下采样特征提取单元后得到尺寸为(N,64,H0,W0)的特征图;
基于目标图像生成单元对第四特征图进行处理,将通道数压缩为3维生成第五特征图并将第五特征图中的数值归一化,得到生成人脸;
具体地,将上一步得到的特征图经过由“卷积层→Tanh激活层”组成的图像生成单元,其中卷积层的卷积核大小为7×7,padding大小为3,卷积滑动步长为1。该单元维持输入数据的大小尺寸不变,将通道数压缩为3维,即得到尺寸为(N,3,H0,W0)的特征图,然后我们将该特征图经过Tanh激活函数进行处理,将特征图中的数值归一化到[-1,1]区间中。至此,本方法实现了“生成器G生成一张原始人脸在目标模态下的生成人脸”;
将生成人脸和原始模态标签送入生成器,得到生成人脸在原始模态标签下的重构人脸;
采用L1正则化约束重构人脸和原始人脸图片的距离;
上式中,n代表一个batch内的训练人脸图片个数,x代表原始的输入人脸图片,ms,mt代表原始模态标签和目标模态标签,G代表生成器。
基于判别器对生成人脸进行判别,得到判别结果;
具体地,判别器需要将生成人脸分类到正确的模态类别中:
其中,D代表判别器。
基于对抗损失函数优化生成器和判别器之间的损失误差,得到训练完成的生成器。
具体地,生成器和判别器之间用对抗损失函数进行优化:
训练生成器时,网络的总损失函数为:
LG=La+λgcLgc+λrLr
其中,λgc,λr表示控制损失函数贡献的超参数。
进一步作为本方法优选实施例,所述判别器包括第二特征粗提取单元、特征细提取单元、第一判别分支和第二判别分支,所述固定生成器,训练判别器,得到训练完成的判别器这一步骤,其具体包括:
将原始人脸图片经过生成器得到对应的其他模态下的生成图片;
具体地,当训练判别器,固定生成器时,将原始图片经过生成器得到其在其他模态下的生成图片,即此时判别器接收的输入图片尺寸为(N,C0,H0,W0);
将原始人脸图片和生成图片送入判别器,经过第二特征粗提取单元将通道数由3维拓展为64维,得到粗提取特征图;
具体地,将输入图片经过一个由“卷积层→LeakyReLU激活层”组成的特征粗提取单元,其中卷积层的卷积核大小为4×4,padding大小为1,卷积滑动步长为2,LeakyReLU的超参数设置为0.01,该特征粗提取单元将输入图片的大小减半,并将通道数由3维拓展为64维,即得到尺寸为(N,64,H0/2,W0/2)的特征图;
基于特征细提取单元对粗提取特征图进行处理,缩减输入特征,得到细提取特征图;
具体地,将上一步得到的特征图经过由六个串联的特征提取块组成的特征细提取单元,每个特征块的结构均是“卷积层→LeakyReLU激活层”,其中卷积层的卷积核大小为4×4,padding大小为1,卷积滑动步长为2,LeakyReLU的超参数设置为0.01,每个特征提取块都将输入特征的大小缩减为一半,并将特征通道数增加一倍,因此在经过特征细提取单元后,获得尺寸为(N,4096,H0/128,W0/128)的特征图;
基于第一判别分支对细提取特征图进行处理,映射得到真假判别输出并用于判别器和生成器的对抗学习;
基于第二判别分支对细提取特征图进行处理,映射得到模态判别输出并用于判别器的学习;
具体地,然后,将上一步得到的特征图经过由两个并联的判别分支,其中一个判别分支由一层卷积层和一层可选的池化层组成,该卷积层的核大小为为3×3,padding大小为1,卷积滑动步长为1,该卷积层将输入特征映射为尺寸为(N,1,1,1)的真假判别输出,若得到的特征图大小不为1×1,则执行均值池化操作将其固定为1×1;该输出用于判别器和生成器的对抗学习中:
另一个判别分支亦由一层卷积层组成,该卷积层的核大小为当前特征图的宽和高以此确保卷积得到的尺寸为1×1,该卷积层将输入特征映射为尺寸为(N,Cmodal,1,1)的模态判别输出,该输出用于判别器将输入特征分类到正确的模态中,在判别器学习的阶段中,判别器需要将原始图片分类到正确的模态类别中:
得到训练完成的判别器。
具体地,当训练判别器中,网络的总损失函数为:
LD=-La+λrcLrc
其中,λrc是控制损失函数贡献的超参数。
进一步作为本方法优选实施例,所述类多模态人脸活体检测模型由三个结构相同的特征提取分支构成,每个特征提取分支包括特征自适应第一单元、低阶特征学习单元、中阶特征学习单元、高阶特征学习单元和特征自适应第二单元组成。
每个特征提取分支中的卷积层均为深度拉普拉斯卷积层对于一个输入特征fin,其输出结果为:
其中,为标准拉普拉斯算子,wkernel代表当前/>中的深度卷积核,/>代表卷积操作,θ=0.7代表两部分卷积操作所占的比重
进一步作为本方法优选实施例,所述基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型这一步骤,其具体包括:
选择输入数据中单一模态人脸图像输入至训练完成的生成对抗网络,生成对应其他模态下的人脸图像,得到合成数据集;
具体地,对于某个单模态下的人脸图像将其归一化到256×256,再通过生成器得到该图像在其他所有模态下的人脸图像
基于特征自适应第一单元对合成数据集中的图像进行处理,扩展通道数,得到输入特征;
具体地,将输入图片经过特征自适应第一单元,该单元由一个深度拉普拉斯卷积层组成,该单元维持特征图的大小不变,将其通道数拓展为64维,得到(N,64,256,256)的特征图。
将输入特征依次送入低阶特征学习单元、中阶特征学习单元和高阶特征学习单元,减少特征尺寸,得到低阶特征、中阶特征和高阶特征;
具体地,将输入特征以此送入低阶、中阶和高阶特征学习单元,每个特征学习单元均由三个深度拉普拉斯卷积层组成,其中低阶单元将特征尺寸减半,通道数加倍,故其特征输出为(N,128,128,128),中阶和高阶单元维持特征的通道数不变,将特征的尺寸一次减半,故特征输出分别为(N,128,64,64)和(N,128,32,32);
将低阶特征、中阶特征和高阶特征按通道拼接,得到的融合特征图;
具体地,将低阶特征和中阶特征进行池化操作使其特征图大小固定为(N,128,32,32),加下来我们将低阶、中阶和高阶的特征按通道拼接得到(N,384,32,32)的融合特征图;
基于特征自适应第二单元对融合特征图进行处理,得到输出特征图;
具体地,将融合特征图经过特征自适应第二单元,该单元由一个深度拉普拉斯卷积层组成,该单元维持特征图的大小不变,将其通道数压缩为128维,得到(N,128,32,32)的特征图。
将三个特征提取分支的输出特征图按通道数进行拼接和特征融合,得到最终特征图;
具体地,分别对三条模态提取支路进行相同的上述操作,得到三种模态下的特征图后,将三种特征按通道数进行拼接,整合为一个尺寸为(N,384,32,32)特征,对整合特征进行深度拉普拉斯卷积层操作实现特征融合,最后输出(N,1,32,32)大小的特征图
基于均方误差损失函数约束最终特征图与目标标签之间的距离,得到训练完成的类多模态人脸活体检测模型。
具体地,目标标签即数据集中自带的标签,在有监督任务中用于损失函数中的,为预先在数据集中设置好的。
利用均方误差损失函数约束特征图与目标标签之间的距离足够接近:
其中,N代表输出特征中像素点的总个数,fout代表最后输出的特征图,GT代表特征图所对应的真实二值标签图。
使用对比深度损失CDL来约束特征图与目标标签的细节信息足够相似,多模态人脸活体检测模型的整体损失函数为:
Lfas=Lm+Lcdl
进一步作为本方法优选实施例,所述基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果这一步骤,其具体包括:
基于生成对抗网络对待测单模态人脸图像进行处理,得到对应的模态下生成模态人脸图像;
将待测单模态人脸图像和生成模态人脸图像送入类多模态人脸活体检测模型,得到活体类别概率;
判断到活体类别概率低于预设阈值,将该待测单模态人脸图像判定为假体人脸图像。
一种基于多模态人脸训练的单模态人脸活体检测装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于多模态人脸训练的单模态人脸活体检测方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (5)
1.一种基于多模态人脸训练的单模态人脸活体检测方法,其特征在于,包括以下步骤:
S1、获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络,所述预构建的生成对抗网络包括生成器和判别器;
S2、基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型;
S3、获取单模态待测图像;
S4、基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果;
所述获取输入数据并基于输入数据训练预构建的生成对抗网络,得到训练完成的生成对抗网络这一步骤,其具体包括:
获取输入数据并对输入数据中的原始人脸图片进行尺寸调整,所述输入数据中的原始人脸图片中可见光信息、近红外信息和深度信息的图片数量比设置为1:1:1;
基于输入数据对生成对抗网络中的生成器和判别器进行交替训练;
固定判别器,训练生成器,得到训练完成的生成器;
固定生成器,训练判别器,得到训练完成的判别器;
得到训练完成的生成对抗网络;
所述生成器包括第一特征粗提取单元、下采样特征提取单元、隐层特征学习单元、上采样特征提取单元和目标图像生成单元,所述固定判别器,训练生成器,得到训练完成的生成器这一步骤,其具体包括:
对于输入数据中的原始人脸图片及其原始模态标签,随机给定一个目标模态标签并以独热编码的形式编码;
将目标模态标签重复拓展为原始人脸图片的尺寸大小,并与原始人脸图片进行拼接,得到整合数据;
将整合数据经过特征粗提取单元处理,维持整合数据的大小尺寸不变,将通道数扩展为64维,得到第一特征图;
基于下采样特征提取单元对第一特征图进行处理,扩展通道数,得到第二特征图;
基于隐层特征学习单元对第二特征图进行处理,生成残差特征并相加,得到第三特征图;
基于上采样特征提取单元对第三特征图进行处理,压缩通道数,得到第四特征图;
基于目标图像生成单元对第四特征图进行处理,将通道数压缩为3维生成第五特征图并将第五特征图中的数值归一化,得到生成人脸;
将生成人脸和原始模态标签送入生成器,得到生成人脸在原始模态标签下的重构人脸;
采用L1正则化约束重构人脸和原始人脸图片的距离;
基于判别器对生成人脸进行判别,得到判别结果;
基于对抗损失函数优化生成器和判别器之间的损失误差,得到训练完成的生成器;
所述类多模态人脸活体检测模型由三个结构相同的特征提取分支构成,每个特征提取分支中的卷积层均为深度拉普拉斯卷积层对于一个输入特征fin,其输出结果为:
其中,为标准拉普拉斯算子,wkernel代表当前/>中的深度卷积核,/>代表卷积操作,θ=0.7代表两部分卷积操作所占的比重。
2.根据权利要求1所述一种基于多模态人脸训练的单模态人脸活体检测方法,其特征在于,所述判别器包括第二特征粗提取单元、特征细提取单元、第一判别分支和第二判别分支,
所述固定生成器,训练判别器,得到训练完成的判别器这一步骤,其具体包括:
将原始人脸图片经过生成器得到对应的其他模态下的生成图片;
将原始人脸图片和生成图片送入判别器,经过第二特征粗提取单元将通道数由3维拓展为64维,得到粗提取特征图;
基于特征细提取单元对粗提取特征图进行处理,缩减输入特征,得到细提取特征图;
基于第一判别分支对细提取特征图进行处理,映射得到真假判别输出并用于判别器和生成器的对抗学习;
基于第二判别分支对细提取特征图进行处理,映射得到模态判别输出并用于判别器的学习;
得到训练完成的判别器。
3.根据权利要求2所述一种基于多模态人脸训练的单模态人脸活体检测方法,其特征在于,每个特征提取分支包括特征自适应第一单元、低阶特征学习单元、中阶特征学习单元、高阶特征学习单元和特征自适应第二单元组成。
4.根据权利要求3所述一种基于多模态人脸训练的单模态人脸活体检测方法,其特征在于,所述基于训练完成的生成对抗网络合成数据集并训练类多模态人脸活体检测模型,得到训练完成的类多模态人脸活体检测模型这一步骤,其具体包括:
选择输入数据中单一模态人脸图像输入至训练完成的生成对抗网络,生成对应其他模态下的人脸图像,得到合成数据集;
基于特征自适应第一单元对合成数据集中的图像进行处理,扩展通道数,得到输入特征;
将输入特征依次送入低阶特征学习单元、中阶特征学习单元和高阶特征学习单元,减少特征尺寸,得到低阶特征、中阶特征和高阶特征;
将低阶特征、中阶特征和高阶特征按通道拼接,得到的融合特征图;
基于特征自适应第二单元对融合特征图进行处理,得到输出特征图;
将三个特征提取分支的输出特征图按通道数进行拼接和特征融合,得到最终特征图;
基于均方误差损失函数约束最终特征图与目标标签之间的距离,得到训练完成的类多模态人脸活体检测模型。
5.根据权利要求4所述一种基于多模态人脸训练的单模态人脸活体检测方法,其特征在于,所述基于生成对抗网络将单模态待测图像扩展为多模态人脸图像,并输入至练完成的多模态人脸活体检测模型进行判别,得到检测结果这一步骤,其具体包括:
基于生成对抗网络对待测单模态人脸图像进行处理,得到对应的模态下生成模态人脸图像;
将待测单模态人脸图像和生成模态人脸图像送入类多模态人脸活体检测模型,得到活体类别概率;
判断到活体类别概率低于预设阈值,将该待测单模态人脸图像判定为假体人脸图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110946632.7A CN113705400B (zh) | 2021-08-18 | 2021-08-18 | 一种基于多模态人脸训练的单模态人脸活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110946632.7A CN113705400B (zh) | 2021-08-18 | 2021-08-18 | 一种基于多模态人脸训练的单模态人脸活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113705400A CN113705400A (zh) | 2021-11-26 |
CN113705400B true CN113705400B (zh) | 2023-08-15 |
Family
ID=78653281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110946632.7A Active CN113705400B (zh) | 2021-08-18 | 2021-08-18 | 一种基于多模态人脸训练的单模态人脸活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113705400B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114140368B (zh) * | 2021-12-03 | 2024-04-23 | 天津大学 | 一种基于生成式对抗网络的多模态医学图像合成方法 |
CN115115919B (zh) * | 2022-06-24 | 2023-05-05 | 国网智能电网研究院有限公司 | 一种电网设备热缺陷识别方法及装置 |
CN115731593A (zh) * | 2022-08-03 | 2023-03-03 | 郑州轻工业大学 | 一种人脸活体检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
CN112487922A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种多模态人脸活体检测方法及系统 |
CN112818722A (zh) * | 2019-11-15 | 2021-05-18 | 上海大学 | 模块化动态可配置的活体人脸识别系统 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
-
2021
- 2021-08-18 CN CN202110946632.7A patent/CN113705400B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015466A1 (zh) * | 2017-07-17 | 2019-01-24 | 广州广电运通金融电子股份有限公司 | 人证核实的方法及装置 |
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
CN112818722A (zh) * | 2019-11-15 | 2021-05-18 | 上海大学 | 模块化动态可配置的活体人脸识别系统 |
CN112487922A (zh) * | 2020-11-25 | 2021-03-12 | 奥比中光科技集团股份有限公司 | 一种多模态人脸活体检测方法及系统 |
CN113052142A (zh) * | 2021-04-26 | 2021-06-29 | 的卢技术有限公司 | 一种基于多模态数据的静默活体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113705400A (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113705400B (zh) | 一种基于多模态人脸训练的单模态人脸活体检测方法 | |
US11645835B2 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
Ramola et al. | Study of statistical methods for texture analysis and their modern evolutions | |
Xu et al. | SDPNet: A deep network for pan-sharpening with enhanced information representation | |
Liu et al. | Hierarchical fusion of features and classifier decisions for Alzheimer's disease diagnosis | |
CN110992252B (zh) | 一种基于潜变量特征生成的图像多风格转化方法 | |
US20120032960A1 (en) | Image processing apparatus, image processing method, and computer readable medium | |
US20100265354A1 (en) | Image processing system, image processing method, and computer readable medium | |
Parekh et al. | Multiparametric deep learning tissue signatures for a radiological biomarker of breast cancer: Preliminary results | |
Awange et al. | Hybrid imaging and visualization | |
CN110827201A (zh) | 用于高动态范围图像超分辨率重建的生成式对抗网络训练方法及装置 | |
CN114926382A (zh) | 用于融合图像的生成对抗网络、图像融合方法及终端设备 | |
CN114581965B (zh) | 指静脉识别模型训练方法及识别方法、系统和终端 | |
CN114764939A (zh) | 一种基于身份-属性解耦合成的异质人脸识别方法及系统 | |
Wang et al. | Convolutional LSTM-based hierarchical feature fusion for multispectral pan-sharpening | |
US7248738B2 (en) | Image clustering with metric, local linear structure, and affine symmetry | |
Phan et al. | Tensor completion throughmultiple Kronecker product decomposition | |
Arzuaga-Cruz et al. | A MATLAB toolbox for hyperspectral image analysis | |
US20080208948A1 (en) | Methods and apparatus for using boolean derivatives to process data | |
Guo et al. | Identifying facial expression using adaptive sub-layer compensation based feature extraction | |
CN107491739B (zh) | 一种联合平滑矩阵多变量椭圆分布的鲁棒人脸识别方法 | |
Li et al. | A new method of image fusion based on redundant wavelet transform | |
Park et al. | GMDM: A generalized multi-dimensional distribution overlap metric for data and model quality evaluation | |
Dhar et al. | Detecting deepfake images using deep convolutional neural network | |
Jebadass et al. | Interval type-2 fuzzy set based block-SBU for image fusion technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |