CN111814574A - 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质 - Google Patents

应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质 Download PDF

Info

Publication number
CN111814574A
CN111814574A CN202010534822.3A CN202010534822A CN111814574A CN 111814574 A CN111814574 A CN 111814574A CN 202010534822 A CN202010534822 A CN 202010534822A CN 111814574 A CN111814574 A CN 111814574A
Authority
CN
China
Prior art keywords
convolution
submodule
layer
module
living body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010534822.3A
Other languages
English (en)
Other versions
CN111814574B (zh
Inventor
沈海斌
欧阳文汉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202010534822.3A priority Critical patent/CN111814574B/zh
Priority to PCT/CN2020/116644 priority patent/WO2021248733A1/zh
Publication of CN111814574A publication Critical patent/CN111814574A/zh
Application granted granted Critical
Publication of CN111814574B publication Critical patent/CN111814574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质,属于人脸活体检测领域中。包括人脸视频采集模块、人脸视频预处理模块、活体标注模块、活体运动放大模块、双分支三维卷积活体识别训练模块、活体判断模块;所述的双分支三维卷积模型训练模块配置有双分支三维卷积模型,包括静态纹理信息子模块、动态运动线索子模块、融合子模块和分类子模块;静态纹理信息子模块和动态运动线索子模块的输出经融合子模块进行池化、汇总、融合,再经分类子模块输出检测结果;本发明是拟态的具有生物学意义的,并且具有很强的鲁棒性和泛化性;可以为人脸识别系统提供极大的活体检测保障,提升系统的安全性,保护信息和财产不受侵害。

Description

应用双分支三维卷积模型的人脸活体检测系统、终端及存储 介质
技术领域
本发明涉及一种人脸活体检测领域,具体涉及一种应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质。
背景技术
随着人们越来越多得使用着像笔记本电脑和智能手机之类的电子设备,用他们付款,购物,支付账单以及社交互动,而与之而生的,对于电子身份认证的需求也越来越多。人脸识别验证在众多系统中脱颖而出,并在本发明生活中大规模的展开部署。为了保障安全,预防各种潜在的黑客攻击,人脸活体检测对于人脸验证系统是至关重要的一环。
目前,人脸活体检测算法面临的最大问题就是泛化性的不足,很多训练的模型在训练和对应的测试集上表现很出色,但是在全新的未知数据集中的表现却不尽如人意,这让人脸活体检测算法的实际部署价值大打折扣,所以针对这一现象,发明主要着眼于人脸活体检测模型泛化性的提高。
传统方法的模式众多,不尽相同。局部二值模式方法具有灰度不变性和旋转不变性等显著优点,有简单易算性但是较为简单。加速稳健特征方法使用海森矩阵的行列式值作特征点响应侦测并用积分图加速运算进行检测。但是无论是哪种传统方法,大部分的传统特征方法大多通过人工提取的特征,结合例如SVM以及LDA等传统的浅层分类器进行活体检测。基于传统人工特征提取方法又往往由于自身方法和训练样本的限制,只能针对特定的攻击方式、或者适用于特定的环境或者光照条件下。哪怕是综合性的多重传统特征提取的方法亦是如此,因为其阈值和参数往往通过人工设定,所以无法做到非常强的适应性和泛化性,不能够适用未知的场景和攻击方法,在实际场景中大多较为脆弱且不稳定。
交互式的方法虽然较为简单有效,不过整个验证时间过程会较长,且在便利性和用户体验上会给用户带来诸多负面感受,而且如果采用视频攻击的方式,往往可以使基于眨眼检测、以及嘴唇运动等交互式方法失去效用,所以交互式人脸活体检测算法的局限性也较为明显。
目前更多的使用深度学习的方法来解决人脸活体检测问题。二维卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现。相较于局部二值模式方法等,其能够更好的提取出具有一定泛化性的二维图像特征,从而增加模型准确性。但是深度学习方法同样存在着一定的瓶颈,其模型固然在很多数据集上表现都非常出色,但是在跨数据集测试中仍然表现会不佳。这是由于大部分二维CNN模型只重点学习了训练样本的纹理特征,但是样本中的纹理特征因为不同的环境、不同的光线、不同的攻击方式、不同的显示设备材质,也会具有很强的差异性和随机多样性,所以对于为训练集合之外的全新样本的位置纹理特征就不能做到很好的拟合。
另外,会有一些方法试图通过提取人脸深度图,或者其他的辅助监督手段来额外的引入约束,来增强模型的泛化能力,但是这种辅助监督首先只是一种间接的监督手段,和人脸的活体检测的相关性目前尚无定论。而且其提取不仅需要耗费大量的计算量,而且会占用大量的硬盘空间,无论对于训练还是后续测试的都会带来诸多不便。
因此,模型的泛化问题一直是深度学习在活体检测领域应用中亟待解决的问题。
发明内容
为了解决现有的人脸活体检测领域算法泛化性能较差,不能够适用未知的场景和攻击方法,在实际场景中表现较为脆弱且不稳定的问题。本发明提供了一种应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质,本发明采用三维卷积神经网络作为模型骨架,不仅能够抽取出高维的抽象化特征,而且更能从较浅层的网络中把一些具象化的浅层特征同样进行概括,从而获得更全面的时序运动特征。通过同时兼顾高维度、低维度的特征,让模型发挥更好的效果。同时,三维卷积神经网络在时域上的信息抽取能力更强,更适合作为适合处理人脸活体检测技术的技术框架。相较于普通二维卷积网络,能够更好地提取时域信息;而相较于循环神经网络,又能更多的均衡关注低阶和高阶特征信息,从总体上提升整个系统的泛化能力。
本发明的目的在于提供一种应用双分支三维卷积模型的人脸活体检测系统,包括:
人脸视频采集模块:用于采集用户的人脸视频;
人脸视频预处理模块:读取采集到的人脸视频,以n帧为一个单位进行分割处理,获得活体识别样本;
活体标注模块:用于对已知活体或非活体的训练样本进行标注,所述的活体标注模块在检测系统处于训练模式时开启,在检测系统处于识别模式时关闭;
活体运动放大模块:根据检测系统的运行模式,对带标签的训练样本或者不带标签的待检测样本进行活体运动信息放大处理,获得运动放大的活体识别样本;
双分支三维卷积模型训练模块:配置有双分支三维卷积模型,包括静态纹理信息子模块、动态运动线索子模块、融合子模块和分类子模块;所述的静态纹理信息子模块和动态运动线索子模块为三维卷积模型的两个分支,当检测系统处于训练模式时,所述活体运动放大模块的输出作为动态运动线索子模块的输入,人脸视频预处理模块的输出作为静态纹理信息子模块的输入,静态纹理信息子模块和动态运动线索子模块的输出经融合子模块进行池化、汇总、融合,再经分类子模块输出检测结果;
活体判断模块:当检测系统处于识别模式时,用于加载双分支三维卷积模型训练模块输出的模型文件,得到训练好的双分支三维卷积模型,并将人脸视频预处理模块输出的不带标签的待检测活体识别样本作为静态纹理信息子模块的输入,将活体运动放大模块输出的经运动放大处理后的不带标签的待检测活体识别样本作为动态运动线索子模块的输入,输出识别结果。
本发明的另一目的在于公开了一种终端,包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于当执行所述计算机程序时,实现上述应用双分支三维卷积模型的人脸活体检测方法和系统的功能。
本发明的另一目的在于公开了一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述应用双分支三维卷积模型的人脸活体检测方法和系统的功能。
本发明具备的有益效果是:
1)本发明的三维卷积模型采用双分支结构,其中动态运动线索分支运行在一个高帧率的水平(25帧每秒),更关注于对人脸或者伪造攻击的动态线索收集;静态纹理信息分支运行在低帧率水平(6.25帧每秒),应用更精细的多尺度卷积方式,专注于区分真实人脸与伪造攻击的静态纹理信息特征提取,为整个系统的高效工作奠定基础,能同时提取静态空间纹理特征和时域运动特征,增强了系统泛化性。
在双分支模型中,对于高帧率的动态运动线索子模块,将通道数设置较小(初始为8通道,最终为128通道),一方面的目的是节约模型开销;另一方面,模型通道数目越多,则模型的对于静态特征的辨析和抽取能力也就越强,能捕捉更多的纹理和图案细节,而由于动态运动线索分支的通道数目较少,其对于这些静态空间域中的纹理特征的抽取能力也会降低,再考虑到模型高帧率的时序输入,所以该分支能够在降低对于空间域特征信息提取同时,让其更专精于时域信息的提取,获得更为纯粹的时域运动特征信息。而对于低帧率的静态纹理信息子模块,其对于时域变化不太敏感,将通道数设置较大(初始为64通道,最终为1024通道),由于其模型的输入和计算量本身较小,较高的通道数能够有效提升其对于空间纹理细节信息的提取能力。而对于普通的三维卷积神经网络,由于其模型庞大,且三维卷积核计算量开销昂贵,而实际情况下内存开销又十分有限,所以只能应用较为简单的结构,无法设计复杂的网络结构和训练技巧来对特征提取进行优化,无论在网络深度及特征通道数上都无法设置很大,也很难使用较为复杂的卷积核去提取特征,故模型的效果会受到一定的限制。
2)对于静态纹理信息分支以及动态运动线索分支,为了引导其分别提取静态空间特征,以及动态时域特征,本发明设置了不同的卷积层结构。
对于动态运动线索分支,本发明将3x3x3的时域卷积近似拆分成1x1x1,3x1x1,1x3x3,1x1x1的四个卷积,这能够有效的节约模型冗余计算开支,同时保持模块对于时域信息的专注力,因为其相较于原有的3x3x3的卷积核,能够有效的减少三维神经网络模型的计算量的冗余开销,为模型中其余计算留有更大的余地。同时,作为一种近似的三维卷积核方法,在获取时域和空间域信息的能力上,并没有比原三维卷积模式差,依旧能保证在人脸活体检测任务中的精度不下降,但是却可以节省60%以上的内存计算量,展示了很强的优势。
对于静态纹理信息子模块,本发明对于每一层采用多尺度的卷积核进行特征提取,首先输入到1x1x1的卷积中,然后分别输入到1x1x1,1x3x3,1x5x5的卷积中,最后将输出结果联结并输入到又一个1x1x1的卷积中。这种多尺度卷积核的应用使得静态纹理信息子模块能够对于不同尺度的纹理和静态特征信息都能有比较好的提取能力,极大的增强了其对于静态平面空间信息的捕捉能力。这是由于纹理和图案特征的尺寸是不固定的,而使用固定尺寸的卷积核(例如1x3x3)则会导致网络只对特定大小尺寸的特征更为敏感,从而更容易忽略一些其他尺寸的特征。相反,如果应用不同大小的卷积核,那么无论对于尺寸较大的全局特征(例如非活体样本表面全局性的莫尔条纹、或者水波纹特征),还是尺寸较小的细微局部特征(例如非活体表面局部的镜面反射纹理以及光斑),都能有合适的卷积核去具有针对性的提取特征,较大的卷积核可以用来提取较为粗糙的整体结构轮廓,而较小的卷积核可以用来提取较为微小的细节特征。
3)为了提升模型在时域维度上的辨别能力,更好的提取时域信息,本方法在最后的全局池化层之前,未在时间维度上进行任何形式的下采样,最大限度的保留和提取时域中有效的信息,这能够最大限度的帮助保留和提取时域中有效的信息,做到时域和空间域特征更好的平衡。而对于开销较为昂贵的普通三维卷积网络来讲,由于其复杂的结构,必须进行下采样来避免计算量溢出问题。
附图说明
图1为本发明实施例的简要流程示意图;
图2为本发明的双分支三维卷积模型的网络结构示意图;
图3为本发明实施例采用的双分支三维卷积模型的网络参数;
图4为本发明中动态运动线索子模块的时序卷积块示意图;
图5为本发明中静态纹理信息子模块的纹理卷积块示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步的说明。
本发明的一个具体实施案展示了一种应用双分支三维卷积模型的人脸活体检测系统,包括:
人脸视频采集模块:用于采集用户的人脸视频;
人脸视频预处理模块:读取采集到的人脸视频,以n帧为一个单位进行分割处理,获得活体识别样本;
活体标注模块:用于对已知活体或非活体的训练样本进行标注,所述的活体标注模块在检测系统处于训练模式时开启,在检测系统处于识别模式时关闭;
活体运动放大模块:根据检测系统的运行模式,对带标签的训练样本或者不带标签的待检测样本进行运动放大处理,获得运动放大的活体识别样本;
双分支三维卷积模型训练模块:配置有双分支三维卷积模型,包括静态纹理信息子模块、动态运动线索子模块、融合子模块和分类子模块;所述的静态纹理信息子模块和动态运动线索子模块为三维卷积模型的两个分支,静态纹理信息子模块和动态运动线索子模块的输出经融合子模块进行池化、汇总、融合,再经分类子模块输出检测结果;
活体判断模块:当检测系统处于识别模式时,用于加载双分支三维卷积模型训练模块输出的模型文件,得到训练好的双分支三维卷积模型,并将人脸视频预处理模块输出的不带标签的待检测活体识别样本作为静态纹理信息子模块的输入,将活体运动放大模块输出的经运动放大处理后的不带标签的待检测活体识别样本作为动态运动线索子模块的输入,输出识别结果。
本发明的三维卷积模型采用了双分支结构,静态纹理信息子模块作为第一分支,活体运动放大模块和动态运动线索子模块作为第二分支。其中,所述的静态纹理信息子模块,包括输入层、时域步长为k且空间域步长为1*1的预处理层、初始块层、以及p个卷积块层,优选的,所述的静态纹理信息子模块中的初始块层由通道数为8m的初始化卷积层和初始化池化层构成。每一个卷积块层包括相同数量或不同数量的纹理卷积块,每一个纹理卷积块由卷积核为1*1*1的第一卷积层、卷积核为1*1*1、1*3*3、1*5*5的第二卷积层、卷积核为1*1*1的第三卷积层构成;其中第一卷积块层的纹理卷积块中三层卷积层的通道数分别为8m、8m、32m,且后一个卷积块层的纹理卷积块中三层卷积层的通道数是前一个卷积块层的2倍。初始化卷积层的卷积核为1*5*5,初始化池化层的卷积核为1*3*3,2≤k≤5,k优选为4,m优选为8。在本发明的一个具体实施中,纹理卷积块中的第二卷积层包含一个1*5*5的卷积核,可以拆分为两个串联的1*3*3卷积核。
其中,所述的动态运动线索子模块,包括输入层、初始块层、以及p个卷积块层,优选的,所述的动态运动线索子模块中的初始块层由通道数为m的始化卷积层和初始化池化层构成。每一个卷积块层包括相同数量或不同数量的时序卷积块,每一个时序卷积块由卷积核为1*1*1的第一卷积层、卷积核为3*1*1的第二卷积层、卷积核为1*3*3的第三卷积层、卷积核为1*1*1的第四卷积层构成;其中第一卷积块层的时序卷积块中每一层卷积层的通道数分别为m、m、m、4m;且后一个卷积块层的时序卷积块中四层卷积层的通道数是前一个卷积块层的2倍。初始化卷积层的卷积核为3*5*5,初始化池化层的卷积核为1*3*3,m优选为8。
所述静态纹理信息子模块中第i个卷积块层的输出与动态运动线索子模块中第i个卷积块层的输出进行合并后,作为静态纹理信息子模块中第i+1个卷积块层的输入;其中,p为大于0的整数,1≤i≤p-1,p优选为3。
其中,所述的活体运动放大模块,在执行样本的运动放大处理过程时,具体为:
1)通过傅里叶级数的分解,将每一帧中的人脸图像f(x+δ(t))分解为一系列正弦函数之和:
Figure BDA0002536700200000071
其中,f(x+δ(t))表示时域中的人脸活体样本图像,即初始时的图像为I(x,0)=f(x),δ(t)为人脸的运动信息函数,Aω为转化到频域空间后信号的振幅;每个单独的频率ω对应一种带宽,而对于特定频率ω的带宽是复数的正弦信号:
Sω(x,t)=Aωeiω(x+δ(t))
其中,人脸微小运动的频率频率ω的范围设定为0.3-3Hz,以提取人脸微小运动。Sω为一条正弦曲线,其相位为ω(x+δ(t))包含有原图像的运动信息;
2)为了分离出特定的时域对应频带内的微小动作,对相位ω(x+δ(t))进行过滤,得到滤波后的带通相位,表示如下:
Bω(x,t)=ωδ(t)
将带通相位Bω(x,t)与α相乘,α为运动信息放大系数,取值为30,在实际应用中,可以根据需要在10-50之间变化,并加上子带Sω(x,t)的相位,从而获取运动放大后的子带
Figure BDA0002536700200000072
表示为:
Figure BDA0002536700200000073
最终获得的结果
Figure BDA0002536700200000081
是一条复数的正弦曲线,表示频域空间内经过运动放大后的图像。
3)根据步骤2.2)中的运动放大后的子带
Figure BDA0002536700200000082
获得运动放大后的视频序列f(x+(1+α)δ(t)),最后将其转换回时域即为放大后的结果。
本发明的一个具体实施案展示了人脸活体检测系统的具体工作流程。
通过人脸视频采集模块获取用户的人脸视频,通过人脸视频预处理模块,以8帧为一个单位进行分割,获得活体识别样本。假设原始图像流尺寸为224x224x8,在由活体运动放大模块进行人脸微小动作放大之后,输入到动态运动线索子模块。所述的动态运动线索子模块,运行在一个高帧率的水平(25帧每秒),使用三维卷积模块,更关注于对人脸或者伪造攻击的动态线索收集。其通道数设置较小(初始为8通道,最终为128通道),一方面能够节约模型开销,另一方面也能够让其更专精于时域信息的提取,值得注意的是,整个过程中没有时域上的降采样处理,这在最大限度的保留了时域中的运动信息。
在动态运动线索子模块中的运算流程具体为:首先通过一个尺寸为3x5x5,步长为1,2,2的卷积,获得通道数为8的特征;接着通过一个尺寸为1x3x3,步长为1,2,2的初始化池化层,通道数仍为8;然后通过第二分支中的三个卷积块层,所述的三个卷积块层分别包括2、3、2个时序卷积块,每个时序卷积块的结构如图4所示,为了节约计算开销和内存,本发明将原始的3x3x3的三维卷积核进行拆分,依次通过1x1x1的卷积核、3x1x1的卷积核、1x3x3的卷积核以及1x1x1的卷积核,设置1x1x1的卷积核的目的是增强模型的拟合能力。
同样假设原始图像尺寸为224x224x8,输入到静态纹理信息子模块中。所述的静态纹理信息子模块运行在低帧率水平(6.25帧每秒),应用更精细的多尺度卷积方式,专注于区分真实人脸与伪造攻击的静态纹理信息特征提取。其对于时域变化不太敏感,通道数设置较大(初始为64通道,最终为1024通道),由于其模型的输入和计算量本身较小,较高的通道数能够有效提升其对于空间纹理细节信息的提取能力。
在静态纹理信息子模块中的运算流程具体为:通过预处理层进行抽帧之后,以低频率输入,首先通过一个1x5x5的卷积核,步长1,2,2,获得的特征通道数为64,接着通过一个尺寸为1x3x3,步长为1,2,2的初始化池化层,通道数不变,仍为64。
初始块层的输出结果会与动态运动线索子模块对应层的输出结果进行合并拼接,然后输入到卷积块层中。
然后经过第一分支中的三个卷积块层,三个卷积块层分别包括2、3、2纹理卷积块,每个纹理卷积块的结构如图5所示,为了进一步节约模型的内存计算空间,将图4中所示的1x5x5的卷积拆分称为两个1x3x3的卷积相串联。这种多尺度卷积核的方式使得模块对于不同静态空间尺度的特征都能有很强的信息提取能力。
在两个分支的运算过程中,相应卷积块层的输出会进行联结后作为下一个第一分支卷积块层的输入。最终,将运动线索子模块的输出结果与静态纹理信息子模块的输出结果合并后输入到全局池化层,以及一个1024的全连接层,最终通过softmax函数完成分类。
在构建完毕训练时需要的双分支三维卷积神经网络模型后,针对于训练的样本和对应的标签,本实施例通过以下方法对该模型进行训练,并保存下模型文件到存储介质中。对于所有用于训练的样本,进行批梯度下降训练,即每次只送入网络模型一个批次共10个样本进行训练,将一个批次内用于训练的样本记作x,其对应的标签记作
Figure BDA0002536700200000094
训练样本x在通过双分支的三维卷积神经网络模型的识别后,得到模型的识别结果y。在本实施例中,训练的目的就是缩小标签
Figure BDA0002536700200000095
和模型的识别结果y之间的差异,因此选择交叉熵损失函数用于描述
Figure BDA0002536700200000096
和y之间的差异,其交叉熵损失函数如下:
Figure BDA0002536700200000091
其中
Figure BDA0002536700200000092
代表交叉熵损失函数,N代表训练中识别任务的分类数,此处为2。
Figure BDA0002536700200000093
代表一个批次中的第i个样本属于第j个类别的概率,yij代表一个批次中的第i个样本在经过双分支的三维卷积神经网络模型网络后的识别结果属于第j个类别的概率。本实施例在Pytorchtoolkit平台上通过批梯度下降方法,先单独将第一分支与第二份独立训练两个周期,然后将双分支模型合并后,训练网络模型50个周期后,将模型文件保存至存储介质中去,以供活体判断模块进行人脸活体检测识别任务。所述的一个周期指将所有训练数据都通过批梯度下降方法训练过一次。
在本申请的一个实施案中,提供了一种终端和存储介质。
终端,它包括存储器和处理器;
其中存储器,用于存储计算机程序;
处理器,用于当执行所述计算机程序时,实现前述双分支的三维卷积神经网络模型方法与系统的功能。
需要注意的是,存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。上述的处理器为终端的控制中心,利用各种接口和线路连接终端的各个部分,通过执行存储器中的计算机程序来调用存储器中的数据,以执行终端的功能。处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。当然,该终端中还应当具有实现程序运行的必要组件,例如电源、通信总线等等。
示例性的,所述的计算机程序可以被分割为多个模块,每一个模块均被存储在存储器中,分割开来的每一个模块都可以完成具备特定功能的计算机程序指令段,该指令段用于描述计算机程序的执行过程。例如,可以将计算机程序分割成以下模块:
人脸视频采集模块:用于采集用户的人脸视频;
人脸视频预处理模块:读取采集到的人脸视频,以n帧为一个单位进行分割处理,获得活体识别样本;
活体标注模块:用于对已知活体或非活体的训练样本进行标注,所述的活体标注模块在检测系统处于训练模式时开启,在检测系统处于识别模式时关闭;
活体运动放大模块:根据检测系统的运行模式,对带标签的训练样本或者不带标签的待检测样本进行运动放大处理,获得运动放大的活体识别样本;
双分支三维卷积模型训练模块:配置有双分支三维卷积模型,包括静态纹理信息子模块、动态运动线索子模块、融合子模块和分类子模块;所述的静态纹理信息子模块和动态运动线索子模块为三维卷积模型的两个分支,静态纹理信息子模块和动态运动线索子模块的输出经融合子模块进行池化、汇总、融合,再经分类子模块输出检测结果;
活体判断模块:当检测系统处于识别模式时,用于加载双分支三维卷积模型训练模块输出的模型文件,得到训练好的双分支三维卷积模型,并将人脸视频预处理模块输出的不带标签的待检测活体识别样本作为静态纹理信息子模块的输入,将活体运动放大模块输出的经运动放大处理后的不带标签的待检测样本作为动态运动线索子模块的输入,输出识别结果。
以上模块中的程序在执行时均由处理器进行处理。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。存储器作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的系统对应的程序指令或模块。处理器通过运行存储在存储器中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的功能。例如,U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。此外,上述存储介质以及终端中的多条指令由处理器加载并执行的具体过程在上述中已经详细说明。
实施例
本实施例用于展示一个具体的实施效果。本实施例中的人脸视频采集模块、人脸视频预处理模块、活体标注模块、活体运动放大模块、双分支三维卷积模型训练模块、活体判断模块均采用上述描述的结构及功能,此处不再赘述。
实施过程为:
包括配置过程和识别过程。首先设置系统处于配置模式,通过人脸视频采集模块获取人脸视频,然后由人脸视频预处理模块对人脸视频进行分割得到活体识别样本,并由活体标注模块进行标记,再通过活体运动放大模块进行处理,最后由活体检测拟态模训练模块根据训练样本集对三维卷积模型进行训练,保存为模型文件。
配置结束后,将系统设置为识别模式,首选通过人脸视频采集模块获取人脸视频,然后由人脸视频预处理模块对人脸视频进行分割得到待检测活体识别样本,最后由活体判断模块直接加载训练好的模型文件,将待检测样本和运动放大后的待测样本分别作为模型输入,得到识别结果。
本实施例共进行了6种测试任务,包括了OULU-NPU数据库中的协议1测试,OULU-NPU数据库中的协议2测试,OULU-NPU数据库中的协议3测试,NPU数据库中的协议4测试,以及CASIA-FASD数据库和回放攻击数据库之间分别进行的交叉测试。其中最困难的是CASIA-FASD数据库和回放攻击数据库之间分别进行的交叉测试,因为其对于模型泛化性能力,以及在未知照明、背景、设备条件下的鲁棒性有着很大的挑战。
对于在OULU-NPU数据库的四个协议测试,本发明遵循了原协议中的测试指标准则。其采用伪造攻击分类错误(APCER),其用来评估所有攻击方式中错分类错误率最高一种;以及真实活体分类错误率(BPCER),其用于评价真实活体样本分类错误率;及均值分类错误率(ACER),为伪造攻击分类错误和真实人脸分类错误率的均值:
Figure BDA0002536700200000121
而在CASIA数据库和Replay Attack数据库中的测试,本发明遵循原数据库的测试标准,使用总错误率的一半(HTER)作为指标规则,其值为误拒率(FRR)和误接受率(FAR)之后的一半:
Figure BDA0002536700200000122
为保证公平,所以训练测试均在Pytorch基准测试平台上用GeForce RTX2080Ti-NVIDIA GPU进行,并且所有训练和测试规则均相同。这里所进行对比的模型包括了传统方法中的局部二值模式,循环神经网络中的长短期记忆神经网络,以及卷积神经网络中的二维卷积神经网络。结果如表1和表2所示。
表1各模型在OULU-NPU数据库中不同协议上的表现
Figure BDA0002536700200000123
Figure BDA0002536700200000131
表2各模型在CASIA和回放攻击数据库上的跨数据测试
Figure BDA0002536700200000132
可以看到本发明的双分支三维卷积模型在所有的数据测试中,在OULU-NPU数据库的四种测试协议下,通过和普通的二维卷积神经网络模型,以及传统的纹理特征模型进行比较,发明提出的三维拟态模型都占据了绝对的性能优势,由于OULU-NPU是一种接近于目前正在应用的实际手机场景的数据库,所以也可以侧面上证明了三维拟态模型在接近于实际移动支付场景中能够有效的防范各种非活体伪造攻击,具有很强的实用价值。无论相较于传统方法,还是二维卷积神经网络以及循环神经网络,都有非常巨大的优势。而在更具挑战的跨数据集测试中,模型性能的鲁棒性和优越性也得到了很好得体现。这说明本发明所述模型的结构是有效的,也是具有先进性的。
由于OULU-NPU虽然是一种考虑到跨场景跨设备的泛化性测试数据集,但是考虑到拍摄场景、光线的限制,以及同一批拍摄人员的摄影习惯是固定的、同一批攻击者的攻击方式习惯等细节也是相对单一的等客观条件,使得该数据库在测试过程中仍存在很多相似性的可能,所以并不能完全接近实际的复杂应用场景。所以将模型在CASIA-FASD数据库以及Idiap Replay Attack数据库中进行跨数据集的交叉测试,从而对模型进行更具挑战性的、完全接近实际场景的泛化性测试。在这些对比模型中,涵盖了很多不同种类的实验模型,包括一些传统的纹理提取算法,以及深度学习中的CNN以及RNN时序模型.
CASIA与Replay Attack数据集上的交叉测试是一种模型泛化性的最高标准考验,因为两种数据集在采集设备,活体ID,采集环境还是采集人员的拍摄习惯,都存在着极大的不同,彼此差异很大,所以非常符合现实中的检测场景。从表中可以看出,这里采用半总错误率HTER作为性能考察指标,通过和各类模型的综合性比较,包括传统的纹理特征提取模型、深度卷积学习中的CNN以及LSTM时序模型,发明提出的双分支三维卷积模型都展现出了更为优越的性能。
发明提出的双分支三维卷积模型无论相比于传统手工提取特征的方法,还是最为先进的复杂深度学习网络,都展现出了远超其它模型的泛化性表现,在两种规则的跨数据集互相测试中都是如此,由此可以看出提出的双分支三维卷积模型是更为鲁棒和强健的,所以也印证了其在实际场景测试中的表现也会更加优异。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (10)

1.一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,包括:
人脸视频采集模块:用于采集用户的人脸视频;
人脸视频预处理模块:读取采集到的人脸视频,以n帧为一个单位进行分割处理,获得活体识别样本;
活体标注模块:用于对已知活体或非活体的训练样本进行标注,所述的活体标注模块在检测系统处于训练模式时开启,在检测系统处于识别模式时关闭;
活体运动放大模块:根据检测系统的运行模式,对带标签的训练样本或者不带标签的待检测样本进行活体运动信息放大处理,获得运动放大的活体识别样本;
双分支三维卷积模型训练模块:配置有双分支三维卷积模型,包括静态纹理信息子模块、动态运动线索子模块、融合子模块和分类子模块;
当检测系统处于训练模式时,所述活体运动放大模块的输出作为动态运动线索子模块的输入,人脸视频预处理模块的输出作为静态纹理信息子模块的输入,静态纹理信息子模块和动态运动线索子模块的输出经融合子模块进行池化、汇总、融合,再经分类子模块输出检测结果;
所述静态纹理信息子模块包括输入层、时域步长为k且空间域步长为1*1的预处理抽帧层、通道数为8m的初始块层、以及p个卷积块层;所述动态运动线索子模块包括输入层、通道数为m的初始块层、以及p个卷积块层;
所述静态纹理信息子模块的初始块层的输出与动态运动线索子模块的初始块层的输出进行合并后,作为静态纹理信息子模块第1个卷积块层的输入;静态纹理信息子模块第i个卷积块层的输出与动态运动线索子模块第i个卷积块层的输出进行合并后,作为静态纹理信息子模块第i+1个卷积块层的输入;所述静态纹理信息子模块的卷积块层和动态运动线索子模块的卷积块层均包括若干个由多层卷积层构成的卷积子模块,每一个卷积子模块的输出卷积层通道数大于输入卷积层通道数;其中m、p和k为大于0的整数,2≤k≤5,1≤i≤p-1;
活体判断模块:当检测系统处于识别模式时,用于加载双分支三维卷积模型训练模块输出的模型文件,得到训练好的双分支三维卷积模型,并将人脸视频预处理模块输出的不带标签的待检测活体识别样本作为静态纹理信息子模块的输入,将活体运动放大模块输出的经运动放大处理后的不带标签的待检测活体识别样本作为动态运动线索子模块的输入,输出识别结果。
2.如权利要求1所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的活体运动放大模块具体为:
2.1)通过傅里叶级数的分解,将每一帧中的人脸图像f(x+δ(t))分解为一系列正弦函数之和:
Figure FDA0002536700190000021
其中,f(x+δ(t))表示时域中的人脸活体样本图像,即初始时的图像为I(x,0)=f(x),δ(t)为人脸的运动信息函数,Aω为转化到频域空间后信号的振幅;i代表复频域内图像所对应的虚部;每个单独的频率ω对应一种带宽,对于特定频率ω的带宽是复数的正弦信号:
Sω(x,t)=Aωeiω(x+δ(t))
其中,人脸微小运动的频率频率ω的范围设定为0.3-3Hz,以提取人脸微小运动;Sω为一条正弦曲线,其相位ω(x+δ(t))包含有原图像的运动信息;通过调节相位来调整运动的幅度;
2.2)对上式中的ω(x+δ(t))通过直流互补滤波器进行过滤,得到滤波后的带通相位,表示如下:
Bω(x,t)=ωδ(t)
将带通相位Bω(x,t)与α相乘,其中α为运动放大系数,并加上子带Sω(x,t)的相位,从而获取运动放大后的子带
Figure FDA0002536700190000022
表示为:
Figure FDA0002536700190000023
其中
Figure FDA0002536700190000024
是一条复数的正弦曲线,且正好为输入正弦曲线的(1+α)倍;
2.3)根据步骤2.2)中的运动放大后的子带
Figure FDA0002536700190000025
获得运动放大后的视频序列f(x+(1+α)δ(t)),最后将其转换回时域即为放大后的结果。
3.如权利要求1所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的初始块层包括初始化卷积层和初始化池化层;静态纹理信息子模块的初始化卷积层中的卷积核为1*5*5,初始化池化层的卷积核为1*3*3;动态运动线索子模块的初始化卷积层中的卷积核为3*5*5,初始化池化层的卷积核为1*3*3。
4.如权利要求3所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的静态纹理信息子模块包括三个卷积块层,三个卷积块层分别包括2、3、2个纹理卷积子模块,每一个纹理卷积子模块由卷积核为1*1*1的第一卷积层、卷积核为1*1*1、1*3*3、1*5*5的第二卷积层、卷积核为1*1*1的第三卷积层构成,其中第一卷积块层的纹理卷积子模块中三层卷积层的通道数分别为8m、8m、32m,且后一个卷积块层的纹理卷积子模块中三层卷积层的通道数是前一个卷积块层的2倍。
5.如权利要求4所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,将所述静态纹理信息子模块卷积块层中第二卷积层的1*5*5卷积核拆分为两个串联的1*3*3卷积核。
6.如权利要求1所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的动态运动线索子模块包括三个卷积块层,三个卷积块层分别包括2、3、2个时序卷积子模块,每一个时序卷积子模块由卷积核为1*1*1的第一卷积层、卷积核为3*1*1的第二卷积层、卷积核为1*3*3的第三卷积层、卷积核为1*1*1的第四卷积层构成,其中第一卷积块层的时序卷积子模块中每一层卷积层的通道数分别为m、m、m、4m;且后一个卷积块层的时序卷积子模块中四层卷积层的通道数是前一个卷积块层的2倍。
7.如权利要求1所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的m取值为8。
8.如权利要求1所述的一种应用双分支三维卷积模型的人脸活体检测系统,其特征在于,所述的p取值为3,k取值为4。
9.一种终端,其特征在于,包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于当执行所述计算机程序时,实现如权利要求1~8任一项所述应用双分支三维卷积模型的人脸活体检测系统。
10.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1~8任一项应用双分支三维卷积模型的人脸活体检测系统。
CN202010534822.3A 2020-06-12 2020-06-12 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质 Active CN111814574B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010534822.3A CN111814574B (zh) 2020-06-12 2020-06-12 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质
PCT/CN2020/116644 WO2021248733A1 (zh) 2020-06-12 2020-09-22 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010534822.3A CN111814574B (zh) 2020-06-12 2020-06-12 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质

Publications (2)

Publication Number Publication Date
CN111814574A true CN111814574A (zh) 2020-10-23
CN111814574B CN111814574B (zh) 2023-09-15

Family

ID=72846094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010534822.3A Active CN111814574B (zh) 2020-06-12 2020-06-12 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质

Country Status (2)

Country Link
CN (1) CN111814574B (zh)
WO (1) WO2021248733A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836194A (zh) * 2021-01-29 2021-05-25 西安交通大学 一种基于人手内部生物特征的身份认证方法及系统
CN113158773A (zh) * 2021-03-05 2021-07-23 普联技术有限公司 一种活体检测模型的训练方法及训练装置
CN113312965A (zh) * 2021-04-14 2021-08-27 重庆邮电大学 一种人脸未知欺骗攻击活体检测方法及系统
CN113422982A (zh) * 2021-08-23 2021-09-21 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN113792804A (zh) * 2021-09-16 2021-12-14 北京百度网讯科技有限公司 图像识别模型的训练方法、图像识别方法、装置及设备
CN116631050B (zh) * 2023-04-20 2024-02-13 北京电信易通信息技术股份有限公司 一种面向智能视频会议的用户行为识别方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114626024A (zh) * 2022-05-12 2022-06-14 北京吉道尔科技有限公司 一种基于区块链的互联网侵权视频低耗检测方法及系统
CN115082734B (zh) * 2022-06-23 2023-01-31 中南大学 铝电解槽火眼视频巡检系统及过热度深度学习识别方法
CN115410048B (zh) * 2022-09-29 2024-03-19 昆仑芯(北京)科技有限公司 图像分类模型的训练及图像分类方法、装置、设备及介质
CN115578771A (zh) * 2022-10-24 2023-01-06 智慧眼科技股份有限公司 活体检测方法、装置、计算机设备及存储介质
CN117095447B (zh) * 2023-10-18 2024-01-12 杭州宇泛智能科技有限公司 一种跨域人脸识别方法、装置、计算机设备及存储介质
CN117593798B (zh) * 2023-11-28 2024-05-28 齐鲁工业大学(山东省科学院) 一种基于双分支特征增强的伪造人脸检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180357501A1 (en) * 2017-06-07 2018-12-13 Alibaba Group Holding Limited Determining user authenticity with face liveness detection
CN110414350A (zh) * 2019-06-26 2019-11-05 浙江大学 基于注意力模型的双路卷积神经网络的人脸防伪检测方法
CN110516576A (zh) * 2019-08-20 2019-11-29 西安电子科技大学 基于深度神经网络的近红外活体人脸识别方法
WO2020088588A1 (zh) * 2018-11-01 2020-05-07 长沙小钴科技有限公司 一种基于深度学习的静态三维人脸活体检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202105B1 (en) * 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
CN109344716A (zh) * 2018-08-31 2019-02-15 深圳前海达闼云端智能科技有限公司 活体检测模型的训练方法、检测方法、装置、介质及设备
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180357501A1 (en) * 2017-06-07 2018-12-13 Alibaba Group Holding Limited Determining user authenticity with face liveness detection
WO2020088588A1 (zh) * 2018-11-01 2020-05-07 长沙小钴科技有限公司 一种基于深度学习的静态三维人脸活体检测方法
CN110414350A (zh) * 2019-06-26 2019-11-05 浙江大学 基于注意力模型的双路卷积神经网络的人脸防伪检测方法
CN110516576A (zh) * 2019-08-20 2019-11-29 西安电子科技大学 基于深度神经网络的近红外活体人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAONAN CHEN 等: "Attention-Based Two-Stream Convolutional Networks for Face Spoofing Detection", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》, vol. 15, pages 578 - 593, XP011747040, DOI: 10.1109/TIFS.2019.2922241 *
SAMARTH BHARADWAJ 等: "Computationally Efficient Face Spoofing Detection with Motion Magnification", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》, pages 105 - 110 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836194A (zh) * 2021-01-29 2021-05-25 西安交通大学 一种基于人手内部生物特征的身份认证方法及系统
CN112836194B (zh) * 2021-01-29 2023-03-21 西安交通大学 一种基于人手内部生物特征的身份认证方法及系统
CN113158773A (zh) * 2021-03-05 2021-07-23 普联技术有限公司 一种活体检测模型的训练方法及训练装置
CN113158773B (zh) * 2021-03-05 2024-03-22 普联技术有限公司 一种活体检测模型的训练方法及训练装置
CN113312965A (zh) * 2021-04-14 2021-08-27 重庆邮电大学 一种人脸未知欺骗攻击活体检测方法及系统
CN113422982A (zh) * 2021-08-23 2021-09-21 腾讯科技(深圳)有限公司 数据处理方法、装置、设备及存储介质
CN113792804A (zh) * 2021-09-16 2021-12-14 北京百度网讯科技有限公司 图像识别模型的训练方法、图像识别方法、装置及设备
CN113792804B (zh) * 2021-09-16 2023-11-21 北京百度网讯科技有限公司 图像识别模型的训练方法、图像识别方法、装置及设备
CN116631050B (zh) * 2023-04-20 2024-02-13 北京电信易通信息技术股份有限公司 一种面向智能视频会议的用户行为识别方法及系统

Also Published As

Publication number Publication date
CN111814574B (zh) 2023-09-15
WO2021248733A1 (zh) 2021-12-16

Similar Documents

Publication Publication Date Title
CN111814574A (zh) 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质
Rao et al. A deep learning approach to detection of splicing and copy-move forgeries in images
Yuan et al. Fingerprint liveness detection from different fingerprint materials using convolutional neural network and principal component analysis
CN102938065B (zh) 基于大规模图像数据的人脸特征提取方法及人脸识别方法
Pietikäinen et al. Two decades of local binary patterns: A survey
CN106934359B (zh) 基于高阶张量子空间学习的多视角步态识别方法及系统
CN109871780B (zh) 一种人脸质量判决方法、系统及人脸识别方法、系统
Alsmadi et al. Fish recognition based on robust features extraction from color texture measurements using back-propagation classifier
Zhang et al. A multi-task fully deep convolutional neural network for contactless fingerprint minutiae extraction
Jung et al. Fingerprint liveness detection by a template-probe convolutional neural network
Sardar et al. A hardware/software co-design model for face recognition using cognimem neural network chip
CN111209873A (zh) 一种基于深度学习的高精度人脸关键点定位方法及系统
Wang et al. Fingerprint pore extraction using U-Net based fully convolutional network
Huynh et al. Plant identification using new architecture convolutional neural networks combine with replacing the red of color channel image by vein morphology leaf
Lakshmi et al. Off-line signature verification using Neural Networks
CN116343287A (zh) 面部表情识别、模型训练方法、装置、设备及存储介质
Chin et al. Facial skin image classification system using Convolutional Neural Networks deep learning algorithm
Elisha Raju et al. A two-level security system based on multimodal biometrics and modified fusion technique
CN110610131A (zh) 人脸运动单元的检测方法、装置、电子设备及存储介质
CN106407942B (zh) 一种图像处理方法及其装置
Kumar et al. An empirical evaluation of rotation invariance of LDP feature for fingerprint matching using neural networks
CN111814682A (zh) 人脸活体检测方法及装置
Sikkandar Design a contactless authentication system using hand gestures technique in COVID-19 panic situation
Rajan et al. Evaluation and applying feature extraction techniques for face detection and recognition
Nguyen et al. LAWNet: A Lightweight Attention-Based Deep Learning Model for Wrist Vein Verification in Smartphones Using RGB Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant