CN113780222B - 一种人脸活体检测方法、装置、电子设备和可读存储介质 - Google Patents
一种人脸活体检测方法、装置、电子设备和可读存储介质 Download PDFInfo
- Publication number
- CN113780222B CN113780222B CN202111093640.8A CN202111093640A CN113780222B CN 113780222 B CN113780222 B CN 113780222B CN 202111093640 A CN202111093640 A CN 202111093640A CN 113780222 B CN113780222 B CN 113780222B
- Authority
- CN
- China
- Prior art keywords
- face
- depth
- living body
- map
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 claims description 43
- 238000006243 chemical reaction Methods 0.000 claims description 38
- 238000010586 diagram Methods 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 20
- 238000001727 in vivo Methods 0.000 claims description 6
- 239000000758 substrate Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000001574 biopsy Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006748 scratching Methods 0.000 description 2
- 230000002393 scratching effect Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种人脸活体检测方法、装置、电子设备和可读存储介质。本发明实施例提供的人脸活体检测方法包括:获取第一人脸幅度图和第一人脸深度图;基于第一活体检测模型,根据所述第一人脸幅度图获取第一活体概率;当所述第一活体概率大于第一阈值,基于第二活体检测模型,根据所述第一人脸深度图获取第二活体概率;根据所述第二活体概率确定人脸活体检测结果;当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活体。这样,本发明实施例通过两级网络对人脸幅度图和深度图做特征提取,最终结合两级网络的结果来对人脸活体进行判断,由于两级网络相互独立,有利于加快网络收敛和独立调试。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种人脸活体的鉴别方法和装 置。
背景技术
随着人脸识别系统得到大量应用,如手机解锁、银行身份识别、门禁门锁 等领域,这些技术给人们生活带来了极大的便利。然而,人脸识别也面临着诸 多挑战,人脸活体检测便是其中之一。传统的识别系统容易被打印的人脸纸张、 照片、一段事先录好的视频甚至人脸的面具等非活体攻破,会给使用者带来财 产损失或者人身伤害。因此,应对非活体攻击越来越得到人们关注,人脸活体检测技术也逐渐成为人脸识别的“标配”。
发明内容
本发明实施例提供一种人脸活体的鉴别方法、装置、电子设备和可读存储 介质,以解决人脸识别技术中如何应对非活体攻击的问题。
第一方面,本发明实施例提供了一种人脸活体检测方法,包括以下步骤:
获取第一人脸幅度图和第一人脸深度图;
基于第一活体检测模型,根据所述第一人脸幅度图获取第一活体概率;
当所述第一活体概率大于第一阈值,基于第二活体检测模型,根据所述第 一人脸深度图获取第二活体概率;根据所述第二活体概率确定人脸活体检测结 果;
当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活 体。
在一些实施例中,所述方法还包括:
获取第二人脸幅度图和第二人脸深度图;
基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息;
当所述人脸区域信息不满足预设范围,则重新获取第二人脸幅度图和第二 人脸深度图;
当所述人脸区域信息满足预设范围,根据所述人脸区域信息从所述第二人 脸幅度图提取得到第三人脸幅度图,从所述第二人脸深度图提取得到第三人脸 深度图;
根据所述第三人脸幅度图获取所述第一人脸幅度图,根据所述第三人脸深 度图获取所述第一人脸深度图。
在一些实施例中,所述获取第二人脸幅度图和第二人脸深度图,具体为:
从ToF相机接收第二人脸幅度图和第二人脸深度图。
在一些实施例中,所述基于人脸检测器,根据所述第二人脸幅度图获取人 脸区域信息,包括:
将经过中值滤波器滤波的第二人脸幅度图输入至所述人脸检测器,所述人 脸检测器输出人脸区域信息,所述人脸区域信息包括人脸区域的矩形框的左上 角及右下角坐标。
在一些实施例中,所述第三人脸深度图所在区域为C;所述根据所述第三 人脸深度图获取所述第一人脸深度图,包括:
计算区域C内所有点的第一平均深度值avg_1;
提取区域C内深度值在预设深度区间的所有点得到第一点集C1,获取所 述第一点集中的最小深度值min;所述预设深度区间的中间值为第一平均深度 值avg_1;
提取区域C内满足第一预设深度条件的所有点得到第二点集C2,并将第 二点集C2中所有点设置第一标志;所述第一预设深度条件为该点的深度值与 所述最小深度值的差值大于第一预设深度值;
将所述第二点集C2中所有点的深度值置为min;
计算区域C内所有点的第二平均深度值得到avg_2;
将区域C中所有满足第二预设深度条件的所有点的深度值置为min;所述 第二预设深度条件为该点的深度值与所述第二平均深度值avg_2的差值大于 第二预设深度值;
获得区域C内的最大深度值max,区域C内所有点的当前深度值input; 根据以下公式计算获得区域C中所有点的归一化后的深度值output,
将带有第一标志的点的深度值置为0,得到区域C内所有点变换后的深度 值;
根据区域C内所有点变换后的深度值获得第一人脸深度图。
在一些实施例中,所述根据所述第三人脸幅度图获取所述第一人脸幅度 图,包括:将所述第三人脸幅度图经过位数变换和shape变换后得到所述第一 人脸幅度图;
所述根据区域C内所有点变换后的深度值获得第一人脸深度图,包括: 根据区域C内所有点变换后的深度值经过位数变换和shape变换后得到所述第一人脸深度图。
在一些实施例中,所述根据所述第二活体概率确定人脸活体检测结果,包 括:
当所述第二活体概率大于第二阈值,确定人脸活体检测结果为活体;
当所述第二活体概率小于或等于第二阈值,确定人脸活体检测结果为非活 体。
第二方面,本发明实施例提供了一种人脸活体检测装置,包括:
获取模块,用于获取第一人脸幅度图和第一人脸深度图;
第一活体检测模型,用于根据所述第一人脸幅度图获取第一活体概率;
第二活体检测模型,用于当所述第一活体概率大于第一阈值时,根据所述 第一人脸深度图获取第二活体概率;
识别模块,用于确定人脸活体检测结果:当述第一活体概率小于或等于第 一阈值,确定人脸活体检测结果为非活体;当所述第一活体概率大于第一阈值, 根据所述第二活体概率确定人脸活体检测结果。
第三方面,本发明实施例提供了一种电子设备,包括:存储器、处理器及 存储在所述存储器上并可在所述处理器上运行的程序;其特征在于,所述处理 器,用于读取存储器中的程序实现如上所述的人脸活体检测方法中的步骤。
第四方面,本发明实施例提供了一种用于存储程序,其特征在于,所述程 序被处理器执行时实现如上所述的人脸活体检测方法中的步骤。
本发明实施例本发明提供一种人脸活体检测方法包括:获取第一人脸幅度 图和第一人脸深度图;基于第一活体检测模型,根据所述第一人脸幅度图获取 第一活体概率;当所述第一活体概率大于第一阈值,基于第二活体检测模型, 根据所述第一人脸深度图获取第二活体概率;根据所述第二活体概率确定人脸 活体检测结果;当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活体。这样,本发明实施例通过两级网络对人脸幅度图和深度图做特征 提取,最终结合两级网络的结果来对人脸活体进行判断,由于两级网络相互独 立,有利于加快网络收敛和独立调试。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述 中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本 发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的 前提下,还可以根据这些附图获取其他的附图。
图1是本发明一实施例中人脸活体检测方法的流程图;
图2是本发明一实施例中的人脸活体检测的深度神经网络图;
图3是本发明一实施例中的人脸幅度图;
图4是本发明一实施例中的人脸深度图;
图5是本发明一实施例中的人脸区域深度转换效果图;
图6是本发明一实施例中的人脸活体检测方法的示例流程图;
图7是本发明一实施例中的人脸深度图转换示例流程图;
图8是本发明一实施例中人脸活体检测装置的结构图;
图9是本发明一实施中电子设备的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清 楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部 的实施例。不冲突的情况下,下述实施例及实施例中的特征可以相互组合。基 于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获 取的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供了一种基于人工智能的人脸活体检测方法,可以采用基 于人工智能领域的计算机视觉技术(Computer Vision,CV),在对本申请提供的 方法进行介绍之前,先对涉及到的一些基础概念进行介绍。人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和 扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、 技术及应用系统。人工智能软件技术主要包括计算机视觉技术、语音处理技术、 自然语言处理技术以及机器学习/深度学习等几大方向。
其中,计算机视觉技术是是指用摄影机和电脑代替人眼对目标进行识别、 跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观 察或传送给仪器检测的图像。
HSV是一种将RGB色彩空间中的点在倒圆锥体中的表示方法;HSV即色 相(Hue)、饱和度(Saturation)、亮度(Value)。
LBP特征(Local Binary Pattern,局部二值模式)是一种用来描述图像局 部纹理特征的算子。它具有旋转不变性和灰度不变性等显著优点,可用于纹理 特征提取,提取的特征是图像的局部的纹理特征。
Surf(Speeded Up Robust Features)特征就是图像最常见的特征之一,具有 以下的优点:基于积分图计算,快速关键点提取;不同关键点描述;快速描述 子匹配;同时具有旋转、尺度、光照不变性。
SVM分类器(Support Vector Machine,支持向量机)是一个由分类超平面定 义的判别分类器。也就是说给定一组带标签的训练样本,SVM分类器将会输 出一个最优超平面对新样本(测试样本)进行分类。
ToF相机(Time-of-flight camera,飞行时间相机)是采用飞行时间的距离 成像相机系统通过测量由激光或LED等提供的人造光信号的往返时间来解析 相机和拍摄对象之间距离的技术。
本发明中,公式中的符号“/”表示运算符除以。
人脸活体检测技术从使用者角度看大体可以分为两大类,一类为配合式, 其需要根据系统指示配合完成相应的动作(如眨眼、点头、张嘴等)来达到防 假的效果,这一类较典型的应用在银行或其他支付类应用程序上。另一类则为 静默式,使用者无需做出配合动作即可完成活体检测,不难看出此类技术更易 于人们接受。
从数据源角度看,人脸活体检测技术包括基于RGB可见光、RGB和深度 相机、双红外或双RGB的双目系统。RGB可见光这类单模态技术容易受到外 界光线影响,比如强光对照,并且缺乏人脸深度信息,对定制纸张的抵抗往往 效果不好。RGB和深度相机、以及双目系统这类双模态系统检测准确率通常 较高,但也面临着后期双目标定困难、装置复杂、成本较高等问题。此外,深度相机通常是16bit数据类型,如果直接使用16bit图来进行模型训练,能够 有效降低数据损失,但由于数据不可视,往往容易在训练数据采集过程引入脏 数据,影响最终模型的表现。如果先将16bit图转为8bit图,这样比较直观且 便于筛查数据,但会导致数据在做归一化过程时受到飞点或干扰点的影响,比 如佩戴眼镜的人脸在眼镜区域容易反光过曝,深度相机直出的数据里此区域数据会形成“拖影”或飞点(fly pixel),如果直接做转换的话,会容易造成8bit 的深度图细节丢失,即整张人脸从深度上看是扁平的,这不仅会给数据采集阶 段引入很多无用的数据,造成时间浪费,同时也给后期实际测试带来不稳定性。
从实现角度来看,也可分为传统与深度神经网络两大类。传统的做法利用 RGB在HSV空间纹理在活体与非活体之间的差异,结合多级的LBP特征或 SURF特征,最终送至SVM分类器做二分类。深度神经网络的做法通常是端 到端的,可直接构建网络(如基于SSD)将RGB或RGB和深度相机作为数据源 来进行训练,最终达到预测活体与非活体的分类效果。相关的研究会基于RGB 和深度相机这种双模态方式,构建多段CNN网络,在最后的多层网络再将多段的CNN网络做融合,这样的方式较直观,但也面临后期调试及定位问题困 难、网络不易收敛等问题。
基于此,本发明提出的人脸活体检测技术,仅利用幅度图及深度图数据构 建两级结构的神经网络来进行人脸活体检测,此系统具备易接受、易调试、低 复杂度、准确率可靠性高等特点。如图1所示,在一个实施例中,该人脸活体 检测方法包括以下步骤:
S100:获取第一人脸幅度图和第一人脸深度图;
S200:基于第一活体检测模型,根据所述第一人脸幅度图获取第一活体概 率;
S300:当所述第一活体概率大于第一阈值,基于第二活体检测模型,根据 所述第一人脸深度图获取第二活体概率;根据所述第二活体概率确定人脸活体 检测结果;
当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活 体。
该人脸活体检测技术,仅利用幅度图及深度图数据构建两级结构的检测模 型来进行人脸活体检测,此系统具备易接受、易调试、低复杂度、准确率可靠 性高等特点。
该两级结构的检测模型,是相互独立不受影响的,训练过程独立,有利于 加快各模型的收敛,并且也方便后期在假样本攻击出问题后的调试。比如,一 攻击假样本被误判别为真活体,那么可以很轻易排查得到是第一级或第二级模 型网络造成的问题,而后可以快速针对性对幅度图或深度图所在模型网络做训 练微调。
该两级结构的检测模型相互独立,其类型可灵活设置,比如,可将两级检 测模型采用相同的深度神经网络。比如可采用如图2所示的人脸活体检测的深 度神经网络的结构,此网络由FeatherNets改造而来,输入是8bit待检测的人 脸幅度图,采用深度学习网络,详细网络结构见图2所示。特征图经过3x3 的卷积层逐级依次下降为48x48、24x24、12x12、6x6、3x3,最后再经过2x2 卷积及softmax整形到1024维特征数据,前两个数据分别指示活体与非活体 的概率。
步骤S100中,第一人脸幅度图和第一人脸深度图可通过如下方法获取。
S110:获取第二人脸幅度图和第二人脸深度图;
S120:基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息;
S130:当所述人脸区域信息不满足预设范围,则重新获取第二人脸幅度图 和第二人脸深度图;
当所述人脸区域信息满足预设范围,根据所述人脸区域信息从所述第二人 脸幅度图提取得到第三人脸幅度图,从所述第二人脸深度图提取得到第三人脸 深度图;
S140:根据所述第三人脸幅度图获取所述第一人脸幅度图,根据所述第三 人脸深度图获取所述第一人脸深度图。
S110中,第二人脸幅度图和第二人脸深度图可以是来自单ToF相机接收 的幅度图和深度图。仅利用TOF相机的幅度图及深度图数据构建两级结构的 检测模型来进行人脸活体检测,此方法具备易接受、易调试、低复杂度、准确 率可靠性高等特点。
S120中的人脸检测器可选用Retinaface网络,检测器输入是幅度图,输出 所检测到的人脸位置bounding box((x0,y0),(x1,y1)),(x0,y0),(x1,y1)分别为 人脸区域的矩形框左上角及右下角坐标。
在获取第二人脸幅度图和第二人脸深度图后,还可经过滤波器对二者滤波 后,再将滤波后的图输入至人脸检测器。比如,采用中值滤波器进行滤波。
S130中包含有人脸尺寸判断步骤,当人脸区域信息不满足预设范围,比 如小于某一预设范围值,则丢弃该第二人脸幅度图,重新执行S110所示的获 取步骤。只有当人脸区域信息满足预设范围,比如大于或等于某一预设范围值,才执行裁剪人脸的步骤,即根据人脸区域信息(人脸位置)将第二人脸幅度图 和第二人脸深度图中的人脸区域提取出来,分别得到第三人脸幅度图和第三人 脸深度图。
S140中的根据所述第三人脸深度图获取所述第一人脸深度图的过程包括 了人脸区域深度转换的过程。定义第三人脸深度图所在区域为C,则该人脸区 域深度转换的过程如下:
S1401:计算区域C内所有点的第一平均深度值avg_1。
S1402:提取区域C内深度值在预设深度区间的所有点得到第一点集C1, 获取所述第一点集中的最小深度值min;所述预设深度区间的中间值为第一平 均深度值avg_1。
比如,第一预设深度区间可设置为(avg_1-150,arg_1+150),数值的单位 可以取毫米mm。
S1403:提取区域C内满足第一预设深度条件的所有点得到第二点集C2, 并将第二点集C2中所有点设置第一标志;所述第一预设深度条件为该点的深 度值与所述最小深度值的差值大于第一预设深度值th1。
比如,第一预设深度值th1设置为300,则第一预设深度条件为:input-300>min。input为区域C内所有点的当前深度值。那么满足input-300>min条 件的所有点记作C2,并可将C2点集所对应C的下标记作第一标志mask,此 处主要用于标记脸部边缘造成的飞点或人脸后面的背景点。数值的单位可以取 毫米mm。
S1404:将所述第二点集C2中所有点的深度值置为min,即C[mask]=min。
S1405:再次计算区域C内所有点的平均深度值,得到第二平均深度值 avg_2。
S1406:将区域C中所有满足第二预设深度条件的所有点的深度值置为 min,即C[input-argv_2>th2]=min。所述第二预设深度条件为该点的当前深度值与所述第二平均深度值avg_2的差值大于第二预设深度值th2。
S1407:此时再统计C点集的最大深度值max;根据以下公式计算获得区 域C中所有点的归一化后的深度值output,input为区域C 内所有点的当前深度值,即在经过S1401和S1406后所得到的区域C内所有 点的当前深度值。
该步骤是对区域C内的点做统一的线性变换,变换后C点集的取值范围 是[0,1],相当于一个归一化的过程。
S1408:将带有第一标志的点的深度值置为0,即C[mask]=0;得到区域 C内所有点变换后的深度值。
S1409:根据经过上述变换后得到的区域C内所有点的变换后的深度值获 得第一人脸深度图。
上述步骤S1401-S1409实现了人脸区域深度转换。深度图转换的方法,可 以有效提高数据的可用性及方法的鲁棒性。
将第一人脸幅度图输入至第一活体检测模型需要对该第一人脸幅度图做 shape变换,将第一人脸深度图输入至第二活体检测模型需要对第一人脸深度 图做shape变换。
如果输入的人脸幅度图和人脸深度图为16bit图,第一活体检测模型和第 二活体检测模型的输入须为8bit的人脸幅度图和人脸深度图,则在shape变换前还需要执行位数变换步骤。
由此,在步骤S1408后,还包括以下步骤:
根据区域C内所有点变换后的深度值经过位数变换和shape变换后得到所 述第一人脸深度图。
比如,最后将C点集变换到8bit图,公式为output8=output*255,此时 C点集的取值为[0,255]。output为区域C内所有点变换后的深度值,即步骤 S1408执行后获得的深度值。Output8为8bit图的深度值。所有点的8bit图的 深度值构成8bit深度图。上述过程为位数变换的示例。
将上述变换后得到的8bit深度图reshape到96x96x3。该过程为shape变 换的示例
同样的,S140中的根据所述第三人脸幅度图获取所述第一人脸幅度图, 还包括:将所述第三人脸幅度图经过位数变换和shape变换后得到所述第一人 脸幅度图。
比如,对16bit人脸幅度图直接做线性变换得到8bit人脸幅度图,变换公 式是out8=in16*255/1500;此处1500为幅度值的上限值,经验所得,可 灵活设置。
shape变换:示例性地,若第一活体检测模型为CNN网络,其输入尺寸 固定为96x96x3,则此处需要先对人脸图做shape变换。
如前所述,步骤S200中地第一活体检测模型示例性地可采用如图2所示 的人脸活体检测的深度神经网络的结构,此网络由FeatherNets改造而来,输 入是8bit待检测的人脸幅度图,采用深度学习网络,详细网络结构见图2所示。特征图经过3x3的卷积层逐级依次下降为48x48、24x24、12x12、6x6、3x3, 最后再经过2x2卷积及softmax整形到1024维特征数据,前两个数据分别指 示活体与非活体的概率。步骤S300中,若将第一阈值设置为50%,则当指示 活体概率的数据小于或等于50%,则可认为该样本为非活体,可结束判断,返 回检测结果;当指示活体概率的数据大于50%,则将第一人脸深度图输入至第 二活体检测模型进行判断。
第二活体检测模型可采用与第一活体检测模型相同的结构,比如同样采用 如前所述的CNN网络。只是训练阶段的所用的正负样本数据不同,此处使用 的是人脸深度图的正负样本参与训练,输出及其处理也与第一活体检测模型相 同。
在一些实施例中,步骤S300中,根据所述第二活体概率确定人脸活体检 测结果,包括:
当所述第二活体概率大于第二阈值,确定人脸活体检测结果为活体;
当所述第二活体概率小于或等于第二阈值,确定人脸活体检测结果为非活 体。
图3为所采集并经转换后的人脸幅度图样本,图4为所采集并经转换后的 人脸深度图。活体检测里常见的攻击样本有3维头模、面具、纸张、屏幕上的 2D图片或视频等。图3中的(a)为真人(活体);(b)为3维头模,为非活体; (c)为3维面具,为非活体;(d)为弯曲纸张,为非活体。图4中(a)为真人(活 体);(b)为纸张1,为非活体;(c)为纸张2,为非活体;(d)为弯曲纸张, 为非活体。
幅度图一级的网络,即第一活体检测模型,抵抗3维头模或面具、屏幕的 图片或视频效果较好;深度图一级的网络,即第二活体检测模型,则适合抵抗 纸张包括弯曲的、沿脸轮廓裁剪的、抠掉眼镜或鼻子的各式纸张,以及屏幕的 图片或视频;如此,两级网络各司其职。
图5为人脸区域深度转换效果图。在人脸区域的深度数据往往容易在面部 油光或佩戴眼镜造成的过曝区域及人脸轮廓边缘区域产生飞点,这些飞点不做 处理直接转换的话,则会引起8bit深度图细节部分丢失,甚至完全丢失,见上图5(c)是受飞点影响,若对采集的数据不做处理直接做线性变换的结果,可以 看出脸部细节丢失严重。当然飞点通常可以在邻域做梯度过滤,但这样也可能 给人脸变化较大的区域(如鼻子与脸颊连接处)带来空洞问题,导致特征丢失。上图5(a)(b)是经过本发明提及的转换处理后所得到的深度图,可以看出即便受 到边缘噪声或眼镜区域过曝的影响仍能将人脸原有的轮廓呈现出来,抵抗干扰 能力更强。
根据前述实施例所描述的人脸活体检测方法,以下将结合图6和图7举例 作进一步详细说明。
如图6所示,包括如下内容:
S600:ToF幅度图及深度图输入,数据位宽是16bit,两路输入。
S601:经滤波器滤波,此处所用的是中值滤波器。
S602:经人脸检测器输出人脸位置:此处使用的人脸检测器是常用的 Retinaface网络,检测器输入是幅度图,输出所检测到的人脸位置bounding box((x0,y0),(x1,y1)),人脸区域的矩形框左上角及右下角坐标。
S603:人脸尺寸检查,用于检查人脸尺寸是否符合规定。检查人脸区域的 尺寸是否满足预设范围,如不满足直接丢弃,满足则进行下一步。
S604:裁剪人脸,根据前面得到的bounding box,将幅度图及深度图人脸 区域提取出来,得到提取后的6bit人脸幅度。
S605:获取8bit人脸幅度图:对提取后的16bit人脸幅度图直接做线性变 换得到8bit人脸幅度图,变换公式是out8’=(in16’*255)/1500,此处1500 为幅度值的上限值,为经验值。out8’为8bit人脸幅度图的每个点的值,in16’ 为提取后的16bit人脸幅度图的每个点的值。
S606:shape变换:CNN网络输入尺寸固定为96x96x3,故此处需要先对 8bit人脸幅度图做shape变换。
S607:将shape变换后的8bit人脸幅度图输入至训练后的第一活体检测 CNN网络:此网络由FeatherNets改造而来,输入是8bit待检测的人脸幅度图, 采用深度学习网络,详细网络结构见图2所示。特征图经过3x3的卷积层逐级 依次下降为48x48、24x24、12x12、6x6、3x3,最后再经过2x2卷积及softmax 整形到1024维特征数据,前两个数据分别指示活体与非活体的概率。
S608:判断第一级活体检测是否通过。比如第一个数据的概率大于50%, 则可认为第一级活体检测通过。否则,第一级活体检测不通过,判断为非活体。 判断为非活体,则不需要做第二级活体检测步骤。
S609:第一级活体检测通过后,进入人脸区域深度变换步骤。对16bit人 脸深度图做转换,其思路就是在深度范围截断平均脸前后一定距离的数据,并 处理里面的离散点后做线性变换,流程见图7所示,步骤如下:
S6091:基于前述步骤得到的bounding box,截取16bit深度的人脸区域, 此区域记作C’;该步骤与步骤S604重复,对深度图的裁剪可以在此处执行, 也可以在S604中执行,可灵活设置。
S6092:计算区域C’内所有点的平均深度值,得到avg_1’;
S6093:提取区域C’内深度值在区间(avg_1’-150,arg_1’+150)之间的所 有点C1’,并计算C1’点集的最小深度值min’;150的单位可取毫米mm。
S6094:区域C’内每个点的当前深度值为input’(下同),那么满足input’ -300>min’条件的所有点记作C2’,并将C2’点集所对应C’的下标记作mask’, 此处主要用于标记脸部边缘造成的飞点或人脸后面的背景点;300的单位可取 毫米mm。
S6095:将区域C’里被标记过mask’的点深度值全置为min’,即C’[mask’] =min’;
S6096:再次计算区域C’内所有点的平均深度值,得到avg_2’;
S6097:此时将区域C’点集内,满足条件input’-argv_2’>120的所有点 深度值全置为min’,即C’[input’-argv_2’>120]=min’,此时再统计C’点集的最大深度值max’;
S6098:对区域C’内的点做统一的线性变换,称C’变换后每个点的深度值 为output’,式子为output’=(input’-min’)/(max’-min’),即变换后C’点集的 取值范围是[0,1],相当于一个归一化的过程。
S6099:变换后的点集C’内被标记的mask’点全置为0,即C’[mask’]=0;
S60910:最后将C’点集变换到8bit图,公式为output8’=output16’*255, 此时C’点集的取值为[0,255]。
深度图转换的新方法,可以比较有效提高数据的可用性及系统的鲁棒性。
S610:深度图转换完成后,进行shape变换:类似的,将经过深度转换后 得到的8bit深度图reshape到96x96x3。
S611:将shape变换后得到的8bit深度图输入至经过训练后的第二活体检 测CNN网络:此网络输入是8bit待检测的人脸深度图,同样地可以采用与第 一级CNN网络相同的结构,只是训练阶段的所用的正负样本数据不同,此处 使用的是人脸深度图的正负样本参与训练,输出及其处理也与第一活体检测 CNN网络相同。
S613:判断第二级活体检测是否通过。比如第一个数据的概率大于50%, 则可认为第二级活体检测通过,判断为活体。否则,第一级活体检测不通过, 判断为非活体。至此,活体判断过程结束。
该基于单TOF相机的人脸活体检测方法,仅利用TOF相机的幅度图及深 度图数据构建两级相同结构的深度神经网络来进行人脸活体检测,此系统具备 易接受、易调试、低复杂度、准确率可靠性高等特点。此外,所涉及到的深度 图转换的新方法,可以比较有效提高数据的可用性及系统的鲁棒性。
该示例中,首先利用检测器网络提取到人脸位置,然后相当于级联方式, 利用两个结构相同的深度神经网络来对人脸的ToF幅度图及深度图做特征提 取,最终结合两级网络的结果来对活体做判断。两级结构相同的网络相互独立 不影响,训练过程独立,有利于加快网络的收敛,并且也方便后期在假样本攻 击出问题后的调试,如某一攻击假样本被误判别为真活体,那么可以很轻易排 查得到是第一级或第二级网络造成的问题,而后可以快速针对性对幅度图或深 度图所在网络做训练微调。活体检测里常见的攻击样本有3维头模、面具、纸 张、屏幕上的2D图片或视频等。
幅度图一级网络对抵抗3维头模或面具、屏幕的图片或视频效果较好;深 度图一级的网络则适合抵抗纸张包括弯曲的、沿脸轮廓裁剪的、抠掉眼镜或鼻 子的各式纸张,以及屏幕的图片或视频。
表1为给出了活体检测测试结果汇总表,示出了人脸活体检测方法实施例 的测试结果。
表2为人脸活体检测方法实施例所采用的测试素材的说明。
表1
表2
本发明还提供了一种人脸活体检测装置,如图8所示,该人脸活体检测装 置800包括:
获取模块810,用于获取第一人脸幅度图和第一人脸深度图;
第一活体检测模型820,用于根据所述第一人脸幅度图获取第一活体概 率;
第二活体检测模型830,用于当所述第一活体概率大于第一阈值时,根据 所述第一人脸深度图获取第二活体概率;
识别模块840,用于确定人脸活体检测结果:当述第一活体概率小于或等 于第一阈值,确定人脸活体检测结果为非活体;当所述第一活体概率大于第一 阈值,根据所述第二活体概率确定人脸活体检测结果。
在一些实施例中,所述获取模块810还包括人脸检测器,所述获取模块 810还用于:
获取第二人脸幅度图和第二人脸深度图;
基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息;
当所述人脸区域信息不满足预设范围,则重新获取第二人脸幅度图和第二 人脸深度图;
当所述人脸区域信息满足预设范围,根据所述人脸区域信息从所述第二人 脸幅度图提取得到第三人脸幅度图,从所述第二人脸深度图提取得到第三人脸 深度图;
根据所述第三人脸幅度图获取所述第一人脸幅度图,根据所述第三人脸深 度图获取所述第一人脸深度图。
在一些实施例中,所述获取模块810从ToF相机接收第二人脸幅度图和第 二人脸深度图。
在一些实施例中,所述获取模块810还包括滤波器,所述获取模块810 还用于:将经过滤波器滤波的第二人脸幅度图输入至所述人脸检测器,所述人 脸检测器输出人脸区域信息,所述人脸区域信息包括人脸区域的矩形框的左上 角及右下角坐标。
在一些实施例中,所述获取模块还包括人脸区域深度转换模块,所述人脸 区域深度转换模块用于:
计算第三人脸深度图的区域C内所有点的第一平均深度值avg_1;
提取区域C内深度值在预设深度区间的所有点得到第一点集C1,获取所 述第一点集中的最小深度值min;所述预设深度区间的中间值为第一平均深度 值avg_1;
提取区域C内满足第一预设深度条件的所有点得到第二点集C2,并将第 二点集C2中所有点设置第一标志;所述第一预设深度条件为该点的深度值与 所述最小深度值的差值大于第一预设深度值;
将所述第二点集C2中所有点的深度值置为min;
计算区域C内所有点的第二平均深度值得到avg_2;
将区域C中所有满足第二预设深度条件的所有点的深度值置为min;所述 第二预设深度条件为该点的深度值与所述第二平均深度值avg_2的差值大于 第二预设深度值;
获得区域C内的最大深度值max;根据以下公式计算获得区域C中所有 点的归一化后的深度值output,input为区域C内所有点的 当前深度值;
将带有第一标志的点的深度值置为0,得到区域C内所有点变换后的深度 值。
在一些实施例中,所述获取模块还用于:
将所述第三人脸幅度图经过位数变换和shape变换后得到所述第一人脸幅 度图;
根据区域C内所有点变换后的深度值经过位数变换和shape变换后得到所 述第一人脸深度图。
在一些实施例中,所述识别模块还用于:
当所述第二活体概率大于第二阈值,确定人脸活体检测结果为活体;
当所述第二活体概率小于或等于第二阈值,确定人脸活体检测结果为非活 体。
本实施例的人脸活体检测装置能够实现上述人脸活体检测方法实施例的 各个步骤,并能实现相同或相似的技术效果,此处不再赘述。
本发明实施例还提供一种电子设备。请参见图9,电子设备可以包括收发 机、处理器901、存储器902及存储在存储器902上并可在处理器901上运行 的程序9021。程序3021被处理器901执行时可实现图1、图6对应的方法实施例中的任意步骤及达到相同的有益效果,此处不再赘述。
本领域普通技术人员可以理解实现上述实施例方法的全部或者部分步骤 是可以通过程序指令相关的硬件来完成,所述的程序可以存储于一可读取介质 中。
本发明实施例还提供一种可读存储介质,所述可读存储介质上存储有计算 机程序,所述计算机程序被处理器执行时可实现上述图1、图6对应的方法实 施例中的任意步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
所述的存储介质,如只读存储器(Read-Only Memory,ROM)、随机存 取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
以上所述是本发明实施例的优选实施方式,应当指出,对于本技术领域的 普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进 和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种人脸活体检测方法,其特征在于,包括以下步骤:
获取第一人脸幅度图和第一人脸深度图;
基于第一活体检测模型,根据所述第一人脸幅度图获取第一活体概率;
当所述第一活体概率大于第一阈值,基于第二活体检测模型,根据所述第一人脸深度图获取第二活体概率;根据所述第二活体概率确定人脸活体检测结果;
当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活体;
获取第二人脸幅度图和第二人脸深度图;
基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息;
当所述人脸区域信息不满足预设范围,则重新获取第二人脸幅度图和第二人脸深度图;
当所述人脸区域信息满足预设范围,根据所述人脸区域信息从所述第二人脸幅度图提取得到第三人脸幅度图,从所述第二人脸深度图提取得到第三人脸深度图;
根据所述第三人脸幅度图获取所述第一人脸幅度图,根据所述第三人脸深度图获取所述第一人脸深度图;
所述第三人脸深度图所在区域为C;所述根据所述第三人脸深度图获取所述第一人脸深度图,包括:
计算区域C内所有点的第一平均深度值avg_1;
提取区域C内深度值在预设深度区间的所有点得到第一点集C1,获取所述第一点集中的最小深度值min;所述预设深度区间的中间值为第一平均深度值avg_1;
提取区域C内满足第一预设深度条件的所有点得到第二点集C2,并将第二点集C2中所有点设置第一标志;所述第一预设深度条件为该点的深度值与所述最小深度值的差值大于第一预设深度值;
将所述第二点集C2中所有点的深度值置为min;
计算区域C内所有点的第二平均深度值得到avg_2;
将区域C中所有满足第二预设深度条件的所有点的深度值置为min;所述第二预设深度条件为该点的深度值与所述第二平均深度值avg_2的差值大于第二预设深度值;
获得区域C内的最大深度值max;根据以下公式计算获得区域C中所有点的归一化后的深度值output,input为区域C内所有点的当前深度值;
将带有第一标志的点的深度值置为0,得到区域C内所有点变换后的深度值;
根据区域C内所有点变换后的深度值获得第一人脸深度图。
2.根据权利要求1所述的方法,其特征在于,所述获取第二人脸幅度图和第二人脸深度图,具体为:
从ToF相机接收第二人脸幅度图和第二人脸深度图。
3.根据权利要求1所述的方法,其特征在于,所述基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息,包括:
将经过中值滤波器滤波的第二人脸幅度图输入至所述人脸检测器,所述人脸检测器输出人脸区域信息,所述人脸区域信息包括人脸区域的矩形框的左上角及右下角坐标。
4.根据权利要求1所述的方法,其特征在于,
所述根据所述第三人脸幅度图获取所述第一人脸幅度图,包括:将所述第三人脸幅度图经过位数变换和shape变换后得到所述第一人脸幅度图;
所述根据区域C内所有点变换后的深度值获得第一人脸深度图,包括:根据区域C内所有点变换后的深度值经过位数变换和shape变换后得到所述第一人脸深度图。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述根据所述第二活体概率确定人脸活体检测结果,包括:
当所述第二活体概率大于第二阈值,确定人脸活体检测结果为活体;
当所述第二活体概率小于或等于第二阈值,确定人脸活体检测结果为非活体。
6.一种人脸活体装置,其特征在于,包括:
获取模块,用于获取第一人脸幅度图和第一人脸深度图;
第一活体检测模型,用于根据所述第一人脸幅度图获取第一活体概率;
第二活体检测模型,用于当所述第一活体概率大于第一阈值时,根据所述第一人脸深度图获取第二活体概率;
识别模块,用于确定人脸活体检测结果:当述第一活体概率小于或等于第一阈值,确定人脸活体检测结果为非活体;当所述第一活体概率大于第一阈值,根据所述第二活体概率确定人脸活体检测结果;
所述人脸活体装置还用于:获取第二人脸幅度图和第二人脸深度图;
基于人脸检测器,根据所述第二人脸幅度图获取人脸区域信息;
当所述人脸区域信息不满足预设范围,则重新获取第二人脸幅度图和第二人脸深度图;
当所述人脸区域信息满足预设范围,根据所述人脸区域信息从所述第二人脸幅度图提取得到第三人脸幅度图,从所述第二人脸深度图提取得到第三人脸深度图;
根据所述第三人脸幅度图获取所述第一人脸幅度图,根据所述第三人脸深度图获取所述第一人脸深度图;
所述第三人脸深度图所在区域为C;所述根据所述第三人脸深度图获取所述第一人脸深度图,包括:
计算区域C内所有点的第一平均深度值avg_1;
提取区域C内深度值在预设深度区间的所有点得到第一点集C1,获取所述第一点集中的最小深度值min;所述预设深度区间的中间值为第一平均深度值avg_1;
提取区域C内满足第一预设深度条件的所有点得到第二点集C2,并将第二点集C2中所有点设置第一标志;所述第一预设深度条件为该点的深度值与所述最小深度值的差值大于第一预设深度值;
将所述第二点集C2中所有点的深度值置为min;
计算区域C内所有点的第二平均深度值得到avg_2;
将区域C中所有满足第二预设深度条件的所有点的深度值置为min;所述第二预设深度条件为该点的深度值与所述第二平均深度值avg_2的差值大于第二预设深度值;
获得区域C内的最大深度值max;根据以下公式计算获得区域C中所有点的归一化后的深度值output,input为区域C内所有点的当前深度值;
将带有第一标志的点的深度值置为0,得到区域C内所有点变换后的深度值;
根据区域C内所有点变换后的深度值获得第一人脸深度图。
7.一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的程序;其特征在于,所述处理器,用于读取存储器中的程序实现如权利要求1至5中任一项所述的人脸活体检测方法中的步骤。
8.一种可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任一项所述的人脸活体检测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093640.8A CN113780222B (zh) | 2021-09-17 | 2021-09-17 | 一种人脸活体检测方法、装置、电子设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111093640.8A CN113780222B (zh) | 2021-09-17 | 2021-09-17 | 一种人脸活体检测方法、装置、电子设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780222A CN113780222A (zh) | 2021-12-10 |
CN113780222B true CN113780222B (zh) | 2024-02-27 |
Family
ID=78851871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111093640.8A Active CN113780222B (zh) | 2021-09-17 | 2021-09-17 | 一种人脸活体检测方法、装置、电子设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780222B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082994A (zh) * | 2022-06-27 | 2022-09-20 | 平安银行股份有限公司 | 人脸活体检测方法、活体检测网络模型的训练方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598878A (zh) * | 2015-01-07 | 2015-05-06 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN108399401A (zh) * | 2018-03-27 | 2018-08-14 | 百度在线网络技术(北京)有限公司 | 用于检测人脸图像的方法和装置 |
CN108549886A (zh) * | 2018-06-29 | 2018-09-18 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN109948467A (zh) * | 2019-02-28 | 2019-06-28 | 中国科学院深圳先进技术研究院 | 人脸识别的方法、装置、计算机设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
WO2020088588A1 (zh) * | 2018-11-01 | 2020-05-07 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
CN111680574A (zh) * | 2020-05-18 | 2020-09-18 | 北京的卢深视科技有限公司 | 一种人脸检测方法、装置、电子设备和存储介质 |
-
2021
- 2021-09-17 CN CN202111093640.8A patent/CN113780222B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598878A (zh) * | 2015-01-07 | 2015-05-06 | 深圳市唯特视科技有限公司 | 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法 |
CN108399401A (zh) * | 2018-03-27 | 2018-08-14 | 百度在线网络技术(北京)有限公司 | 用于检测人脸图像的方法和装置 |
CN108549886A (zh) * | 2018-06-29 | 2018-09-18 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN109034102A (zh) * | 2018-08-14 | 2018-12-18 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、装置、设备及存储介质 |
WO2020088588A1 (zh) * | 2018-11-01 | 2020-05-07 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
CN109948467A (zh) * | 2019-02-28 | 2019-06-28 | 中国科学院深圳先进技术研究院 | 人脸识别的方法、装置、计算机设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
CN111680574A (zh) * | 2020-05-18 | 2020-09-18 | 北京的卢深视科技有限公司 | 一种人脸检测方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113780222A (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7458328B2 (ja) | マルチ分解能登録を介したマルチサンプル全体スライド画像処理 | |
CN111488756B (zh) | 基于面部识别的活体检测的方法、电子设备和存储介质 | |
CN110889312B (zh) | 活体检测方法和装置、电子设备、计算机可读存储介质 | |
US7715596B2 (en) | Method for controlling photographs of people | |
CN110298297B (zh) | 火焰识别方法和装置 | |
CN109948566B (zh) | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 | |
CN107798279B (zh) | 一种人脸活体检测方法及装置 | |
CN111368601B (zh) | 活体检测方法和装置、电子设备和计算机可读存储介质 | |
CN103034838A (zh) | 一种基于图像特征的特种车辆仪表类型识别与标定方法 | |
WO2019204577A1 (en) | System and method for multimedia analytic processing and display | |
CN112215043A (zh) | 一种人脸活体检测方法 | |
Hebbale et al. | Real time COVID-19 facemask detection using deep learning | |
CN110059607B (zh) | 活体多重检测方法、装置、计算机设备及存储介质 | |
Sakthimohan et al. | Detection and Recognition of Face Using Deep Learning | |
CN113780222B (zh) | 一种人脸活体检测方法、装置、电子设备和可读存储介质 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
Hannan et al. | Analysis of detection and recognition of Human Face using Support Vector Machine | |
CN113436735A (zh) | 基于人脸结构度量的体重指数预测方法、设备和存储介质 | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
CN113610071B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN113901423B (zh) | 一种基于人脸识别的智能安防设备控制方法和系统 | |
JP2006018706A (ja) | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム | |
Cheng et al. | [Retracted] DTFA‐Net: Dynamic and Texture Features Fusion Attention Network for Face Antispoofing | |
CN114202731A (zh) | 一种多状态旋钮开关识别方法 | |
JPH11283036A (ja) | 対象物検出装置及び対象物検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |