CN110765923A - 一种人脸活体检测方法、装置、设备及存储介质 - Google Patents
一种人脸活体检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110765923A CN110765923A CN201910996055.5A CN201910996055A CN110765923A CN 110765923 A CN110765923 A CN 110765923A CN 201910996055 A CN201910996055 A CN 201910996055A CN 110765923 A CN110765923 A CN 110765923A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- living body
- target detection
- difference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 303
- 238000005286 illumination Methods 0.000 claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 65
- 238000002310 reflectometry Methods 0.000 claims abstract description 54
- 239000013598 vector Substances 0.000 claims abstract description 54
- 238000001727 in vivo Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 129
- 238000003062 neural network model Methods 0.000 claims description 84
- 239000000463 material Substances 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 40
- 238000011176 pooling Methods 0.000 claims description 38
- 238000010586 diagram Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 16
- 210000000056 organ Anatomy 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 abstract description 6
- 230000003993 interaction Effects 0.000 abstract description 3
- 230000007123 defense Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 14
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000741 silica gel Substances 0.000 description 1
- 229910002027 silica gel Inorganic materials 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Accounting & Taxation (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请提供了一种人脸活体检测方法,包括:获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像,根据所述第一人脸图像和所述第二人脸图像确定差值图像,从所述差值图像中提取特征图,从所述特征图中解耦出目标检测对象对应的物体反射率和物体法向量,然后根据物体反射率和物体法向量确定目标检测对象是否为活体。该方法通过对面部纹理和深度信息解耦合,通过解耦后的信息进行活体检测,增加了对3D攻击的防御能力,可以有效防御平面攻击和3D攻击,而且该方法无需任何形式的用户交互,操作方便,且适于主流的电子设备,成本较低,易于推广。本申请还公开了对应的装置、设备及介质。
Description
技术领域
本申请涉及身份认证技术领域,尤其涉及一种人脸活体检测方法、装置、设备及存储介质。
背景技术
人脸活体检测是人脸识别流程中的一个关键步骤,它直接关系到用户身份验证的安全问题。随着人脸活体检测技术的不断发展、落地应用,越来越多的人脸活体攻击也不断涌现,仅仅做到防御平面类型的攻击(屏幕、纸片攻击等)已无法满足人脸活体检测高安全性的诉求。
然而,目前业内常用的人脸活体检测技术是基于用户面部深度信息的活体检测算法,该算法通过估计输入图片的深度图像来判断当前的用户是真人还是一些纸片、照片、证件等平面翻拍的攻击。该算法的一大缺陷在于它在理论上就已被证明无法抵御3D攻击(真人戴面具、3D模型等),这对于目前支付,门禁等应用场景的高安全性要求而言往往是难以接受的。
基于此,如何提供一种人脸活体检测技术,以能够做到防御平面类型的攻击和3D攻击是身份认证领域急需解决的一大难题。
发明内容
本申请实施例提供了一种人脸活体检测方法,其基于反光原理从不同光照条件下的人脸图像中解耦出纹理信息和深度信息,用于人脸活体检测,如此可以有效防御3D攻击和平面类型的攻击。本申请实施例还提供了一种人脸活体检测装置、设备、计算机可读存储介质以及计算机程序产品。
本申请第一方面提供了一种人脸活体检测方法,所述方法包括:
获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
根据所述第一人脸图像和所述第二人脸图像确定差值图像;
从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
本申请第二方面提供了一种人脸活体检测模型训练方法,所述方法包括:
获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
本申请第三方面提供一种人脸活体检测装置,所述装置包括:
人脸图像获取模块,用于获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
差值图像确定模块,用于根据所述第一人脸图像和所述第二人脸图像确定差值图像;
特征提取模块,用于从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
活体检测模块,用于根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
本申请第四方面提供一种人脸活体检测模型训练装置,所述装置包括:
样本集获取模块,用于获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
训练模块,用于根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
裁剪模块,用于对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
本申请第五方面提供一种人脸活体检测设备,所述设备包括:
处理器以及存储器;其中,
所述存储器用于存储计算机程序;
所述处理器用于根据所述计算机程序执行如上述第一方面所述的人脸活体检测方法或第二方面所述的人脸活体检测模型训练方法的步骤。
本申请第六方面提供一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行上述第一方面所述的人脸活体检测方法。
本申请第七方面提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行上述第一方面所述的人脸活体检测方法或第二方面所述的人脸活体检测模型训练方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
在进行人脸活体检测时,先获取目标检测对象在不同光照条件下的人脸图像,然后从上述不同光照条件下的人脸图像所形成的差值图像中提取特征图,从特征图中解耦出表征纹理信息的物体反射率和表征深度信息的物体法向量,基于两种独立维度的信息进行人脸活体检测如此能够提高检测准确度,将这种检测手段应用于具体人脸活体检测业务场景下就能够更加准确地识别检测对象是真人还是属于平面类型攻击或3D攻击。与已有检测相比,该方法综合纹理信息和深度信息确定目标检测对象是否为活体,具有较好的鲁棒性,而且该方法利用不同光照条件下投射到用户面部的光线反射形成的图像进行人脸活体检测,基于主流终端设备自身硬件即可实现,无需额外的硬件开销,也无需用户完成额外的指定动作,提高了检测效率和用户体验。并且,不同光照条件下颜色和强度的打光序列可以被视作一种主动编码,攻击者在编码方式未知的情况下就无法针对性地提供相应光线下的输入,进一步降低了被攻击的可能性,提高了检测可靠性。
附图说明
图1为本申请实施例中人脸活体检测方法的系统架构图;
图2为本申请实施例中人脸活体检测方法的流程图;
图3为本申请实施例中不同光照条件下形成人脸图像的示意图;
图4为本申请实施例中人脸中心区域图像示意图;
图5为本申请实施例中人脸活体检测模型的结构示意图;
图6为本申请实施例中人脸活体检测模型训练方法的流程图;
图7为本申请实施例中第一神经网络模型的结构示意图;
图8为本申请实施例中人脸活体检测方法的应用场景示意图;
图9为本申请实施例中人脸活体检测装置的一个结构图;
图10为本申请实施例中人脸活体检测模型训练装置的一个结构示意图;
图11为本申请实施例中服务器的一个结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉(Computer Vision,CV)技术是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。本申请主要是利用计算机视觉技术中的图像识别技术进行人脸识别,具体用于识别人脸是真人还是攻击类型。
针对已有的人脸活体检测技术中无法同时防御平面类型攻击和3D攻击的问题,本申请基于反光原理提供了一种人脸活体检测方法,具体地,不同光照条件下投射到用户脸部的光线经反射形成不同人脸图像,从不同人脸图像形成的差值图像中提取特征图,从特征图中解耦出纹理信息和深度信息,将其用于人脸活体检测,能够有效识别平面类型攻击和3D攻击,提高人脸活体检测的准确度和安全性。
可以理解,本申请提供的人脸活体检测方法可以应用于任意具有图像处理能力的处理设备,该处理设备可以是包括中央处理器(Central Processing Unit,CPU)和/或图形处理器(Graphics Processing Unit,GPU)的终端或者服务器。其中,终端具体可以是门禁系统、支付系统或者台式计算机等固定式终端设备,也可以是笔记本电脑、平板电脑或者智能手机等便携式终端设备,或者是增强现实(Augmented Reality,AR)终端设备以及虚拟现实(Virtual Reality,VR)终端设备等等。服务器具体可以是提供人脸活体检测服务的计算设备,其可以是独立服务器,也可以是多个服务器形成的计算集群。为了便于理解,后文主要以处理设备为服务器进行示例性说明。
在实际应用时,上述人脸活体检测方法能够以计算机程序的形式存储于处理设备中,处理设备通过运行计算机程序实现本申请的人脸活体检测方法。其中,计算机程序可以是独立的,也可以是集成于其他计算机程序之上的功能模块、插件或者小程序等等,本实施例对此不作限定。
可以理解,本申请提供的人脸活体检测方法包括但不限于应用于如图1所示的应用环境中。
如图1所示,终端101部署有人脸活体检测系统,通过该人脸活体检测系统可以采集目标检测对象在不同光照条件下的人脸图像,具体可以是目标检测对象在第一光照条件下的第一人脸图像和目标检测对象在第二光照条件下的第二人脸图像,服务器102从终端101获取该第一人脸图像和第二人脸图像,并以此确定差值图像,然后从差值图像中提取特征图,从特征图中解耦出目标检测对象对应的物体反射率和物体法向量,并根据物体反射率和物体法向量确定目标检测对象是否为活体,服务器102还可以将人脸活体检测结果返回终端101以便对用户进行提示。
为了使得本申请的技术方案更加清楚、易于理解,接下来将从服务器的角度对本申请实施例提供的人脸活体检测方法的各个步骤进行详细说明。
参见图2所示的人脸活体检测方法的流程图,该方法包括:
S201:获取目标检测对象在第一光照条件下的第一人脸图像和目标检测对象在第二光照条件下的第二人脸图像。
在门禁系统、支付应用、社交应用等诸多场景中,常常需要对用户身份进行验证,为此,服务器可以基于人脸图像对用户身份进行验证。考虑到不法分子可能通过抠洞纸片、抠洞面具、硅胶面具、3D人头模型等方式模拟真人进行攻击,服务器可以基于反射原理获取不同光照条件下的人脸图像进行人脸活体检测,以抵御平面类型攻击或3D攻击。
其中,反射原理是指根据Lambert光照模型,对于一些立体结构较为复杂且表面纹理细小的表面,当光照条件发生改变时,得到的漫反射光也会发生很大变化,如此反射光形成的图像也会存在较大差异。基于此,在不同光照条件下,拍摄同一人脸可以得到不同的人脸图像。
其中,光照条件具体是指光线照射情况,可以包括光源颜色、光照强度和光照角度等光照参数中的至少一种。作为一个示例,不同光照条件可以是不同颜色光源,参见图3,红光、绿光、蓝光分别照射到人脸可以形成不同的人脸图像,该人脸图像构成反光成像图片序列。需要说明,不同光照条件也可以是有光照和无光照两种条件。
在实际应用时,终端可以采集目标检测对象在第一光照条件下的第一人脸图像和第二光照条件下的第二人脸图像,服务器可以从终端获取上述第一人脸图像和第二人脸图像用于人脸活体检测。
需要说明的是,上述第一光照条件和第二光照条件可以是天然形成的,也可以是人工创造的,例如,用户可以人为调整显示屏或者摄像头附件上增加的发光二极管等发光元件显示的颜色、亮度或者倾斜角度中的至少一种,从而调整光源颜色、光照强度和/或光照角度,形成第一光照条件和第二光照条件。
具体地,当用户触发活体检测操作时,服务器可以响应于活体检测请求,生成光照指令,该光照指令具体可以包括第一光照条件对应的第一光照参数和第二光照条件对应的第二光照参数,接着,服务器可以基于光照指令,控制发光元件发射光线,并采集目标检测对象面部反射光线依次形成第一人脸图像和第二人脸图像。
在一些可能的实现方式中,服务器可以响应于活体检测请求,随机选择两种不同颜色标识,生成携带有所述两种不同颜色标识的光照指令,如此,可以控制发光元件按照上述携带不同颜色标识的光照指令发射不同颜色光线,从而形成不同光照条件。
当然,上述过程也可以通过终端独立实现。例如,用户通过终端触发活体检测操作时,终端响应于活体检测请求生成光照指令,然后按照光照指令发射光线,形成对应的光照条件。当然,服务器或终端在生成光照指令时,也可以是随机选择两种不同光照强度,或者随机选择两种不同光照角度,或者是随机选择不同光源颜色、光照强度和/或光照角度的组合,生成携带不同光照强度的光照指令,或者携带不同光照角度的光照指令,或者携带其他不同光照参数组合的光照指令。如此可以增加编码的信息熵,进一步提高该人脸检测方法的安全性。
在采集面部反射光线形成人脸图像时,若人脸区域在取景框内,则可以直接采集面板反射光线形成上述第一人脸图像和第二人脸图像,当人脸与采集设备存在角度差,导致人脸区域不在取景框或者部分不在取景框时,为了提高检测准确度,还可以响应于活体检测请求,确定人脸相对图像采集区域的角度,然后根据所述光照指令和所述角度控制发光元件基于第一光照参数以及第二光照参数依次发射所述角度的光线,如此可以采集到面板反射光线形成第一人脸图像和第二人脸图像。
S202:根据第一人脸图像和第二人脸图像确定差值图像。
在具体实现时,服务器可以针对第一人脸图像和第二人脸图像整体进行图像处理得到差值图像。具体地,服务器可以分别获取第一人脸图像和第二人脸图像的像素序列,然后根据上述像素序列按照对应通道进行作差运算,得到差值像素序列,基于该差值像素序列可以得到差值图像。
考虑到人脸中心区域对于人脸检测影响较大,服务器也可以仅针对人脸中心区域确定差值图像。具体地,服务器可以裁剪第一人脸图像的人脸中心区域得到第一人脸中心区域图像,裁剪第二人脸图像的人脸中心区域得到第二人脸中心区域图像,然后对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像,如此可以使得后续预测时重点关注人脸中心区域的深度与纹理信息,提高预测精度。
在裁剪人脸中心区域时,服务器可以通过人脸识别模型先识别出人脸区域然后对人脸区域进行裁剪。参见图4,服务器在获取反光形成的人脸图像后,基于人脸识别结果进行数据预处理,裁剪出人脸中心区域图像,图4中a)区域代表一帧完整的成像图片,b)区域为高精度的人脸识别模型的检测结果,c)区域则在b)区域的基础上向内部各缩进N个像素点,按照c)区域裁剪所得图像即为人脸中心区域图像。其中,N可以根据实际需要而设置,例如可以设置为15。当以人脸中心区域图像形成的差值图像作为人脸活体检测模型的输入进行训练和测试时,能够使得人脸活体检测模型更加关注人脸中心区域的深度和纹理信息,如此可以提高人脸活体检测模型的准确度。
考虑到人脸局部区域如眼睛、鼻子、嘴巴等五官也能够实现人脸检测,服务器也可以针对人脸局部器官区域确定差值图像。具体地,服务器可以裁剪第一人脸图像的人脸局部器官区域得到第一人脸局部区域图像,裁剪第二人脸图像的人脸局部器官区域得到第二人脸局部区域图像,然后对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像,如此使得后续预测仅关注最有价值的局部区域,既能保证预测精度又能提高预测效率。
考虑到鼻子区域立体感最强,其对应的差值图像的信息量最大,服务器可以从所述第一人脸图像和所述第二人脸图像中分别裁剪鼻子区域得到对应的第一人脸局部区域图像和第二人脸局部区域图像,并以此确定差值图像,将该差值图像用于人脸活体检测,提高检测准确度。
在一些可能的实现方式中,服务器可以从全局和局部两个维度确定差值图像,具体地,从所述第一人脸图像和所述第二人脸图像中分别裁剪人脸中心区域得到对应的第一人脸中心区域图像和第二人脸中心区域图像,从所述第一人脸图像和所述第二人脸图像中分别裁剪人脸局部器官区域得到对应的第一人脸局部区域图像和第二人脸局部区域图像,然后对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像,作为第一差值图像,对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像,作为第二差值图像。基于上述两个维度的差值图像进行双重检测,可以进一步提高检测结果可靠性。
S203:从差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量,根据所述目标检测对象对应的物体反射率和物体法向量确定所述目标检测对象是否为活体。
基于Lambert光照模型可知,同一物体在不同打光条件下的两张成像的差值包含了物体反射率和物体法向量这两大信息,其中,不同材质(或者是不同纹理)的物体对应的反射率是不同的,不同位置对应的法向量指向是不同的,因此,物体反射率可以表征物体纹理信息,而物体法向量可以表征物体深度信息。也即,基于不同光照条件下的人脸图像形成的差值图像包含人脸纹理信息和深度信息,服务器可以从上述差值图像中提取特征图,然后从特征图解耦出表征纹理信息的物体反射率和表征深度信息物体法向量,将其用于活体检测,可以避免纹理信息和深度信息杂糅影响人脸活体检测精度。
其中,从差值图像中提取特征图,从特征图中解耦出目标检测对象对应的物体反射率和物体法向量可以通过预训练的人脸活体检测模型实现,根据目标检测对象对应的物体反射率和物体法向量确定目标检测对象是否为活体也可以通过上述人脸活体检测模型实现。
可以理解,上述人脸活体检测模型以目标检测对象的差值图像为输入,以对目标检测对象是否为活体的的预测结果为输出。人脸活体检测模型中可以包括卷积层、全局池化层和全连接分类层。在具体实现时,服务器可以将差值图像输入预训练的人脸活体检测模型,通过该人脸活体检测模型中的卷积层提取图像特征得到特征图,并从特征图中解耦出目标检测对象对应的物体反射率和目标检测对象对应的物体法向量,接着,通过人脸活体检测模型中的全局池化层和全连接分类层,根据所述目标检测对象对应的物体反射率和所述物体法向量确定所述目标检测对象是否为活体。
人脸活体检测模型可以通过神经网络训练得到,在一个示例中,神经网络包括卷积层、全局池化层和全连接分类层,将训练数据中的样本差值图像输入人脸活体检测模型,人脸活体检测模型可以通过卷积层解耦出纹理信息和深度信息,通过全局池化层和全连接分类层基于所述纹理信息和所述深度信息确定所述样本差值图像对应的人脸活体检测分数,基于该人脸活体检测分数确定预测结果,基于预测结果和样本数据中样本差值图像对应的标注标签进行参数更新,当更新后的模型满足训练结束条件时,则停止训练,并将满足条件的模型用于人脸活体检测。其中,训练过程在下文进行详细说明。
为了便于理解,本申请还结合人脸活体检测模型结构对目标检测对象进行人脸活体检测的具体实现方式进行说明。参见图5,通过用户端显示屏向面部发射不同颜色光线,光线反射形成第一人脸图像(即A图)和第二人脸图像(即B图),将A图和B图进行差值处理得到差值图像,将差值图像输入至人脸活体检测模型,该人脸活体检测模型包括输入层、深度卷积层、全局池化层和全连接分类层,差值图像输入模型后通过深度卷积层进行特征提取可以得到特征图,然后通过全局池化可以得到512维特征,接着通过全连接分类层利用softmax函数进行分类可以得到人脸活体检测分数,若该分数高于预设判定阈值t,则人脸活体检测模型将输入判断为真人,也即目标检测对象是活体,否则将输入判断为攻击,也即目标检测对象不是活体,而是通过照片或者3D模型等手段伪造的。
在上述示例中,服务器在获得人脸活体检测分数后,还可以进一步对其进行归一化,然后将归一化后的人脸活体检测分数与对应的阈值进行比较,从而实现人脸活体检测。
需要说明的是,预设判定阈值可以根据实际需要而设置。服务器通过调整预设判定阈值,可以使得真人通过率与攻击拒绝率都维持在一个较高的水平上。
在一些可能的实现方式中,人脸活体检测模型还可以包括深度图回归和材质图回归两个分支,如此,在确定目标检测对象为攻击时,服务器还可以基于深度图回归结果和材质图回归结果确定攻击类型。
考虑到有些应用场景对于活体检测安全性能有更高需求,服务器还可以通过获取的第一人脸图像和第二人脸图像推测出原始光照条件,若推测得到的原始光照条件与后台下发的打光序列编码不匹配,则可以认为前端设备端口已被其他技术挟持,此段时间内的输入均被认为是攻击。
由上可知,本申请实施例提供了一种人脸活体检测方法,基于带有深度信息和纹理信息作为监督信息的样本数据,预先训练一个人脸活体检测模型,该人脸活体检测模型能够解耦出深度信息和纹理信息,进而基于深度信息和纹理信息实现人脸活体检测,就能够准确识别2D和3D攻击。在安全性能上,通过反光原理建模,从不同光照条件下的反光成像图片中解耦出深度和材质信息,相比于单一利用深度信息的活体检测方法更加鲁棒,并且该方法可以大幅降低3D攻击的误通过率,而不影响对于其他攻击类型的识别。在用户体验上,该方法无需任何形式的用户交互,只需短暂保持姿态,便可完成刷脸验证。在平台和机型普适性上,该方法无需定制硬件,支持目前市场上主流移动设备的使用,易于推广。
可以理解,本申请提供的人脸活体检测方法是通过人脸活体检测模型实现的。为了便于理解本申请的技术方案,下面结合具体实施例从服务器角度对本申请提供的人脸活体检测模型训练方法进行详细说明。
参见图6所示的人脸活体检测模型训练方法的流程图,该方法包括:
S601:获取训练数据集。
其中,训练数据集中包括多组训练数据,每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像经图像差值处理得到的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测是否为活体,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型是基于像素位置的纹理信息确定的,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述深度信息可以是基于像素所在空间位置距离成像平面的远近确定的。
其中,所述样本检测对象包括真人(活体)和攻击样本(非活体)。样本检测对象为真人的训练数据称作正样本,样本检测对象为攻击样本的训练数据称作负样本,在实际应用时可以按照第一预设比例配置正样本和负样本形成训练数据集,其中,第一预设比例可以根据实际需要而设置,例如可以设置为8:2。
考虑到样本多样性,服务器还可以按照第二预设比例配置不同类型负样本形成训练数据集。例如,负样本包括平面纸片攻击、平面屏幕攻击和3D模型攻击,第二预设比例可以为1:1:2,如此,服务器可以按照该比例配置负样本,形成训练数据集。
在生成训练数据时,服务器可以先获取样本差值图像,然后基于真人、纸片、屏幕、3D模型、环境分别给予不同的标签,例如标签1至5,从而得到样本差值图像对应的标注标签,接着基于样本差值图像各像素位置的纹理信息可以确定各像素位置的材质类型,通过逐像素为样本差值图像赋予材质类型标签可以生成样本差值图像的材质图,此外,基于3D建模工具为样本差值图像生成深度图,其中,平面攻击的深度图为全零灰度图,最后,服务器可以根据上述样本差值图像、标注标签、材质图以及深度图生成训练数据。其中,标注标签、材质图以及深度图作为训练数据的监督信息。
S602:根据所述训练数据集训练预构建的第一神经网络模型获得处于收敛态的第一神经网络模型。
在具体实现时,所述第一神经网络模型可以包括卷积层和两个反卷积层以及全局池化层以及全连接分类层。卷积层用于从差值图像中提取特征图,从特征图中解耦出表征样本对象材质信息的物体反射率和表征样本对象深度信息的物体法向量,两个反卷积层分别用于基于所述物体反射率和所述物体法向量恢复图片从而实现深度回归和材质回归,即一个卷积层基于物体反射率回归得到材质图,另一个卷积层基于物体法向量回归得到深度图,全局池化层则用于进行池化处理,全连接层用于对池化处理后的特征进行分类,根据分类结果预测样本检测对象是否为活体。
在实际应用时,用于提取深度信息和材质信息的卷积层可以是业界已有的深度卷积层,例如可以是VGGNet、ResNet、DenseNet等网络结构中的卷积层,当然也可以根据方案需求自行设计或修改网络结构。考虑到回归任务的困难性,用于恢复图片的反卷积层可以采用带有跨层连接结构的上采样模型,例如UNet,Deconvolution with skip-connection等网络结构中的反卷积层。另外,诸如全局池化层、全连接分类层等可以采用业界通用结构,此处不再赘述。
在训练上述第一神经网络模型时,可以根据实际需要选择对应的训练方式。在一些可能的实现方式中,针对预构建的第一神经网络模型,服务器可以基于端到端的训练方式根据所述训练数据集训练第一神经网络模型的网络参数直到获得处于收敛态的第一神经网络模型,如此可以获得较好的性能。
当然,在另一些可能的实现方式中,服务器也可以采用交叉训练方式训练第一神经网络模型。具体地,针对预构建的第一神经网络模型,在第一阶段固定所述预构建的第一神经网络模型中的全局池化层和全连接分类层,基于所述训练数据集训练所述卷积层和所述两个反卷积层,在第二阶段固定所述第一神经网络模型中的所述卷积层和所述两个反卷积层,基于所述训练数据集训练所述全局池化层和所述全连接分类层,然后根据第一阶段训练的卷积层、反卷积层和第二阶段训练的全局池化层、全连接分类层,获得在所述第一阶段和所述第二阶段交叉训练后的处于收敛态的第一神经网络模型,如此可以降低训练难度,提高训练效率。
下面对基于训练数据训练第一神经网络模型过程进行详细介绍。
具体地,服务器可以将所述训练数据集中的训练数据中的样本差值图像输入预训练的第一神经网络模型,通过所述第一神经网络模型中的卷积层对所述样本差值图像进行特征提取得到一组特征图,然后将这组特征图解耦成表征样本对象的物体法向量的第一分组特征图和表征样本对象的物体反射率的第二分组特征图,其中,第一分组特征图中的物体法向量可以用于回归得到表征深度信息的深度图,第二分组特征图中的物体反射率用于回归得到表征材质信息的材质图。
接着,通过所述第一神经网络模型中的卷积层将所述第一分组特征图输入所述第一神经网络模型中的第一反卷积层,并将所述第二分组特征图输入所述第一神经网络模型中的第二反卷积层,以及,将该组特征图输入所述第一神经网络模型中的全局池化层,通过所述全局池化层处理后输入至全连接分类层。
其中,第一反卷积层输出的预测特征图实质上是第一反卷积层基于第一分组特征图回归出的深度图,为了方便描述,记作预测深度图,将该预测深度图与预先标注的样本图像对应的深度图进行比对,可以确定出深度图损失,同理,第二反卷积能输出的预测特征图实质上是第二卷积层基于第二分组特征图回归出的材质图,为了方便描述,记作预测材质图,将该预测材质图与预先标注的样本图像对应的材质图进行比对,可以确定出材质图损失。此外,服务器还可以根据所述全连接分类层输出的预测标签和所述样本差值图像对应的标注标签确定分类损失,根据每一次迭代更新周期内确定的所述深度图损失和所述材质图损失以及所述分类损失确定模型损失,通过所述模型损失更新所述第一神经网络模型的参数,迭代更新直到所述第一神经网络模型处于收敛态。
为了便于理解,本申请还提供了一具体示例对人脸活体检测模型训练过程进行说明。
参见图7,第一神经网络模型包括深度卷积层、两个反卷积层、全局池化层和全连接分类层,将不同光照条件下的人脸图像形成的样本差值图像输入上述第一神经网络模型,通过深度卷积层进行特征提取,可以得到特征图,通过对特征图进行解耦,可以得到分别包括深度信息和材质信息的特征图,然后模型分为三个支路,其中一个支路基于包含深度信息的特征图通过反卷积层恢复图片后进行深度回归,一个支路基于包含材质信息的特征图通过反卷积层恢复图片后进行材质回归,另外一个支路基于包含深度信息和材质信息的特征图通过全局池化层和全连接分类层进行分类,预测该样本检测对象为真人或者是攻击类型。
在上述示例中,第一神经网络模型的每个分支均设置对应的损失函数,即图中loss1至loss3,服务器针对每一组训练数据(minibatch)进行前向计算得到loss值,然后根据该loss值利用随机梯度下降(Stochastic Gradient Descent,SGD)或其他优化算法更新模型参数,通过不断迭代更新可以对第一神经网络模型进行优化,当更新后的第一神经网络模型处于收敛态时,服务器可以停止训练。需要说明,在训练过程中,服务器可以根据验证集进行模型挑选,以及通过其他技术手段防止模拟过拟合。
S603:对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型。
考虑到人脸活体检测模型主要用于检测目标检测对象为真人或者是攻击,因此,在实际应用时,服务器可以将第一神经网络模型中用于深度回归和材质回归的两个分支去除,得到人脸活体检测模型,该人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
当然,在有确定攻击类型的需求时,服务器也可以将上述深度回归和材质回归的两个分支保留,以便基于深度信息和材质信息确定攻击类型。
由上可知,本申请实施例提供了一种人脸活体检测模型训练方法,首先获取训练数据集,训练数据集的每组训练数据在标注标签基础上还增加了深度图和材质图作为样本差值图像的监督信息,其中,材质图用于对模型提取材质信息的性能进行监督学习,深度图用于对模型提取深度信息的性能进行监督学习,如此训练好的模型具有准确提取深度信息和材质信息的功能,提高人脸活体检测模型预测准确度。
在图6所示实施例中,服务器在获取训练数据集时,还可以对不同光照条件下的人脸图像进行进一步处理得到样本差值图像,进而得到训练数据。
在一些可能的实现方式中,服务器可以对不同光照条件下的人脸图像进行人脸识别,然后基于人脸识别结果进行裁剪得到人脸中心区域图像,然后对人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像,作为样本差值图像,如此,可以使得后续预测更加关注人脸中心区域的深度与材质信息,提高预测精度。
在另一些可能的实现方式中,服务器可以对不同光照条件下的人脸图像进行人脸识别,然后基于人脸识别结果裁剪人脸局部器官区域得到人脸局部区域图像,然后对人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像,作为样本差值图像,如此,可以使得后续预测仅关注有价值的人脸局部区域,既能保证预测精度,又能提高预测效率。
当然,服务器也可以基于人脸中心区域的差值图像和人脸局部区域的差值图像进行双重检测。对应地,服务器可以训练两个模型,一个模型用于基于人脸中心区域进行预测,另一模型用于基于人脸局部区域例如鼻子区域进行预测,从而提升检测准确度。
具体地,服务器获取第一训练数据集和第二训练数据集,其中,第一训练数据集中每组训练数据中的所述样本差值图像是基于样本检测对象在不同光照条件下对应的两张图像的人脸中心区域经图像差值处理得到的,第二训练数据集中每组训练数据中的所述样本差值图像是基于样本检测对象在不同光照条件下对应的两张图像的人脸局部区域经图像差值处理得到的,然后根据所述第一训练数据集和所述第二训练数据集并行训练预构建的第一神经网络模型,获得两个处于收敛态的第一神经网络模型。
如此,服务器对上述两个处于收敛态的第一神经网络模型进行裁剪,将裁剪后的两个第一神经网络模型作为人脸活体检测模型。
需要说明的是,图2所示实施例以及图6所示实施例中的服务器可以是相同的,也可以是不同的,也即训练过程中的服务器与预测过程中的服务器可以相同,也可以不同,可以根据实际需要而设置。
为了使得本申请的技术方案更加清楚,下面将结合移动支付中身份验证的应用场景对本申请提供的人脸活体检测方法进行介绍。
参见图8所示的人脸活体检测方法的场景示意图,该场景中包括终端810、训练服务器820和支付服务器830,其中,终端810上安装有支付应用,用户可以通过终端810上的支付应用发起支付操作,终端810可以响应于该支付操作,向支付服务器830发送支付请求,支付服务器830基于训练服务器820训练的人脸活体检测模型先对用户进行身份验证,验证通过后,再根据支付请求进行账户扣款,并向终端810返回扣款通知消息,以提示用户支付是否成功。
其中,支付服务器830基于人脸活体检测模型进行身份验证的过程具体包括:
首先,终端810在生成支付请求时,同时触发生成人脸活体检测请求,然后终端810向支付服务器830发送人脸活体检测请求,支付服务器830响应于该人脸活体检测请求,随机选择两种不同颜色标识,例如红色和绿色,生成携带有两种不同颜色标识的光照指令,向终端810发送所述光照指令。
终端810在该光照指令指示下依次按照两种不同颜色标识控制显示屏发射相应颜色的光线,并采集用户面部反射光线依次形成第一人脸图像和第二人脸图像,然后将该第一人脸图像和第二人脸图像发送给支付服务器830。
支付服务器830对上述第一人脸图像和第二人脸图像进行人脸识别,然后根据人脸识别结果采集人脸中心区域得到第一人脸中心区域图像和第二人脸中心区域图像,对第一人脸中心区域图像和第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像。
支付服务器830将上述差值图像输入从训练服务器820获得的人脸活体检测模型,通过人脸活体检测模型从差值图像中提取特征图,从特征图中解耦出表征纹理信息的物体反射率和表征深度信息的物体法向量,并根据物体反射率和物体法向量确定差值图像对应的人脸活体检测分数,将该人脸活体检测分数和预设判定阈值进行比较,若人脸活体检测分数高于预设判定阈值,则确定人脸活体检测结果为真人,用户身份验证通过,支付服务器830可以继续执行账户扣款操作,扣款成功后,向终端810发送扣款成功通知消息,提示用户支付成功,否则确定人脸活体检测结果为攻击,放弃执行账户扣款操作,向终端810发送扣款失败通知消息,提示用户支付失败。
以上为本申请实施例提供的人脸活体检测方法以及人脸活体检测模型训练方法的一些具体实现方式,基于此,本申请还提供了对应的装置。下面将从功能模块化的角度对本申请实施例提供的上述装置进行介绍。
参见图9所示的人脸活体检测装置的结构示意图,该装置900包括:
人脸图像获取模块910,用于获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
差值图像确定模块920,用于根据所述第一人脸图像和所述第二人脸图像确定差值图像;
特征提取模块930,用于从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
活体检测模块940,用于根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
可选的,所述差值图像确定模块920具体用于:
裁剪所述第一人脸图像的人脸中心区域得到第一人脸中心区域图像,以及,裁剪所述第二人脸图像的人脸中心区域得到第二人脸中心区域图像;
对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像。
可选的,所述差值图像确定模块920具体用于:
裁剪所述第一人脸图像中人脸局部器官区域得到第一人脸局部区域图像,以及裁剪所述第二人脸图像中的人脸局部器官区域得到第二人脸局部区域图像;
对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像。
可选的,所述差值图像确定模块920具体用于:
裁剪所述第一人脸图像的人脸中心区域得到第一人脸中心区域图像,以及,裁剪所述第二人脸图像的人脸中心区域得到第二人脸中心区域图像;
对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像;
裁剪所述第一人脸图像中人脸局部器官区域得到第一人脸局部区域图像,以及裁剪所述第二人脸图像中的人脸局部器官区域得到第二人脸局部区域图像;
对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像。
可选的,所述特征提取模块930具体用于:
通过预训练的人脸活体检测模型从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量
所述活体检测模块940具体用于:
通过所述人脸活体检测模型,并根据所述目标检测对象对应的物体反射率和物体法向量,确定目标检测对象是否为活体。
可选的,所述特征提取模块930具体用于:
将所述差值图像输入预训练的人脸活体检测模型,通过所述人脸活体检测模型中的卷积层提取图像特征得到特征图,并从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;
所述活体检测模块940具体用于:
通过所述人脸活体检测模型中的全局池化层和全连接分类层根据目标检测对象对应的物体反射率和所述物体法向量确定目标检测对象是否为活体。
可选的,所述人脸图像获取模块910具体用于:
响应于活体检测请求,生成光照指令,所述光照指令包括第一光照条件对应的第一光照参数和第二光照条件对应的第二光照参数;
基于所述光照指令,控制发光元件发射光线并采集目标检测对象面部反射光线依次形成第一人脸图像和第二人脸图像。
可选的,所述人脸图像获取模块910在生成光照指令时,具体用于:
响应于活体检测请求,随机选择两种不同颜色标识,生成携带有所述两种不同颜色标识的光照指令。
可选的,所述人脸图像获取模块910在控制发光元件发射光线并采集目标检测对象面部反射光线依次形成第一人脸图像和第二人脸图像时,具体用于:
响应于活体检测请求,确定人脸相对图像采集区域的角度;
根据所述光照指令和所述角度控制发光元件基于第一光照参数以及第二光照参数依次发射所述角度的光线。
接下来,参见图10所示的人脸活体检测模型训练装置的结构示意图,该装置1000包括:
样本集获取模块1010,用于获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
训练模块1020,用于根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
裁剪模块1030,用于对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
可选的,所述训练模块1020具体用于:
将所述训练数据集中的训练数据中的样本差值图像输入预训练的第一神经网络模型;
通过所述第一神经网络模型中的卷积层对所述样本差值图像进行特征提取得到一组特征图,将所述一组特征图解耦成表征样本对象的物体法向量的第一分组特征图和表征样本对象的物体反射率的第二分组特征图;
通过所述第一神经网络模型中的所述卷积层将所述第一分组特征图输入所述第一神经网络模型中的第一反卷积层,并将所述第二分组特征图输入所述第一神经网络模型中的第二反卷积层,以及,将所述一组特征图输入所述第一神经网络模型中的全局池化层,通过所述全局池化层处理后输入至全连接分类层;
根据所述第一反卷积层输出的预测特征图和所述样本差值图像对应的深度图确定深度图损失,并根据所述第二反卷积层输出的预测特征图和所述样本差值图像对应的材质图确定材质图损失,根据所述全连接分类层输出的预测标签和所述样本差值图像对应的标注标签确定分类损失;
根据每一次迭代更新周期内确定的所述深度图损失和所述材质图损失以及所述分类损失确定模型损失,通过所述模型损失更新所述第一神经网络模型的参数,迭代更新直到所述第一神经网络模型处于收敛态。
可选的,所述样本集获取模块1010具体用于:
获取第一训练数据集,所述第一训练数据集中每组训练数据中的所述样本差值图像是基于样本检测对象在不同光照条件下对应的两张图像的人脸中心区域经图像差值处理得到的;
获取第二训练数据集,所述第二训练数据集中每组训练数据中的所述样本差值图像是基于样本检测对象在不同光照条件下对应的两张图像的人脸局部区域经图像差值处理得到的;
所述训练模块1020具体用于:
根据所述第一训练数据集和所述第二训练数据集并行训练预构建的第一神经网络模型,获得两个处于收敛态的第一神经网络模型。
可选的,所述训练模块1020具体用于:
针对预构建的第一神经网络模型,基于端到端的训练方式根据所述训练数据集训练第一神经网络模型的网络参数直到获得处于收敛态的第一神经网络模型。
可选的,所述训练模块1020具体用于:
针对预构建的第一神经网络模型,在第一阶段固定所述预构建的第一神经网络模型中的全局池化层和全连接分类层,基于所述训练数据集训练所述卷积层和所述两个反卷积层;
在第二阶段固定所述第一神经网络模型中的所述卷积层和所述两个反卷积层,基于所述训练数据集训练所述全局池化层和所述全连接分类层;
获得在所述第一阶段和所述第二阶段交叉训练后的处于收敛态的第一神经网络模型。
可选的,所述卷积层的网络结构采用VGGNet、ResNet或DenseNet;以及,所述反卷积层的网络结构采用UNet或者Deconvolution with skip-connection。
基于本申请实施例提供的上述方法和装置的具体实现方式,本申请还提供了一种用于实现人脸活体检测的设备以及用于实现人脸活体检测模型训练的设备。下面将从硬件实体化的角度对本申请实施例提供的设备进行介绍。
图11是本申请实施例提供的一种设备的结构示意图,该设备可以是服务器,该服务器1100可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1122(例如,一个或一个以上处理器)和存储器1132,一个或一个以上存储应用程序1142或数据1144的存储介质1130(例如一个或一个以上海量存储设备)。其中,存储器1132和存储介质1130可以是短暂存储或持久存储。存储在存储介质1130的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1122可以设置为与存储介质1130通信,在服务器1100上执行存储介质1130中的一系列指令操作。
服务器1100还可以包括一个或一个以上电源1126,一个或一个以上有线或无线网络接口1150,一个或一个以上输入输出接口1158,和/或,一个或一个以上操作系统1141,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图11所示的服务器结构。
其中,所述设备用于实现人脸活体检测时,CPU 1122用于执行如下步骤:
获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
根据所述第一人脸图像和所述第二人脸图像确定差值图像;
从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
可选的,所述CPU 1122还用于执行本申请实施例提供的人脸活体检测方法的任意一种实现方式的步骤。
当然,所述设备用于实现人脸活体检测模型训练时,CPU 1122用于执行如下步骤:
获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
可选的,所述CPU 1122还用于执行本申请实施例提供的人脸活体检测模型训练方法的任意一种实现方式的步骤。
本申请实施例还提供一种计算机可读存储介质,用于存储计算机程序,该计算机程序用于执行前述各个实施例所述的一种人脸活体检测方法或者人脸活体检测模型训练方法中的任意一种实施方式。
本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行上述人脸活体检测方法或人脸活体检测模型训练方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (15)
1.一种人脸活体检测方法,其特征在于,所述方法包括:
获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
根据所述第一人脸图像和所述第二人脸图像确定差值图像;
从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一人脸图像和所述第二人脸图像确定差值图像,包括:
裁剪所述第一人脸图像的人脸中心区域得到第一人脸中心区域图像,以及,裁剪所述第二人脸图像的人脸中心区域得到第二人脸中心区域图像;
对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第一人脸图像和所述第二人脸图像确定差值图像,包括:
裁剪所述第一人脸图像中人脸局部器官区域得到第一人脸局部区域图像,以及裁剪所述第二人脸图像中的人脸局部器官区域得到第二人脸局部区域图像;
对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一人脸图像和所述第二人脸图像确定差值图像,包括:
裁剪所述第一人脸图像的人脸中心区域得到第一人脸中心区域图像,以及,裁剪所述第二人脸图像的人脸中心区域得到第二人脸中心区域图像;
对所述第一人脸中心区域图像和所述第二人脸中心区域图像进行图像差值处理得到人脸中心区域的差值图像;
裁剪所述第一人脸图像中人脸局部器官区域得到第一人脸局部区域图像,以及裁剪所述第二人脸图像中的人脸局部器官区域得到第二人脸局部区域图像;
对所述第一人脸局部区域图像和所述第二人脸局部区域图像进行图像差值处理得到人脸局部区域的差值图像。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;以及,根据所述目标检测对象对应的物体反射率和物体法向量,确定目标检测对象是否为活体,包括:
通过预训练的人脸活体检测模型从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;以及,通过所述人脸活体检测模型,根据所述目标检测对象对应的物体反射率和物体法向量,确定目标检测对象是否为活体。
6.根据权利要求5所述的方法,其特征在于,所述通过预训练的人脸活体检测模型从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;以及,通过所述人脸活体检测模型,根据所述目标检测对象对应的物体反射率和物体法向量,确定目标检测对象是否为活体,包括:
将所述差值图像输入预训练的人脸活体检测模型,通过所述人脸活体检测模型中的卷积层提取图像特征得到特征图,并从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量,通过所述人脸活体检测模型中的全局池化层和全连接分类层根据所述目标检测对象对应的物体反射率和所述物体法向量确定所述目标检测对象是否为活体。
7.根据权利要求1至4中任一项所述的方法,其特征在于,所述获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像,包括:
响应于活体检测请求,生成光照指令,所述光照指令包括第一光照条件对应的第一光照参数和第二光照条件对应的第二光照参数;
基于所述光照指令,控制发光元件发射光线并采集目标检测对象面部反射光线依次形成第一人脸图像和第二人脸图像。
8.根据权利要求7所述的方法,其特征在于,所述响应于活体检测请求,生成光照指令,包括:
响应于活体检测请求,随机选择两种不同颜色标识,生成携带有所述两种不同颜色标识的光照指令。
9.根据权利要求7所述的方法,其特征在于,所述基于所述光照指令,控制发光元件发射光线并采集目标检测对象面部反射光线依次形成第一人脸图像和第二人脸图像,包括:
响应于活体检测请求,确定人脸相对图像采集区域的角度;
根据所述光照指令和所述角度控制发光元件基于第一光照参数以及第二光照参数依次发射所述角度的光线。
10.一种人脸活体检测模型训练方法,其特征在于,所述方法包括:
获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
11.根据权利要求10所述的方法,其特征在于,所述根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,包括:
将所述训练数据集中的训练数据中的样本差值图像输入预训练的第一神经网络模型;
通过所述第一神经网络模型中的卷积层对所述样本差值图像进行特征提取得到一组特征图,将所述一组特征图解耦成表征样本对象的物体法向量的第一分组特征图和表征样本对象的物体反射率的第二分组特征图;
通过所述第一神经网络模型中的所述卷积层将所述第一分组特征图输入所述第一神经网络模型中的第一反卷积层,并将所述第二分组特征图输入所述第一神经网络模型中的第二反卷积层,以及,将所述一组特征图输入所述第一神经网络模型中的全局池化层,通过所述全局池化层处理后输入至全连接分类层;
根据所述第一反卷积层输出的预测特征图和所述样本差值图像对应的深度图确定深度图损失,并根据所述第二反卷积层输出的预测特征图和所述样本差值图像对应的材质图确定材质图损失,根据所述全连接分类层输出的预测标签和所述样本差值图像对应的标注标签确定分类损失;
根据每一次迭代更新周期内确定的所述深度图损失和所述材质图损失以及所述分类损失确定模型损失,通过所述模型损失更新所述第一神经网络模型的参数,迭代更新直到所述第一神经网络模型处于收敛态。
12.一种人脸活体检测装置,其特征在于,所述装置包括:
人脸图像获取模块,用于获取目标检测对象在第一光照条件下的第一人脸图像和所述目标检测对象在第二光照条件下的第二人脸图像;
差值图像确定模块,用于根据所述第一人脸图像和所述第二人脸图像确定差值图像;
特征提取模块,用于从所述差值图像中提取特征图,从所述特征图中解耦出所述目标检测对象对应的物体反射率和所述目标检测对象对应的物体法向量;其中,所述物体反射率用于表征纹理信息,以及所述物体法向量用于表征深度信息;
活体检测模块,用于根据所述目标检测对象对应的物体反射率和物体法向量,确定所述目标检测对象是否为活体。
13.一种人脸活体检测模型训练装置,其特征在于,所述装置包括:
样本集获取模块,用于获取训练数据集,所述训练数据集中每组训练数据包括样本差值图像,所述样本差值图像的标注标签、所述样本差值图像对应的深度图和材质图,所述样本差值图像是对在不同光照条件下采集的样本检测对象的人脸图像进行图像差值所得的,所述样本差值图像的标注标签用于标识所述样本差值图像所属的样本检测对象是否为活体,所述深度图用于标识所述样本差值图像中各像素位置的深度信息,所述材质图用于标识所述样本差值图像中各像素位置的材质类型,所述材质类型基于像素位置的纹理信息确定;
训练模块,用于根据所述训练数据集训练预构建的第一神经网络模型,获得处于收敛态的第一神经网络模型,所述第一神经网络模型包括卷积层和两个反卷积层以及全局池化层以及全连接分类层;
裁剪模块,用于对所述处于收敛态的第一神经网络模型进行裁剪得到人脸活体检测模型,所述人脸活体检测模型包括所述卷积层和所述全局池化层以及所述全连接分类层。
14.一种设备,其特征在于,所述设备包括:
处理器以及存储器;其中,
所述存储器用于存储计算机程序;
所述处理器用于根据所述计算机程序执行权利要求1至11任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1至11任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996055.5A CN110765923B (zh) | 2019-10-18 | 一种人脸活体检测方法、装置、设备及存储介质 | |
JP2022515568A JP7262884B2 (ja) | 2019-10-18 | 2020-09-21 | 生体顔検出方法、装置、設備及びコンピュータプログラム |
PCT/CN2020/116507 WO2021073364A1 (zh) | 2019-10-18 | 2020-09-21 | 一种人脸活体检测方法、装置、设备及存储介质 |
EP20876546.1A EP3995989A4 (en) | 2019-10-18 | 2020-09-21 | FACE VIVACITY DETECTION METHOD, APPARATUS AND DEVICE, AND STORAGE MEDIA |
US17/513,731 US11972638B2 (en) | 2019-10-18 | 2021-10-28 | Face living body detection method and apparatus, device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996055.5A CN110765923B (zh) | 2019-10-18 | 一种人脸活体检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110765923A true CN110765923A (zh) | 2020-02-07 |
CN110765923B CN110765923B (zh) | 2024-05-24 |
Family
ID=
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523438A (zh) * | 2020-04-20 | 2020-08-11 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法、终端设备和电子设备 |
CN111582381A (zh) * | 2020-05-09 | 2020-08-25 | 北京市商汤科技开发有限公司 | 确定性能参数的方法及装置、电子设备和存储介质 |
CN111597938A (zh) * | 2020-05-07 | 2020-08-28 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111683273A (zh) * | 2020-06-02 | 2020-09-18 | 中国联合网络通信集团有限公司 | 视频卡顿信息的确定方法及装置 |
CN111914775A (zh) * | 2020-08-06 | 2020-11-10 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN112016505A (zh) * | 2020-09-03 | 2020-12-01 | 平安科技(深圳)有限公司 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
CN112036386A (zh) * | 2020-11-05 | 2020-12-04 | 中科创达软件股份有限公司 | Tee环境下使用相机相近帧进行活体检测的方法及装置 |
CN112149578A (zh) * | 2020-09-24 | 2020-12-29 | 四川川大智胜软件股份有限公司 | 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备 |
CN112232152A (zh) * | 2020-09-30 | 2021-01-15 | 墨奇科技(北京)有限公司 | 非接触式指纹识别方法、装置、终端和存储介质 |
CN112465717A (zh) * | 2020-11-25 | 2021-03-09 | 北京字跳网络技术有限公司 | 脸部图像处理模型训练方法、装置、电子设备和介质 |
CN112580454A (zh) * | 2020-12-08 | 2021-03-30 | 上海明略人工智能(集团)有限公司 | 基于图片材质分割标记的人脸防伪方法及系统 |
WO2021073364A1 (zh) * | 2019-10-18 | 2021-04-22 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN112966562A (zh) * | 2021-02-04 | 2021-06-15 | 深圳市街角电子商务有限公司 | 人脸活体检测方法、系统及存储介质 |
CN113221766A (zh) * | 2021-05-18 | 2021-08-06 | 北京百度网讯科技有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113361349A (zh) * | 2021-05-25 | 2021-09-07 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备和存储介质 |
CN113409056A (zh) * | 2021-06-30 | 2021-09-17 | 深圳市商汤科技有限公司 | 支付方法、装置、本地识别设备、人脸支付系统及设备 |
CN113422982A (zh) * | 2021-08-23 | 2021-09-21 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及存储介质 |
EP3885979A1 (en) * | 2020-02-25 | 2021-09-29 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting liveness based on phase difference |
CN113591517A (zh) * | 2020-04-30 | 2021-11-02 | 华为技术有限公司 | 一种活体检测方法及相关设备 |
CN113642428A (zh) * | 2021-07-29 | 2021-11-12 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113761983A (zh) * | 2020-06-05 | 2021-12-07 | 杭州海康威视数字技术股份有限公司 | 更新人脸活体检测模型的方法、装置及图像采集设备 |
WO2023000792A1 (zh) * | 2021-07-22 | 2023-01-26 | 京东科技控股股份有限公司 | 构建活体识别模型和活体识别的方法、装置、设备及介质 |
WO2023098128A1 (zh) * | 2021-12-01 | 2023-06-08 | 马上消费金融股份有限公司 | 活体检测方法及装置、活体检测系统的训练方法及装置 |
WO2023221996A1 (zh) * | 2022-05-16 | 2023-11-23 | 北京旷视科技有限公司 | 一种活体检测方法、电子设备、存储介质及程序产品 |
CN112149578B (zh) * | 2020-09-24 | 2024-05-24 | 四川川大智胜软件股份有限公司 | 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN107169405A (zh) * | 2017-03-17 | 2017-09-15 | 上海云从企业发展有限公司 | 基于双目摄像机活体识别的方法及装置 |
US20190258251A1 (en) * | 2017-11-10 | 2019-08-22 | Nvidia Corporation | Systems and methods for safe and reliable autonomous vehicles |
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105574509A (zh) * | 2015-12-16 | 2016-05-11 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN107169405A (zh) * | 2017-03-17 | 2017-09-15 | 上海云从企业发展有限公司 | 基于双目摄像机活体识别的方法及装置 |
US20190258251A1 (en) * | 2017-11-10 | 2019-08-22 | Nvidia Corporation | Systems and methods for safe and reliable autonomous vehicles |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021073364A1 (zh) * | 2019-10-18 | 2021-04-22 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
US11972638B2 (en) | 2019-10-18 | 2024-04-30 | Tencent Technology (Shenzhen) Company Limited | Face living body detection method and apparatus, device, and storage medium |
EP3885979A1 (en) * | 2020-02-25 | 2021-09-29 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting liveness based on phase difference |
US11244181B2 (en) | 2020-02-25 | 2022-02-08 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting liveness based on phase difference |
CN111523438B (zh) * | 2020-04-20 | 2024-02-23 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法、终端设备和电子设备 |
CN111523438A (zh) * | 2020-04-20 | 2020-08-11 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法、终端设备和电子设备 |
CN113591517A (zh) * | 2020-04-30 | 2021-11-02 | 华为技术有限公司 | 一种活体检测方法及相关设备 |
CN111597938A (zh) * | 2020-05-07 | 2020-08-28 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111582381A (zh) * | 2020-05-09 | 2020-08-25 | 北京市商汤科技开发有限公司 | 确定性能参数的方法及装置、电子设备和存储介质 |
CN111582381B (zh) * | 2020-05-09 | 2024-03-26 | 北京市商汤科技开发有限公司 | 确定性能参数的方法及装置、电子设备和存储介质 |
CN111683273A (zh) * | 2020-06-02 | 2020-09-18 | 中国联合网络通信集团有限公司 | 视频卡顿信息的确定方法及装置 |
CN113761983A (zh) * | 2020-06-05 | 2021-12-07 | 杭州海康威视数字技术股份有限公司 | 更新人脸活体检测模型的方法、装置及图像采集设备 |
CN113761983B (zh) * | 2020-06-05 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 更新人脸活体检测模型的方法、装置及图像采集设备 |
CN111914775B (zh) * | 2020-08-06 | 2023-07-28 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN111914775A (zh) * | 2020-08-06 | 2020-11-10 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
WO2021151317A1 (zh) * | 2020-08-06 | 2021-08-05 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN112016505A (zh) * | 2020-09-03 | 2020-12-01 | 平安科技(深圳)有限公司 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
CN112016505B (zh) * | 2020-09-03 | 2024-05-28 | 平安科技(深圳)有限公司 | 基于人脸图像的活体检测方法、设备、存储介质及装置 |
CN112149578B (zh) * | 2020-09-24 | 2024-05-24 | 四川川大智胜软件股份有限公司 | 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备 |
CN112149578A (zh) * | 2020-09-24 | 2020-12-29 | 四川川大智胜软件股份有限公司 | 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备 |
CN112232152A (zh) * | 2020-09-30 | 2021-01-15 | 墨奇科技(北京)有限公司 | 非接触式指纹识别方法、装置、终端和存储介质 |
CN112232152B (zh) * | 2020-09-30 | 2021-12-03 | 墨奇科技(北京)有限公司 | 非接触式指纹识别方法、装置、终端和存储介质 |
CN112036386A (zh) * | 2020-11-05 | 2020-12-04 | 中科创达软件股份有限公司 | Tee环境下使用相机相近帧进行活体检测的方法及装置 |
CN112465717B (zh) * | 2020-11-25 | 2024-05-31 | 北京字跳网络技术有限公司 | 脸部图像处理模型训练方法、装置、电子设备和介质 |
CN112465717A (zh) * | 2020-11-25 | 2021-03-09 | 北京字跳网络技术有限公司 | 脸部图像处理模型训练方法、装置、电子设备和介质 |
CN112580454A (zh) * | 2020-12-08 | 2021-03-30 | 上海明略人工智能(集团)有限公司 | 基于图片材质分割标记的人脸防伪方法及系统 |
CN112580454B (zh) * | 2020-12-08 | 2024-03-26 | 上海明略人工智能(集团)有限公司 | 基于图片材质分割标记的人脸防伪方法及系统 |
CN112966562A (zh) * | 2021-02-04 | 2021-06-15 | 深圳市街角电子商务有限公司 | 人脸活体检测方法、系统及存储介质 |
CN113221766A (zh) * | 2021-05-18 | 2021-08-06 | 北京百度网讯科技有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113361349B (zh) * | 2021-05-25 | 2023-08-04 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备和存储介质 |
JP2022078338A (ja) * | 2021-05-25 | 2022-05-24 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 顔生体検出方法、装置、電子機器及び記憶媒体 |
JP7334292B2 (ja) | 2021-05-25 | 2023-08-28 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 顔生体検出方法、装置、電子機器及び記憶媒体 |
CN113361349A (zh) * | 2021-05-25 | 2021-09-07 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备和存储介质 |
CN113409056A (zh) * | 2021-06-30 | 2021-09-17 | 深圳市商汤科技有限公司 | 支付方法、装置、本地识别设备、人脸支付系统及设备 |
WO2023000792A1 (zh) * | 2021-07-22 | 2023-01-26 | 京东科技控股股份有限公司 | 构建活体识别模型和活体识别的方法、装置、设备及介质 |
CN113642428A (zh) * | 2021-07-29 | 2021-11-12 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113642428B (zh) * | 2021-07-29 | 2022-09-27 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113422982A (zh) * | 2021-08-23 | 2021-09-21 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及存储介质 |
WO2023098128A1 (zh) * | 2021-12-01 | 2023-06-08 | 马上消费金融股份有限公司 | 活体检测方法及装置、活体检测系统的训练方法及装置 |
WO2023221996A1 (zh) * | 2022-05-16 | 2023-11-23 | 北京旷视科技有限公司 | 一种活体检测方法、电子设备、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
JP7262884B2 (ja) | 2023-04-24 |
EP3995989A1 (en) | 2022-05-11 |
US20220083795A1 (en) | 2022-03-17 |
JP2022547183A (ja) | 2022-11-10 |
WO2021073364A1 (zh) | 2021-04-22 |
EP3995989A4 (en) | 2022-09-14 |
US11972638B2 (en) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11972638B2 (en) | Face living body detection method and apparatus, device, and storage medium | |
CN105404860B (zh) | 用于管理走失人员信息的方法和设备 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN110569808A (zh) | 活体检测方法、装置及计算机设备 | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
JP6719497B2 (ja) | 画像生成方法、画像生成装置及び画像生成システム | |
CN110383288A (zh) | 人脸识别的方法、装置和电子设备 | |
CN108875452A (zh) | 人脸识别方法、装置、系统和计算机可读介质 | |
CN110059579B (zh) | 用于活体检验的方法和装置,电子设备和存储介质 | |
WO2022222575A1 (zh) | 用于目标识别的方法和系统 | |
CN112818722A (zh) | 模块化动态可配置的活体人脸识别系统 | |
CN111062263A (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
WO2022227765A1 (zh) | 生成图像修复模型的方法、设备、介质及程序产品 | |
CN109670517A (zh) | 目标检测方法、装置、电子设备和目标检测模型 | |
KR20150128510A (ko) | 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치 | |
JPWO2020079741A1 (ja) | 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN115147936A (zh) | 一种活体检测方法、电子设备、存储介质及程序产品 | |
CN111310567A (zh) | 一种多人场景下的人脸识别方法及装置 | |
CN113111810A (zh) | 一种目标识别方法和系统 | |
Di Martino et al. | Rethinking shape from shading for spoofing detection | |
CN110765923B (zh) | 一种人脸活体检测方法、装置、设备及存储介质 | |
CN114581978A (zh) | 人脸识别的方法和系统 | |
CN112915539B (zh) | 一种虚拟对象检测方法、装置以及可读存储介质 | |
CN117011449A (zh) | 三维面部模型的重构方法和装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40021912 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |