CN112149615B - 人脸活体检测方法、装置、介质及电子设备 - Google Patents
人脸活体检测方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN112149615B CN112149615B CN202011086784.6A CN202011086784A CN112149615B CN 112149615 B CN112149615 B CN 112149615B CN 202011086784 A CN202011086784 A CN 202011086784A CN 112149615 B CN112149615 B CN 112149615B
- Authority
- CN
- China
- Prior art keywords
- face
- video stream
- stream data
- shaking
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 195
- 239000013598 vector Substances 0.000 claims abstract description 80
- 230000004438 eyesight Effects 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 51
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000001727 in vivo Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000033001 locomotion Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 13
- 230000009471 action Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及人工智能领域,应用于人脸识别领域,揭示了一种人脸活体检测方法、装置、介质及电子设备。该方法包括:将待进行活体检测的人脸摇头视频流数据对应的人脸区域图片输入至预设识别模型,得到由预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;根据与各人脸图像帧对应的人脸关键点坐标和人眼视线偏移矢量确定人脸摇头视频流数据是否通过当前阶段的活体检测。此方法下,在活体检测过程中,可以识别出利用包含人脸的纸张或头模进行摇晃的欺诈手段,提高了活体检测的准确率,降低了安全风险。
Description
技术领域
本申请涉及人工智能领域,应用于人脸识别领域,特别涉及一种人脸活体检测方法、装置、介质及电子设备。
背景技术
动作活体检测是活体检测的重要手段之一,它主要通过在摇头、点头、张闭嘴、睁闭眼等动作中随机选取若干动作,向用户发出指令,用户根据指令在摄像头前进行相应动作,最后获取摄像头录制的这些视频数据,对其进行分析,得到检测结果,摇头是动作活体检测的关键动作之一。然而,目前针对活体检测出现了新的攻击手段,即根据指令的指示利用包含人脸的纸张或头模进行相应的摇晃来模拟摇头动作,目前的动作活体检测方法无法对这种手段进行识别,造成了活体检测准确率低,安全风险高。
发明内容
在人工智能和人脸识别技术领域,为了解决上述技术问题,本申请的目的在于提供一种人脸活体检测方法、装置、介质及电子设备。
根据本申请的一方面,提供了一种人脸活体检测方法,所述方法包括:
将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;
根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
根据本申请的另一方面,提供了一种人脸活体检测装置,所述装置包括:
输入模块,被配置为将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;
判断模块,被配置为根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,当所述计算机可读指令被计算机执行时,使计算机执行如前所述的方法。
根据本申请的另一方面,提供了一种电子设备,所述电子设备包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如前所述的方法。
本申请的实施例提供的技术方案可以包括以下有益效果:
本申请所提供的人脸活体检测方法,包括如下步骤:将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
此方法下,通过利用结合了人眼视线偏移矢量输出层的人脸关键点检测模型计算出人脸区域图片所对应的人眼视线偏移矢量,并利用人眼视线偏移矢量进行人脸活体检测。因此,在活体检测过程中,可以识别出利用包含人脸的纸张或头模进行摇晃的欺诈手段,从而提高了活体检测的准确率,降低了安全风险。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种人脸活体检测方法的系统架构示意图;
图2是根据一示例性实施例示出的一种人脸活体检测方法的流程图;
图3是根据一示例性实施例示出的用于人脸活体检测方法的预设识别模型的至少部分结构示意图;
图4是根据图2对应实施例示出的一实施例的步骤240之前步骤的流程图;
图5是根据一示例性实施例示出的一种人脸活体检测装置的框图;
图6是根据一示例性实施例示出的一种实现上述人脸活体检测方法的电子设备示例框图;
图7是根据一示例性实施例示出的一种实现上述人脸活体检测方法的计算机可读存储介质。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
本申请首先提供了一种人脸活体检测方法。人脸活体检测主要是指根据录制的含有人脸的视频来判断该视频中的人脸是否为活体人脸的过程,人脸活体检测是身份核验领域的重要技术手段之一。而动作活体检测是人脸活体检测的重要环节。在进行动作活体检测时,用户需要根据语音、文字等指令的指示进行相应的动作,这些动作主要包括摇头、点头、张闭嘴、睁闭眼等,当然也可以不向用户发出指令,而是随机观察用户动作。当指示用户进行摇头时,不法分子可能会利用包含人脸的纸张或头模进行摇晃的欺诈手段配合完成摇头动作,并上传记录这些动作的视频从而完成欺诈操作。利用相关的技术手段,无法对这种情况进行监测,导致这种欺诈手段能够轻易地通过活体检测,风险隐患大。而利用本申请提供的一种人脸活体检测方法可以识别出这些欺诈手段,从而可以提高活体检测的准确率,进而可以降低损失。
本申请的实施终端可以是任何具有运算、处理以及存储功能的设备,该设备可以与外部设备相连,用于接收或者发送数据,具体可以是便携移动设备,例如智能手机、平板电脑、笔记本电脑、PDA(Personal Digital Assistant)等,也可以是固定式设备,例如,计算机设备、现场终端、台式电脑、服务器、工作站等,还可以是多个设备的集合,比如云计算的物理基础设施或者服务器集群。
可选地,本申请的实施终端可以为服务器或者云计算的物理基础设施。
图1是根据一示例性实施例示出的一种人脸活体检测方法的系统架构示意图。如图1所示,该系统架构包括服务器110和移动终端120,移动终端120比如可以是智能手机。移动终端120与服务器110通过通信链路相连,因此,移动终端120可以向服务器110发送数据,也可以接收来自服务器110的数据,服务器110上设有服务端程序和预设识别模型,而移动终端120上安装并运行有客户端软件,服务器110为本实施例中的实施终端。当本申请提供的人脸活体检测方法应用于图1所示的系统架构中时,一个具体过程可以是这样的:用户通过操作移动终端120上的客户端软件录制并向服务器110上传人脸摇头视频流数据;服务器110接收到该人脸摇头视频流数据之后,通过运行服务端程序来提取该人脸摇头视频流数据中的人脸区域图片;接着,服务器110将该人脸区域图片输入至预设识别模型,得到该模型输出的人脸关键点坐标和人眼视线偏移矢量;最后,服务器110通过运行服务端程序来根据由模型输出的人脸关键点坐标和人眼视线偏移矢量来判断并输出对当前阶段的活体检测的检测结果。
值得一提的是,图1仅为本申请的一个实施例,虽然在本实施例中的实施终端为服务器,而提供人脸摇头视频流数据的终端为移动终端,但在其他实施例或者实际应用中,实施终端以及提供人脸摇头视频流数据的终端均可以为如前所述的各种终端或设备;虽然在本实施例中,人脸摇头视频流数据是从申请实施终端之外的终端发送而来的,但实际上,人脸摇头视频流数据可以是由本地终端直接获得的。本申请对此不作限定,本申请的保护范围也不应因此而受到任何限制。
图2是根据一示例性实施例示出的一种人脸活体检测方法的流程图。本实施例提供的人脸活体检测方法可以由服务器执行,如图2所示,包括以下步骤:
步骤240,将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量。
其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度。
人脸关键点坐标和人眼视线偏移矢量分别与各人脸图像帧相对应,也就是说,对于每一人脸图像帧,都有对应的人脸关键点坐标和人眼视线偏移矢量。
人眼视线偏移矢量包含方向和长度,比如人眼视线向左即为正,向右即为负。长度可以定义为人眼瞳孔偏移眼眶中心点的距离归一化后的相对程度。
申请人发现,正常人脸在摇头的时候视线会看手机,在摇头过程中视线会有偏移变化,而人脸弯曲纸张的视线相对固定,由于纸张弯曲和晃动的原因视线模型的预测会产生一定的抖动,但是这种抖动会小于正常人眼视线左右看的偏移增量,所以可以通过统计正常人脸摇头的视线偏移增量和人脸弯曲纸张的视线偏移增量来区分正常人脸和弯曲纸张。
具体来说,预设识别模型的结构请参见图3。图3是根据一示例性实施例示出的用于人脸活体检测方法的预设识别模型的至少部分结构示意图。通过图3可以看到,预设识别模型300至少包括人脸关键点检测模型310以及眼视线偏移矢量输出层320。虚线所框起来的部分即为人脸关键点检测模型310的结构部分,包括卷积层311和卷积层311之后的输出部分312,卷积层311可以由多层神经网络结构堆叠而成,预设识别模型300接收的输入为人脸图像帧,输出部分312最终会输出人脸关键点坐标。当然,在预设识别模型300内,卷积层311之前以及卷积层311的各层网络结构之间还可以包括其他结构。人眼视线偏移矢量输出层320接收最后一层卷积层的输入,最终输出人脸图像帧所对应的人眼视线偏移矢量,人眼视线偏移矢量输出层320通常为全连接层。
在一个实施例中,步骤240之前的步骤可以如图4所示。图4是根据图2对应实施例示出的一实施例的步骤240之前步骤的流程图。请参照图4,包括以下步骤:
步骤210,对待进行活体检测的人脸摇头视频流数据进行解帧,得到所述人脸摇头视频流数据所对应的人脸图像帧。
对人脸摇头视频流数据进行解帧即为将人脸摇头视频流数据分为人脸图像帧的过程。
在一个实施例中,在对待进行活体检测的人脸摇头视频流数据进行解帧,得到所述人脸摇头视频流数据所对应的人脸图像帧之前,所述方法还包括:
从用户终端获取待进行活体检测的人脸摇头视频流数据。
在一个实施例中,在从用户终端获取待进行活体检测的人脸摇头视频流数据之前,所述方法还包括:
在多个预设动作指令中随机选择一个预设动作指令并将选择出的所述预设动作指令发送至用户终端,其中,所述多个预设动作指令中包括摇头,从用户终端获取待进行活体检测的人脸摇头视频流数据是在选择出的所述预设动作指令为摇头的条件下进行的。
步骤220,将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标。
人脸图像帧所包括的像素区域可能很大,而人脸所占的像素区域可能仅是人脸图像帧中的一部分或者一小部分,为了对人脸进行精准检测,所以有必要人脸图像帧中人脸对应的区域进行针对性地识别。
人脸检测框坐标是人脸对应的区域在人脸图像帧中的位置坐标。预设人脸检测模型能够根据人脸图像帧的输入而输出相应的人脸检测框坐标,预设人脸检测模型可以基于各种算法或原理来实现,比如,一般的机器学习算法,也可以是深度学习算法。
步骤230,根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片。
在一个实施例中,所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
在人脸图像帧中确定所述人脸检测框坐标所对应的第一人脸检测框区域;
按照预定扩框比例对所述第一人脸检测框区域进行扩框操作,得到第二人脸检测框区域;
基于所述第二人脸检测框区域所限定的范围提取人脸区域图片。
比如,第一人脸检测框区域可以是矩形,人脸检测框坐标是可以用来唯一确定该矩形的范围的坐标,比如,人脸检测框坐标可以是矩形的四个顶点的坐标,利用矩形的四个顶点的坐标即可确定一个矩形的范围;人脸检测框坐标也可以是矩形的两条对角线的交点的坐标,有了两条对角线的交点的坐标之后,再根据预设矩形的长度和宽度,也可以确定对应的该矩形的范围。
预定扩框比例是在原区域的基础上进一步扩大覆盖区域的比例。预定扩框比例可以预定的各种比例,比如可以是20%,对第一人脸区域进行扩框操作可以采用多种方式或角度,比如,从中心向四周扩增、向左右或上下两侧扩增、向右上或左下扩增等等。这样经过扩框操作之后,得到的第二人脸检测框区域的面积大于第一人脸检测框区域。
在本实施例中,通过在根据人脸检测框坐标确定所对应的第一人脸检测框区域之后,不直接根据该第一人脸检测框区域所限定的范围提取人脸区域图片,而是先对第一人脸检测框区域进行扩框操作,得到第二人脸检测框区域,再基于第二人脸检测框区域所限定的范围提取人脸区域图片,因此,这样可以使得提取到的人脸区域图片足够大,从而保留更多有关人脸的信息,在一定程度上提高了活体检测效果。
在一个实施例中,所述将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标,包括:
将每一所述人脸图像帧输入至预设人脸检测模型,得到每一所述人脸图像帧对应的人脸检测框坐标;
所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
根据各所述人脸检测框坐标在每一所述人脸图像帧中提取人脸区域图片。
在人脸图像帧中提取人脸区域图片即为在人脸图像帧中抠图的过程。在本实施例中的人脸区域图片都是先由预设人脸检测模型确定出人脸检测框坐标,然后在根据人脸检测框坐标提取得到的。
在一个实施例中,所述将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标,包括:
将至少一个所述人脸图像帧输入至预设人脸检测模型,得到至少一个所述人脸图像帧分别对应的第一人脸检测框坐标;
所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
根据各所述第一人脸检测框坐标在所述第一人脸检测框坐标所对应的人脸图像帧中提取对应的第一人脸区域图片;
将各所述第一人脸区域图片输入至所述预设识别模型,得到各所述第一人脸区域图片对应的人脸关键点坐标和人眼视线偏移矢量;
确定各所述第一人脸区域图片对应的人脸关键点坐标所对应的人脸外接矩形;
根据所述人脸外接矩形和预设估计算法确定所述至少一个所述人脸图像帧之后的至少一个人脸图像帧对应的第二人脸检测框坐标;
根据确定出的所述第二人脸检测框坐标在所述第二人脸检测框坐标所对应的人脸图像帧中提取对应的第二人脸区域图片。
人脸外接矩形是恰好能够覆盖人脸区域的矩形,人脸区域边缘上至少一部分点位于该矩形上。预设估计算法可以是各种能够对人脸运动状态进行估计或推算的算法,比如可以是卡尔曼滤波器。卡尔曼滤波器(Kalman Filter),也可以叫做卡尔曼滤波方程或卡尔曼运动方程,是一种利用线性系统状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。具体来说,将前面的至少一个人脸图像帧对应的人脸外接矩形带入卡尔曼运动方程,可以确定出当前甚至之后的人脸图像帧对应的第二人脸检测框坐标,第二人脸检测框坐标是基于卡尔曼运动方程预测得到的。
在本实施例中,在所有人脸图像帧中,确定人脸图像帧对应的人脸检测框坐标采用了两种方式:对于在前面的至少一个人脸图像帧而言,采用的方式是将人脸图像帧输入至预设人脸检测模型,得到人脸检测框坐标,然后根据人脸检测框坐标在对应的人脸图像帧中提取对应的人脸区域图片;对于当前或后续的人脸图像帧而言,也是基于前面提取到的人脸区域图片确定出的,具体来说,先将前面提取到的人脸区域图片输入至预设识别模型得到人脸关键点坐标,然后根据人脸关键点坐标确定对应的人脸外接矩形,最后将人脸外接矩形输入预设估计算法中,可以确定出当前以及后续的人脸图像帧对应的第二人脸检测框坐标。与单纯通过将人脸图像帧输入至预设人脸检测模型的方式相比,这种方式消耗计算资源更少,效率更高。
步骤250,根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
在一个实施例中,在根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测之后,所述方法还包括:
在通过当前阶段的活体检测的情况下,获取所述人脸摇头视频流数据之后的人脸视频流数据;
对所述人脸视频流数据进行静默活体检测。
可以利用各种算法或模型对人脸视频流数据进行静默活体检测,在进行静默活体检测的人脸视频流数据中,人不需要摇头,人脸的位置和角度处于相对不变的状态。
在本实施例中,由于仅仅在通过当前阶段的活体检测的情况下,才进行后续的静默检测,而能够单独完成活体检测的用户的数量远远小于能够单独完成静默检测的用户的数量,这样先进行当前阶段的活体检测便能够过滤掉大量用户,因此,这样在一定程度上降低了资源消耗。
在一个实施例中,所述预设识别模型中与所述人眼视线偏移矢量输出层相关的部分利用如下方式训练而成:
获取样本数据集中正常人脸摇头视频流数据所对应的正常人脸区域图片以及人脸纸张摇头视频流数据所对应的人脸纸张区域图片,所述样本数据集包括多个正常人脸摇头视频流数据和多个人脸纸张摇头视频流数据;
将所述正常人脸区域图片和所述人脸纸张区域图片输入至所述预设识别模型,得到由所述预设识别模型输出的与所述正常人脸区域图片和所述人脸纸张区域图片分别对应的人脸关键点坐标和人眼视线偏移矢量;
分别利用所述正常人脸摇头视频流数据所对应的人脸关键点坐标序列以及所述人脸纸张摇头视频流数据所对应的人脸关键点坐标序列确定所述正常人脸摇头视频流数据和所述人脸纸张摇头视频流数据所对应的人脸摇头程度序列;
针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,确定位于预定人脸摇头程度范围内的人脸摇头程度所对应的人脸关键点坐标,作为第一目标人脸关键点坐标;
针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,在第一目标人脸关键点坐标对应的人眼视线偏移矢量中确定最大的人眼视线偏移矢量与最小的人眼视线偏移矢量的差值,作为该正常人脸摇头视频流数据或者该人脸纸张摇头视频流数据的分数;
利用各所述分数确定分数阈值;
基于所述分数阈值训练所述预设识别模型;
所述根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测,包括:
在与各人脸图像帧对应的所述人脸关键点坐标确定出位于预定人脸摇头程度范围内的人脸摇头程度所对应的人脸关键点坐标,作为第二目标人脸关键点坐标;
根据所述第二目标人脸关键点坐标和所述人眼视线偏移矢量确定待进行活体检测的人脸摇头视频流数据所对应的分数;
若所述分数达到所述分数阈值,确定通过当前阶段的活体检测,否则,确定未通过当前阶段的活体检测。
正常人脸摇头视频流数据的分数一般大于人脸纸张摇头视频流数据的分数。
在一个实施例中,所述利用各所述分数确定分数阈值,包括:
根据各正常人脸摇头视频流数据对应的分数,确定分数阈值,以使得且仅使得所述正常人脸摇头视频流数据对应的分数中预定比例的分数达到所述分数阈值;
所述基于所述分数阈值训练所述预设识别模型,包括:
在各正常人脸摇头视频流数据对应的分数中,确定小于所述分数阈值的人脸纸张摇头视频流数据的分数的数目与所有人脸纸张摇头视频流数据的分数的比值;
根据所述比值训练所述预设识别模型。
该比值衡量了所有人脸纸张摇头视频流数据中能被正确识别为人脸纸张摇头视频流数据的比例,即正确拒绝率,因此,可以通过训练使该比例提高。
当然,也可以通过其他方式利用各所述分数确定分数阈值,比如可以将从小到大排名在前预定比例的分数的最小值作为分数阈值,也可以确定一个分数阈值,使得人脸纸张摇头视频流数据对应的分数中预定比例的分数未达到分数阈值。
具体来说,假如总共有100个分数,预定比例在99%,那么会将从大到小排名在99的分数作为分数阈值。
人脸摇头程度以角度为单位,能够用来衡量摇头角度的大小,人脸关键点坐标的变化影响着人脸摇头程度的大小,因此,可以根据人脸关键点坐标序列确定对应的人脸摇头程度序列,根据人脸关键点坐标序列确定对应的人脸摇头程度序列可以利用各种算法或模型实现。预定人脸摇头程度范围比如可以是15度。
每一所述正常人脸区域图片或者所述人脸纸张区域图片都对应一个人脸摇头程度。正常人脸摇头视频流数据中所有正常人脸区域图片对应的人脸摇头程度组成了人脸摇头程度序列。类似地,人脸纸张摇头视频流数据中所有人脸纸张区域图片对应的人脸摇头程度也能组成人脸摇头程度序列。
由于正常人脸摇头视频流数据和人脸纸张摇头视频流数据均是在时序上的一组人脸图像帧,正常人脸摇头视频流数据所对应的正常人脸区域图片以及人脸纸张摇头视频流数据所对应的人脸纸张区域图片都是以图片序列的方式存在,同理,正常人脸摇头视频流数据和人脸纸张摇头视频流数据所对应的人脸关键点坐标也可以以序列的方式存在。
综上所述,根据图2实施例提供的人脸活体检测方法,通过利用结合了人眼视线偏移矢量输出层的人脸关键点检测模型计算出人脸区域图片所对应的人眼视线偏移矢量,并利用人眼视线偏移矢量进行人脸活体检测。因此,在活体检测过程中,可以识别出利用包含人脸的纸张或头模进行摇晃的欺诈手段,从而提高了活体检测的准确率,降低了安全风险。
本申请还提供了一种人脸活体检测装置,以下是本申请的装置实施例。
图5是根据一示例性实施例示出的一种人脸活体检测装置的框图。如图5所示,该装置500包括:
输入模块510,被配置为将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;
判断模块520,被配置为根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
根据本申请的第三方面,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630。其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“实施例方法”部分中描述的根据本发明各种示例性实施方式的步骤。存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)621和/或高速缓存存储单元622,还可以进一步包括只读存储单元(ROM)623。存储单元620还可以包括具有一组(至少一个)程序模块625的程序/实用工具624,这样的程序模块625包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。电子设备600也可以与一个或多个外部设备800(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行,比如与显示单元640通信。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
根据本申请的第四方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,当所述计算机可读指令被计算机执行时,使计算机执行本说明书上述的方法。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图7所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品700,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种人脸活体检测方法,其特征在于,所述方法包括:
将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;所述预设识别模型中与所述人眼视线偏移矢量输出层相关的部分利用如下方式训练而成:获取样本数据集中正常人脸摇头视频流数据所对应的正常人脸区域图片以及人脸纸张摇头视频流数据所对应的人脸纸张区域图片,所述样本数据集包括多个正常人脸摇头视频流数据和多个人脸纸张摇头视频流数据;将所述正常人脸区域图片和所述人脸纸张区域图片输入至所述预设识别模型,得到由所述预设识别模型输出的与所述正常人脸区域图片和所述人脸纸张区域图片分别对应的人脸关键点坐标和人眼视线偏移矢量;分别利用所述正常人脸摇头视频流数据所对应的人脸关键点坐标序列以及所述人脸纸张摇头视频流数据所对应的人脸关键点坐标序列确定所述正常人脸摇头视频流数据和所述人脸纸张摇头视频流数据所对应的人脸摇头程度序列;针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,确定位于预定人脸摇头程度范围内的人脸摇头程度所对应的人脸关键点坐标,作为第一目标人脸关键点坐标;针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,在第一目标人脸关键点坐标对应的人眼视线偏移矢量中确定最大的人眼视线偏移矢量与最小的人眼视线偏移矢量的差值,作为该正常人脸摇头视频流数据或者该人脸纸张摇头视频流数据的分数;利用各所述分数确定分数阈值;基于所述分数阈值训练所述预设识别模型;
根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
2.根据权利要求1所述的方法,其特征在于,在将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量之前,所述方法还包括:
对待进行活体检测的人脸摇头视频流数据进行解帧,得到所述人脸摇头视频流数据所对应的人脸图像帧;
将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标;
根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片。
3.根据权利要求2所述的方法,其特征在于,所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
在人脸图像帧中确定所述人脸检测框坐标所对应的第一人脸检测框区域;
按照预定扩框比例对所述第一人脸检测框区域进行扩框操作,得到第二人脸检测框区域;
基于所述第二人脸检测框区域所限定的范围提取人脸区域图片。
4.根据权利要求1所述的方法,其特征在于,在根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测之后,所述方法还包括:
在通过当前阶段的活体检测的情况下,获取所述人脸摇头视频流数据之后的人脸视频流数据;
对所述人脸视频流数据进行静默活体检测。
5.根据权利要求2所述的方法,其特征在于,所述将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标,包括:
将每一所述人脸图像帧输入至预设人脸检测模型,得到每一所述人脸图像帧对应的人脸检测框坐标;
所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
根据各所述人脸检测框坐标在每一所述人脸图像帧中提取人脸区域图片。
6.根据权利要求2所述的方法,其特征在于,所述将所述人脸图像帧输入至预设人脸检测模型,得到所述人脸图像帧对应的人脸检测框坐标,包括:
将至少一个所述人脸图像帧输入至预设人脸检测模型,得到至少一个所述人脸图像帧分别对应的第一人脸检测框坐标;
所述根据所述人脸检测框坐标在人脸图像帧中提取人脸区域图片,包括:
根据各所述第一人脸检测框坐标在所述第一人脸检测框坐标所对应的人脸图像帧中提取对应的第一人脸区域图片;
将各所述第一人脸区域图片输入至所述预设识别模型,得到各所述第一人脸区域图片对应的人脸关键点坐标和人眼视线偏移矢量;
确定各所述第一人脸区域图片对应的人脸关键点坐标所对应的人脸外接矩形;
根据所述人脸外接矩形和预设估计算法确定所述至少一个所述人脸图像帧之后的至少一个人脸图像帧对应的第二人脸检测框坐标;
根据确定出的所述第二人脸检测框坐标在所述第二人脸检测框坐标所对应的人脸图像帧中提取对应的第二人脸区域图片。
7.根据权利要求1-6任意一项所述的方法,其特征在于,所述根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测,包括:
在与各人脸图像帧对应的所述人脸关键点坐标确定出位于预定人脸摇头程度范围内的人脸摇头程度所对应的人脸关键点坐标,作为第二目标人脸关键点坐标;
根据所述第二目标人脸关键点坐标和所述人眼视线偏移矢量确定待进行活体检测的人脸摇头视频流数据所对应的分数;
若所述分数达到所述分数阈值,确定通过当前阶段的活体检测,否则,确定未通过当前阶段的活体检测。
8.一种人脸活体检测装置,其特征在于,所述装置包括:
输入模块,被配置为将待进行活体检测的人脸摇头视频流数据所对应的人脸区域图片输入至预设识别模型,得到由所述预设识别模型输出的人脸关键点坐标和人眼视线偏移矢量,其中,所述预设识别模型为结合了人眼视线偏移矢量输出层的人脸关键点检测模型,所述人脸关键点检测模型包括卷积层,所述人眼视线偏移矢量输出层与所述人脸关键点检测模型中卷积层的最后一层相连,所述人脸关键点坐标和所述人眼视线偏移矢量分别与所述人脸摇头视频流数据所包括的各人脸图像帧相对应,所述人眼视线偏移矢量用于衡量人脸摇头过程中人眼视线的偏移程度;所述预设识别模型中与所述人眼视线偏移矢量输出层相关的部分利用如下方式训练而成:获取样本数据集中正常人脸摇头视频流数据所对应的正常人脸区域图片以及人脸纸张摇头视频流数据所对应的人脸纸张区域图片,所述样本数据集包括多个正常人脸摇头视频流数据和多个人脸纸张摇头视频流数据;将所述正常人脸区域图片和所述人脸纸张区域图片输入至所述预设识别模型,得到由所述预设识别模型输出的与所述正常人脸区域图片和所述人脸纸张区域图片分别对应的人脸关键点坐标和人眼视线偏移矢量;分别利用所述正常人脸摇头视频流数据所对应的人脸关键点坐标序列以及所述人脸纸张摇头视频流数据所对应的人脸关键点坐标序列确定所述正常人脸摇头视频流数据和所述人脸纸张摇头视频流数据所对应的人脸摇头程度序列;针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,确定位于预定人脸摇头程度范围内的人脸摇头程度所对应的人脸关键点坐标,作为第一目标人脸关键点坐标;针对每一所述正常人脸摇头视频流数据和每一所述人脸纸张摇头视频流数据,在第一目标人脸关键点坐标对应的人眼视线偏移矢量中确定最大的人眼视线偏移矢量与最小的人眼视线偏移矢量的差值,作为该正常人脸摇头视频流数据或者该人脸纸张摇头视频流数据的分数;利用各所述分数确定分数阈值;基于所述分数阈值训练所述预设识别模型;
判断模块,被配置为根据与各人脸图像帧对应的所述人脸关键点坐标和所述人眼视线偏移矢量确定所述人脸摇头视频流数据是否通过当前阶段的活体检测。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可读指令,当所述计算机可读指令被计算机执行时,使计算机执行根据权利要求1至7中任一项所述的方法。
10.一种电子设备,其特征在于,所述电子设备包括:
处理器;
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如权利要求1至7任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011086784.6A CN112149615B (zh) | 2020-10-12 | 2020-10-12 | 人脸活体检测方法、装置、介质及电子设备 |
PCT/CN2020/135548 WO2021179719A1 (zh) | 2020-10-12 | 2020-12-11 | 人脸活体检测方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011086784.6A CN112149615B (zh) | 2020-10-12 | 2020-10-12 | 人脸活体检测方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112149615A CN112149615A (zh) | 2020-12-29 |
CN112149615B true CN112149615B (zh) | 2024-06-28 |
Family
ID=73953002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011086784.6A Active CN112149615B (zh) | 2020-10-12 | 2020-10-12 | 人脸活体检测方法、装置、介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112149615B (zh) |
WO (1) | WO2021179719A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112668553B (zh) * | 2021-01-18 | 2022-05-13 | 东莞先知大数据有限公司 | 一种司机间断瞭望行为检测方法、装置、介质及设备 |
CN113642428B (zh) * | 2021-07-29 | 2022-09-27 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN114140355A (zh) * | 2021-11-29 | 2022-03-04 | 北京比特易湃信息技术有限公司 | 基于最优化算法的检测框去抖动方法 |
CN115802101A (zh) * | 2022-11-25 | 2023-03-14 | 深圳创维-Rgb电子有限公司 | 一种短视频生成方法、装置、电子设备及存储介质 |
CN116110111B (zh) * | 2023-03-23 | 2023-09-08 | 平安银行股份有限公司 | 人脸识别方法、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875524A (zh) * | 2018-01-02 | 2018-11-23 | 北京旷视科技有限公司 | 视线估计方法、装置、系统和存储介质 |
CN109522798A (zh) * | 2018-10-16 | 2019-03-26 | 平安科技(深圳)有限公司 | 基于活体识别的视频防伪方法、系统、装置及可存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4976156B2 (ja) * | 2007-02-08 | 2012-07-18 | 富山県 | 画像識別方法 |
CN105512632B (zh) * | 2015-12-09 | 2019-04-05 | 北京旷视科技有限公司 | 活体检测方法及装置 |
CA3045819C (en) * | 2018-06-11 | 2022-09-06 | Laurence Hamid | Liveness detection |
CN109886087B (zh) * | 2019-01-04 | 2023-10-20 | 平安科技(深圳)有限公司 | 一种基于神经网络的活体检测方法及终端设备 |
CN109977771A (zh) * | 2019-02-22 | 2019-07-05 | 杭州飞步科技有限公司 | 司机身份的验证方法、装置、设备及计算机可读存储介质 |
CN111160251B (zh) * | 2019-12-30 | 2023-05-02 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法及装置 |
CN111401127A (zh) * | 2020-01-16 | 2020-07-10 | 创意信息技术股份有限公司 | 一种人脸活体检测联合判断方法 |
CN111539249A (zh) * | 2020-03-11 | 2020-08-14 | 西安电子科技大学 | 多因子人脸活体检测系统和方法 |
-
2020
- 2020-10-12 CN CN202011086784.6A patent/CN112149615B/zh active Active
- 2020-12-11 WO PCT/CN2020/135548 patent/WO2021179719A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875524A (zh) * | 2018-01-02 | 2018-11-23 | 北京旷视科技有限公司 | 视线估计方法、装置、系统和存储介质 |
CN109522798A (zh) * | 2018-10-16 | 2019-03-26 | 平安科技(深圳)有限公司 | 基于活体识别的视频防伪方法、系统、装置及可存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112149615A (zh) | 2020-12-29 |
WO2021179719A1 (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112149615B (zh) | 人脸活体检测方法、装置、介质及电子设备 | |
CN109726624B (zh) | 身份认证方法、终端设备和计算机可读存储介质 | |
CN109214343B (zh) | 用于生成人脸关键点检测模型的方法和装置 | |
CN109359548B (zh) | 多人脸识别监控方法及装置、电子设备及存储介质 | |
US11238272B2 (en) | Method and apparatus for detecting face image | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
CN110599421B (zh) | 模型训练方法、视频模糊帧转换方法、设备及存储介质 | |
CN109993150B (zh) | 用于识别年龄的方法和装置 | |
CN111754541A (zh) | 目标跟踪方法、装置、设备及可读存储介质 | |
US9514364B2 (en) | Efficient forest sensing based eye tracking | |
CN110660102B (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
US20210295016A1 (en) | Living body recognition detection method, medium and electronic device | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
EP3647993A1 (en) | Interactive user verification | |
WO2020238321A1 (zh) | 用于识别年龄的方法和装置 | |
CN110059624B (zh) | 用于检测活体的方法和装置 | |
CN111783674A (zh) | 一种基于ar眼镜的人脸识别方法和系统 | |
CN113705550B (zh) | 一种训练方法、视线检测方法、装置和电子设备 | |
CN113723306B (zh) | 俯卧撑检测方法、设备以及计算机可读介质 | |
CN112633496B (zh) | 一种检测模型的处理方法及装置 | |
CN116959123A (zh) | 一种人脸活体检测方法、装置、设备及存储介质 | |
CN110942033B (zh) | 用于推送信息的方法、装置、电子设备和计算机介质 | |
CN112070022A (zh) | 人脸图像识别方法、装置、电子设备和计算机可读介质 | |
CN110378172B (zh) | 信息生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |