CN107358152B - 一种活体识别方法和系统 - Google Patents
一种活体识别方法和系统 Download PDFInfo
- Publication number
- CN107358152B CN107358152B CN201710406488.1A CN201710406488A CN107358152B CN 107358152 B CN107358152 B CN 107358152B CN 201710406488 A CN201710406488 A CN 201710406488A CN 107358152 B CN107358152 B CN 107358152B
- Authority
- CN
- China
- Prior art keywords
- motion
- living body
- face
- score
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000033001 locomotion Effects 0.000 claims abstract description 436
- 238000001514 detection method Methods 0.000 claims abstract description 60
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 210000003128 head Anatomy 0.000 claims description 89
- 210000004709 eyebrow Anatomy 0.000 claims description 38
- 230000004424 eye movement Effects 0.000 claims description 36
- 210000001061 forehead Anatomy 0.000 claims description 28
- 230000004886 head movement Effects 0.000 claims description 21
- 210000001508 eye Anatomy 0.000 description 112
- 238000013145 classification model Methods 0.000 description 18
- 210000005252 bulbus oculi Anatomy 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000004397 blinking Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 239000011324 bead Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004399 eye closure Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种活体识别方法,包括步骤:检测待测人脸的至少两部位运动的情况;基于每一所述部位运动的情况获取所述待测人脸的每一部位运动对应的运动分值;计算每一所述部位运动对应的运动分值加权后的总和,并将计算得到的所述总和作为活体识别分值;其中,每一所述部位运动已预设相应的权值;判定所述活体识别分值不小于预设阈值的所述待测人脸为活体。相应地,本发明还公开了一种活体识别系统,包括至少2个部位运动检测单元、部位运动分值获取单元、活体识别分值计算单元和活体判断单元。本发明对设备硬件要求低,且能保证有效的活体识别,可扩展行强,安全性高,不易被攻击。
Description
技术领域
本发明涉及人脸识别领域,尤其涉及一种活体识别方法和系统。
背景技术
随着人脸识别技术的发展,越来越多的场景需要用到人脸检测去快速的识别一个人的身份。但是有不法份子会利用图片或者视频代替真人去进行人脸识别,这样整个人脸识别系统的安全性就得不到保证。而人脸活体检测可以检测出当前进行人脸识别的人是活体人脸而非照片或者视频中的人脸,从而保证了人脸识别系统的安全性。
下述为现有的几种活体识别技术方案及其不足:
方案一,利用红外摄像头得到人脸温度从而进行人脸活体检测。该类方案的弊端在于对硬件要求较高。
方案二,只进行一种三维人脸姿态的检测从而判断是否活体。该类方案算法单一,安全性不高。
发明内容
本发明实施例的目的是提供一种活体识别方法和系统,对设备硬件要求低且安全性高。
为实现上述目的,本发明实施例提供了一种活体识别方法,所述活体识别方法包括步骤:
检测待测人脸的至少两部位运动的情况;
基于每一所述部位运动的情况获取所述待测人脸的每一部位运动对应的运动分值;计算每一所述部位运动对应的运动分值加权后的总和,并将计算得到的所述总和作为活体识别分值;其中,每一所述部位运动已预设相应的权值;
判定所述活体识别分值不小于预设阈值的所述待测人脸为活体。
与现有技术相比,本发明实施例公开的一种活体识别方法通过获取所述待测人脸上的至少两个部位的运动分值,并对部位运动分值进行加权后求和作为活体识别分值,利用活体识别分值作为所述待测人脸是否为活体的判断标准的技术方案;采用检测至少两种部位运动解决了现有技术中算法单一,安全性不高的问题,可扩展性强,且基于人脸部位运动的检测可以通过二维图像实现,对硬件要求不高,另外,采用对不同部位运动加权再进行分数融合,活体识别准确度高,本活体识别方法准确率高、硬件要求低和安全性高。
进一步地,所述至少两部位运动包括眼部运动、嘴部运动、头部运动、眉毛运动、额头运动和面部运动中的至少两部位运动。
作为进一步方案,对应检测的所述部位运动可以为人脸部位上的多个部位中的几种,使得在进行活体检测时,可选择性广,很大程度上能够抵制恶意攻击,大大增加了安全性。
进一步地,所述检测待测人脸的至少两部位运动的情况包括步骤:
对所述待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测所述部位运动对应的部位关键点位置;
通过所述抽取的每一视频帧的部位关键点位置的变化程度来确定所述部位运动的情况。
作为进一步方案,通过检测抽取的每一视频帧检测所述部位运动对应的部位关键点位置的变化程度来确定所述部位运动的运动情况,该检测方法只需通过二维图像即可实现,且算法简单,对设备的要求不高,识别效率高。
进一步地,每一所述部位运动相对应的权值为根据所述每一部位运动的明显度设定;或,每一所述部位运动相对应的权值为根据在当前应用场景下每一所述部位运动的准确率设定。
进一步地,确定所述活体识别分值不小于预设阈值包括步骤:
通过所述活体识别分值占活体识别总分的比值计算所述待测人脸的活体识别置信度;
当所述活体识别置信度不小于预设值时,确定所述活体识别分值不小于预设阈值。
作为进一步方案,所述活体识别分值可以归一化为活体置信度,从而进行活体判断,该活体置信度还可以用于活体分级,与现有技术相比,识别结果更丰富。
相应地,本发明实施例还提供一种活体识别系统,用于识别待测人脸是否为活体,所述活体识别系统包括:
至少两部位运动检测单元,每一所述部位运动检测单元用于检测待测人脸对应的部位运动,并获取对应的运动分值;
活体识别分值计算单元,用于计算每一所述部位运动对应的运动分值加权后的总和,并将计算得到的所述总和作为活体识别分值;其中,所述活体识别分值计算单元已预设与每一所述部位运动相对应的权值;
活体判断单元,用于判定所述活体识别分值不小于预设阈值的所述待测人脸为活体。
与现有技术相比,本发明实施例公开的一种活体识别系统通过至少两部位运动检测单元获取所述待测人脸上的至少两个部位的运动分值,通过活体识别分值计算单元对部位运动分值进行加权后求和作为活体识别分值,通过活体判断单元利用活体识别分值作为所述待测人脸是否为活体的判断标准的技术方案;采用检测至少两种部位运动解决了现有技术中算法单一,安全性不高的问题,可扩展性强,且基于人脸部位运动的检测可以通过二维图像实现,对硬件要求不高,另外,采用对不同部位运动加权再进行分数融合,活体识别准确度高,获得了活体识别准确率高、硬件要求低和安全性高的有益效果。
进一步地,至少2个所述部位运动检测单元中对应检测的至少两所述部位运动包括眼部运动、嘴部运动、头部运动、眉毛运动、额头运动和面部运动中的至少两部位运动。
进一步地,每一所述部位运动检测单元包括:
部位检测模块,用于对所述待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测所述部位运动对应的部位关键点位置;
部位运动情况获取模块,用于通过所述抽取的每一视频帧的部位关键点位置的变化程度来确定所述部位运动的情况,并根据所述部位运动的情况获取对应的运动分值。
进一步地,所述活体识别分值计算单元中与每一所述部位运动相对应的权值为根据所述每一部位运动的明显度设定;或,所述活体识别分值计算单元中与每一所述部位运动相对应的权值为根据在当前应用场景下每一所述部位运动的准确率设定。
进一步地,所述活体判断单元包括:
活体识别置信度计算模块,用于通过所述活体识别分值占活体识别总分的比值计算所述待测人脸的活体识别置信度;
活体判断模块,用于当所述活体识别置信度不小于预设值时,确定所述活体识别分值不小于预设阈值,判定所述活体识别分值不小于预设阈值的所述待测人脸为活体。
附图说明
图1是本发明一种活体识别方法提供的实施例一的流程示意图;
图2是本发明一种活体识别方法提供的实施例一的步骤S1的流程示意图;
图3是待测人脸的68点模型示意图;
图4是本发明一种活体识别方法提供的实施例一的步骤S3的流程示意图;
图5是本发明一种活体识别系统提供的实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一种活体识别方法提供实施例一,参见图1,图1是本发明一种活体识别方法提供的实施例一的流程示意图,包括步骤:
S1、检测待测人脸的至少两部位运动;
S2、基于每一所述部位运动的情况获取所述待测人脸的每一部位运动对应的运动分值;
S3、计算每一部位运动对应的运动分值加权后的总和,并将计算得到的总和作为活体识别分值;其中,每一部位运动已预设相应的权值;
S4、判定活体识别分值不小于预设阈值的待测人脸为活体。
优选,本实施例步骤S1中的检测待测人脸的至少两部位运动包括检测眼部运动、嘴部运动和头部运动;通常来说,人脸的眼部运动、嘴部运动和头部运动运动程度明显,有利于进行检测,且计算简单高效。
具体地,参见图2,图2是本实施例一的步骤S1的流程示意图,步骤S1包括:
S11、对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测部位运动对应的部位关键点位置;
参见图3,图3是待测人脸的68点模型;具体,对待测人脸的人脸视频的抽取的连续帧/跳帧采用dlib库做待测人脸的人脸检测和人脸关键点检测,此处的dlib库是一个使用C++技术编写的跨平台的通用库;可以得到抽取的每一视频帧的68点关键点;从获取的待测人脸的68点关键点中可以获取所需的部位运动对应的部位关键点位置。
S12、通过抽取的每一视频帧的部位关键点位置的变化程度来确定部位运动的情况。
本实施例一的步骤S3中设定每一部位运动相对应的权值的优选实施方式为根据每一部位运动的明显度设定。本实施例一采用通常的策略,嘴部运动比较明显,故权重最大,头部运动模拟精度最低,故权重最小,本实施例一的部位运动的权重策略为:嘴部运动>眼部运动>头部运动;
或,步骤S3中设定每一部位运动相对应的权值的另一优选实施方式为根据不同应用场景自动进行部位运动的权值调整而设定的,具体做法:在某一种场景下,收集待测人脸的各种部位运动的正常输入视频作为正样本,攻击视频作为负样本,取(正样本通过数+负样本拒绝数)/(正样本总数+负样本总数)作为该部位运动的准确率,然后把每一部位运动的准确率按照从大到小的顺序进行排序,每一部位运动的权重也按照此顺序从大到小,重新调整每一部位运动的权重。重新调整后的权重用以计算活体识别分值,该识别结果可以自适应不同场景下的部位运动检测的准确率,增加本实施例的活体识别结果的准确率。
上述两种设定每一部位运动相对应的权值的任一种优选实施方式均在本实施例的保护范围内。
具体地,参见图4,图4是步骤S4的流程示意图,包括步骤:
S41、通过活体识别分值占活体识别总分的比值计算待测人脸的活体识别置信度;
S42、当活体识别置信度不小于预设值时,确定活体识别分值不小于预设阈值;
S43、判定活体识别分值不小于预设阈值的待测人脸为活体。
具体地,在步骤S41中,活体识别总分即为本实施例对待测人脸进行识别后能获得的最大值,待测人脸的活体识别置信度通过下述公式计算:
f=(s/s_max)*100%
其中,s_max表示活体识别总分,f表示活体识别置信度,且0<f<1;
用e表示预设值,当f≥e,即活体识别置信度不小于预设值时,则确定活体识别分值不小于预设阈值,判定活体识别分值不小于预设阈值的待测人脸为活体;当f<e,即活体识别置信度小于预设值时,则确定活体识别分值小于预设阈值,判定活体识别分值小于预设阈值的待测人脸为非活体。
利用活体识别分值所获得的活体识别置信度,还可以进一步扩展,用于本实施例建立分级制度进行活体判断和活体分级,以获得丰富的活体识别结果。
详细地,结合图3,在步骤S12中从获取部位关键点位置的变化程度来确定部位运动的情况的具体过程:
其中,对嘴部运动的检测过程:用得到的人脸68点模型中的61-68这8个关键点表示待测人脸的嘴部。定义这8个关键点中的x坐标的最大值减去x坐标的最小值即为嘴部长度,定义这8个关键点中的y坐标的最大值减去y坐标的最小值即为嘴部宽度。用嘴部长度除以嘴部宽度代表嘴部数值,设定阈值a1和a2,其中,a1<a2;当嘴部数值小于a1时,表示嘴部张开,当嘴部数值大于a2时,表示嘴部闭合。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的嘴部运动的运动情况为嘴部张开,并且有另外的部分帧确定的嘴部运动的情况为嘴部闭合,则判定嘴部有运动。
其中,对眼部运动的检测过程:用得到的人脸68点模型中的37-48这12个关键点表示待测人脸的眼部;其中,37-42这6个关键点表示右眼,43-48这6个关键点表示左眼。定义表示右眼的6个关键点中的x坐标的最大值减去x坐标的最小值即为右眼长度,右眼6个关键点的y坐标的最大值减去y坐标的最小值即为右眼宽度;用右眼长度除以右眼宽度代表右眼数值,同理可得左眼数值;优选地,定义左眼数值与右眼数值的平均数为眼部数值,设定阈值b1和b2,其中,b1<b2,当眼部数值小于b1时,表示眼部睁开,当眼部数值大于b2时,表示眼部闭合。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的眼部运动的情况为眼部睁开,并且有另外的部分帧确定的眼部运动的情况为眼部闭合,则判定眼部有运动。
在本实施例中,除了采用定义左眼数值与右眼数值的平均数为眼部数值,来通过眼部数值来判定运动情况的优选实施方式,还可以采用直接通过右眼数值和/或左眼数值来判定对应的右眼运动和/或左眼运动,即,将眼部运动变为左眼-右眼,右眼-左眼,仅左眼和仅右眼这4个流程,这样眼部运动流程增多,则整个活体的可变化性更强,这样更能增加活体检测的安全性。
其中,对头部运动的检测过程:用得到的人脸68点模型中的表示左眼的6个关键点、表示右眼的6个关键点和关键点34,49和55来检测人脸的头部运动;其中,定义表示左眼的6个关键点的x坐标的平均值为A点的x坐标,表示左眼的6个关键点的y坐标的平均值为A点的y坐标,同理定义右眼B点,定义人脸68点模型中关键点34,49和55分别为C点,D点和E点,上述得到的A至E点为表示人脸特征点五点模型。然后应用开源图像库中opencv中的小孔相机模型根据上述的人脸特征点五点模型得到人脸在三维空间中的角度值--偏航角yaw数值和俯仰角pitch数值。头部运动的运动情况为4种:头部左转,头部右转,头部抬头,头部低头。设定阈值c1和c2,其中,c1<c2;当yaw<c1时,表示头部左转,当yaw>c2时,表示头部右转。设定阈值d1和d2,其中,d1<d2;当pitch<d1时,表示头部低头,当pitch>d2时,表示头部抬头。当yaw数值在c1和c2之间,并且d1<pitch<d2时,表示头部正面朝前。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的头部运动的情况为抬头,并且有另外的部分帧确定的头部运动的情况为正常头部朝前,则待测人脸的头部有抬头动作,即判定头部有运动;以此类推,可以通过检测待测人脸的头部有低头动作、左转头动作和右转头动作,来判定头部有运动。
对应地,步骤S2根据上述部位运动检测过程所确定的部位运动的情况,获取对应的运动分值,具体包括:
嘴部运动的情况获取对应的运动分值包括:嘴部有运动,获取的嘴部运动的运动分值为1分;嘴部无运动,获取的嘴部运动的运动分值为0分。
眼部运动的情况获取对应的运动分值包括:
判定眼部有运动,获取的眼部运动的运动分值为1分;判定眼部无运动,获取的眼部运动的运动分值为0分。
头部运动的情况获取对应的运动分值包括:若待测人脸的头部有抬头动作、低头动作、左转头动作和右转头动作中任意一种头部动作,即判定头部有运动,获取的头部运动的运动分值为1分,若待测人脸的头部没有抬头动作、低头动作、左转头动作和右转头动作中任意一种头部动作,即头部无运动,获取的头部运动的运动分值为0分。
具体实施时,先对待测人脸的人脸视频每个预设帧数所抽取的每一视频帧获取人脸的68点关键点,由此分别获取待检测的眼部运动、嘴部运动和头部运动对应的眼部关键点位置、嘴部关键点位置和头部关键点位置,从而确定视频帧的眼部、嘴部和头部的状态;然后从若干抽取的视频帧中的眼部、嘴部和头部的状态分别确定眼部运动、嘴部运动和头部运动的情况;根据每一部位运动的情况获取对应的运动分值,具体为该部位有运动,则获取的运动分值为1分,否则获取的运动分值为0分;接着计算上述得到每一部位运动分值进行加权后的总和,该总和表示活体识别分值;最后用该活体识别分值占活体识别总分的比值计算活体识别置信度,其中,当活体识别置信度不小于预设值时,确定活体识别分值不小于预设阈值,从而判定待测人脸为活体;否则,判定待测人脸为非活体。
本实施例可运用于多种设备端,此处以运用于移动手机端的实施场景为例进行说明:在手机端活体识别时,随机出现一种活体动作要求顺序,例如为要求待测人脸分别进行头部左转、眨眼和张嘴的活体动作;此时若预设的部位运动的权重为张嘴对应的嘴部运动的权重w1=3,眨眼对应的眼部运动的权重w2=2,头部左转对应的头部运动的权重w3=1;计算活体识别总分,即活体识别最高分s_max为3*1+2*1+1*1=6分。假设检测出张嘴得分为1分,眨眼得分为1分,头部左转得分为0分,活体识别分值s为每一部位运动加权后的总和,代入上述部位运动的运动分值,计算活体识别分值s=3*1+2*1+1*0=5分;最后,计算活体识别置信度f=s/s_max=5/6=83.33%。若设定此时设定值e为80%,则判定该待测人脸为活体,且活体置信度为83.33%。
本实施例解决了现有技术中算法单一,安全性不高的问题,可扩展性强;对于待测人脸的部位运动的检测可以通过二维图像实现,对设备的硬件要求不高;另外,在本实施例中采用对眼部运动、嘴部运动和头部运动的检测来进行活体识别,这几个部位的运动效果明显,运动判断的准确度高;采用对不同部位运动加权再进行分数融合,活体识别准确度高;多种部位运动的检测,有利于提高安全性。
本发明一种活体识别方法提供的实施例二,本实施例二的主要流程可参见图1的实施一的步骤S1~S4,本实施例二的步骤S4包括的步骤流程可参见图4中实施例一的步骤S41~S43流程示意图,以及步骤S3中的运动权重的设定也可以参见实施例一;此处不做赘述。
本实施例二的步骤S1包括的步骤流程可参见图2实施例一,同样包括步骤S11~S12:
S11、对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测部位运动对应的部位关键点位置;
参见图3,图3是待测人脸的68点模型;具体,对待测人脸的人脸视频的抽取的连续帧/跳帧采用dlib库做待测人脸的人脸检测和人脸关键点检测,此处的dlib库是一个使用C++技术编写的跨平台的通用库;可以得到抽取的每一视频帧的68点关键点;从获取的待测人脸的68点关键点中可以获取所需的部位运动对应的部位关键点位置。
S12、通过抽取的每一视频帧的部位关键点位置的变化程度来确定部位运动的情况。
其中,不同的是,在本实施例二中,结合图3,本实施例的步骤S12中从获取部位关键点位置的变化程度来确定部位运动的情况的具体实施过程为:
其中,对嘴部运动的检测过程:用得到的人脸68点模型中的61-68这8个关键点位置表示待测人脸的嘴部,用已预先通过SVM分类器训练好的嘴部状态分类模型预测待测人脸的人脸视频的每一帧的嘴部状态,其中,通过SVM分类器训练好的嘴部状态分类模型的预先训练过程为:以人脸68点模型中的61-68这8个关键点位置表示待测人脸的嘴部特征,人工选择一定数量嘴部为张嘴状态的人脸照片,标注这些人脸照片的嘴部状态为1;人工选择一定数量的嘴部为闭合状态的人脸照片,标注这些人脸照片嘴部状态为0,然后用SVM分类器训练为嘴部状态分类模型。若抽取的若干视频帧的嘴部状态既有0也有1,则判定嘴部有运动,否则判定嘴部无运动。
另一实施方式,用得到的人脸68点模型中的61-68这8个关键点位置表示待测人脸的嘴部,用已预先通过soft-max回归分类器训练好的嘴部状态分类模型预测待测人脸的人脸视频的每一帧的嘴部状态分数,其中,通过soft-max回归分类器训练好的嘴部状态分类模型的预先训练过程为:根据嘴部张开的不同程度对若干人脸照片进行标注,即按照嘴部的张开程度给嘴部标注状态分数:可以设定分数分为10级,取值在0到1之间;则,嘴部闭合为0分,最大张嘴为1分,半张开嘴部为0.5分。根据已预先通过soft-max回归分类器训练好的嘴部状态分类模型可以获取待测人脸的人脸视频抽取的若干视频帧中嘴部状态分数;当嘴部状态分数中的最大值与最小值之间的差值大于预设阈值时则认为嘴部有运动,否则嘴部无运动。
其中,对眼部运动的检测过程:用得到的人脸68点模型中的37-48这12个关键点表示待测人脸的眼部;其中,37-42这6个关键点表示右眼,43-48这6个关键点表示左眼。用已预先通过SVM分类器训练好的眼部状态分类模型预测待测人脸的人脸视频的每一帧的眼部状态,其中,通过SVM分类器训练好的眼部状态分类模型的预先训练过程为:以人脸68点模型中的37-48这12个关键点位置表示待测人脸的眼部特征,人工选择一定数量眼部为睁眼状态的人脸照片,标注这些人脸照片的眼部状态为1;人工选择一定数量的眼部为眼部闭合状态的人脸照片,标注这些人脸照片的眼部状态为0,然后用SVM分类器训练为眼部状态分类模型。若抽取的若干视频帧的眼部状态既有0也有1,则判定眼部有运动,否则判定眼部无运动。
另一实施方式,用得到的人脸68点模型中的37-48这12个关键点位置表示待测人脸的眼部,用已预先通过soft-max回归分类器训练好的眼部状态分类模型预测待测人脸的人脸视频的每一帧的眼部状态分数,其中,通过soft-max回归分类器训练好的眼部状态分类模型的预先训练过程为:根据眼部张开的不同程度对若干的人脸照片进行标注,即按照眼部的张开程度给眼部标注状态分数:可以设定分数分为10级,取值在0到1之间;则,眼部闭合为0分,最大睁眼为1分,半睁眼为0.5分。根据已预先通过soft-max回归分类器训练好的眼部状态分类模型可以获取待测人脸的人脸视频抽取的若干视频帧中眼部状态分数;当眼部状态分数中的最大值与最小值之间的差值大于预设阈值时则认为眼部有运动,否则眼部无运动。
在本实施例二中,除了采用定义左眼数值与右眼数值的平均数为眼部数值,来通过眼部数值来判定运动情况的优选实施方式,还可以采用直接通过右眼数值和/或左眼数值来判定对应的右眼运动和/或左眼运动,即,将眼部运动变为左眼-右眼,右眼-左眼,仅左眼和仅右眼这4个流程,这样眼部运动流程增多,则整个活体的可变化性更强,这样更能增加活体检测的安全性。
其中,头部运动的运动情况为4种:头部左转,头部右转,头部抬头和头部低头,此处以头部抬头为例,说明对头部运动的检测过程:用已预先通过SVM分类器训练好的头部状态分类模型预测待测人脸的人脸视频的每一帧的头部状态,其中,通过SVM分类器训练好的头部状态分类模型的预先训练过程为:以人脸68点模型中的表示左眼的6个关键点、表示右眼的6个关键点和关键点34,49和55这15个关键点位置表示待测人脸的头部特征;人工选择一定数量头部为抬头状态的人脸照片,标注这些人脸照片的头部状态为1;人工选择一定数量的头部为正常朝前状态的人脸照片,标注这些人脸照片的头部状态为0;然后用SVM分类器训练为头部状态分类模型。若抽取的若干视频帧的头部状态既有0也有1,则判定头部有运动,否则判定头部无运动。
另一实施方式,用得到的人脸68点模型中的表示左眼的6个关键点、表示右眼的6个关键点和关键点34,49和55这15个关键点位置表示待测人脸的头部,用已预先通过soft-max回归分类器训练好的头部状态分类模型预测待测人脸的人脸视频的每一帧的头部状态分数,其中,通过soft-max回归分类器训练好的头部状态分类模型的预先训练过程为:根据头部抬头的不同程度对若干的人脸照片进行标注,即按照头部的抬头程度给头部标注状态分数:可以设定分数分为10级,取值在0到1之间;则,头部正常朝前为0分,最大程度抬头为1分,半抬头为0.5分。根据已预先通过soft-max回归分类器训练好的头部状态分类模型可以获取待测人脸的人脸视频抽取的若干视频帧中头部状态分数;当头部状态分数中的最大值与最小值之间的差值大于预设阈值时则认为头部有运动,否则头部无运动。
类似地,对头部左转,头部右转和头部低头其他三种头部运动的检测过程与上述以头部抬头为例的头部运动检测过程相似,此处不做赘述。
对应地,步骤S2根据上述部位运动检测过程所确定的部位运动情况,获取对应的运动分值,具体包括:
嘴部运动的运动情况获取对应的运动分值:判定嘴部有运动,获取的嘴部运动的运动分值为1分;判定嘴部无运动,获取的嘴部运动的运动分值为0分。
眼部运动的运动情况获取对应的运动分值:判定眼部有运动,获取的眼部运动的运动分值为1分;判定眼部无运动,获取的眼部运动的运动分值为0分。
头部运动的运动情况获取对应的运动分值:判定头部有运动,获取的头部运动的运动分值为1分,若判定头部无运动,获取的头部运动的运动分值为0分。
在本实施例中还可以通过步骤S1获取每一部位运动的运动程度,则对应在步骤S2中基于运动程度获取一个在0到1之间的运动分值,而不只是得1或者0这两个运动分值,该替代实施方式不仅能表示是否有运动,还能体现运动的程度。
具体实施时,先对待测人脸的人脸视频每个预设帧数所抽取的每一视频帧获取人脸的68点关键点,由此分别获取待检测对应的眼部关键点位置、嘴部关键点位置和头部关键点位置,从而确定视频帧的眼部、嘴部和头部的状态;然后从若干抽取的视频帧中的眼部、嘴部和头部的状态分别确定眼部运动、嘴部运动和头部运动的情况;根据每一部位运动的情况获取对应的运动分值;接着计算上述得到每一部位运动分值进行加权后的总和,该总和表示活体识别分值;最后用该活体识别分值占活体识别总分的比值计算活体识别置信度,其中,当活体识别置信度不小于预设值时,确定活体识别分值不小于预设阈值,从而判定待测人脸为活体;否则,判定待测人脸为非活体。
本实施例二可运用于多种设备端,此处以运用于移动手机端的实施场景为例进行说明:在手机端活体识别时,随机出现一种活体动作要求顺序,例如为要求待测人脸分别进行头部左转、眨眼和张嘴的活体动作;此时若预设的部位运动的权重为张嘴对应的嘴部运动的权重w1=3,眨眼对应的眼部运动的权重w2=2,头部左转对应的头部运动的权重w3=1;计算活体识别总分,即活体识别最高分s_max为3*1+2*1+1*1=6分。假设检测出张嘴得分为1分,眨眼得分为1分,头部左转得分为0分,活体识别分值s为每一部位运动加权后的总和,代入上述部位运动的运动分值,计算活体识别分值s=3*1+2*1+1*0=5分;最后,计算活体识别置信度f=s/s_max=5/6=83.33%。若设定此时设定值e为80%,则判定该待测人脸为活体,且活体置信度为83.33%。
本实施例二解决了现有技术中算法单一,安全性不高的问题,可扩展性强;对于待测人脸的部位运动的检测可以通过二维图像实现,对设备的硬件要求不高;另外,在本实施例中采用对眼部运动、嘴部运动和头部运动的检测来进行活体识别,这几个部位的运动效果明显,运动判断的准确度高;采用对不同部位运动加权再进行分数融合,活体识别准确度高;多种部位运动的检测,有利于提高安全性。
本发明一种活体识别方法提供的实施例三,本实施例三的主要流程可参见图1的实施一的步骤S1~S4,本实施例二的步骤S4包括的步骤流程可参见图4中实施例一的步骤S41~S43流程示意图,上述部分可参照上述实施例一,此处不做赘述。
通常来说,人脸的眼部运动、嘴部运动和头部运动运动程度明显,有利于进行检测,且计算简单高效;在本实施三,步骤S1中的检测待测人脸的部位运动除了包括检测眼部运动、嘴部运动和头部运动;同时,本实施例三的步骤S1中的检测待测人脸的部位运动还包括了面部运动、眉毛运动和额头运动这三种部位运动中的至少一种。
对于步骤S1中检测待测人脸的至少两部位运动包括对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测部位运动对应的部位关键点位置;参见图3,图3是待测人脸的68点模型;具体,对待测人脸的人脸视频的抽取的连续帧/跳帧采用dlib库做待测人脸的人脸检测和人脸关键点检测,可以得到抽取的每一视频帧的68点关键点;从获取的待测人脸的68点关键点中可以获取所需的部位运动对应的部位关键点位置。除此之外,步骤S1还包括对每一视频帧的待测人脸的人脸检测,从而获取人脸矩形框,可参见图3的人脸矩形框HIJK。
本实施例三中,步骤S3中设定每一部位运动相对应的权值的优选实施方式为根据每一部位运动的明显度设定。本实施例三采用通常的策略,部位运动权重策略为:嘴部运动>眼部运动>头部运动;面部运动、眉毛运动、额头运动的至少一种部位运动设定的权重均小于上述嘴部运动、眼部运动和头部运动的权重值。
或,步骤S3中设定每一部位运动相对应的权值的另一优选实施方式为根据不同应用场景自动进行部位运动的权值调整而设定的,具体做法:在某一种场景下,收集待测人脸的各种部位运动的正常输入视频作为正样本,攻击视频作为负样本,取(正样本通过数+负样本拒绝数)/(正样本总数+负样本总数)作为该部位运动的准确率,然后把每一部位运动的准确率按照从大到小的顺序进行排序,每一部位运动的权重也按照此顺序从大到小,重新调整每一部位运动的权重。重新调整后的权重用以计算活体识别分值,该识别结果可以自适应不同场景下的部位运动检测的准确率,增加本实施例的活体识别结果的准确率。
上述两种设定每一部位运动相对应的权值的任一种优选实施方式均在本实施例的保护范围内。
在步骤S1检测待测人脸的嘴部运动、眼部运动和头部运动的情况,以及步骤S2获取待测人脸的每一部位运动对应的运动分值可以参照本发明一种活体识别方法的实施例一和实施例二中的检测待测人脸的嘴部运动、眼部运动和头部运动以及获取待测人脸的每一部位运动对应的运动分值的具体过程,此处不做赘述。除了上述实施方式外,本实施例三对嘴部运动和眼部运动的运动检测还可以采用其它替代的实施方式:
其中,对嘴部运动的检测过程的替代实施方式:对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测待测人脸的嘴部位置,并计算嘴部位置的灰度平均值;然后判断嘴部位置的灰度平均值是否小于预设嘴部灰度值判断阈值,若是,嘴部为闭合状态;若否,嘴部为张开状态。该替代实施方式利用嘴部张开露出牙齿,牙齿主要偏白色,则灰度值比较大,则嘴部张开的平均灰度值较大,嘴部闭合时平均灰度值较小的原理,通过计算嘴部的平均灰度值来识别嘴部状态,进而判断嘴部运动的情况。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的嘴部运动的运动情况为嘴部张开,并且有另外的部分帧确定的嘴部运动的运动情况为嘴部闭合,则判定嘴部有运动。
对应地,该替代实施方式获取对应的嘴部运动的运动分值包括:判定嘴部有运动,获取的嘴部运动的运动分值为1分;否则判定嘴部无运动,获取的嘴部运动的运动分值为0分。
其中,对眼部运动的检测过程的另一替代实施方式:嘴部运动的运动情况除了嘴部张开和闭合外,还可以包括嘴角移动的嘴部运动情况,如人脸微笑时,两个嘴角会向脸颊两侧外扩。用得到的人脸68点模型中的关键点55表示左嘴角点,关键点49表示右嘴角点,根据待测人脸的人脸视频的第一帧的左右嘴角点为基准,计算后面抽取的若干视频帧的左嘴角点移动的距离和右嘴角点移动的距离,然后判断左嘴角点移动的距离和右嘴角点移动的距离是否同时大于预设阈值,若是,则判定嘴部运动的状态为微笑,若否,则判定嘴部运动的状态为正常状态。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的嘴部运动的运动情况为微笑状态,并且有另外的部分帧确定的嘴部运动的运动情况为正常状态,则判定嘴部有运动。
其中,对眼部运动的检测过程的一替代实施方式:识别对象为亚洲人进行说明:亚洲人一般眼部的眼珠颜色为黑色,眼皮颜色为黄色;对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测待测人脸的眼部位置,通过眼部位置确定眼珠位置;并计算眼珠位置的灰度平均值;然后判断眼珠位置的灰度平均值是否小于预设眼珠灰度值判断阈值,若是,眼部为睁开状态;若否,眼部为闭合状态。该替代实施方式利用检测眼部的眼珠位置在眼部睁眼闭眼的所检测的平均灰度值不同进行识别。一般亚洲人睁眼时眼部的眼珠位置的平均灰度值会比较小,眼睛闭合时,眼部的眼珠位置的平均灰度值灰度平均值会大。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的眼部运动的运动情况为眼部睁开,并且有另外的部分帧确定的眼部运动的运动情况为眼部闭合,则判定眼部有运动。
对应地,该替代实施方式获取对应的眼部运动的运动情况获取对应的运动分值包括:判定眼部有运动,获取的眼部运动的运动分值为1分;判定眼部无运动,获取的眼部运动的运动分值为0分。
其中,对眼部运动的检测过程的另一替代实施方式:对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测待测人脸的眼部的眼珠中心位置,并计算眼珠的中心位置在眼部中的相对位置;然后判断眼珠位置的中心位置在眼部中的相对位置与眼珠位置的中心位置在眼部中的正常相对位置的距离是否大于预设值,若是,眼珠位置不在正常位置,若否,眼珠位置在正常位置。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定的眼部运动的情况为眼珠位置不在正常位置,并且有另外的部分帧确定的眼部运动的情况为眼珠位置在正常位置,则待测人脸的眼部的运动情况为眼珠发生转动,即判定眼部有运动;否则判定眼部无运动。
本实施例三的步骤S1中的检测待测人脸的部位运动还包括检测面部运动、眉毛运动和额头运动的至少一种,检测待测人脸的面部运动、眉毛运动和额头运动的过程包括:
其中,对面部运动的检测过程:确定待测人脸的眼部、嘴部和人脸区域;并计算眼部面积和嘴部面积之和与人脸区域面积的比值;然后判断该比值是否在预设范围值内,若是,表示人脸状态为正常状态,若否,表示人脸状态为鬼脸状态。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定面部的状态为鬼脸状态,并且有另外的部分帧确定面部的状态为正常状态,则判定面部有运动,此处的面部运动包括鬼脸动作。本实施例定义鬼脸状态为人脸的眼部面积和嘴巴面积之和与人脸区域面积的比值超过预设范围值;否则为正常状态;当检测到人脸既有鬼脸状态也有正常状态,即可判定人脸有鬼脸动作,即面部有运动。示例计算眼部面积、嘴部面积和人脸区域面积:通过眼部长度乘以眼部宽度获取眼部面积,通过嘴部长度乘以嘴部宽度获取嘴部面积,通过人脸矩形框HIJK的面积获取人脸区域面积。
对应地,获取面部运动获得运动分值包括:面部有运动获取的面部运动的运动分值为1分;否则判定面部无运动,获取的面部运动的运动分值为0分。
其中,对眉毛运动的检测过程:用得到的人脸68点模型中的18-22这5个关键点表示右眉毛点,23-27这5个关键点表示左眉毛点;用数值拟合的方法拟合每一眉毛的曲线,并分别计算右眉毛的关键点20的曲率作为右眉毛特征值和计算左眉毛的关键点25的曲率作为左眉毛特征值,右眉毛特征值和左眉毛特征值的平均值为眉毛特征值;然后判断眉毛特征值是否大于预设阈值,若是,表示眉毛的情况为抖眉,若否,表示眉毛的情况为正常。在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧确定眉毛的状态为抖眉,并且有另外的部分帧确定眉毛的状态为正常,则判定眉毛有运动,否则判定眉毛无运动。
对应地,获取眉毛运动获得运动分值包括:判定眉毛有运动,获取的眉毛运动的运动分值为1分;判定眉毛无运动,获取的眉毛运动的运动分值为0分。
其中,对额头运动的检测过程:用得到的人脸68点模型确定额头位置,其中,确定额头然后用sobel算子计算额头区域的sobel值,取额头区域sobel值的方差作为额头皱纹值。此处的sobel值为以当前像素中心所包含的与卷积核大小相同的区域像素与竖直方向的卷积做卷积运算的结果值;在待测人脸的人脸视频的抽取的每一视频帧中,若有部分帧的额头皱纹值大于第一预设阈值,并且有另外的部分帧的额头皱纹值小于第二预设阈值时,则判定额头有运动;否则判定额头无运动。其中,示例确定额头区域位置:通常额头区域指的是人脸中眉毛以上的区域,基于此定义可以先获取的眉毛关键点位置,然后根据人脸矩形框与眉毛关键点位置来确定额头区域,如图3的矩形框HOPK所示。
对应地,获取额头运动获得运动分值包括:判定额头有运动,获取的额头运动的运动分值为1分;判定额头无运动,获取的额头运动的运动分值为0分。
在本实施例三中除上述根据每一部位运动的是否有运动的情况而直接获得一个是否有运动的运动分值的实施方式,还可以根据每一部位运动的运动程度而获取一个在0到1之间的运动分值,而不只是得1或者0这两个运动分值,该替代实施方式不仅能表示是否有运动,还能体现运动的程度。该替换实施式所实现的本实施例三也在本发明的保护范围内。
具体实施时,先对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧进行检测,获取人脸关键点,由此分别获取每一部位运动的关键点位置,由此对应部位的特征情况,根据若干视频帧的部位的特征情况判断每一部位运动的运动情况,并获取对应的运动分值;接着计算上述得到每一部位运动分值进行加权后的总和,该总和表示活体识别分值;最后用该活体识别分值占活体识别总分的比值来计算活体识别置信度,其中,当活体识别置信度不小于预设值时,确定活体识别分值不小于预设阈值,从而判定待测人脸为活体;否则,判定待测人脸为非活体。
本实施例三解决了现有技术中算法单一,安全性不高的问题,可扩展性强;对于待测人脸的部位运动的检测可以通过二维图像实现,对设备的硬件要求不高;另外,在本实施例三中采用对眼部运动、嘴部运动和头部运动的检测来进行活体识别,这几个部位的运动效果明显,运动判断的准确度高;同时扩展了面部运动、眉毛运动和额头运动这几个部位运动的检测,提高了识别结果的准确性;采用对不同部位运动加权再进行分数融合,活体识别准确度高;多种部位运动的检测,有利于提高安全性。
本发明一种活体识别系统提供的实施例,参见图5,图5为本实施例的结构示意图,本实施例包括:
至少2个部位运动检测单元1,每一部位运动检测单元1用于检测待测人脸对应的部位运动的情况,图5中,部位运动检测单元1a和部位运动检测单元1b表示检测两不同部位运动的两部位运动检测单元1。
部位运动分值单元2,用于基于每一部位运动的情况获取待测人脸的每一部位运动对应的运动分值;
活体识别分值计算单元3,用于计算所获取的每一部位运动对应的运动分值加权后的总和,并将计算得到的总和作为活体识别分值;其中,活体识别分值计算单元3已预设与每一部位运动相对应的权值。
活体判断单元4,用于判定活体识别分值不小于预设阈值的待测人脸为活体。
其中,至少2个部位运动检测单元1对应检测的至少两部位运动包括眼部运动、嘴部运动、头部运动、眉毛运动、额头运动和面部运动中的至少两部位运动。
优选的,每一部位运动检测单元1包括:
部位检测模块11,用于对待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测部位运动对应的部位关键点位置;
部位运动情况获取模块12,用于通过抽取的每一视频帧的部位关键点位置的变化程度来确定部位运动的情况。
活体识别分值计算单元3中与每一部位运动相对应的权值为根据每一部位运动的明显度设定;或,活体识别分值计算单元3中与每一部位运动相对应的权值为根据在当前应用场景下每一部位运动的准确率设定。
活体判断单元4包括:
活体识别置信度计算模块41,用于通过活体识别分值占活体识别总分的比值计算待测人脸的活体识别置信度;
活体判断模块42,用于当活体识别置信度不小于预设值时,确定活体识别分值不小于预设阈值,判定活体识别分值不小于预设阈值的待测人脸为活体。
具体实施时,首先,通过每一部位运动检测单元1的部位检测模块11检测所抽取的每一视频帧中对应部位的关键点位置,并通过运动分值获取模块12确定部位运动的运动情况,然后通过部位运动分值单元2基于部位运动的情况获取部位运动的运动分值;然后,通过活体识别分值计算单元3对获取的每一部位运动的运动分值进行加权后求和作为活体识别分值,最后,通过活体判断单元4的活体识别置信度计算模块41利用活体识别分值占活体识别总分的壁纸计算待测人脸的活体识别置信度,并通过活体判断模块42判定当计算所得的活体识别置信度不小于预设阈值的待测人脸为活体。
本实施例采用检测至少2个部位运动检测单元解决了现有技术中算法单一,安全性不高的问题,可扩展性强,且基于人脸的部位运动的检测可以通过二维图像实现,对硬件要求不高,另外,通过活体识别分值计算单元对不同部位运动加权再进行分数融合,活体识别准确度高,获得了活体识别准确率高、硬件要求低和安全性高的有益效果。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (6)
1.一种活体识别方法,其特征在于,所述活体识别方法包括步骤:
检测待测人脸的至少两部位运动的情况;
基于每一所述部位运动的情况获取所述待测人脸的每一部位运动对应的运动分值;其中,每一所述部位运动的不同运动程度预设有对应的所述运动分值;
计算每一所述部位运动对应的运动分值加权后的总和,并将计算得到的所述总和作为活体识别分值;其中,每一所述部位运动已预设相应的权值;每一所述部位运动相对应的权值为根据所述每一部位运动的明显度设定;或,每一所述部位运动相对应的权值为根据在当前应用场景下每一所述部位运动的准确率设定;
判定所述活体识别分值不小于预设阈值的所述待测人脸为活体;
其中,确定所述活体识别分值不小于预设阈值包括步骤:
通过所述活体识别分值占活体识别总分的比值计算所述待测人脸的活体识别置信度;
当所述活体识别置信度不小于预设值时,确定所述活体识别分值不小于预设阈值。
2.如权利要求1所述的一种活体识别方法,其特征在于,所述至少两部位运动包括眼部运动、嘴部运动、头部运动、眉毛运动、额头运动和面部运动中的至少两部位运动。
3.如权利要求1所述的一种活体识别方法,其特征在于,所述检测待测人脸的至少两部位运动的情况包括步骤:
对所述待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测所述部位运动对应的部位关键点位置;
通过所述抽取的每一视频帧的部位关键点位置的变化程度来确定所述部位运动的情况。
4.一种活体识别系统,其特征在于,所述活体识别系统包括:
至少2个部位运动检测单元,每一所述部位运动检测单元用于检测待测人脸对应的部位运动的情况;
部位运动分值获取单元,用于基于每一所述部位运动的情况获取所述待测人脸的每一部位运动对应的运动分值;其中,每一所述部位运动的不同运动程度预设有对应的所述运动分值;
活体识别分值计算单元,用于计算每一所述部位运动对应的运动分值加权后的总和,并将计算得到的所述总和作为活体识别分值;其中,所述活体识别分值计算单元已预设与每一所述部位运动相对应的权值;所述活体识别分值计算单元中与每一所述部位运动相对应的权值为根据所述每一部位运动的明显度设定;或,所述活体识别分值计算单元中与每一所述部位运动相对应的权值为根据在当前应用场景下每一所述部位运动的准确率设定;
活体判断单元,用于判定所述活体识别分值不小于预设阈值的所述待测人脸为活体;
其中,所述活体判断单元包括:
活体识别置信度计算模块,用于通过所述活体识别分值占活体识别总分的比值计算所述待测人脸的活体识别置信度;
活体判断模块,用于当所述活体识别置信度不小于预设值时,确定所述活体识别分值不小于预设阈值,判定所述活体识别分值不小于预设阈值的所述待测人脸为活体。
5.如权利要求4所述的一种活体识别系统,其特征在于,至少2个所述部位运动检测单元中对应检测的至少两所述部位运动包括眼部运动、嘴部运动、头部运动、眉毛运动、额头运动和面部运动中的至少两部位运动。
6.如权利要求4所述的一种活体识别系统,其特征在于,每一所述部位运动检测单元包括:
部位检测模块,用于对所述待测人脸的人脸视频每隔预设帧数所抽取的每一视频帧检测所述部位运动对应的部位关键点位置;
部位运动情况获取模块,用于通过所述抽取的每一视频帧的部位关键点位置的变化程度来确定所述部位运动的情况。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710406488.1A CN107358152B (zh) | 2017-06-02 | 2017-06-02 | 一种活体识别方法和系统 |
PCT/CN2017/104612 WO2018218839A1 (zh) | 2017-06-02 | 2017-09-29 | 一种活体识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710406488.1A CN107358152B (zh) | 2017-06-02 | 2017-06-02 | 一种活体识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107358152A CN107358152A (zh) | 2017-11-17 |
CN107358152B true CN107358152B (zh) | 2020-09-08 |
Family
ID=60272209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710406488.1A Active CN107358152B (zh) | 2017-06-02 | 2017-06-02 | 一种活体识别方法和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107358152B (zh) |
WO (1) | WO2018218839A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740429A (zh) * | 2017-11-30 | 2019-05-10 | 沈阳工业大学 | 基于嘴角坐标平均值变化的笑脸识别方法 |
CN107977640A (zh) * | 2017-12-12 | 2018-05-01 | 成都电科海立科技有限公司 | 一种基于车载人脸识别图像采集装置的采集方法 |
CN108446690B (zh) * | 2018-05-31 | 2021-09-14 | 北京工业大学 | 一种基于多视角动态特征的人脸活体检测方法 |
CN109582139A (zh) * | 2018-11-21 | 2019-04-05 | 广东智媒云图科技股份有限公司 | 一种机器交互启动触发方法及系统 |
CN109784302B (zh) * | 2019-01-28 | 2023-08-15 | 深圳信合元科技有限公司 | 一种人脸活体检测方法及人脸识别设备 |
CN111523344B (zh) * | 2019-02-01 | 2023-06-23 | 上海看看智能科技有限公司 | 人体活体检测系统及方法 |
CN110321849B (zh) * | 2019-07-05 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
TWI734454B (zh) * | 2020-04-28 | 2021-07-21 | 鴻海精密工業股份有限公司 | 身份辨識裝置以及身份辨識方法 |
CN111860455B (zh) * | 2020-08-04 | 2023-08-18 | 中国银行股份有限公司 | 基于html5页面的活体检测方法及装置 |
CN113221771B (zh) * | 2021-05-18 | 2023-08-04 | 北京百度网讯科技有限公司 | 活体人脸识别方法、装置、设备、存储介质及程序产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105740688A (zh) * | 2016-02-01 | 2016-07-06 | 腾讯科技(深圳)有限公司 | 解锁的方法和装置 |
CN105989264A (zh) * | 2015-02-02 | 2016-10-05 | 北京中科奥森数据科技有限公司 | 生物特征活体检测方法及系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100514353C (zh) * | 2007-11-26 | 2009-07-15 | 清华大学 | 一种基于人脸生理性运动的活体检测方法及系统 |
CN103440479B (zh) * | 2013-08-29 | 2016-12-28 | 湖北微模式科技发展有限公司 | 一种活体人脸检测方法与系统 |
CN104951730B (zh) * | 2014-03-26 | 2018-08-31 | 联想(北京)有限公司 | 一种唇动检测方法、装置及电子设备 |
CN104794464B (zh) * | 2015-05-13 | 2019-06-07 | 上海依图网络科技有限公司 | 一种基于相对属性的活体检测方法 |
CN105224921B (zh) * | 2015-09-17 | 2018-08-07 | 桂林远望智能通信科技有限公司 | 一种人脸图像择优系统和处理方法 |
CN105426815A (zh) * | 2015-10-29 | 2016-03-23 | 北京汉王智远科技有限公司 | 活体检测方法及装置 |
CN105335719A (zh) * | 2015-10-29 | 2016-02-17 | 北京汉王智远科技有限公司 | 活体检测方法及装置 |
CN105243376A (zh) * | 2015-11-06 | 2016-01-13 | 北京汉王智远科技有限公司 | 一种活体检测方法和装置 |
CN105243378B (zh) * | 2015-11-13 | 2019-03-01 | 清华大学 | 基于眼部信息的活体人脸检测方法及装置 |
-
2017
- 2017-06-02 CN CN201710406488.1A patent/CN107358152B/zh active Active
- 2017-09-29 WO PCT/CN2017/104612 patent/WO2018218839A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989264A (zh) * | 2015-02-02 | 2016-10-05 | 北京中科奥森数据科技有限公司 | 生物特征活体检测方法及系统 |
CN105740688A (zh) * | 2016-02-01 | 2016-07-06 | 腾讯科技(深圳)有限公司 | 解锁的方法和装置 |
Non-Patent Citations (1)
Title |
---|
Face Recognition with Liveness Detection using Eye and Mouth Movement;Avinash Kumar Singh 等;《IEEE》;20141231;第592-597页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018218839A1 (zh) | 2018-12-06 |
CN107358152A (zh) | 2017-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358152B (zh) | 一种活体识别方法和系统 | |
CN107346422B (zh) | 一种基于眨眼检测的活体人脸识别方法 | |
CN107330370B (zh) | 一种额头皱纹动作检测方法和装置及活体识别方法和系统 | |
CN110223322B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN107330914B (zh) | 人脸部位运动检测方法和装置及活体识别方法和系统 | |
Wang et al. | Blink detection using Adaboost and contour circle for fatigue recognition | |
CN108182409B (zh) | 活体检测方法、装置、设备及存储介质 | |
US11715231B2 (en) | Head pose estimation from local eye region | |
CN109840565A (zh) | 一种基于眼部轮廓特征点纵横比的眨眼检测方法 | |
CN108596087B (zh) | 一种基于双网络结果的驾驶疲劳程度检测回归模型 | |
CN102004905B (zh) | 人脸认证方法及装置 | |
CN105095885B (zh) | 一种人眼状态的检测方法和检测装置 | |
Mohammed | Efficient eye blink detection method for disabled-helping domain | |
CN105447432A (zh) | 一种基于局部运动模式的人脸防伪方法 | |
CN108108651B (zh) | 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统 | |
CN103218615B (zh) | 人脸判定方法 | |
Rezaei et al. | 3D cascade of classifiers for open and closed eye detection in driver distraction monitoring | |
CN109543629B (zh) | 一种眨眼识别方法、装置、设备及可读存储介质 | |
CN107392089A (zh) | 一种眉毛运动检测方法和装置及活体识别方法和系统 | |
CN103544478A (zh) | 一种全方位人脸检测的方法及系统 | |
Maralappanavar et al. | Driver's distraction detection based on gaze estimation | |
CN109299641B (zh) | 一种列车调度员疲劳监测图像自适应处理算法 | |
CN111241922A (zh) | 一种机器人及其控制方法、计算机可读存储介质 | |
CN111860394A (zh) | 一种基于姿态估计和动作检测的动作活体识别方法 | |
CN107358151A (zh) | 一种眼部运动检测方法和装置及活体识别方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |