CN113971841A - 一种活体检测方法、装置、计算机设备及存储介质 - Google Patents

一种活体检测方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN113971841A
CN113971841A CN202111265552.1A CN202111265552A CN113971841A CN 113971841 A CN113971841 A CN 113971841A CN 202111265552 A CN202111265552 A CN 202111265552A CN 113971841 A CN113971841 A CN 113971841A
Authority
CN
China
Prior art keywords
detected
detection
images
threshold
mouth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111265552.1A
Other languages
English (en)
Inventor
胡宇轩
于志鹏
石华峰
吴一超
梁鼎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202111265552.1A priority Critical patent/CN113971841A/zh
Publication of CN113971841A publication Critical patent/CN113971841A/zh
Priority to PCT/CN2022/096444 priority patent/WO2023071190A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本公开提供了一种活体检测方法、装置、计算机设备及存储介质,其中,该方法包括:响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。

Description

一种活体检测方法、装置、计算机设备及存储介质
技术领域
本公开涉及人脸识别技术领域,具体而言,涉及一种活体检测方法、装置、计算机设备及存储介质。
背景技术
目前,活体检测技术被广泛应用中各种智能设备中,以检测当前进行人脸识别的“用户”是否为真实用户。
相关技术中,在进行活体检测时,需要通过图像采集设备实时获取用户的人脸图像,然后检测实时获取的人脸图像中,是否有满足预设条件的人脸图像,比如张嘴的人脸图像,若有,则可以确定活体检测通过。但是,在进行活体检测的过程中,非法登录者可以通过伪造人脸图像来欺骗图像采集设备,使得基于人脸识别的身份验证的安全性较低。
发明内容
本公开实施例至少提供一种活体检测方法、装置、计算机设备及存储介质。
第一方面,本公开实施例提供了一种活体检测方法,包括:
响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
这样,通过响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;这样,通过确定与所述目标动作对应的检测值,可以对各帧待检测图像中目标动作的完成情况进行量化,从而便于后续对检测值进行检测及量化分析;基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,这样,通过对多帧待检测图像的检测值进行检测,可以减少单帧图像对于检测结果的影响,使得活体检测的准确率更高。
一种可能的实施方式中,所述基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,包括:
基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果。
这样,通过针对目标动作设置对应的检测阈值,可以使得设置的检测阈值更符合目标动作的实际情况;通过检测阈值对多帧待检测图像的检测值进行整合,可以使得在确定活体检测结果时的准确率更高。
一种可能的实施方式中,在所述目标动作为点头或摇头的情况下,所述检测值包括头部偏移角度;所述检测阈值包括正向偏移阈值、负向偏移阈值、图像帧数阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
确定头部偏移角度大于所述正向偏移阈值的第一目标检测图像,以及小于所述负向偏移阈值的第二目标检测图像;
在所述第一目标检测图像的数量和所述第二目标检测图像的数量超过图像帧数阈值的情况下,确定活体检测通过。
这样,通过设置正向偏移阈值、负向偏移阈值、图像帧数阈值这三个阈值,可以有效的检测用户是否完成了点头或摇头这一目标动作,从而可以有效的提高进行活体检测时的准确率。
一种可能的实施方式中,在所述目标动作为张闭嘴的情况下,与所述目标动作匹配的特征点包括嘴部特征点;
所述基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值,包括:
基于嘴部特征点位置信息,确定表征嘴部中央位置处张开幅度的第一嘴部距离和表征嘴角位置处张开幅度的第二嘴部距离;
基于所述第一嘴部距离和第二嘴部距离,确定所述检测值。
这样,通过针对嘴部特征点进行检测及计算,可以使得确定的检测值能够更好的表征嘴部的状态,且检测过程和计算过程也更节约计算资源。
一种可能的实施方式中,所述检测阈值包括张嘴阈值、闭嘴阈值、张嘴帧数阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
确定检测值为所述闭嘴阈值的多帧第一待检测图像;
确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像;
在检测到所述第二待检测图像满足第一预设条件的情况下,确定通过活体检测。
这样,通过设置张嘴阈值、闭嘴阈值、张嘴帧数阈值这三个阈值,可以有效的检测用户是否完成了张闭嘴这一目标动作,从而可以有效的提高进行活体检测时的准确率。
一种可能的实施方式中,所述第一预设条件包括:
所述第二待检测图像中,对应的检测值为所述张嘴阈值的第三待检测图像的数量为第一预设值;
多个第三待检测图像中,相邻两个第三待检测图像之间的第二待检测图像的数量大于所述张嘴帧数阈值。
这样,通过设置多种第一预设条件,可以更好的模拟出张闭嘴时的真实情况,从而可以有效的提高进行活体检测时的准确率。
一种可能的实施方式中,所述第一预设条件还包括:
相邻两个第三待检测图像之间的第二待检测图像中,任意两个第二待检测图像的检测值之间的差值小于第二预设值。
一种可能的实施方式中,所述确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像,包括:
确定所述多帧第一待检测图像中,满足第二预设条件的两个相邻的第一待检测图像之间的第二待检测图像;
其中,所述第二预设条件包括:
相邻的第一待检测图像之间的待检测图像的数量大于所述张嘴帧数阈值;相邻的第一待检测图像之间的待检测图像的检测值最值满足所述张嘴阈值对应的筛选条件。
这样,通过设置第二预设条件,可以在最终进行判断前先进行一遍筛选,从而使得后续进行更为精确的判断时的速度更快,节约计算资源。
一种可能的实施方式中,在所述目标动作为睁闭眼的情况下,所述基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值,包括:
针对多帧待检测图像中的每帧待检测图像,基于所述待检测图像的特征点位置信息,对所述待检测图像进行矫正处理;
将矫正处理后的所述待检测图像输入至预先训练好的神经网络,确定所述待检测图像对应的检测值。
这样,通过对待检测图像进行矫正处理,可以使得得到的检测值的精确度更高,从而可以有效的提高进行活体检测时的准确率。
一种可能的实施方式中,所述检测值包括用于描述眼部遮挡情况的第一检测值,以及用于描述睁闭眼完成情况的第二检测值;
所述检测阈值包括睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
基于所述睁眼阈值、闭眼阈值、以及所述多帧待检测图像的第二检测值,确定满足第三预设条件的第四待检测图像;
确定对应的第一检测值小于所述眼部遮挡阈值的第四待检测图像的目标数量;
在所述目标数量超过所述睁眼帧数阈值的情况下,确定通过活体检测。
这样,通过设置睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值这四个阈值,可以有效的检测用户是否完成了睁闭眼这一目标动作,从而可以有效的提高进行活体检测时的准确率。
第二方面,本公开实施例还提供一种活体检测装置,包括:
获取模块,用于响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
确定模块,用于基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
检测模块,用于基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果。
一种可能的实施方式中,所述检测模块,在对所述待检测图像的检测值进行整合,并基于整合结果确定活体检测结果时,用于:
基于所述目标动作对应的检测阈值对所述多帧待检测图像的检测值进行整合,并基于整合结果确定活体检测结果。
一种可能的实施方式中,在所述目标动作为点头或摇头的情况下,所述检测值包括头部偏移角度;所述检测阈值包括正向偏移阈值、负向偏移阈值、图像帧数阈值;
所述检测模块,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
确定头部偏移角度大于所述正向偏移阈值的第一目标检测图像,以及小于所述负向偏移阈值的第二目标检测图像;
在所述第一目标检测图像的数量和所述第二目标检测图像的数量超过图像帧数阈值的情况下,确定活体检测通过。
一种可能的实施方式中,在所述目标动作为张闭嘴的情况下,与所述目标动作匹配的特征点包括嘴部特征点;
所述确定模块,在基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值时,用于:
基于嘴部特征点位置信息,确定表征嘴部中央位置处张开幅度的第一嘴部距离和表征嘴角位置处张开幅度的第二嘴部距离;
基于所述第一嘴部距离和第二嘴部距离,确定所述检测值。
一种可能的实施方式中,所述检测阈值包括张嘴阈值、闭嘴阈值、张嘴帧数阈值;
所述检测模块,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
确定检测值为所述闭嘴阈值的多帧第一待检测图像;
确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像;
在检测到所述第二待检测图像满足第一预设条件的情况下,确定通过活体检测。
一种可能的实施方式中,所述第一预设条件包括:
所述第二待检测图像中,对应的检测值为所述张嘴阈值的第三待检测图像的数量为第一预设值;
多个第三待检测图像中,相邻两个第三待检测图像之间的第二待检测图像的数量大于所述张嘴帧数阈值。
一种可能的实施方式中,所述第一预设条件还包括:
相邻两个第三待检测图像之间的第二待检测图像中,任意两个第二待检测图像的检测值之间的差值小于第二预设值。
一种可能的实施方式中,所述检测模块,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
确定所述多帧第一待检测图像中,满足第二预设条件的两个相邻的第一待检测图像之间的第二待检测图像;
其中,所述第二预设条件包括:
相邻的第一待检测图像之间的待检测图像的数量大于所述张嘴帧数阈值;相邻的第一待检测图像之间的待检测图像的检测值最值满足所述张嘴阈值对应的筛选条件。
一种可能的实施方式中,在所述目标动作为睁闭眼的情况下,所述确定模块,在基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值时,用于:
针对多帧待检测图像中的每帧待检测图像,基于所述待检测图像的特征点位置信息,对所述待检测图像进行矫正处理;
将矫正处理后的所述待检测图像输入至预先训练好的神经网络,确定所述待检测图像对应的检测值。
一种可能的实施方式中,所述检测值包括用于描述眼部遮挡情况的第一检测值,以及用于描述睁闭眼完成情况的第二检测值;
所述检测阈值包括睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值;
所述检测模块,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
基于所述睁眼阈值、闭眼阈值、以及所述多帧待检测图像的第二检测值,确定满足第三预设条件的第四待检测图像;
确定对应的第一检测值小于所述眼部遮挡阈值的第四待检测图像的目标数量;
在所述目标数量超过所述睁眼帧数阈值的情况下,确定通过活体检测。
第三方面,本公开实施例还提供一种计算机设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
关于上述活体检测装置、计算机设备及存储介质的效果描述参见上述活体检测方法的说明,这里不再赘述。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种活体检测方法的流程图;
图2示出了本公开实施例所提供的活体检测方法中,确定第一嘴部距离和第二嘴部距离的示意图;
图3示出了本公开实施例所提供的活体检测方法中,一种确定活体检测结果的具体方法的流程图;
图4示出了本公开实施例所提供的活体检测方法中,另一种确定活体检测结果的具体方法的流程图;
图5示出了本公开实施例所提供的活体检测方法中,确定第一待检测图像的示意图;
图6示出了本公开实施例所提供的活体检测方法中,另一种确定活体检测结果的具体方法的流程图;
图7示出了本公开实施例所提供的一种活体检测装置的架构示意图;
图8示出了本公开实施例所提供的一种计算机设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
经研究发现,在进行活体检测时,需要通过图像采集设备实时获取用户的人脸图像,然后检测实时获取的人脸图像中,是否有满足预设条件的人脸图像,比如张嘴的人脸图像,若有,则可以确定活体检测通过。但是,在进行活体检测的过程中,非法登录者可以通过伪造人脸图像来欺骗图像采集设备,使得基于人脸识别的身份验证的安全性较低。
基于上述研究,本公开提供了一种活体检测方法、装置、计算机设备及存储介质,响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;这样,通过确定与所述目标动作对应的检测值,可以对各帧待检测图像中目标动作的完成情况进行量化,从而便于后续对检测值进行检测及量化分析;基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,这样,通过对多帧待检测图像的检测值进行检测,可以减少单帧图像对于检测结果的影响,使得活体检测的准确率更高。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种活体检测方法进行详细介绍,本公开实施例所提供的活体检测方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字助理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该活体检测方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
参见图1所示,为本公开实施例提供的活体检测方法的流程图,所述方法包括步骤S101~S103,其中:
S101:响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作。
S102:基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值。
S103:基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
以下是对上述步骤的详细介绍。
针对S101,所述目标动作可以是点头、摇头、张嘴、闭嘴、睁眼以及闭眼等,其中,在进行活体检测时所使用的目标动作可以是预先设定的,比如完成一次活体检测需要依次完成点头和摇头这两个动作,才能确定活体检测通过;或者,所述目标动作也可以是用户自行选择的,比如用户选择想要执行的目标动作为睁眼和闭眼;又或者,可以根据当前用户的脸部识别结果进行确定的,比如检测到用户正在戴口罩(即嘴部被遮挡,嘴部特征点无法识别),则可以将目标动作确定为睁眼和闭眼,检测到用户正在戴墨镜(即眼部被遮挡,眼部特征点无法识别),则可以将目标动作确定为张嘴和闭嘴。
具体的,在获取与目标动作对应的多帧待检测图像时,可以是在响应活体检测请求后,通过控制终端设备的图像采集装置进行采集,得到与目标动作对应的待检测视频,通过对所述待检测视频进行采样,即可得到所述多帧待检测图像。
S102:基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值。
这里,通过人脸特征点检测算法对所述待检测图像进行检测,即可确定出特征点位置信息。其中,根据目标动作的不同,与所述目标动作匹配的特征点也可以不同,确定的检测值也可以不同。
具体的,根据目标动作的不同,可以分为以下几种情况:
情况1、目标动作为点头或摇头。
在这种情况下,确定的所述用于表示目标动作完成情况的检测值可以是点头(或摇头)角度,相应的,此时与目标动作匹配的特征点即为能够表征点头(或摇头)角度的特征点,根据确定点头(或摇头)角度时的检测算法的不同,所使用的特征点也可以不同。
示例性的,与摇头对应的特征点可以是左眼外眼角、右眼外眼角、鼻尖分别对应的特征点,当人脸正对图像采集装置时,采集得到的人脸图像中从左眼外眼角到鼻尖的水平距离,与从右眼外眼角到鼻尖的水平距离是相近的,当用户向右摇头(即将左侧面部朝向图像采集装置)时,由于左眼外眼角到鼻尖的水平距离的减少速度比右眼外眼角到鼻尖的水平距离的减少速度慢,因此左眼外眼角到鼻尖的水平距离与右眼外眼角到鼻尖的水平距离的比值是逐渐增加的,从而可以进一步的通过该比值确定出用户向右摇头的角度。
情况2、目标动作为张闭嘴。
这里,所述张闭嘴表示张嘴和闭嘴,当用户先张嘴然后再闭嘴时,即可确认用户完成了张闭嘴。
在这种情况下,确定的所述用于表示目标动作完成情况的检测值可以是表示嘴部张开幅度的嘴部状态分数,相应的,此时与目标动作匹配的特征点即为嘴部特征点。
一种可能的实施方式中,在确定所述嘴部状态分数时,可以先基于嘴部特征点位置信息,确定表征嘴部中央位置处张开幅度的第一嘴部距离和表征嘴角位置处张开幅度的第二嘴部距离;基于所述第一嘴部距离和第二嘴部距离,确定所述检测值。
示例性的,确定所述第一嘴部距离和所述第二嘴部距离的示意图可以如图2所示,图2中,在确定所述第一嘴部距离时,可以先确定出位于上嘴唇中央位置处的第一嘴部特征点(如图2中A点所示),以及与所述第一嘴部特征点对应的位于下嘴唇中央位置处的第二嘴部特征点(如图2中B点所示),其中,所述第一嘴部特征点与所述第二嘴部特征点之间的连线与嘴部张开方向相同;基于所述第一嘴部特征点和所述第二嘴部特征点分别对应的位置信息,确定出所述第一嘴部距离。
此外,在确定所述第二嘴部距离时,可以先确定出至少一个嘴角中,位于上嘴唇的第三嘴部特征点(如图2中C点所示),以及位于下嘴唇的第四嘴部特征点(如图2中D点所示),其中,所述第三嘴部特征点与所述第四嘴部特征点之间的连线与嘴部张开方向相同;基于所述第三嘴部特征点和所述第四嘴部特征点分别对应的位置信息,确定出所述第二嘴部距离。
需要说明的是,在确定所述第二嘴部距离时,为了提高确定的所述第二嘴部距离的准确性,可以分别求出各嘴角分别对应的第二嘴部距离,并将两个嘴角分别对应的第二嘴部距离的平均值作为待检测图像对应的第二嘴部距离;另一方面,为了节约计算资源,也可以选取左右嘴角中的任一个嘴角进行计算,并将计算得到的第二嘴部距离作为待检测图像对应的第二嘴部距离,本公开实施例对此不做限定。
具体的,当用户闭嘴时,此时的第一嘴部距离与第二嘴部距离之间相差不大,第二嘴部距离与第一嘴部距离之间的比值可以近似为1;当用户张嘴时,第一嘴部距离的增大幅度是比第二嘴部距离的增大幅度要更大的,此时第二嘴部距离与第一嘴部距离的比值小于1,且随着嘴部张开幅度的增大该比值是逐渐减小的,因此可以使用第二嘴部距离与第一嘴部距离的比值表示嘴部张开幅度的嘴部状态分数。
需要说明的是,在确定第一嘴部距离和第二嘴部距离的过程中,用于确定第一嘴部距离的两个点与用于确定第二嘴部距离的两个点,相较于唇部纵向中线的距离存在差异,这样可以确保嘴部张开时,第一嘴部距离与第二嘴部距离存在明显的差异。在实际应用过程中,用于第一嘴部距离确定和用于第二嘴部距离确定的几个点,可以包括但不限于上述例举的情况。
情况3、目标动作为睁闭眼。
这里,所述睁闭眼表示睁眼和闭眼,当用户先闭眼然后再睁眼时,即可确认用户完成了睁闭眼。
在这种情况下,可以将确定的所述用于表示目标动作完成情况的检测值可以包括表示眼部睁开幅度的眼部状态分数(第二检测值),相应的,此时与目标动作匹配的特征点可以为眼部特征点。此时,确定眼部状态分数的方法可以与情况2中确定嘴部状态分数的方法类似,在此不再赘述。
此外,所述与目标动作匹配的特征点还可以为能够表征脸部偏转幅度角度的特征点,比如情况1中表示脸部转动角度的特征点,在此不再赘述。
在一种可能的实施方式中,在确定所述眼部状态分数时,也可以将所述待检测图像中的眼部图像输入至预先训练好的神经网络中,得到神经网络输出的与待检测图像对应的眼部状态分数。
其中,在训练所述神经网络时,可以将样本图像输入至待训练的神经网络中,得到神经网络输出的样本预测分数;基于所述样本预测分数确定样本对象中眼睛的睁闭情况(睁眼或闭眼);根据确定的所述睁闭情况以及预先标注的表征样本图像眼睛睁闭情况的标注数据,确定本次训练的损失值,并基于所述损失值对神经网络的网络参数进行调整。
实际应用中,为提高神经网络的检测精度,针对多帧待检测图像中的每帧待检测图像,基于所述待检测图像的特征点位置信息,对所述待检测图像进行矫正处理;然后将矫正处理后的所述待检测图像输入至预先训练好的神经网络,确定所述待检测图像对应的检测值。
具体的,由于人脸图像中眼部部分面积较小,且眼部特征点之间的距离也较小,因此受人脸转动的影响较大,为了提高最终得到的所述眼部状态分数的精确度,可以在输入至神经网络之前,使用相应的人脸特征点以及人脸矫正算法,对所述待检测图像进行矫正处理,并将矫正处理后的待检测图像中的眼部图像输入至所述神经网络中,即可得到所述神经网络输出的眼部状态分数。
进一步的,由于眼部容易受到头发等物体的遮挡,因此在所述目标动作为睁闭眼时,所述检测值还可以包括用于描述眼部遮挡情况的眼部遮挡分数(第一检测值),其可以由所述眼部特征点的识别成功数量和眼部标准识别数量进行确定,比如眼部标准识别数量为10个,成功识别数量为8个,则可以确定未被成功识别的眼部特征点为2个,对应的所述眼部遮挡分数为0.2;或者,还可以由所述神经网络输出得到,比如将眼部被遮挡的眼部图像输入至所述神经网络中,即可得到输出的眼部遮挡分数为0.1。
S103:基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
一种可能的实施方式中,在基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果时,可以基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果。
这里,所述检测阈值为针对目标动作设置的阈值,根据目标动作的不同,相应的检测阈值也不同。
具体的,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测时,根据目标动作的不同,可以分为以下几种情况:
情况1、目标动作为点头或摇头。
在这种情况下,所述检测值包括头部偏移角度;所述检测阈值包括正向偏移阈值、负向偏移阈值、图像帧数阈值。
一种可能的实施方式中,如图3所示,可以通过以下步骤确定活体检测结果:
S301:确定头部偏移角度大于所述正向偏移阈值的第一目标检测图像,以及小于所述负向偏移阈值的第二目标检测图像。
示例性的,以头部向右偏移为正向偏移,所述正向偏移阈值为15°,待检测图像1~5分别对应的偏移角度为向右偏移12°、16°、18°、16°、12°为例,可以确定待检测图像2、3、4为所述第一目标检测图像。
承接上例,仍以头部向右偏移为正向偏移,所述负向偏移阈值为负15°,待检测图像6~10分别对应的偏移角度为向右偏移负12°(向右偏移负12°,即为向左偏移12°,后同)、负16°、负18°、负16°、负12°为例,可以确定待检测图像7、8、9为所述第二目标检测图像。
S302:在所述第一目标检测图像的数量和所述第二目标检测图像的数量超过图像帧数阈值的情况下,确定活体检测通过。
这里,在设置所述图像帧数阈值时,可以是针对所述第一目标检测图像的数量和所述第二目标检测图像的数量设置一个相同的阈值(比如3),当检测所述第一目标检测图像的数量和所述第二目标检测图像的数量均大于3时,即可确定活体检测通过;或者还可以是分别针对所述第一目标检测图像和所述第二目标检测图像设置不同的阈值,比如可以针对第一目标检测图像的数量设置图像帧数阈值为3,针对第二目标检测图像的数量设置图像帧数阈值为4。
情况2、目标动作为张闭嘴。
在这种情况下,所述检测阈值包括张嘴阈值、闭嘴阈值、张嘴帧数阈值。
一种可能的实施方式中,如图4所示,还可以通过以下步骤确定活体检测结果:
S401:确定检测值为所述闭嘴阈值的多帧第一待检测图像。
这里,以所述检测值为所述嘴部状态分数为例,得到的多帧待检测图像的嘴部状态分数可以如下表1所示:
表1
帧数 分数 帧数 分数 帧数 分数 帧数 分数
1 0.5 9 0.95 17 0.5 25 0.8
2 0.55 10 0.98 18 0.6 26 0.96
3 0.61 11 0.95 19 0.7
4 0.68 12 0.8 20 0.8
5 0.75 13 0.7 21 0.95
6 0.8 14 0.6 22 0.98
7 0.9 15 0.5 23 0.8
8 0.94 16 0.4 24 0.7
表1中,第1、3、5、7列分别表示待检测图像在待检测视频中的帧数,第2、4、6、8列则分别表示与第1、3、5、7列对应的嘴部状态分数。
示例性的,以所述闭嘴阈值为0.8为例,确定第一待检测图像的示意图可以如图5所示,图5中,确定的检测分数等于闭嘴阈值的多帧第一待检测图像依次为第6帧(图5中O点)、第12帧(图5中A点)、第20帧(图5中C点)、第23帧(图5中D点)、第25帧(图5中F点)。
具体的,确定所述多帧第一待检测图像,即为确定图5(表示待检测图像与嘴部状态分数的对应关系图)中折线与直线Y=0.8(闭嘴阈值)的交点对应的视频帧,若交点对应的横坐标位于两帧之间,则可以将最接近交点的视频帧作为所述第一待检测图像。
S402:确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像。
一种可能的实施方式中,在确定所述第二待检测图像时,可以确定所述多帧第一待检测图像中,满足第二预设条件的两个相邻的第一待检测图像之间的第二待检测图像;
其中,所述第二预设条件包括:相邻的第一待检测图像之间的待检测图像的数量大于所述张嘴帧数阈值;相邻的第一待检测图像之间的待检测图像的检测值最值满足所述张嘴阈值对应的筛选条件。
这里,两个相邻的所述第一待检测图像表示在确定的多帧第一待检测图像中的先后顺序相邻,以由左到右确定第一待检测图像为例,图5中的第一个确定的第一待检测图像O点,和第二个确定的第二待检测图像A点即为相邻的第一待检测图像;所述检测值最值满足所述张嘴阈值对应的筛选条件,可以是所述嘴部状态分数的最小值小于所述张嘴阈值。
承接上例,图5中O~A之间共有5帧待检测图像,A~C之间共有7帧待检测图像,C~D之间共有2帧待检测图像,D~F之间共有1帧待检测图像,若所述张嘴帧数阈值为3帧,则可以确定C~D与D~F不符合所述第二预设条件,若所述张嘴阈值为0.6,由于A~C之间的最小值B对应的嘴部状态分数为0.4,小于所述张嘴阈值0.6,则可以确定A~C之间的7帧待检测图像为所述第二待检测图像。
S403:在检测到所述第二待检测图像满足第一预设条件的情况下,确定通过活体检测。
其中,所述第一预设条件可以是:
条件1、所述第二待检测图像中,对应的检测值为所述张嘴阈值的第三待检测图像的数量为第一预设值。
这里,所述第三待检测图像在判断时的过程与上述第一待检测图像在判断时的过程类似,即为确定图5中第二待检测图像中与直线Y=0.6(张嘴阈值)的交点的横坐标,所述第一预设值可以2,表示正常人在张闭嘴时,张嘴过程中为所述第三待检测图像的数量为1,闭嘴过程中为所述第三待检测图像的数量也为1。
承接上例,A~C中,A~B表示张嘴过程,B~C表示闭嘴过程,张嘴过程和闭嘴过程中分别与直线Y=0.6相交一次,则满足所述条件1。
条件2、多个第三待检测图像中,相邻两个第三待检测图像之间的第二待检测图像的数量大于所述张嘴帧数阈值。
示例性的,以所述张嘴帧数阈值为2帧为例,A~C之间位于相邻两个第三待检测图像之间的第二待检测图像为第15帧、第16帧、第17帧,数量为3帧,大于所述张嘴帧数阈值,则满足所述条件2。
条件3、相邻两个第三待检测图像之间的第二待检测图像中,任意两个第二待检测图像的检测值之间的差值小于第二预设值。
这里,由于用户在进行张闭嘴时,速度是有限的,不可能在极短的时间内完成张嘴和闭嘴的动作,表现在待检测图像中即为相邻两个待检测图像的检测值之间的差值不会超过一个最大值,针对这一特性,可以设置这一判断条件,从而可以提高活体检测的安全性。
承接上例,若所述第二预设值为0.15,由于第15帧和第16帧之间的嘴部状态分数差值为0.1,第16帧和第17帧之间的嘴部状态分数差值也为0.1,均小于所述第二预设值0.15,则满足所述条件3。
需要说明的是,在判断所述第二待检测图像是否满足第一预设条件时,可以通过上述条件中的任意一种或几种。比如需要同时满足条件1和条件2或者同时满足条件1、条件2、条件3,不同的应用场景中也可以采用不同的方案,本公开实施例对此不做限定。
情况3、目标动作为睁闭眼。
在这种情况下,所述检测阈值包括睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值。
实际应用中,由于人的眼睛有两只,导致了同一张待检测图像中会有两个对应的眼部状态分数,以及两个对应的眼部遮挡分数,此时可以选择分别对左眼和右眼分别进行活体检测,或者也可以从左眼和右眼分别对应的眼部状态分数中,确定用于进行活体检测的目标眼部状态分数。
示例性的,以所述眼部状态分数与所述嘴部状态分数相似,为睁眼幅度越大,对应的眼部状态分数越小为例,在确定所述目标眼部状态分数时,针对任一帧待检测图像,可以确定所述待检测图像的双眼分别对应的眼部状态分数中,分数较大的眼部状态分数为该帧图像对应的所述目标眼部状态分数,也即取双眼中睁眼幅度较小的眼睛对应的眼部状态分数进行活体检测。
一种可能的实施方式中,如图6所示,还可以通过以下步骤确定活体检测结果:
S601:基于所述睁眼阈值、闭眼阈值、以及所述多帧待检测图像的第二检测值,确定满足第三预设条件的第四待检测图像。
这里,与上述步骤S401和S402类似,可以先确定所述第二检测值为闭眼阈值的多帧第五待检测图像,然后确定多帧第五待检测图像中,每两个相邻的第五待检测图像之间满足所述第三预设条件的第四待检测图像。
其中,所述第三预设条件可以是以下条件中的至少一项:
条件①、所述第五待检测图像中,对应的检测值为所述睁眼阈值的第第四待检测图像的数量为第三预设值。
条件②、所述多个第五待检测图像中,相邻两个第五待检测图像之间的第四待检测图像的数量大于所述睁眼帧数阈值。
条件③、相邻两个第五待检测图像之间的第四待检测图像中,任意两个第四待检测图像的第二检测值之间的差值小于第四预设值。
上述条件①~条件③的相关描述,参见上述S403中的所述条件1~条件3的详细内容,在此不再赘述。
S602:确定对应的第一检测值小于所述眼部遮挡阈值的第四待检测图像的目标数量。
S603:在所述目标数量超过所述睁眼帧数阈值的情况下,确定通过活体检测。
具体的,在确定所述第四待检测图像的目标数量时,可以是在确定满足所述第三预设值的第四检测值之后进行确定;或者,也可以是在得到所述眼部遮挡分数之后,直接将所述眼部遮挡分数小于所述眼部遮挡阈值的待检测图像进行删除,使得后续进行判断时,不需要对这部分删除的待检测图像进行判断。
一种可能的实施方式中,若在预设时长内未完成活体检测,则可以确定对应的活体检测结果为不通过。
示例性的,以所述预设时长为10秒,目标动作为张闭嘴为例,用户10秒内未完成活体检测可以是用户未执行目标动作(未进行张闭嘴),或者对应的检测值不符合相应的检测阈值,此时可以确定当前的活体检测结果不通过。
进一步的,在确定活体检测结果不通过的情况下,还可以向用户发送提示信息,提示未通过活体检测的原因,比如未检测到人脸、动作不规范等。
本公开实施例提供的活体检测方法,响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;这样,通过确定与所述目标动作对应的检测值,可以对各帧待检测图像中目标动作的完成情况进行量化,从而便于后续对检测值进行检测及量化分析;基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,这样,通过对多帧待检测图像的检测值进行检测,可以减少单帧图像对于检测结果的影响,使得活体检测的准确率更高。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与活体检测方法对应的活体检测装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述活体检测方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图7所示,为本公开实施例提供的一种活体检测装置的架构示意图,所述装置包括:获取模块701、确定模块702、检测模块703;其中,
获取模块701,用于响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
确定模块702,用于基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
检测模块703,用于基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
一种可能的实施方式中,所述检测模块703,在基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果时,用于:
基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果。
一种可能的实施方式中,在所述目标动作为点头或摇头的情况下,所述检测值包括头部偏移角度;所述检测阈值包括正向偏移阈值、负向偏移阈值、图像帧数阈值;
所述检测模块703,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
确定头部偏移角度大于所述正向偏移阈值的第一目标检测图像,以及小于所述负向偏移阈值的第二目标检测图像;
在所述第一目标检测图像的数量和所述第二目标检测图像的数量超过图像帧数阈值的情况下,确定活体检测通过。
一种可能的实施方式中,在所述目标动作为张闭嘴的情况下,与所述目标动作匹配的特征点包括嘴部特征点;
所述确定模块702,在基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值时,用于:
基于嘴部特征点位置信息,确定表征嘴部中央位置处张开幅度的第一嘴部距离和表征嘴角位置处张开幅度的第二嘴部距离;
基于所述第一嘴部距离和第二嘴部距离,确定所述检测值。
一种可能的实施方式中,所述检测阈值包括张嘴阈值、闭嘴阈值、张嘴帧数阈值;
所述检测模块703,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
确定检测值为所述闭嘴阈值的多帧第一待检测图像;
确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像;
在检测到所述第二待检测图像满足第一预设条件的情况下,确定通过活体检测。
一种可能的实施方式中,所述第一预设条件包括:
所述第二待检测图像中,对应的检测值为所述张嘴阈值的第三待检测图像的数量为第一预设值;
多个第三待检测图像中,相邻两个第三待检测图像之间的第二待检测图像的数量大于所述张嘴帧数阈值。
一种可能的实施方式中,所述第一预设条件还包括:
相邻两个第三待检测图像之间的第二待检测图像中,任意两个第二待检测图像的检测值之间的差值小于第二预设值。
一种可能的实施方式中,所述检测模块703,在确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像时,用于:
确定所述多帧第一待检测图像中,满足第二预设条件的两个相邻的第一待检测图像之间的第二待检测图像;
其中,所述第二预设条件包括:
相邻的第一待检测图像之间的待检测图像的数量大于所述张嘴帧数阈值;相邻的第一待检测图像之间的待检测图像的检测值最值满足所述张嘴阈值对应的筛选条件。
一种可能的实施方式中,在所述目标动作为睁闭眼的情况下,所述确定模块702,在基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值时,用于:
针对多帧待检测图像中的每帧待检测图像,基于所述待检测图像的特征点位置信息,对所述待检测图像进行矫正处理;
将矫正处理后的所述待检测图像输入至预先训练好的神经网络,确定所述待检测图像对应的检测值。
一种可能的实施方式中,所述检测值包括用于描述眼部遮挡情况的第一检测值,以及用于描述睁闭眼完成情况的第二检测值;
所述检测阈值包括睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值;
所述检测模块703,在基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果时,用于:
基于所述睁眼阈值、闭眼阈值、以及所述多帧待检测图像的第二检测值,确定满足第三预设条件的第四待检测图像;
确定对应的第一检测值小于所述眼部遮挡阈值的第四待检测图像的目标数量;
在所述目标数量超过所述睁眼帧数阈值的情况下,确定通过活体检测。
本公开实施例提供的活体检测装置,响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;这样,通过确定与所述目标动作对应的检测值,可以对各帧待检测图像中目标动作的完成情况进行量化,从而便于后续对检测值进行检测及量化分析;基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,这样,通过对多帧待检测图像的检测值进行检测,可以减少单帧图像对于检测结果的影响,使得活体检测的准确率更高。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
基于同一技术构思,本公开实施例还提供了一种计算机设备。参照图8所示,为本公开实施例提供的计算机设备800的结构示意图,包括处理器801、存储器802、和总线803。其中,存储器802用于存储执行指令,包括内存8021和外部存储器8022;这里的内存8021也称内存储器,用于暂时存放处理器801中的运算数据,以及与硬盘等外部存储器8022交换的数据,处理器801通过内存8021与外部存储器8022进行数据交换,当计算机设备800运行时,处理器801与存储器802之间通过总线803通信,使得处理器801在执行以下指令:
响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的活体检测方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。
本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的活体检测方法的步骤,具体可参见上述方法实施例,在此不再赘述。
其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

Claims (13)

1.一种活体检测方法,其特征在于,包括:
响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
2.根据权利要求1所述的方法,其特征在于,所述基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果,包括:
基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果。
3.根据权利要求2所述的方法,其特征在于,在所述目标动作为点头或摇头的情况下,所述检测值包括头部偏移角度;所述检测阈值包括正向偏移阈值、负向偏移阈值、图像帧数阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
确定头部偏移角度大于所述正向偏移阈值的第一目标检测图像,以及小于所述负向偏移阈值的第二目标检测图像;
在所述第一目标检测图像的数量和所述第二目标检测图像的数量超过图像帧数阈值的情况下,确定活体检测通过。
4.根据权利要求1~3任一所述的方法,其特征在于,在所述目标动作为张闭嘴的情况下,与所述目标动作匹配的特征点包括嘴部特征点;
所述基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值,包括:
基于嘴部特征点位置信息,确定表征嘴部中央位置处张开幅度的第一嘴部距离和表征嘴角位置处张开幅度的第二嘴部距离;
基于所述第一嘴部距离和第二嘴部距离,确定所述检测值。
5.根据权利要求2或3所述的方法,其特征在于,所述检测阈值包括张嘴阈值、闭嘴阈值、张嘴帧数阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
确定检测值为所述闭嘴阈值的多帧第一待检测图像;
确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像;
在检测到所述第二待检测图像满足第一预设条件的情况下,确定通过活体检测。
6.根据权利要求5所述的方法,其特征在于,所述第一预设条件包括:
所述第二待检测图像中,对应的检测值为所述张嘴阈值的第三待检测图像的数量为第一预设值;
多个第三待检测图像中,相邻两个第三待检测图像之间的第二待检测图像的数量大于所述张嘴帧数阈值。
7.根据权利要求5或6所述的方法,其特征在于,所述第一预设条件还包括:
相邻两个第三待检测图像之间的第二待检测图像中,任意两个第二待检测图像的检测值之间的差值小于第二预设值。
8.根据权利要求5~7任一所述的方法,其特征在于,所述确定所述多帧第一待检测图像中,每两个相邻的第一待检测图像之间的第二待检测图像,包括:
确定所述多帧第一待检测图像中,满足第二预设条件的两个相邻的第一待检测图像之间的第二待检测图像;
其中,所述第二预设条件包括:
相邻的第一待检测图像之间的待检测图像的数量大于所述张嘴帧数阈值;相邻的第一待检测图像之间的待检测图像的检测值最值满足所述张嘴阈值对应的筛选条件。
9.根据权利要求1~8任一所述的方法,其特征在于,在所述目标动作为睁闭眼的情况下,所述基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值,包括:
针对多帧待检测图像中的每帧待检测图像,基于所述待检测图像的特征点位置信息,对所述待检测图像进行矫正处理;
将矫正处理后的所述待检测图像输入至预先训练好的神经网络,确定所述待检测图像对应的检测值。
10.根据权利要求2、3、5~8任一所述的方法,其特征在于,所述检测值包括用于描述眼部遮挡情况的第一检测值,以及用于描述睁闭眼完成情况的第二检测值;
所述检测阈值包括睁眼阈值、闭眼阈值、睁眼帧数阈值、眼部遮挡阈值;
所述基于所述目标动作对应的检测阈值和与所述目标动作匹配的检测方案,对所述多帧待检测图像的检测值进行检测,得到活体检测结果,包括:
基于所述睁眼阈值、闭眼阈值、以及所述多帧待检测图像的第二检测值,确定满足第三预设条件的第四待检测图像;
确定对应的第一检测值小于所述眼部遮挡阈值的第四待检测图像的目标数量;
在所述目标数量超过所述睁眼帧数阈值的情况下,确定通过活体检测。
11.一种活体检测装置,其特征在于,包括:
获取模块,用于响应活体检测请求,获取与目标动作对应的多帧待检测图像,其中,所述目标动作为进行活体检测时指示用户做出的动作;
确定模块,用于基于所述各帧待检测图像中与所述目标动作匹配的特征点位置信息,确定各帧待检测图像分别对应的用于表示所述目标动作完成情况的检测值;
检测模块,用于基于与所述目标动作匹配的检测方案对所述检测值进行检测,得到活体检测结果。
12.一种计算机设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至10任一所述的活体检测方法的步骤。
13.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至10任一项所述的活体检测方法的步骤。
CN202111265552.1A 2021-10-28 2021-10-28 一种活体检测方法、装置、计算机设备及存储介质 Pending CN113971841A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111265552.1A CN113971841A (zh) 2021-10-28 2021-10-28 一种活体检测方法、装置、计算机设备及存储介质
PCT/CN2022/096444 WO2023071190A1 (zh) 2021-10-28 2022-05-31 一种活体检测方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111265552.1A CN113971841A (zh) 2021-10-28 2021-10-28 一种活体检测方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN113971841A true CN113971841A (zh) 2022-01-25

Family

ID=79588905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111265552.1A Pending CN113971841A (zh) 2021-10-28 2021-10-28 一种活体检测方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN113971841A (zh)
WO (1) WO2023071190A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071190A1 (zh) * 2021-10-28 2023-05-04 上海商汤智能科技有限公司 一种活体检测方法、装置、计算机设备及存储介质
WO2023173686A1 (zh) * 2022-03-17 2023-09-21 上海商汤智能科技有限公司 检测方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9985963B2 (en) * 2015-02-15 2018-05-29 Beijing Kuangshi Technology Co., Ltd. Method and system for authenticating liveness face, and computer program product thereof
CN109684974A (zh) * 2018-12-18 2019-04-26 北京字节跳动网络技术有限公司 活体检测方法、装置、电子设备及存储介质
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质
CN111242090B (zh) * 2020-01-22 2023-06-23 腾讯科技(深圳)有限公司 基于人工智能的人脸识别方法、装置、设备及介质
CN113420667B (zh) * 2021-06-23 2022-08-02 工银科技有限公司 人脸活体检测方法、装置、设备及介质
CN113971841A (zh) * 2021-10-28 2022-01-25 北京市商汤科技开发有限公司 一种活体检测方法、装置、计算机设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071190A1 (zh) * 2021-10-28 2023-05-04 上海商汤智能科技有限公司 一种活体检测方法、装置、计算机设备及存储介质
WO2023173686A1 (zh) * 2022-03-17 2023-09-21 上海商汤智能科技有限公司 检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023071190A1 (zh) 2023-05-04

Similar Documents

Publication Publication Date Title
CN107609383B (zh) 3d人脸身份认证方法与装置
CN107748869B (zh) 3d人脸身份认证方法与装置
CN107633165B (zh) 3d人脸身份认证方法与装置
US10579865B2 (en) Facial verification method and apparatus
CN105184246B (zh) 活体检测方法和活体检测系统
EP3872689B1 (en) Liveness detection method and device, electronic apparatus, storage medium and related system using the liveness detection method
CN109472206B (zh) 基于微表情的风险评估方法、装置、设备及介质
CN109389069B (zh) 注视点判断方法和装置、电子设备和计算机存储介质
CN105612533B (zh) 活体检测方法、活体检测系统以及计算机程序产品
US10318797B2 (en) Image processing apparatus and image processing method
CN109766785B (zh) 一种人脸的活体检测方法及装置
TW201814572A (zh) 終端設備、智慧型手機、基於臉部識別的認證方法和系統
CN111767900B (zh) 人脸活体检测方法、装置、计算机设备及存储介质
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
CN105512632A (zh) 活体检测方法及装置
CN113971841A (zh) 一种活体检测方法、装置、计算机设备及存储介质
CN105335719A (zh) 活体检测方法及装置
CN112101124B (zh) 一种坐姿检测方法及装置
CN108615256B (zh) 一种人脸三维重建方法及装置
KR20150127381A (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
TW201719477A (zh) 基於眼球跟蹤之活體檢測的方法、裝置及系統
CN113435362A (zh) 异常行为检测方法、装置、计算机设备及存储介质
CN112784786A (zh) 人体姿态识别方法及装置
Fang et al. Fairness in face presentation attack detection
CN110688878B (zh) 活体识别检测方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40061907

Country of ref document: HK