CN114648801A - 人脸活体的检测方法及装置、处理器和电子设备 - Google Patents
人脸活体的检测方法及装置、处理器和电子设备 Download PDFInfo
- Publication number
- CN114648801A CN114648801A CN202210368025.1A CN202210368025A CN114648801A CN 114648801 A CN114648801 A CN 114648801A CN 202210368025 A CN202210368025 A CN 202210368025A CN 114648801 A CN114648801 A CN 114648801A
- Authority
- CN
- China
- Prior art keywords
- target
- information
- eyeball
- living body
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本申请公开了一种人脸活体的检测方法及装置、处理器和电子设备,涉及人工智能领域。该方法包括:接收目标客户端设备发送的目标活体检测请求;在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备;在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息;对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果。通过本申请,解决了相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题。
Description
技术领域
本申请涉及人工智能领域,具体而言,涉及一种人脸活体的检测方法及装置、处理器和电子设备。
背景技术
目前,人脸识别技术已在各行业得到广泛应用,并取得了较好的应用成效。但是,在各类黑产攻击威胁日益严峻、监管要求日趋严格的形势下,亟需进一步探索提升人脸识别的防攻击检测能力。
另外,在人脸识别技术应用过程中,主要包括人脸活体检测和人脸识别比对两大环节,即通过活体检测判断为活人的人脸后,才进入人脸识别比对,从而确定待识别对象的身份。而且,通常意义上的活体检测是指当生物特征信息从合法用户那里取得时,判断该生物信息是否从具有生物活体的合法用户身上取得。因此,活体检测主要是通过识别活体上的生理信息来进行,它把生理信息作为生命特征来区分用平面照片、硅胶、塑料等非生命物质伪造的生物特征。
可见,人脸活体检测是提高人脸认证系统安全性、可靠性的重要环节。而且,近年来,随着深度学习、大数据和云计算等领域的不断突破,人脸识别也获得高速发展,应用潜力不断释放。人脸识别以其不可复制性、非接触性、可扩展性和便捷性等特点,已在各个领域得到广泛应用,特别是在线上身份认证场景的使用更是普遍。例如,对于人脸识别应用最为广泛的移动APP等线上渠道场景,在目前相关技术中,主要是通过动作指令与用户交互来实现活体检测,让用户配合给定的随机动作指令,例如眨眼、转头、张嘴运动,然后从采集视频中识别人脸区域的运动信息,并判断该运动信息是否与给定的指令一致来判断活体。
但是,由于APP等移动端线上业务是由客户在自身设备上完成远程交易,设备等外部环境复杂,加上各种照片活化工具及AI换脸软件的流行普及,面临人脸伪冒攻击的风险隐患日益严峻,目前相关技术中的人脸动作活体检测在应对此类新型攻击时会存在技术短板。即目前相关技术中的动作活体检测虽然能够防范静态照片、视频回放和静态头模等攻击,但是由于随机生成的动作指令的类型较少,随着各种照片活化工具及AI换脸软件的流行普及,攻击者很容易通过视频的方式提前生成与动作指令相对应的动作,所以,实现攻击的成本和难度也越来越低。同时,基于动作的活体检测对用户的交互要求较高,需要用户做出大幅度的摇头、张嘴等动作,用户体验较差。
针对相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种人脸活体的检测方法及装置、处理器和电子设备,以解决相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种人脸活体的检测方法。该方法包括:接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
进一步地,在随机生成目标发光信息和目标坐标信息之后,所述方法还包括:在所述目标对象的目标参数符合第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息,其中,所述目标参数至少包括:所述目标对象的人脸与所述显示设备之间的角度和距离、所述目标对象的人脸的遮挡情况,所述目标提示信息用于提示所述目标对象的注视点随着提示内容移动;采集所述目标对象在光线和注视点的变化过程中的人脸图像信息;提取所述人脸图像信息中的眼部区域的图像,得到所述眼部图像信息,并将所述眼部图像信息发送至所述目标客户端设备对应的目标云端服务器。
进一步地,对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果包括:对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,所述第一反光信息至少包括:所述眼球的反光颜色和所述反光颜色对应的时长;对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息;判断所述第一反光信息是否与所述目标发光信息相同,并判断所述眼球的注视点的坐标信息是否与所述目标坐标信息相同;在所述第一反光信息与所述目标发光信息相同,且所述眼球的注视点的坐标信息与所述目标坐标信息相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸是活体;在所述第一反光信息与所述目标发光信息不相同,和/或所述眼球的注视点的坐标信息与所述目标坐标信息不相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸不是活体。
进一步地,在对所述眼部图像信息中的眼球的反光信息进行分析之前,所述方法还包括:将所述眼部图像信息分解成光照分量和反射分量;对所述光照分量和所述反射分量进行滤波,得到傅里叶谱;依据所述傅里叶谱,确定平面成像与立体成像的差异;依据所述差异,检测所述眼部图像信息是否具备立体性;在所述眼部图像信息具备立体性的情况下,对所述眼部图像信息中的眼球的反光信息进行分析。
进一步地,在对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,所述方法还包括:获取所述眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;依据所述反射特性和所述目标发光信息对所述第一反光信息进行校验,得到第一校验结果;依据所述第一校验结果,确定所述眼球的反光的置信度值。
进一步地,对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息包括:从所述眼部图像信息中提取所述目标对象的眼睛的瞳孔的轮廓;依据所述瞳孔的轮廓,得到所述瞳孔的中心位置;依据所述眼部图像信息,得到所述目标对象的眼睛的角膜的中心位置;依据所述瞳孔的中心位置和所述角膜的中心位置,计算所述瞳孔的中心和所述角膜的中心之间的偏移量;依据所述瞳孔的中心和所述角膜的中心之间的偏移量,确定所述眼部图像信息中的每帧照片中的眼睛的位移量;结合眼球模型将所述眼球的注视点映射在所述显示设备上,并得到所述眼球的注视点的坐标信息。
进一步地,在对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息之后,所述方法还包括:依据所述目标坐标信息对所述眼球的注视点的坐标信息进行校验,得到第二校验结果;依据所述第二校验结果,确定所述眼球的注视点的置信度值;获取所述眼球的反光的置信度值;依据所述眼球的反光的置信度值和所述眼球的注视点的置信度值,确定对所述目标对象的人脸进行活体检测的结果。
进一步地,在接收目标客户端设备发送的目标活体检测请求之后,所述方法还包括:获取目标活体检测请求中的目标信息,所述目标信息至少包括:所述目标客户端设备的验签信息和所述目标客户端设备的参数信息;对所述目标信息进行校验,得到第三校验结果;在所述第三校验结果符合第二预设要求的情况下,随机生成所述目标发光信息和所述目标坐标信息;在所述第三校验结果不符合所述第二预设要求的情况下,向所述目标客户端设备发送报错信息。
进一步地,随机生成目标发光信息和目标坐标信息包括:配置所述显示设备的第一参数,其中,所述第一参数至少包括所述显示设备的发光颜色、所述发光颜色对应的时长和所述显示设备中的注视点的位置的字典;基于所述第一参数,结合目标随机算法,随机生成所述目标发光信息和所述目标坐标信息。
进一步地,在所述目标对象的目标参数符合第一预设要求的情况下之前,所述方法还包括:通过所述显示设备中的摄像头获取实时的视频流;从所述视频流中获取当前图像中的人脸信息,并从所述人脸信息中获取所述目标参数;判断所述目标参数是否符合所述第一预设要求;在所述目标参数符合所述第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息;在所述目标参数不符合所述第一预设要求的情况下,向所述目标对象发送第一提示信息,其中,所述第一提示信息用于提示所述目标对象改变所述目标参数。
进一步地,采集所述目标对象在光线和注视点的变化过程中的人脸图像信息包括:在所述显示设备的光线的颜色变化和所述目标对象的眼球的注视点的变化过程中,按照帧率从所述视频流中抽取符合所述目标活体检测请求的正面人脸图像;依据所述正面人脸图像,得到所述目标对象在光线和注视点的变化过程中的人脸图像信息。
为了实现上述目的,根据本申请的另一方面,提供了一种人脸活体的检测装置。该装置包括:第一接收单元,用于接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;第一生成单元,用于在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;第二接收单元,用于在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;第一分析单元,用于对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
进一步地,所述装置还包括:第一控制单元,用于在随机生成目标发光信息和目标坐标信息之后,在所述目标对象的目标参数符合第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息,其中,所述目标参数至少包括:所述目标对象的人脸与所述显示设备之间的角度和距离、所述目标对象的人脸的遮挡情况,所述目标提示信息用于提示所述目标对象的注视点随着提示内容移动;第一采集单元,用于采集所述目标对象在光线和注视点的变化过程中的人脸图像信息;第一提取单元,用于提取所述人脸图像信息中的眼部区域的图像,得到所述眼部图像信息,并将所述眼部图像信息发送至所述目标客户端设备对应的目标云端服务器。
进一步地,所述第一分析单元包括:第一分析子单元,用于对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,所述第一反光信息至少包括:所述眼球的反光颜色和所述反光颜色对应的时长;第二分析子单元,用于对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息;第一判断子单元,用于判断所述第一反光信息是否与所述目标发光信息相同,并判断所述眼球的注视点的坐标信息是否与所述目标坐标信息相同;第一确定子单元,用于在所述第一反光信息与所述目标发光信息相同,且所述眼球的注视点的坐标信息与所述目标坐标信息相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸是活体;第二确定子单元,用于在所述第一反光信息与所述目标发光信息不相同,和/或所述眼球的注视点的坐标信息与所述目标坐标信息不相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸不是活体。
进一步地,所述装置还包括:第一分解单元,用于在对所述眼部图像信息中的眼球的反光信息进行分析之前,将所述眼部图像信息分解成光照分量和反射分量;第一滤波单元,用于对所述光照分量和所述反射分量进行滤波,得到傅里叶谱;第一确定单元,用于依据所述傅里叶谱,确定平面成像与立体成像的差异;第一检测单元,用于依据所述差异,检测所述眼部图像信息是否具备立体性;第二分析单元,用于在所述眼部图像信息具备立体性的情况下,对所述眼部图像信息中的眼球的反光信息进行分析。
进一步地,所述装置还包括:第一获取单元,用于在对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,获取所述眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;第一校验单元,用于依据所述反射特性和所述目标发光信息对所述第一反光信息进行校验,得到第一校验结果;第二确定单元,用于依据所述第一校验结果,确定所述眼球的反光的置信度值。
进一步地,所述第二分析子单元包括:第一提取模块,用于从所述眼部图像信息中提取所述目标对象的眼睛的瞳孔的轮廓;第一确定模块,用于依据所述瞳孔的轮廓,得到所述瞳孔的中心位置;第二确定模块,用于依据所述眼部图像信息,得到所述目标对象的眼睛的角膜的中心位置;第一计算模块,用于依据所述瞳孔的中心位置和所述角膜的中心位置,计算所述瞳孔的中心和所述角膜的中心之间的偏移量;第三确定模块,用于依据所述瞳孔的中心和所述角膜的中心之间的偏移量,确定所述眼部图像信息中的每帧照片中的眼睛的位移量;第一处理模块,用于结合眼球模型将所述眼球的注视点映射在所述显示设备上,并得到所述眼球的注视点的坐标信息。
进一步地,所述装置还包括:第二校验单元,用于在对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息之后,依据所述目标坐标信息对所述眼球的注视点的坐标信息进行校验,得到第二校验结果;第三确定单元,用于依据所述第二校验结果,确定所述眼球的注视点的置信度值;第二获取单元,用于获取所述眼球的反光的置信度值;第四确定单元,用于依据所述眼球的反光的置信度值和所述眼球的注视点的置信度值,确定对所述目标对象的人脸进行活体检测的结果。
进一步地,所述装置还包括:第三获取单元,用于在接收目标客户端设备发送的目标活体检测请求之后,获取目标活体检测请求中的目标信息,所述目标信息至少包括:所述目标客户端设备的验签信息和所述目标客户端设备的参数信息;第三校验单元,用于对所述目标信息进行校验,得到第三校验结果;第二生成单元,用于在所述第三校验结果符合第二预设要求的情况下,随机生成所述目标发光信息和所述目标坐标信息;第一发送单元,用于在所述第三校验结果不符合所述第二预设要求的情况下,向所述目标客户端设备发送报错信息。
进一步地,所述第一生成单元包括:第一配置模块,用于配置所述显示设备的第一参数,其中,所述第一参数至少包括所述显示设备的发光颜色、所述发光颜色对应的时长和所述显示设备中的注视点的位置的字典;第一生成模块,用于基于所述第一参数,结合目标随机算法,随机生成所述目标发光信息和所述目标坐标信息。
进一步地,所述装置还包括:第四获取单元,用于在所述目标对象的目标参数符合第一预设要求的情况下之前,通过所述显示设备中的摄像头获取实时的视频流;第五获取单元,用于从所述视频流中获取当前图像中的人脸信息,并从所述人脸信息中获取所述目标参数;第一判断单元,用于判断所述目标参数是否符合所述第一预设要求;第二控制单元,用于在所述目标参数符合所述第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息;第二发送单元,用于在所述目标参数不符合所述第一预设要求的情况下,向所述目标对象发送第一提示信息,其中,所述第一提示信息用于提示所述目标对象改变所述目标参数。
进一步地,所述第一采集单元包括:第一抽取模块,用于在所述显示设备的光线的颜色变化和所述目标对象的眼球的注视点的变化过程中,按照帧率从所述视频流中抽取符合所述目标活体检测请求的正面人脸图像;第二生成模块,用于依据所述正面人脸图像,得到所述目标对象在光线和注视点的变化过程中的人脸图像信息。
为了实现上述目的,根据本申请的另一方面,提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述的任意一项所述的人脸活体的检测方法。
为了实现上述目的,根据本申请的另一方面,提供了一种电子设备,所述电子设备包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述的任意一项所述的人脸活体的检测方法。
通过本申请,采用以下步骤:接收目标客户端设备发送的目标活体检测请求,其中,目标活体检测请求用于对目标对象的人脸进行活体检测;在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备,其中,目标发光信息至少包括:目标客户端设备中的显示设备的发光颜色和发光颜色对应的时长,目标坐标信息用于表示显示设备中的注视点的坐标;在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息,其中,眼部图像信息为基于目标发光信息和目标坐标信息生成的图像信息;对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果,解决了相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题。通过接收目标客户端设备发送的目标活体检测请求,并随机生成目标发光信息和目标坐标信息,再将目标发光信息和目标坐标信息发送至目标客户端设备,并接收目标客户端设备返回的目标对象的眼部图像信息,再对眼部图像信息进行分析,可以确定对目标对象的人脸进行活体检测的结果,从而可以提升人脸活体检测的准确性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的人脸活体的检测方法的流程图;
图2是根据本申请实施例提供的可选的人脸活体的检测方法的流程图;
图3是本申请实施例中的一种眼球位置的坐标设置的示意图;
图4是本申请实施例中的另一种眼球位置的坐标设置的示意图;
图5是根据本申请实施例提供的人脸活体的检测系统的示意图;
图6是本申请实施例中的客户端的示意图;
图7是本申请实施例中的云端的示意图;
图8是根据本申请实施例提供的人脸活体的检测装置的示意图;
图9是根据本申请实施例提供的电子设备的示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,本公开所涉及的相关信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。例如,本系统和相关用户或机构间设置有接口,在获取相关信息之前,需要通过接口向前述的用户或机构发送获取请求,并在接收到前述的用户或机构反馈的同意信息后,获取相关信息。
下面结合优选的实施步骤对本发明进行说明,图1是根据本申请实施例提供的人脸活体的检测方法的流程图,如图1所示,该方法包括如下步骤:
步骤S101,接收目标客户端设备发送的目标活体检测请求,其中,目标活体检测请求用于对目标对象的人脸进行活体检测。
例如,云端接收客户端发起的对用户的人脸进行活体检测的请求。
步骤S102,在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备,其中,目标发光信息至少包括:目标客户端设备中的显示设备的发光颜色和发光颜色对应的时长,目标坐标信息用于表示显示设备中的注视点的坐标。
例如,云端在收到客户端发起的活体检测请求后,随机生成发光指令及注视点坐标信息,并将随机生成的发光指令及注视点坐标信息发送至客户端。且随机生成的发光指令及注视点坐标信息用于控制客户端设备屏幕的发光和显示。
步骤S103,在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息,其中,眼部图像信息为基于目标发光信息和目标坐标信息生成的图像信息。
例如,在云端将随机生成的发光指令及注视点坐标信息发送至客户端之后,云端接收客户端上送的用户的眼部图像信息数据包,且该眼部图像信息数据包是根据云端随机生成的发光指令及注视点坐标信息生成的图像。
步骤S104,对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果。
例如,云端在收到客户端上送的眼部图像信息数据包后,对图像信息中的眼球反光和眼球注视点进行分析处理,判断眼球反光颜色序列、眼球注视点位置是否与下发的指令和坐标一致,从而完成对用户的人脸活体检测判断。
通过上述的步骤S101至S104,通过接收目标客户端设备发送的目标活体检测请求,并随机生成目标发光信息和目标坐标信息,再将目标发光信息和目标坐标信息发送至目标客户端设备,并接收目标客户端设备返回的目标对象的眼部图像信息,再对眼部图像信息进行分析,可以确定对目标对象的人脸进行活体检测的结果,从而可以提升人脸活体检测的准确性。
可选地,在本申请实施例提供的人脸活体的检测方法中,在随机生成目标发光信息和目标坐标信息之后,该方法还包括:在目标对象的目标参数符合第一预设要求的情况下,依据目标发光信息和目标坐标信息,控制显示设备发出不同颜色的光线和在显示设备中的第一坐标上显示目标提示信息,其中,目标参数至少包括:目标对象的人脸与显示设备之间的角度和距离、目标对象的人脸的遮挡情况,目标提示信息用于提示目标对象的注视点随着提示内容移动;采集目标对象在光线和注视点的变化过程中的人脸图像信息;提取人脸图像信息中的眼部区域的图像,得到眼部图像信息,并将眼部图像信息发送至目标客户端设备对应的目标云端服务器。
图2是根据本申请实施例提供的可选的人脸活体的检测方法的流程图,如图2所示,可选的人脸活体的检测方法包括如下步骤:
步骤S201,云端接收客户端发起的人脸活体检测请求;
步骤S202,云端随机生成发光指令及注视点坐标信息,并可以通过非对称加密算法对生成的信息进行加密,形成密文序列发送至客户端;
步骤S203,客户端接收并解密密文序列,在待检测人脸准备就绪后,按照解析出来的发光指令控制设备屏幕发出不同的颜色光线,并根据解析出来的注视点坐标信息在显示屏的相应坐标上显示注视点提示信息,引导用户的眼睛注视点随着提示内容移动;
步骤S204,客户端采集用户在光线变化和注视点变化过程中的人脸图像信息,并对采集到的人脸图像信息进行眼部区域图像的提取,最后将加工提取后的眼部图像信息上送到云端进行活体判断;
步骤S205,云端在收到客户端上送的图像信息数据包后,对图像信息中的眼球反光和眼球注视点进行分析处理,判断眼球反光颜色序列、眼球注视点位置是否与下发的指令和坐标一致,从而完成人脸活体检测判断,最后将判断结果返回客户端。
另外,在步骤S203中,控制客户端设备屏幕发出不同的颜色光线,并在显示屏的相应坐标上显示注视点提示信息的具体过程为:(1)按照解析出来的发光指令控制设备屏幕发出不同的颜色光线,指令包含了具体的发光颜色及时长(如控制屏幕显示红、蓝、绿各1秒);(2)根据解析出来的注视点坐标信息在显示屏的相应坐标上显示注视点提示信息,引导用户的眼睛注视点随着提示内容移动,比如,图3是本申请实施例中的一种眼球位置的坐标设置的示意图,如图3所示,若眼球位置坐标设置为左上、左下、右上和右下四类,则将屏幕划分为4个区域显示;图4是本申请实施例中的另一种眼球位置的坐标设置的示意图,如图4所示,若眼球位置坐标设置为左上、左中、左下、右上、右中和右下六类,将屏幕划分为6个区域显示。
另外,在步骤S204中,对采集到的人脸图像信息进行眼部区域图像的提取的具体过程为:利用局部二值模式LBP算法定位步骤S203中所采集人脸图像的眼球位置,截取其中眼球所在区域的图像,并将加工后的局部图像信息上送到云端,减少冗余信息的传输。
通过上述的方案,在不依赖特殊硬件的前提下,可在手机等客户端设备上进行应用,无需增加用户成本,具备大范围推广应用的基础。且通过控制移动设备屏幕来发射不同颜色和强度的光线,在采集眼球反光的同时,引导用户注视屏幕的随机位置点,并通过眼动追踪判断眼睛注视方向,能够有效防御各类照片活化工具、换脸软件生成的人脸视频攻击,提升线上人脸识别应用的安全性。另外,在检测人脸活体的过程中,只需用户的眼睛随着屏幕显示的注视点位置变化进行目光的转移,检测过程简单方便,无需大幅度的动作配合,提升用户体验。
可选地,在本申请实施例提供的人脸活体的检测方法中,对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果包括:对眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,第一反光信息至少包括:眼球的反光颜色和反光颜色对应的时长;对眼部图像信息中的眼球的注视点信息进行分析,得到眼球的注视点的坐标信息;判断第一反光信息是否与目标发光信息相同,并判断眼球的注视点的坐标信息是否与目标坐标信息相同;在第一反光信息与目标发光信息相同,且眼球的注视点的坐标信息与目标坐标信息相同的情况下,确定对目标对象的人脸进行活体检测的结果为人脸是活体;在第一反光信息与目标发光信息不相同,和/或眼球的注视点的坐标信息与目标坐标信息不相同的情况下,确定对目标对象的人脸进行活体检测的结果为人脸不是活体。
例如,云端在收到客户端上送的眼部图像信息数据包后,对图像信息中的眼球反光和眼球注视点进行分析处理,即通过对图像信息中的眼球反光进行分析处理,检测眼球的反光信息,并获取眼球反光的颜色和时长序列;然后通过对图像信息中的眼球注视点进行分析处理,检测眼球的注视点位置,获取眼球注视点坐标信息序列;判断眼球反光颜色和时长序列、眼球注视点位置是否与下发的指令和坐标一致;如果眼球反光颜色和时长序列与下发的指令一致,且眼球注视点位置与下发的坐标一致,则代表待识别对象为活人;如果眼球反光颜色和时长序列与下发的指令不一致,和/或眼球注视点位置与下发的坐标不一致,则代表待识别对象不是活人。
通过上述的方案,可以快速准确的完成人脸活体检测判断。
可选地,在本申请实施例提供的人脸活体的检测方法中,在对眼部图像信息中的眼球的反光信息进行分析之前,该方法还包括:将眼部图像信息分解成光照分量和反射分量;对光照分量和反射分量进行滤波,得到傅里叶谱;依据傅里叶谱,确定平面成像与立体成像的差异;依据差异,检测眼部图像信息是否具备立体性;在眼部图像信息具备立体性的情况下,对眼部图像信息中的眼球的反光信息进行分析。
例如,在对图像信息中的眼球反光进行分析处理,检测眼球的反光信息之前,通过建立朗伯(Lambertian)反射模型,结合Logarithmic Total Variation(LTV)方法将眼球区域图像分解成光照和反射两个分量,然后用差分高斯滤波(DoG)对得到的光照分量和反射分量进行滤波,并得到中心傅里叶谱,且通过得到的中心傅里叶谱来描述平面与立体成像的差异,然后根据平面与立体成像的差异,检测眼球区域图像是否具备立体性。并在眼球区域图像具备立体性的情况下,对图像信息中的眼球反光进行分析处理,检测眼球的反光信息;在眼球区域图像不具备立体性的情况下,即代表待识别对象不是活人,故不能够对图像信息中的眼球反光进行分析处理。
通过上述的方案,在进行活体检测时,可以有效防御平面攻击。而且,结合眼球立体性、眼球反光和眼球注视点三重校验,在光线颜色、时长和注视点坐标三个维度上进行活体检测,不法分子无法提前生成相应的攻击视频,故提升了活体检测的安全性。
可选地,在本申请实施例提供的人脸活体的检测方法中,在对眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,该方法还包括:获取眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;依据反射特性和目标发光信息对第一反光信息进行校验,得到第一校验结果;依据第一校验结果,确定眼球的反光的置信度值。
例如,在对图像信息中的眼球反光进行分析处理,检测眼球的反光信息,并获取倒眼球反光的颜色和时长序列之后,可以增加光线特性校验机制,即通过多帧眼球RGB图像在不同光照条件下具有不同的反射特性,对照云端随机生成的发光指令,对眼球反光序列进行校验,并得出眼球反光置信度值。
通过上述的方案,可以快速准确的得到眼球反光置信度值,并为后续进行人脸活体检测时做铺垫。
可选地,在本申请实施例提供的人脸活体的检测方法中,对眼部图像信息中的眼球的注视点信息进行分析,得到眼球的注视点的坐标信息包括:从眼部图像信息中提取目标对象的眼睛的瞳孔的轮廓;依据瞳孔的轮廓,得到瞳孔的中心位置;依据眼部图像信息,得到目标对象的眼睛的角膜的中心位置;依据瞳孔的中心位置和角膜的中心位置,计算瞳孔的中心和角膜的中心之间的偏移量;依据瞳孔的中心和角膜的中心之间的偏移量,确定眼部图像信息中的每帧照片中的眼睛的位移量;结合眼球模型将眼球的注视点映射在显示设备上,并得到眼球的注视点的坐标信息。
例如,通过瞳孔角膜反射法,从眼球图像中提取瞳孔轮廓,并推算瞳孔中心位置,然后计算角膜中心和瞳孔中心的连线偏移量,得出每帧照片中眼睛的位移量,并结合眼球模型将注视点映射在设备屏幕上,得出眼球注视点坐标(如左上、右上等)。
通过上述的方案,可以方便的对图像信息中的眼球注视点进行分析处理,并便捷的获取到眼球注视点的坐标信息序列。
可选地,在本申请实施例提供的人脸活体的检测方法中,在对眼部图像信息中的眼球的注视点信息进行分析,得到眼球的注视点的坐标信息之后,该方法还包括:依据目标坐标信息对眼球的注视点的坐标信息进行校验,得到第二校验结果;依据第二校验结果,确定眼球的注视点的置信度值;获取眼球的反光的置信度值;依据眼球的反光的置信度值和眼球的注视点的置信度值,确定对目标对象的人脸进行活体检测的结果。
例如,参照云端随机生成的注视点坐标信息,对眼球注视点进行校验,得出眼球注视点置信度值。然后根据眼球反光置信度值和眼球注视点置信度值,判断待识别对象是否为活人。即根据不同的安全等级要求,设置融合眼球反光置信度值和眼球注视点置信度值的通过阈值。另外,还可以利用神经网络模型,通过标注数据进行训练得出活体判断模型,然后通过活体判断模型判断待识别对象是否为活人。
通过上述的方案,可以快速准确的得到眼球注视点置信度值。另外,通过利用置信度值及活体判断模型可以便捷的完成人脸活体检测。
可选地,在本申请实施例提供的人脸活体的检测方法中,在接收目标客户端设备发送的目标活体检测请求之后,该方法还包括:获取目标活体检测请求中的目标信息,目标信息至少包括:目标客户端设备的验签信息和目标客户端设备的参数信息;对目标信息进行校验,得到第三校验结果;在第三校验结果符合第二预设要求的情况下,随机生成目标发光信息和目标坐标信息;在第三校验结果不符合第二预设要求的情况下,向目标客户端设备发送报错信息。
例如,云端接收到客户端发起的活体检测请求后,可以对请求信息中的客户端验签及设备信息等参数内容进行校验,校验不通过则直接返回对应的报错信息,校验通过则随机生成发光指令及注视点坐标信息。
综上所述,通过对客户端进行校验,可以提升活体检测的安全性,避免对不符合要求的设备中的人脸进行活体检测。
可选地,在本申请实施例提供的人脸活体的检测方法中,随机生成目标发光信息和目标坐标信息包括:配置显示设备的第一参数,其中,第一参数至少包括显示设备的发光颜色、发光颜色对应的时长和显示设备中的注视点的位置的字典;基于第一参数,结合目标随机算法,随机生成目标发光信息和目标坐标信息。
例如,云端在生成随机的发光指令及注视点坐标信息时,可以通过参数设置,配置可发光的颜色种类(如红、蓝、绿)、发光时长区间(如红、蓝、绿各1秒)以及眼球注视位置字典(如左上、左下、右上和右下)参数,然后通过特定随机算法,生成随机的发光指令和注视点位置坐标序列,
通过上述的方案,可以控制客户端设备屏幕的发光和显示,并可以用于云端活体检测时的序列校验。
可选地,在本申请实施例提供的人脸活体的检测方法中,在目标对象的目标参数符合第一预设要求的情况下之前,该方法还包括:通过显示设备中的摄像头获取实时的视频流;从视频流中获取当前图像中的人脸信息,并从人脸信息中获取目标参数;判断目标参数是否符合第一预设要求;在目标参数符合第一预设要求的情况下,依据目标发光信息和目标坐标信息,控制显示设备发出不同颜色的光线和在显示设备中的第一坐标上显示目标提示信息;在目标参数不符合第一预设要求的情况下,向目标对象发送第一提示信息,其中,第一提示信息用于提示目标对象改变目标参数。
例如,在云端随机生成发光指令及注视点坐标信息之后,客户端检测用户人脸是否准备就绪。具体为,通过封装人脸检测SDK,驱动摄像头设备,打开摄像头获取实时的视频流,通过MTCNN网络获取当前图像中的人脸框,判断待识别人脸的角度、距离、遮挡情况是否都符合要求。检测通过则表示用户人脸已经准备就绪,否则根据角度、距离和遮挡的情况,分别提示用户正对屏幕、靠近(远离)屏幕、去除遮挡。
通过上述的方案,在对待识别的人脸进行活体检测之前,可以便捷的检测用户的人脸是否准备就绪。
可选地,在本申请实施例提供的人脸活体的检测方法中,采集目标对象在光线和注视点的变化过程中的人脸图像信息包括:在显示设备的光线的颜色变化和目标对象的眼球的注视点的变化过程中,按照帧率从视频流中抽取符合目标活体检测请求的正面人脸图像;依据正面人脸图像,得到目标对象在光线和注视点的变化过程中的人脸图像信息。
例如,采集用户在屏幕光线变化和注视点变化过程中的人脸图像信息的过程具体为:驱动摄像头设备,打开摄像头获取实时的视频流,在屏幕光线颜色变化和用户眼球注视点变化过程中,按帧率抽取符合人脸活体检测要求的正面人脸图像。
通过上述的方案,可以快速的采集到用户在屏幕光线变化和注视点变化过程中的人脸图像信息,并为后续的人脸活体检测做铺垫。
图5是根据本申请实施例提供的人脸活体的检测系统的示意图,如图5所示,人脸活体的检测系统包括:客户终端(含摄像头录像设备和显示屏幕设备)和技术服务提供方云端服务器。并在客户终端集成本地SDK、在云端服务器中部署人脸识活体检测服务,供客户端程序调用。客户端发起活体检测请求后,接收并解析云端返回的密文序列,在检测到人脸正常对准摄像头后,通过控制设备屏幕发出不同的颜色光线,并在显示屏的相应坐标上显示注视点提示信息,然后驱动摄像设备采集用户在光线变化和注视点变化过程中的人脸图像信息,最后调用云端服务将加工提取后的图像信息上送到云端进行活体判断处理,最后接收云端返回的活体判断结果,从而协同完成整个人脸活体检测流程,确保人脸识别应用的安全。
图6是本申请实施例中的客户端的示意图,如图6所示,客户端包括密文序列解析单元21、人脸检测单元22、设备控制单元23、数据采集单元24和图像提取单元25。其中,密文序列解析单元21,用于解密和还原云端生成的密文序列;人脸检测单元22,用于检测用户人脸是否准备就绪;设备控制单元23,用于控制客户端设备的屏幕发光和内容显示;数据采集单元24,用于采集用户在屏幕光线变化和注视点变化过程中的人脸图像信息;图像提取单元25,用于截取人脸图像中的眼球部分关键信息。
图7是本申请实施例中的云端的示意图,如图7所示,云端人脸活体检测服务包括随机序列生成单元31、反光检测单元32、注视点检测单元33、活体判断单元34。其中,随机序列生成单元31,用于生成随机的发光指令及注视点坐标信息;反光检测单元32,用于检测眼球的反光信息,以获取眼球反光的颜色和时长序列;注视点检测单元33,用于检测眼球的注视点位置,以获取眼球注视点坐标信息序列;活体判断单元34用于判断待识别对象是否为活人。
综上,本申请实施例提供的人脸活体的检测方法,通过接收目标客户端设备发送的目标活体检测请求,其中,目标活体检测请求用于对目标对象的人脸进行活体检测;在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备,其中,目标发光信息至少包括:目标客户端设备中的显示设备的发光颜色和发光颜色对应的时长,目标坐标信息用于表示显示设备中的注视点的坐标;在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息,其中,眼部图像信息为基于目标发光信息和目标坐标信息生成的图像信息;对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果,解决了相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题。通过接收目标客户端设备发送的目标活体检测请求,并随机生成目标发光信息和目标坐标信息,再将目标发光信息和目标坐标信息发送至目标客户端设备,并接收目标客户端设备返回的目标对象的眼部图像信息,再对眼部图像信息进行分析,可以确定对目标对象的人脸进行活体检测的结果,从而可以提升人脸活体检测的准确性。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例还提供了一种人脸活体的检测装置,需要说明的是,本申请实施例的人脸活体的检测装置可以用于执行本申请实施例所提供的用于人脸活体的检测方法。以下对本申请实施例提供的人脸活体的检测装置进行介绍。
图8是根据本申请实施例的人脸活体的检测装置的示意图。如图8所示,该装置包括:第一接收单元801、第一生成单元802、第二接收单元803和第一分析单元804。
具体地,第一接收单元801,用于接收目标客户端设备发送的目标活体检测请求,其中,目标活体检测请求用于对目标对象的人脸进行活体检测;
第一生成单元802,用于在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备,其中,目标发光信息至少包括:目标客户端设备中的显示设备的发光颜色和发光颜色对应的时长,目标坐标信息用于表示显示设备中的注视点的坐标;
第二接收单元803,用于在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息,其中,眼部图像信息为基于目标发光信息和目标坐标信息生成的图像信息;
第一分析单元804,用于对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果。
综上,本申请实施例提供的人脸活体的检测装置,通过第一接收单元801接收目标客户端设备发送的目标活体检测请求,其中,目标活体检测请求用于对目标对象的人脸进行活体检测;第一生成单元802在接收到目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将目标发光信息和目标坐标信息发送至目标客户端设备,其中,目标发光信息至少包括:目标客户端设备中的显示设备的发光颜色和发光颜色对应的时长,目标坐标信息用于表示显示设备中的注视点的坐标;第二接收单元803在将目标发光信息和目标坐标信息发送至目标客户端设备之后,接收目标客户端设备返回的目标对象的眼部图像信息,其中,眼部图像信息为基于目标发光信息和目标坐标信息生成的图像信息;第一分析单元804对眼部图像信息进行分析,确定对目标对象的人脸进行活体检测的结果,解决了相关技术中通过动作指令与用户交互的方式实现人脸活体检测,导致人脸活体检测的准确性较低的问题,通过接收目标客户端设备发送的目标活体检测请求,并随机生成目标发光信息和目标坐标信息,再将目标发光信息和目标坐标信息发送至目标客户端设备,并接收目标客户端设备返回的目标对象的眼部图像信息,再对眼部图像信息进行分析,可以确定对目标对象的人脸进行活体检测的结果,从而可以提升人脸活体检测的准确性。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第一控制单元,用于在随机生成目标发光信息和目标坐标信息之后,在目标对象的目标参数符合第一预设要求的情况下,依据目标发光信息和目标坐标信息,控制显示设备发出不同颜色的光线和在显示设备中的第一坐标上显示目标提示信息,其中,目标参数至少包括:目标对象的人脸与显示设备之间的角度和距离、目标对象的人脸的遮挡情况,目标提示信息用于提示目标对象的注视点随着提示内容移动;第一采集单元,用于采集目标对象在光线和注视点的变化过程中的人脸图像信息;第一提取单元,用于提取人脸图像信息中的眼部区域的图像,得到眼部图像信息,并将眼部图像信息发送至目标客户端设备对应的目标云端服务器。
可选地,在本申请实施例提供的人脸活体的检测装置中,第一分析单元包括:第一分析子单元,用于对眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,第一反光信息至少包括:眼球的反光颜色和反光颜色对应的时长;第二分析子单元,用于对眼部图像信息中的眼球的注视点信息进行分析,得到眼球的注视点的坐标信息;第一判断子单元,用于判断第一反光信息是否与目标发光信息相同,并判断眼球的注视点的坐标信息是否与目标坐标信息相同;第一确定子单元,用于在第一反光信息与目标发光信息相同,且眼球的注视点的坐标信息与目标坐标信息相同的情况下,确定对目标对象的人脸进行活体检测的结果为人脸是活体;第二确定子单元,用于在第一反光信息与目标发光信息不相同,和/或眼球的注视点的坐标信息与目标坐标信息不相同的情况下,确定对目标对象的人脸进行活体检测的结果为人脸不是活体。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第一分解单元,用于在对眼部图像信息中的眼球的反光信息进行分析之前,将眼部图像信息分解成光照分量和反射分量;第一滤波单元,用于对光照分量和反射分量进行滤波,得到傅里叶谱;第一确定单元,用于依据傅里叶谱,确定平面成像与立体成像的差异;第一检测单元,用于依据差异,检测眼部图像信息是否具备立体性;第二分析单元,用于在眼部图像信息具备立体性的情况下,对眼部图像信息中的眼球的反光信息进行分析。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第一获取单元,用于在对眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,获取眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;第一校验单元,用于依据反射特性和目标发光信息对第一反光信息进行校验,得到第一校验结果;第二确定单元,用于依据第一校验结果,确定眼球的反光的置信度值。
可选地,在本申请实施例提供的人脸活体的检测装置中,第二分析子单元包括:第一提取模块,用于从眼部图像信息中提取目标对象的眼睛的瞳孔的轮廓;第一确定模块,用于依据瞳孔的轮廓,得到瞳孔的中心位置;第二确定模块,用于依据眼部图像信息,得到目标对象的眼睛的角膜的中心位置;第一计算模块,用于依据瞳孔的中心位置和角膜的中心位置,计算瞳孔的中心和角膜的中心之间的偏移量;第三确定模块,用于依据瞳孔的中心和角膜的中心之间的偏移量,确定眼部图像信息中的每帧照片中的眼睛的位移量;第一处理模块,用于结合眼球模型将眼球的注视点映射在显示设备上,并得到眼球的注视点的坐标信息。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第二校验单元,用于在对眼部图像信息中的眼球的注视点信息进行分析,得到眼球的注视点的坐标信息之后,依据目标坐标信息对眼球的注视点的坐标信息进行校验,得到第二校验结果;第三确定单元,用于依据第二校验结果,确定眼球的注视点的置信度值;第二获取单元,用于获取眼球的反光的置信度值;第四确定单元,用于依据眼球的反光的置信度值和眼球的注视点的置信度值,确定对目标对象的人脸进行活体检测的结果。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第三获取单元,用于在接收目标客户端设备发送的目标活体检测请求之后,获取目标活体检测请求中的目标信息,目标信息至少包括:目标客户端设备的验签信息和目标客户端设备的参数信息;第三校验单元,用于对目标信息进行校验,得到第三校验结果;第二生成单元,用于在第三校验结果符合第二预设要求的情况下,随机生成目标发光信息和目标坐标信息;第一发送单元,用于在第三校验结果不符合第二预设要求的情况下,向目标客户端设备发送报错信息。
可选地,在本申请实施例提供的人脸活体的检测装置中,第一生成单元包括:第一配置模块,用于配置显示设备的第一参数,其中,第一参数至少包括显示设备的发光颜色、发光颜色对应的时长和显示设备中的注视点的位置的字典;第一生成模块,用于基于第一参数,结合目标随机算法,随机生成目标发光信息和目标坐标信息。
可选地,在本申请实施例提供的人脸活体的检测装置中,该装置还包括:第四获取单元,用于在目标对象的目标参数符合第一预设要求的情况下之前,通过显示设备中的摄像头获取实时的视频流;第五获取单元,用于从视频流中获取当前图像中的人脸信息,并从人脸信息中获取目标参数;第一判断单元,用于判断目标参数是否符合第一预设要求;第二控制单元,用于在目标参数符合第一预设要求的情况下,依据目标发光信息和目标坐标信息,控制显示设备发出不同颜色的光线和在显示设备中的第一坐标上显示目标提示信息;第二发送单元,用于在目标参数不符合第一预设要求的情况下,向目标对象发送第一提示信息,其中,第一提示信息用于提示目标对象改变目标参数。
可选地,在本申请实施例提供的人脸活体的检测装置中,第一采集单元包括:第一抽取模块,用于在显示设备的光线的颜色变化和目标对象的眼球的注视点的变化过程中,按照帧率从视频流中抽取符合目标活体检测请求的正面人脸图像;第二生成模块,用于依据正面人脸图像,得到目标对象在光线和注视点的变化过程中的人脸图像信息。
所述人脸活体的检测装置包括处理器和存储器,上述第一接收单元801、第一生成单元802、第二接收单元803和第一分析单元804等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来人脸活体检测的准确性。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述人脸活体的检测方法。
如图9所示,本发明实施例提供了一种电子设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
处理器执行程序时还实现以下步骤:在随机生成目标发光信息和目标坐标信息之后,所述方法还包括:在所述目标对象的目标参数符合第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息,其中,所述目标参数至少包括:所述目标对象的人脸与所述显示设备之间的角度和距离、所述目标对象的人脸的遮挡情况,所述目标提示信息用于提示所述目标对象的注视点随着提示内容移动;采集所述目标对象在光线和注视点的变化过程中的人脸图像信息;提取所述人脸图像信息中的眼部区域的图像,得到所述眼部图像信息,并将所述眼部图像信息发送至所述目标客户端设备对应的目标云端服务器。
处理器执行程序时还实现以下步骤:对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果包括:对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,所述第一反光信息至少包括:所述眼球的反光颜色和所述反光颜色对应的时长;对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息;判断所述第一反光信息是否与所述目标发光信息相同,并判断所述眼球的注视点的坐标信息是否与所述目标坐标信息相同;在所述第一反光信息与所述目标发光信息相同,且所述眼球的注视点的坐标信息与所述目标坐标信息相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸是活体;在所述第一反光信息与所述目标发光信息不相同,和/或所述眼球的注视点的坐标信息与所述目标坐标信息不相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸不是活体。
处理器执行程序时还实现以下步骤:在对所述眼部图像信息中的眼球的反光信息进行分析之前,所述方法还包括:将所述眼部图像信息分解成光照分量和反射分量;对所述光照分量和所述反射分量进行滤波,得到傅里叶谱;依据所述傅里叶谱,确定平面成像与立体成像的差异;依据所述差异,检测所述眼部图像信息是否具备立体性;在所述眼部图像信息具备立体性的情况下,对所述眼部图像信息中的眼球的反光信息进行分析。
处理器执行程序时还实现以下步骤:在对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,所述方法还包括:获取所述眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;依据所述反射特性和所述目标发光信息对所述第一反光信息进行校验,得到第一校验结果;依据所述第一校验结果,确定所述眼球的反光的置信度值。
处理器执行程序时还实现以下步骤:对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息包括:从所述眼部图像信息中提取所述目标对象的眼睛的瞳孔的轮廓;依据所述瞳孔的轮廓,得到所述瞳孔的中心位置;依据所述眼部图像信息,得到所述目标对象的眼睛的角膜的中心位置;依据所述瞳孔的中心位置和所述角膜的中心位置,计算所述瞳孔的中心和所述角膜的中心之间的偏移量;依据所述瞳孔的中心和所述角膜的中心之间的偏移量,确定所述眼部图像信息中的每帧照片中的眼睛的位移量;结合眼球模型将所述眼球的注视点映射在所述显示设备上,并得到所述眼球的注视点的坐标信息。
处理器执行程序时还实现以下步骤:在对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息之后,所述方法还包括:依据所述目标坐标信息对所述眼球的注视点的坐标信息进行校验,得到第二校验结果;依据所述第二校验结果,确定所述眼球的注视点的置信度值;获取所述眼球的反光的置信度值;依据所述眼球的反光的置信度值和所述眼球的注视点的置信度值,确定对所述目标对象的人脸进行活体检测的结果。
处理器执行程序时还实现以下步骤:在接收目标客户端设备发送的目标活体检测请求之后,所述方法还包括:获取目标活体检测请求中的目标信息,所述目标信息至少包括:所述目标客户端设备的验签信息和所述目标客户端设备的参数信息;对所述目标信息进行校验,得到第三校验结果;在所述第三校验结果符合第二预设要求的情况下,随机生成所述目标发光信息和所述目标坐标信息;在所述第三校验结果不符合所述第二预设要求的情况下,向所述目标客户端设备发送报错信息。
处理器执行程序时还实现以下步骤:随机生成目标发光信息和目标坐标信息包括:配置所述显示设备的第一参数,其中,所述第一参数至少包括所述显示设备的发光颜色、所述发光颜色对应的时长和所述显示设备中的注视点的位置的字典;基于所述第一参数,结合目标随机算法,随机生成所述目标发光信息和所述目标坐标信息。
处理器执行程序时还实现以下步骤:在所述目标对象的目标参数符合第一预设要求的情况下之前,所述方法还包括:通过所述显示设备中的摄像头获取实时的视频流;从所述视频流中获取当前图像中的人脸信息,并从所述人脸信息中获取所述目标参数;判断所述目标参数是否符合所述第一预设要求;在所述目标参数符合所述第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息;在所述目标参数不符合所述第一预设要求的情况下,向所述目标对象发送第一提示信息,其中,所述第一提示信息用于提示所述目标对象改变所述目标参数。
处理器执行程序时还实现以下步骤:采集所述目标对象在光线和注视点的变化过程中的人脸图像信息包括:在所述显示设备的光线的颜色变化和所述目标对象的眼球的注视点的变化过程中,按照帧率从所述视频流中抽取符合所述目标活体检测请求的正面人脸图像;依据所述正面人脸图像,得到所述目标对象在光线和注视点的变化过程中的人脸图像信息。本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在随机生成目标发光信息和目标坐标信息之后,所述方法还包括:在所述目标对象的目标参数符合第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息,其中,所述目标参数至少包括:所述目标对象的人脸与所述显示设备之间的角度和距离、所述目标对象的人脸的遮挡情况,所述目标提示信息用于提示所述目标对象的注视点随着提示内容移动;采集所述目标对象在光线和注视点的变化过程中的人脸图像信息;提取所述人脸图像信息中的眼部区域的图像,得到所述眼部图像信息,并将所述眼部图像信息发送至所述目标客户端设备对应的目标云端服务器。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果包括:对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,所述第一反光信息至少包括:所述眼球的反光颜色和所述反光颜色对应的时长;对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息;判断所述第一反光信息是否与所述目标发光信息相同,并判断所述眼球的注视点的坐标信息是否与所述目标坐标信息相同;在所述第一反光信息与所述目标发光信息相同,且所述眼球的注视点的坐标信息与所述目标坐标信息相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸是活体;在所述第一反光信息与所述目标发光信息不相同,和/或所述眼球的注视点的坐标信息与所述目标坐标信息不相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸不是活体。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在对所述眼部图像信息中的眼球的反光信息进行分析之前,所述方法还包括:将所述眼部图像信息分解成光照分量和反射分量;对所述光照分量和所述反射分量进行滤波,得到傅里叶谱;依据所述傅里叶谱,确定平面成像与立体成像的差异;依据所述差异,检测所述眼部图像信息是否具备立体性;在所述眼部图像信息具备立体性的情况下,对所述眼部图像信息中的眼球的反光信息进行分析。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,所述方法还包括:获取所述眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;依据所述反射特性和所述目标发光信息对所述第一反光信息进行校验,得到第一校验结果;依据所述第一校验结果,确定所述眼球的反光的置信度值。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息包括:从所述眼部图像信息中提取所述目标对象的眼睛的瞳孔的轮廓;依据所述瞳孔的轮廓,得到所述瞳孔的中心位置;依据所述眼部图像信息,得到所述目标对象的眼睛的角膜的中心位置;依据所述瞳孔的中心位置和所述角膜的中心位置,计算所述瞳孔的中心和所述角膜的中心之间的偏移量;依据所述瞳孔的中心和所述角膜的中心之间的偏移量,确定所述眼部图像信息中的每帧照片中的眼睛的位移量;结合眼球模型将所述眼球的注视点映射在所述显示设备上,并得到所述眼球的注视点的坐标信息。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息之后,所述方法还包括:依据所述目标坐标信息对所述眼球的注视点的坐标信息进行校验,得到第二校验结果;依据所述第二校验结果,确定所述眼球的注视点的置信度值;获取所述眼球的反光的置信度值;依据所述眼球的反光的置信度值和所述眼球的注视点的置信度值,确定对所述目标对象的人脸进行活体检测的结果。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在接收目标客户端设备发送的目标活体检测请求之后,所述方法还包括:获取目标活体检测请求中的目标信息,所述目标信息至少包括:所述目标客户端设备的验签信息和所述目标客户端设备的参数信息;对所述目标信息进行校验,得到第三校验结果;在所述第三校验结果符合第二预设要求的情况下,随机生成所述目标发光信息和所述目标坐标信息;在所述第三校验结果不符合所述第二预设要求的情况下,向所述目标客户端设备发送报错信息。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:随机生成目标发光信息和目标坐标信息包括:配置所述显示设备的第一参数,其中,所述第一参数至少包括所述显示设备的发光颜色、所述发光颜色对应的时长和所述显示设备中的注视点的位置的字典;基于所述第一参数,结合目标随机算法,随机生成所述目标发光信息和所述目标坐标信息。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:在所述目标对象的目标参数符合第一预设要求的情况下之前,所述方法还包括:通过所述显示设备中的摄像头获取实时的视频流;从所述视频流中获取当前图像中的人脸信息,并从所述人脸信息中获取所述目标参数;判断所述目标参数是否符合所述第一预设要求;在所述目标参数符合所述第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息;在所述目标参数不符合所述第一预设要求的情况下,向所述目标对象发送第一提示信息,其中,所述第一提示信息用于提示所述目标对象改变所述目标参数。
当在数据处理设备上执行时,还适于执行初始化有如下方法步骤的程序:采集所述目标对象在光线和注视点的变化过程中的人脸图像信息包括:在所述显示设备的光线的颜色变化和所述目标对象的眼球的注视点的变化过程中,按照帧率从所述视频流中抽取符合所述目标活体检测请求的正面人脸图像;依据所述正面人脸图像,得到所述目标对象在光线和注视点的变化过程中的人脸图像信息。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种人脸活体的检测方法,其特征在于,包括:
接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;
在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;
在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;
对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
2.根据权利要求1所述的方法,其特征在于,在随机生成目标发光信息和目标坐标信息之后,所述方法还包括:
在所述目标对象的目标参数符合第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息,其中,所述目标参数至少包括:所述目标对象的人脸与所述显示设备之间的角度和距离、所述目标对象的人脸的遮挡情况,所述目标提示信息用于提示所述目标对象的注视点随着提示内容移动;
采集所述目标对象在光线和注视点的变化过程中的人脸图像信息;
提取所述人脸图像信息中的眼部区域的图像,得到所述眼部图像信息,并将所述眼部图像信息发送至所述目标客户端设备对应的目标云端服务器。
3.根据权利要求1所述的方法,其特征在于,对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果包括:
对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息,其中,所述第一反光信息至少包括:所述眼球的反光颜色和所述反光颜色对应的时长;
对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息;
判断所述第一反光信息是否与所述目标发光信息相同,并判断所述眼球的注视点的坐标信息是否与所述目标坐标信息相同;
在所述第一反光信息与所述目标发光信息相同,且所述眼球的注视点的坐标信息与所述目标坐标信息相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸是活体;
在所述第一反光信息与所述目标发光信息不相同,和/或所述眼球的注视点的坐标信息与所述目标坐标信息不相同的情况下,确定对所述目标对象的人脸进行活体检测的结果为所述人脸不是活体。
4.根据权利要求3所述的方法,其特征在于,在对所述眼部图像信息中的眼球的反光信息进行分析之前,所述方法还包括:
将所述眼部图像信息分解成光照分量和反射分量;
对所述光照分量和所述反射分量进行滤波,得到傅里叶谱;
依据所述傅里叶谱,确定平面成像与立体成像的差异;
依据所述差异,检测所述眼部图像信息是否具备立体性;
在所述眼部图像信息具备立体性的情况下,对所述眼部图像信息中的眼球的反光信息进行分析。
5.根据权利要求3所述的方法,其特征在于,在对所述眼部图像信息中的眼球的反光信息进行分析,得到第一反光信息之后,所述方法还包括:
获取所述眼部图像信息中的多帧眼球的RGB图像在不同光照条件下的反射特性;
依据所述反射特性和所述目标发光信息对所述第一反光信息进行校验,得到第一校验结果;
依据所述第一校验结果,确定所述眼球的反光的置信度值。
6.根据权利要求3所述的方法,其特征在于,对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息包括:
从所述眼部图像信息中提取所述目标对象的眼睛的瞳孔的轮廓;
依据所述瞳孔的轮廓,得到所述瞳孔的中心位置;
依据所述眼部图像信息,得到所述目标对象的眼睛的角膜的中心位置;
依据所述瞳孔的中心位置和所述角膜的中心位置,计算所述瞳孔的中心和所述角膜的中心之间的偏移量;
依据所述瞳孔的中心和所述角膜的中心之间的偏移量,确定所述眼部图像信息中的每帧照片中的眼睛的位移量;
结合眼球模型将所述眼球的注视点映射在所述显示设备上,并得到所述眼球的注视点的坐标信息。
7.根据权利要求5所述的方法,其特征在于,在对所述眼部图像信息中的眼球的注视点信息进行分析,得到所述眼球的注视点的坐标信息之后,所述方法还包括:
依据所述目标坐标信息对所述眼球的注视点的坐标信息进行校验,得到第二校验结果;
依据所述第二校验结果,确定所述眼球的注视点的置信度值;
获取所述眼球的反光的置信度值;
依据所述眼球的反光的置信度值和所述眼球的注视点的置信度值,确定对所述目标对象的人脸进行活体检测的结果。
8.根据权利要求1所述的方法,其特征在于,在接收目标客户端设备发送的目标活体检测请求之后,所述方法还包括:
获取目标活体检测请求中的目标信息,所述目标信息至少包括:所述目标客户端设备的验签信息和所述目标客户端设备的参数信息;
对所述目标信息进行校验,得到第三校验结果;
在所述第三校验结果符合第二预设要求的情况下,随机生成所述目标发光信息和所述目标坐标信息;
在所述第三校验结果不符合所述第二预设要求的情况下,向所述目标客户端设备发送报错信息。
9.根据权利要求1所述的方法,其特征在于,随机生成目标发光信息和目标坐标信息包括:
配置所述显示设备的第一参数,其中,所述第一参数至少包括所述显示设备的发光颜色、所述发光颜色对应的时长和所述显示设备中的注视点的位置的字典;
基于所述第一参数,结合目标随机算法,随机生成所述目标发光信息和所述目标坐标信息。
10.根据权利要求2所述的方法,其特征在于,在所述目标对象的目标参数符合第一预设要求的情况下之前,所述方法还包括:
通过所述显示设备中的摄像头获取实时的视频流;
从所述视频流中获取当前图像中的人脸信息,并从所述人脸信息中获取所述目标参数;
判断所述目标参数是否符合所述第一预设要求;
在所述目标参数符合所述第一预设要求的情况下,依据所述目标发光信息和所述目标坐标信息,控制所述显示设备发出不同颜色的光线和在所述显示设备中的第一坐标上显示目标提示信息;
在所述目标参数不符合所述第一预设要求的情况下,向所述目标对象发送第一提示信息,其中,所述第一提示信息用于提示所述目标对象改变所述目标参数。
11.根据权利要求10所述的方法,其特征在于,采集所述目标对象在光线和注视点的变化过程中的人脸图像信息包括:
在所述显示设备的光线的颜色变化和所述目标对象的眼球的注视点的变化过程中,按照帧率从所述视频流中抽取符合所述目标活体检测请求的正面人脸图像;
依据所述正面人脸图像,得到所述目标对象在光线和注视点的变化过程中的人脸图像信息。
12.一种人脸活体的检测装置,其特征在于,包括:
第一接收单元,用于接收目标客户端设备发送的目标活体检测请求,其中,所述目标活体检测请求用于对目标对象的人脸进行活体检测;
第一生成单元,用于在接收到所述目标活体检测请求之后,随机生成目标发光信息和目标坐标信息,并将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备,其中,所述目标发光信息至少包括:所述目标客户端设备中的显示设备的发光颜色和所述发光颜色对应的时长,所述目标坐标信息用于表示所述显示设备中的注视点的坐标;
第二接收单元,用于在将所述目标发光信息和所述目标坐标信息发送至所述目标客户端设备之后,接收所述目标客户端设备返回的所述目标对象的眼部图像信息,其中,所述眼部图像信息为基于所述目标发光信息和所述目标坐标信息生成的图像信息;
第一分析单元,用于对所述眼部图像信息进行分析,确定对所述目标对象的人脸进行活体检测的结果。
13.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至11中任意一项所述的人脸活体的检测方法。
14.一种电子设备,其特征在于,包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至11中任意一项所述的人脸活体的检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210368025.1A CN114648801A (zh) | 2022-04-08 | 2022-04-08 | 人脸活体的检测方法及装置、处理器和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210368025.1A CN114648801A (zh) | 2022-04-08 | 2022-04-08 | 人脸活体的检测方法及装置、处理器和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114648801A true CN114648801A (zh) | 2022-06-21 |
Family
ID=81996816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210368025.1A Pending CN114648801A (zh) | 2022-04-08 | 2022-04-08 | 人脸活体的检测方法及装置、处理器和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114648801A (zh) |
-
2022
- 2022-04-08 CN CN202210368025.1A patent/CN114648801A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102251477B1 (ko) | 얼굴 인식-기반 인증 | |
US10796178B2 (en) | Method and device for face liveness detection | |
US9697414B2 (en) | User authentication through image analysis | |
WO2018153311A1 (zh) | 基于虚拟现实场景的业务认证方法及装置 | |
US10095927B2 (en) | Quality metrics for biometric authentication | |
CN103383723B (zh) | 用于生物特征验证的电子欺骗检测的方法和系统 | |
JP2022507315A (ja) | アイデンティティ検証方法並びにその、装置、コンピュータプログラムおよびコンピュータ機器 | |
CN108629260B (zh) | 活体验证方法和装置及存储介质 | |
US20150186708A1 (en) | Biometric identification system | |
CN108595928A (zh) | 人脸识别的信息处理方法、装置及终端设备 | |
CN111723636B (zh) | 利用视动反应的欺骗检测 | |
CN108564033A (zh) | 基于结构光的安全验证方法、装置及终端设备 | |
CN114648801A (zh) | 人脸活体的检测方法及装置、处理器和电子设备 | |
CN113093907B (zh) | 人机交互方法、系统、设备及存储介质 | |
CN114913575A (zh) | 活体验证方法、装置以及计算机可读存储介质 | |
KR102151851B1 (ko) | 적외선 영상 기반 얼굴 인식 방법 및 이를 위한 학습 방법 | |
CN114387674A (zh) | 活体检测方法、系统、设备、存储介质及程序产品 | |
US11948402B2 (en) | Spoof detection using intraocular reflection correspondences | |
US20230419737A1 (en) | Methods and systems for detecting fraud during biometric identity verification | |
WO2024021251A1 (zh) | 身份校验方法、装置、电子设备以及存储介质 | |
CN117765621A (zh) | 活体检测方法、装置及存储介质 | |
CN114676403A (zh) | 认证系统、设备及方法 | |
CN117523460A (zh) | 身份核验方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |