CN114913575A - 活体验证方法、装置以及计算机可读存储介质 - Google Patents

活体验证方法、装置以及计算机可读存储介质 Download PDF

Info

Publication number
CN114913575A
CN114913575A CN202210434683.6A CN202210434683A CN114913575A CN 114913575 A CN114913575 A CN 114913575A CN 202210434683 A CN202210434683 A CN 202210434683A CN 114913575 A CN114913575 A CN 114913575A
Authority
CN
China
Prior art keywords
face
frame
verification
detection result
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210434683.6A
Other languages
English (en)
Inventor
邓泳
张锦元
林晓锐
刘唱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202210434683.6A priority Critical patent/CN114913575A/zh
Publication of CN114913575A publication Critical patent/CN114913575A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本申请公开了一种活体验证方法、装置以及计算机可读存储介质,涉及金融科技领域。其中,该方法包括:响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;采集待识别对象在显示界面中的人脸位置以及人脸面部表情;检测人脸位置是否位于位置框中,得到第一检测结果;检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果;根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。本申请解决了现有技术中使用文本验证码或图像验证码进行活体检验时存在的安全性差的技术问题。

Description

活体验证方法、装置以及计算机可读存储介质
技术领域
本申请涉及金融科技领域,具体而言,涉及一种活体验证方法、装置以及计算机可读存储介质。
背景技术
验证码是一种用来区分真人操作和机器操作的验证机制,正被广泛地用于各类账号登陆的验证环节。
在现有技术中,主要有文本验证以及图像验证两种验证方式。其中,文本验证码需要用户根据系统随机生成的图像中的文本,在输入框中进行文本输入以完成文本比对验证。图像验证码则需要用户根据系统随机生成的图像内容和指令,选择正确内容的图像以完成验证。
但是,由于文本验证码已被大部分攻击程序破解,而图像中的文字也能通过文字识别技术进行识别,因此,无论是文本验证还是图像验证,都会存在安全性差的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种活体验证方法、装置以及计算机可读存储介质,以至少解决现有技术中使用文本验证码或图像验证码进行活体检验时存在的安全性差的技术问题。
根据本申请实施例的一个方面,提供了一种活体验证方法,包括:响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;采集待识别对象在显示界面中的人脸位置以及人脸面部表情;检测人脸位置是否位于位置框中,得到第一检测结果;检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果;根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
进一步地,活体验证方法还包括:验证图像中包含有至少一个虚拟角色,根据虚拟角色在验证图像中的位置信息随机确定位置框的生成位置;在生成位置生成位置框。
进一步地,活体验证方法还包括:获取实时视频流;对实时视频流进行分帧处理,得到多帧待识别图像;在每帧待识别图像中获取人脸区域的位置信息,得到待识别对象在每帧待识别图像中的人脸位置;识别每帧待识别图像中待识别对象的人脸面部表情。
进一步地,活体验证方法还包括:基于人脸位置生成矩形框,其中,矩形框将位于人脸位置的人脸进行包围;获取矩形框在验证图像中的第一坐标信息,以及位置框在验证图像中的第二坐标信息;在预设时长内,根据第一坐标信息以及第二坐标信息,检测人脸位置是否位于位置框中,得到第一检测结果。
进一步地,活体验证方法还包括:在预设时长内,若检测到人脸位置位于位置框之外,生成提示信息,其中,提示信息用于提醒待识别对象将人脸位置移动至位置框内。
进一步地,活体验证方法还包括:识别待识别对象的人脸的多个关键点,并确定每个关键点的位置;根据每个关键点的位置,确定人脸的多个关键部位;计算每个关键部位的长宽比;根据每个关键部位的长宽比确定人脸面部的形状;基于人脸面部的形状确定人脸面部表情,并确定人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。
进一步地,活体验证方法还包括:在人脸位置位于位置框中,并且人脸面部表情与表情动作指令相匹配时,确定待识别对象为活体对象;在人脸位置位于位置框之外,或者人脸面部表情与表情动作指令不匹配时,确定待识别对象为非活体对象。
根据本申请实施例的另一方面,还提供了一种活体验证装置,包括:生成模块,用于响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;采集模块,用于采集待识别对象在显示界面中的人脸位置以及人脸面部表情;第一检测模块,用于检测人脸位置是否位于位置框中,得到第一检测结果;第二检测模块,用于检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果;确定模块,根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
根据本申请实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述的活体验证方法。
根据本申请实施例的另一方面,还提供了一种电子设备,包括一个或多个处理器和存储器,存储器用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现上述的活体验证方法。
在本申请实施例中,采用检测人脸位置是否位于验证图像中随机生成的位置框的方式,通过响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令,然后采集待识别对象在显示界面中的人脸位置以及人脸面部表情,从而检测所述人脸位置是否位于所述位置框中,得到第一检测结果;检测所述人脸面部表情是否与所述表情动作指令相匹配,得到第二检测结果。最后,根据所述第一检测结果以及所述第二检测结果确定所述待识别对象是否为活体对象。
由上述内容可知,与现有技术相比,本申请没有采用根据随机生成的图像内容和指令,由用户选择正确内容的图像以完成图像验证的方式,而是通过在验证图像中随机生成位置框以及表情动作指令之后,基于人脸位置以及人脸面部表情对待识别对象进行活体验证。其中,由于位置框以及表情动作指令是随机生成的,因此增加了位置框和表情动作指令的破解难度,提高了活体验证过程的安全性。此外,无论是验证人脸位置是否位于位置框中,还是验证人脸面部表情是否与表情动作指令相匹配,都需要用户通过移动人脸或者做出表情等交互式配合才能实现,而这些交互式配合的过程是文字识别技术以及其他攻击程序无法破解的,因此,本申请提高了识别机器操作行为的识别准确率,从而进一步地提高了活体验证时的安全性。另外,传统的图像验证码由于其图像内容不稳定,各类人群对图像内容的定义容易存在主观偏差,从而导致验证通过率下降,影响易用性的问题。而通过本申请的技术方案,用户可以清楚直观的了解到位置框的位置以及表情动作指令的内容,从而避免了由于图像内容不稳定导致的易用性差的问题。
由此可见,通过本申请的技术方案,达到了增强机器操作通过活体验证难度的目的,从而实现了提高识别机器操作行为准确度的技术效果,进而解决了现有技术中使用文本验证码或图像验证码进行活体检验时存在的安全性差的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据现本申请实施例的一张可选的活体验证方法的流程图;
图2是根据本申请实施例的一种可选的位置框生成位置的示意图;
图3是根据本申请实施例的一种可选的位置框生成位置的示意图;
图4是根据本申请实施例的一种可选的活体验证装置的示意图;
图5是根据本申请实施例的一种可选的电子设备的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
另外,还需要说明的是,本公开所涉及的相关信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。例如,本系统和相关用户或机构间设置有接口,在获取相关信息之前,需要通过接口向前述的用户或机构发送获取请求,并在接收到前述的用户或机构反馈的同意信息后,获取相关信息。
实施例1
根据本申请实施例,提供了一种活体验证方法的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
另外,还需要说明的是,一种活体验证系统可以作为本申请的实施例中的活体验证方法的执行主体。
图1是根据现本申请实施例的一张可选的活体验证方法的流程图,如图1所示,该方法包括如下步骤:
步骤S101,响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令。
在步骤S101中,当客户端检测到用户在进行账号登陆等操作时,客户端会生成活体验证指令,并将活体验证指令发送给活体验证系统。活体验证系统响应于活体验证指令之后,首先会随机生成验证图像,其中,在多次生成验证图像时,活体验证系统每次所生成的验证图像的图像内容都不相同。在生成验证图像之后,活体验证系统会在验证图像中随机生成位置框以及表情动作指令,其中,位置框的生成位置可以是验证图像上的任意一个位置,位置框的形状可以是矩形、圆形、三角形以及其他不规则形状中的任意一种形状。表情动作指令可以是一个动作指令或者连续的多个动作指令,例如,可以是要求用户执行张嘴、闭嘴、眨眼等动作,或者要求用户执行做出微笑、皱眉等表示高兴或者生气的表情动作。
需要注意到的是,由于位置框以及表情动作指令是随机生成的,因此增加了位置框和表情动作指令的破解难度,从而提高了活体验证过程的安全性。另外,传统的图像验证码由于其图像内容不稳定,各类人群对图像内容的定义容易存在主观偏差,从而导致验证通过率下降,影响易用性的问题。而通过本申请的技术方案,用户可以清楚直观的了解到位置框的位置以及表情动作指令的内容,从而避免了由于图像内容不稳定导致的易用性差的问题。
步骤S102,采集待识别对象在显示界面中的人脸位置以及人脸面部表情。
在步骤S102中,活体验证系统可以通过客户端的摄像头等图像采集设备采集实时视频流,然后调用人脸检测和追踪模块来检测实时视频流中是否存在人脸,并追踪人脸在实时视频流的每帧图像中的相对位置。同时,活体验证系统还会在客户端的显示界面上实时显示当前人脸在实时视频流的每帧图像中的相对位置。另外,活体验证系统还会调用面部动作识别模块来检测实施视频流的每帧图像中的人脸面部表情。
步骤S103,检测人脸位置是否位于位置框中,得到第一检测结果。
在步骤S103中,在活体验证系统在验证图像的任意一个位置上随机生成位置框之后,在预设时长内,用户需要通过调整自身头部位置,将其人脸位置移动至位置框中。在此基础上,如果在预设时长之内,活体验证系统检测到用户的人脸位置位于位置框中,则活体验证系统确定第一检测过程验证成功;如果在预设时长之内,活体验证系统检测用户的人脸位置位于位置框之外,则活体验证系统确定第一检测过程验证失败。
步骤S104,检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。
在步骤S104中,在预设时长内,如果活体验证系统检测到用户的人脸位置位于位置框之内,则活体验证系统将继续检测此时的人脸面部表情是否与表情动作指令相匹配,如果匹配,则确定第二检测过程验证成功,如果不匹配,则确定第二检测过程验证不成功。例如,表情动作指令为要求用户做出微笑的表情,但是用户做出的表情却是皱眉生气的表情,则活体验证系统将判定用户的人脸面部表情与表情动作指令不匹配。
此外,无论是要求用户移动人脸位置至位置框中,还是向用户发送表情动作指令,活体检测系统都可以通过文字提示或者语音提示等方式提醒用户,从而提高用户的使用体验。
步骤S105,根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
在步骤S105中,在人脸位置位于位置框中,并且人脸面部表情与表情动作指令相匹配时,活体验证系统确定待识别对象为活体对象;在人脸位置位于位置框之外,或者人脸面部表情与表情动作指令不匹配时,活体验证系统确定待识别对象为非活体对象。其中,待识别对象为非活体对象指的是待识别对象并不是真人,此时待识别对象的活体验证可能是机器操作行为。
需要注意到的是,无论是验证人脸位置是否位于位置框中,还是验证人脸面部表情是否与表情动作指令相匹配,都需要用户通过移动人脸或者做出表情等交互式配合才能实现,而这些交互式配合的过程是文字识别技术以及其他攻击程序无法破解的,因此,本申请规避了攻击程序的攻击行为,提高了活体验证时的安全性。
基于上述步骤S101至步骤S105的内容可知,在本申请实施例中,采用检测人脸位置是否位于验证图像中随机生成的位置框的方式,通过响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令,然后采集待识别对象在显示界面中的人脸位置以及人脸面部表情,从而检测人脸位置是否位于位置框中,得到第一检测结果;检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。最后,根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
由上述内容可知,与现有技术相比,本申请没有采用根据随机生成的图像内容和指令,由用户选择正确内容的图像以完成图像验证的方式,而是通过在验证图像中随机生成位置框以及表情动作指令之后,基于人脸位置以及人脸面部表情对待识别对象进行活体验证。其中,由于位置框以及表情动作指令是随机生成的,因此增加了位置框和表情动作指令的破解难度,提高了活体验证过程的安全性。此外,无论是验证人脸位置是否位于位置框中,还是验证人脸面部表情是否与表情动作指令相匹配,都需要用户通过移动人脸或者做出表情等交互式配合才能实现,而这些交互式配合的过程是文字识别技术以及其他攻击程序无法破解的,因此,本申请提高了识别机器操作行为的识别准确率,从而进一步地提高了活体验证时的安全性。另外,传统的图像验证码由于其图像内容不稳定,各类人群对图像内容的定义容易存在主观偏差,从而导致验证通过率下降,影响易用性的问题。而通过本申请的技术方案,用户可以清楚直观的了解到位置框的位置以及表情动作指令的内容,从而避免了由于图像内容不稳定导致的易用性差的问题。
由此可见,通过本申请的技术方案,达到了增强机器操作通过活体验证难度的目的,从而实现了提高识别机器操作行为准确度的技术效果,进而解决了现有技术中使用文本验证码或图像验证码进行活体检验时存在的安全性差的技术问题。
在一种可选的实施例中,验证图像中包含有至少一个虚拟角色,活体验证系统首先根据虚拟角色在验证图像中的位置信息随机确定位置框的生成位置,然后在生成位置生成位置框。
可选的,在验证图像中的虚拟角色可以是虚拟人物角色,也可以是其他虚拟形象角色,例如,虚拟建筑、虚拟植物、虚拟自然环境等。基于这写虚拟角色在验证图像中的位置信息,活体验证系统可以在验证图像中随机确定位置框的生成位置。举例而言,如图2所示,验证图像是一张合影照,里面有虚拟人物A、虚拟人物B以及虚拟人物C,基于合影照中三个虚拟人物的位置,位置框的生成位置可以是虚拟人物A的头部位置、虚拟人物B的头部位置或者虚拟人物C的头部位置这三个头部位置中的任意一个位置。另外,如图3所示,验证图像还可以是一张风景照片,里面有一颗虚拟树木,其中,在虚拟树木的周围分别存在位置1、位置2以及位置3,在此基础上,位置框的生成位置可以是三个位置中的任意一个位置。
需要注意到的是,上述两个示例只是为了技术人员更加容易理解本申请的技术方案,在实际应用中,位置框的生成位置可以基于验证图像具体的图像内容确定。由于位置框的生成位置与图像内容相结合,因此,在用户的人脸出现在位置框中,并且做出表情时,可以给与用户一种自己的人脸表情与图像内容相结合的感受,从而跳过够了用户的使用体验,增加了活体验证过程中的趣味性。
在一种可选的实施例中,活体验证系统首先通过客户端的图像采集设备获取实时视频流,然后对实时视频流进行分帧处理,得到多帧待识别图像,并在在每帧待识别图像中获取人脸区域的位置信息,得到待识别对象在每帧待识别图像中的人脸位置,最后活体验证系统还识别每帧待识别图像中待识别对象的人脸面部表情。
可选的,活体验证系统中包含有opencv(一种开源的跨平台计算机视觉和机器学习软件库)子系统,其中,opencv子系统中包含有VideoCapture(一种用于调用视频设备的函数)函数,活体验证系通过VideoCapture函数即可调用客户端的摄像头等图像采集设备,进而使用图像采集系统设备采集实时视频流。另外,在采集得到实时视频流之后,活体验证系统可以对实时视频流进行分帧处理,从而得到多帧待识别图像。基于每一帧待识别图像,活体验证系统通过人脸检测和追踪模块获取待识别图像中人脸区域的位置信息,从而得到人脸位置。同时,基于每一帧图像,活体验证系统还通过面部动作识别模块识别待识别图像中待识别对象的人脸面部表情。
需要注意到的是,通过调用图像采集设备实时采集人脸信息,并且对人脸位置和人脸面部表情进行检测可以有效地拦截类似爬虫类的机器操作。
在一种可选的实施例中,活体验证系统可基于人脸位置生成矩形框,其中,矩形框将位于人脸位置的人脸进行包围。然后活体验证系统获取矩形框在验证图像中的第一坐标信息,以及位置框在验证图像中的第二坐标信息。最后,活体验证系统在预设时长内,根据第一坐标信息以及第二坐标信息,检测人脸位置是否位于位置框中,得到第一检测结果。
可选的,在得到人脸位置之后,活体验证系统可生成一个包围人脸位置的矩形框,然后活体验证系统基于验证图像建立坐标系,并基于该坐标系确定矩形框在验证图像中的第一坐标信息以及位置框在验证图像中的第二坐标信息。例如,验证图像可以是一个矩形的图像,以矩形的中心作为坐标系的原点,建立一个二维坐标系,然后计算矩形框每个顶点在二维坐标系中的顶点坐标,从而根据矩形框4个顶点的顶点坐标确定矩形框的第一坐标信息。同理,由于位置框也是位于验证图像中,因此,位置框实际上也在二维坐标系中,通过计算位置框的顶点的坐标,活体验证系统也可以确定位置框的第二坐标信息。
另外,活体验证系统可以通过判断第一坐标信息与第二坐标信息确定矩形框是否在位置框内,从而确定用户的人脸位置是否在位置框中。
需要注意到的是,通过计算第一坐标信息与第二坐标信息,可以精准地确定矩形框的位置以及位置框的位置,从而提高了检测人脸位置是否处于位置框内的检测精准度。
在一种可选的实施例中,在预设时长内,若检测到人脸位置位于位置框之外,生成提示信息,其中,提示信息用于提醒待识别对象将人脸位置移动至位置框内。
可选的,提示信息可以是文字形式的提示信息,也可以是语音形式的提示信息。例如,在检测过程中,如果活体验证系统始终检测到人脸位置位于位置框之外,则活体验证系统可以根据当前的人脸位置向用户发出“请向上移动人脸,以确保人脸位于位置框中”、“请向左移动人脸,以确保人脸位于位置框中”等语音提示。通过提示信息,用户可以方便快捷地将人脸位置移动至位置框中,整个过程简单明了,提高了用户的使用体验。
在一种可选的实施例中,活体验证系统可识别待识别对象的人脸的多个关键点,并确定每个关键点的位置,然后根据每个关键点的位置,确定人脸的多个关键部位,随后计算每个关键部位的长宽比,并根据每个关键部位的长宽比确定人脸面部的形状。最后活体验证系统基于人脸面部的形状确定人脸面部表情,并确定人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。
可选的,在检测人脸面部表情是否与表情动作指令相匹配时,活体验证系统可以使用DLIB库中的人脸检测器识别人脸脸部的多个关键点,然后通过数组切片确定每个关键点的位置,并根据每个关键点的位置确定人脸的关键部位。例如,基于关键的位置分布,确定用于组成人脸中嘴部的关键点、用于组成人脸中眼部的关键点,然后基于这些关键点确定了当前人脸的嘴部和眼部。在此基础上,由于在不同的表情下,嘴部和眼部的形状不同,即嘴部和眼部的长宽比会发生变化,因此,活体验证系统可以计算关键部位的长宽比,并且通过长宽比确定人脸面部的形状,最后基于人脸面部的形状确定人脸面部表情。例如,计算眼部的长宽比和嘴部的长宽比,如果嘴部的长宽比大于第一阈值,则表示用户是张嘴状态,如果嘴部的长宽比小于或等于第一阈值,则表示用户是闭嘴状态。此外,如果眼部的长宽比大于第二阈值,则表示用户是睁眼状态,如果眼部的长宽比小于或等于第二阈值,则表示用户是闭眼状态。不同状态下的眼部和嘴部可以构成不同形状的人脸面部,进而表示了不同的人脸面部表情。
需要注意到的是,通过检测人脸面部表情是否与表情动作指令相匹配,增强了活体验证系统拦截机器操作行为的能力,并且整个验证过程操作简单,无需用户额外进行输入操作,只需进行交互式的配合即可,大大提高了易用性。
在一种可选的实施例中,在人脸位置位于位置框中,并且人脸面部表情与表情动作指令相匹配时,活体验证系统确定待识别对象为活体对象;在人脸位置位于位置框之外,或者人脸面部表情与表情动作指令不匹配时,活体验证系统确定待识别对象为非活体对象。
可选的,本申请使用了两层验证过程,即验证人脸位置是否位于位置框中,以及验证人脸面部表情是否与表情动作指令相匹配。只有两层验证过程全部通过时,才能最终确定待识别对象是活体对象,即当前账号登陆等行为是真人操作的行为。如果两层验证过程中有任意一个验证过程无法通过,则活体验证系统将确定待识别对象是非活体对象,即当前账号登录等行为是机器操作的行为。
需要注意到的是,通过上述两层验证过程,不仅仅提高了识别机器操作行为的精准度,而且无论是检验人脸位置还是识别人脸面部行为都只需要用户进行简单的交互配合即可,整个过程操作步骤简单,易用性强,有利于提高用户的使用体验。
实施例2
根据本发明实施例,还提供了一种活体验证装置实施例,其中,图4是根据本申请实施例的一种可选的活体验证装置的示意图,如图4所示,该装置包括:生成模块401,用于响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;采集模块402,用于采集待识别对象在显示界面中的人脸位置以及人脸面部表情;第一检测模块403,用于检测人脸位置是否位于位置框中,得到第一检测结果;第二检测模块404,用于检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果;确定模块405,根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
需要说明的是,上述生成模块401、采集模块402、第一检测模块403、第二检测模块404以及确定模块405对应于上述实施例1中的步骤S101至步骤S105,五个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
可选的,上述生成模块中还包括:第一确定模块以及第一生成模块。其中,第一确定模块,用于根据虚拟角色在验证图像中的位置信息随机确定位置框的生成位置;第一生成模块,用于在生成位置生成位置框。
可选的,上述采集模块还包括:第一获取模块、分帧模块、第二获取模块以及识别模块。其中,第一获取模块,用于获取实时视频流;分帧模块,用于对实时视频流进行分帧处理,得到多帧待识别图像;第二获取模块,用于在每帧待识别图像中获取人脸区域的位置信息,得到待识别对象在每帧待识别图像中的人脸位置;识别模块,用于识别每帧待识别图像中待识别对象的人脸面部表情。
可选的,上述第一检测模块还包括:第二生成模块、第三获取模块以及第三检测模块。其中,第二生成模块,用于基于人脸位置生成矩形框,其中,矩形框将位于人脸位置的人脸进行包围;第三获取模块,用于获取矩形框在验证图像中的第一坐标信息,以及位置框在验证图像中的第二坐标信息;第三检测模块,用于在预设时长内,根据第一坐标信息以及第二坐标信息,检测人脸位置是否位于位置框中,得到第一检测结果。
可选的,活体验证装置还包括:第三生成模块,用于在预设时长内,若检测到人脸位置位于位置框之外,生成提示信息,其中,提示信息用于提醒待识别对象将人脸位置移动至位置框内。
可选的,上述第二检测模块还包括:第一识别模块、第二确定模块、计算模块、第三确定模块以及第四确定模块。其中,第一识别模块,用于识别待识别对象的人脸的多个关键点,并确定每个关键点的位置;第二确定模块,用于根据每个关键点的位置,确定人脸的多个关键部位;计算模块,用于计算每个关键部位的长宽比;第三确定模块,用于根据每个关键部位的长宽比确定人脸面部的形状;第四确定模块,用于基于人脸面部的形状确定人脸面部表情,并确定人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。
可选的,上述确定模块还包括:第五确定模块以及第六确定模块。其中,第五确定模块,用于在人脸位置位于位置框中,并且人脸面部表情与表情动作指令相匹配时,确定待识别对象为活体对象;第六确定模块,用于在人脸位置位于位置框之外,或者人脸面部表情与表情动作指令不匹配时,确定待识别对象为非活体对象。
实施例3
根据本申请实施例,还提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述实施例1中的活体验证方法。
实施例4
根据本申请实施例,还提供了一种电子设备实施例,其中,图5是根据本申请实施例的一种可选的电子设备的示意图,如图5所示,电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:
响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;采集待识别对象在显示界面中的人脸位置以及人脸面部表情;检测人脸位置是否位于位置框中,得到第一检测结果;检测人脸面部表情是否与表情动作指令相匹配,得到第二检测结果;根据第一检测结果以及第二检测结果确定待识别对象是否为活体对象。
可选的,处理器执行程序时还实现以下步骤:验证图像中包含有至少一个虚拟角色,根据虚拟角色在验证图像中的位置信息随机确定位置框的生成位置;在生成位置生成位置框。
可选的,处理器执行程序时还实现以下步骤:获取实时视频流;对实时视频流进行分帧处理,得到多帧待识别图像;在每帧待识别图像中获取人脸区域的位置信息,得到待识别对象在每帧待识别图像中的人脸位置;识别每帧待识别图像中待识别对象的人脸面部表情。
可选的,处理器执行程序时还实现以下步骤:基于人脸位置生成矩形框,其中,矩形框将位于人脸位置的人脸进行包围;获取矩形框在验证图像中的第一坐标信息,以及位置框在验证图像中的第二坐标信息;在预设时长内,根据第一坐标信息以及第二坐标信息,检测人脸位置是否位于位置框中,得到第一检测结果。
可选的,处理器执行程序时还实现以下步骤:在预设时长内,若检测到人脸位置位于位置框之外,生成提示信息,其中,提示信息用于提醒待识别对象将人脸位置移动至位置框内。
可选的,处理器执行程序时还实现以下步骤:识别待识别对象的人脸的多个关键点,并确定每个关键点的位置;根据每个关键点的位置,确定人脸的多个关键部位;计算每个关键部位的长宽比;根据每个关键部位的长宽比确定人脸面部的形状;基于人脸面部的形状确定人脸面部表情,并确定人脸面部表情是否与表情动作指令相匹配,得到第二检测结果。
可选的,处理器执行程序时还实现以下步骤:在人脸位置位于位置框中,并且人脸面部表情与表情动作指令相匹配时,确定待识别对象为活体对象;在人脸位置位于位置框之外,或者人脸面部表情与表情动作指令不匹配时,确定待识别对象为非活体对象。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种活体验证方法,其特征在于,包括:
响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;
采集待识别对象在显示界面中的人脸位置以及人脸面部表情;
检测所述人脸位置是否位于所述位置框中,得到第一检测结果;
检测所述人脸面部表情是否与所述表情动作指令相匹配,得到第二检测结果;
根据所述第一检测结果以及所述第二检测结果确定所述待识别对象是否为活体对象。
2.根据权利要求1所述的方法,其特征在于,所述验证图像中包含有至少一个虚拟角色,在所述验证图像中随机生成所述位置框,包括:
根据所述虚拟角色在所述验证图像中的位置信息随机确定所述位置框的生成位置;
在所述生成位置生成所述位置框。
3.根据权利要求1所述的方法,其特征在于,采集待识别对象在显示界面中的人脸位置以及人脸面部表情,包括:
获取实时视频流;
对所述实时视频流进行分帧处理,得到多帧待识别图像;
在每帧待识别图像中获取人脸区域的位置信息,得到所述待识别对象在所述每帧待识别图像中的人脸位置;
识别所述每帧待识别图像中所述待识别对象的人脸面部表情。
4.根据权利要求1所述的方法,其特征在于,检测所述人脸位置是否位于所述位置框中,得到第一检测结果,包括:
基于所述人脸位置生成矩形框,其中,所述矩形框将位于所述人脸位置的人脸进行包围;
获取所述矩形框在所述验证图像中的第一坐标信息,以及所述位置框在所述验证图像中的第二坐标信息;
在预设时长内,根据所述第一坐标信息以及所述第二坐标信息,检测所述人脸位置是否位于所述位置框中,得到所述第一检测结果。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
在所述预设时长内,若检测到所述人脸位置位于所述位置框之外,生成提示信息,其中,所述提示信息用于提醒所述待识别对象将所述人脸位置移动至所述位置框内。
6.根据权利要求1所述的方法,其特征在于,检测所述人脸面部表情是否与所述表情动作指令相匹配,得到第二检测结果,包括:
识别所述待识别对象的人脸的多个关键点,并确定每个关键点的位置;
根据所述每个关键点的位置,确定所述人脸的多个关键部位;
计算每个关键部位的长宽比;
根据所述每个关键部位的长宽比确定人脸面部的形状;
基于所述人脸面部的形状确定所述人脸面部表情,并确定所述人脸面部表情是否与所述表情动作指令相匹配,得到所述第二检测结果。
7.根据权利要求1所述的方法,其特征在于,根据所述第一检测结果以及所述第二检测结果确定所述待识别对象是否为活体对象,包括:
在所述人脸位置位于所述位置框中,并且所述人脸面部表情与所述表情动作指令相匹配时,确定所述待识别对象为所述活体对象;
在所述人脸位置位于所述位置框之外,或者所述人脸面部表情与所述表情动作指令不匹配时,确定所述待识别对象为非活体对象。
8.一种活体验证装置,其特征在于,包括:
生成模块,用于响应于活体验证指令,在验证图像中随机生成位置框以及表情动作指令;
采集模块,用于采集待识别对象在显示界面中的人脸位置以及人脸面部表情;
第一检测模块,用于检测所述人脸位置是否位于所述位置框中,得到第一检测结果;
第二检测模块,用于检测所述人脸面部表情是否与所述表情动作指令相匹配,得到第二检测结果;
确定模块,根据所述第一检测结果以及所述第二检测结果确定所述待识别对象是否为活体对象。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至7任一项中所述的活体验证方法。
10.一种电子设备,其特征在于,包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任意一项所述的活体验证方法。
CN202210434683.6A 2022-04-24 2022-04-24 活体验证方法、装置以及计算机可读存储介质 Pending CN114913575A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210434683.6A CN114913575A (zh) 2022-04-24 2022-04-24 活体验证方法、装置以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210434683.6A CN114913575A (zh) 2022-04-24 2022-04-24 活体验证方法、装置以及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN114913575A true CN114913575A (zh) 2022-08-16

Family

ID=82765594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210434683.6A Pending CN114913575A (zh) 2022-04-24 2022-04-24 活体验证方法、装置以及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN114913575A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152936A (zh) * 2023-02-17 2023-05-23 深圳市永腾翼科技有限公司 一种带交互式活体检测的人脸身份认证系统及其方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152936A (zh) * 2023-02-17 2023-05-23 深圳市永腾翼科技有限公司 一种带交互式活体检测的人脸身份认证系统及其方法

Similar Documents

Publication Publication Date Title
CA3045819C (en) Liveness detection
US10339402B2 (en) Method and apparatus for liveness detection
CN107066983B (zh) 一种身份验证方法及装置
US9985963B2 (en) Method and system for authenticating liveness face, and computer program product thereof
US20150186708A1 (en) Biometric identification system
CN110751025A (zh) 基于人脸识别的业务办理方法、装置、设备及介质
WO2018076622A1 (zh) 图像处理方法、装置及终端
CN110612530B (zh) 用于选择脸部处理中使用的帧的方法
CN111931594A (zh) 人脸识别活体检测方法、装置、计算机设备和存储介质
CN111914811B (zh) 图像数据处理方法、装置、计算机设备以及存储介质
JP2022105583A (ja) 顔生体検出方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN111325175A (zh) 活体检测方法、装置、电子设备及存储介质
CN111598051A (zh) 一种脸部验证方法、装置、设备及可读存储介质
CN114913575A (zh) 活体验证方法、装置以及计算机可读存储介质
WO2023034251A1 (en) Spoof detection based on challenge response analysis
CN113963355B (zh) Ocr文字识别方法、装置、电子设备及存储介质
CN112395963B (zh) 对象识别方法和装置、电子设备及存储介质
CN115376198A (zh) 视线方向估计方法、装置、电子设备、介质及程序产品
CN114038016A (zh) 一种坐姿检测方法、装置、设备及存储介质
CN111324878A (zh) 一种基于人脸识别的身份验证方法、装置、存储介质及终端
CN113496166A (zh) 一种人脸活体数据采集方法及装置
WO2024131291A1 (zh) 一种人脸活体检测方法、装置、设备及存储介质
US20240205239A1 (en) Methods and systems for fraud detection using relative movement of facial features
WO2017097410A1 (en) System for control and interactive visualization of multimedia content
CN114119035A (zh) 银行业务处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination