CN113239887A - 活体检测方法及装置、计算机可读存储介质和电子设备 - Google Patents

活体检测方法及装置、计算机可读存储介质和电子设备 Download PDF

Info

Publication number
CN113239887A
CN113239887A CN202110627054.0A CN202110627054A CN113239887A CN 113239887 A CN113239887 A CN 113239887A CN 202110627054 A CN202110627054 A CN 202110627054A CN 113239887 A CN113239887 A CN 113239887A
Authority
CN
China
Prior art keywords
eye
target object
living body
data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110627054.0A
Other languages
English (en)
Inventor
周燃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202110627054.0A priority Critical patent/CN113239887A/zh
Publication of CN113239887A publication Critical patent/CN113239887A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Abstract

本公开提供了一种活体检测方法、活体检测装置、计算机可读存储介质和电子设备,涉及计算机技术领域。该活体检测方法包括:在屏幕分别展示至少两帧图像的情况下,确定目标对象与各图像对应的眼部数据;其中,目标对象的眼部朝向屏幕,且各图像的景深信息不完全相同;获取各图像的景深信息对应的活体眼部标准数据;在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。本公开可以降低活体检测成本并提高检测的准确性。

Description

活体检测方法及装置、计算机可读存储介质和电子设备
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种活体检测方法、活体检测装置、计算机可读存储介质和电子设备。
背景技术
目前,人脸识别技术越来越广泛地应用于支付、安防、考勤等场景,大大提高了身份验证的便利性。然而,人脸识别技术存在安全性的问题,在利用例如照片、面具、视频等伪装成人脸供计算机系统识别的情况下,也可能通过身份验证,但是这种身份验证显然存在安全隐患,试想如果拿照片即可实现支付,势必会给用户带来巨大的经济损失。
为了解决人脸可能被仿造的问题,可以采用活体检测的方法。先确定待检测的对象是真实的人之后,再进行人脸识别,从而能够有效防止仿造者带来的攻击。
在进行活体检测时,一些技术需要利用深度传感器采集的深度信息进行判断,设备成本较高且仍存在检测准确性差的问题。
发明内容
本公开提供一种活体检测方法、活体检测装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服活体检测成本高且准确性差的问题。
根据本公开的第一方面,提供了一种活体检测方法,包括:在屏幕分别展示至少两帧图像的情况下,确定目标对象与各图像对应的眼部数据;其中,目标对象的眼部朝向屏幕,且各图像的景深信息不完全相同;获取各图像的景深信息对应的活体眼部标准数据;在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。
根据本公开的第二方面,提供了一种活体检测装置,包括:眼部数据确定模块,用于在屏幕分别展示至少两帧图像的情况下,确定目标对象与各图像对应的眼部数据;其中,目标对象的眼部朝向屏幕,且各图像的景深信息不完全相同;活体标准获取模块,用于获取各图像的景深信息对应的活体眼部标准数据;活体检测模块,用于在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的活体检测方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器实现上述的活体检测方法。
在本公开的一些实施例所提供的技术方案中,确定屏幕在展示至少两帧图像中每一帧图像时目标对象的眼部数据,目标对象的眼部朝向屏幕且各图像的景深信息不完全相同,获取各图像的景深信息对应的活体眼部标准数据,并在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。本公开方案利用真实人眼会随着看到的画面景深变化而变化的原理,确定目标对象的眼部数据是否与活体眼部标准数据匹配,进而确定目标对象是否为活体真人,整个过程方便快捷、准确度高,在目标对象为真实用户的情况下,用户只需观看若干图像,即可无感知地实现活体检测。另外,对于检测设备而言,无需配备专门的深度传感器,降低了设备成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了本公开实施例的活体检测方案的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开示例性实施方式的活体检测方法的流程图;
图4示出了本公开实施例的确定活体眼部标准数据的过程的示意图;
图5示意性示出了根据本公开实施例的活体检测方案的整个过程的流程图;
图6示意性示出了根据本公开实施例的人脸识别方法的流程图;
图7示意性示出了根据本公开示例性实施方式的活体检测装置的方框图;
图8示意性示出了根据本公开示例性实施方式的活体检测模块结合人脸识别模块来实现人脸检测的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
在活体检测场景下,一些实例中,可以利用深度传感器(如3D结构光摄像头)来获取对象的深度信息,再结合人脸的RGB图像,即可实现活体检测。然而,这种方式仅适于配备有深度传感器的检测设备,普适性不强,并且可能被经过特殊设计的图片或视频攻击(欺骗),检测准确性差,可能造成严重的安全问题。
在另一些实例中,提示用户进行点头、眨眼等动作,来确定是否为真人,但是这种方式用户体验差,且仍存在图片或视频攻击的可能。
在又一些实例中,可以基于视频导致表情(情绪)变化并检测该变化的方式来判断是否为活体。然而,表情(情绪)变化高度依赖个人的喜恶,稳定性差,容易出现检测偏差。
发明人发现,人眼在看到不同景深的画面时眼部会不自主地发生变化,例如聚焦程度变化、聚焦点变化、眼角位置变化等,且这些变化不受个人情绪和喜恶的影响。鉴于此,本公开提供了一种新的活体检测方案及人脸识别方案。
图1示出了本公开实施例的活体检测方案或人脸识别方案的示例性系统架构的示意图。
如图1所示,系统架构可以包括检测设备11和服务器12。检测设备11与服务器12可以通过网络连接,网络的连接类型可以例如包括有线、无线通信链路或者光纤电缆等。
应当理解,检测设备11和服务器12的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备和服务器。比如服务器12可以是多个服务器组成的服务器集群等。服务器12还可以被称为云端或云端服务器。
检测设备11可以通过网络与服务器12交互,以接收或发送消息等。检测设备11可以是任意为了实现活体检测或人脸身份检测的设备,例如包括手机、平板电脑、智能可穿戴设备、个人计算机、银行自助设备、安防设备等。
在由检测设备11执行本公开示例性实施方式的活体检测过程的情况下,首先,检测设备11确定目标对象与至少两帧图像分别对应的眼部数据,其中,目标对象的眼部朝向展示这些图像的屏幕并且这些图像的景深信息不完全相同。另外,检测设备11可以获取这些图像的景深信息对应的活体眼部标准数据。接下来,检测设备11可以确定目标对象的眼部数据与活体眼部标准数据是否匹配,如果匹配,则确定出目标对象为活体,如果不匹配,则确定出目标对象不是活体,可能正被攻击。
在检测出目标对象为活体的情况下,检测设备11可以开启人脸识别过程,以对目标对象进行人脸识别。
应当理解的是,在由检测设备11执行本公开方案的情况下,系统构建中可以没有服务器12,所有的操作步骤均由检测设备11执行。
在由服务器12执行本公开示例性实施方式的活体检测过程的情况下,首先,检测设备11确定目标对象与至少两帧图像分别对应的眼部数据,其中,目标对象的眼部朝向展示这些图像的屏幕并且这些图像的景深信息不完全相同。检测设备11可以将确定出的眼部数据发送给服务器12。另外,服务器12可以获取这些图像的景深信息对应的活体眼部标准数据。接下来,服务器12可以确定目标对象的眼部数据与活体眼部标准数据是否匹配,如果匹配,则确定出目标对象为活体,如果不匹配,则确定出目标对象不是活体,可能被攻击。
在服务器12检测出目标对象为活体的情况下,服务器12可以向检测设备11发送用于开启人脸识别的指令。当检测设备11接收到该指令后,可以采集目标对象的人脸信息进行人脸识别。或者检测设备11可以将采集的人脸信息发送给服务器12,由服务器12执行人脸识别算法,并在服务器12得到识别结果后,将识别结果反馈给检测设备11。
在服务器12检测出目标对象不是活体的情况下,服务器12可以将不是活体的检测结果反馈给检测设备11。随后,检测设备11可以在屏幕上展示该结果对应的信息,以起到提示或告警的作用。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开示例性实施方式的检测设备可以被配置为如图2的形式。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的活体检测方法或人脸识别方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器、压力传感器、陀螺仪传感器、气压传感器、磁传感器、加速度传感器、距离传感器、接近光传感器、指纹传感器、温度传感器、触摸传感器、环境光传感器及骨传导传感器等。
可以理解的是,本公开实施例示意的结构并不构成对电子设备200的具体限定。在本公开另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
电子设备200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。在本公开方案中,可以在显示屏290上展示至少两帧图像,这些图像的景深信息不完全相同。例如,可以在显示屏290上播放景深连续且剧烈变化(景深变化频率大于一频率阈值)的视频,从该视频中选取至少两个视频帧图像,作为用于实现活体检测的至少两帧图像。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括1个或N个摄像模组291,N为大于1的正整数,若电子设备200包括N个摄像头,N个摄像头中有一个是主摄像头。在本公开方案中,可以借助于摄像模组291获取目标对象的眼部图像。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
下面将以检测设备执行本公开的活体检测方法及人脸识别方法为例对本公开方案进行说明,在这种情况下,活体检测装置及人脸识别装置可以配置在检测设备中。
图3示意性示出了本公开的示例性实施方式的活体检测方法的流程图。参考图3,该活体检测方法可以包括以下步骤:
S32.在屏幕分别展示至少两帧图像的情况下,确定目标对象与各图像对应的眼部数据;其中,目标对象的眼部朝向屏幕,且各图像的景深信息不完全相同。
在本公开的示例性实施方式中,检测设备配备有屏幕(或称为显示屏、显示器等),为了执行本公开的活体检测过程,屏幕上可以分别展示至少两帧图像,这至少两帧图像的景深信息被配置为不完全相同。例如,展示两帧图像的示例中,两帧图像的景深信息不同。
本公开对至少两帧图像展示的内容不做限制,可以是内容相关且景深信息不完全相同的多张图像,也可以是内容不相关且景深信息不完全相同的多张图像,还可以是部分内容相关且景深信息不完全相同的多张图像。容易理解的是,展示的内容主要指的是图像的拍摄场景和拍摄对象。另外,人工制作的图像也可被应用本公开方案中。
在需要进行活体检测时,屏幕分别展示至少两帧图像。具体的,在活体检测触发事件发生的情况下,检测设备可以在屏幕上分别展示至少两帧图像。
在一些实施例中,活体检测触发事件可以例如是检测设备检测出人脸轮廓。在这种情况下,检测设备可以通过其配备的摄像模组采集到的图像,判断图像中是否存在人脸,如果存在,则活体检测触发事件发生,如果不存在,则继续采集图像或每隔预定时间采集图像。另外,还可以通过例如红外传感器感测是否存在人脸轮廓,本公开对此不做限制。
在另一些实施例中,活体检测触发事件还可以是点击按钮(或控件)的事件,例如,检测设备的屏幕上配备有活体检测或人脸识别的控件,当用户触按该控件时,活体检测触发事件发生。
在又一些实施例中,活体检测触发事件还可以是业务流程进行到一定阶段时检测设备自动触发的事件。例如,在银行办理查询业务的场景中,一共需要5个查询步骤,其中第2个步骤是活体检测步骤,则在1个步骤结束时,活体检测触发事件自动发生。
需要说明的是,本公开对活体检测触发事件不做特殊限制,其可以根据应用场景自由配置。
此外,本公开所说的至少两帧图像还可以是同一视频中的图像。该视频可以是预先配置的景深连续且剧烈变化(景深变化频率大于一频率阈值)的视频,类似地,本公开对该视频的内容不做限制。
在上述活体检测触发事件发生的情况下,播放该视频,从该视频中随机选取至少两个视频帧图像,作为屏幕分别展示的至少两帧图像。
除随机选取之外,还可以每隔预定时间间隔选取若干图像,本公开对从视频中选取图像的方式不做限制。
在屏幕分别展示至少两帧图像的情况下,检测设备可以确定目标对象的眼部数据。每帧图像均对应一组眼部数据,也就是说,屏幕展示的图像与眼部数据呈一一对应关系。其中,目标对象为待检测是否为活体的对象,其可能是真人、面具、图像等。而眼部数据指的是眼部特征点数据,特征点数据例如包括但不限于眼角位置数据、眼球中黑眼珠占比的数据、黑眼珠在眼球中位置的数据等。
具体的,在屏幕分别展示至少两帧图像的情况下,检测设备可以通过配备的摄像模组获取目标对象与各展示图像对应的眼部图像。接下来,可以对拍摄到的眼部图像进行分析,从眼部图像中提取特征点数据,并将特征点数据确定为上述眼部数据。
应当理解的是,步骤S32中提及的眼部数据可以是单一类型的数据,例如,每一眼部图像提取到的眼部数据均为眼球中黑眼珠占比的数据。然而,步骤S32中提及的眼部数据还可以包括多种类型的数据的集合,例如包括眼角位置数据、眼球中黑眼珠占比的数据、黑眼珠在眼球中位置的数据等,本公开对此不做限制。
S34.获取各图像的景深信息对应的活体眼部标准数据。
可以理解的是,不同景深信息对应有不同的活体眼部标准数据,也就是说,景深信息与活体眼部标准数据也呈一一对应关系。活体眼部标准数据可以预先存储于存储单元中,以便在进行活体检测时,可以直接调用。
图4示出了本公开实施例的预先确定活体眼部标准数据的过程的示意图。
参考图4,针对同一景深的图像,由用户1、用户2、…、用户n共n位用户(n为大于2的正整数)观察该图像,可以通过图像采集以及图像分析的方式,分别确定出用户1对应的眼部数据1、用户2对应的眼部数据2、…、用户n对应的眼部数据n。
接下来,综合眼部数据1、眼部数据2、…、眼部数据n的结果,确定出与该图像对应的活体眼部标准数据。例如,剔除偏离较大的数据,然后取平均值,以得到与该图像对应的活体眼部标准数据。
确定出的活体眼部标准数据可以直接保存在检测设备中,或者保存在服务器中,当需要时,检测设备再从服务器获取图像对应的活体眼部标准数据。
S36.在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。
在确定出当前的眼部数据以及活体眼部标准数据的情况下,检测设备可以判断二者是否匹配,如果匹配,则确定出目标对象是活体,如果不匹配,则确定出目标对象不是活体,
具体的,检测设备可以计算各图像对应的眼部数据与对应的活体眼部标准数据之间的相似度,得到与各图像对应的相似度值。也就是说,针对步骤S32中屏幕展示的每一个图像,均计算对应的眼部数据与对应的活体眼部标准数据之间的相似度。如果展示的图像有5张,则可以得到5个相似度值。另外,应当理解的是,在眼部数据包含多种类型的情况下,计算后可以先得到5组相似度值,每一组组内的相似度值再进行例如加权的方式,最终也可得到5个相似度值。
接下来,利用各图像对应的相似度值,确定目标对象的眼部数据是否与活体眼部标准数据匹配。
根据本公开的一些实施例,检测设备可以计算各图像对应的相似度值的平均值,如果平均值大于第一相似度阈值,则确定出目标对象的眼部数据与活体眼部标准数据匹配,即确定出目标对象为活体。如果平均值小于等于第一相似度阈值,则确定出目标对象的眼部数据与活体眼部标准数据不匹配,即确定出目标对象不是活体。
根据本公开的另一些实施例,检测设备可以统计相似度值大于第二相似度阈值的数量占比。例如,步骤S32屏幕共展示了5张图像,通过计算,相似度值大于第二相似度阈值的数量为3,则数量占比为0.6。
如果该数据占比超过占比阈值,则确定出目标对象的眼部数据与活体眼部标准数据匹配,即确定出目标对象为活体。如果该数据占比未超过占比阈值,则确定出目标对象的眼部数据与活体眼部标准数据不匹配,即确定出目标对象不是活体。
本公开对上述第一相似度阈值、第二相似度阈值和占比阈值的具体取值不做限制。例如,第二相似度阈值通常可以被配置为大于第一相似度阈值。
下面将参考图5对本公开实施例的活体检测方案的整个过程进行说明。
在步骤S502中,检测设备响应活体检测触发事件,播放视频,该视频为景深信息变化的视频;
在步骤S504中,检测设备选取视频中至少两帧图像;
在步骤S506中,检测设备通过配备的摄像模组采集屏幕播放至少两帧图像时目标对象的眼部图像;
在步骤S508中,检测设备从各眼部图像提取特征点数据;
在步骤S510中,检测设备确定活体眼部标准数据;
在步骤S512中,检测设备判断提取到的特征点数据与活体眼部标准数据是否匹配。
如果匹配,则在步骤S514中,确定出目标对象为活体;如果不匹配,则在步骤S516中,确定出目标对象不是活体。
在通过上述活体检测过程确定出目标对象为活体的情况下,检测设备可以对目标对象进行人脸识别。其中,本公开可以采用的人脸识别算法包括但不限于基于几何特征的人脸识别算法、基于特征脸的人脸识别算法、基于神经网络的人脸识别算法、基于支持向量机的人脸识别算法等。
下面将参考图6对本公开实施例的人脸识别方法进行说明。
在步骤S602中,检测设备检测出发生人脸识别触发事件,与上述活体检测触发事件类似地,也可以通过用户的操作、任务事件的顺序执行等来使人脸识别触发事件发生。另外,考虑到实际场景,在一些实施例中,人脸识别触发事件与活体检测触发事件相同。
在步骤S604中,检测设备进行活体检测,具体的,可以采用上述步骤S32至步骤S36的过程实现活体检测,不再赘述。
在步骤S606中,检测设备判断待识别的对象是否为活体,如果不是活体,则执行步骤S608;如果是活体,则执行步骤S610。
在步骤S608中,检测设备可以在屏幕上提示识别失败,并展示例如“非活体”的字样。
在步骤S610中,检测设备可以进行人脸识别。
在步骤S612中,检测设备可以输出人脸识别结果,展示于检测设备的屏幕上。
容易理解的是,在连续执行任务的场景中,图6所示的人脸识别过程仅是多个任务中的一个任务,当基于人脸识别的身份验证通过时,可以自动执行下一任务。
下面以银行办理查询业务为例,对本公开的活体检测和人脸识别的过程进行说明。
首先,在查询设备通过红外传感器感测到有对象在查询设备前方时,查询设备自动播放预先配置的景深变化的视频,同时,可以通过语音或图像的方式提醒对象观看该视频。
接下来,在视频播放至少两帧图像时,通过查询设备上配备的摄像模组获取对象的眼部图像,并基于眼部图像确定出与各图像对应的眼部数据。
然后,判断确定出的眼部数据是否与活体眼部标准数据匹配,如果匹配,则进行人脸识别;如果不匹配,则退出查询界面,并进行非活体提示。
在进行人脸识别后,如果识别结果为对象人脸与预存的人脸匹配,则可以在屏幕上显示验证成功的提示,查询设备的界面跳转到下一界面,进一步完成查询任务。
本公开活体检测方案利用真实人眼会随着看到的画面景深变化而变化的原理,确定目标对象的眼部数据是否与活体眼部标准数据匹配,进而确定目标对象是否为活体真人,整个过程方便快捷、准确度高,在目标对象为真实用户的情况下,用户只需观看若干图像,即可无感知地实现活体检测,相比于需要点头、眨眼的方案,用户体验大大提高。另外,对于检测设备而言,无需配备专门的深度传感器,降低了设备成本。
在基于本公开活体检测方案的基础上,再实现人脸识别,可以大大提高身份验证的准确性,有助于避免例如因静态图像的攻击而造成严重的安全问题。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种活体检测装置。
图7示意性示出了本公开的示例性实施方式的活体检测装置的方框图。参考图7,根据本公开的示例性实施方式的活体检测装置7可以包括眼部数据确定模块71、活体标准获取模块73和活体检测模块75。
具体的,眼部数据确定模块71可以用于在屏幕分别展示至少两帧图像的情况下,确定目标对象与各图像对应的眼部数据;其中,目标对象的眼部朝向屏幕,且各图像的景深信息不完全相同;活体标准获取模块73可以用于获取各图像的景深信息对应的活体眼部标准数据;活体检测模块75可以用于在目标对象的眼部数据与活体眼部标准数据匹配的情况下,确定出目标对象为活体。
根据本公开的示例性实施例,眼部数据确定模块71可以被配置为执行:在所述屏幕分别展示所述至少两帧图像的情况下,获取所述目标对象与各所述图像对应的眼部图像;从所述眼部图像中提取特征点数据,并将所述特征点数据确定为所述眼部数据。
根据本公开的示例性实施例,活体检测模块75还可以被配置为执行:计算各所述图像对应的眼部数据与对应的活体眼部标准数据之间的相似度,得到各所述图像对应的相似度值;利用各所述图像对应的相似度值,确定所述目标对象的所述眼部数据是否与所述活体眼部标准数据匹配。
根据本公开的示例性实施例,活体检测模块75还可以被配置为执行:计算各所述图像对应的相似度值的平均值,如果所述平均值大于第一相似度阈值,则确定出所述目标对象的所述眼部数据与所述活体眼部标准数据匹配;或者统计相似度值大于第二相似度阈值的数量占比,如果所述数量占比超过占比阈值,则确定出所述目标对象的所述眼部数据与所述活体眼部标准数据匹配。
根据本公开的示例性实施例,眼部数据确定模块71还可以被配置为执行:在播放视频的情况下,从所述视频中随机选取至少两个视频帧图像,作为所述屏幕分别展示的所述至少两帧图像。
根据本公开的示例性实施例,眼部数据确定模块71还可以被配置为执行:在活体检测触发事件发生的情况下,播放所述视频。
根据本公开的示例性实施例,活体检测触发事件可以是检测出人脸轮廓,在这种情况下,眼部数据确定模块71还可以被配置为执行:通过红外传感器感测是否存在人脸轮廓。
由于本公开实施方式的活体检测装置的各个功能模块与上述活体检测方法实施方式中相同,因此在此不再赘述。
图8示意性示出了根据本公开示例性实施方式的活体检测模块结合人脸识别模块来实现人脸检测的方框图。
参考图8,在活体检测装置7检测出目标对象为活体的情况下,活体检测装置7可以向人脸识别装置8发送控制指令,人脸识别装置8可以响应该控制指令对该目标对象进行人脸识别,人脸识别的过程与上述人脸识别方法实施方式中相同,不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种活体检测方法,其特征在于,包括:
在屏幕分别展示至少两帧图像的情况下,确定目标对象与各所述图像对应的眼部数据;其中,所述目标对象的眼部朝向所述屏幕,且各所述图像的景深信息不完全相同;
获取各所述图像的景深信息对应的活体眼部标准数据;
在所述目标对象的所述眼部数据与所述活体眼部标准数据匹配的情况下,确定出所述目标对象为活体。
2.根据权利要求1所述的活体检测方法,其特征在于,在屏幕分别展示至少两帧图像的情况下,确定目标对象与各所述图像对应的眼部数据,包括:
在所述屏幕分别展示所述至少两帧图像的情况下,获取所述目标对象与各所述图像对应的眼部图像;
从所述眼部图像中提取特征点数据,并将所述特征点数据确定为所述眼部数据。
3.根据权利要求1所述的活体检测方法,其特征在于,所述活体检测方法还包括:
计算各所述图像对应的眼部数据与对应的活体眼部标准数据之间的相似度,得到各所述图像对应的相似度值;
利用各所述图像对应的相似度值,确定所述目标对象的所述眼部数据是否与所述活体眼部标准数据匹配。
4.根据权利要求3所述的活体检测方法,其特征在于,利用各所述图像对应的相似度值,确定所述目标对象的所述眼部数据是否与所述活体眼部标准数据匹配,包括:
计算各所述图像对应的相似度值的平均值,如果所述平均值大于第一相似度阈值,则确定出所述目标对象的所述眼部数据与所述活体眼部标准数据匹配;或者
统计相似度值大于第二相似度阈值的数量占比,如果所述数量占比超过占比阈值,则确定出所述目标对象的所述眼部数据与所述活体眼部标准数据匹配。
5.根据权利要求1至4中任一项所述的活体检测方法,其特征在于,所述活体检测方法还包括:
在播放视频的情况下,从所述视频中随机选取至少两个视频帧图像,作为所述屏幕分别展示的所述至少两帧图像。
6.根据权利要求5所述的活体检测方法,其特征在于,所述活体检测方法还包括:
在活体检测触发事件发生的情况下,播放所述视频。
7.根据权利要求6所述的活体检测方法,其特征在于,所述活体检测触发事件是检测出人脸轮廓;其中,所述活体检测方法还包括:
通过红外传感器感测是否存在人脸轮廓。
8.一种活体检测装置,其特征在于,包括:
眼部数据确定模块,用于在屏幕分别展示至少两帧图像的情况下,确定目标对象与各所述图像对应的眼部数据;其中,所述目标对象的眼部朝向所述屏幕,且各所述图像的景深信息不完全相同;
活体标准获取模块,用于获取各所述图像的景深信息对应的活体眼部标准数据;
活体检测模块,用于在所述目标对象的所述眼部数据与所述活体眼部标准数据匹配的情况下,确定出所述目标对象为活体。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的活体检测方法。
10.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至7中任一项所述的活体检测方法。
CN202110627054.0A 2021-06-04 2021-06-04 活体检测方法及装置、计算机可读存储介质和电子设备 Pending CN113239887A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110627054.0A CN113239887A (zh) 2021-06-04 2021-06-04 活体检测方法及装置、计算机可读存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110627054.0A CN113239887A (zh) 2021-06-04 2021-06-04 活体检测方法及装置、计算机可读存储介质和电子设备

Publications (1)

Publication Number Publication Date
CN113239887A true CN113239887A (zh) 2021-08-10

Family

ID=77136983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110627054.0A Pending CN113239887A (zh) 2021-06-04 2021-06-04 活体检测方法及装置、计算机可读存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN113239887A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169429A (zh) * 2017-04-28 2017-09-15 北京小米移动软件有限公司 活体识别方法和装置
CN107506696A (zh) * 2017-07-29 2017-12-22 广东欧珀移动通信有限公司 防伪处理方法及相关产品
CN110909704A (zh) * 2019-11-29 2020-03-24 北京奇艺世纪科技有限公司 一种活体检测方法、装置、电子设备及存储介质
CN111353388A (zh) * 2020-02-11 2020-06-30 北京三快在线科技有限公司 活体检测方法、装置、电子设备及存储介质
CN112712073A (zh) * 2021-03-29 2021-04-27 北京远鉴信息技术有限公司 基于眼部变化特征的活体识别方法、识别装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169429A (zh) * 2017-04-28 2017-09-15 北京小米移动软件有限公司 活体识别方法和装置
CN107506696A (zh) * 2017-07-29 2017-12-22 广东欧珀移动通信有限公司 防伪处理方法及相关产品
CN110909704A (zh) * 2019-11-29 2020-03-24 北京奇艺世纪科技有限公司 一种活体检测方法、装置、电子设备及存储介质
CN111353388A (zh) * 2020-02-11 2020-06-30 北京三快在线科技有限公司 活体检测方法、装置、电子设备及存储介质
CN112712073A (zh) * 2021-03-29 2021-04-27 北京远鉴信息技术有限公司 基于眼部变化特征的活体识别方法、识别装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏军福;: "无感考勤和人数感知设备实现方法", 电子技术与软件工程, no. 15 *

Similar Documents

Publication Publication Date Title
CN107886032B (zh) 终端设备、智能手机、基于脸部识别的认证方法和系统
CN105184246B (zh) 活体检测方法和活体检测系统
CN108197586B (zh) 脸部识别方法和装置
US11074436B1 (en) Method and apparatus for face recognition
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
CN105912912B (zh) 一种终端用户身份登录方法和系统
CN110472613B (zh) 对象行为识别方法和装置
CN113408403A (zh) 活体检测方法、装置和计算机可读存储介质
CN106709303B (zh) 一种显示方法、装置及智能终端
CN108108711B (zh) 人脸布控方法、电子设备及存储介质
CN108875468B (zh) 活体检测方法、活体检测系统以及存储介质
WO2020020022A1 (zh) 视觉识别方法及其系统
CN107977636B (zh) 人脸检测方法及装置、终端、存储介质
CN110619239A (zh) 应用界面处理方法、装置、存储介质及终端
WO2017000217A1 (zh) 活体检测方法及设备、计算机程序产品
CN111783677B (zh) 人脸识别方法、装置、服务器和计算机可读介质
CN113033243A (zh) 一种人脸识别方法、装置及设备
CN113239887A (zh) 活体检测方法及装置、计算机可读存储介质和电子设备
CN114495252A (zh) 视线检测方法、装置、电子设备及存储介质
JP6684009B1 (ja) プログラム、映像処理装置及び認証方法
CN112712073A (zh) 基于眼部变化特征的活体识别方法、识别装置及电子设备
CN112507798A (zh) 活体检测方法、电子设备与存储介质
CN111324878A (zh) 一种基于人脸识别的身份验证方法、装置、存储介质及终端
CN112533071B (zh) 图像处理方法、装置及电子设备
CN113095116B (zh) 身份识别方法及相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination