CN111274928A - 一种活体检测方法、装置、电子设备和存储介质 - Google Patents

一种活体检测方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN111274928A
CN111274928A CN202010054359.2A CN202010054359A CN111274928A CN 111274928 A CN111274928 A CN 111274928A CN 202010054359 A CN202010054359 A CN 202010054359A CN 111274928 A CN111274928 A CN 111274928A
Authority
CN
China
Prior art keywords
sequence
light
area
detection
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010054359.2A
Other languages
English (en)
Other versions
CN111274928B (zh
Inventor
孟嘉
王鑫瑶
丁守鸿
李季檩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010054359.2A priority Critical patent/CN111274928B/zh
Publication of CN111274928A publication Critical patent/CN111274928A/zh
Priority to PCT/CN2020/124290 priority patent/WO2021143266A1/zh
Priority to US17/585,205 priority patent/US20220148337A1/en
Application granted granted Critical
Publication of CN111274928B publication Critical patent/CN111274928B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了一种活体检测方法、装置、电子设备和存储介质;本申请实施例在接收到活体检测请求时,可以生成检测界面,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,然后,通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光,再然后,采集反射光在检测对象表面形成的图像特征,并对检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体;该方案可以有效抵抗视频注入等活体检测攻击手段,提高活体检测的有效性。

Description

一种活体检测方法、装置、电子设备和存储介质
技术领域
本申请涉及通信技术领域,具体涉及一种活体检测方法、装置、电子设备和存储介质。
背景技术
近年来,随着人脸识别技术的发展,其在各类身份认证系统中的应用也越来越为普及。对于基于人脸识别的身份认证系统来说,一般需要解决两个问题,一是人脸验证,二是活体检测。所谓活体检测,主要是用来确认采集到的人脸图像等数据是来自用户本人,而不是回放或者伪造材料。针对目前活体检测的攻击手段,比如照片攻击、或视频回放攻击等,现有提出了基于反光原理的活体检测方案,即通过手机屏幕发射不同颜色的光线照射到人脸,然后利用变光点前后人脸图片的变化解析出人脸特征,并据此来判断检测对象是否为活体。
在对现有技术的研究和实践过程中,本申请的发明人发现,现有方案对于抵抗视频注入攻击(即将摄像头黑掉,直接将成像好的反光攻击序列传送给后端)的效果并不佳,以致活体检测失效,大大影响身份验证的准确性和安全性。
发明内容
本申请实施例提供一种活体检测方法、装置、电子设备和存储介质,可以有效抵抗视频注入等活体检测攻击手段,提高活体检测的有效性,进而提高身份验证的准确性和安全性。
本申请实施例提供一种活体检测方法,包括:
在接收到活体检测请求时,生成检测界面,所述检测界面包括人像区域和光线发射区域,所述人像区域的位置和光线发射区域的位置随时间随机变化;
通过所述光线发射区域向检测对象投射光线,并在检测对象表面产生反射光;
采集所述反射光在检测对象表面形成的图像特征,并对所述检测对象注视人像区域时的视线进行追踪;
若根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定所述检测对象为活体。
相应的,本申请实施例还提供一种活体检测装置,包括生成单元、投射单元、采集单元和检测单元,如下:
生成单元,用于在接收到活体检测请求时,生成检测界面,所述检测界面包括人像区域和光线发射区域,所述人像区域的位置和光线发射区域的位置随时间随机变化;
投射单元,用于通过所述光线发射区域向检测对象投射光线,并在检测对象表面产生反射光;
采集单元,用于采集所述反射光在检测对象表面形成的图像特征,并对所述检测对象注视人像区域时的视线进行追踪;
检测单元,用于在根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配时,确定所述检测对象为活体。
可选的,在本申请的一些实施例中,所述采集单元可以包括采集子单元、提取子单元和计算子单元,如下:
采集子单元,用于对在所述投射光线的照射下,所述检测对象注视人像区域时的图像进行采集,得到视频流;
提取子单元,用于从所述视频流中提取所述反射光在检测对象表面形成的图像特征;
计算子单元,用于根据所述视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的视线信息。
可选的,在本申请的一些实施例中,所述头部信息包括头部姿态序列,所述计算子单元,具体用于:
确定所述视频流中检测对象的头部的偏航角、俯仰角和翻滚角,得到头部姿态序列;
对所述视频流中检测对象的眼部特征进行检测,得到眼部信息;
根据所述头部姿态序列和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
可选的,在本申请的一些实施例中,所述眼部信息为瞳孔中心序列,则此时,所述计算子单元,具体用于利用人脸姿态估计算法对所述视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列;利用人脸关键点检测算法对所述视频流中检测对象的人脸特征点进行检测,从检测得到的人脸特征点中筛选出眼部特征点,根据所述眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列;根据所述头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
可选的,在本申请的一些实施例中,所述头部信息还包括头部坐标参数,所述计算子单元,具体用于利用人脸姿态估计算法对所述视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列;获取所述视频流中检测对象的头部的三维坐标,得到头部坐标参数;利用人脸关键点检测算法对所述视频流中检测对象的人脸特征点进行检测,从检测得到的人脸特征点中筛选出眼部特征点,根据所述眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列;根据所述头部姿态参数、头部坐标参数和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
可选的,在本申请的一些实施例中,所述采集子单元,具体用于生成语音提示信息,所述语音提示信息提示检测对象注视所述人像区域,调用摄像进程,对在所述投射光线的照射下的检测对象进行图像采集,并在人像区域中实时显示摄像内容。
可选的,在本申请的一些实施例中,所述生成单元,具体用于在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列,根据所述人像区域标识序列和发射区域标识序列生成检测界面,使得所述检测界面包括人像区域和光线发射区域,其中,所述人像区域的位置根据人像区域标识序列进行变化,所述光线发射区域的位置根据区域标识序列进行变化。
可选的,在本申请的一些实施例中,所述生成单元,具体用于在接收到活体检测请求时,生成初始界面,所述初始界面包括多个候选区域,每个候选区域具有区域标识,根据所述区域标识随机生成人像区域标识序列和发射区域标识序列;根据所述人像区域标识序列在所述多个候选区域中选择人像区域,以及根据所述发射区域标识序列在所述多个候选区域中选择光线发射区域,所述光线发射区域远离人像区域。
可选的,在本申请的一些实施例中,所述生成单元,还用于随机生成光线颜色序列;
所述投射单元,具体用于通过所述光线发射区域,向检测对象投射按照所述光线颜色序列变化的光线,并在检测对象表面产生反射光。
可选的,在本申请的一些实施例中,所述检测单元包括第一序列生成子单元和第一匹配子单元,如下:
所述第一序列生成子单元,用于根据所述图像特征生成反射光的区域变化序列和光线变化序列;
所述第一匹配子单元,用于在所述区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且追踪得到的视线信息与人像区域标识序列相匹配时,确定所述检测对象为活体。
可选的,在本申请的一些实施例中,所述第一序列生成子单元,具体用于提取所述视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于所述分布信息确定光线强度满足预设条件的区域为强光区域,根据所述视频流中强光区域的位置变化生成反射光的区域变化序列,根据所述视频流中强光区域的光线颜色变化生成反射光的光线变化序列。
可选的,在本申请的一些实施例中,所述追踪得到的视线信息包括注视点序列和视线变化时间点序列,所述检测单元包括第二序列生成子单元和第二匹配子单元,如下:
所述第二序列生成子单元,用于根据所述图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列;
所述第二匹配子单元,用于在所述区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值时,确定所述检测对象为活体。
可选的,在本申请的一些实施例中,所述第二序列生成子单元,具体用于提取所述视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于所述分布信息确定光线强度满足预设条件的区域为强光区域,根据所述视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,根据所述视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
相应的,本申请实施例还提供一种电子设备,包括存储器和处理器;所述存储器存储有应用程序,所述处理器用于运行所述存储器内的应用程序,以执行本申请实施例提供的任一种活体检测方法中的操作。
此外,本申请实施例还提供一种存储介质,所述存储介质存储有应用程序,所述应用程序适于处理器进行加载,以执行本申请实施例提供的任一种活体检测方法中的步骤。
本申请实施例在接收到活体检测请求时,可以生成检测界面,其中,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,以便投射的光线在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体(合成图片或视频的载体,比如相片、手机或平板电脑等)的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光和视线信息是随机变化的(因为人像区域和光线发射区域是随时间随机变化的),因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,整体而言,该方案可以有效抵抗各种活体检测攻击手段,可以大大改善提高活体检测效果,从而提高身份验证的准确性和安全性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的活体检测方法的场景示意图;
图2是本申请实施例提供的活体检测方法的流程图;
图3是本申请实施例提供的活体检测方法中初始界面的示例图;
图4是本申请实施例提供的活体检测方法中初始界面的另一示例图;
图5是本申请实施例提供的活体检测方法中人像区域和光线发射区域的示例图;
图6是本申请实施例提供的活体检测方法中人像区域和光线发射区域变化的示例图;
图7是本申请实施例提供的活体检测方法中不同方向的投射光线所形成的强光区域的示例图;
图8是本申请实施例提供的活体检测方法的另一流程图;
图9是本申请实施例提供的初始界面的又一示例图;;
图10是本申请实施例提供的活体检测方法中人像区域和光线发射区域变化的另一示例图;
图11是本申请实施例提供的活体检测方法中图像截取的示例图;
图12是本申请实施例提供的活体检测方法中强光区域的变化示例图;
图13是本申请实施例提供的用于视线追踪的检测模型的示例图;
图14是本申请实施例提供的检测系统的框架示例图
图15是本申请实施例提供的活体检测方法的又一流程图;
图16是本申请实施例提供的活体检测装置的结构示意图;
图17是本申请实施例提供的活体检测装置的另一结构示意图;
图18是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种活体检测方法、装置、电子设备和存储介质,其中,该活体检测装置可以在终端中,也可以集成在终端和服务器所组成的检测系统中。
例如,以集成在终端为例,则如图1所示,终端在接收到活体检测请求时,可以生成检测界面,其中,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以利用该光线发射区域所发出的光线作为光源,投射至检测对象上,使得检测对象的表面,比如面部产生反射光,然后,通过分析该反射光在检测对象表面形成的图像特征(由于光线发射区域是变化的,所以检测对象表面的反射光区域也是变化的),以及对检测对象注视人像区域时的视线进行追踪(因为人像区域的位置随时间变化,所以该视线也是随时间变化的),来确定检测对象是否为活体,比如,若根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,否则为非活体,等等。
以下分别进行详细说明,需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
本实施例将从终端的活体检测装置(简称活体检测装置)的角度进行描述,该活体检测装置具体可以集成在终端如手机、平板电脑、笔记本电脑或个人计算机(PC,PersonalComputer)等电子设备中,或者,也可以集成在终端和服务器所组成的检测系统中。
一种活体检测方法,包括:在接收到活体检测请求时,生成检测界面,该检测界面包括人像区域和光线发射区域,该人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对该检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定该反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体。
如图2所示,该活体检测方法的具体流程可以如下:
101、在接收到活体检测请求时,生成检测界面。
例如,具体可以在接收用户触发的活体检测请求时,生成检测界面,或者,也可以接收其他设备发送的活体检测请求时,生成检测界面,等等,
其中,该检测界面至少可以包括人像区域和光线发射区域,且该人像区域的位置和光线发射区域的位置均可以随时间随机变化。
可选的,可以通过多种策略使得该人像区域的位置和光线发射区域的位置可以随时间随机变化,比如,可以各生成一标识(ID,Identity)序列,使得该人像区域和光线发射区域可以根据各自的标识序列来进行变化。
例如,以生成人像区域标识序列和发射区域标识序列为例,其中,人像区域标识序列用于指示人像区域在检测界面中位置的变化,而发射区域标识序列用于指示光线发射区域在检测界面中位置的变化,则此时,步骤“在接收到活体检测请求时,生成检测界面,该检测界面包括人像区域和光线发射区域,该人像区域的位置和光线发射区域的位置随时间随机变化”可以包括:
在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列,根据该人像区域标识序列和发射区域标识序列生成检测界面,使得该检测界面包括人像区域和光线发射区域,其中,该人像区域的位置可以根据人像区域标识序列进行变化,该光线发射区域的位置可以根据区域标识序列进行变化。
可选的,该人像区域标识序列和发射区域标识序列可以是由多个坐标或区域标识组成的序列,譬如,以该人像区域标识序列和发射区域标识序列为由多个区域标识组成的序列为例,则步骤“在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列”可以包括:
在接收到活体检测请求时,生成初始界面,其中,该初始界面包括多个候选区域,且每个候选区域具有区域标识,然后,根据该初始界面中各个候选区域的区域标识随机生成人像区域标识序列和发射区域标识序列。
则此时,步骤“根据该人像区域标识序列和发射区域标识序列生成检测界面”可以包括:根据该人像区域标识序列在该多个候选区域中选择人像区域,以及根据该发射区域标识序列在该多个候选区域中选择光线发射区域,等等。
其中,该区域标识的表现形式可以根据实际应用的需求而定。比如,参见图3,以初始界面划分为9个候选区域为例,则各候选区域的区域标识可以分别设置为“1、2、3、4、5、6、7、8和9”,或者,如图4所示,各候选区域的区域标识也可以设置为“A1、A2、A3、B1、B2、B3、C1、C2和C3”,等等。
可选的,人像区域和光线发射区域在检测界面中所占的面积大小也可以根据实际应用的需求而定。比如,还是以将初始界面划分为9个区域为例,则人像区域可以设置为“占用一个候选区域”或“占用两个候选区域”,而光线发射区域可以设置为“占用两个连续的选区域”(比如参见图5左图)、“占用三个连续的选区域”或“占用四个相连的选区域”(比如参见图5右图),等等,具体可参见图3、图4和图5。
譬如,以人像区域“占用一个选区域”,光线发射区域可以设置为“占用三个连续的选区域”,且区域标识采用如图3所示的标识为例,则当人像区域标识序列为“1,5,7”,发射区域标识序列为“369、123,369”时,检测界面中人像区域和光线发射区域的变化可以如图6所示。
又譬如,以人像区域“占用一个选区域”,光线发射区域可以设置为“占用三个连续的选区域”,且区域标识采用如图4所示的标识为例,则当人像区域标识序列为“A1,B5,C7”,发射区域标识序列为“A3B6C9、A1A2A3,A3B6C9”时,检测界面中人像区域和光线发射区域的变化可以如图6所示。
需说明的是,以上仅以人像区域标识序列和发射区域标识序列的序列长度为“3”为例进行说明,应当理解的是,该人像区域标识序列和发射区域标识序列的序列长度可以根据实际应用的需求进行设置,在此不作赘述。
可选的,为了减少投射的光线对检测对象的眼睛产生不适感,在生成的人像区域标识序列和发射区域标识序列时,可以尽量使得光线发射区域远离人像区域,比如将光线发射区域尽可能设置在检测界面的边缘,等等。
具体的,可以为每个候选区域的区域标识设置对应的“最远距离”标识集合,然后,将区域中心点之间的距离满足预设条件的候选区域的区域标识添加至该集合中。
比如参见图3,以区域标识“1”为例,则与“1”对应的“最远距离”标识集合可以为“3、6、7、8和9”。
又比如,还是参见图3,以区域标识“3”为例,则与“3”对应的“最远距离”标识集合可以为“1、4、7、8和9”,等等。
这样,当所生成的人像区域标识序列(或发射区域标识序列)中包括“1”时,“1”在发射区域标识序列(或人像区域标识序列)中所对应的区域标识便可以为“3、6、7、8和9”任一个或多个;同理,当所生成的人像区域标识序列(或发射区域标识序列)中包括“3”时,“3”在发射区域标识序列(或人像区域标识序列)中所对应的区域标识便可以为“1、4、7、8和9”任一个或多个,以此类推,等等。即当人像区域标识序列“1,3,1”时,发射区域标识序列可以为“369,789,369”、“369,147,789”或“789、147、369”等(以人像区域占用一个候选区域,而发射区域占用三个连续的候选区域为例进行说明)。
可选的,为了提高活体检测的准确性和安全性,人像区域和光线发射区域的位置变化频率除了可以是固定的之外,还可以是非固定的,即人像区域每一次位置切换的时长、以及光线发射区域每一次位置切换的时长均可以是不同的,比如,人像区域在区域标识为“1”的位置上维持1秒后,变化为区域标识为“3”的位置,在区域标识为“3”的位置维持2秒后,变化为区域标识为“6”的位置,在区域标识为“6”的位置维持1.5秒后,变化为区域标识为“5”的位置,等等,光线发射区域也与此类似。
其中,人像区域每一次位置切换的时长、以及光线发射区域每一次位置切换的时长可以根据实际应用的需求进行设置,在此不再赘述。
为了描述方便,在本申请实施例中,将人像区域每一次位置切换的时间点称为“人像区域位置的突变时间点”,将光线发射区域每一次位置切换的时间点称为“光线发射区域位置的突变时间点”。
可选的,人像区域位置的突变时间点和光线发射区域位置的突变时间点可以是一致的,也可以是不一致的,但是,为了方便控制,可以将这二者的突变时间点设置为一致。
102、通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光。
需说明的是,由于光线发射区域的位置可以随时间随机变化,而不同的光线发射区域会投射在检测对象表面的不同部位,所以,检测对象表面自然也会产生不同的反射光,而这些发射光在图像中便可以体现为不同的图像特征,使得后续可以以此作为活体检测的依据,具体可详见后续步骤。
可选的,为了便于后续可以更好地识别出检测对象表面光线(即反射光)的变化,除了可以通过反射光的位置来进行区分之外,还可以通过光线的颜色或强度等来进行区分,即在通过光线发射区域向检测对象投射光线时,该投射的光线的颜色或强度等可以按照预设规律进行变化。
其中,变化的规律也可以通过生成一序列来进行控制,比如,在接收到活体检测请求时(步骤101),还可以随机生成光线颜色序列,这样,此时便可以通过该光线发射区域,向检测对象投射按照该光线颜色序列变化的光线,并在检测对象表面产生反射光。
或者,同理,在接收到活体检测请求时(步骤101),也可以随机生成光线强度序列,这样,此时便可以通过该光线发射区域,向检测对象投射按照该光线强度序列变化的光线,并在检测对象表面产生反射光,等等。
其中,为了便于后续可以更好地识别出光线的变化,在生成光线颜色序列时,可以选择色差较大(比如色差大于预设阈值)的颜色作为相邻颜色,比如,在预设颜色空间下,屏幕由红色最亮转变到绿色最亮,其反射光的色度变化最大,所以,该光线颜色序列可以为“红,绿,红,绿”,等等。
类似的,在生成光线强度序列时,也可以尽可能使得光线强度序列中相邻强度之间的差值能够大于设定阈值,从而使得光线的变化更易被识别。需说明的是,在投射时,各颜色(或强度)的光线的显示时长可以根据实际应用的需求进行设置,比如,可以让每一种颜色的显示时长为2秒,等等。
可选的,为了进一步提高安全性,还可以进一步复杂化光线的变化规则,比如,将每一种颜色的显示时长设置为不一致的数值,比如,绿色的显示时长可以为3秒,红色的显示时长为2秒,而蓝色的显示时长为4秒,等等。
其中,为了描述方便,在本申请实施例中,将不同颜色光线的切换时间点称为“光线颜色的突变时间点”,将将不同强度光线的切换时间点称为“光线强度的突变时间点”
需说明的是,人像区域位置的突变时间点、光线发射区域位置的突变时间点和光线颜色/强度的突变时间点可以是一致的,也可以是不一致的,但是,为了方便于控制和维护,可以将这三者的突变时间点设置为一致。
103、采集该反射光在检测对象表面形成的图像特征,并对该检测对象注视人像区域时的视线进行追踪;例如,具体可以如下:
(1)对在该投射光线的照射下,该检测对象注视人像区域时的图像进行采集,得到视频流,然后,分别执行步骤(2)和(3),其中,步骤(2)和(3)的执行可以不分先后。
例如,可以生成提示信息如语音提示信息,以提示检测对象注视该人像区域(由于人像区域的位置可以随时间随机变化,所以检测对象注视着人像区域的视线自然也会随之而变),然后,调用摄像进程,通过该摄像进程对在该投射光线的照射下的检测对象进行图像采集,并在人像区域中实时显示摄像内容,其中,采集得到的图像序列便为视频流,也就是说,该视频流可以包括多个视频帧,每一视频帧为一张图像。
其中,该摄像进程对应的摄像部件包括但不限于终端自带的摄像头、网络摄像头、以及监控摄像头、以及其他可以采集图像的设备等。需说明的是,由于向检测对象所投射的光线可以是可见光,也可以是不可见光,因此,本申请实施例所提供的摄像部件中,还可以根据实际应用的需求,配置不同的光线接收器,比如红外光线接收器等,以对不同光线进行感应,从而采集到所需的视频流,在此不再赘述。
可选的,为了减少噪声所造成的数值浮动对后续图像特征分析的影响,在得到视频流后,还可以对该视频流进行去噪声处理。例如,以噪声模型为高斯噪声为例,具体可以使用时序上多帧平均和/或同帧多尺度平均来尽可能地减小噪声,在此不再赘述。
可选的,也可以对该视频流进行其他的预处理,比如缩放、锐化、背景模糊等操作,以提高后续识别的效率和准确性。
(2)从该视频流中提取该反射光在检测对象表面形成的图像特征。
可选的,若在(1)中,已经对视频流进行了去噪声处理和/或其他的预处理,得到处理后视频流,则此时,具体可以从处理后视频流中提取该反射光在检测对象表面形成的图像特征。
可选的,为了提高后续识别的效率和准确性,在得到视频流(或处理后视频流)之后,可以先从视频帧中剪裁出目标区域,然后针对目标区域进行图像特征的提取。
比如,若目标区域为检测对象的脸部(即光线投射至检测对象的脸部),则此时,可以从视频流中筛选出包含检测对象脸部的视频帧,然后从筛选得到的视频帧中剪裁出脸部区域,并针对该脸部区域进行图像特征的提取。
其中,筛选出包含检测对象脸部的视频帧的方式可以有多种,比如,可以利用人脸检测模型对各视频帧进行人脸检测,以筛选出包含检测对象脸部的视频帧,等等。
(3)根据该视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的视线信息,例如,具体可以如下:
A、确定该视频流中检测对象的头部的偏航角、俯仰角和翻滚角,得到头部姿态序列。
例如,具体可以利用人脸姿态估计算法对该视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列,譬如,具体可以如下:
根据视频流确定当前需要处理的视频帧,利用人脸姿态估计算法对该当前需要处理的视频帧中检测对象的头部的偏航角(yaw)、俯仰角(pitch)和翻滚角(roll)进行检测,得到该当前需要处理的视频帧所对应的头部姿态信息,然后,返回执行“根据视频流确定当前需要处理的视频帧”的步骤,以对下一视频帧进行头部姿态信息检测,依次类推,最终便可得到该视频流中所有视频帧对应的头部姿态信息,将这些头部姿态信息按照视频帧的时序进行组合,便可得到该视频流对应的头部姿态序列,该头部姿态序列即可作为头部信息。
可选的,头部信息除了可以包括头部姿态序列之外,还可以包括头部坐标参数,因此,为了提高活体检测的准确性,在得到视频流之后,执行步骤C之前,还可以获取该视频流中检测对象的头部的三维坐标,得到头部坐标参数。比如,具体可以通过深度摄像头,来采集视频流,这样便可以从该视频流中获取到检测对象的头部的三维坐标,从而得到头部坐标参数。
B、对该视频流中检测对象的眼部特征进行检测,得到眼部信息;
例如,具体可以利用人脸关键点检测算法对该视频流中检测对象的人脸特征点进行检测,然后,从检测得到的人脸特征点中筛选出眼部特征点,再根据该眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列。
比如,具体可以根据视频流确定当前需要处理的视频帧,利用人脸关键点检测算法对该当前需要处理的视频帧中检测对象的人脸特征点进行检测,并从检测得到的人脸特征点中筛选出眼部特征点,再根据该眼部特征点,采用基于梯度变化的瞳孔中心检测算法,检测出该当前需要处理的视频帧中检测对象的瞳孔中心信息,此后,可以返回执行“根据视频流确定当前需要处理的视频帧”的步骤,以对下一视频帧进行“瞳孔中心信息”检测,依次类推,最终便可得到该视频流中所有视频帧对应的瞳孔中心信息,将这些瞳孔中心信息按照视频帧的时序进行组合,便可得到该视频流对应的瞳孔中心序列,该瞳孔中心序列即可作为眼部信息。
需说明的是,步骤A和B的执行顺序可以不分先后。
C、根据该头部姿态序列和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。其中,该追踪得到的视线信息可以包括注视点序列。
例如,具体可以根据该头部姿态序列和眼部信息,通过预设检测模型对视频流中每一视频帧进行检测,得到每一视频帧中检测对象的注视点,将这些注视点按照视频帧的时序进行组合,便可得到注视点序列。
可选的,该追踪得到的视线信息还可以包括视线变化时间点序列等信息。该视线变化时间点序列也可以通过将该头部姿态序列和眼部信息输入预设检测模型来得到。即在检测注视点时,还可以检测出视频流中注视点的变化时间点,然后将这些变化时间点按照视频帧的时序进行组合,便可得到视线变化时间点序列。
需说明的是,若在(1)中,已经对视频流进行了去噪声处理和/或其他的预处理,得到处理后视频流,则此时,具体可以通过预设检测模型对处理后视频流中检测对象的注视点进行检测,以得到检测对象注视人像区域时的视线信息。
当然,如果在步骤A中,还获取了头部坐标参数,则此时,也可以将头部坐标参数也作为考量因素之一,即可以根据该头部姿态参数、头部坐标参数和眼部信息,通过预设检测模型对视频流(或处理后视频流)中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
其中,该检测模型可以由多个标注有注视点真实值的“头部训练样本对”(该头部训练样本对可以包括头部姿态序列样本和眼部信息样本等)训练而成,即可以通过机器学习(ML,Machine Learning)的方式来得到该检测模型。
所谓机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能(AI,Artificial Intelligence)的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、及归纳学习等技术。其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,能够感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术,在此不作赘述。
可选的,该检测模型可以由其他设备训练后提供给该活体检测装置,或者,也可以由该活体检测装置自行训练而成,即在步骤“根据该头部姿态序列和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息”之前,该活检检测装置还可以包括:
获取多个标注有注视点真实值的头部训练样本对,该头部训练样本对包括头部姿态序列样本和眼部信息样本等,然后,通过初始检测模型对该头部训练样本对中检测对象的注视点进行预测,得到注视点预测值,根据该注视点真实值和注视点预测值对该初始检测模型进行收敛,便可得到检测模型。
104、若根据该图像特征确定该反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,即确定该检测对象为真人,而非回放或者伪造材料。
需说明的是,若根据该图像特征确定该反射光的变化与光线发射区域的位置变化不匹配、或追踪得到的视线信息与人像区域的位置变化不匹配,则确定该检测对象为非活体,即确定该检测对象为回放或者伪造材料。
其中,根据该图像特征确定该反射光的变化与光线发射区域的位置变化是否相匹配,以及确定追踪得到的视线信息与人像区域的位置变化是否相匹配的方式可以由多种,例如,具体可以采用如下任一方式:
(1)方式一
根据该图像特征生成反射光的区域变化序列,若该区域变化序列与发射区域标识序列相匹配,且追踪得到的视线信息(如注视点序列)与人像区域标识序列相匹配,则确定该检测对象为活体。
比如,参见图3,以人像区域标识序列为“1,5,7”,发射区域标识序列为“369、123,369”为例,则当生成的反射光的区域变化序列为“369、123,369”,且注视点序列为“1,5,7”时,可以确定该检测对象为活体。
可选的,考虑到在实施时可能会受一些外在因素的影响,导致实际的数值可能会存在一定的误差,因此,在对各类序列进行匹配(比如区域变化序列与发射区域标识序列进行匹配,或注视点序列与人像区域标识序列进行匹配等)时,若两个序列的误差在预设范围内,则依然可以认为这两个序列是相匹配的。
可选的,若光线发射区域所投射的光线的颜色或强度是按照预设规律进行变化的,比如,在接收到活体检测请求时,还生成了线颜色序列,则在进行匹配时,还可以将光线的变化也作为考量因素,即除了方式一之外,还可以采用方式二和三来进行匹配。
(2)方式二
根据该图像特征生成反射光的区域变化序列和光线变化序列,若该区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且追踪得到的视线信息与人像区域标识序列相匹配,则确定该检测对象为活体。
可选的,若人像区域位置的突变时间点、光线发射区域位置的突变时间点和光线颜色/强度的突变时间点是一致的,则此时还可以将视线变化的时间点、反射光区域的突变时间点和反射光光线突变的时间点也作为活检检测的考量因素,即除了方式一和二之外,还可以采用方式三来进行匹配。
(2)方式三
根据该图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列,若该区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则确定该检测对象为活体。
其中,该设定值可以根据实际应用的需求进行设置,在此不作赘述。
需说明的是,由于光线发射区域位置变化时,其所投射的光线方向也会发生变化,进而投射在检测对象表面的不同区域,因此,检测对象表面正投射区域的光线强度会比其他区域更大,形成不同的光线强度分布,比如,以光线投射至人脸,且人脸分为上、下、左和右四个区域为例,则如图7所示,当光线正投射至人脸的下侧时,在人脸的下方会形成一强光区域,而当光线正投射至人脸的上侧时,在人脸的上方便会形成一强光区域,左侧和右侧与此类似,所以,可以利用该强光区域的变化来生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列等。也就是说,在上述方式一、方式二和方式三中,步骤“根据该图像特征生成反射光的区域变化序列”可以包括:
提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于该分布信息确定光线强度满足预设条件的区域为强光区域,根据该视频流中强光区域的位置变化生成反射光的区域变化序列。
同理,步骤“根据该图像特征生成反射光的区域变化序列和光线变化序列”可以包括:
提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于该分布信息确定光线强度满足预设条件的区域为强光区域,根据该视频流中强光区域的位置变化生成反射光的区域变化序列,以及根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列。
步骤“根据该图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列”可以包括:
提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,然后,基于该分布信息确定光线强度满足预设条件的区域为强光区域,并根据该视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,以及根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
其中,该预设条件可以根据实际应用的需求进行设置,比如,可以根据分布信息选择其中光线强度最强的区域作为强光区域,或者,也可以根据分布信息选择其中光线强度最强的前两个区域作为强光区域,等等,在此不作赘述。
由上可知,本申请实施例在接收到活体检测请求时,可以生成检测界面,其中,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,以便投射的光线在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光和视线信息是随机变化的,因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,整体而言,该方案可以有效抵抗各种活体检测攻击手段,可以大大改善提高活体检测效果,从而提高身份验证的准确性和安全性。
根据前面实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该活体检测装置具体集成在终端中,且光线发射区域所投射的光线的颜色随时间变化为例进行说明。
如图8所示,一种活体检测方法,具体流程可以如下:
201、终端在接收活体检测请求时,生成初始界面,其中,该初始界面包括多个候选区域,且每个候选区域具有区域标识。
其中,该活检检测请求可以是由用户触发,也可以由其他设备发送给该终端,比如,以用户触发为例,当用户启动该活体检测功能,如点击活体检测的启动键时,便可以触发生成该活体检测请求,从而使得终端接收到该活体检测请求。
其中,该候选区域划分方式和数量、以及区域标识的表示形式均可以根据实际应用的需求而定。
例如,如图3所示,在该示例中,初始界面包括9个候选区域,其中,区域标识分别为:1、2、3、4、5、6、7、8和9。
又例如,如图4所示,在该示例中,初始界面包括9个候选区域,其中,区域标识为分别为:A1、A2、A3、B1、B2、B3、C1、C2和C3;
又例如,如图9所示,在该示例中,初始界面包括24个候选区域,其中,区域标识为分别为:A1、A2、A3、A4、A5、A6、B1、B2、B3、B4、B5、B6、C1、C2、C3、C4、C5、C6、D1、D2、D3、D4、D5和D6。
202、终端随机生成光线颜色序列,以及根据该区域标识随机生成人像区域标识序列和发射区域标识序列。
其中,光线颜色序列用于指示光线发射区域所投射的光线的颜色变化,比如,若光线颜色序列为“红,绿,蓝”,则表示光线发射区域所投射的光线的颜色依次为:红—>绿—>蓝。
可选的,为了便于后续可以更好地识别出光线的变化,在生成光线颜色序列时,可以选择色差较大(比如色差大于预设阈值)的颜色作为相邻颜色,比如,在预设颜色空间下,屏幕由红色最亮转变到绿色最亮,其反射光的色度变化最大,所以,该光线颜色序列可以为“红,绿,红,绿”,等等。
其中,人像区域标识序列用于指示人像区域在检测界面中位置的变化,而发射区域标识序列用于指示光线发射区域在检测界面中位置的变化。
需说明的是,光线颜色序列、人像区域标识序列和发射区域标识序列的序列长度可以根据实际应用的需求进行设置,而人像区域和光线发射区域在检测界面中所占的面积大小也可以根据实际应用的需求而定,在此不作赘述。
203、终端根据该人像区域标识序列在该多个候选区域中选择人像区域,以及根据该发射区域标识序列在该多个候选区域中选择光线发射区域。
例如,参见图3,以初始界面划分为9个候选区域,且区域标识分别为:1、2、3、4、5、6、7、8和9为例,则具体可以如下:
若生成的人像区域标识序列为“1,5,7”,则表示需要先选择区域标识为“1”的候选区域作为人像区域,其次将人像区域的位置从区域标识为“1”的候选区域变换为区域标识为“5”的候选区域,最后,再将人像区域的位置从区域标识为“5”的候选区域变换为区域标识为“7”的候选区域,等等,参见图6(图6中人像所在的区域即为人像区域)。
若生成的发射区域标识序列为“369,123,369”,则表示需要先选择区域标识为“3”、“6”和“9”的候选区域作为光线发射区域,其次将光线发射区域的位置从区域标识为“3”、“6”和“9”的候选区域变换为区域标识为“1”、“2”和“3”的候选区域,最后,再将光线发射区域的位置从区域标识为“1”、“2”和“3”的候选区域变换为区域标识为“3”、“6”和“9”的候选区域,等等,参见图6。
需说明的是,为了提高活体检测的准确性和安全性,人像区域和光线发射区域的位置变化频率除了可以是固定的之外,还可以是非固定的,比如,人像区域在区域标识为“1”的位置上维持1秒后,变化为区域标识为“5”的位置,在区域标识为“5”的位置维持2秒后,再变化为区域标识为“7”的位置,等等,光线发射区域也与此类似。其中,人像区域每一次位置切换的时长、以及光线发射区域每一次位置切换的时长可以根据实际应用的需求进行设置,在此不再赘述。
204、终端通过该光线发射区域,向检测对象投射按照该光线颜色序列变化的光线,以便投射的光线在检测对象表面,比如人脸产生反射光。
若光线颜色序列为“红,绿,蓝”,则此时,终端可以依次按照红—>绿—>蓝的颜色次序,向检测对象投射光线。
可选的,为了进一步提高安全性,还可以进一步复杂化光线的变化规则,比如,将每一种颜色的显示时长设置为不一致的数值,比如,红色的显示时长可以为3秒,绿色的显示时长为2秒,而蓝色的显示时长为4秒,等等。
需说明的是,人像区域位置的突变时间点、光线发射区域位置的突变时间点和光线颜色的突变时间点三者可以是一致的,也可以是不一致的,为了描述方便,在本实施例中,将以人像区域位置的突变时间点、光线发射区域位置的突变时间点和光线颜色的突变时间点三者一致为例进行说明。也就是说,人像区域标识序列中的每一组区域标识(比如“1”或“5”或“7”等)、发射区域标识序列中的每一组区域标识(比如“369”或“123”等)、以及光线颜色序列中的每一组颜色是一一对应的,而且,当人像位置变化时,光线发射区域的位置、以及所投射的光线颜色也随着变化。
例如,还是以人像区域标识序列为“1,5,7”,发射区域标识序列为“369,123,369”,光线颜色序列为“红,绿,蓝”为例,则如图10所示,当人像区域位于区域标识为“1”的位置时,光线发射区域位于区域标识为“3”、“6”和“9”的位置,该光线发射区域所投射的光线颜色为“红色”;而当人像区域位于区域标识为“5”的位置时,光线发射区域也变化为区域标识为“1”、“2”和“3”的位置,光线发射区域所投射的光线颜色变化为“绿色”;以此类推,当人像区域变化为区域标识为“7”的位置时,光线发射区域变化为区域标识为“3”、“6”和“9”的位置,而光线发射区域所投射的光线颜色则变化为“蓝色”,等等。
205、终端对在该投射光线的照射下的检测对象(检测对象注视人像区域)的图像进行采集,得到视频流。
例如,终端可以生成语音提示信息,如“请注视屏幕上的人像区域”,以提示检测对象注视该人像区域,然后,调用终端中的摄像进程,通过该摄像进程控制相应的摄像部件对在该投射光线的照射下的检测对象进行视频采集,并在人像区域中实时显示采集的摄像内容。
其中,该摄像进程对应的摄像部件包括但不限于终端自带的摄像头、网络摄像头、以及监控摄像头、以及其他可以采集图像的设备等。
可选的,为了减少噪声所造成的数值浮动对后续图像特征分析的影响,在得到视频流后,还可以对该视频流进行去噪声处理或其他的预处理,比如缩放、锐化、背景模糊等,以提高后续识别的效率和准确性。
206、终端从该视频流中提取该反射光在检测对象表面形成的图像特征,然后执行步骤207。
需说明的是,若在步骤205中,已经对视频流进行了去噪声处理和/或其他的预处理,得到处理后视频流,则此时,终端可以从处理后视频流中提取该反射光在检测对象表面形成的图像特征。
可选的,为了提高后续识别的效率和准确性,在得到视频流(或处理后视频流)之后,终端可以先从视频帧中截取出目标区域,然后针对目标区域进行图像特征的提取,而其他区域或不包含目标区域(如包含检测对象脸部的区域)的视频帧则可以不进行处理。
比如,以目标区域为“检测对象脸部区域”为例,则此时,如图11所示,终端可以利用人脸检测模型对各视频帧进行人脸检测,以筛选出包含检测对象脸部的视频帧,然后,从这些包含检测对象脸部的视频帧中确定检测对象脸部的位置,基于该位置截取出检测对象的脸部区域,并对这些脸部区域进行图像特征提取,得到该反射光在检测对象脸部形成的图像特征。
可选的,在截取出检测对象的脸部区域之后,终端还可以基于检测出的人脸关键点进一步截取出脸部核心区域,再对这些脸部核心区域进行图像特征提取,以得到该反射光在检测对象脸部形成的图像特征。
可选的,由于后续还需要提取眼部信息,因此,终端还可以进一步对该脸部区域中的眼睛所在的区域进行截取,得到眼部区域,比如参见图11,这样,后续便可以有针对性的,基于该眼部区域提取眼部特征点,进而提高处理效率。
207、终端根据该图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列,例如,具体可以如下:
终端提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,然后,基于该分布信息确定光线强度满足预设条件的区域为强光区域,并根据该视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,以及根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
其中,该预设条件可以根据实际应用的需求进行设置,比如,以选择其中光线强度最强的区域为例,则如图12所示,图中方框内的区域即为强光区域,此时,便可以根据图12中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,以及根据图12中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
譬如,以图3所示的检测界面,且光线发射区域占用三个候选区域为例,由于图12中第一幅图中强光区域位于人脸的左侧,所以,表明该光线是由检测界面的左侧区域投射过来的,进而可以确定光线发射区域的区域标识为“3”、“6”和“9”;同理,由于图12中第二幅图中强光区域位于人脸的上侧,所以,表明该光线是由检测界面的上侧区域投射过来的,进而可以确定光线发射区域的区域标识为“1”、“2”和“3”,与此类推,可以确定图12中第三幅图所对应的光线发射区域的区域标识为“3”、“6”和“9”,因此,最终生成的反射光的区域变化序列为“369,123,369”,并根据图12中强光区域发生变化的时间点生成区域突变时间点序列生成光线突变时间点序列。
还是以图12为例,若图12中第一幅图的强光区域的光线颜色为红色,第二图的强光区域的光线颜色为绿色,第三幅图的强光区域的光线颜色为蓝色,则此时,生成的反射光的光线变化序列可以为“红,绿,蓝”,并根据强光区域中光线颜色发生变化的时间点生成
208、终端根据该视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的注视点序列和视线变化时间点序列。
例如,如图13所示,一方面,终端可以利用人脸姿态估计算法对该视频流中检测对象的头部的偏航角(yaw)、俯仰角(pitch)和翻滚角(roll)进行检测,得到头部姿态序列,另一方面,终端可以利用人脸关键点检测算法对该视频流中检测对象的人脸特征点进行检测,并从中筛选出眼部特征点,再根据该眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列,然后,根据该头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象的注视点序列、以及视线变化时间点序列。
其中,该检测模型可以由多个标注有注视点真实值的“头部训练样本对”训练而成,具体可参见前面的实施例,在此不作赘述。
需说明的是,若在步骤206中还截取出了眼部区域,则在提取眼部特征点时,终端也可以直接利用人脸关键点检测算法对该眼部区域的人脸特征点进行检测,得到眼部特征点,而无需对除眼部区域之外的其他区域进行人脸特征点提取。
另外,还需说明的是,若在步骤205中,已经对视频流进行了去噪声处理和/或其他的预处理,得到处理后视频流,则此时,具体可以通过预设检测模型对处理后视频流中检测对象的注视点进行检测,以得到检测对象注视人像区域时的视线信息,在此不作赘述。
可选的,头部信息除了可以包括头部姿态序列之外,还可以包括头部坐标参数,因此,为了提高活体检测的准确性,若终端在采集视频时,采用的是深度摄像头,则此时,终端还可以获取该视频流中检测对象的头部的三维坐标,得到头部坐标参数,这样,在计算检测对象注视人像区域时的注视点序列和视线变化时间点序列时,便可以将该头部坐标参数也作为考量因素之一,即:
终端可以根据该头部坐标参数、头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象的注视点序列、以及视线变化时间点序列。
当然,若将该头部坐标参数也作为计算检测对象注视人像区域时的注视点序列和视线变化时间点序列的考量因素的话,在训练检测模型时,也需要将头部坐标参数也考虑进行,即“头部训练样本对”中除了可以包括头部姿态序列样本和眼部信息样本之外,还可以包括头部坐标参数样本,具体的训练方法与不考虑“头部坐标参数样本”类似,详见前面的实施例,在此不作赘述。
其中,步骤206和208的执行顺序可以不分先后。
209、若该区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则终端确定该检测对象为活体。
需说明的是,若该区域变化序列与发射区域标识序列不匹配,或光线变化序列与光线颜色序列不匹配,且注视点序列与人像区域标识序列不匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值大于等于设定值,则终端可以确定该检测对象为非活体
其中,该设定值可以根据实际应用的需求进行设置,在此不作赘述。
由上可知,本申请实施例的终端在接收到活体检测请求时,可以随机生成光线颜色序列、人像区域标识序列和发射区域标识序列,并据此生成检测界面,其中,检测界面包括人像区域和光线发射区域,且人像区域可以根据人像区域标识序列进行变化,光线发射区域根据发射区域标识序列进行变化,此后,便可以通过该光线发射区域向检测对象投射按照光线颜色序列变化的光线,以便投射的光线在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,以此来分析发射光的变化,并对检测对象注视人像区域时的视线进行追踪,若反射光的变化与发射区域标识序列、以及光线颜色序列相匹配、且追踪得到的视线信息与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光的方向和颜色、以及视线信息均是随机变化的,因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,整体而言,该方案可以有效抵抗各种活体检测攻击手段,可以大大改善提高活体检测效果,从而提高身份验证的准确性和安全性。
在本实施例中,将以该活体检测装置具体集成在检测系统中为例进行说明,其中,该检测系统包括前端设备和后台,前端设备可以为终端,而后台则可以为服务器等设备。
例如,如图14所示,该检测系统的后台可以随机生成人像区域标识序列、发射区域标识序列和光线颜色序列,并传送给前端设备,由前端设备根据该人像区域标识序列、发射区域标识序列和光线颜色序列生成检测界面,其中,检测界面中人像区域的位置基于人像区域标识序列而变化,检测界面中光线发射区域的位置基于发射区域标识序列而变化,且该光线发射区域所投射的光线的颜色按照光线颜色序列进行变化,此后,前端设备采集检测对象如对检测对象表面的发射光进行分析(比如进行强光区域定位、变化点定位和反射光颜色分析等),以及对检测对象的视线进行追踪,并将分析结果和追踪结果与生成人像区域标识序列、发射区域标识序列和光线颜色序列进行比对,以确定检测对象是否为活体。
以下将以该前端设备具体为终端,后台为服务器为例进行详细说明。
如图15所示,一种活体检测方法,具体流程可以如下:
301、终端在接收到活体检测请求时,将该活体检测请求发送给服务器。
其中,该活检检测请求可以是由用户触发,也可以由其他设备发送给该终端,具体可参见前面的实施例,在此不作赘述。
302、服务器在接收到该活体检测请求后,生成初始界面,其中,该初始界面包括多个候选区域,且每个候选区域具有区域标识。
可选的,该候选区域划分方式和数量、以及区域标识的表示形式均可以根据实际应用的需求而定,比如,可参照图3、图4和图8的划分方式和区域标识的表示形式,详见前面的实施例。
303、服务器随机生成光线颜色序列,以及根据该区域标识随机生成人像区域标识序列和发射区域标识序列,并将初始界面、该人像区域标识序列、发射区域标识序列和光线颜色序列发送给终端。
其中,光线颜色序列用于指示光线发射区域所投射的光线的颜色变化,人像区域标识序列用于指示人像区域在检测界面中位置的变化,而发射区域标识序列用于指示光线发射区域在检测界面中位置的变化,具体可参见前面实施例,在此不作赘述。
可选的,为了提高数据传输的安全性,在将初始界面、该人像区域标识序列、发射区域标识序列和光线颜色序列发送给终端时,还可以对这些数据进行加密,即服务器可以对初始界面、该人像区域标识序列、发射区域标识序列和光线颜色序列中的全部或部分数据进行加密,得到加密数据,然后,将加密数据发送给终端。
其中,具体的加密算法可以根据实际应用的需求而定。
304、终端根据该人像区域标识序列在该初始界面的多个候选区域中选择人像区,以及根据该发射区域标识序列在该多个候选区域中选择光线发射区域。
可选的,若终端接收到的数据是服务器已经加密(即加密数据),则此时终端需要先对加密数据进行解密,得到解密后的初始界面、该人像区域标识序列、发射区域标识序列和光线颜色序列后,再根据该人像区域标识序列在该初始界面的多个候选区域中选择人像区,以及根据该发射区域标识序列在该多个候选区域中选择光线发射区域。
305、终端通过该光线发射区域,向检测对象投射按照该光线颜色序列变化的光线,以便投射的光线在检测对象表面如人脸产生反射光。
306、终端对在该投射光线的照射下,检测对象注视人像区域时的图像进行采集,得到视频流,并将采集到的视频流发送给服务器。
可选的,为了提高数据传输的安全性,终端在将视频流发送给服务器时,可以对该视频流进行加密,得到加密后视频流,然后,将加密后视频流发送给服务器。
其中,步骤304~306的执行与上一实施例中的步骤203~205类似,在此不作赘述。
307、服务器从该视频流中提取该反射光在检测对象表面形成的图像特征,然后,执行步骤308。
可选的,若在步骤306中,终端已经对视频流进行了加密,则此时,服务器需要对接收到的加密后视频流进行解密,然后,从解密后视频流中提取该反射光在检测对象表面形成的图像特征。
可选的,为了提高后续识别的效率和准确性,服务器在得到视频流之后,可以先从视频帧中截取出目标区域,然后针对目标区域进行图像特征的提取,而其他区域或不包含目标区域的视频帧则可以不进行处理。
比如,以目标区域为“检测对象脸部区域”为例,则如图11所示,服务器可以利用人脸检测模型对各视频帧进行人脸检测,以筛选出包含检测对象脸部的视频帧,然后,从这些包含检测对象脸部的视频帧中确定检测对象脸部的位置,基于该位置截取出检测对象的脸部区域,并对这些脸部区域进行图像特征提取,得到该反射光在检测对象脸部形成的图像特征。
可选的,在截取出检测对象的脸部区域之后,服务器还可以基于检测出的人脸关键点进一步截取出脸部核心区域,再对这些脸部核心区域进行图像特征提取,以得到该反射光在检测对象脸部形成的图像特征。
可选的,由于后续还需要提取眼部信息,因此,服务器还可以进一步对该脸部区域中的眼睛所在的区域进行截取,得到眼部区域,以便后续可以基于该眼部区域提取眼部特征点,而无需提取整个人脸区域的特征点后,再从中筛选出眼部特征点。
308、服务器根据该图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列,例如,具体可以如下:
服务器提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,然后,基于该分布信息确定光线强度满足预设条件(可以根据实际应用的需求进行设置)的区域为强光区域,比如选择光线强度最大的区域作为强光区域,并根据该视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,以及根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列,具体可参见前面的实施例,在此不作赘述。
309、服务器利用人脸姿态估计算法对该视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列。
310、服务器利用人脸关键点检测算法和瞳孔中心检测算法对该视频流中检测对象的瞳孔中心进行检测,得到瞳孔中心序列,例如,具体可以如下:
服务器利用人脸关键点检测算法对该视频流中检测对象的人脸特征点进行检测,并从中筛选出眼部特征点,再根据该眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列。
需说明的是,若在步骤307中还截取出了眼部区域,则服务器在提取眼部特征点时,也可以直接利用人脸关键点检测算法对该眼部区域的人脸特征点进行检测,得到眼部特征点,而无需对除眼部区域之外的其他区域进行人脸特征点提取。
其中,步骤307、309和310的执行顺序可以不分先后。
311、服务器根据该头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象的注视点序列、以及视线变化时间点序列。
其中,该检测模型可以由多个标注有注视点真实值的“头部训练样本对”训练而成,具体可参见前面的实施例,在此不作赘述。
可选的,头部信息除了可以包括头部姿态序列之外,还可以包括头部坐标参数,因此,为了提高活体检测的准确性,若终端在采集视频时,采用的是深度摄像头,则此时,服务器还可以获取该视频流中检测对象的头部的三维坐标,得到头部坐标参数,这样,在计算检测对象注视人像区域时的注视点序列和视线变化时间点序列时,便可以将该头部坐标参数也作为考量因素之一,即:
服务器可以根据该头部坐标参数、头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象的注视点序列、以及视线变化时间点序列。
当然,若将该头部坐标参数也作为计算检测对象注视人像区域时的注视点序列和视线变化时间点序列的考量因素的话,在训练检测模型时,也需要将头部坐标参数也考虑进行,详见前面的实施例,在此不作赘述。
312、若区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则服务器确定该检测对象为活体,并生成指示该检测对象为活体的检测结果。
需说明的是,若该区域变化序列与发射区域标识序列不匹配,或光线变化序列与光线颜色序列不匹配,且注视点序列与人像区域标识序列不匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值大于等于设定值,则服务器可以确定该检测对象为非活体,并生成指示该检测对象为非活体的检测结果。
其中,该设定值可以根据实际应用的需求进行设置,在此不作赘述。
313、服务器将检测结果发送给终端,由终端对该检测结果进行显示。
由上可知,本申请实施例的终端在接收到活体检测请求时,可以将该活体检测请求发送给服务器,由服务器随机生成初始界面、光线颜色序列、人像区域标识序列和发射区域标识序列,并传送给终端,由终端据此生成检测界面,其中,检测界面包括人像区域和光线发射区域,且人像区域可以根据人像区域标识序列进行变化,光线发射区域根据发射区域标识序列进行变化,然后,终端通过该光线发射区域向检测对象投射按照光线颜色序列变化的光线,并对检测对象进行视频采集,然后,将采集到的视频流发送给服务器,由服务器基于该视频流进行发射光分析和视线追踪,若反射光的变化与发射区域标识序列、以及光线颜色序列相匹配、且追踪得到的视线信息与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光和视线信息是随机变化的,因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,相对于现有方案而言,该方案可以有效抵抗各种活体检测攻击手段,改善提高活体检测效果,进而有利于提高身份验证的准确性和安全性。
此外,由于本实施例所提供的方案可以将大部分涉及运算和分析的操作交由后台如服务器来执行,因此,较上一实施例而言,可以减轻终端的负载,有利于改善终端的性能。
为了更好地实施以上方法,本申请实施例还提供一种活体检测装置,该活体检测装置具体可以集成在终端或检测系统等电子设备中,该终端具体可以为手机、平板电脑、笔记本电脑或PC等设备,而检测系统则可以包括前端设备和后台,其中,前端设备可以为终端,而后台可以为服务器等设备。
例如,如图16所示,该活体检测装置包括生成单元401、投射单元402、采集单元403和检测单元404,如下:
(1)生成单元401;
生成单元401,用于在接收到活体检测请求时,生成检测界面,其中,该检测界面包括人像区域和光线发射区域,该人像区域的位置和光线发射区域的位置随时间随机变化。
可选的,可以通过多种策略使得该人像区域的位置和光线发射区域的位置可以随时间随机变化,比如:
生成单元401,具体可以用于在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列,根据该人像区域标识序列和发射区域标识序列生成检测界面,使得该检测界面包括人像区域和光线发射区域,其中,该人像区域的位置根据人像区域标识序列进行变化,该光线发射区域的位置根据区域标识序列进行变化。
可选的,该人像区域标识序列和发射区域标识序列可以是由多个坐标或区域标识组成的序列,譬如,以该人像区域标识序列和发射区域标识序列为由多个区域标识组成的序列为例,则:
生成单元401,具体可以用于在接收到活体检测请求时,生成初始界面,该初始界面包括多个候选区域,且每个候选区域具有区域标识,根据该区域标识随机生成人像区域标识序列和发射区域标识序列,根据该人像区域标识序列在该多个候选区域中选择人像区域,以及根据该发射区域标识序列在该多个候选区域中选择光线发射区域。
可选的,为了减少投射的光线对检测对象的眼睛产生不适感,在生成的人像区域标识序列和发射区域标识序列时,可以尽量使得光线发射区域远离人像区域,比如将光线发射区域尽可能设置在检测界面的边缘,等等。
另外,人像区域和光线发射区域在检测界面中所占的面积大小也可以根据实际应用的需求而定,具体可参见前面的方法实施例,在此不作赘述。
(2)投射单元402;
投射单元402,用于通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光。
可选的,为了便于后续可以更好地识别出检测对象表面光线(即反射光)的变化,除了可以通过反射光的位置来进行区分之外,还可以通过光线的颜色或强度等来进行区分,即:
该生成单元401,还可以用于随机生成光线颜色序列。
则此时,投射单元402,具体可以用于通过该光线发射区域,向检测对象投射按照该光线颜色序列变化的光线,并在检测对象表面产生反射光。
或者,同理,该生成单元401,还可以用于随机生成光线强度序列,这样,此时投射单元402便可以通过该光线发射区域,向检测对象投射按照该光线强度序列变化的光线,并在检测对象表面产生反射光,等等。
其中,为了便于后续可以更好地识别出光线的变化,在生成光线颜色序列时,可以选择色差较大(比如色差大于预设阈值)的颜色作为相邻颜色;类似的,在生成光线强度序列时,也可以尽可能使得光线强度序列中相邻强度之间的差值能够大于设定阈值,从而使得光线的变化更易被识别,具体可参见前面的方法实施例,在此不作赘述。
(3)采集单元403;
采集单元403,用于采集该反射光在检测对象表面形成的图像特征,并对该检测对象注视人像区域时的视线进行追踪。
例如,该采集单元403可以包括采集子单元、提取子单元和计算子单元,如下:
采集子单元,用于对在该投射光线的照射下,该检测对象注视人像区域时的图像进行采集,得到视频流。
例如,采集子单元,具体可以用于生成提示信息如语音提示信息,以提示检测对象注视该人像区域,然后,调用摄像进程,通过该摄像进程对在该投射光线的照射下的检测对象进行图像采集,并在人像区域中实时显示采集的内容,得到视频流。
其中,该摄像进程对应的摄像部件包括但不限于终端自带的摄像头、网络摄像头、以及监控摄像头、以及其他可以采集图像的设备等。
提取子单元,用于从该视频流中提取该反射光在检测对象表面形成的图像特征。
例如,该提取子单元,具体可以从视频帧中剪裁出目标区域,比如检测对象的脸部区域,然后对该目标区域进行图像特征的提取。
计算子单元,用于根据该视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的视线信息,
例如,以该头部信息包括头部姿态序列为例,则具体可以如下:
计算子单元,具体可以用于确定该视频流中检测对象的头部的偏航角、俯仰角和翻滚角,得到头部姿态序列,对该视频流中检测对象的眼部特征进行检测,得到眼部信息,根据该头部姿态序列和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
其中,计算子单元具体可以人脸姿态估计算法对该视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列,具体可参见前面的实施例。
其中,该眼部信息具体可以为瞳孔中心序列,即该计算子单元,具体可以用于利用人脸姿态估计算法对该视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列;利用人脸关键点检测算法对该视频流中检测对象的人脸特征点进行检测,从检测得到的人脸特征点中筛选出眼部特征点,根据该眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列;根据该头部姿态序列和瞳孔中心序列,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
可选的,该头部信息还可以包括头部坐标参数,即该计算子单元,具体可以用于利用人脸姿态估计算法对该视频流中检测对象的头部的偏航角、俯仰角和翻滚角进行检测,得到头部姿态序列;获取该视频流中检测对象的头部的三维坐标,得到头部坐标参数;利用人脸关键点检测算法对该视频流中检测对象的人脸特征点进行检测,从检测得到的人脸特征点中筛选出眼部特征点,根据该眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列;根据该头部姿态参数、头部坐标参数和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
其中,该检测模型可以由其他设备训练后提供给该活体检测装置,或者,也可以由该活体检测装置自行训练而成,即如图17所示,该活检检测装置还可以包括训练单元405,如下:
训练单元405,可以用于获取多个标注有注视点真实值的头部训练样本对,该头部训练样本对包括头部姿态序列样本和眼部信息样本等,然后,通过初始检测模型对该头部训练样本对中检测对象的注视点进行预测,得到注视点预测值,根据该注视点真实值和注视点预测值对该初始检测模型进行收敛,便可得到检测模型。
(4)检测单元404;
检测单元404,用于在根据该图像特征确定该反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配时,确定该检测对象为活体。
该检测单元404,还可以用于在根据该图像特征确定该反射光的变化与光线发射区域的位置变化不匹配、或追踪得到的视线信息与人像区域的位置变化不匹配,则确定该检测对象为非活体。
其中,根据该图像特征确定该反射光的变化与光线发射区域的位置变化是否相匹配,以及确定追踪得到的视线信息与人像区域的位置变化是否相匹配的方式可以由多种,例如,具体可以采用如下任一方式:
(1)检测单元404可以包括第一序列生成子单元和第一匹配子单元,如下:
该第一序列生成子单元,用于根据该图像特征生成反射光的区域变化序列和光线变化序列。
比如,该第一序列生成子单元,具体用于提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于该分布信息确定光线强度满足预设条件的区域为强光区域,根据该视频流中强光区域的位置变化生成反射光的区域变化序列,根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列。
该第一匹配子单元,用于在该区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且追踪得到的视线信息与人像区域标识序列相匹配时,确定该检测对象为活体。
(2)该检测单元可以包括第二序列生成子单元和第二匹配子单元,如下:
第二序列生成子单元,用于根据该图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列。
比如,该第二序列生成子单元,具体用于提取该视频流中每一视频帧的图像特征,根据视频帧的图像特征计算检测对象表面光线强度的分布信息,基于该分布信息确定光线强度满足预设条件的区域为强光区域,根据该视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列,根据该视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
第二匹配子单元,用于在该区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值时,确定该检测对象为活体。
(3)该检测单元可以包括第三序列生成子单元和第三匹配子单元,如下:
第三序列生成子单元,用于根据该图像特征生成反射光的区域变化序列。
第三匹配子单元,用于在该区域变化序列与发射区域标识序列相匹配,且追踪得到的视线信息(如注视点序列)与人像区域标识序列相匹配时,确定该检测对象为活体。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
由上可知,本申请实施例的活体检测装置中的生成单元401在接收到活体检测请求时,可以生成检测界面,其中,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以由投射单元402通过该光线发射区域向检测对象投射光线,以便投射的光线在检测对象表面产生反射光,然后,由采集单元403采集该反射光在检测对象表面形成的图像特征,并对检测对象注视人像区域时的视线进行追踪,若检测单元404根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体(合成图片或视频的载体,比如相片、手机或平板电脑等)的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光和视线信息是随机变化的(因为人像区域和光线发射区域是随时间随机变化的),因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,整体而言,该方案可以有效抵抗各种活体检测攻击手段,可以大大改善提高活体检测效果,从而提高身份验证的准确性和安全性。
相应的,本申请实施例还提供一种电子设备,该电子设备集成有本申请实施例所提供任一种活体检测装置,如图18所示,其示出了本申请实施例所涉及的电子设备的结构示意图,具体来讲:
该电子设备可以包括一个或者一个以上处理核心的处理器501、一个或一个以上计算机可读存储介质的存储器502、电源503和输入单元504等部件。本领域技术人员可以理解,图18中示出的电子设备结构并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器501是该电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。可选的,处理器501可包括一个或多个处理核心;优选的,处理器501可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器501中。
存储器502可用于存储软件程序以及模块,处理器501通过运行存储在存储器502的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器502可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器502还可以包括存储器控制器,以提供处理器501对存储器502的访问。
电子设备还包括给各个部件供电的电源503,优选的,电源503可以通过电源管理系统与处理器501逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源503还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该电子设备还可包括输入单元504,该输入单元504可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,电子设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,电子设备中的处理器501会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器502中,并由处理器501来运行存储在存储器502中的应用程序,从而实现各种功能,如下:
在接收到活体检测请求时,生成检测界面,该检测界面包括人像区域和光线发射区域,该人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对该检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定该反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体。
可选的,为了便于后续可以更好地识别出检测对象表面光线的变化,除了可以通过反射光的位置来进行区分之外,还可以通过光线的颜色或强度等来进行区分,即处理器501还可以运行存储在存储器502中的应用程序,以实现如下功能:
在接收到活体检测请求时,随机生成光线颜色序列或光线强度序列,使得在通过该光线发射区域,向检测对象投射光线时,所投射的光线可以基于该光线颜色序列或光线强度序列进行变化。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本申请实施例的电子设备在接收到活体检测请求时,可以生成检测界面,其中,该检测界面包括人像区域和光线发射区域,且人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,以便投射的光线在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体,否则为非活体;由于该方案进行活体判别的依据是检测对象表面的反射光和检测对象的视线信息,而真正的活体与伪造的活体的反射光和视线信息是不同的,因此,该方案可以有效抵挡合成人脸攻击;与此同时,由于该反射光和视线信息是随机变化的,因此,非法入侵者也无法通过预先成像好的视频注入来进行攻击,所以,整体而言,该方案可以有效抵抗各种活体检测攻击手段,可以大大改善提高活体检测效果,从而提高身份验证的准确性和安全性。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过应用程序来完成,或通过应用程序控制相关的硬件来完成,该应用程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种存储介质,其中存储有应用程序,该应用程序能够被处理器进行加载,以执行本申请实施例所提供的任一种活体检测方法中的步骤。例如,该应用程序可以执行如下步骤:
在接收到活体检测请求时,生成检测界面,该检测界面包括人像区域和光线发射区域,该人像区域的位置和光线发射区域的位置随时间随机变化,此后,便可以通过该光线发射区域向检测对象投射光线,并在检测对象表面产生反射光,然后,采集该反射光在检测对象表面形成的图像特征,并对该检测对象注视人像区域时的视线进行追踪,若根据该图像特征确定该反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定该检测对象为活体。
可选的,为了便于后续可以更好地识别出检测对象表面光线的变化,除了可以通过反射光的位置来进行区分之外,还可以通过光线的颜色或强度等来进行区分,即该应用程序还可以执行如下步骤:
在接收到活体检测请求时,随机生成光线颜色序列或光线强度序列。
这样,后续在通过该光线发射区域向检测对象投射光线时,便可以向检测对象投射按照该光线颜色序列或光线强度序列变化的光线,以便投射的光线在检测对象表面产生相应颜色或强度的反射光。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种活体检测方法中的步骤,因此,可以实现本申请实施例所提供的任一种活体检测方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种活体检测方法、装置、电子设备和存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (16)

1.一种活体检测方法,其特征在于,包括:
在接收到活体检测请求时,生成检测界面,所述检测界面包括人像区域和光线发射区域,所述人像区域的位置和光线发射区域的位置随时间随机变化;
通过所述光线发射区域向检测对象投射光线,并在检测对象表面产生反射光;
采集所述反射光在检测对象表面形成的图像特征,并对所述检测对象注视人像区域时的视线进行追踪;
若根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定所述检测对象为活体。
2.根据权利要求1所述的方法,其特征在于,所述采集所述反射光在检测对象表面形成的图像特征,并对所述检测对象注视人像区域时的视线进行追踪,包括:
对在所述投射光线的照射下,所述检测对象注视人像区域时的图像进行采集,得到视频流;
从所述视频流中提取所述反射光在检测对象表面形成的图像特征;
根据所述视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的视线信息。
3.根据权利要求2所述的方法,其特征在于,所述头部信息包括头部姿态序列,所述根据所述视频流中检测对象的头部信息和眼部信息,计算检测对象注视人像区域时的视线信息,包括:
确定所述视频流中检测对象的头部的偏航角、俯仰角和翻滚角,得到头部姿态序列;
对所述视频流中检测对象的眼部特征进行检测,得到眼部信息;
根据所述头部姿态序列和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
4.根据权利要求3所述的方法,其特征在于,所述眼部信息为瞳孔中心序列,所述对所述视频流中检测对象的眼部特征进行检测,得到眼部信息,包括:
利用人脸关键点检测算法对所述视频流中检测对象的人脸特征点进行检测;
从检测得到的人脸特征点中筛选出眼部特征点;
根据所述眼部特征点,采用瞳孔中心检测算法检测出瞳孔中心,得到瞳孔中心序列。
5.根据权利要求3所述的方法,其特征在于,所述头部信息还包括头部坐标参数,所述根据所述头部姿态参数和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息之前,还包括:
获取所述视频流中检测对象的头部的三维坐标,得到头部坐标参数;
所述根据所述头部姿态参数和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息,包括:根据所述头部姿态参数、头部坐标参数和眼部信息,通过预设检测模型对视频流中检测对象的注视点进行检测,得到检测对象注视人像区域时的视线信息。
6.根据权利要求2所述的方法,其特征在于,所述对在所述投射光线的照射下,所述检测对象注视人像区域时的图像进行采集,包括:
生成语音提示信息,所述语音提示信息提示检测对象注视所述人像区域;
调用摄像进程,对在所述投射光线的照射下的检测对象进行图像采集,并在人像区域中实时显示摄像内容。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述在接收到活体检测请求时,生成检测界面,所述检测界面包括人像区域和光线发射区域,所述人像区域的位置和光线发射区域的位置随时间随机变化,包括:
在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列;
根据所述人像区域标识序列和发射区域标识序列生成检测界面,使得所述检测界面包括人像区域和光线发射区域,其中,所述人像区域的位置根据人像区域标识序列进行变化,所述光线发射区域的位置根据区域标识序列进行变化。
8.根据权利要求7所述的方法,其特征在于,所述在接收到活体检测请求时,还包括:
随机生成光线颜色序列;
通过所述光线发射区域向检测对象投射光线,并在检测对象表面产生反射光,具体为:通过所述光线发射区域,向检测对象投射按照所述光线颜色序列变化的光线,并在检测对象表面产生反射光。
9.根据权利要求8所述的方法,其特征在于,所述若根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定所述检测对象为活体,包括:
根据所述图像特征生成反射光的区域变化序列和光线变化序列;
若所述区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且追踪得到的视线信息与人像区域标识序列相匹配,则确定所述检测对象为活体。
10.根据权利要求9所述的方法,其特征在于,所述根据所述图像特征生成反射光的区域变化序列和光线变化序列,包括:
提取所述视频流中每一视频帧的图像特征;
根据视频帧的图像特征计算检测对象表面光线强度的分布信息;
基于所述分布信息确定光线强度满足预设条件的区域为强光区域;
根据所述视频流中强光区域的位置变化生成反射光的区域变化序列;
根据所述视频流中强光区域的光线颜色变化生成反射光的光线变化序列。
11.根据权利要求8所述的方法,其特征在于,所述追踪得到的视线信息包括注视点序列和视线变化时间点序列,所述若根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配,则确定所述检测对象为活体,
包括:
根据所述图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列;
若所述区域变化序列与发射区域标识序列相匹配,且光线变化序列与光线颜色序列相匹配,且注视点序列与人像区域标识序列相匹配,且视线变化时间点序列、区域突变时间点序列和光线突变时间点序列两两之间的差值小于设定值,则确定所述检测对象为活体。
12.根据权利要求11所述的方法,其特征在于,所述根据所述图像特征生成反射光的区域变化序列、区域突变时间点序列、光线变化序列、以及光线突变时间点序列,包括:
提取所述视频流中每一视频帧的图像特征;
根据视频帧的图像特征计算检测对象表面光线强度的分布信息;
基于所述分布信息确定光线强度满足预设条件的区域为强光区域;
根据所述视频流中强光区域的位置变化生成反射光的区域变化序列和区域突变时间点序列;
根据所述视频流中强光区域的光线颜色变化生成反射光的光线变化序列和光线突变时间点序列。
13.根据权利要求7所述的方法,其特征在于,所述在接收到活体检测请求时,随机生成人像区域标识序列和发射区域标识序列,包括:
在接收到活体检测请求时,生成初始界面,所述初始界面包括多个候选区域,每个候选区域具有区域标识;
根据所述区域标识随机生成人像区域标识序列和发射区域标识序列;
所述根据所述人像区域标识序列和发射区域标识序列生成检测界面,使得所述检测界面包括人像区域和光线发射区域,包括:根据所述人像区域标识序列在所述多个候选区域中选择人像区域,以及根据所述发射区域标识序列在所述多个候选区域中选择光线发射区域,所述光线发射区域远离人像区域。
14.一种活体检测装置,其特征在于,包括:
生成单元,用于在接收到活体检测请求时,生成检测界面,所述检测界面包括人像区域和光线发射区域,所述人像区域的位置和光线发射区域的位置随时间随机变化;
投射单元,用于通过所述光线发射区域向检测对象投射光线,并在检测对象表面产生反射光;
采集单元,用于采集所述反射光在检测对象表面形成的图像特征,并对所述检测对象注视人像区域时的视线进行追踪;
检测单元,用于在根据所述图像特征确定所述反射光的变化与光线发射区域的位置变化相匹配、且追踪得到的视线信息与人像区域的位置变化相匹配时,确定所述检测对象为活体。
15.一种电子设备,其特征在于,包括存储器和处理器;所述存储器存储有应用程序,所述处理器用于运行所述存储器内的应用程序,以执行权利要求1至13任一项所述的活体检测方法中的操作。
16.一种存储介质,其特征在于,所述存储介质存储有应用程序,所述应用程序适于处理器进行加载,以执行权利要求1至13任一项所述的活体检测方法中的步骤。
CN202010054359.2A 2020-01-17 2020-01-17 一种活体检测方法、装置、电子设备和存储介质 Active CN111274928B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010054359.2A CN111274928B (zh) 2020-01-17 2020-01-17 一种活体检测方法、装置、电子设备和存储介质
PCT/CN2020/124290 WO2021143266A1 (zh) 2020-01-17 2020-10-28 一种活体检测方法、装置、电子设备和存储介质
US17/585,205 US20220148337A1 (en) 2020-01-17 2022-01-26 Living body detection method and apparatus, electronic device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010054359.2A CN111274928B (zh) 2020-01-17 2020-01-17 一种活体检测方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN111274928A true CN111274928A (zh) 2020-06-12
CN111274928B CN111274928B (zh) 2023-04-07

Family

ID=70998808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010054359.2A Active CN111274928B (zh) 2020-01-17 2020-01-17 一种活体检测方法、装置、电子设备和存储介质

Country Status (3)

Country Link
US (1) US20220148337A1 (zh)
CN (1) CN111274928B (zh)
WO (1) WO2021143266A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111914763A (zh) * 2020-08-04 2020-11-10 网易(杭州)网络有限公司 活体检测方法、装置和终端设备
CN112329727A (zh) * 2020-11-27 2021-02-05 四川长虹电器股份有限公司 一种活体检测方法和装置
WO2021143266A1 (zh) * 2020-01-17 2021-07-22 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质
CN113807159A (zh) * 2020-12-31 2021-12-17 京东科技信息技术有限公司 人脸识别处理方法、装置、设备及其存储介质
CN113869219A (zh) * 2021-09-29 2021-12-31 平安银行股份有限公司 人脸活体检测方法、装置、设备及存储介质
CN114387655A (zh) * 2022-01-14 2022-04-22 云从科技集团股份有限公司 一种活体检测方法、计算机可读存储介质以及电子设备
CN117037221A (zh) * 2023-10-08 2023-11-10 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质
WO2024077971A1 (zh) * 2022-10-10 2024-04-18 京东科技控股股份有限公司 活体检测方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114935971A (zh) * 2021-02-05 2022-08-23 京东方科技集团股份有限公司 显示驱动芯片、显示装置和显示驱动方法
WO2023221996A1 (zh) * 2022-05-16 2023-11-23 北京旷视科技有限公司 一种活体检测方法、电子设备、存储介质及程序产品
CN116070790B (zh) * 2023-03-21 2023-09-01 中国建筑一局(集团)有限公司 一种减少施工现场重大安全风险隐患的预测方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117695A (zh) * 2015-08-18 2015-12-02 北京旷视科技有限公司 活体检测设备和活体检测方法
CN106529512A (zh) * 2016-12-15 2017-03-22 北京旷视科技有限公司 活体人脸验证方法及装置
CN107992794A (zh) * 2016-12-30 2018-05-04 腾讯科技(深圳)有限公司 一种活体检测方法、装置和存储介质
CN110135370A (zh) * 2019-05-20 2019-08-16 北京百度网讯科技有限公司 人脸活体检测的方法及装置、电子设备、计算机可读介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184246B (zh) * 2015-08-28 2020-05-19 北京旷视科技有限公司 活体检测方法和活体检测系统
CN107886032B (zh) * 2016-09-30 2021-12-14 阿里巴巴集团控股有限公司 终端设备、智能手机、基于脸部识别的认证方法和系统
US10796178B2 (en) * 2016-12-15 2020-10-06 Beijing Kuangshi Technology Co., Ltd. Method and device for face liveness detection
JP3224675U (ja) * 2017-12-05 2020-01-16 ユエン リー ヴィオラ ラム, 瞳孔反応、顔追跡、及び感情検出を使用した対話型・適応型学習、神経認知障害診断、並びに非追随性検出のシステム
CN111274928B (zh) * 2020-01-17 2023-04-07 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117695A (zh) * 2015-08-18 2015-12-02 北京旷视科技有限公司 活体检测设备和活体检测方法
CN106529512A (zh) * 2016-12-15 2017-03-22 北京旷视科技有限公司 活体人脸验证方法及装置
CN107992794A (zh) * 2016-12-30 2018-05-04 腾讯科技(深圳)有限公司 一种活体检测方法、装置和存储介质
CN110135370A (zh) * 2019-05-20 2019-08-16 北京百度网讯科技有限公司 人脸活体检测的方法及装置、电子设备、计算机可读介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021143266A1 (zh) * 2020-01-17 2021-07-22 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质
CN111914763A (zh) * 2020-08-04 2020-11-10 网易(杭州)网络有限公司 活体检测方法、装置和终端设备
CN111914763B (zh) * 2020-08-04 2023-11-28 网易(杭州)网络有限公司 活体检测方法、装置和终端设备
CN112329727A (zh) * 2020-11-27 2021-02-05 四川长虹电器股份有限公司 一种活体检测方法和装置
CN113807159A (zh) * 2020-12-31 2021-12-17 京东科技信息技术有限公司 人脸识别处理方法、装置、设备及其存储介质
CN113869219A (zh) * 2021-09-29 2021-12-31 平安银行股份有限公司 人脸活体检测方法、装置、设备及存储介质
CN113869219B (zh) * 2021-09-29 2024-05-21 平安银行股份有限公司 人脸活体检测方法、装置、设备及存储介质
CN114387655A (zh) * 2022-01-14 2022-04-22 云从科技集团股份有限公司 一种活体检测方法、计算机可读存储介质以及电子设备
WO2024077971A1 (zh) * 2022-10-10 2024-04-18 京东科技控股股份有限公司 活体检测方法及装置
CN117037221A (zh) * 2023-10-08 2023-11-10 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质
CN117037221B (zh) * 2023-10-08 2023-12-29 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
US20220148337A1 (en) 2022-05-12
WO2021143266A1 (zh) 2021-07-22
CN111274928B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN111274928B (zh) 一种活体检测方法、装置、电子设备和存储介质
CN107609383B (zh) 3d人脸身份认证方法与装置
Boulkenafet et al. OULU-NPU: A mobile face presentation attack database with real-world variations
CN107748869B (zh) 3d人脸身份认证方法与装置
WO2021073364A1 (zh) 一种人脸活体检测方法、装置、设备及存储介质
CN107633165B (zh) 3d人脸身份认证方法与装置
US11580203B2 (en) Method and apparatus for authenticating a user of a computing device
Tang et al. Face flashing: a secure liveness detection protocol based on light reflections
US8300935B2 (en) Method and system for the detection and the classification of events during motion actions
Fang et al. Real masks and spoof faces: On the masked face presentation attack detection
CN108369785A (zh) 活性检测
CN105426827A (zh) 活体验证方法、装置和系统
CN109325456A (zh) 目标识别方法、装置、目标识别设备及存储介质
WO2021143216A1 (zh) 一种人脸活体检测的方法和相关装置
KR20120139100A (ko) 얼굴 인증을 이용한 보안 장치 및 방법
US20180197300A1 (en) Irradiation system, irradiation method, and program storage medium
Farrukh et al. FaceRevelio: a face liveness detection system for smartphones with a single front camera
Ali et al. Gaze stability for liveness detection
Alsufyani et al. Biometric presentation attack detection using gaze alignment
Kantarcı et al. Shuffled patch-wise supervision for presentation attack detection
Wang et al. Human identification in metaverse using egocentric iris recognition
Shen et al. Iritrack: Face presentation attack detection using iris tracking
JP3980464B2 (ja) 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置
Ma et al. Multi-perspective dynamic features for cross-database face presentation attack detection
CN114299569A (zh) 一种基于眼球运动的安全人脸认证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40025237

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant