CN108875469A - 活体检测与身份认证的方法、装置及计算机存储介质 - Google Patents
活体检测与身份认证的方法、装置及计算机存储介质 Download PDFInfo
- Publication number
- CN108875469A CN108875469A CN201710448942.XA CN201710448942A CN108875469A CN 108875469 A CN108875469 A CN 108875469A CN 201710448942 A CN201710448942 A CN 201710448942A CN 108875469 A CN108875469 A CN 108875469A
- Authority
- CN
- China
- Prior art keywords
- sequence
- motion profile
- target object
- correlation coefficient
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明实施例提供了一种活体检测与身份认证的方法、装置及计算机存储介质,该方法包括:控制屏幕上的引导物沿着引导物运动轨迹进行运动,采集目标对象的眼部的视频;根据所述视频得到所述目标对象的眼部视线运动轨迹;确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度;根据所述匹配度确定所述目标对象是否为活体。由此可见,本发明实施例通过沿随机生成的引导物运动轨迹运动的引导物,要求目标对象的眼部视线跟随该引导物,通过计算引导物运动轨迹与眼部视线运动轨迹之间的匹配度进行活体检测,能够有效地避免各种类型的假体攻击,保证活体检测的准确度。
Description
技术领域
本发明涉及图像识别领域,更具体地涉及一种活体检测与身份认证的方法、装置及计算机存储介质。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。人脸识别综合运用了数字图像、视频处理、模式识别、计算机视觉等多种技术。当前,人脸识别系统越来越多地应用于安防、金融、社保等需要身份验证的领域中的场景,如银行远程开户、线上交易操作验证、无人值守的门禁系统、线上社保办理和领取、远程医保办理等等。
现有的人脸活体判断技术大体可以分为两类:静态方法和动态方法。静态方法主要通过图像中的颜色、纹理以及背景物体等特性来判断给定人脸的真实性。这种方法具有简单、高效的特点,但是安全等级并不高。原因在于静态人脸图像容易通过合成软件以及高清屏幕显示照片等方式进行伪造,且随着技术的发展这种伪造方式的技术难度和成本将越来越低。动态方法主要是指各种基于动作的活体判断,要求使用者在镜头前完成张嘴、眨眼等指定的面部动作。然而,这些面部动作也可以通过各种人脸合成软件轻易地完成。总之,现有的人脸活体判断方法安全等级不够高,可能面临一系列风险。
发明内容
考虑到上述问题而提出了本发明。本发明提供了一种活体检测与身份认证的方法、装置及计算机存储介质,能够有效地防止各种形态的非活体攻击,保证活体检测的准确度。
根据本发明的第一方面,提供了一种活体检测的方法,包括:
控制屏幕上的引导物沿着引导物运动轨迹进行运动;
采集目标对象的眼部的视频;
根据所述视频得到所述目标对象的眼部视线运动轨迹;
确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度;
根据所述匹配度确定所述目标对象是否为活体。
示例性地,所述引导物运动轨迹为随机生成的运动轨迹。
示例性地,根据所述视频得到所述目标对象的眼部视线运动轨迹包括:
将所述视频输入视线估计模型,得到所述目标对象的所述眼部视线运动轨迹。
示例性地,在所述将所述视频输入视线估计模型之前,还包括:
根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
示例性地,所述机器学习的方法为以下中的任意一种:随机森林算法、支持向量回归算法、神经网络算法。
示例性地,所述引导物运动轨迹由水平方向的第一坐标序列和竖直方向的第二坐标序列组成,所述眼部视线运动轨迹由水平方向的第一左眼坐标序列和第一右眼坐标序列以及竖直方向的第二左眼坐标序列和第二右眼坐标序列组成,
所述确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度,包括:
计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;
根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
示例性地,通过下式计算两个序列K1和序列K2之间的归一化相关系数γ(K1,K2):
其中,E[·]表示期望,μK1表示序列K1的均值,μK2表示序列K2的均值,σK1表示序列K1的标准差,σK2表示序列K2的标准差。
第二方面,提供了一种身份认证的方法,包括上述第一方面或其任一示例所示的方法,还包括:
获取所述目标对象的人脸图像;
在根据所述匹配度确定所述目标对象为活体且所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
第三方面,提供了一种活体检测的装置,包括:
控制模块,用于控制屏幕上的引导物沿着引导物运动轨迹进行运动;
采集模块,用于采集目标对象的眼部的视频;
确定模块,用于根据所述视频得到所述目标对象的眼部视线运动轨迹;
计算模块,用于确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度;
判断模块,用于根据所述匹配度确定所述目标对象是否为活体。
示例性地,所述引导物运动轨迹为随机生成的运动轨迹。
示例性地,所述确定模块,具体用于:
将所述视频输入视线估计模型,得到所述目标对象的所述眼部视线运动轨迹。
示例性地,还包括训练模块,用于:
根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
示例性地,所述机器学习的方法为以下中的任意一种:随机森林算法、支持向量回归算法、神经网络算法。
示例性地,所述引导物运动轨迹由水平方向的第一坐标序列和竖直方向的第二坐标序列组成,所述眼部视线运动轨迹由水平方向的第一左眼坐标序列和第一右眼坐标序列以及竖直方向的第二左眼坐标序列和第二右眼坐标序列组成,
所述计算模块,具体用于:
计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;
根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
示例性地,所述计算模块通过下式计算两个序列K1和序列K2之间的归一化相关系数γ(K1,K2):
其中,E[·]表示期望,μK1表示序列K1的均值,μK2表示序列K2的均值,σK1表示序列K1的标准差,σK2表示序列K2的标准差。
第四方面,提供了一种身份认证的装置,包括上述第三方面或其任一示例所述的装置,还包括:
获取模块,用于获取所述目标对象的人脸图像;
认证模块,用于在根据所述匹配度确定所述目标对象为活体且所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
第五方面,提供了一种活体检测的装置,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,所述处理器运行所述程序时执行第一方面及各个示例所述方法的步骤。
第六方面,提供了一种活体检测的装置,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,所述处理器运行所述程序时执行第二方面所述方法的步骤。
第七方面,提供了一种计算机存储介质,其上存储有计算机程序,所述程序被处理器运行时执行第一方面及各个示例所述方法的步骤或执行第二方面所述方法的步骤。
由此可见,本发明实施例通过沿随机生成的引导物运动轨迹运动的引导物,要求目标对象的眼部视线跟随该引导物,通过计算引导物运动轨迹与眼部视线运动轨迹之间的匹配度进行活体检测,能够有效地避免各种类型的假体攻击,保证活体检测的准确度。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本发明实施例的电子设备的一个示意性框图;
图2是本发明实施例的活体检测的方法的一个示意性流程图;
图3是本发明实施例的在显示屏幕上运动轨迹显示的一个示意图;
图4是本发明实施例的活体检测的装置的一个示意性框图;
图5是本发明实施例的身份认证的装置的一个示意性框图。
具体实施方式
为了使得本发明的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。基于本发明中描述的本发明实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本发明的保护范围之内。
本发明实施例可以应用于电子设备,图1所示为本发明实施例的电子设备的一个示意性框图。图1所示的电子设备10包括一个或更多个处理器102、一个或更多个存储装置104、输入装置106、输出装置108、图像传感器110以及一个或更多个非图像传感器114,这些组件通过总线系统112和/或其它形式互连。应当注意,图1所示的电子设备10的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以包括CPU 1021和GPU 1022或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,例如现场可编程门阵列(Field-Programmable GateArray,FPGA)或进阶精简指令集机器(Advanced RISC(Reduced Instruction SetComputer)Machine,ARM)等,并且处理器102可以控制所述电子设备10中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或更多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器1041和/或非易失性存储器1042。所述易失性存储器1041例如可以包括随机存取存储器(Random Access Memory,RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器1042例如可以包括只读存储器(Read-Only Memory,ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或更多个计算机程序指令,处理器102可以运行所述程序指令,以实现各种期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或更多个。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或更多个。
所述图像传感器110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
当注意,图1所示的电子设备10的组件和结构只是示例性的,尽管图1示出的电子设备10包括多个不同的装置,但是根据需要,其中的一些装置可以不是必须的,其中的一些装置的数量可以更多等等,本发明对此不限定。
图2是本发明实施例的活体检测的方法的一个示意性流程图。图2所示的方法包括:
S101,控制屏幕上的引导物沿着引导物运动轨迹进行运动。
示例性地,引导物运动轨迹可以是随机生成的运动轨迹。示例性地,在S101之前,可以生成指示信息,以提示目标对象的眼部视线跟随屏幕上的引导物。
示例性地,在S101之前,可以先获取人脸图像,并通过人脸检测算法确定人脸图像中存在人脸。如果其中不存在人脸,则重新获取人脸图像。
作为一个实施例,在S101中,可以随机生成一段连续的引导物运动轨迹,并在屏幕上显示引导物沿着该引导物运动轨迹进行运动的动态过程。其中,该运动的时长可以为预先设置的时长T,举例来说,T可以为3秒(s)至6s中的任一值。
S102,采集目标对象的眼部的视频。
作为一个实施例,可以在引导物沿着引导物运动轨迹运动的同时采集该目标对象的眼部的视频。
在引导物沿着引导物运动轨迹运动的同时,目标对象的眼部视线跟随该引导物。也就是说,在时长T内,目标对象的眼部视线也是动态变化的。可以由图像采集装置(例如摄像头)采集视频,该视频的时长可以等于T,且该视频中的人脸图像包含有眼部区域。可理解,采集的视频的时长也可以大于T,并在采集之后从中截取与引导物运动相对应的时长为T的视频。
如图3所示,为随机生成的引导物运动轨迹的一例,并且在图3所示的实施例中,可以通过摄像头采集目标对象的眼部的视频。
示例性地,可以将随机生成的引导物运动轨迹表示为序列P:P={(pxi,pyi),i=1,2,...,N}。pxi和pyi分别代表i时刻引导物在屏幕上的水平和竖直方向的坐标,N为记录的时间点的数目。其中,P1={(pxi),i=1,2,...,N}为引导物运动轨迹在水平方向上的第一坐标序列,P2={(pyi),i=1,2,...,N}为引导物运动轨迹在竖直方向上的第二坐标序列。
S103,根据所述视频得到所述目标对象的眼部视线运动轨迹。
示例性地,可以将所述视频输入视线估计模型,得到目标对象的眼部视线运动轨迹。
示例性地,S103可以在S102之后执行,或者S103可以与S102同时执行。也就是说,可以在采集视频的过程中,实时地得到目标对象的眼部视线运动轨迹。
示例性地,视线估计模型可以是在S101之前通过机器学习的方法训练得到的。
作为一种实现方式,在S101之前,可以包括:根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
所述机器学习的方法为以下中的任意一种:随机森林算法、支持向量回归算法、神经网络算法。本发明对此不限定。
具体地,可以收集包含眼部区域的人脸图像,并标注其中眼部的视线方向,形成训练数据集S。随后利用训练数据集S训练得到视线估计模型M。
在S103中所得到的目标对象的眼部视线运动轨迹可以包括左眼视线运动轨迹和右眼视线运动轨迹。
示例性地,左眼视线运动轨迹可以表示为序列L:L={(lxi,lyi),i=1,2,...,N},右眼视线运动轨迹可以表示为序列R:R={(rxi,ryi),i=1,2,...,N}。lxi和lyi分别代表i时刻左眼视线在水平和竖直方向的坐标,rxi和ryi分别代表i时刻右眼视线在水平和竖直方向的坐标。其中,L1={(lxi),i=1,2,...,N}为左眼视线在水平方向上的第一左眼坐标序列,L2={(lyi),i=1,2,...,N}为左眼视线在竖直方向上的第二左眼坐标序列。其中,R1={(rxi),i=1,2,...,N}为右眼视线在水平方向上的第一右眼坐标序列,R2={(ryi),i=1,2,...,N}为右眼视线在竖直方向上的第二右眼坐标序列。
S104,确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度。
具体地,可以分别计算左眼和右眼视线运动轨迹的水平分量与引导物运动轨迹的水平分量之间的归一化相关系数,分别计算左眼和右眼视线运动轨迹的竖直分量与引导物运动轨迹的竖直分量之间的归一化相关系数;然后再根据计算得到的四个归一化相关系数得到匹配度。
作为一种实现方式,S104可以包括:计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
可以通过下式计算归一化相关系数:
其中,γ(K1,K2)代表序列K1和序列K2之间的归一化相关系数,E[·]表示期望,μ表示均值(μK1表示序列K1的均值,μK2表示序列K2的均值),σ表示标准差(σK1表示序列K1的标准差,σK2表示序列K2的标准差)。
据此,可以计算得到第一归一化相关系数第二归一化相关系数第三归一化相关系数和第四归一化相关系数
作为一例,可以将第一归一化相关系数,第二归一化相关系数,第三归一化相关系数和第四归一化相关系数中的最大值确定为该匹配度。即将引导物运动轨迹与眼部视线运动轨迹之间的匹配度定义为
本发明实施例基于归一化相关系数计算匹配度,该计算过程简单,能够快速准确地得到匹配度,保证了计算的效率,进而能够实现快速可靠的人脸活体检测。
应注意,也可以通过其他的计算方法确定该匹配度,例如可以将第一归一化相关系数,第二归一化相关系数,第三归一化相关系数和第四归一化相关系数的算数平均值或几何平均值确定为匹配度,本发明对此不限定。
S105,根据所述匹配度确定所述目标对象是否为活体。
具体地,可以将匹配度与预先设定的阈值进行比较,以确定目标对象是否为活体。其中,可以根据具体的应用场景以及安全级别等来设定该阈值。作为一例,该阈值可以为区间[0.7,0.95]中的任意一个值。
示例性地,若所述匹配度大于预先设定的阈值,则确定为活体;若所述匹配度小于或等于所述预先设定的阈值,则确定为非活体。
由此可见,本发明实施例通过沿随机生成的引导物运动轨迹运动的引导物,要求目标对象的眼部视线跟随该引导物,通过计算引导物运动轨迹与眼部视线运动轨迹之间的匹配度进行活体检测,能够有效地避免各种类型的假体攻击,保证活体检测的准确度。
另外,本发明实施例对于人脸与屏幕之间的位置关系没有严格的要求,该活体检测的过程简单易用,便于实现。由于引导物运动轨迹是随机生成的,该过程是采用动态的方法进行,因此诸如打印的照片、面具、播放的视频片段等难以预先伪造出眼部的动态变化,从而保障了该活体检测过程的安全性和高精度。
进一步地,本发明实施例可以在上述图2所示的方法的基础上进行身份认证。该身份认证的方法还包括:获取所述目标对象的人脸图像;在根据所述匹配度确定所述目标对象为活体且所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
也就是说,如果在S105中确定目标对象为活体,则可以进一步判断目标对象的人脸图像与人脸底库中的底库图像是否匹配,如果两者匹配则通过身份认证;反之不能通过身份认证。如果在S105中确定目标对象为非活体,则不能通过身份认证。
图4是本发明实施例的活体检测的装置的一个示意性框图。图4所示的装置40包括控制模块401、采集模块402、确定模块403、计算模块404和判断模块405。
控制模块401,用于控制屏幕上的引导物沿着引导物运动轨迹进行运动;
采集模块402,用于采集目标对象的眼部的视频;
确定模块403,用于根据采集模块402采集的所述视频得到所述目标对象的眼部视线运动轨迹;
计算模块404,用于确定所述引导物运动轨迹与确定模块403得到的所述眼部视线运动轨迹方向之间的匹配度;
判断模块405,用于计算模块404确定的根据所述匹配度确定所述目标对象是否为活体。
示例性地,所述引导物运动轨迹为随机生成的运动轨迹。
示例性地,确定模块403可以具体用于:将所述视频输入视线估计模型,得到所述眼部视线运动轨迹。
示例性地,还包括训练模块,用于:根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
示例性地,所述机器学习的方法为以下中的任意一种:随机森林算法、支持向量回归算法、神经网络算法。
示例性地,所述引导物运动轨迹由水平方向的第一坐标序列和竖直方向的第二坐标序列组成,所述眼部视线运动轨迹由水平方向的第一左眼坐标序列和第一右眼坐标序列以及竖直方向的第二左眼坐标序列和第二右眼坐标序列组成,
所述计算模块404可以具体用于:
计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;
根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
举例来说,可以将所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数中的最大值确定为所述匹配度。
示例性地,计算模块404可以通过下式计算两个序列K1和序列K2之间的归一化相关系数γ(K1,K2):
其中,E[·]表示期望,μK1表示序列K1的均值,μK2表示序列K2的均值,σK1表示序列K1的标准差,σK2表示序列K2的标准差。
示例性地,判断模块405可以具体用于:若所述匹配度大于预先设定的阈值,则确定为活体。若所述匹配度小于或等于所述预先设定的阈值,则确定为非活体。
图4所示的装置40能够实现前述图2所示的活体检测的方法,为避免重复,这里不再赘述。
另外,本发明实施例还提供了另一种活体检测的装置,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,处理器执行所述程序时实现前述图2所示方法的步骤。
另外,本发明实施例还提供了一种电子设备,该电子设备可以包括图4所示的装置40。该电子设备可以实现前述图2所示的方法。
另外,本发明实施例还提供了一种计算机存储介质,其上存储有计算机程序。当所述计算机程序由处理器执行时,可以实现前述图2所示方法的步骤。例如,该计算机存储介质为计算机可读存储介质。
如图5所示,本发明实施例还提供了一种身份认证的装置50,其除了包括图4中所示的模块之外,还包括获取模块501和认证模块502。
获取模块501,用于获取所述目标对象的人脸图像;
认证模块502,用于在判断模块405根据所述匹配度确定所述目标对象为活体且获取模块501获取的所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
由此可见,本发明实施例通过沿随机生成的引导物运动轨迹运动的引导物,要求目标对象的眼部视线跟随该引导物,通过计算引导物运动轨迹与眼部视线运动轨迹之间的匹配度进行活体检测,能够有效地避免各种类型的假体攻击,保证活体检测的准确度。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该本发明的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如相应的权利要求书所反映的那样,其发明点在于可以用少于某个公开的单个实施例的所有特征的特征来解决相应的技术问题。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域的技术人员可以理解,除了特征之间相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的物品分析设备中的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上所述,仅为本发明的具体实施方式或对具体实施方式的说明,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。本发明的保护范围应以权利要求的保护范围为准。
Claims (17)
1.一种活体检测的方法,其特征在于,包括:
控制屏幕上的引导物沿着引导物运动轨迹进行运动;
采集目标对象的眼部的视频;
根据所述视频得到所述目标对象的眼部视线运动轨迹;
确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度;
根据所述匹配度确定所述目标对象是否为活体。
2.根据权利要求1所述的方法,其特征在于,所述引导物运动轨迹为随机生成的运动轨迹。
3.根据权利要求1所述的方法,其特征在于,根据所述视频得到所述目标对象的眼部视线运动轨迹包括:
将所述视频输入视线估计模型,得到所述目标对象的所述眼部视线运动轨迹。
4.根据权利要求3所述的方法,其特征在于,在所述将所述视频输入视线估计模型之前,还包括:
根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述引导物运动轨迹由水平方向的第一坐标序列和竖直方向的第二坐标序列组成,所述眼部视线运动轨迹由水平方向的第一左眼坐标序列和第一右眼坐标序列以及竖直方向的第二左眼坐标序列和第二右眼坐标序列组成,
所述确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度,包括:
计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;
根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
6.根据权利要求5所述的方法,其特征在于,通过下式计算两个序列K1和序列K2之间的归一化相关系数γ(K1,K2):
其中,E[·]表示期望,μK1表示序列K1的均值,μK2表示序列K2的均值,σK1表示序列K1的标准差,σK2表示序列K2的标准差。
7.一种身份认证的方法,其特征在于,包括权利要求1至6中任一项所述的方法,还包括:
获取所述目标对象的人脸图像;
在根据所述匹配度确定所述目标对象为活体且所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
8.一种活体检测的装置,其特征在于,包括:
控制模块,用于控制屏幕上的引导物沿着引导物运动轨迹进行运动;
采集模块,用于采集目标对象的眼部的视频;
确定模块,用于根据所述视频得到所述目标对象的眼部视线运动轨迹;
计算模块,用于确定所述引导物运动轨迹与所述眼部视线运动轨迹之间的匹配度;
判断模块,用于根据所述匹配度确定所述目标对象是否为活体。
9.根据权利要求8所述的装置,其特征在于,所述引导物运动轨迹为随机生成的运动轨迹。
10.根据权利要求8所述的装置,其特征在于,所述确定模块,具体用于:
将所述视频输入视线估计模型,得到所述目标对象的所述眼部视线运动轨迹。
11.根据权利要求10所述的装置,其特征在于,还包括训练模块,用于:
根据训练数据集,采用机器学习的方法训练得到所述视线估计模型,其中所述训练数据集中的人脸图像包括眼部区域,且所述人脸图像标注有眼部的视线方向。
12.根据权利要求8至11中任一项所述的装置,其特征在于,所述引导物运动轨迹由水平方向的第一坐标序列和竖直方向的第二坐标序列组成,所述眼部视线运动轨迹由水平方向的第一左眼坐标序列和第一右眼坐标序列以及竖直方向的第二左眼坐标序列和第二右眼坐标序列组成,
所述计算模块,具体用于:
计算所述第一坐标序列与所述第一左眼坐标序列之间的第一归一化相关系数,计算所述第一坐标序列与所述第一右眼坐标序列之间的第二归一化相关系数,计算所述第二坐标序列与所述第二左眼坐标序列之间的第三归一化相关系数,计算所述第二坐标序列与所述第二右眼坐标序列之间的第四归一化相关系数;
根据所述第一归一化相关系数,所述第二归一化相关系数,所述第三归一化相关系数和所述第四归一化相关系数确定所述匹配度。
13.根据权利要求12所述的装置,其特征在于,所述计算模块通过下式计算两个序列K1和序列K2之间的归一化相关系数γ(K1,K2):
其中,E[·]表示期望,μK1表示序列K1的均值,μK2表示序列K2的均值,σK1表示序列K1的标准差,σK2表示序列K2的标准差。
14.一种身份认证的装置,其特征在于,包括权利要求8至13中任一项所述的装置,还包括:
获取模块,用于获取所述目标对象的人脸图像;
认证模块,用于在根据所述匹配度确定所述目标对象为活体且所述目标对象的人脸图像与人脸底库中的底库图像匹配的情况下,确定所述目标对象通过身份认证。
15.一种活体检测的装置,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述程序时执行权利要求1至6中任一项所述方法的步骤。
16.一种身份认证的装置,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述程序时执行权利要求7所述方法的步骤。
17.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器运行时执行权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710448942.XA CN108875469A (zh) | 2017-06-14 | 2017-06-14 | 活体检测与身份认证的方法、装置及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710448942.XA CN108875469A (zh) | 2017-06-14 | 2017-06-14 | 活体检测与身份认证的方法、装置及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108875469A true CN108875469A (zh) | 2018-11-23 |
Family
ID=64321093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710448942.XA Pending CN108875469A (zh) | 2017-06-14 | 2017-06-14 | 活体检测与身份认证的方法、装置及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875469A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135370A (zh) * | 2019-05-20 | 2019-08-16 | 北京百度网讯科技有限公司 | 人脸活体检测的方法及装置、电子设备、计算机可读介质 |
CN110633659A (zh) * | 2019-08-30 | 2019-12-31 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110826440A (zh) * | 2019-10-28 | 2020-02-21 | 华南理工大学 | 一种基于眼动特征的换脸视频篡改检测方法及系统 |
CN110909704A (zh) * | 2019-11-29 | 2020-03-24 | 北京奇艺世纪科技有限公司 | 一种活体检测方法、装置、电子设备及存储介质 |
CN111369418A (zh) * | 2020-03-24 | 2020-07-03 | 重庆中科云从科技有限公司 | 一种健康数据管理方法、系统、机器可读介质及设备 |
CN111402480A (zh) * | 2020-02-29 | 2020-07-10 | 深圳壹账通智能科技有限公司 | 访客信息管理方法、装置、系统、设备和存储介质 |
CN112395906A (zh) * | 2019-08-12 | 2021-02-23 | 北京旷视科技有限公司 | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103336953A (zh) * | 2013-07-05 | 2013-10-02 | 深圳市中视典数字科技有限公司 | 一种基于体感设备动作评判的方法 |
WO2014192001A2 (en) * | 2013-05-30 | 2014-12-04 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
CN104966070A (zh) * | 2015-06-30 | 2015-10-07 | 北京汉王智远科技有限公司 | 基于人脸识别的活体检测方法和装置 |
CN105426827A (zh) * | 2015-11-09 | 2016-03-23 | 北京市商汤科技开发有限公司 | 活体验证方法、装置和系统 |
CN105930761A (zh) * | 2015-11-30 | 2016-09-07 | 中国银联股份有限公司 | 一种基于眼球跟踪的活体检测的方法、装置及系统 |
-
2017
- 2017-06-14 CN CN201710448942.XA patent/CN108875469A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014192001A2 (en) * | 2013-05-30 | 2014-12-04 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
CN103336953A (zh) * | 2013-07-05 | 2013-10-02 | 深圳市中视典数字科技有限公司 | 一种基于体感设备动作评判的方法 |
CN104966070A (zh) * | 2015-06-30 | 2015-10-07 | 北京汉王智远科技有限公司 | 基于人脸识别的活体检测方法和装置 |
CN105426827A (zh) * | 2015-11-09 | 2016-03-23 | 北京市商汤科技开发有限公司 | 活体验证方法、装置和系统 |
CN105930761A (zh) * | 2015-11-30 | 2016-09-07 | 中国银联股份有限公司 | 一种基于眼球跟踪的活体检测的方法、装置及系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135370A (zh) * | 2019-05-20 | 2019-08-16 | 北京百度网讯科技有限公司 | 人脸活体检测的方法及装置、电子设备、计算机可读介质 |
US11188771B2 (en) | 2019-05-20 | 2021-11-30 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Living-body detection method and apparatus for face, and computer readable medium |
CN112395906A (zh) * | 2019-08-12 | 2021-02-23 | 北京旷视科技有限公司 | 人脸活体检测方法和装置、人脸活体检测设备及介质 |
CN110633659A (zh) * | 2019-08-30 | 2019-12-31 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110633659B (zh) * | 2019-08-30 | 2022-11-04 | 北京旷视科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110826440A (zh) * | 2019-10-28 | 2020-02-21 | 华南理工大学 | 一种基于眼动特征的换脸视频篡改检测方法及系统 |
CN110826440B (zh) * | 2019-10-28 | 2022-05-24 | 华南理工大学 | 一种基于眼动特征的换脸视频篡改检测方法及系统 |
CN110909704A (zh) * | 2019-11-29 | 2020-03-24 | 北京奇艺世纪科技有限公司 | 一种活体检测方法、装置、电子设备及存储介质 |
CN111402480A (zh) * | 2020-02-29 | 2020-07-10 | 深圳壹账通智能科技有限公司 | 访客信息管理方法、装置、系统、设备和存储介质 |
CN111369418A (zh) * | 2020-03-24 | 2020-07-03 | 重庆中科云从科技有限公司 | 一种健康数据管理方法、系统、机器可读介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875469A (zh) | 活体检测与身份认证的方法、装置及计算机存储介质 | |
CN109711243B (zh) | 一种基于深度学习的静态三维人脸活体检测方法 | |
CN105631439B (zh) | 人脸图像处理方法和装置 | |
EP3674852B1 (en) | Method and apparatus with gaze estimation | |
CN108875524B (zh) | 视线估计方法、装置、系统和存储介质 | |
CN104050449B (zh) | 一种人脸识别方法及装置 | |
EP2993614B1 (en) | Method and device for facial recognition | |
CN110163899A (zh) | 图像匹配方法和图像匹配装置 | |
CN108549886A (zh) | 一种人脸活体检测方法及装置 | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
EP3156938A1 (en) | Method and apparatus for face recognition | |
CN106407914A (zh) | 用于检测人脸的方法、装置和远程柜员机系统 | |
CN108875485A (zh) | 一种底图录入方法、装置及系统 | |
KR102286468B1 (ko) | 딥 러닝을 통해 생성된 가짜 동영상의 무결성 검증 방법 및 시스템 | |
CN109766785B (zh) | 一种人脸的活体检测方法及装置 | |
US20160232399A1 (en) | System and method of detecting a gaze of a viewer | |
CN108734057A (zh) | 活体检测的方法、装置及计算机存储介质 | |
CN106372629A (zh) | 一种活体检测方法和装置 | |
CN108875533A (zh) | 人脸识别的方法、装置、系统及计算机存储介质 | |
CN109508636A (zh) | 车辆属性识别方法、装置、存储介质及电子设备 | |
WO2020079741A1 (ja) | 虹彩認証装置、虹彩認証方法および記録媒体 | |
CN109670517A (zh) | 目标检测方法、装置、电子设备和目标检测模型 | |
CN105765608A (zh) | 用于根据闪耀点进行眼睛检测的方法和设备 | |
CN111860055A (zh) | 人脸静默活体检测方法、装置、可读存储介质及设备 | |
CN109977764A (zh) | 基于平面检测的活体识别方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181123 |