CN111639582A - 活体检测方法及设备 - Google Patents

活体检测方法及设备 Download PDF

Info

Publication number
CN111639582A
CN111639582A CN202010457118.2A CN202010457118A CN111639582A CN 111639582 A CN111639582 A CN 111639582A CN 202010457118 A CN202010457118 A CN 202010457118A CN 111639582 A CN111639582 A CN 111639582A
Authority
CN
China
Prior art keywords
representation
given
pose
posture
actual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010457118.2A
Other languages
English (en)
Other versions
CN111639582B (zh
Inventor
陈健生
王潇宇
于诚
鲍佳宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010457118.2A priority Critical patent/CN111639582B/zh
Publication of CN111639582A publication Critical patent/CN111639582A/zh
Application granted granted Critical
Publication of CN111639582B publication Critical patent/CN111639582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种活体检测方法及设备,所述方法包括:利用第一神经网络在视频中检测人脸区域;利用第二神经网络确定所述人脸区域的实际姿态表征;将所述实际姿态表征与给定姿态表征进行比对;根据比对结果确定所述视频中是否存在活体。

Description

活体检测方法及设备
技术领域
本发明涉及图像识别领域,具体涉及一种活体检测方法及设备。
背景技术
活体检测是在一些身份验证场景确定对象真实生理特征的方法,目前多数是通过人脸图像来检测视频中是否存在活体。
现有技术使用人脸关键点定位和人脸追踪等技术,来检测受试者的眨眼、张嘴、摇头、点头等组合动作,由此验证用户是否为真实活体本人操作。现有技术对平面与曲面攻击的抵御能力有待提高。
发明内容
有鉴于此,本发明提供一种活体检测方法,包括:
利用第一神经网络在视频中检测人脸区域;
利用第二神经网络确定所述人脸区域的实际姿态表征;
将所述实际姿态表征与给定姿态表征进行比对;
根据比对结果确定所述视频中是否存在活体。
可选地,所述实际姿态表征和所述给定姿态表征均为方框。
可选地,所述第一神经网络检测得到的人脸区域为方形区域;所述第二神经网络提供二维透视变换矩阵所需的参数;根据所述方形区域和所述参数得到实际姿态表征方框。
可选地,所述方框被实时显示在所述视频中,其中给定姿态表征方框显示在固定位置或者基于所述人脸区域的位置。
可选地,将所述实际姿态表征与给定姿态表征进行比对,包括:
分别确定所述实际姿态表征方框和所述给定姿态表征方框的角点位置;
判断各对相应的所述角点位置是否足够接近;
当各对相应的所述角点位置足够接近时判定所述实际姿态表征与给定姿态表征一致。
可选地,将所述实际姿态表征与给定姿态表征进行比对,根据比对结果确定所述视频中是否存在活体,包括:
检测所述视频中的所述实际姿态表征与给定姿态表征是否一致;
当所述视频中的连续多帧图像的实际姿态表征与给定姿态表征不一致时,判断更换所述给定姿态表征的次数是否达到阈值;
当更换所述给定姿态表征的次数未达到阈值时,更换另一个给定姿态表征;
当更换所述给定姿态表征的次数达到阈值,判定所述视频中不存在活体。
可选地,将所述实际姿态表征与给定姿态表征进行比对,根据比对结果确定所述视频中是否存在活体,包括:
检测所述视频中的所述实际姿态表征与给定姿态表征是否一致;
当所述视频中的实际姿态表征与给定姿态表征一致时,更换另一个给定姿态表征,直至所述视频中的实际姿态表征所有给定姿态表征一致时,判定所述视频中存在活体。
可选地,更换后的给定姿态表征较之前的给定姿态表征所指示的姿态变化逐步增大。
可选地,对于更换的给定姿态表征,用于判断所述实际姿态表征与给定姿态表征是否一致的阈值逐步增大。
可选地,所述方法还包括:向用户呈现与所述给定姿态表征相应的人脸模型。
可选地,向用户呈现与所述给定姿态表征相应的人脸模型,包括:
获取预设人脸三维模型;
根据所述给定姿态表征确定所述预设人脸三维模型的角度;
将确定角度的预设人脸三维模型渲染为二维图像。
相应地,本发明提供一种活体检测设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行上述活体检测方法。
根据本发明实施例提供的活体检测方法及设备,在视频中实时检测人脸并确定其实际姿态表征,然后监测实际姿态表征是否能够符合给定姿态表征,由此此来确定视频中是否为活体,相对于眨眼、摇头等现有的活体检测手段,本方案需要受试者更高的配合度,因此能更好地对平面与曲面攻击进行防御;由于实际姿态表征、给定姿态表征以及对相似度进行判断的参数可以被调整,使得本方案十分灵活,能够适应不同的应用场景和安全度要求。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中的活体检测方法的流程图;
图2为本发明实施例中的实际姿态表征的可视化效果图;
图3为本发明实施例中的实际姿态表征与给定姿态表征的可视化效果图;
图4为本发明实施例中的人脸模型与给定姿态表征的可视化效果图;
图5为本发明实施例中一个具体的活体判定方法的流程图;
图6为本发明实施例中另一个具体的活体判定方法的流程图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明实施例提供一种活体检测方法,用于检测实时视频中是否存在活体。本方法可以由计算机或移动终端等电子设备执行,此类设备包括至少一个处理器以及与处理器通信连接的存储器;其中,存储器存储有可被所述一个处理器执行的指令,指令被处理器执行,以使处理器执行如图1所示的方法:
S1,利用第一神经网络在视频中检测人脸区域。具体地,第一神经网络的输入为视频中的各帧图像,比如摄像头以约17fps的速度采集图像(取决于系统处理一帧图像的速度),以使神经网络对每一帧进行人脸检测。本方案可以使用现有的神经网络算法来检测人脸,比如MTCNN(Multi-task convolutional neural network,多任务卷积神经网络)。
在使用前应当采集大量的标准人脸图像对MTCNN进行训练,用于训练的样本图像中标记有人脸区域,MTCNN通过学习样本图像从而准确识别出视频中各帧图像的人脸区域。需要说明的是,若图像中含有多张人脸,则只选取其中面积最大的一个。MTCNN输出的人脸区域是一个四边形框,并且有着任意的尺寸和长宽比。为了适应后续处理,在此可对人脸区域进行一些预处理,比如修正区域的边长等等。
S2,利用第二神经网络确定人脸区域的实际姿态表征。本申请所述姿态表征是指用于表示人脸姿态的数字信息,比如表示人脸朝向、角度的信息。本方案可以使用现有的神经网络算法来确定实际姿态表征,比如STN(Spatial Transformer Networks,空间变换网络)。STN可以作为一个模块被植入不同的网络结构中,在训练过程中自动学习变换参数,对输入的图像或特征图做二维空间变换,如仿射变换、相似变换、透视变换等,可实现人脸配准功能,将不同姿态下的人脸图像配准到统一的正面姿态。STN输出的二维变换矩阵可以看作原图人脸姿态的一种表征。
本实施例选取透视变换版本的STN,STN网络的输出为二维透视变换矩阵所需的8个参数。将步骤S1识别到的人脸区域的四个角点乘以该变换矩阵,得到的四边形框即为该人脸的实际姿态表征。图2示出了三个实际姿态表征的可视化效果图,其中方框即为可视的实际姿态表征,方框的四个角点的位置用于表示人脸的姿态。
STN输出的透视变换矩阵可直接用于人脸配准,且配准效果优于传统的基于二维关键点的方法,因此整个系统可以极方便地植入人脸识别系统中。为了适应STN的处理,应当将步骤S1得到的人脸区域调整为正方形,并保持该正方形框中心不变,边长扩展为原来的1.4倍,再放缩至128*128的尺度,若扩展到了原图之外则用黑色补齐,保证所得图像尺寸的一致性。
S3,将实际姿态表征与给定姿态表征进行比对。实际姿态表征即根据视频中的人脸所得到的姿态信息,给定姿态表征是期望视频中的人脸所具备的姿态信息,是系统从预存的姿态信息中选取的姿态信息。图3示出了一个可视化的图像,其中包括实际姿态表征31和给定姿态表征32,实际姿态表征31随着视频中的用户改变脸部姿态而变化,给定姿态表征32保持不变,在此过程中实施监测二者是否一致。
具体地,可以通过比对四个角点的位置实现比对两个四边形框是否一致,比如当四组相应的角点的距离(欧式距离)分别小于距离阈值时,即可判定二者一致。
S4,根据比对结果确定所述视频中是否存在活体。作为一个基础的实施例,在步骤S3中可以只提供一个给定姿态表征,只要用户的实际姿态表征能够与其一致,则判定视频中存在活体。而为了更好抵抗平面与曲面攻击,以及保证真人受试者的顺利通过,还可以执行更复杂的判定过程,具体请见后续实施例。
需要说明的是,采用MTCNN和STN进行识别和相适应的处理只是众多可选实施例方式中的一种,利用其它有类似功能的神经网络进行识别和处理也是可行的。比如利用其它网络和算法得到的人领区域及姿态表征可能不是方框而是其它形状,对此也可以使用类似本实施例的方式来判断这两种表征是否一致。
在本实施例中,上述实际姿态表征和给定姿态表征均为可视的,也即用户(受试者)可以实时在视频中看到两个方框,以便于用户理解检测过程,调整脸部姿态而通过活体检测。但可视化并非必须操作,比如在另一实施例中,如图4所示,可在界面中呈现一个与给定姿态表征相应的人脸模型41,用于指导受试者按照此模型来调整脸部姿态也是可行的。
具体地,预先从CASIA-Webface人脸公开数据集中选取若干张人脸图像,利用基于opencv与dlib的人脸平均算法计算其平均脸,通过PRN(Position-Map RegressionNetwork,位置映射图网络)生成三维模型。
针对给定姿态表征,将三维模型旋转到对应的角度,再利用基于ModernGL图形学计算库的方法重新渲染至二维平面,即可显示如图4中所示的人脸模型41,该模型与给定姿态表征32相对应。
当然,可视化的姿态表征和上述可视化的人脸模型可以被同时采用,以使用户更容易理解检测过程。
关于给定姿态表征的可视化处理,实际应用中提供两种可视化方式。第一种是给定姿态表征方框被固定显示在画面的中央,这需要用户调整自己的实际位置,以使脸部处在画面的中央,下文简称此方式为固定式;第二种是基于用户人脸区域的位置显示给定姿态表征方框,具体是将步骤S1得到的人脸区域的中心作为给定姿态表征方框,也即给定姿态表征随着受试者的实际位置进行显示,下文简称此方式为随动式。
根据本发明实施例提供的活体检测方法,在视频中实时检测人脸并确定其实际姿态表征,然后监测实际姿态表征是否能够符合给定姿态表征,由此此来确定视频中是否为活体,相对于眨眼、摇头等现有的活体检测手段,本方案需要受试者更高的配合度,因此能更好地对平面与曲面攻击进行防御;由于实际姿态表征、给定姿态表征以及对相似度进行判断的参数可以被调整,使得本方案十分灵活,能够适应不同的应用场景和安全度要求。
本发明另一实施例提供一种活体检测方法,与上述实施例的主要区别在于将实际姿态表征与给定姿态表征进行比对、以及根据比对结果确定视频中是否存在活体的过程。关于检测人脸区域以及确定实际姿态表征的过程可参照上述步骤S1-S2,本实施例中不再赘述。
为了解决误检的问题,主要是指避免将存在活体误判为不存在活体,本实施例在用户无法达成给定姿态表征时,更换给定姿态表征再一次进行判断。如图5所示,本实施例根据如下步骤检测活体:
S31A,检测视频中的实际姿态表征与给定姿态表征是否一致。实际检测过程是以帧为单位检测,为此本实施例设置一个计数变量,作为帧数阈值。当达到帧数阈值时二者仍不一致,也即当视频中的连续多帧图像(比如400帧)的实际姿态表征与给定姿态表征不一致时,执行步骤S32A,否则执行步骤S42A;
S32A,判断更换给定姿态表征的次数是否达到阈值。如果更换给定姿态表征的次数未达到阈值,则执行步骤S33A,否则执行步骤S41A。
S33A,更换另一个给定姿态表征,并返回步骤S31A;
S41A,判定视频中不存在活体。由于受试者无法达成多个给定姿态表征,所以判断视频中不存在活体。
S42A,判定视频中存在活体。
根据上述优选的实施方式,当受试者在一定时间内(连续多帧)都无法达成给定的人脸姿态时,考虑到可能是由于给定姿态本身难以达成或者是识别误差难以被克服,所以并不是直接判定视频中不存在活体,而是更换另一个给定姿态,检测用户是否能够达成更换后的姿态,如果连续更换多个给定姿态,受试者始终无法达成,则判定视频中不存在活体,由此可以降低误判的概率。
本发明另一实施例提供一种活体检测方法,与上述实施例的主要区别在于将实际姿态表征与给定姿态表征进行比对、以及根据比对结果确定视频中是否存在活体的过程。关于检测人脸区域以及确定实际姿态表征的过程可参照上述步骤S1-S2,本实施例中不再赘述。
为更好抵抗平面与曲面攻击,在本实施例中将提供多个给定姿态标准,受试者需要达成全部给定姿态标准才判定为存在活体。即在检测视频中的实际姿态表征与当前给定姿态表征一致时,更换另一个给定姿态表征,直至视频中的实际姿态表征与所有给定姿态表征一致时,判定视频中存在活体。
作为一个具体举例,本实施例中提供3个给定姿态表征。在准备给定姿态表征时,根据其人脸姿态将预先生成的给定姿态表征分为A、B、C三类,姿态变化逐级增大,也即C类与B类的给定姿态间的差异大于B类与A类的给定姿态间的差异。对于受试者而言,达成A、B、C三类给定姿态的难度逐级递增。
如图6所示,本实施例根据如下步骤检测活体:
S31B,检测视频中的实际姿态表征与一个A类的给定姿态表征是否一致,当二者一致时执行步骤S32B,当二者不一致时执行步骤S42B。
S32B,检测视频中的实际姿态表征与一个B类的给定姿态表征是否一致,当二者一致时执行步骤S33B,当二者不一致时执行步骤S42B。
S33B,检测视频中的实际姿态表征与一个C类的给定姿态表征是否一致,当二者一致时执行步骤S41B,当二者不一致时执行步骤S42B。
S41B,判定视频中存在活体。由于受试者的实际姿态表征与多次给定姿态表征一致,因此判断视频中存在活体。
S42B,判定视频中不存在活体。即在比对过程中的任一次出现不一致的情况时,判定视频中不存在活体。
需要说明的是,本实施例中更换给定姿态表征的目的和时机与前一实施例不同,本实施例中更换给定姿态的目的是为了反复多次验证,是在受试者达成给定姿态的情况下进行更换,并且更换后的姿态优选为比更换前的姿态差异或难度更大;前一实施例是在受试者不能达成给定姿态的情况下进行更换,此情况下的更换不应该是提高难度,而是保持难度不变或者降低难度。以上述三类给定姿态表征为例,前一实施例中所述更换操作应当是在同类中选取另一个进行更换。
上述两个实施例的更换操作并不冲突,可以被同时应用。比如当二者不一致时,不是立即执行步骤S42B,而是转到步骤32A,允许受试者尝试若干次后,如果仍不一致再判定为非活体。
另外,在上述步骤S31B、S32B、S33B中判断二者是否一致时,如上述基础实施例中所介绍的,需要使用阈值来确定方框的角点是否足够接近。在可选的实施例中,针对不同类(难度)的给定姿态表征,所采用的阈值可以是不同的。具体来说,比如在步骤S31B中使用阈值a、在步骤S32B中使用阈值b、在步骤S33B中使用阈值c,这三个阈值的关系可以是c>b>a(用于判断所述实际姿态表征与给定姿态表征是否一致的阈值逐步增大)。这表示对于C类给定姿态表征的判定最为宽松,对于A类最为严格。如此设定的原因在于,对于受试者而言,靠后的给定姿态更难达成,如果判定标准不变甚至也随之更加严格,可能导致受试者无法顺利通过检测,因此这种阈值设定方式可以降低真人受试者的使用难度,提高本方案的实用性。
更进一步地,在固定式和随动式两种模式下,上述阈值也是不同的,总体而言固定式中所使用的阈值大于随动式中所使用的阈值,也即固定式中的判断标准相对而言比较宽松。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (12)

1.一种活体检测方法,其特征在于,包括:
利用第一神经网络在视频中检测人脸区域;
利用第二神经网络确定所述人脸区域的实际姿态表征;
将所述实际姿态表征与给定姿态表征进行比对;
根据比对结果确定所述视频中是否存在活体。
2.根据权利要求1所述的方法,其特征在于,所述实际姿态表征和所述给定姿态表征均为方框。
3.根据权利要求2所述的方法,其特征在于,所述第一神经网络检测得到的人脸区域为方形区域;所述第二神经网络提供二维透视变换矩阵所需的参数;根据所述方形区域和所述参数得到实际姿态表征方框。
4.根据权利要求2所述的方法,其特征在于,所述方框被实时显示在所述视频中,其中给定姿态表征方框显示在固定位置或者基于所述人脸区域的位置。
5.根据权利要求2所述的方法,其特征在于,将所述实际姿态表征与给定姿态表征进行比对,包括:
分别确定所述实际姿态表征方框和所述给定姿态表征方框的角点位置;
判断各对相应的所述角点位置是否足够接近;
当各对相应的所述角点位置足够接近时判定所述实际姿态表征与给定姿态表征一致。
6.根据权利要求1所述的方法,其特征在于,将所述实际姿态表征与给定姿态表征进行比对,根据比对结果确定所述视频中是否存在活体,包括:
检测所述视频中的所述实际姿态表征与给定姿态表征是否一致;
当所述视频中的连续多帧图像的实际姿态表征与给定姿态表征不一致时,判断更换所述给定姿态表征的次数是否达到阈值;
当更换所述给定姿态表征的次数未达到阈值时,更换另一个给定姿态表征;
当更换所述给定姿态表征的次数达到阈值,判定所述视频中不存在活体。
7.根据权利要求1所述的方法,其特征在于,将所述实际姿态表征与给定姿态表征进行比对,根据比对结果确定所述视频中是否存在活体,包括:
检测所述视频中的所述实际姿态表征与给定姿态表征是否一致;
当所述视频中的实际姿态表征与给定姿态表征一致时,更换另一个给定姿态表征,直至所述视频中的实际姿态表征所有给定姿态表征一致时,判定所述视频中存在活体。
8.根据权利要求7所述的方法,其特征在于,更换后的给定姿态表征较之前的给定姿态表征所指示的姿态变化逐步增大。
9.根据权利要求8所述的方法,其特征在于,对于更换的给定姿态表征,用于判断所述实际姿态表征与给定姿态表征是否一致的阈值逐步增大。
10.根据权利要求1所述的方法,其特征在于,还包括:向用户呈现与所述给定姿态表征相应的人脸模型。
11.根据权利要求10所述的方法,其特征在于,向用户呈现与所述给定姿态表征相应的人脸模型,包括:
获取预设人脸三维模型;
根据所述给定姿态表征确定所述预设人脸三维模型的角度;
将确定角度的预设人脸三维模型渲染为二维图像。
12.一种活体检测设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如权利要求1-11中任意一项所述的活体检测方法。
CN202010457118.2A 2020-05-26 2020-05-26 活体检测方法及设备 Active CN111639582B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010457118.2A CN111639582B (zh) 2020-05-26 2020-05-26 活体检测方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010457118.2A CN111639582B (zh) 2020-05-26 2020-05-26 活体检测方法及设备

Publications (2)

Publication Number Publication Date
CN111639582A true CN111639582A (zh) 2020-09-08
CN111639582B CN111639582B (zh) 2023-10-10

Family

ID=72331017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010457118.2A Active CN111639582B (zh) 2020-05-26 2020-05-26 活体检测方法及设备

Country Status (1)

Country Link
CN (1) CN111639582B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326814A (zh) * 2021-02-22 2021-08-31 王先峰 一种基于5g架构的人脸识别设备
CN113743196A (zh) * 2021-07-23 2021-12-03 北京眼神智能科技有限公司 活体检测方法、装置及存储介质
WO2022111688A1 (zh) * 2020-11-30 2022-06-02 华为技术有限公司 人脸活体检测方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574518A (zh) * 2016-01-25 2016-05-11 北京天诚盛业科技有限公司 人脸活体检测的方法和装置
CN107736874A (zh) * 2017-08-25 2018-02-27 百度在线网络技术(北京)有限公司 一种活体检测的方法、装置、设备和计算机存储介质
CN108073910A (zh) * 2017-12-29 2018-05-25 百度在线网络技术(北京)有限公司 用于生成人脸特征的方法和装置
US20180173980A1 (en) * 2016-12-15 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Method and device for face liveness detection
CN108596089A (zh) * 2018-04-24 2018-09-28 北京达佳互联信息技术有限公司 人脸姿态检测方法、装置、计算机设备及存储介质
CN109977764A (zh) * 2019-02-12 2019-07-05 平安科技(深圳)有限公司 基于平面检测的活体识别方法、装置、终端及存储介质
CN110096965A (zh) * 2019-04-09 2019-08-06 华东师范大学 一种基于头部姿态的人脸识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574518A (zh) * 2016-01-25 2016-05-11 北京天诚盛业科技有限公司 人脸活体检测的方法和装置
US20180173980A1 (en) * 2016-12-15 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Method and device for face liveness detection
CN107736874A (zh) * 2017-08-25 2018-02-27 百度在线网络技术(北京)有限公司 一种活体检测的方法、装置、设备和计算机存储介质
CN108073910A (zh) * 2017-12-29 2018-05-25 百度在线网络技术(北京)有限公司 用于生成人脸特征的方法和装置
CN108596089A (zh) * 2018-04-24 2018-09-28 北京达佳互联信息技术有限公司 人脸姿态检测方法、装置、计算机设备及存储介质
CN109977764A (zh) * 2019-02-12 2019-07-05 平安科技(深圳)有限公司 基于平面检测的活体识别方法、装置、终端及存储介质
CN110096965A (zh) * 2019-04-09 2019-08-06 华东师范大学 一种基于头部姿态的人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JALENDU DHAMIJA ET AL.: "An Advancement towards Efficient Face Recognition Using Live Video Feed: "For the Future"", 《IEEE XPLORE》 *
宋红;石峰;: "视频中的多视角人脸检测与姿态判别", 计算机辅助设计与图形学学报, no. 01 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022111688A1 (zh) * 2020-11-30 2022-06-02 华为技术有限公司 人脸活体检测方法、装置及存储介质
CN113326814A (zh) * 2021-02-22 2021-08-31 王先峰 一种基于5g架构的人脸识别设备
CN113743196A (zh) * 2021-07-23 2021-12-03 北京眼神智能科技有限公司 活体检测方法、装置及存储介质

Also Published As

Publication number Publication date
CN111639582B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
US11030481B2 (en) Method and apparatus for occlusion detection on target object, electronic device, and storage medium
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
CN106897658B (zh) 人脸活体的鉴别方法和装置
TWI686774B (zh) 人臉活體檢測方法和裝置
CN106372629B (zh) 一种活体检测方法和装置
JP4307496B2 (ja) 顔部位検出装置及びプログラム
CN105612533B (zh) 活体检测方法、活体检测系统以及计算机程序产品
CN111639582B (zh) 活体检测方法及设备
US8706663B2 (en) Detection of people in real world videos and images
US11232586B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2010244178A (ja) 顔特徴点検出装置及びプログラム
WO2016107638A1 (en) An image face processing method and apparatus
CN107346419B (zh) 虹膜识别方法、电子装置和计算机可读存储介质
CN110036407B (zh) 用于基于人类巩膜和瞳孔校正数字图像颜色的系统和方法
KR102364929B1 (ko) 피부 변화를 추적하는 전자 장치, 서버, 및 시스템
CN114616591A (zh) 物体跟踪装置以及物体跟踪方法
JPWO2022074865A5 (ja) 生体検知装置、制御方法、及びプログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
US20220309713A1 (en) Image processing apparatus, image processing method, and storage medium
CN111860079A (zh) 活体图像检测方法、装置以及电子设备
GB2467643A (en) Improved detection of people in real world videos and images.
JP2012186821A (ja) 顔画像処理装置、顔画像処理方法、電子スチルカメラ、デジタル画像処理装置およびデジタル画像処理方法
KR102669584B1 (ko) 반려동물 생체정보 검출 방법 및 장치
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004030006A (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant