CN112329727A - 一种活体检测方法和装置 - Google Patents

一种活体检测方法和装置 Download PDF

Info

Publication number
CN112329727A
CN112329727A CN202011363104.0A CN202011363104A CN112329727A CN 112329727 A CN112329727 A CN 112329727A CN 202011363104 A CN202011363104 A CN 202011363104A CN 112329727 A CN112329727 A CN 112329727A
Authority
CN
China
Prior art keywords
living body
face
body detection
information
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011363104.0A
Other languages
English (en)
Inventor
周春燕
展华益
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Changhong Electric Co Ltd
Original Assignee
Sichuan Changhong Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Changhong Electric Co Ltd filed Critical Sichuan Changhong Electric Co Ltd
Priority to CN202011363104.0A priority Critical patent/CN112329727A/zh
Publication of CN112329727A publication Critical patent/CN112329727A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种活体检测方法和装置,包含以下步骤:S001:获取视频图像数据;S002:检测图像中的人脸区域;S003:标定人脸关键坐标信息;S004:提取人脸特征信息;S005:人脸特征信息达到人脸活体检测第一预设阈值,调用活体检测命令,获取活体检测信息;S006:若活体检测信息与所述活体检测命令匹配,则活体检测成功。本发明基于单目可见光摄像头,不借助其他额外传感器,通过将静默式活体检测与配合式活体检测相结合的方式,采用两次级联判断获取的方法,确定所采集的人脸为真实人脸,还是伪造人脸,提升了活体检测的准确率。

Description

一种活体检测方法和装置
技术领域
本发明涉及计算机视觉技术领域,更具体的说是涉及一种活体检测方法和装置。
背景技术
在人脸识别盛行的今天,无论是门禁考勤、身份认证还是人脸支付,人脸作为人类最重要生物特征,在生活中扮演着越来越重要的角色。判断摄像头捕捉到的人脸是真实人脸,还是伪造的人脸(如:彩色纸张打印人脸图,电子设备屏幕中的人脸数字图像以及面具等),变得尤为重要。
当前,活体检测技术可分为交互式活体检测及静默式两种,交互式活体检测需要用户根据机器指令做出相应的动作,静默式活体检测根据所依赖的硬件不同,可以分为基于单目可见光,基于近红外NIR以及结构光等不同技术手段。通常,基于单目可见光的静默式活体检测难度最大,但是这是最普遍的获取人脸图像的方式。基于近红外图像的活体检测,对屏幕攻击的区分度较大,对高清彩色纸张打印的区分度较小。另外基于结构光的活体检测,能在近距离里相对准确地进行3D人脸重构,即可得到人脸及背景的点云图及深度图,可作为精准活体检测(而不像单目RGB或双目RGB中仍需估计深度)。不过成本较高,看具体应用场景决定。基于单目可见光摄像头是获取人脸图像,是最普遍,最流行的方式,但基于单目可见光的静默式活体检测又存在鲁棒性不强等问题。
发明内容
本发明的目的在于提供一种活体检测方法和装置,用于实现基于单目可见光摄像头的活体检测技术,采用双重验证机制,解决基于单目可见光静默式活体检测鲁棒性不高的问题。
为了实现上述目的,本发明采用以下技术方案:
一种活体检测方法,包含以下步骤:
S001:获取视频图像数据;
S002:检测图像中的人脸区域;
S003:标定人脸关键坐标信息;
S004:提取人脸特征信息;
S005:人脸特征信息达到人脸活体检测第一预设阈值,调用活体检测命令,获取活体检测信息;
S006:若活体检测信息与所述活体检测命令匹配,则活体检测成功。
进一步的,S003中标定人脸关键坐标信息,是指标定包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
进一步的,S004中所述人脸特征信息是指包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息。
进一步的,所述的深度活体检测模型提取的人脸特征信息包括:
采集清洗、标定样本,包括活体人脸正样本,及非活体人脸负样本;
用所采集的样本,基于深度学习卷积神经网络,训练深度活体检测模型,直至所述活体检测模型达到收敛状态;
生成深度活体检测模型。
进一步的,S004中所述的提取人脸特征信息,包括:
截取人脸区域图像;
对截取的图像进行缩放操作;
计算人脸特征信息。
进一步的,S005中所述的调用活体检测命令的方式为随机调用或固定调用。
进一步的,S005中所述的人脸特征信息达到人脸活体检测第一预设阈值,调用活体检测命令,获取活体检测信息;包括:
将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则调用活体检测命令,获取活体检测信息;所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
进一步的,S006中所述的活体检测信息,其获取过程包括:
人脸检测算法检测人脸区域;
通过人脸关键信息定位算法,给出包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息;
根据眼睛的坐标变化判断是否发生眨眼,根据嘴巴坐标变化,判断是否张嘴;
用已有的世界坐标系旋转、转换矩阵将3D点从世界坐标系变换到相机坐标系中,即通过算法完成世界坐标系、2D人脸关键点坐标信息、输入的视频图像、相机坐标系之间的映射转换和标定;用3D坐标系坐标变化来判断是否发生摇头、点头的活体检测信息。
进一步的,S006中所述的活体检测信息与所述活体检测命令匹配,活体检测成功,是指用户按照所述活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与所述活体检测命令匹配,则活体检测成功,否则失败。
本发明还提供了一种活体检测装置,包含:
图像获取模块,用于获取连续视频图像序列;
人脸检测模块,用于确定图像中的人脸矩形框区域;
关键信息标定模块,用于标定人脸的关键位置信息坐标;
人脸活体特征模块,提取人脸特征信息;
第一活体检测模块,判断人脸特征信息是否达到人脸活体检测第一预设阈值,若达到,调用活体检测命令;
第二活体检测模块,判断活体检测信息与预设活体检测命令是否匹配,若匹配,活体检测成功。
进一步的,人脸信息标定模块,是指标定包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
进一步的,人脸活体特征模块所提取人脸特征信息是指通过包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息。
进一步的,所述的调用活体检测命令,方式为随机调用或固定调用。
进一步的,所述的第一活体检测模块,判断人脸特征信息达到人脸活体检测第一预设阈值,若达到,调用活体检测命令,过程包括:将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则调用活体检测命令;所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
进一步的,所述的第二活体检测模块,判断活体检测信息与预设活体检测命令是否匹配,若匹配,活体检测成功,是指用户按照所述活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与所述活体检测命令匹配,则活体检测成功,否则失败。
本发明与现有技术相比具有的有益效果是:
本发明基于单目可见光摄像头,不借助其他额外传感器,通过将静默式活体检测与配合式活体检测相结合的方式,采用两次级联判断获取的方法,确定所采集的人脸为真实人脸,还是伪造人脸,提升了活体检测的准确率。
附图说明
图1为活体检测方法流程图
图2为深度活体检测模型的训练流程图
图3为判断活体检测信息流程图
图4为活体检测装置框图。
具体实施方式
下面结合实施例对本发明作进一步的描述,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域的普通技术人员在没有做出创造性劳动前提下所获得的其他所用实施例,都属于本发明的保护范围。
实施例1:
如图1所示,本发明提供了一种活体检测方法,具体实施步骤如下:
S001、获取视频图像数据,基于单目可见光摄像头获取连续视频图像数据。
S002、通过人脸检测算法,检测图像中的人脸区域。
S003、标定人脸关键坐标信息,是指通过关键点检测算法标定包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
S004、提取人脸特征信息,是指通过包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息,其步骤包括:
截取人脸区域图像;
对截取的图像进行缩放操作;
计算缩放后图像的人脸特征信息。
若采用深度活体检测模型来提取人脸特征信息,所述深度活体检测模型的训练过程,如图2所示包括:
S401.采集清洗、标定样本,包括活体人脸正样本,及非活体人脸负样本;
S402.用所采集的样本,基于深度学习卷积神经网络,训练深度活体检测模型,直至所述活体检测模型达到收敛状态;
S403.生成深度活体检测模型。
S005、判断人脸特征信息是否达到人脸活体检测第一预设阈值,若达到,随机或固定调用活体检测命令,其步骤包括:
将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则随机或固定调用活体检测命令;
所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
S006、判断活体检测信息是否与活体检测命令相匹配,若匹配,活体检测成功,是指用户按照所述随机或固定活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与活体检测命令匹配,则活体检测成功,否则失败。
所述判断活体检测信息的步骤如图3所示,包括:
S601.人脸检测算法检测人脸区域;
S602.通过人脸关键信息定位算法,给出包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息;
S603.根据眼睛的坐标变化判断是否发生眨眼,根据嘴巴坐标变化,判断是否张嘴;
S604.用已有的世界坐标系旋转、转换矩阵将3D点从世界坐标系变换到相机坐标系中,即通过算法完成世界坐标系(3D坐标系)、2D人脸关键点坐标信息、输入的视频图像、相机坐标系之间的映射转换和标定;
S605.用3D坐标系坐标变化来判断是否发生摇头、点头等活体检测信息。
本发明实施例一的有益效果:本发明所述的活体检测方法,能够在基于单目可见光摄像头的前提下,通过级联双重活体检测机制,提升人脸活体检测的鲁棒性。
实施例二
本发明提供了一种活体检测装置,如图4所示,具体如下:
一种活体检测装置,其特征在于,包含:
图像获取模块,基于单目可见光摄像头获取连续视频图像序列。
人脸检测模块,通过人脸检测算法确定图像中的人脸矩形框区域。
关键信息标定模块,通过关键点检测算法标定人脸的关键位置信息坐标,所述坐标信息包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
人脸活体特征模块,提取人脸特征信息,所提取人脸特征信息是指通过包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息。
第一活体检测模块,判断人脸特征信息是否达到人脸活体检测第一预设阈值,若达到,随机或固定调用活体检测命令,过程包括:
将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则随机或固定调用活体检测命令;
所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
第二活体检测模块,判断活体检测信息与活体检测命令是否匹配,若匹配,活体检测成功活体检测成功。具体是指用户按照所述活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与预设活体检测命令匹配,则活体检测成功,否则失败。
本发明实施例二的有益效果:本发明所述的活体检测装置,能够在基于单目可见光摄图像获取模块,通过第一活体检测模块和第二活体检测模块的级联验证,提升人脸活体检测的鲁棒性。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于计算机可读取存储介质中,该程序在执行时,可包括如上各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (15)

1.一种活体检测方法,其特征在于,包含以下步骤:
S001:获取视频图像数据;
S002:检测图像中的人脸区域;
S003:标定人脸关键坐标信息;
S004:提取人脸特征信息;
S005:人脸特征信息达到人脸活体检测第一预设阈值,调用活体检测命令,获取活体检测信息;
S006:若活体检测信息与所述活体检测命令匹配,则活体检测成功。
2.如权利要求1所述的活体检测方法,其特征在于,S003中标定人脸关键坐标信息,是指标定包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
3.如权利要求1所述的活体检测方法,其特征在于,S004中所述人脸特征信息是指包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息。
4.如权利要求3所述的活体检测方法,其特征在于,所述的深度活体检测模型提取的人脸特征信息包括:
采集清洗、标定样本,包括活体人脸正样本,及非活体人脸负样本;
用所采集的样本,基于深度学习卷积神经网络,训练深度活体检测模型,直至所述活体检测模型达到收敛状态;
生成深度活体检测模型。
5.如权利要求1所述的活体检测方法,其特征在于,S004中所述的提取人脸特征信息,包括:
截取人脸区域图像;
对截取的图像进行缩放操作;
计算人脸特征信息。
6.如权利要求1所述的活体检测方法,其特征在于,S005中所述的调用活体检测命令的方式为随机调用或固定调用。
7.如权利要求1所述的活体检测方法,其特征在于,S005中所述的人脸特征信息达到人脸活体检测第一预设阈值,调用活体检测命令,获取活体检测信息;包括:
将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则调用活体检测命令,获取活体检测信息;所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
8.如权利要求1所述的活体检测方法,其特征在于,S006中所述的活体检测信息,其获取过程包括:
人脸检测算法检测人脸区域;
通过人脸关键信息定位算法,给出包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息;
根据眼睛的坐标变化判断是否发生眨眼,根据嘴巴坐标变化,判断是否张嘴;
用已有的世界坐标系旋转、转换矩阵将3D点从世界坐标系变换到相机坐标系中,即通过算法完成世界坐标系、2D人脸关键点坐标信息、输入的视频图像、相机坐标系之间的映射转换和标定;用3D坐标系坐标变化来判断是否发生摇头、点头的活体检测信息。
9.如权利要求1所述的活体检测方法,其特征在于,S006中所述的活体检测信息与所述活体检测命令匹配,活体检测成功,是指用户按照所述活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与所述活体检测命令匹配,则活体检测成功,否则失败。
10.一种活体检测装置,其特征在于,包含:
图像获取模块,用于获取连续视频图像序列;
人脸检测模块,用于确定图像中的人脸矩形框区域;
关键信息标定模块,用于标定人脸的关键位置信息坐标;
人脸活体特征模块,提取人脸特征信息;
第一活体检测模块,判断人脸特征信息是否达到人脸活体检测第一预设阈值,若达到,调用活体检测命令;
第二活体检测模块,判断活体检测信息与预设活体检测命令是否匹配,若匹配,活体检测成功。
11.如权利要求10所述的活体检测装置,其特征在于,人脸信息标定模块,是指标定包括但不限于左眉毛的左、右角点,右眉毛的左、右角点,左眼的左、右眼角,右眼的左、右眼角,鼻翼的左、右角点,嘴巴的左、右嘴角,下嘴唇的下边缘中间点,以及下巴最低点的坐标信息。
12.如权利要求10所述的活体检测装置,其特征在于,人脸活体特征模块所提取人脸特征信息是指通过包括但不限于颜色空间、纹理特征及深度活体检测模型提取的人脸特征信息。
13.如权利要求10所述的活体检测装置,其特征在于,所述的调用活体检测命令,方式为随机调用或固定调用。
14.如权利要求10所述的活体检测装置,其特征在于,所述的第一活体检测模块,判断人脸特征信息达到人脸活体检测第一预设阈值,若达到,调用活体检测命令,过程包括:将所述人脸特征信息与活体人脸特征信息相匹配,若匹配度大于第一预设阈值,则调用活体检测命令;所述活体检测命令包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合。
15.如权利要求10所述的活体检测装置,其特征在于,所述的第二活体检测模块,判断活体检测信息与预设活体检测命令是否匹配,若匹配,活体检测成功,是指用户按照所述活体检测命令做出相应的动作,包括但不限于摇头、点头、张嘴、眨眼中的一个或多个命令组合,活体检测信息与所述活体检测命令匹配,则活体检测成功,否则失败。
CN202011363104.0A 2020-11-27 2020-11-27 一种活体检测方法和装置 Pending CN112329727A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011363104.0A CN112329727A (zh) 2020-11-27 2020-11-27 一种活体检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011363104.0A CN112329727A (zh) 2020-11-27 2020-11-27 一种活体检测方法和装置

Publications (1)

Publication Number Publication Date
CN112329727A true CN112329727A (zh) 2021-02-05

Family

ID=74307899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011363104.0A Pending CN112329727A (zh) 2020-11-27 2020-11-27 一种活体检测方法和装置

Country Status (1)

Country Link
CN (1) CN112329727A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255529A (zh) * 2021-05-28 2021-08-13 支付宝(杭州)信息技术有限公司 一种生物特征的识别方法、装置及设备
CN113283370A (zh) * 2021-06-08 2021-08-20 深圳市街角电子商务有限公司 基于双流信息的人脸活体检测方法和装置
CN113627300A (zh) * 2021-08-02 2021-11-09 中电福富信息科技有限公司 基于深度学习的人脸识别与活体检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593598A (zh) * 2013-11-25 2014-02-19 上海骏聿数码科技有限公司 基于活体检测和人脸识别的用户在线认证方法及系统
CN106845345A (zh) * 2016-12-15 2017-06-13 重庆凯泽科技股份有限公司 活体检测方法及装置
CN109784302A (zh) * 2019-01-28 2019-05-21 深圳风豹互联网科技有限公司 一种人脸活体检测方法及人脸识别设备
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN110188728A (zh) * 2019-06-06 2019-08-30 四川长虹电器股份有限公司 一种头部姿态估计的方法及系统
CN111274928A (zh) * 2020-01-17 2020-06-12 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103593598A (zh) * 2013-11-25 2014-02-19 上海骏聿数码科技有限公司 基于活体检测和人脸识别的用户在线认证方法及系统
CN106845345A (zh) * 2016-12-15 2017-06-13 重庆凯泽科技股份有限公司 活体检测方法及装置
CN109784302A (zh) * 2019-01-28 2019-05-21 深圳风豹互联网科技有限公司 一种人脸活体检测方法及人脸识别设备
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN110188728A (zh) * 2019-06-06 2019-08-30 四川长虹电器股份有限公司 一种头部姿态估计的方法及系统
CN111274928A (zh) * 2020-01-17 2020-06-12 腾讯科技(深圳)有限公司 一种活体检测方法、装置、电子设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255529A (zh) * 2021-05-28 2021-08-13 支付宝(杭州)信息技术有限公司 一种生物特征的识别方法、装置及设备
CN113283370A (zh) * 2021-06-08 2021-08-20 深圳市街角电子商务有限公司 基于双流信息的人脸活体检测方法和装置
CN113627300A (zh) * 2021-08-02 2021-11-09 中电福富信息科技有限公司 基于深度学习的人脸识别与活体检测方法

Similar Documents

Publication Publication Date Title
WO2020207423A1 (zh) 肤质检测方法、肤质等级分类方法及肤质检测装置
CN112329727A (zh) 一种活体检测方法和装置
US11043011B2 (en) Image processing method, apparatus, terminal, and storage medium for fusing images of two objects
EP1650711B1 (en) Image processing device, imaging device, image processing method
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
CN105072327B (zh) 一种防闭眼的人像拍摄处理的方法和装置
CN104361326A (zh) 一种判别活体人脸的方法
CN108416291B (zh) 人脸检测识别方法、装置和系统
CN111652082B (zh) 人脸活体检测方法和装置
CN107239735A (zh) 一种基于视频分析的活体检测方法和系统
US11315360B2 (en) Live facial recognition system and method
CN109101949A (zh) 一种基于彩色视频信号频域分析的人脸活体检测方法
WO2021000415A1 (zh) 活体用户检测方法、装置、计算机设备和存储介质
CN111709302A (zh) 人脸表情检测方法、装置、头戴显示设备及存储介质
CN111860394A (zh) 一种基于姿态估计和动作检测的动作活体识别方法
CN111967319A (zh) 基于红外和可见光的活体检测方法、装置、设备和存储介质
CN113128428B (zh) 基于深度图预测的活体检测方法和相关设备
CN114187166A (zh) 图像处理方法、智能终端及存储介质
CN111832464A (zh) 一种基于近红外摄像头的活体检测方法及装置
CN113128320B (zh) 基于tof相机的人脸活体检测方法、检测装置及电子设备
Park Representation learning for webcam-based gaze estimation
CN112149598A (zh) 一种侧脸评估方法、装置、电子设备及存储介质
WO2024045350A1 (zh) 一种基于深度学习的眼动活体检测方法和系统
CN115410245A (zh) 基于双目的活体检测方法、装置及存储介质
CN113723147A (zh) 虹膜人脸多模态活体检测和识别方法、装置、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210205

RJ01 Rejection of invention patent application after publication