CN108549884A - 一种活体检测方法及装置 - Google Patents

一种活体检测方法及装置 Download PDF

Info

Publication number
CN108549884A
CN108549884A CN201810619379.2A CN201810619379A CN108549884A CN 108549884 A CN108549884 A CN 108549884A CN 201810619379 A CN201810619379 A CN 201810619379A CN 108549884 A CN108549884 A CN 108549884A
Authority
CN
China
Prior art keywords
frame
face
tracked
detected
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810619379.2A
Other languages
English (en)
Inventor
李东声
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tendyron Corp
Tendyron Technology Co Ltd
Original Assignee
Tendyron Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tendyron Technology Co Ltd filed Critical Tendyron Technology Co Ltd
Priority to CN201810619379.2A priority Critical patent/CN108549884A/zh
Publication of CN108549884A publication Critical patent/CN108549884A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种活体检测方法及装置,其中,活体检测方法包括:活体检测装置获取待检测视频,进行人脸检测,得到包含人脸的初始帧,利用人脸跟踪算法进行人脸跟踪,对于跟踪到的每一帧人脸,获取感兴趣区域,对每一个图像帧中的感兴趣区域进行颜色通道分离得到N个单通道初始信号序列,进一步进行去噪和降维处理得到N个预处理信号序列,并计算得到用于活体检测的特征向量,将该特征向量作为活体检测SVM分类器的输入,判断该特征向量表征的M个图像帧中的人脸是否为活体。

Description

一种活体检测方法及装置
技术领域
本发明涉及一种活体检测领域,尤其涉及一种活体检测方法及装置。
背景技术
随着人工智能和机器学习领域的快速发展,人脸特征已经成为了应用最为广泛的生物特征之一。人脸特征已经被应用在通讯,金融,交通,安防等各个领域,如上班考勤、银行开户、机场验证等认证场合。与指纹、虹膜等其他生物特征相比,人脸特征有着采集方便和用户体验好等优点,但随之来的是人脸特征更加容易被获取和伪造而带来的挑战。
人脸识别系统面临如下三种主要的攻击方式:(1)合法用户的照片攻击。通过网络和偷拍等方式获取合法用户的照片,再通过打印、伪造模拟和电子设备播放等方式对人脸识别系统进行攻击。(2)合法用户的视频攻击。通过网络和偷拍等方式获取合法用户的视频,再利用电子设备对含有眨眼、摇头动作和面部表情的视频进行回放的攻击方式。该种攻击方式是对人脸识别系统威胁较大的一种攻击方式。(3)合法用户的3D模型或者面具头套。利用3D打印等技术合成合法用户的人脸面具或头套,对人脸识别系统进行攻击。随着三维仿真技术的发展,这种攻击方式相比照片和视频更具威胁性。针对以上三种主要的攻击方式,目前人脸识别系统的活体检测方法主要包括以下几种:(1)交互式活体检测。系统与用户进行交互,引导用户进行眨眼,张嘴,点头等动作,根据用户是否完成指定动作判断是否为活体。(2)利用红外等其他设备进行活体检测。增加近红外、远红外或3D双摄像头等传感器,提取不同设备下活体人脸和非活体之间的差异特征,进行活体和非活体的区分。(3)基于机器学习的大数据分析方法。利用目前已有的人脸攻击数据库,利用机器学习方法对活体和非活体人脸进行区分。
现有的活体检测方法虽然能够防范一部分的人脸攻击,但是均存在一定的确定。例如,交互式的检测方法比较繁琐,用户体验一般,对于高分辨率视频回放攻击和3D模型的防范效果有限;增加红外其他传感器的方法提高了设备成本,对硬件条件要求高,对用户体验也造成了一定的影响,且对于3D模型的防范效果不佳;基于大数据分析的方法需要预先获取大量的攻击数据,但因为不同类型的3D模型的数据很难获取,因此该方法对于3D模型类的攻击效果有限。
发明内容
本发明旨在解决上述问题/之一。
本发明的主要目的在于提供一种活体检测方法。
本发明的另一目的在于提供一种活体检测装置。
为达到上述目的,本发明的技术方案具体是这样实现的:
本发明一方面提供了一种活体检测方法,包括:步骤S1,活体检测装置获取待检测视频;步骤S2,将所述待检测视频中的第一帧图像作为待检测帧;步骤S3,对所述待检测帧进行人脸检测,判断所述待检测帧中是否包含人脸,如果是,则定位出人脸区域并执行步骤S4,否则,执行步骤S5;步骤S4,将所述待检测帧作为初始帧,利用特征点检测算法提取所述初始帧中的应选特征点,将所述初始帧中定位出的人脸区域作为跟踪区域,将所述待检测视频中初始帧的下一帧作为待跟踪帧,并执行步骤S6;步骤S5,将所述待检测视频中的下一帧图像作为待检测帧,并执行步骤S3;步骤S6,利用跟踪算法得到所述待跟踪帧的候选特征点,判断所述待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,所述应选特征点是所述候选特征点中满足第二预设条件的特征点,其中,所述第二预设条件为与所述待跟踪帧的上一帧中对应的应选特征点的距离小于或者等于S,如果所述待跟踪帧中的应选特征点的数量满足第一预设条件,确定所述待跟踪帧中跟踪到人脸,根据所述待跟踪帧中的应选特征点的位置确定所述待跟踪帧上的人脸区域,并执行步骤S7,否则,确定所述待跟踪帧中未跟踪到人脸,将所述待跟踪帧的下一帧作为待检测帧,并执行步骤S3;步骤S7,获取所述待跟踪帧上的人脸区域中的感兴趣区域,并执行步骤S8;步骤S8,判断跟踪到人脸的图像帧的数量是否等于M,如果是,则执行步骤S9,否则,执行步骤S10;步骤S9,将M个图像帧中的每一个图像帧中的感兴趣区域进行颜色通道分离,分别得到每一个图像帧中的感兴趣区域对应的N个单通道图像,分别计算每个单通道图像的感兴趣区域内像素的空间平均值,并分别将M个图像帧中同一颜色通道的所有单通道图像的感兴趣区域内像素的空间平均值按照对应帧的时间先后顺序组成一个M维的单通道初始信号序列,共得到N个单通道初始信号序列,并执行步骤S11;步骤S10,获取所述待跟踪帧的下一帧,并将所述待跟踪帧的下一帧作为新的待跟踪帧,并执行步骤S6;步骤S11,对所述N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到所述N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值和所述功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,并执行步骤S12,其中,所述预设频率范围包括人类心跳的频率范围;步骤S12,将所述特征向量作为活体检测SVM分类器的输入,判断所述特征向量表征的M个图像帧中的人脸是否为活体,其中,所述活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的。
可选的,所述人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。
可选的,所述去噪处理包括:带通滤波。
可选的,所述降维处理包括:主成分分析。
可选的,所述N等于3;所述3个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像;或者,所述3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像;或者,所述3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像。
本发明一方面提供了一种活体检测装置,包括:第一获取模块,用于获取待检测视频;人脸检测模块,用于将所述待检测视频中的第一帧图像作为待检测帧,对所述待检测帧进行人脸检测;第一判断模块,用于判断所述待检测帧中是否包含人脸,如果是,则触发所述人脸检测模块在所述待检测帧中定位出人脸并触发跟踪模块进行人脸跟踪操作,否则,触发所述人脸检测模块将所述待检测视频中的下一帧图像作为待检测帧,并进行人脸检测操作;所述跟踪模块,用于接收所述第一判断模块的触发,将所述检测出人脸的待检测帧作为初始帧,利用特征点检测算法提取所述初始帧中的应选特征点,将所述初始帧中定位出的人脸区域作为跟踪区域,将所述待检测视频中初始帧的下一帧作为待跟踪帧,利用跟踪算法得到所述待跟踪帧的候选特征点;第二判断模块,用于判断所述待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,所述应选特征点是所述候选特征点中满足第二预设条件的特征点,所述第二预设条件为与所述待跟踪帧的上一帧中对应的应选特征点的距离小于等于S,如果所述待跟踪帧中的应选特征点的数量满足第一预设条件,所述跟踪模块确定所述待跟踪帧中跟踪到人脸,根据所述待跟踪帧中的应选特征点的位置确定所述待跟踪帧上的人脸区域,如果所述待跟踪帧中的应选特征点的数量不满足第一预设条件,所述跟踪模块确定所述待跟踪帧中未跟踪到人脸,触发所述人脸检测模块将所述待跟踪帧的下一帧作为待检测帧;第二获取模块,用于在所述待跟踪帧中的应选特征点的数量满足第一预设条件的情况下,获取所述待跟踪帧上的人脸区域中的感兴趣区域;第三判断模块,用于判断跟踪到人脸的图像帧的数量是否等于M,如果是,则触发特征提取模块进行特征提取,否则,所述跟踪模块获取所述待跟踪帧的下一帧,并将所述待跟踪帧的下一帧作为新的待跟踪帧;特征提取模块,用于接收所述第三判断模块的触发,对所述N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到所述N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值、和所述功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,将所述特征向量输入至活体检测SVM分类器,其中,所述活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的;所述活体检测SVM分类器,用于判断所述特征向量表征的M个图像帧中的人脸是否为活体。
可选的,所述人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。
可选的,所述去噪处理包括:带通滤波。
可选的,所述降维处理包括:主成分分析。
可选的,所述N等于3;所述N个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像;或者,所述3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像;或者,所述3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像。
由上述本发明提供的技术方案可以看出,本发明提供了一种人脸活体检测方法及装置。通过本发明提供的活体检测方法,基于视频图像提取反映心率的特征向量,并根据该特征实现活体检测,能够有效防止合法用户的照片攻击、视频攻击、3D模型攻击和面具头套攻击。此外,本发明提供的活体检测方法克服了现有活体检测技术的不足:首先,本发明的活体检测方法不需要用户完成指定的动作,只需要获取包含人脸的视频即可完成,提高了用户体验;其次,不需要增加额外的硬件,节约了人脸检测的成本。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例1提供的活体检测方法的流程图;
图2为本发明实施例1提供的活体检测装置的结构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或数量或位置。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面将结合附图对本发明实施例作进一步地详细描述。
实施例1
本实施例提供了一种活体检测方法,如图1所示,本实施例提供的活体检测方法包括步骤S101-步骤S112。
步骤S101,活体检测装置获取待检测视频。
在本实施例中,活体检测装置获取的待检测视频可以是其自带的摄像头录制得到的,也可以是独立于活体检测装置的摄像头录制后发送至活体检测装置的。活体检测装置获取视频后,可以直接将获取的完整视频作为待检测视频,并进行后续步骤。为了提高检测效率,减少运算量,活体检测装置也可以在获取的完整视频过长时,截取其中的一部分作为待检测视频,待检测视频的时长或包含的视频帧的数量可以根据需要任意设定,只要待检测视频中包含的图像帧的数量能够满足进行活体检测的条件即可,本实施例中对待检测视频的时长或包含的图像帧的数量不作具体限定。
在本实施例中,由于通过提取待检测视频中的特征进行活体检测,因此待检测视频的清晰度需要能够满足活体检测的要求,即能够反映血流经过人脸时所引起的微弱变化,否则可能因为待检测视频不能反映血液流经人脸时所引起的微弱变化,影响活体检测的结果。
步骤S102,将待检测视频中的第一帧图像作为待检测帧。
在本实施例中,活体检测装置获取待检测视频后,可以按照待检测视频中的图像帧在视频中的时间先后顺序,选择待检测视频中最早的第一帧图像作为待检测帧。
步骤S103,对待检测帧进行人脸检测,判断待检测帧中是否包含人脸,如果是,则定位出人脸并执行步骤S104,否则,执行步骤S105。
在本实施例中,可以使用任意人脸检测算法进行人脸检测。传统的人脸检测算法主要包括以下几类:基于人脸几何特征的方法(例如,模板匹配法和弹性图匹配法)、局部特征分析方法、基于子空间的方法、特征脸方法(例如,基于直方图粗分割和奇异值特征的人脸检测算法、基于二进小波变换的人脸检测)和基于弹性模型的方法等。然而,传统的人脸检测算法考虑的外界影响因素的变化较小,而现实中的人脸检测要应对的光照、姿态变化等外界因素较大变化的影响,需要算法本身具有更加良好的泛化能力。在具体实施过程中,可以使用基于深度学习的人脸检测算法来克服传统人脸识别算法的不足,提高抗干扰能力,在光照背景、姿态等变化较大的情况下,仍能够实现很好的人脸识别效果。
在本实施例中,如果进行人脸检测的当前待检测帧中包含人脸,则将当前待检测帧作为初始帧,对初始帧的下一帧进行人脸跟踪,如果当前进行人脸检测的待检测帧中不包含人脸,则执行步骤S105,对当前待检测帧的下一帧进行人脸检测,直到检测到包含人脸的帧为止,并将检测到人脸的帧作为初始帧。由于人脸检测算法需要耗费的时间较长,如果对待检测视频中的每一帧均进行人脸检测,则完成活体检测需要耗费大量的时间,导致活体检测的效率很低。而使用人脸检测算法在一个待检测帧上检测到人脸后,即对后续的图像帧使用人脸跟踪算法跟踪人脸,能明显缩短活体检测的时间,从而提高活体检测的效率。
步骤S104,将待检测帧作为初始帧,利用特征点检测算法提取初始帧中的应选特征点,将初始帧中定位出的人脸区域作为跟踪区域,将待检测视频中初始帧的下一帧作为待跟踪帧,并执行步骤S106。
在本实施例中,将步骤S103中检测出包含人脸的待检测帧作为人脸跟踪的初始帧。在具体实施过程中,特征点检测算法可以包括以下几种:FAST(Features fromaccelerated segment test,简称FAST)特征点检测算法、SIFT(Scale Invariant FeatureTransform,简称SIFT)算法、SURF(Speeded Up Robust Features,简称SURF)算法、BRIFT(Binary Robust Independent Elementary Features,简称BRIFT)算法等。在本实施例中对特征点检测算法不作具体限定,只要能够提取出图像帧中的应选特征点的算法均属于本发明的保护范围。
在本实施例中,将初始帧中的人脸区域作为跟踪区域,基于该跟踪区域即对初始帧的下一帧进行跟踪,从而得到初始帧的下一帧中的人脸。
步骤S105,将待检测视频中的下一帧图像作为待检测帧,并执行步骤S103。
在本实施例中,在当前待检测帧中不包含人脸的情况下,对当前待检测帧的下一帧进行人脸检测。
步骤S106,利用跟踪算法得到待跟踪帧的候选特征点,判断待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,应选特征点是候选特征点中满足第二预设条件的特征点,其中,第二预设条件为与待跟踪帧的上一帧中对应的应选特征点的距离小于等于S,如果待跟踪帧中的应选特征点的数量满足第一预设条件,确定待跟踪帧中跟踪到人脸,根据待跟踪帧中的应选特征点的位置确定待跟踪帧上的人脸区域,并执行步骤S107,否则,确定待跟踪帧中未跟踪到人脸,将待跟踪帧的下一帧作为待检测帧,并执行步骤S103。
在本实施例中,得到待跟踪帧的候选特征点后,计算每一个候选特征点与上一帧中对应的应选特征点之间的距离,如果一个候选特征点与上一帧中对应的应选特征点之间的距离小于或者等于预先设定的值S,则将该候选特征点确定为应选特征点。在具体实施过程中,可以根据应选特征点的位置不同,针对每一个应选特征点单独设定一个S值,也可以所有的应选特征点共用一个S值,在本实施例中不作具体限定。
步骤S107,获取待跟踪帧上的人脸区域中的感兴趣区域,并执行步骤S108。
在本实施例中,获取待跟踪帧上的人脸区域后,可以通过人脸特征点模型得到68个人脸特征点,其中,第1-17个特征点可以用来反应人脸轮廓,第18-27个特征点用来反应眉毛轮廓、第28-36个特征点用来反应鼻子轮廓、第37-46点用来反应眼睛轮廓、第47-68个特征点用来反应嘴唇的轮廓。之后根据人脸区域以及人脸特征点共同获取人脸区域中的特定区域作为感兴趣区域。
为了提取到准确的频域特征,可以选择人脸区域运动较少的部分来提取频域特征,因此,作为本发明实施例的一个可选实施方式,人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。其中,额头部分可以通过人脸区域的相对位置得到,人脸眼睛以下、嘴巴以上的区域,可以通过选择人脸特征点中的第2-5点、第13-16点以及第49-55点所围成的区域得到。
步骤S108,判断跟踪到人脸的图像帧的数量是否等于M,如果是,则执行步骤S109,否则,执行步骤S110。
在本实施例中,每跟踪到一帧包含人脸的图像帧,则判断到目前为止,跟踪到人脸的图像帧的数量是否达到预设的M,其中,M的具体数值可以根据活体检测的需要进行设置,在本实施例中不对M的具体数值进行限定。当跟踪到人脸的图像帧的数量达到预设的M值时,执行步骤S109和S111,对M个图像帧的频域特征进行提取。当跟踪到人脸的帧数尚未达到预设的M值时,继续对当前帧的下一帧进行人脸跟踪,直到跟踪到人脸的图像帧的数量达到预设的M值。
步骤S109,将M个图像帧中的每一个图像帧中的感兴趣区域进行颜色通道分离,分别得到每一个图像帧中的感兴趣区域对应的N个单通道图像,分别计算每个单通道图像的感兴趣区域内像素的空间平均值,并分别将M个图像帧中同一颜色通道的所有单通道图像的感兴趣区域内像素的空间平均值按照对应帧的时间先后顺序组成一个M维的单通道初始信号序列,共得到N个单通道初始信号序列,并执行步骤S111。
在现有技术中,当光线照射在人体裸露的皮肤上时,一部分的光线会被血管内的血红蛋白所吸收,而随着心脏的周期性搏动,人体血管中的血红蛋白数量也呈现周期性的变化。因此,通过适当的光电传感器,可以通过光线的周期性变化采集到与脉搏相关的周期性信号。而本实施例中,利用普通的图像采集设备,通过拍摄人脸等部位,利用步骤S109和步骤S111提供的信号处理方法提取出心率信号,并根据有节律的脉搏信号只存在于活体人脸的特点,进行活体检测。
图像的单通道空间的不同划分方式会导致不同的通道分离方式,从而影响原始信号的提取。作为本发明实施例的一个可选实施方式,N等于3,3个单通道图像至少包括以下三类:
第一类、3个单通道图像分别为红色(Red)通道图像、绿色(Green)通道图像和蓝色(Blue)通道图像。
此时,计算任一帧图像的感兴趣区域内像素的空间平均值具体包括:将M个图像帧中的第m(1≤m≤M)帧的红色、绿色和蓝色通道分开,形成三幅单通道图像。假设第m帧图像的感兴趣区域包含L个像素,感兴趣区域中的每一个像素点分别用一组数据(rl,gl,bl)表示,其中,1≤l≤L,则红色、绿色和蓝色通道的分量可以分别表示为(rl,0,0)、(0,gl,0)和(0,0,bl)。对于任一图像帧,计算红色通道图像的感兴趣区域内l个像素的平均值,得到红色像素空间平均值,即红色通道图像的感兴趣区域内像素的空间平均值同理,分别得到绿色和蓝色通道图像的感兴趣区域内像素的空间平均值
按照上述步骤计算得到每一帧图像的感兴趣区域内红色、绿色和蓝色像素的空间平均值之后,组成红色通道初始信号序列(R1,……,Rm,……,RM)、绿色通道初始信号序列(G1,……,Gm,……,GM)和蓝色通道初始信号序列(B1,……,Bm,……,BM),其中,这三个初始信号序列均为时域信号序列。
RGB颜色空间主要用于计算机色彩显示器和彩色电视机,任意色光都可以用R、G、B三色不同分量的相加混合而成。RGB色彩空间采用物理三基色表示,因而物理意义很清楚,适合彩色显象管工作。然而这一表示方式并不适应人的视觉特点。因而,产生了其它不同的色彩空间表示法。
第二类、3个单通道图像分别为色调(Hue)通道图像、饱和度(Saturation)通道图像、亮度(Value)通道图像。
RGB颜色空间中,三种颜色分量的取值与所生成的颜色之间的联系并不直观。而HSV颜色空间是一种将RGB颜色空间中的点在倒圆锥体中的表示方法,更类似于人类感觉颜色的方式,能够更加直观地体现三种分量与所生成的颜色之间的联系。
此时,计算任一帧图像的感兴趣区域内像素的空间平均值具体包括:将M个图像帧中的第m(1≤m≤M)帧的色调、饱和度和亮度通道分开,形成三幅单通道图像。假设第m帧图像的感兴趣区域包含L个像素,感兴趣区域中的每一个像素点分别用一组数据(hl,sl,vl)表示,其中,1≤l≤L,则色调、饱和度和亮度通道的分量可以分别表示为(hl,0,0)、(0,sl,0)和(0,0,vl)。对于任一图像帧,计算色调通道图像的感兴趣区域内l个像素的平均值,得到色调像素空间平均值,即色调通道图像的感兴趣区域内像素的空间平均值同理,分别得到饱和度和亮度通道图像的感兴趣区域内像素的空间平均值
按照上述步骤计算得到每一帧图像的感兴趣区域内色调、饱和度和亮度像素的空间平均值之后,组成色调通道初始信号序列(H1,……,Hm,……,HM)、饱和度通道初始信号序列(S1,……,Sm,……,SM)和亮度通道初始信号序列(V1,……,Vm,……,VM)。
第三类、3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像,。
上述颜色空间可以表示为YUV颜色空间。其中,“Y”表示亮度,而“U”和“V”表示的则是色度,作用是描述影像色彩及饱和度,用于指定像素的颜色。YUV颜色空间可以与RGB颜色空间相互转换。
参照RGB和HSV颜色空间中的处理方法,可以得到亮度通道初始信号序列(Y1,……,Ym,……,YM)、第一色差通道初始信号序列(U1,……,Um,……,UM)和第二色差通道初始信号序列(V1,……,Vm,……,VM)。
步骤S110,获取待跟踪帧的下一帧,并将待跟踪帧的下一帧作为新的待跟踪帧,并执行步骤S106。
在本实施例中,当跟踪到人脸的帧数尚未达到预设的M值时,继续对当前待跟踪帧的下一帧进行人脸跟踪。
步骤S111,对N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值和功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,并执行步骤S112,其中,预设频率范围包括人类心跳的频率范围。
在本实施例中,由于提取到的初始信号序列会受到光照、面部微动作等因素的影响,因此需要进一步的去噪和降维处理。
在本实施例中,当N等于3,且3个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像时,对红色通道初始信号序列(R1,……,Rm,……,RM)、绿色通道初始信号序列(G1,……,Gm,……,GM)和蓝色通道初始信号序列(B1,……,Bm,……,BM)分别进行去噪和降维处理得到3个预处理信号序列,其中,这3个预处理信号序列也是时域信号。当N等于3,且3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像时,可以参照相同的方法对色调通道初始信号序列、饱和度初始信号序列、亮度信号序列进行去噪和降维处理得到3个预处理信号序列。
在本实施例中,当3个预处理信号序列为广义的平稳过程时,可以分别求取每一个预处理信号序列的自相关函数,对自相关函数进行傅里叶变化得到功率谱密度。特别的,当3个预处理信号序列为确定信号时,可以先对预处理信号序列进行傅里叶变换得到频域信号,再对频域信号求平方得到功率谱密度。由于活体人脸的功率谱在脉搏对应的频率处存在一个峰值,而对于图像、视频和3D模型攻击在各个频率上只有随机噪声产生的峰值,因此可以在功率谱密度中提取能够反映脉搏频率的特征信息。
具体的,当N等于3,且3个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像时。求取红色道对应的预处理信号序列的功率谱密度,提取功率峰值Pr、以及峰值Pr与预设频率范围内的功率之和Sr的比值Rr。根据相同的方法得到绿色通道图像的功率峰值Pg和比值Rg,蓝牙通道图像的功率峰值Pb和比值Rb,并组成特征向量(Pr,Rr,Pg,Rg,Pb,Rb)。当N等于3,且3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像时,参照上述方法得到特征向量(Ph,Rh,Ps,Rs,Pv,Rv)。当N等于3,且3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像时,参照上述方法得到特征向量(Py,Ry,Pu,Ru,Pv,Rv)
作为本发明实施例的一个可选实施方式,去噪处理包括:带通滤波。
在本实施例中,用来实现带通滤波的滤波器的通带可以包括人类心跳的频率范围。正常人的心跳在每分钟42下到240下之间,对应的,人类心跳的频率为0.7~4Hz,因此,带通滤波器的通带可以相应设置为0.7~4Hz。通过该可选实施方式,可以滤除人类心跳的频率范围之外的信号,避免提取出的特征向量受噪声影响,不能准确反应心率特征。
作为本发明实施例的一个可选实施方式,降维处理包括:主成分分析。
在本实施例中,主成分分析的主要原理是,利用降维的思想,把多指标转化为少数几个综合指标(即主成分),其中每个主成分都能够反映原始变量的大部分信息,且所含信息互不重复。这种方法在引进多方面变量的同时将复杂因素归结为几个主成分,使问题简单化,同时得到结果更加科学有效的数据信息。具体到本实施例中,通过主成分分析选取具有更大特征值的特征向量,而排除表示噪声的较小的特征值。通过该可选实施方式,可以将高维度的信号转化为低维度的信号进行,减少计算复杂度,同时,还能够去除噪声的影响。
步骤S112,将特征向量作为活体检测SVM分类器的输入,判断特征向量表征的M个图像帧中的人脸是否为活体,其中,活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的。
在本实施例中,支持向量机(Support Vector Machine,简称SVM)分类器是针对线性可分情况进行分析,而对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征空间使其线性可分,从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能。活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量进行训练得到的,可以将人脸活体检测当做二分类问题处理,针对输入的任意一个特征向量,均可以判断该特征向量表征的M个图像帧中的人脸是否为活体。
通过本实施例提供的活体检测方法,基于视频图像提取反映心率的特征向量,并根据该特征向量实现活体检测,能够有效防止合法用户的照片攻击、视频攻击、3D模型攻击和面具头套攻击。此外,本实施例提供的活体检测方法克服了现有活体检测技术的不足:首先,本实施例的活体检测方法不需要用户完成指定的动作,只需要获取包含人脸的视频即可完成,提高了用户体验;其次,不需要增加额外的硬件,节约了人脸检测的成本。
实施例2
本实施例提供了一种活体检测装置100,图2为本实施例提供的活体检测装置100的结构示意图。在本实施例中,对活体检测装置100的结构进行了简要说明,其他未尽事宜,可参见实施例1中的说明。
如图2所示,本实施例提供的活体检测装置100包括:第一获取模块101,用于获取待检测视频;人脸检测模块102,用于将待检测视频中的第一帧图像作为待检测帧,对待检测帧进行人脸检测;第一判断模块103,用于判断待检测帧中是否包含人脸,如果是,则触发人脸检测模块102在待检测帧中定位出人脸并触发跟踪模块104进行人脸跟踪操作,否则,触发人脸检测模块102将待检测视频中的下一帧图像作为待检测帧,并进行人脸检测操作;跟踪模块104,用于接收第一判断模块103的触发,将检测出人脸的待检测帧作为初始帧,利用特征点检测算法提取初始帧中的应选特征点,将初始帧中定位出的人脸区域作为跟踪区域,将待检测视频中初始帧的下一帧作为待跟踪帧,利用跟踪算法得到待跟踪帧的候选特征点;第二判断模块105,用于判断待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,应选特征点是候选特征点中满足第二预设条件的特征点,第二预设条件为与待跟踪帧的上一帧中对应的应选特征点的距离小于等于S,如果待跟踪帧中的应选特征点的数量满足第一预设条件,跟踪模块104确定待跟踪帧中跟踪到人脸,根据待跟踪帧中的应选特征点的位置确定待跟踪帧上的人脸区域,如果待跟踪帧中的应选特征点的数量不满足第一预设条件,跟踪模块104确定待跟踪帧中未跟踪到人脸,触发人脸检测模块102将待跟踪帧的下一帧作为待检测帧;第二获取模块106,用于在待跟踪帧中的应选特征点的数量满足第一预设条件的情况下,获取待跟踪帧上的人脸区域中的感兴趣区域;第三判断模块107,用于判断跟踪到人脸的图像帧的数量是否等于M,如果是,则触发特征提取模块108进行特征提取,否则,跟踪模块104获取待跟踪帧的下一帧,并将待跟踪帧的下一帧作为新的待跟踪帧;特征提取模块108,用于接收第三判断模块107的触发,将M个图像帧中的每一个图像帧中的感兴趣区域进行颜色通道分离,分别得到每一个图像帧中的感兴趣区域对应的N个单通道图像,分别计算每个单通道图像的感兴趣区域内像素的空间平均值,并分别将M个图像帧中同一颜色通道的所有单通道图像的感兴趣区域内像素的空间平均值按照对应帧的时间先后顺序组成一个M维的单通道初始信号序列,共得到N个单通道初始信号序列,对N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值、和功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,将特征向量输入至活体检测SVM分类器109,其中,活体检测SVM分类器109是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的;活体检测SVM分类器109,用于判断特征向量表征的M个图像帧中的人脸是否为活体。
通过本实施例提供的活体检测装置,基于视频图像提取反映心率的特征向量,并根据该特征向量实现活体检测,能够有效防止合法用户的照片攻击、视频攻击、3D模型攻击和面具头套攻击。
为了提取到准确的频域特征,可以选择人脸区域运动较少的部分来提取频域特征,因此,作为本发明实施例的一个可选实施方式,人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。
作为本发明实施例的一个可选实施方式,去噪处理包括:带通滤波。
在本实施例中,用来实现带通滤波的滤波器的通带可以包括人类心跳的频率范围。正常人的心跳在每分钟42下到240下之间,对应的,人类心跳的频率为0.7~4Hz,因此,带通滤波器的通带可以相应设置为0.7~4Hz。通过该可选实施方式,可以滤除人类心跳的频率范围之外的信号,避免提取出的特征向量受噪声影响,不能准确反应心率特征。
作为本发明实施例的一个可选实施方式,降维处理包括:主成分分析。
在本实施例中,主成分分析的主要原理是,利用降维的思想,把多指标转化为少数几个综合指标(即主成分),其中每个主成分都能够反映原始变量的大部分信息,且所含信息互不重复。这种方法在引进多方面变量的同时将复杂因素归结为几个主成分,使问题简单化,同时得到结果更加科学有效的数据信息。具体到本实施例中,通过主成分分析选取具有更大特征值的特征向量,而排除表示噪声的较小的特征值。通过该可选实施方式,可以将高维度的信号转化为低维度的信号进行,减少计算复杂度,同时,还能够去除噪声的影响。
图像的单通道空间的不同划分方式会导致不同的通道分离方式,从而影响原始信号的提取。作为本发明实施例的一个可选实施方式,N等于3,3个单通道图像至少包括以下三类:
第一类、3个单通道图像分别为红色(Red)通道图像、绿色(Green)通道图像和蓝色(Blue)通道图像。
RGB颜色空间主要用于计算机色彩显示器和彩色电视机,任意色光都可以用R、G、B三色不同分量的相加混合而成。RGB色彩空间采用物理三基色表示,因而物理意义很清楚,适合彩色显象管工作。然而这一表示方式并不适应人的视觉特点。因而,产生了其它不同的色彩空间表示法。
第二类、3个单通道图像分别为色调(Hue)通道图像、饱和度(Saturation)通道图像、亮度(Value)通道图像。
RGB颜色空间中,三种颜色分量的取值与所生成的颜色之间的联系并不直观。而HSV颜色空间是一种将RGB颜色空间中的点在倒圆锥体中的表示方法,更类似于人类感觉颜色的方式,能够更加直观地体现三种分量与所生成的颜色之间的联系。
第三类、3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像,。
上述颜色空间可以表示为YUV颜色空间。其中,“Y”表示亮度,而“U”和“V”表示的则是色度,作用是描述影像色彩及饱和度,用于指定像素的颜色。YUV颜色空间可以与RGB颜色空间相互转换。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。

Claims (10)

1.一种活体检测方法,其特征在于,包括:
步骤S1,活体检测装置获取待检测视频;
步骤S2,将所述待检测视频中的第一帧图像作为待检测帧;
步骤S3,对所述待检测帧进行人脸检测,判断所述待检测帧中是否包含人脸,如果是,则定位出人脸区域并执行步骤S4,否则,执行步骤S5;
步骤S4,将所述待检测帧作为初始帧,利用特征点检测算法提取所述初始帧中的应选特征点,将所述初始帧中定位出的人脸区域作为跟踪区域,将所述待检测视频中初始帧的下一帧作为待跟踪帧,并执行步骤S6;
步骤S5,将所述待检测视频中的下一帧图像作为待检测帧,并执行步骤S3;
步骤S6,利用跟踪算法得到所述待跟踪帧的候选特征点,判断所述待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,所述应选特征点是所述候选特征点中满足第二预设条件的特征点,其中,所述第二预设条件为与所述待跟踪帧的上一帧中对应的应选特征点的距离小于或者等于S,如果所述待跟踪帧中的应选特征点的数量满足第一预设条件,确定所述待跟踪帧中跟踪到人脸,根据所述待跟踪帧中的应选特征点的位置确定所述待跟踪帧上的人脸区域,并执行步骤S7,否则,确定所述待跟踪帧中未跟踪到人脸,将所述待跟踪帧的下一帧作为待检测帧,并执行步骤S3;
步骤S7,获取所述待跟踪帧上的人脸区域中的感兴趣区域,并执行步骤S8;
步骤S8,判断跟踪到人脸的图像帧的数量是否等于M,如果是,则执行步骤S9,否则,执行步骤S10;
步骤S9,将M个图像帧中的每一个图像帧中的感兴趣区域进行颜色通道分离,分别得到每一个图像帧中的感兴趣区域对应的N个单通道图像,分别计算每个单通道图像的感兴趣区域内像素的空间平均值,并分别将M个图像帧中同一颜色通道的所有单通道图像的感兴趣区域内像素的空间平均值按照对应帧的时间先后顺序组成一个M维的单通道初始信号序列,共得到N个单通道初始信号序列,并执行步骤S11;
步骤S10,获取所述待跟踪帧的下一帧,并将所述待跟踪帧的下一帧作为新的待跟踪帧,并执行步骤S6;
步骤S11,对所述N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到所述N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值和所述功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,并执行步骤S12,其中,所述预设频率范围包括人类心跳的频率范围;
步骤S12,将所述特征向量作为活体检测SVM分类器的输入,判断所述特征向量表征的M个图像帧中的人脸是否为活体,其中,所述活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。
3.根据权利要求1或2所述的方法,其特征在于,所述去噪处理包括:带通滤波。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述降维处理包括:主成分分析。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述N等于3;
所述3个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像;
或者,所述3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像;
或者,所述3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像。
6.一种活体检测装置,其特征在于,包括:
第一获取模块,用于获取待检测视频;
人脸检测模块,用于将所述待检测视频中的第一帧图像作为待检测帧,对所述待检测帧进行人脸检测;
第一判断模块,用于判断所述待检测帧中是否包含人脸,如果是,则触发所述人脸检测模块在所述待检测帧中定位出人脸并触发跟踪模块进行人脸跟踪操作,否则,触发所述人脸检测模块将所述待检测视频中的下一帧图像作为待检测帧,并进行人脸检测操作;
所述跟踪模块,用于接收所述第一判断模块的触发,将所述检测出人脸的待检测帧作为初始帧,利用特征点检测算法提取所述初始帧中的应选特征点,将所述初始帧中定位出的人脸区域作为跟踪区域,将所述待检测视频中初始帧的下一帧作为待跟踪帧,利用跟踪算法得到所述待跟踪帧的候选特征点;
第二判断模块,用于判断所述待跟踪帧中的应选特征点的数量是否满足第一预设条件,其中,所述应选特征点是所述候选特征点中满足第二预设条件的特征点,所述第二预设条件为与所述待跟踪帧的上一帧中对应的应选特征点的距离小于等于S,如果所述待跟踪帧中的应选特征点的数量满足第一预设条件,所述跟踪模块确定所述待跟踪帧中跟踪到人脸,根据所述待跟踪帧中的应选特征点的位置确定所述待跟踪帧上的人脸区域,如果所述待跟踪帧中的应选特征点的数量不满足第一预设条件,所述跟踪模块确定所述待跟踪帧中未跟踪到人脸,触发所述人脸检测模块将所述待跟踪帧的下一帧作为待检测帧;
第二获取模块,用于在所述待跟踪帧中的应选特征点的数量满足第一预设条件的情况下,获取所述待跟踪帧上的人脸区域中的感兴趣区域;
第三判断模块,用于判断跟踪到人脸的图像帧的数量是否等于M,如果是,则触发特征提取模块进行特征提取,否则,所述跟踪模块获取所述待跟踪帧的下一帧,并将所述待跟踪帧的下一帧作为新的待跟踪帧;
特征提取模块,用于接收所述第三判断模块的触发,将M个图像帧中的每一个图像帧中的感兴趣区域进行颜色通道分离,分别得到每一个图像帧中的感兴趣区域对应的N个单通道图像,分别计算每个单通道图像的感兴趣区域内像素的空间平均值,并分别将M个图像帧中同一颜色通道的所有单通道图像的感兴趣区域内像素的空间平均值按照对应帧的时间先后顺序组成一个M维的单通道初始信号序列,共得到N个单通道初始信号序列,对所述N个单通道初始信号序列分别进行去噪和降维处理得到N个预处理信号序列,并分别计算得到所述N个预处理信号序列对应的功率谱密度,获取每个预处理信号的功率峰值、和所述功率峰值与预设频率范围内的功率之和的比值,组成一个2*N维特征向量,将所述特征向量输入至活体检测SVM分类器,其中,所述活体检测SVM分类器是使用预先获取的从真实人脸和/或攻击人脸提取得到的2*N维特征向量训练得到的;
所述活体检测SVM分类器,用于判断所述特征向量表征的M个图像帧中的人脸是否为活体。
7.根据权利要求6所述的装置,其特征在于,
所述人脸感兴趣区域包括:人脸额头区域,和/或人脸眼睛以下、嘴巴以上的区域。
8.根据权利要求6或7所述的装置,其特征在于,所述去噪处理包括:带通滤波。
9.根据权利要求6至8任一项所述的方法,其特征在于,所述降维处理包括:主成分分析。
10.根据权利要求6至9任一项所述的方法,其特征在于,所述N等于3;
所述N个单通道图像分别为红色通道图像、绿色通道图像和蓝色通道图像;
或者,所述3个单通道图像分别为色调通道图像、饱和度通道图像、亮度通道图像;
或者,所述3个单通道图像分别为亮度通道图像、第一色差通道图像、第二色差通道图像。
CN201810619379.2A 2018-06-15 2018-06-15 一种活体检测方法及装置 Pending CN108549884A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810619379.2A CN108549884A (zh) 2018-06-15 2018-06-15 一种活体检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810619379.2A CN108549884A (zh) 2018-06-15 2018-06-15 一种活体检测方法及装置

Publications (1)

Publication Number Publication Date
CN108549884A true CN108549884A (zh) 2018-09-18

Family

ID=63493728

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810619379.2A Pending CN108549884A (zh) 2018-06-15 2018-06-15 一种活体检测方法及装置

Country Status (1)

Country Link
CN (1) CN108549884A (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109602412A (zh) * 2018-12-05 2019-04-12 中国科学技术大学 利用面部视频实现心率检测的方法
CN110163174A (zh) * 2019-05-27 2019-08-23 成都科睿埃科技有限公司 一种基于单目摄像头的活体人脸检测方法
CN110279406A (zh) * 2019-05-06 2019-09-27 苏宁金融服务(上海)有限公司 一种基于摄像头的无接触式的脉率测量方法及装置
CN110298312A (zh) * 2019-06-28 2019-10-01 北京旷视科技有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
CN110348385A (zh) * 2019-07-12 2019-10-18 苏州小阳软件科技有限公司 活体人脸识别方法和装置
CN111126265A (zh) * 2019-12-24 2020-05-08 杭州魔点科技有限公司 活体检测方法、装置、电子设备及介质
CN111145455A (zh) * 2018-11-06 2020-05-12 天地融科技股份有限公司 一种监控视频中人脸风险检测方法及系统
CN111178137A (zh) * 2019-12-04 2020-05-19 百度在线网络技术(北京)有限公司 检测真实人脸方法、装置、电子设备以及计算机可读存储介质
CN111428577A (zh) * 2020-03-03 2020-07-17 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN111695515A (zh) * 2020-06-12 2020-09-22 百度在线网络技术(北京)有限公司 视频图像的检测方法、装置、电子设备及存储介质
CN111803031A (zh) * 2020-07-03 2020-10-23 赵永翔 一种非接触式吸毒人员复吸监测方法及系统
CN111879724A (zh) * 2020-08-05 2020-11-03 中国工程物理研究院流体物理研究所 基于近红外光谱成像的人皮面具识别方法及系统
CN112733791A (zh) * 2021-01-21 2021-04-30 展讯通信(上海)有限公司 活体检测方法及装置、存储介质、终端
CN112766094A (zh) * 2021-01-05 2021-05-07 清华大学 一种通过视频提取ppg信号的方法及其系统
CN112861588A (zh) * 2019-11-28 2021-05-28 杭州萤石软件有限公司 一种活体检测的方法、装置
CN113255400A (zh) * 2020-02-10 2021-08-13 深圳市光鉴科技有限公司 活体人脸识别模型的训练、识别方法、系统、设备及介质
CN113255401A (zh) * 2020-02-10 2021-08-13 深圳市光鉴科技有限公司 3d人脸摄像装置
CN113591514A (zh) * 2020-04-30 2021-11-02 杭州海康威视数字技术股份有限公司 指纹活体检测方法、设备及存储介质
CN113963427A (zh) * 2021-12-22 2022-01-21 浙江工商大学 一种快速活体检测的方法与系统
CN114140854A (zh) * 2021-11-29 2022-03-04 北京百度网讯科技有限公司 一种活体检测方法、装置、电子设备及存储介质
CN114639129A (zh) * 2020-11-30 2022-06-17 北京君正集成电路股份有限公司 一种用于门禁系统的纸张介质活体检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945554A (zh) * 2012-10-25 2013-02-27 西安电子科技大学 基于学习和加速鲁棒surf特征的目标跟踪方法
CN104778465A (zh) * 2015-05-06 2015-07-15 北京航空航天大学 一种基于特征点匹配的目标跟踪方法
CN106156757A (zh) * 2016-08-02 2016-11-23 中国银联股份有限公司 结合活体检测技术的人脸识别方法及人脸识别系统
CN106175742A (zh) * 2016-07-19 2016-12-07 北京心量科技有限公司 一种心脏体征获取方法以及装置
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN107506713A (zh) * 2017-08-15 2017-12-22 哈尔滨工业大学深圳研究生院 活体人脸检测方法及存储设备
CN108140123A (zh) * 2017-12-29 2018-06-08 深圳前海达闼云端智能科技有限公司 人脸活体检测方法、电子设备和计算机程序产品

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945554A (zh) * 2012-10-25 2013-02-27 西安电子科技大学 基于学习和加速鲁棒surf特征的目标跟踪方法
CN104778465A (zh) * 2015-05-06 2015-07-15 北京航空航天大学 一种基于特征点匹配的目标跟踪方法
CN106175742A (zh) * 2016-07-19 2016-12-07 北京心量科技有限公司 一种心脏体征获取方法以及装置
CN106156757A (zh) * 2016-08-02 2016-11-23 中国银联股份有限公司 结合活体检测技术的人脸识别方法及人脸识别系统
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN107506713A (zh) * 2017-08-15 2017-12-22 哈尔滨工业大学深圳研究生院 活体人脸检测方法及存储设备
CN108140123A (zh) * 2017-12-29 2018-06-08 深圳前海达闼云端智能科技有限公司 人脸活体检测方法、电子设备和计算机程序产品

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145455A (zh) * 2018-11-06 2020-05-12 天地融科技股份有限公司 一种监控视频中人脸风险检测方法及系统
CN109602412A (zh) * 2018-12-05 2019-04-12 中国科学技术大学 利用面部视频实现心率检测的方法
CN110279406A (zh) * 2019-05-06 2019-09-27 苏宁金融服务(上海)有限公司 一种基于摄像头的无接触式的脉率测量方法及装置
CN110279406B (zh) * 2019-05-06 2022-07-15 苏宁金融服务(上海)有限公司 一种基于摄像头的无接触式的脉率测量方法及装置
CN110163174A (zh) * 2019-05-27 2019-08-23 成都科睿埃科技有限公司 一种基于单目摄像头的活体人脸检测方法
CN110298312A (zh) * 2019-06-28 2019-10-01 北京旷视科技有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
CN110298312B (zh) * 2019-06-28 2022-03-18 北京旷视科技有限公司 活体检测方法、装置、电子设备及计算机可读存储介质
CN110348385B (zh) * 2019-07-12 2023-07-07 深圳小阳软件有限公司 活体人脸识别方法和装置
CN110348385A (zh) * 2019-07-12 2019-10-18 苏州小阳软件科技有限公司 活体人脸识别方法和装置
CN112861588B (zh) * 2019-11-28 2024-03-08 杭州萤石软件有限公司 一种活体检测的方法、装置
CN112861588A (zh) * 2019-11-28 2021-05-28 杭州萤石软件有限公司 一种活体检测的方法、装置
CN111178137A (zh) * 2019-12-04 2020-05-19 百度在线网络技术(北京)有限公司 检测真实人脸方法、装置、电子设备以及计算机可读存储介质
CN111178137B (zh) * 2019-12-04 2023-05-26 百度在线网络技术(北京)有限公司 检测真实人脸方法、装置、电子设备以及计算机可读存储介质
CN111126265A (zh) * 2019-12-24 2020-05-08 杭州魔点科技有限公司 活体检测方法、装置、电子设备及介质
CN113255401A (zh) * 2020-02-10 2021-08-13 深圳市光鉴科技有限公司 3d人脸摄像装置
CN113255400A (zh) * 2020-02-10 2021-08-13 深圳市光鉴科技有限公司 活体人脸识别模型的训练、识别方法、系统、设备及介质
CN111428577A (zh) * 2020-03-03 2020-07-17 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN111428577B (zh) * 2020-03-03 2022-05-03 电子科技大学 一种基于深度学习与视频放大技术的人脸活体判断方法
CN113591514B (zh) * 2020-04-30 2024-03-29 杭州海康威视数字技术股份有限公司 指纹活体检测方法、设备及存储介质
CN113591514A (zh) * 2020-04-30 2021-11-02 杭州海康威视数字技术股份有限公司 指纹活体检测方法、设备及存储介质
WO2021218823A1 (zh) * 2020-04-30 2021-11-04 杭州海康威视数字技术股份有限公司 指纹活体检测方法、设备及存储介质
CN111695515A (zh) * 2020-06-12 2020-09-22 百度在线网络技术(北京)有限公司 视频图像的检测方法、装置、电子设备及存储介质
CN111803031A (zh) * 2020-07-03 2020-10-23 赵永翔 一种非接触式吸毒人员复吸监测方法及系统
CN111879724A (zh) * 2020-08-05 2020-11-03 中国工程物理研究院流体物理研究所 基于近红外光谱成像的人皮面具识别方法及系统
CN114639129A (zh) * 2020-11-30 2022-06-17 北京君正集成电路股份有限公司 一种用于门禁系统的纸张介质活体检测方法
CN114639129B (zh) * 2020-11-30 2024-05-03 北京君正集成电路股份有限公司 一种用于门禁系统的纸张介质活体检测方法
CN112766094A (zh) * 2021-01-05 2021-05-07 清华大学 一种通过视频提取ppg信号的方法及其系统
WO2022156441A1 (zh) * 2021-01-21 2022-07-28 展讯通信(上海)有限公司 活体检测方法及装置、存储介质、终端
CN112733791B (zh) * 2021-01-21 2022-09-30 展讯通信(上海)有限公司 活体检测方法及装置、存储介质、终端
CN112733791A (zh) * 2021-01-21 2021-04-30 展讯通信(上海)有限公司 活体检测方法及装置、存储介质、终端
CN114140854A (zh) * 2021-11-29 2022-03-04 北京百度网讯科技有限公司 一种活体检测方法、装置、电子设备及存储介质
CN113963427A (zh) * 2021-12-22 2022-01-21 浙江工商大学 一种快速活体检测的方法与系统

Similar Documents

Publication Publication Date Title
CN108549884A (zh) 一种活体检测方法及装置
Liu et al. Learning deep models for face anti-spoofing: Binary or auxiliary supervision
CN104123536B (zh) 用于图像分析的系统和方法
Li et al. Learning to predict gaze in egocentric video
CN103942577B (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
US6141434A (en) Technique for processing images
CN106530279B (zh) 一种图像处理方法及系统
CN107808115A (zh) 一种活体检测方法、装置及存储介质
CN108549886A (zh) 一种人脸活体检测方法及装置
CN104123543B (zh) 一种基于人脸识别的眼球运动识别方法
CN109858439A (zh) 一种基于人脸的活体检测方法及装置
CN106845328B (zh) 一种基于双摄像头的智能人脸识别方法及系统
CN107832677A (zh) 基于活体检测的人脸识别方法及系统
CN111524080A (zh) 脸部皮肤特征的识别方法、终端及计算机设备
US6421462B1 (en) Technique for differencing an image
CN105426843B (zh) 一种单镜头下掌静脉和掌纹图像采集装置及图像增强和分割方法
CN103400110A (zh) Atm取款机前的异常人脸检测方法
CN104361326A (zh) 一种判别活体人脸的方法
CN103942539B (zh) 一种人头部椭圆精确高效提取及遮蔽人脸检测方法
CN106056064A (zh) 一种人脸识别方法及人脸识别装置
CN112396011B (zh) 一种基于视频图像心率检测及活体检测的人脸识别系统
CN109558825A (zh) 一种基于数字视频图像处理的瞳孔中心定位方法
CN109190456B (zh) 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法
CN108416291A (zh) 人脸检测识别方法、装置和系统
CN110163126A (zh) 一种基于人脸的活体检测方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination