CN112766074A - 活体检测方法及装置 - Google Patents
活体检测方法及装置 Download PDFInfo
- Publication number
- CN112766074A CN112766074A CN202011636704.XA CN202011636704A CN112766074A CN 112766074 A CN112766074 A CN 112766074A CN 202011636704 A CN202011636704 A CN 202011636704A CN 112766074 A CN112766074 A CN 112766074A
- Authority
- CN
- China
- Prior art keywords
- detection
- determining
- living body
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 186
- 238000000034 method Methods 0.000 claims abstract description 43
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 23
- 238000001727 in vivo Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 238000001574 biopsy Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 abstract description 14
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000036387 respiratory rate Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 210000001061 forehead Anatomy 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000012880 independent component analysis Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 239000000872 buffer Substances 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physiology (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Pulmonology (AREA)
- Cardiology (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了一种活体检测方法及装置,方法包括:获取目标检测对象的连续帧的检测图像;确定所述的检测图像的特征点;确定所述特征点在连续帧的检测图像中的坐标数据;根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。本发明提供的活体检测方法及装置设计信息安全领域或物联网领域的检测技术,利用检测图像特征点在连续帧的检测图像中的坐标数据,实时获取用户的活体特征,从而判别是否是实时操作的真人,提高活体验证的稳定性和效率。
Description
技术领域
本发明涉及检测技术,进一步涉及信息安全领域或物联网领域的检测技术,具体的讲是一种活体检测方法及装置。
背景技术
随着移动互联网和生物识别技术的发展,人脸已经广泛应用在各种身份识别场景当中,在一些手机应用或者银行终端,用户首次注册使用时,需要进行实时的人脸认证从而实现身份的识别。
人脸认证的过程主要由人脸识别和活体检测这两部分组成。活体检测用于验证当前的认证对象是否处于实时交互状态,现有技术中,面部表情和语音是最常用的方法,人脸认证对象按照提示进行眨眼、张嘴、摇头等操作以及录入一段随机提示的语音。现有技术的活体验证方法存在一定的弊端,一方面,认证对象的表情动作需要控制在一定的速度,录入语音时容易受周围环境的影响;另一方面,对于在视力和发音上有生理缺陷的人来说存在一定的局限性。因此,在人脸认证过程中,需要一种操作简易高效,易用性强的活体验证方法。
发明内容
针对现有技术活体检测中的问题,提供一种操作简易高效,易用性强的活体检测手段,本发明提供了一种活体检测方法,包括:
获取目标检测对象的连续帧的检测图像;
确定所述的检测图像的特征点;
确定所述特征点在连续帧的检测图像中的坐标数据;
根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
同时,本发明还提供一种活体检测装置,包括:
检测图像获取模块,用于获取目标检测对象的连续帧的检测图像;
特征点确定模块,用于确定所述的检测图像的特征点;
坐标数据确定模块,用于确定所述特征点在连续帧的检测图像中的坐标数据;
检测模块,用于根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
同时,本发明还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述方法。
同时,本发明还提供一种计算机可读存储介质,计算机可读存储介质存储有执行上述方法的计算机程序。
本发明提供的活体检测方法及装置,获取目标检测对象的连续帧的检测图像,确定检测图像的特征点,确定特征点在连续帧的检测图像中的坐标数据,根据特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。利用检测图像特征点在连续帧的检测图像中的坐标数据,实时获取用户的活体特征,从而判别是否是实时操作的真人,提高活体验证的稳定性和效率。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的活体检测方法的流程图;
图2为本发明实施例中提供的基于视频生理信号活体验证系统的框图;
图3为本发明实施例中提供的感性取区域和特征点;
图4为本发明实施例中提供的生理特征检测模块流程图;
图5为本发明实施例中提供的基于视频生理信号的活体检测方法;
图6为本发明提供的活体检测装置的框图;
图7为本发明提供的电子设备实施例的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中,活体验证方法存在一定的弊端,一方面,认证对象的表情动作需要控制在一定的速度,录入语音时容易受周围环境的影响;另一方面,对于在视力和发音上有生理缺陷的人来说存在一定的局限性。
为克服现有技术的至少一缺陷,本发明提供了一种活体检测方法,如图1所示,该方法包括:
步骤S101,获取目标检测对象的连续帧的检测图像;
步骤S102,确定所述的检测图像的特征点;
步骤S103,确定所述特征点在连续帧的检测图像中的坐标数据;
步骤S104,根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
本发明提供的活体检测方法,利用获取的目标检测对象的连续帧的检测图像,对检测图像进行图像识别确定其特征点,根据特征点的坐标数据对目标检测对象进行活体检测识别,由于心跳和呼吸引起的身体运动,在垂直方向较为明显,本发明利用特征点检测识别由心跳和呼吸引起的身体运动,从而实现活体检测。
本发明实施例中,所述的获取目标检测对象的连续帧的检测图像包括:
获取目标检测对象进行人脸识别的视频图像;
根据视频图像获取所述目标检测对象的连续帧的检测图像。
本发明一实施例中,利用在人脸验证的过程中获取的视频图像,通过获取的人脸识别过程中的视频图像获取连续帧的检测图像,在人脸识别的过程中实现活体检测,克服现有技术中人脸识别过程中进行活体检测中存在的缺陷。
本发明实施例中,所述的确定所述的检测图像的特征点包括:
从所述检测图像中选取感兴趣区域;
在所述的感兴趣区域内进行特征点选取,确定所述的检测图像的特征点。
具体的本发明实施例中,在人脸的额头位置选取一个合适的感兴趣区域,例如受面部表情干扰较少的区域,在此感兴趣区域内进行特征点检测。
图像的特征点是指能够反映图像本质特征,能够标识图像中目标物体。通过特征点的匹配能够完成图像的匹配。
本发明实施例中,在感兴趣区域内进行特征点检测,确定所述的检测图像的特征点包括:
确定所述感兴趣区域内图像的数学特征;所述数学特征包括:图像的灰度和/或梯度特征;
根据所述的数学特征在所述的感兴趣区域内选取特征点,确定所述的检测图像的特征点。
即本发明一具体实施例中,从检测图像中选取感兴趣区域,选取特征区域内存在局部最大或者最小灰度、梯度特征等数学特征的点作为特征点。本发明实施例中选取人脸额头位置的感兴趣区域检测特征点,并使用现有成熟的跟踪方法(如光流法)对感兴趣区域和特征点进行连续帧的跟踪。人的每个心跳周期和呼吸周期会使身体产生一个微弱的运动(肉眼难以察觉),通过跟踪特征点获取的坐标值(x,y)可描述上述生理运动。
具体的,本发明实施例中,确定所述特征点在连续帧的所述检测图像中的坐标数据包括:
确定特征点在感兴趣区域中Y轴方向的坐标值,将确定的连续帧图像中特征点在感兴趣区域中Y轴方向的坐标值作为所述坐标数据。
具体的,取每一帧图像中的特征点在纵轴方向的Y值作为原始信号,则第i个特征点的运动轨迹可描述为:
yi(t)={yi(1),yi(2),...,yi(T)}
yi(t)即为特征点在连续帧的检测图像中的坐标数据。心跳和呼吸引起的身体运动,在垂直方向较为明显,本发明实施例中利用特征点在连续帧的检测图像中的坐标数据yi(t)可反映心跳和互相的身体运动,从而实现活体检测。
具体的,本发明实施例中,根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果包括:
对所述的特征点在连续帧的检测图像中的坐标数据进行傅里叶变换生成频率检测数据;
确定所述的频率检测数据在预设的频率区间的最大峰值;
根据确定的最大峰值确定目标对象的活体检测特征;其中,所述的活体检测特征包括:呼吸率和/或心率。
具体的,本发明实施例中,对获取的源成分信号yi(t)通过快速傅里叶变换,将时序信号转为频域信号。判断频域信号的每个源成分信号在预设频率区间内的峰值,取峰值最大的源成分信号作为心率信号、呼吸信号,其峰值所对应的频率即为每秒心率、呼吸率。根据确定的心率、呼吸率则可判别当前对象是否为实时操作的真人。本发明实施例中,只有这两个生理特征值都在对应的大小区间内,才可判定为活体。本发明提供的生理特征信号的活体验证方法,用户无需做各种表情动作或者录取语音,极大简化人脸认证的流程,提高活体验证的效率。适用性强,本发明的活体验证方法能适用于视力、语言存在生理缺陷的人群。
下面结合一具体的实施方式对本发明的技术方案作进一步详细阐述。本实施例提供一种基于视频生理信号的活体验证方法,在人脸验证的过程中,通过人脸视频检测用户的心率和呼吸率,实现活体的检测。当获取的心率和呼吸率满足正常人体的数值范围时,则可判定为活体,否则判定为非活体。
图2为本实施例提供的基于视频生理信号活体验证的人脸认证系统的框图。其包括:人脸视频采集模块1,人脸识别模块2,生理特征检测模块3及活体判断模块4。
人脸视频采集模块1,通过配置摄像头的终端(包括但不限于ATM、手机、电脑等)实时采集用户的人脸视频,人脸认证过程中用户应尽量保持静止状态,避免产生各种面部表情和头部出现较大的运动。
人脸识别模块2,利用现有成熟的人脸识别技术对人脸视频采集模块2中的人脸进行实时持续定位与跟踪,本发明实施例中,人脸认证过程中如果出现人脸识别失败的情况则不会进行后续的处理,需要人脸识别成功后才会进入生理特征检测模块3的执行步骤。
生理特征检测模块3,在人脸的额头位置选取一个合适的感兴趣区域(本发明实施例中,选取受面部表情干扰较少的区域作为感兴趣区域),并在此感兴趣区域内进行特征点检测,对特征点和整个感兴趣区域进行连续帧的跟踪。
在人脸检测的同时可进行眼睛的检测,本发明一实施方式中使用现有的眼睛检测技术,如Haar级联分类器检测眼睛,获取眼睛框图,通过眼睛框图(xeye,yeye,heye,weye)确定额上ROI(region of interest,感兴趣区域)的具体位置和大小;
其中,(xeye,yeye)为眼睛框图的左上角的坐标,而heye、weye则为眼睛框图方框的高和宽。则,本发明实施例中额头区域的ROI的计算如下:
xroi=xeye+weye×a
yroi=yeye+heye×b
wroi=c
hroi=d
ROI的位置和大小由参数a,b,c,d决定,本实施例中,xroi、yroi为ROI框图的左上角的坐标,wroi、hroi为ROI方框的高和宽。通过改变参数的值可在人脸框图内任意确定一个感兴趣区域。由于额头位置受面部表情动作的干扰较少,本发明实施例中在额头位置选取一个ROI。
如图3所示,获取特征点在感兴趣区域中Y轴方向的坐标值,根据连续帧的坐标值(x,y)组成的原始信号估计心率和呼吸率。
活体判断模块4,正常人体的心率范围是30~120bpm,呼吸率的范围是12~20次,如果检测得到的心率和呼吸率都在对应范围内,则可判定为活体(即实时操作的用户),否则返回人脸识别模块2重新进行检测。
图4为本发明实施例中生理特征检测模块3进行生理特征检测的流程示意图,包括:特征点检测与跟踪301、获取原始信号302、信号处理303、频域分析304、计算心率和呼吸率305。
特征点在图像中有具体的坐标,并存在局部最大或者最小灰度、梯度特征等数学特征。在图像之间的建立对应关系,经常需要利用图像的特征对比,而角点则可以作为特征点描述图像相应的特征信息。
特征点检测与跟踪301,根据在人脸额头位置的感兴趣区域检测特征点,并使用现有成熟的跟踪方法(如光流法)对感兴趣区域和特征点进行连续帧的跟踪。人的每个心跳周期和呼吸周期会使身体产生一个微弱的运动(肉眼难以察觉),通过跟踪特征点获取的坐标值(x,y)可描述上述生理运动。
获取原始信号302,心跳和呼吸引起的身体运动,在垂直方向较为明显,根据特征点检测与跟踪301获取的坐标值(x,y),取视频每一帧的特征点在纵轴方向的Y值作为原始信号,则第i个特征点的运动轨迹可描述为:
yi(t)={yi(1),yi(2),...,yi(T)}
其中yi(t)为计算心率和呼吸率的原始信号,1,2,3,...,T为视频的连续帧人脸图像序列,yi(1),yi(2),...,yi(T)为特征点对应帧的Y轴坐标值。
本发明实施例中,为方便后续数据处理和减少误差,先对原始信号yi(t)进行归一化处理,即本发明实施例中,对确定的连续帧图像中特征点在感兴趣区域中Y轴方向的坐标数据进行归一化处理,具体如下:
信号处理303,由于原始信号y(t)包含大量噪声成份,影响心率和呼吸率的准确性。正常人体心率30~120bpm对应的频率范围是0.5~2Hz,呼吸率12~20次/分钟对应的频率范围是0.2~0.3Hz。
进一步,本实施例中,采用独立成分分析(Independent Component Analysis,ICA),从hyi(t)、ryi(t)中提取与心率和呼吸相关性更高的信号。即对归一化处理后的连续帧图像中特征点在感兴趣区域中Y轴方向的坐标数据进行独立主成分分析,获取相关性更高的源信号数据作为活体检测的数据。
具体的,本实施例中利用ICA能从一组由不同信号源组成的混合信号中分离出独立成分,即源信号,其数学模型如下:
其中,X(t)=[x1(t),x2(t),…,xn(t)]是线性混合后的观测信号;A是未知的混合矩阵,S(t)=[s1(t),s2(t),…,sn(t)]是源信号。
为了分离出源信号S(t),只要估算出混合矩阵A,便可利用其逆矩阵求得源信号的估算值:
Y(t)=W·X(t)
其中,W是混合矩阵A的逆,即解混矩阵。假设特征点的数量为N,则N个特征点的心率信号和各种噪声信号组成的线性混合信号为:
HX={hy1(t),hy2(t)...hyN(t)}T
N个特征点的呼吸信号和各种噪声信号组成的线性混合信号为:
RX={ry1(t),ry2(t)...ryN(t)}T
HX和RX分别经过ICA分离后,可获取源信号:
HS={hs1(t),hs2(t)...hsN(t)}T
RS={rs1(t),rs2(t)...rsN(t)}T
HS、RS是由N个源成分组成的信号源,步骤S304频域分析中,将每一个源成分信号进行快速傅里叶变换处理(FFT),转换为频域信号:
HW={hw1(t),hw2(t)...hwN(t)}T
RW={rw1(t),rw2(t)...rwN(t)}T
判断HW的每个源成分信号在[0.5,2]频率区间内的峰值,取峰值最大的源成分信号作为心率信号,其峰值所对应的频率fhr即为每秒心率;
同样地,判断RW在[0.2,0.3]频率区间内的峰值,取峰值最大的源成分信号作为呼吸信号,其峰值对应的频率fres为每秒呼吸率。
步骤S305计算心率和呼吸率,根据步骤S304频域分析获得的fhr、fres分别计算出心率hr和呼吸率res:
hr=fhr×60
res=fres×60
图5为本实施例中提供的人脸认证过程中基于视频生理信号的活体检测方法,包含的步骤如下:
步骤S500:人脸视频采集模块1实时采集用户的人脸视频,在认证过程中,用户的头部尽量避免产生较大运动和面部表情。若头部的大动作导致生理特征检测模块3检测失败,则停止后续处理流程并提示用户保持头部状态平稳。人脸识别模块2对采集到的视频进行人脸检测和识别,在整个人脸认证过程中如果识别失败,则停止后续处理流程,重新进行人脸识别。
步骤S501:从人脸识别成功的第一帧图像开始,在人脸的额头位置选取一个矩形的感兴趣区域ROI;ROI(region of interest),感兴趣区域。机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域ROI。
本实施例中,采用现有的特征点检测技术在ROI中进行特征点检测,并使用现有的跟踪技术对特征点进行跟踪。视频可转化为连续帧图像序列,截取每帧图像中的ROI进行处理。
步骤S502:取每帧ROI图像的特征点在纵轴方向的坐标值,一系列连续帧图像的坐标值组成原始信号yi(t)。
步骤S503:将每个特征点的原始信号进行归一化处理和带通滤波,然后采用独立成分分析进行盲源分离,分别获取心率和呼吸的源信号HS、RS。
步骤S504:频域分析304对步骤103获得的HS、RS中的每个源成分信号通过快速傅里叶变换(FFT),将时序信号转为频域信号HW、RW。判断HW的每个源成分信号在[0.5,2]频率区间内的峰值,取峰值最大的源成分信号作为心率信号,其峰值所对应的频率fhr即为每秒心率;同样地,判断RW在[0.2,0.3]频率区间内的峰值,取峰值最大的源成分信号作为呼吸信号,其峰值对应的频率fres为每秒呼吸率。
步骤S505:根据步骤104的峰值频率,计算心率hr=fhr×60,呼吸率res=fres×60,计算所得心率和呼吸率为一个时间段内的平均值,使用一个特定时长的滑动窗对图像序列进行处理,可实现实时检测。
步骤S506:判断用户的心率是否在[30,120]内,呼吸率是否在[12,20]内,若是,则可判别当前对象为实时操作的真人。只有这两个生理特征值都在对应的大小区间内,才可判定为活体,否则继续通过生理信号检测模块3检测心率和呼吸率。
本发明提出一种基于视频生理信号的活体验证方法,用户在进行人脸认证时,通过人脸视频实时获取用户的心率和呼吸率判别是否是实时操作的真人。用户只需保持人脸在视频拍摄范围尽量保持静止状态便可满足活体验证的要求,从而简化了整个人脸认证的操作步骤,提高活体验证的稳定性和效率。
同时,本发明实施例还提供一种活体检测装置,如图6所示,其包括:
检测图像获取模块601,用于获取目标检测对象的连续帧的检测图像;
特征点确定模块602,用于确定所述的检测图像的特征点;
坐标数据确定模块603,用于确定所述特征点在连续帧的检测图像中的坐标数据;
检测模块604,用于根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
本发明实施例中,所述的特征点确定模块包括:
区域选取单元,用于从所述检测图像中选取感兴趣区域;
特征点选取单元,用于在所述的感兴趣区域内进行特征点选取,确定所述的检测图像的特征点。
本发明实施例中,所述的特征点选取单元包括:
特征确定单元,用于确定所述感兴趣区域内图像的数学特征;所述数学特征包括:图像的最大灰度、最小灰度或梯度特征;
选取单元,用于根据所述的数学特征在所述的感兴趣区域内选取特征点,确定所述的检测图像的特征点。
本发明实施例中,所述的检测模块包括:
对所述的特征点在连续帧的检测图像中的坐标数据进行傅里叶变换生成频率检测数据;
确定所述的频率检测数据在预设的频率区间的最大峰值;
根据确定的最大峰值确定目标对象的活体检测特征;其中,所述的活体检测特征包括:呼吸率和/或心率。
对本领域技术人员而言,通过前述实施例的描述可清楚获知本发明提供的活体检测装置的实施方式,在此不再赘述。
本发明实施例还提供一种电子设备,该电子设备可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该电子设备可以参照前述方法及装置的实施例,其内容被合并于此,重复之处不再赘述。
图7为本发明实施例的电子设备600的系统构成的示意框图。如图7所示,该电子设备600可以包括中央处理器100和存储器140;存储器140耦合到中央处理器100。值得注意的是,该图是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
一实施例中,活体检测功能可以被集成到中央处理器100中。其中,中央处理器100可以被配置为进行如下控制:
获取目标检测对象的连续帧的检测图像;
确定所述的检测图像的特征点;
确定所述特征点在连续帧的检测图像中的坐标数据;
根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
如图7所示,该电子设备600还可以包括:通信模块110、输入单元120、音频处理单元130、显示器160、电源170。值得注意的是,电子设备600也并不是必须要包括图7中所示的所有部件;此外,电子设备600还可以包括图7中没有示出的部件,可以参考现有技术。
如图7所示,中央处理器100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器100接收输入并控制电子设备600的各个部件的操作。
其中,存储器140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器100可执行该存储器140存储的该程序,以实现信息存储或处理等。
输入单元120向中央处理器100提供输入。该输入单元120例如为按键或触摸输入装置。电源170用于向电子设备600提供电力。显示器160用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
该存储器140可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器140还可以是某种其它类型的装置。存储器140包括缓冲存储器141(有时被称为缓冲器)。存储器140可以包括应用/功能存储部142,该应用/功能存储部142用于存储应用程序和功能程序或用于通过中央处理器100执行电子设备600的操作的流程。
存储器140还可以包括数据存储部143,该数据存储部143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器140的驱动程序存储部144可以包括电子设备的用于通信功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通信模块110即为经由天线111发送和接收信号的发送机/接收机110。通信模块(发送机/接收机)110耦合到中央处理器100,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。
基于不同的通信技术,在同一电子设备中,可以设置有多个通信模块110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通信模块(发送机/接收机)110还经由音频处理器130耦合到扬声器131和麦克风132,以经由扬声器131提供音频输出,并接收来自麦克风132的音频输入,从而实现通常的电信功能。音频处理器130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器130还耦合到中央处理器100,从而使得可以通过麦克风132能够在本机上录音,且使得可以通过扬声器131来播放本机上存储的声音。
本发明实施例还提供一种计算机可读程序,其中当在电子设备中执行所述程序时,所述程序使得计算机在所述电子设备中执行如上面实施例所述的活体检测方法。
本发明实施例还提供一种存储有计算机可读程序的存储介质,其中所述计算机可读程序使得计算机在电子设备中执行上面实施例所述的活体检测。
本发明提供的活体检测方法及装置,可用于金融领域,用于金融领域人脸识别过程中的活体检测,也可用于除金融领域之外的任意领域的活体检测,本公开活体检测方法及装置的方法和装置的应用领域不做限定。
以上参照附图描述了本发明的优选实施方式。这些实施方式的许多特征和优点根据该详细的说明书是清楚的,因此所附权利要求旨在覆盖这些实施方式的落入其真实精神和范围内的所有这些特征和优点。此外,由于本领域的技术人员容易想到很多修改和改变,因此不是要将本发明的实施方式限于所例示和描述的精确结构和操作,而是可以涵盖落入其范围内的所有合适修改和等同物。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种活体检测方法,其特征在于,所述的方法包括:
获取目标检测对象的连续帧的检测图像;
确定所述的检测图像的特征点;
确定所述特征点在连续帧的检测图像中的坐标数据;
根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
2.如权利要求1所述的活体检测方法,其特征在于,所述的获取目标检测对象的连续帧的检测图像包括:
获取目标检测对象进行人脸识别的视频图像;
根据视频图像获取所述目标检测对象的连续帧的检测图像。
3.如权利要求1所述的活体检测方法,其特征在于,所述的确定所述的检测图像的特征点包括:
从所述检测图像中选取感兴趣区域;
在所述的感兴趣区域内进行特征点选取,确定所述的检测图像的特征点。
4.如权利要求3所述的活体检测方法,其特征在于,所述的在所述的感兴趣区域内进行特征点检测,确定所述的检测图像的特征点包括:
确定所述感兴趣区域内图像的数学特征;所述数学特征包括:图像的最大灰度、最小灰度或梯度特征;
根据所述的数学特征在所述的感兴趣区域内选取特征点,确定所述的检测图像的特征点。
5.如权利要求1所述的活体检测方法,其特征在于,所述的确定所述特征点在连续帧的所述检测图像中的坐标数据包括:
确定特征点在感兴趣区域中Y轴方向的坐标值,将确定的连续帧图像中特征点在感兴趣区域中Y轴方向的坐标值作为所述坐标数据。
6.如权利要求1所述的活体检测方法,其特征在于,所述的根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果包括:
对所述的特征点在连续帧的检测图像中的坐标数据进行傅里叶变换生成频率检测数据;
确定所述的频率检测数据在预设的频率区间的最大峰值;
根据确定的最大峰值确定目标对象的活体检测特征;其中,所述的活体检测特征包括:呼吸率和/或心率。
7.一种活体检测装置,其特征在于,所述的装置包括:
检测图像获取模块,用于获取目标检测对象的连续帧的检测图像;
特征点确定模块,用于确定所述的检测图像的特征点;
坐标数据确定模块,用于确定所述特征点在连续帧的检测图像中的坐标数据;
检测模块,用于根据所述特征点在连续帧的检测图像中的坐标数据对目标对象进行活体检测生成活体检测结果。
8.如权利要求7所述的活体检测装置,其特征在于,所述的特征点确定模块包括:
区域选取单元,用于从所述检测图像中选取感兴趣区域;
特征点选取单元,用于在所述的感兴趣区域内进行特征点选取,确定所述的检测图像的特征点。
9.如权利要求8所述的活体检测装置,其特征在于,所述的特征点选取单元包括:
特征确定单元,用于确定所述感兴趣区域内图像的数学特征;所述数学特征包括:图像的最大灰度、最小灰度或梯度特征;
选取单元,用于根据所述的数学特征在所述的感兴趣区域内选取特征点,确定所述的检测图像的特征点。
10.如权利要求8所述的活体检测装置,其特征在于,所述的检测模块包括:
对所述的特征点在连续帧的检测图像中的坐标数据进行傅里叶变换生成频率检测数据;
确定所述的频率检测数据在预设的频率区间的最大峰值;
根据确定的最大峰值确定目标对象的活体检测特征;其中,所述的活体检测特征包括:呼吸率和/或心率。
11.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至6任一项所述方法的计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011636704.XA CN112766074B (zh) | 2020-12-31 | 2020-12-31 | 活体检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011636704.XA CN112766074B (zh) | 2020-12-31 | 2020-12-31 | 活体检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112766074A true CN112766074A (zh) | 2021-05-07 |
CN112766074B CN112766074B (zh) | 2024-04-16 |
Family
ID=75697928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011636704.XA Active CN112766074B (zh) | 2020-12-31 | 2020-12-31 | 活体检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766074B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190029543A1 (en) * | 2016-01-21 | 2019-01-31 | Oxehealth Limited | Method and apparatus for estimating heart rate |
CN109350030A (zh) * | 2018-08-17 | 2019-02-19 | 西安电子科技大学 | 基于相位放大处理人脸视频心率信号的系统及方法 |
WO2019202305A1 (en) * | 2018-04-16 | 2019-10-24 | Clinicco Ltd | System for vital sign detection from a video stream |
CN111860057A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸图像模糊和活体检测方法、装置、存储介质及设备 |
CN111839489A (zh) * | 2020-05-26 | 2020-10-30 | 合肥工业大学 | 非接触式生理心理健康检测系统 |
CN113962958A (zh) * | 2021-10-21 | 2022-01-21 | 四川大学华西医院 | 一种征象检测方法及装置 |
CN114663455A (zh) * | 2022-03-22 | 2022-06-24 | 聚时领臻科技(浙江)有限公司 | 一种基于函数拟合的亚像素提取方法 |
CN115861395A (zh) * | 2022-10-14 | 2023-03-28 | 中国科学院长春光学精密机械与物理研究所 | 基于U-Net的可见光与SAR遥感图像光流配准方法 |
-
2020
- 2020-12-31 CN CN202011636704.XA patent/CN112766074B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190029543A1 (en) * | 2016-01-21 | 2019-01-31 | Oxehealth Limited | Method and apparatus for estimating heart rate |
WO2019202305A1 (en) * | 2018-04-16 | 2019-10-24 | Clinicco Ltd | System for vital sign detection from a video stream |
CN109350030A (zh) * | 2018-08-17 | 2019-02-19 | 西安电子科技大学 | 基于相位放大处理人脸视频心率信号的系统及方法 |
CN111860057A (zh) * | 2019-04-29 | 2020-10-30 | 北京眼神智能科技有限公司 | 人脸图像模糊和活体检测方法、装置、存储介质及设备 |
CN111839489A (zh) * | 2020-05-26 | 2020-10-30 | 合肥工业大学 | 非接触式生理心理健康检测系统 |
CN113962958A (zh) * | 2021-10-21 | 2022-01-21 | 四川大学华西医院 | 一种征象检测方法及装置 |
CN114663455A (zh) * | 2022-03-22 | 2022-06-24 | 聚时领臻科技(浙江)有限公司 | 一种基于函数拟合的亚像素提取方法 |
CN115861395A (zh) * | 2022-10-14 | 2023-03-28 | 中国科学院长春光学精密机械与物理研究所 | 基于U-Net的可见光与SAR遥感图像光流配准方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112766074B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10546183B2 (en) | Liveness detection | |
CN109726624B (zh) | 身份认证方法、终端设备和计算机可读存储介质 | |
US11132544B2 (en) | Visual fatigue recognition method, visual fatigue recognition device, virtual reality apparatus and storage medium | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
EP3951750A1 (en) | Liveness detection safe against replay attack | |
CN111583355B (zh) | 面部形象生成方法、装置、电子设备及可读存储介质 | |
CN112149615B (zh) | 人脸活体检测方法、装置、介质及电子设备 | |
JP2011203992A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN110072047B (zh) | 图像形变的控制方法、装置和硬件装置 | |
CN111144293A (zh) | 带交互式活体检测的人脸身份认证系统及其方法 | |
TW201220216A (en) | System and method for detecting human emotion and appeasing human emotion | |
US11216648B2 (en) | Method and device for facial image recognition | |
CN106471440A (zh) | 基于高效森林感测的眼睛跟踪 | |
CN109190528B (zh) | 活体检测方法及装置 | |
JP2017120609A (ja) | 感情推定装置、感情推定方法及びプログラム | |
CN111144266A (zh) | 人脸表情的识别方法及装置 | |
CN112949418A (zh) | 说话对象的确定方法、装置、电子设备及存储介质 | |
CN106530377B (zh) | 用于操作三维动画角色的方法和装置 | |
US11893098B2 (en) | Authenticating a user subvocalizing a displayed text | |
CN110069996A (zh) | 头部动作识别方法、装置和电子设备 | |
CN112906571B (zh) | 活体识别方法、装置及电子设备 | |
CN114219868A (zh) | 一种护肤方案推荐方法和系统 | |
CN111507142A (zh) | 人脸表情图像处理方法、装置和电子设备 | |
KR20240117998A (ko) | 뇌파 데이터를 이용하여 훈련된 스코어링 학습 모델을 이용하여 사용자의 집중력을 판단하는 방법 | |
CN110545386B (zh) | 用于拍摄图像的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |