CN113963427A - 一种快速活体检测的方法与系统 - Google Patents

一种快速活体检测的方法与系统 Download PDF

Info

Publication number
CN113963427A
CN113963427A CN202111580954.0A CN202111580954A CN113963427A CN 113963427 A CN113963427 A CN 113963427A CN 202111580954 A CN202111580954 A CN 202111580954A CN 113963427 A CN113963427 A CN 113963427A
Authority
CN
China
Prior art keywords
sequence
local
living body
detection
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111580954.0A
Other languages
English (en)
Other versions
CN113963427B (zh
Inventor
徐晓刚
王小龙
徐冠雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202111580954.0A priority Critical patent/CN113963427B/zh
Publication of CN113963427A publication Critical patent/CN113963427A/zh
Application granted granted Critical
Publication of CN113963427B publication Critical patent/CN113963427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种快速活体检测的方法与系统,属于活体检测领域。通过构建真实人脸图像和二次拍摄人脸图像的多尺度、多旋转角度下的频谱图,将频谱图在水平和垂直方向上的投影向量作为特征向量,既能够充分提取到图像的摩尔纹特征,又无需依赖复杂的神经网络结构,实现了对视频重播攻击手段的快速检测。利用人脸图像的面部总体信号与局部感兴趣信号的相关性来构建血容积分布,在此基础上计算频率峰值分布,结合阈值分割模型实现了对包含生理信号区域的精准定位,能够对高仿真面具和高清图片攻击进行高精度检测。本发明无需指定面部动作配合检测,仅通过采集面部视频即可进行综合检测,覆盖了主要的活体检测攻击方式,具备高的检测精度及检测速度。

Description

一种快速活体检测的方法与系统
技术领域
本发明涉及图像处理领域,尤其涉及一种快速活体检测的方法与系统。
背景技术
当前,基于信号处理技术和深度学习技术实现活体攻击检测具有较高的实用价值,因此是当前研究的热点和难点。活体检测多应用于安全验证,对活体攻击检测精度、检测速度和检测范围都有着较高的要求,往往需要待检测对象随机实施指定的面部动作配合检测,但是这种检测方式并不能完全防止高精度仿真面具攻击等手段,而且在检测过程中用户易感到不适或尴尬。在现有技术中普遍存在的问题:检测方式或手段单一,无法有效覆盖大部分典型的活体检测攻击手段,且单一检测方法易存在明显的漏洞,容易被识别和利用。
发明内容
为了提升针对活体检测攻击行为的识别,本发明提出了一种快速活体检测的方法与系统,该方法能够基于摄像头拍摄的视频和活体攻击手段所具有的特定的信号特征,结合信号处理技术和深度学习技术实现了对视频重播攻击、高精度面具及图像攻击的检测,所提出的方法易于工程实现,且具备较高的检测精度和速度。
本发明的目的是通过以下技术方案来实现的:
本发明的其中一个目的在于提供一种快速活体检测的方法,包括以下步骤:
步骤1,获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
步骤2,对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,采用步骤1的方法提取多尺度二次拍摄图像的特征向量;
步骤3,利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
步骤4,提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
步骤5,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
步骤6,将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
步骤7,若步骤3和步骤6的检测结果均为活体,则最终判断结果为活体,否则,最终判断为非活体。
进一步的,步骤1中,将频谱以固定角度旋转,旋转后的频谱表示为:
Figure 742123DEST_PATH_IMAGE001
其中,
Figure 987159DEST_PATH_IMAGE002
表示第i帧图像j尺度条件下第p+1次旋转对应的频谱,
Figure 298055DEST_PATH_IMAGE003
表示旋转角度步长,
Figure 224423DEST_PATH_IMAGE004
表示第p次旋转得到的坐标,
Figure 569953DEST_PATH_IMAGE005
表示第p+1次旋转得 到的坐标。
进一步的,步骤1中,将频谱以固定角度第次旋转后投影到水平和垂直方向上,分别得到水平方向上的一维向量和垂直方向上的一维向量,连接后作为该次旋转后的特征向量;遍历所有的帧图像以及每一个帧图像的所有尺度,将每一个帧图像不同尺度对应的特征向量横向连接,作为帧图像的多尺度特征向量,将不同帧图像对应的多尺度特征向量纵向连接,构成多维度矩阵作为最终特征。
进一步的,所述的血液容积分布的计算具体为:
针对待进行活体检测的视频对应的人脸图像序列,将每一个人脸图像的平均像素强度作为面部总体信号,根据时间序列构成面部总体信号集合,去噪化处理并提取频谱图;
以及,将每一个人脸图像分割成子块,将每一个子块作为一个局部感兴趣信号,根据位置序列和时间序列构成局部感兴趣信号集合,去噪化处理并提取频谱图;
计算面部总体信号集合的频谱图与每一个局部感兴趣信号频谱图的相关性,将相关性结果作为血液容积分布。
进一步的,所述的计算所有局部感兴趣信号的频率峰值分布,具体为:
获取所有局部感兴趣信号的峰值列表:
Figure 923574DEST_PATH_IMAGE006
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;RQ表示将人脸图像分割的行数和列数;
从峰值列表中筛选出第一局部区域位置集合中的局部感兴趣信号对应的频率峰值,取均值作为参考频率峰值;
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
Figure 754389DEST_PATH_IMAGE007
其中,hr pro 表示所有局部感兴趣信号的频率峰值分布,hr ref 表示参考频率峰值,r 表示常数,
Figure 484448DEST_PATH_IMAGE008
表示取绝对值。
本发明的其中一个目的在于提供一种快速活体检测的系统,用于实现上述的快速活体检测的方法。
与现有技术相比,本发明的优势在于:
1)本发明通过构建真实人脸图像和二次拍摄人脸图像的多尺度、多旋转角度下的频谱图,将频谱图在水平和垂直方向上的投影向量作为特征向量实现维度压缩,既能够充分提取到图像的摩尔纹特征,在不损失特征信息的基础上,又可降低特征向量的维度,实现了对视频重播攻击手段的快速检测。
2)本发明利用人脸图像的面部总体信号与局部感兴趣信号的相关性来构建血容积分布,结合血容积分布和阈值分割模型提取包含生理信号的局部空间位置集合,得到了初步筛选下的具有生理信号的面部局部位置集合;并基于该集合中的频率峰值计算所有局部感兴趣信号的频率峰值分布,进一步结合频率峰值分布和阈值分割模型提取包含生理信号的局部空间位置集合,两次结果取交集,实现了对包含生理信号区域的精准定位,能够对高仿真面具和高清图片攻击进行高精度检测。
3)本发明无需指定待检测对象实施面部动作配合检测,仅通过采集面部视频即可同时进行综合检测,检测方法针对活体检测攻击手段所具有典型特征,能够对主要的活体检测攻击方式进行高精度、快速检测,具备较高实际应用价值。
附图说明
图1是活体攻击检测流程图。
图2是直接拍摄人脸效果及其谱分布(左上、右上图),通过手机屏幕二次拍摄人脸效果及其谱分布(左下,右下图)。
图3是血容积分布示意图(左图),心率分布示意图(右图)。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本实施例公开了一种快速活体检测的方法,如图1所示,主要包括四方面的内容:(1)视频数据的预处理;(2)基于摩尔纹特征的活体检测;(3)基于生理信号分布特征的活体检测;(4)活体最终检测结果。下面对四部分的内容进行介绍。
(1)视频数据的预处理:
人脸拍摄:基于摄像头光学传感器获取现实世界人面部图像,即首先通过光学传感器将光学信号转换为电信号,并将电信号转换为离散数字信号,从而实现人脸的拍摄和存储。人脸拍摄过程简化为对人脸光学信号的离散采样,如公式1所示。
Figure 684485DEST_PATH_IMAGE009
其中,pic raw 表示离散的人脸图像数字信号,sig face 表示包含人脸信息的电信号,
Figure 474587DEST_PATH_IMAGE010
表示冲击采样信号,用于对电信号的离散采样,
Figure 291233DEST_PATH_IMAGE011
表示冲击函 数,nm分别对应xy方向的液晶单元的数量;T x0T y0表示冲击采样信号在xy两个方向的 采样周期,*表示乘积运算符。
从人脸拍摄的视频中提取帧图像frame i ,本实施例中,采用MTCNN模型从帧图像frame i 中进一步提取人脸图像和人脸关键点。
face i, critical i =MTCNN(frame i ) (2)
其中,frame i 表示视频第i帧图像,face i 表示从视频第i帧图像提取得到的人脸图像,critical i 为从视频第i帧图像提取得到的人脸图像对应的关键位置点信息。
按照视频帧的顺序,由视频中每一帧对应的人脸图像及关键位置点信息,构成人脸图像序列。
该步骤得到的视频、帧图像序列及人脸图像序列用于后续计算。
(2)基于摩尔纹特征的活体检测:
基于帧图像序列,检测是否存在摩尔纹现象,防止视频重播攻击。其过程主要包括:人脸显示、二次拍摄、多尺度拍摄、特征提取和特征判别。由于特征判别所使用的神经网络模型需要预先训练,因此该步骤需要根据真实的人脸图像和二次拍摄的人脸图像分别构建正样本集和负样本集。负样本集的构造需要先将拍摄得到的人脸图像基于显示器进行显示,再对显示器上显示的人脸图像进行二次拍摄,具体为:
(2.1)人脸显示:显示器基于像素(液晶单元)实现人脸数字信号的显示,过程描述如公式3所示。
Figure 857606DEST_PATH_IMAGE012
其中,pic show 表示显示器所显示的人脸图像,称为显示人脸图像;pic raw 表示离散的人脸图像数字信号,*表示乘积运算符,rect(x,y)表示栅格采样函数,用于描述显示器光栅单元显示现象,如公式4所示。
Figure 443308DEST_PATH_IMAGE013
其中,sig square (.)表示方波函数,p x p y 分别表示xy方向方波宽度系数,满足条件p x p y 属于(0,1),T x1T y1分别表示方波函数xy方向周期。
为更加清晰表达问题,采用频域形式对公式4所述方波函数sig square (.)进行表述,xy方向方波周期的频域形式如公式5所示:
Figure 669890DEST_PATH_IMAGE014
基于公式5,采用一般形式表述公式4所述方波函数sig square (.)的频域形式,如公式6所示。当方波旋转角度为0°时,公式6退化为公式5所示形式。
Figure 504991DEST_PATH_IMAGE015
公式5、6中,SIG square (.)表示方波sig square (.)的频域形式,a nm b nm 分别表示相应的 傅里叶系数,w x w y 分别表示频域xy方向变量,
Figure 875054DEST_PATH_IMAGE016
表示方波旋转角度。由此,可得栅格采样 函数rect(.)的频域形式,如公式7所示:
Figure 315263DEST_PATH_IMAGE017
其中,RECT(.)表示栅格采样函数rect(.)的频域形式,c nm 表示频域卷积得到的系 数,
Figure 181588DEST_PATH_IMAGE018
表示冲击函数,T x1T y1表示方波信号在时域xy方向的采样周期,w x w y 分别表示频 域xy方向变量,
Figure 972826DEST_PATH_IMAGE019
表示方波旋转角度,
Figure 84264DEST_PATH_IMAGE020
表示卷积运算符。
(2.2)显示人脸图像二次拍摄:使用摄像头对显示器中的显示人脸图像进行二次拍摄,基本过程描述如公式8所示。
Figure 113400DEST_PATH_IMAGE021
其中,pic fake 表示摄像头对显示器显示人脸图像进行二次拍摄后的图像,pmatrix(.)表示感光阵列采样函数,用于描述摄像头对显示器显示图像的二次采样,xy表示空间位置变量,*表示乘积运算符。
将感光阵列采样函数pmatrix(.)由时域转化成频域形式,如公式9所示:
Figure 681785DEST_PATH_IMAGE022
其中,T x2T y2表示冲击采样信号在时域xy方向的采样周期,w x w y 分别表示频域xy方向变量。
基于公式7、9,可得:
Figure 429161DEST_PATH_IMAGE023
其中,F{.}表示傅里叶变换,d nm 表示频域卷积得到的系数,T x1T y1表示方波信号在 时域xy方向周期,
Figure 842824DEST_PATH_IMAGE024
表示方波旋转角度,T x2T y2表示冲击采样信号在时域xy方向的采样 周期,w x w y 分别表示频域xy方向变量,
Figure 726467DEST_PATH_IMAGE025
表示卷积运算符,*表示乘积运算符。
由此,可得:
Figure 465753DEST_PATH_IMAGE026
其中,PIC fake (.)表示pic fake (.)的频域形式,PIC raw (.)表示离散的人脸图像数字信号pic raw (.)的频域形式,e nm 表示频域卷积得到的系数,其余符号意义与前述相同。
通过步骤(2.1)和步骤(2.2),采集到了二次拍摄图像作为负样本;正样本则直接利用由真实人脸直接拍摄得到的帧图像序列。为了更好的提取到显示器的摩尔纹特征,分别对正样本图像和负样本图像进行多尺度的放大,具体为:
(2.3)待检测对象多尺度放大或拍摄:
摄像头获取摩尔纹相关因素包括摄像头拍摄分辨率和摄像头与被拍摄对象之间的距离,因此在不调整摄像头空间位置的前提下,通过摄像机自动调整不同放大倍数(分辨率)进行图像序列采样,提高感知摩尔纹的能力。
Figure 936311DEST_PATH_IMAGE027
其中,
Figure 888086DEST_PATH_IMAGE028
表示第i帧图像对应的多尺度图像序列,i表示 从第i帧图像获取图像序列,J表示多尺度的数量,cap multi 表示多尺度拍摄函数,frame i 表示 第i帧图像。上述多尺度拍摄图像序列中每个图像作为特征提取的对象,即公式11中所述PIC fake ,用于判断待检测对象是否存在摩尔纹特征。
(2.4)特征提取:
为了提升摩尔纹检测速度,采用图像频谱旋转投影方式进行特征提取。基于公式11,以固定角度旋转PIC fake ,得到水平和垂直方向上的投影向量,如公式13至15所示。
Figure 422973DEST_PATH_IMAGE029
其中,
Figure 333160DEST_PATH_IMAGE030
表示第i帧图像j尺度条件下第p+1次旋转对应的频谱,
Figure 55128DEST_PATH_IMAGE031
表示旋转角度步长,
Figure 843218DEST_PATH_IMAGE032
表示第p次旋转得到的坐标,
Figure 701452DEST_PATH_IMAGE033
表示第p+1次旋转得 到的坐标。
基于公式13,频谱投影到w x w y 方向获取一维特征向量,如公式14、15所示。
Figure 516962DEST_PATH_IMAGE034
其中,vxvy分别表示通过投影得到xy方向上的特征向量,因此可得:
Figure 726226DEST_PATH_IMAGE035
公式16中,cat(.)表示连接函数,
Figure 285383DEST_PATH_IMAGE036
表示第i帧图像j尺度条件下第p+1次旋转 对应的特征向量。基于公式13至16,将每一帧图像每一尺度下多次旋转后的特征向量拼接 起来,作为第i帧图像在第j个尺度下的特征向量v ij ,如公式17所示:
Figure 263704DEST_PATH_IMAGE037
其中,
Figure 763298DEST_PATH_IMAGE038
表示第i帧图像j尺度对应的第
Figure 194279DEST_PATH_IMAGE039
次旋转下的特征向量,cat(.)表示 连接函数,
Figure 291548DEST_PATH_IMAGE040
表示旋转投影的次数。
进一步可得第i帧图像对应的多尺度特征向量序列,如公式18所示:
Figure 389954DEST_PATH_IMAGE041
其中,v i 表示第i帧图像在不同尺度下提取得到特征向量构成的序列,J表示多尺度的数量,v ij 表示第i帧图像j尺度对应的特征向量序列,所有帧图像所有尺度对应的特征向量序列构成多维度矩阵,作为最终特征,如公式19所示。
Figure 547266DEST_PATH_IMAGE042
其中,v表示所有帧图像所有尺度下提取得到特征向量构成的多维度矩阵,T表示待检测视频帧图像的数量。
正样本和负样本均通过该步骤所述的方法提取特征。
(2.5)特征判别:基于卷积神经网络对步骤(2.4)获取的特征向量序列进行波形判别,该判别网络模型记为Netcnn。判别过程如公式20、21所示:
Figure 465544DEST_PATH_IMAGE043
其中,v nrom 表示对原始特征向量序列的规范化形式,mean(.)表示计算特征向量序 列的均值,var(.)表示特征计算向量序列方差,prob表示特征v nrom 属于摩尔纹的置信度,
Figure 133548DEST_PATH_IMAGE044
,0表示无摩尔纹特征,值越大说明摩尔纹特征存在的可能性越大。
本发明无需依赖复杂的神经网络结构,常规的CNN神经网络即可实现。利用上述的正负样本对应的最终特征,对CNN神经网络训练,训练后的CNN神经网络用于对待进行活体检测的视频进行判断,判断过程为:首先,提取待检测视频的帧图像,根据步骤(2.3)获取帧图像对应的多尺度图像,再利用步骤(2.4)提取最终特征,作为训练好的CNN神经网络的输入,得到检测结果。
(3)基于生理信号分布特征的活体检测:
提取待进行活体检测的视频对应的人脸图像序列,人脸图像序列的提取过程参照步骤(1)。从人脸图像序列中提取人体生理信号,将该信号作为判别是否为真实人脸的依据,可用于防止高仿真人脸面罩攻击。其过程主要包括:信号提取及预处理、构建阈值分割模型、生理信号分布特征提取、生理信号分布检测。
(3.1)信号提取及预处理:
提取待进行活体检测的视频对应的人脸图像序列,如公式22所示:
Figure 820881DEST_PATH_IMAGE045
其中,face list 为人脸图像序列,face i 为第i帧视频对应的人脸图像,T为视频帧序列长度。基于公式22所示人脸图像序列,分别提取面部总体信号集合和面部roi(region ofinteresting,感兴趣区域)信号集合。面部总体信号计算如公式23所示。
Figure 149094DEST_PATH_IMAGE046
其中:facesig为提取得到的面部总体信号集合,称为全局信号,
Figure 289088DEST_PATH_IMAGE047
T表 示视频帧数量,PicSqueeze(.)为信号提取函数,用于计算人脸图像序列中每一幅人脸图像 的平均像素强度。
为了便于分析信号的分布,人脸图像划分为R×Q个子块,并得到时间维度上的子块图像序列,如公式24所示。
Figure 259318DEST_PATH_IMAGE048
其中,faceroi i 为第iroi子块图像序列对应的信号,即第i个局部感兴趣信号,faceroi为所有roi子块图像序列构成的集合,称为局部感兴趣信号集合,
Figure 801158DEST_PATH_IMAGE049
R、Q分别为水平、垂直方向上roi子块数量,T表示视频帧数量。
对公式23、24所示信号进行去噪优化,如公式25、26所示:
Figure 300273DEST_PATH_IMAGE050
Figure 694607DEST_PATH_IMAGE051
其中:sigprocess(.)为去噪优化函数,facesig refine 、faceroi refine 分别为经过处 理的面部总体信号和局部感兴趣信号,
Figure 937370DEST_PATH_IMAGE052
Figure 333716DEST_PATH_IMAGE053
T为视频帧数 量。
(3.2)构建分割阈值分割模型:
基于相关系数估计最优分割阈值,用于分割包含人体生理信号区域,所述的分割阈值分割模型具体为:
假设hist={hist(0),hist(1),…,hist(μ),…,hist(N)}为直方图尺度序列,即hist序列将指定数值范围等间隔分割,即该序列中所有元素值是单调递增的,其长度为N。假设thre表示阈值序列,如公式27所示形式,其中第i个元素表示为thre i ,即表示第i个分割阈值,thre序列所有元素均唯一对应于hist序列中某元素,即thre序列中所有元素的值均不相等,thre序列长度为K,将指定数值范围分解为K+1段。
Figure 3732DEST_PATH_IMAGE054
假设
Figure 383897DEST_PATH_IMAGE055
为待分割序列对应的直方图序列,长度为N,其中 第
Figure 430351DEST_PATH_IMAGE056
个元素
Figure 244985DEST_PATH_IMAGE057
表示待分割序列中元素的数值分布在
Figure 85902DEST_PATH_IMAGE058
的数量,
Figure 953364DEST_PATH_IMAGE059
x(0)在数值上等于待分割序列中的元素分布在[0, hist(0)]的数量。
假设
Figure 600246DEST_PATH_IMAGE060
为直方图序列X对应的概率序列,长度为N,其中 第
Figure 971185DEST_PATH_IMAGE061
个元素表示为
Figure 750047DEST_PATH_IMAGE062
,对应于公式31所示
Figure 573647DEST_PATH_IMAGE063
假设u为阈值分割序列,如公式29所示,对应于公式27所示阈值序列,表示将直方图序列分割成K+1段,其中所有分割段长度总和为N;将第i段的期望值表示为u(i),如公式28所示,其中,u j 是分割序列u中的第j个元素,若该元素位第i段,那么该元素的值为u(i)。
Figure 961903DEST_PATH_IMAGE064
其中,u(i)表示第i段的期望值,u j 是分割序列u中的第j个元素,若thre i-1jthre i ,则u j =u(i),i=1,2,...,K;若Njthre K ,则u j =u(K+1)。
阈值分割序列u为;
Figure 187348DEST_PATH_IMAGE065
计算待分割的直方图序列与分割序列u的相关系数:
Figure 370067DEST_PATH_IMAGE066
其中,E x 是待分割的直方图序列的期望,E y 是分割序列的期望,E xy 是待分割的直方 图序列与分割序列乘积的期望,D x 是待分割的直方图序列的方差,Dy是分割序列的方差,
Figure 946542DEST_PATH_IMAGE067
是待分割的直方图序列与分割序列的相关系数。
公式30中所示函数及相关参数计算过程如公式31所示:
Figure 138489DEST_PATH_IMAGE068
通过调整阈值序列元素的数值,公式30所示相关系数会发生变化,通过遍历求解法得到相关系数最大时对应的阈值序列,作为最佳阈值序列;利用最佳阈值序列对直方图序列进行分割,得到包含生理信号的位置集合。
(3.3)生理信号分布特征提取:
首先对公式25、26所示预处理后的面部总体信号和局部感兴趣信号初步计算血液容积的分布,在此基础上,结合频谱峰值对血液容积分布区域进行二次提炼、分割,提升血液容积分布检测精度。
(3.3.1)计算血液容积分布:
基于前述预处理全局信号和局部感兴趣信号,初步计算血液容积分布,如公式32所示。
Figure 985485DEST_PATH_IMAGE069
其中,Vol为血液容积分布,corr(.)为相关计算函数,fs ref 为面部总体信号的频谱,fs roi 为局部感兴趣信号的频谱,(i,j)表示空间位置为ijroi图像子块,RQ分别为划分roi子块在横纵坐标上的数量。
(3.3.2)计算频率峰值分布:
首先,基于步骤(3.1)得到预处理roi子块对应时序信号,如公式26所示,计算每个roi子块对应时序信号的频率峰值;其次,采用步骤(3.2)所示阈值分割模型和基于步骤(3.3.1)得到血液容积分布,计算第一局部区域位置集合和参考频率峰值,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值序列,将频率峰值序列的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;最后,基于局部感兴趣信号的频率峰值分布和阈值分割模型,得到包含生理信号的第二局部区域位置集合;将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合,定位生理信号分布区域。
具体的,首先,基于傅里叶变换提取人脸区域所有roi子块对应时序信号的频率峰值,获取频率峰值列表。
Figure 339105DEST_PATH_IMAGE070
Figure 668456DEST_PATH_IMAGE071
其中,
Figure 398514DEST_PATH_IMAGE072
表示空间位置为(i, j)的roi图像子块对应时序信号的频谱,max(.) 表示取频谱最大值对应的频率,hr (i,j)表示对应的频率峰值,fft(.)表示傅里叶变换。所有roi子块对应的频率峰值构成峰值列表,如公式35所示。
Figure 332972DEST_PATH_IMAGE073
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;PQ表示将人脸图像分割的行数和列数。
其次,采用阈值分割模型和血液容积分布,对生理信号所在区域进行分割,如公式36至38所示。
Figure 388653DEST_PATH_IMAGE074
Figure 175606DEST_PATH_IMAGE075
Figure 443776DEST_PATH_IMAGE076
其中,hist(.)表示直方图计算函数,h Vol 表示计算得到血液容积分布对应的直方图序列,threcal(.)表示阈值分割模型,thre Vol 表示血液容积分布对应的最佳阈值序列,K表示分割次数,findphy(.)表示通过最佳阈值序列对血液容积分布进行分割并返回存在生理信号的区域,作为第一局部区域位置集合truephy Vol
以此为基础,计算参考频率峰值,如公式39所示。
Figure 498320DEST_PATH_IMAGE077
其中,hr ref 表示参考频率峰值,mean(.)表示均值函数,truephy Vol 表示均值计算范围,即获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值。
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
Figure 724902DEST_PATH_IMAGE078
其中,hr pro 表示所有局部感兴趣信号的频率峰值分布,hr ref 表示参考频率峰值,r 表示常数,
Figure 232106DEST_PATH_IMAGE079
表示取绝对值。
利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,如公式41至43所示。
Figure 303967DEST_PATH_IMAGE080
Figure 744176DEST_PATH_IMAGE081
Figure 111966DEST_PATH_IMAGE082
其中,hist(.)表示直方图计算函数,h hr 表示所有局部感兴趣信号的频率峰值分布对应的直方图序列,threcal(.)表示阈值分割模型,thre hr 表示局部感兴趣信号的频率峰值分布对应的最佳阈值序列,findphy(.)表示表示通过最佳阈值序列对局部感兴趣信号的频率峰值分布进行分割并返回存在生理信号的区域,作为第二局部区域位置集合truephy hr
(3.3.3)基于步骤(3.3.1)和(3.3.2),计算最后包含生理信号的最终局部区域位置集合,如公式44所示。
Figure 372046DEST_PATH_IMAGE083
其中,threphy表示包含生理信号的最终局部区域位置集合,
Figure 982019DEST_PATH_IMAGE084
表示交集符号。
(3.4)生理信号分布检测:
计算包含人脸生理信号所在区域位置与考察区域的交叠比率作为判断是否为人脸的依据,基于人脸关键点,选择额头、左右面颊部分区域作为考察区域。计算过程如公式45、46所示。
Figure 276734DEST_PATH_IMAGE085
Figure 579539DEST_PATH_IMAGE086
其中,overlap表示步骤(3.3.3)得到人脸生理信号最终局部区域位置集合与考察区域重叠,refphy表示考察区域;ratio表示交叠比率,作为判断是否为活体的判别依据,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
(4)最终活体检测结果:
基于步骤(2)和(3)分别所示基于摩尔纹特征活体检测和基于血液容积分布特征的活体检测,综合上述两种检测方式,得到活体检测结果,如公式47所示。
Figure 61336DEST_PATH_IMAGE087
其中,res vivo 表示最终活体检测结果,res moire 表示基于摩尔纹特征活体检测结果,res sig 表示基于人脸生理信号特征的活体检测结果,and(.)表示条件与计算,即res moire res sig 同时确认被检测对象为活体的条件下才能得到被检测对象为活体的结论。
图2示出了直接拍摄人脸效果及其谱分布(左上、右上图),以及通过手机屏幕二次拍摄人脸效果及其谱分布(左下,右下图);可见,手机二次拍摄的人脸效果及其谱分布具有明显的摩尔纹,基于摩尔纹特征可实现对视频重播攻击手段的快速检测。
图3示出了血容积分布示意图(左图)和心率分布示意图(右图),说明血容积分布与心率具备相关性,当检测到面部生理信号,可有效证明其为活体,能够对高仿真面具和高清图片攻击进行高精度检测。
与前述的一种快速活体检测的方法的实施例相对应,本申请还提供了一种快速活体检测的系统的实施例,其包括:
视频数据的预处理模块,其用于获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并转换成对应的频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量。
基于摩尔纹特征的活体检测模块,其用于对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,提取多尺度二次拍摄图像的特征向量;
以及,用于利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测。
基于生理信号分布特征的活体检测模块,其用于提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
以及,用于获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
以及,用于将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体。
活体最终检测结果判断模块,其用于结合基于摩尔纹特征的活体检测模块和基于生理信号分布特征的活体检测模块的检测结果,输出最终结果。
对于系统实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为基于摩尔纹特征的活体检测模块,可以是或者也可以不是物理上分开的。另外,在本发明中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述集成的模块或单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现,以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (7)

1.一种快速活体检测的方法,其特征在于,包括以下步骤:
步骤1,获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
步骤2,对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,采用步骤1的方法提取多尺度二次拍摄图像的特征向量;
步骤3,利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
步骤4,提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
步骤5,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
步骤6,将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
步骤7,若步骤3和步骤6的检测结果均为活体,则最终判断结果为活体,否则,最终判断为非活体。
2.根据权利要求1所述的快速活体检测的方法,其特征在于,步骤1中,将频谱以固定角度旋转,旋转后的频谱表示为:
Figure 744302DEST_PATH_IMAGE001
其中,
Figure 627945DEST_PATH_IMAGE002
表示第i帧图像j尺度条件下第p+1次旋转对应的频谱,
Figure 101651DEST_PATH_IMAGE003
表 示旋转角度步长,
Figure 70744DEST_PATH_IMAGE004
表示第p次旋转得到的坐标,
Figure 22520DEST_PATH_IMAGE005
表示第p+1次旋转得到的 坐标。
3.根据权利要求1或2所述的快速活体检测的方法,其特征在于,步骤1中,将频谱以固定角度第次旋转后投影到水平和垂直方向上,分别得到水平方向上的一维向量和垂直方向上的一维向量,连接后作为该次旋转后的特征向量;遍历所有的帧图像以及每一个帧图像的所有尺度,将每一个帧图像不同尺度对应的特征向量横向连接,作为帧图像的多尺度特征向量,将不同帧图像对应的多尺度特征向量纵向连接,构成多维度矩阵作为最终特征。
4.根据权利要求1所述的快速活体检测的方法,其特征在于,所述的血液容积分布的计算具体为:
针对待进行活体检测的视频对应的人脸图像序列,将每一个人脸图像的平均像素强度作为面部总体信号,根据时间序列构成面部总体信号集合,去噪化处理并提取频谱图;
以及,将每一个人脸图像分割成子块,将每一个子块作为一个局部感兴趣信号,根据位置序列和时间序列构成局部感兴趣信号集合,去噪化处理并提取频谱图;
计算面部总体信号集合的频谱图与每一个局部感兴趣信号频谱图的相关性,将相关性结果作为血液容积分布。
5.根据权利要求4所述的快速活体检测的方法,其特征在于,所述的计算所有局部感兴趣信号的频率峰值分布,具体为:
获取所有局部感兴趣信号的峰值列表:
Figure 26248DEST_PATH_IMAGE006
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;RQ表示将人脸图像分割的行数和列数;
从峰值列表中筛选出第一局部区域位置集合中的局部感兴趣信号对应的频率峰值,取均值作为参考频率峰值;
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
Figure 670856DEST_PATH_IMAGE007
其中,hr pro 表示所有局部感兴趣信号的频率峰值分布,hr ref 表示参考频率峰值,r表示 常数,
Figure 628710DEST_PATH_IMAGE008
表示取绝对值。
6.根据权利要求1所述的快速活体检测的方法,其特征在于,所述的阈值分割模型具体为:
thre表示阈值序列:
thre={thre 1, thre 2,…, thre i ,…, thre K }
其中,thre i 表示第i个分割阈值,K表示阈值数量,对应于分割次数;
将直方图尺度序列表示为
Figure 649755DEST_PATH_IMAGE009
,待分割序列对应的 直方图序列X及概率序列P表示为
Figure 507990DEST_PATH_IMAGE010
Figure 589079DEST_PATH_IMAGE011
,其中,
Figure 798343DEST_PATH_IMAGE012
表示直方图尺度序列中的第
Figure 91921DEST_PATH_IMAGE013
个元素,
Figure 559987DEST_PATH_IMAGE014
表 示直方图序列中的第
Figure 546398DEST_PATH_IMAGE015
个元素,
Figure 242959DEST_PATH_IMAGE016
在数值上等于待分割序列中的元素分布在
Figure 340228DEST_PATH_IMAGE017
的数量,
Figure 907475DEST_PATH_IMAGE018
x(0)在数值上等于待分割序列中的元素分布在[0, hist(0)]的数量;
Figure 330366DEST_PATH_IMAGE019
表示直方图序列中第
Figure 281267DEST_PATH_IMAGE020
个元素
Figure 978965DEST_PATH_IMAGE021
对应的概率;
根据阈值序列thre和待分割序列对应的直方图序列的长度N,将直方图序列划分成K+1段;首先计算每一段的期望值,再根据每一段的期望值得到分割序列;
Figure 666298DEST_PATH_IMAGE022
Figure 994511DEST_PATH_IMAGE023
Figure 134505DEST_PATH_IMAGE024
Figure 606200DEST_PATH_IMAGE025
其中,u(i)表示第i段的期望值,u j 是分割序列u中的第j个元素,若thre i-1jthre i ,则u j =u(i),i=1,2,...,K;若Njthre K ,则u j =u(K+1),u为阈值分割序列;
计算直方图序列与分割序列u的相关系数:
Figure 413619DEST_PATH_IMAGE026
其中,E x 是直方图序列的期望,E y 是分割序列的期望,E xy 是直方图序列与分割序列乘积 的期望,D x 是直方图序列的方差,Dy是分割序列的方差,
Figure 912734DEST_PATH_IMAGE027
是直方图序列与分割序列的相关 系数;
通过调整阈值序列,相关系数会发生变化,通过遍历求解法得到相关系数最大时对应的阈值序列,作为最佳阈值序列;利用最佳阈值序列对直方图序列进行分割,得到包含生理信号的局部感兴趣信号的具体位置,构成局部区域位置集合。
7.一种快速活体检测的系统,其特征在于,包括:
视频数据的预处理模块,其用于获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
基于摩尔纹特征的活体检测模块,其用于对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,提取多尺度二次拍摄图像的特征向量;以及,用于利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练,利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
基于生理信号分布特征的活体检测模块,其用于提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;以及,用于获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;以及,用于将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
活体最终检测结果判断模块,其用于结合基于摩尔纹特征的活体检测模块和基于生理信号分布特征的活体检测模块的检测结果,输出最终结果。
CN202111580954.0A 2021-12-22 2021-12-22 一种快速活体检测的方法与系统 Active CN113963427B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111580954.0A CN113963427B (zh) 2021-12-22 2021-12-22 一种快速活体检测的方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111580954.0A CN113963427B (zh) 2021-12-22 2021-12-22 一种快速活体检测的方法与系统

Publications (2)

Publication Number Publication Date
CN113963427A true CN113963427A (zh) 2022-01-21
CN113963427B CN113963427B (zh) 2022-07-26

Family

ID=79473494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111580954.0A Active CN113963427B (zh) 2021-12-22 2021-12-22 一种快速活体检测的方法与系统

Country Status (1)

Country Link
CN (1) CN113963427B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116631010A (zh) * 2023-07-17 2023-08-22 粤港澳大湾区数字经济研究院(福田) 一种交互式关键点检测方法及相关装置

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150073282A1 (en) * 2008-08-08 2015-03-12 Eugene B. Hanlon Spectroscopic detection of brain damage
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN108474841A (zh) * 2015-04-20 2018-08-31 瑞思迈传感器技术有限公司 由特征信号对人类的检测和识别
CN108549884A (zh) * 2018-06-15 2018-09-18 天地融科技股份有限公司 一种活体检测方法及装置
CN109344716A (zh) * 2018-08-31 2019-02-15 深圳前海达闼云端智能科技有限公司 活体检测模型的训练方法、检测方法、装置、介质及设备
CN109558813A (zh) * 2018-11-14 2019-04-02 武汉大学 一种基于脉搏信号的ai深度换脸视频取证方法
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN110532957A (zh) * 2019-08-30 2019-12-03 北京市商汤科技开发有限公司 人脸识别方法及装置、电子设备和存储介质
CN110555930A (zh) * 2019-08-30 2019-12-10 北京市商汤科技开发有限公司 门锁控制方法及装置、电子设备和存储介质
CN110705392A (zh) * 2019-09-17 2020-01-17 Oppo广东移动通信有限公司 一种人脸图像检测方法及装置、存储介质
CN110866498A (zh) * 2019-11-15 2020-03-06 北京华宇信息技术有限公司 一种便携式心率监测装置及其心率监测方法
CN111241957A (zh) * 2020-01-04 2020-06-05 圣点世纪科技股份有限公司 一种基于多特征融合和de-elm的手指静脉活体检测方法
CN111523344A (zh) * 2019-02-01 2020-08-11 上海看看智能科技有限公司 人体活体检测系统及方法
CN111626182A (zh) * 2020-05-25 2020-09-04 浙江大学 一种基于视频的人体心率及面部血容积精确检测方法和系统
US20210089786A1 (en) * 2019-09-23 2021-03-25 Sensority Ltd. Living skin tissue tracking in video stream

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150073282A1 (en) * 2008-08-08 2015-03-12 Eugene B. Hanlon Spectroscopic detection of brain damage
CN108474841A (zh) * 2015-04-20 2018-08-31 瑞思迈传感器技术有限公司 由特征信号对人类的检测和识别
CN106845395A (zh) * 2017-01-19 2017-06-13 北京飞搜科技有限公司 一种基于人脸识别进行活体检测的方法
CN108549884A (zh) * 2018-06-15 2018-09-18 天地融科技股份有限公司 一种活体检测方法及装置
CN109344716A (zh) * 2018-08-31 2019-02-15 深圳前海达闼云端智能科技有限公司 活体检测模型的训练方法、检测方法、装置、介质及设备
CN109558813A (zh) * 2018-11-14 2019-04-02 武汉大学 一种基于脉搏信号的ai深度换脸视频取证方法
CN111523344A (zh) * 2019-02-01 2020-08-11 上海看看智能科技有限公司 人体活体检测系统及方法
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN110555930A (zh) * 2019-08-30 2019-12-10 北京市商汤科技开发有限公司 门锁控制方法及装置、电子设备和存储介质
CN110532957A (zh) * 2019-08-30 2019-12-03 北京市商汤科技开发有限公司 人脸识别方法及装置、电子设备和存储介质
CN110705392A (zh) * 2019-09-17 2020-01-17 Oppo广东移动通信有限公司 一种人脸图像检测方法及装置、存储介质
US20210089786A1 (en) * 2019-09-23 2021-03-25 Sensority Ltd. Living skin tissue tracking in video stream
CN110866498A (zh) * 2019-11-15 2020-03-06 北京华宇信息技术有限公司 一种便携式心率监测装置及其心率监测方法
CN111241957A (zh) * 2020-01-04 2020-06-05 圣点世纪科技股份有限公司 一种基于多特征融合和de-elm的手指静脉活体检测方法
CN111626182A (zh) * 2020-05-25 2020-09-04 浙江大学 一种基于视频的人体心率及面部血容积精确检测方法和系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BOFAN LIN 等: "Face Liveness Detection by rPPG Features and Contextual Patch-Based CNN", 《2019 ASSOCIATION FOR COMPUTING MACHINERY》 *
SHERVIN RAHIMZADEH ARASHLOO 等: "Face Spoofing Detection Based on Multiple Descriptor Fusion Using Multiscale Dynamic Binarized Statistical Image Features", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》 *
李盼盼 等: "基于注意力机制的多特征融合人脸活体检测", 《信息与控制》 *
谢心谦: "智能门禁系统中人脸活体检测方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
陈澎勃: "多模态特征融合的人脸活体检测方法研究", 《万方数据库》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116631010A (zh) * 2023-07-17 2023-08-22 粤港澳大湾区数字经济研究院(福田) 一种交互式关键点检测方法及相关装置
CN116631010B (zh) * 2023-07-17 2023-10-31 粤港澳大湾区数字经济研究院(福田) 一种交互式关键点检测方法及相关装置

Also Published As

Publication number Publication date
CN113963427B (zh) 2022-07-26

Similar Documents

Publication Publication Date Title
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
CN109684925B (zh) 一种基于深度图像的人脸活体检测方法及设备
CN103116763B (zh) 一种基于hsv颜色空间统计特征的活体人脸检测方法
CN111784721B (zh) 基于深度学习的超声内窥图像智能分割与量化方法及系统
CN111862044B (zh) 超声图像处理方法、装置、计算机设备和存储介质
CN108830149B (zh) 一种目标细菌的检测方法及终端设备
CN110021019B (zh) 一种aga临床图像的ai辅助毛发的粗细分布分析方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN111882559B (zh) Ecg信号的获取方法及装置、存储介质、电子装置
CN114764786B (zh) 一种基于超声视频流的病灶区域实时检测装置
CN117197462A (zh) 基于多尺度特征融合和对齐的轻量地基云分割方法及系统
CN113963427B (zh) 一种快速活体检测的方法与系统
CN117710868B (zh) 一种对实时视频目标的优化提取系统及方法
CN118096584A (zh) 基于上下文感知和多尺度扩散网络的超声图像增强方法
CN117876690A (zh) 一种基于异构UNet的超声影像多组织分割方法和系统
Wang et al. Infrared and visible image fusion based on Laplacian pyramid and generative adversarial network.
CN109241932A (zh) 一种基于运动方差图相位特征的热红外人体动作识别方法
CN112837325A (zh) 医学影像图像处理方法、装置、电子设备及介质
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统
Zhang et al. An approach of region of interest detection based on visual attention and gaze tracking
CN111753640B (zh) 一种采用卷积神经网络和长短期记忆检测群养猪玩耍行为的分析方法
Patibandla et al. CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection
CN117558035B (zh) 一种基于图像技术的人物身份识别系统及方法
CN112329606B (zh) 一种活体检测方法、装置、电子设备及可读存储介质
CN112085020B (zh) 一种视觉显著性目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant