CN113963427A - 一种快速活体检测的方法与系统 - Google Patents
一种快速活体检测的方法与系统 Download PDFInfo
- Publication number
- CN113963427A CN113963427A CN202111580954.0A CN202111580954A CN113963427A CN 113963427 A CN113963427 A CN 113963427A CN 202111580954 A CN202111580954 A CN 202111580954A CN 113963427 A CN113963427 A CN 113963427A
- Authority
- CN
- China
- Prior art keywords
- sequence
- local
- living body
- detection
- signals
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001727 in vivo Methods 0.000 title claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 51
- 230000011218 segmentation Effects 0.000 claims abstract description 45
- 239000008280 blood Substances 0.000 claims abstract description 30
- 210000004369 blood Anatomy 0.000 claims abstract description 30
- 230000001815 facial effect Effects 0.000 claims abstract description 12
- 238000001228 spectrum Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 13
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 claims description 12
- 238000011835 investigation Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 5
- 241000577395 Thenus Species 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 6
- 238000004088 simulation Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 17
- 238000005070 sampling Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000005428 wave function Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 210000002858 crystal cell Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 101100217230 Enterobacteria phage T4 asiA gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000005462 in vivo assay Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种快速活体检测的方法与系统,属于活体检测领域。通过构建真实人脸图像和二次拍摄人脸图像的多尺度、多旋转角度下的频谱图,将频谱图在水平和垂直方向上的投影向量作为特征向量,既能够充分提取到图像的摩尔纹特征,又无需依赖复杂的神经网络结构,实现了对视频重播攻击手段的快速检测。利用人脸图像的面部总体信号与局部感兴趣信号的相关性来构建血容积分布,在此基础上计算频率峰值分布,结合阈值分割模型实现了对包含生理信号区域的精准定位,能够对高仿真面具和高清图片攻击进行高精度检测。本发明无需指定面部动作配合检测,仅通过采集面部视频即可进行综合检测,覆盖了主要的活体检测攻击方式,具备高的检测精度及检测速度。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种快速活体检测的方法与系统。
背景技术
当前,基于信号处理技术和深度学习技术实现活体攻击检测具有较高的实用价值,因此是当前研究的热点和难点。活体检测多应用于安全验证,对活体攻击检测精度、检测速度和检测范围都有着较高的要求,往往需要待检测对象随机实施指定的面部动作配合检测,但是这种检测方式并不能完全防止高精度仿真面具攻击等手段,而且在检测过程中用户易感到不适或尴尬。在现有技术中普遍存在的问题:检测方式或手段单一,无法有效覆盖大部分典型的活体检测攻击手段,且单一检测方法易存在明显的漏洞,容易被识别和利用。
发明内容
为了提升针对活体检测攻击行为的识别,本发明提出了一种快速活体检测的方法与系统,该方法能够基于摄像头拍摄的视频和活体攻击手段所具有的特定的信号特征,结合信号处理技术和深度学习技术实现了对视频重播攻击、高精度面具及图像攻击的检测,所提出的方法易于工程实现,且具备较高的检测精度和速度。
本发明的目的是通过以下技术方案来实现的:
本发明的其中一个目的在于提供一种快速活体检测的方法,包括以下步骤:
步骤1,获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
步骤2,对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,采用步骤1的方法提取多尺度二次拍摄图像的特征向量;
步骤3,利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
步骤4,提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
步骤5,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
步骤6,将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
步骤7,若步骤3和步骤6的检测结果均为活体,则最终判断结果为活体,否则,最终判断为非活体。
进一步的,步骤1中,将频谱以固定角度旋转,旋转后的频谱表示为:
进一步的,步骤1中,将频谱以固定角度第一次旋转后投影到水平和垂直方向上,分别得到水平方向上的一维向量和垂直方向上的一维向量,连接后作为该次旋转后的特征向量;遍历所有的帧图像以及每一个帧图像的所有尺度,将每一个帧图像不同尺度对应的特征向量横向连接,作为帧图像的多尺度特征向量,将不同帧图像对应的多尺度特征向量纵向连接,构成多维度矩阵作为最终特征。
进一步的,所述的血液容积分布的计算具体为:
针对待进行活体检测的视频对应的人脸图像序列,将每一个人脸图像的平均像素强度作为面部总体信号,根据时间序列构成面部总体信号集合,去噪化处理并提取频谱图;
以及,将每一个人脸图像分割成子块,将每一个子块作为一个局部感兴趣信号,根据位置序列和时间序列构成局部感兴趣信号集合,去噪化处理并提取频谱图;
计算面部总体信号集合的频谱图与每一个局部感兴趣信号频谱图的相关性,将相关性结果作为血液容积分布。
进一步的,所述的计算所有局部感兴趣信号的频率峰值分布,具体为:
获取所有局部感兴趣信号的峰值列表:
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;R和Q表示将人脸图像分割的行数和列数;
从峰值列表中筛选出第一局部区域位置集合中的局部感兴趣信号对应的频率峰值,取均值作为参考频率峰值;
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
本发明的其中一个目的在于提供一种快速活体检测的系统,用于实现上述的快速活体检测的方法。
与现有技术相比,本发明的优势在于:
1)本发明通过构建真实人脸图像和二次拍摄人脸图像的多尺度、多旋转角度下的频谱图,将频谱图在水平和垂直方向上的投影向量作为特征向量实现维度压缩,既能够充分提取到图像的摩尔纹特征,在不损失特征信息的基础上,又可降低特征向量的维度,实现了对视频重播攻击手段的快速检测。
2)本发明利用人脸图像的面部总体信号与局部感兴趣信号的相关性来构建血容积分布,结合血容积分布和阈值分割模型提取包含生理信号的局部空间位置集合,得到了初步筛选下的具有生理信号的面部局部位置集合;并基于该集合中的频率峰值计算所有局部感兴趣信号的频率峰值分布,进一步结合频率峰值分布和阈值分割模型提取包含生理信号的局部空间位置集合,两次结果取交集,实现了对包含生理信号区域的精准定位,能够对高仿真面具和高清图片攻击进行高精度检测。
3)本发明无需指定待检测对象实施面部动作配合检测,仅通过采集面部视频即可同时进行综合检测,检测方法针对活体检测攻击手段所具有典型特征,能够对主要的活体检测攻击方式进行高精度、快速检测,具备较高实际应用价值。
附图说明
图1是活体攻击检测流程图。
图2是直接拍摄人脸效果及其谱分布(左上、右上图),通过手机屏幕二次拍摄人脸效果及其谱分布(左下,右下图)。
图3是血容积分布示意图(左图),心率分布示意图(右图)。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本实施例公开了一种快速活体检测的方法,如图1所示,主要包括四方面的内容:(1)视频数据的预处理;(2)基于摩尔纹特征的活体检测;(3)基于生理信号分布特征的活体检测;(4)活体最终检测结果。下面对四部分的内容进行介绍。
(1)视频数据的预处理:
人脸拍摄:基于摄像头光学传感器获取现实世界人面部图像,即首先通过光学传感器将光学信号转换为电信号,并将电信号转换为离散数字信号,从而实现人脸的拍摄和存储。人脸拍摄过程简化为对人脸光学信号的离散采样,如公式1所示。
其中,pic raw 表示离散的人脸图像数字信号,sig face 表示包含人脸信息的电信号, 表示冲击采样信号,用于对电信号的离散采样,表示冲击函
数,n和m分别对应x和y方向的液晶单元的数量;T x0、T y0表示冲击采样信号在x、y两个方向的
采样周期,*表示乘积运算符。
从人脸拍摄的视频中提取帧图像frame i ,本实施例中,采用MTCNN模型从帧图像frame i 中进一步提取人脸图像和人脸关键点。
face i, critical i =MTCNN(frame i ) (2)
其中,frame i 表示视频第i帧图像,face i 表示从视频第i帧图像提取得到的人脸图像,critical i 为从视频第i帧图像提取得到的人脸图像对应的关键位置点信息。
按照视频帧的顺序,由视频中每一帧对应的人脸图像及关键位置点信息,构成人脸图像序列。
该步骤得到的视频、帧图像序列及人脸图像序列用于后续计算。
(2)基于摩尔纹特征的活体检测:
基于帧图像序列,检测是否存在摩尔纹现象,防止视频重播攻击。其过程主要包括:人脸显示、二次拍摄、多尺度拍摄、特征提取和特征判别。由于特征判别所使用的神经网络模型需要预先训练,因此该步骤需要根据真实的人脸图像和二次拍摄的人脸图像分别构建正样本集和负样本集。负样本集的构造需要先将拍摄得到的人脸图像基于显示器进行显示,再对显示器上显示的人脸图像进行二次拍摄,具体为:
(2.1)人脸显示:显示器基于像素(液晶单元)实现人脸数字信号的显示,过程描述如公式3所示。
其中,pic show 表示显示器所显示的人脸图像,称为显示人脸图像;pic raw 表示离散的人脸图像数字信号,*表示乘积运算符,rect(x,y)表示栅格采样函数,用于描述显示器光栅单元显示现象,如公式4所示。
其中,sig square (.)表示方波函数,p x 、p y 分别表示x、y方向方波宽度系数,满足条件p x 、p y 属于(0,1),T x1、T y1分别表示方波函数x、y方向周期。
为更加清晰表达问题,采用频域形式对公式4所述方波函数sig square (.)进行表述,x、y方向方波周期的频域形式如公式5所示:
基于公式5,采用一般形式表述公式4所述方波函数sig square (.)的频域形式,如公式6所示。当方波旋转角度为0°时,公式6退化为公式5所示形式。
公式5、6中,SIG square (.)表示方波sig square (.)的频域形式,a nm 、b nm 分别表示相应的
傅里叶系数,w x 、w y 分别表示频域x、y方向变量,表示方波旋转角度。由此,可得栅格采样
函数rect(.)的频域形式,如公式7所示:
其中,RECT(.)表示栅格采样函数rect(.)的频域形式,c nm 表示频域卷积得到的系
数,表示冲击函数,T x1、T y1表示方波信号在时域x、y方向的采样周期,w x 、w y 分别表示频
域x、y方向变量,表示方波旋转角度,表示卷积运算符。
(2.2)显示人脸图像二次拍摄:使用摄像头对显示器中的显示人脸图像进行二次拍摄,基本过程描述如公式8所示。
其中,pic fake 表示摄像头对显示器显示人脸图像进行二次拍摄后的图像,pmatrix(.)表示感光阵列采样函数,用于描述摄像头对显示器显示图像的二次采样,x、y表示空间位置变量,*表示乘积运算符。
将感光阵列采样函数pmatrix(.)由时域转化成频域形式,如公式9所示:
其中,T x2、T y2表示冲击采样信号在时域x、y方向的采样周期,w x 、w y 分别表示频域x、y方向变量。
基于公式7、9,可得:
其中,F{.}表示傅里叶变换,d nm 表示频域卷积得到的系数,T x1、T y1表示方波信号在
时域x、y方向周期,表示方波旋转角度,T x2、T y2表示冲击采样信号在时域x、y方向的采样
周期,w x 、w y 分别表示频域x、y方向变量,表示卷积运算符,*表示乘积运算符。
由此,可得:
其中,PIC fake (.)表示pic fake (.)的频域形式,PIC raw (.)表示离散的人脸图像数字信号pic raw (.)的频域形式,e nm 表示频域卷积得到的系数,其余符号意义与前述相同。
通过步骤(2.1)和步骤(2.2),采集到了二次拍摄图像作为负样本;正样本则直接利用由真实人脸直接拍摄得到的帧图像序列。为了更好的提取到显示器的摩尔纹特征,分别对正样本图像和负样本图像进行多尺度的放大,具体为:
(2.3)待检测对象多尺度放大或拍摄:
摄像头获取摩尔纹相关因素包括摄像头拍摄分辨率和摄像头与被拍摄对象之间的距离,因此在不调整摄像头空间位置的前提下,通过摄像机自动调整不同放大倍数(分辨率)进行图像序列采样,提高感知摩尔纹的能力。
其中,表示第i帧图像对应的多尺度图像序列,i表示
从第i帧图像获取图像序列,J表示多尺度的数量,cap multi 表示多尺度拍摄函数,frame i 表示
第i帧图像。上述多尺度拍摄图像序列中每个图像作为特征提取的对象,即公式11中所述PIC fake ,用于判断待检测对象是否存在摩尔纹特征。
(2.4)特征提取:
为了提升摩尔纹检测速度,采用图像频谱旋转投影方式进行特征提取。基于公式11,以固定角度旋转PIC fake ,得到水平和垂直方向上的投影向量,如公式13至15所示。
基于公式13,频谱投影到w x 、w y 方向获取一维特征向量,如公式14、15所示。
其中,vx、vy分别表示通过投影得到x、y方向上的特征向量,因此可得:
公式16中,cat(.)表示连接函数,表示第i帧图像j尺度条件下第p+1次旋转
对应的特征向量。基于公式13至16,将每一帧图像每一尺度下多次旋转后的特征向量拼接
起来,作为第i帧图像在第j个尺度下的特征向量v ij ,如公式17所示:
进一步可得第i帧图像对应的多尺度特征向量序列,如公式18所示:
其中,v i 表示第i帧图像在不同尺度下提取得到特征向量构成的序列,J表示多尺度的数量,v ij 表示第i帧图像j尺度对应的特征向量序列,所有帧图像所有尺度对应的特征向量序列构成多维度矩阵,作为最终特征,如公式19所示。
其中,v表示所有帧图像所有尺度下提取得到特征向量构成的多维度矩阵,T表示待检测视频帧图像的数量。
正样本和负样本均通过该步骤所述的方法提取特征。
(2.5)特征判别:基于卷积神经网络对步骤(2.4)获取的特征向量序列进行波形判别,该判别网络模型记为Netcnn。判别过程如公式20、21所示:
其中,v nrom 表示对原始特征向量序列的规范化形式,mean(.)表示计算特征向量序
列的均值,var(.)表示特征计算向量序列方差,prob表示特征v nrom 属于摩尔纹的置信度,,0表示无摩尔纹特征,值越大说明摩尔纹特征存在的可能性越大。
本发明无需依赖复杂的神经网络结构,常规的CNN神经网络即可实现。利用上述的正负样本对应的最终特征,对CNN神经网络训练,训练后的CNN神经网络用于对待进行活体检测的视频进行判断,判断过程为:首先,提取待检测视频的帧图像,根据步骤(2.3)获取帧图像对应的多尺度图像,再利用步骤(2.4)提取最终特征,作为训练好的CNN神经网络的输入,得到检测结果。
(3)基于生理信号分布特征的活体检测:
提取待进行活体检测的视频对应的人脸图像序列,人脸图像序列的提取过程参照步骤(1)。从人脸图像序列中提取人体生理信号,将该信号作为判别是否为真实人脸的依据,可用于防止高仿真人脸面罩攻击。其过程主要包括:信号提取及预处理、构建阈值分割模型、生理信号分布特征提取、生理信号分布检测。
(3.1)信号提取及预处理:
提取待进行活体检测的视频对应的人脸图像序列,如公式22所示:
其中,face list 为人脸图像序列,face i 为第i帧视频对应的人脸图像,T为视频帧序列长度。基于公式22所示人脸图像序列,分别提取面部总体信号集合和面部roi(region ofinteresting,感兴趣区域)信号集合。面部总体信号计算如公式23所示。
为了便于分析信号的分布,人脸图像划分为R×Q个子块,并得到时间维度上的子块图像序列,如公式24所示。
其中,faceroi i 为第i个roi子块图像序列对应的信号,即第i个局部感兴趣信号,faceroi为所有roi子块图像序列构成的集合,称为局部感兴趣信号集合,,R、Q分别为水平、垂直方向上roi子块数量,T表示视频帧数量。
对公式23、24所示信号进行去噪优化,如公式25、26所示:
(3.2)构建分割阈值分割模型:
基于相关系数估计最优分割阈值,用于分割包含人体生理信号区域,所述的分割阈值分割模型具体为:
假设hist={hist(0),hist(1),…,hist(μ),…,hist(N)}为直方图尺度序列,即hist序列将指定数值范围等间隔分割,即该序列中所有元素值是单调递增的,其长度为N。假设thre表示阈值序列,如公式27所示形式,其中第i个元素表示为thre i ,即表示第i个分割阈值,thre序列所有元素均唯一对应于hist序列中某元素,即thre序列中所有元素的值均不相等,thre序列长度为K,将指定数值范围分解为K+1段。
假设u为阈值分割序列,如公式29所示,对应于公式27所示阈值序列,表示将直方图序列分割成K+1段,其中所有分割段长度总和为N;将第i段的期望值表示为u(i),如公式28所示,其中,u j 是分割序列u中的第j个元素,若该元素位第i段,那么该元素的值为u(i)。
其中,u(i)表示第i段的期望值,u j 是分割序列u中的第j个元素,若thre i-1≤j<thre i ,则u j =u(i),i=1,2,...,K;若N≥j≥thre K ,则u j =u(K+1)。
阈值分割序列u为;
计算待分割的直方图序列与分割序列u的相关系数:
其中,E x 是待分割的直方图序列的期望,E y 是分割序列的期望,E xy 是待分割的直方
图序列与分割序列乘积的期望,D x 是待分割的直方图序列的方差,Dy是分割序列的方差,
是待分割的直方图序列与分割序列的相关系数。
公式30中所示函数及相关参数计算过程如公式31所示:
通过调整阈值序列元素的数值,公式30所示相关系数会发生变化,通过遍历求解法得到相关系数最大时对应的阈值序列,作为最佳阈值序列;利用最佳阈值序列对直方图序列进行分割,得到包含生理信号的位置集合。
(3.3)生理信号分布特征提取:
首先对公式25、26所示预处理后的面部总体信号和局部感兴趣信号初步计算血液容积的分布,在此基础上,结合频谱峰值对血液容积分布区域进行二次提炼、分割,提升血液容积分布检测精度。
(3.3.1)计算血液容积分布:
基于前述预处理全局信号和局部感兴趣信号,初步计算血液容积分布,如公式32所示。
其中,Vol为血液容积分布,corr(.)为相关计算函数,fs ref 为面部总体信号的频谱,fs roi 为局部感兴趣信号的频谱,(i,j)表示空间位置为i、j的roi图像子块,R、Q分别为划分roi子块在横纵坐标上的数量。
(3.3.2)计算频率峰值分布:
首先,基于步骤(3.1)得到预处理roi子块对应时序信号,如公式26所示,计算每个roi子块对应时序信号的频率峰值;其次,采用步骤(3.2)所示阈值分割模型和基于步骤(3.3.1)得到血液容积分布,计算第一局部区域位置集合和参考频率峰值,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值序列,将频率峰值序列的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;最后,基于局部感兴趣信号的频率峰值分布和阈值分割模型,得到包含生理信号的第二局部区域位置集合;将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合,定位生理信号分布区域。
具体的,首先,基于傅里叶变换提取人脸区域所有roi子块对应时序信号的频率峰值,获取频率峰值列表。
其中,表示空间位置为(i, j)的roi图像子块对应时序信号的频谱,max(.)
表示取频谱最大值对应的频率,hr (i,j)表示对应的频率峰值,fft(.)表示傅里叶变换。所有roi子块对应的频率峰值构成峰值列表,如公式35所示。
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;P和Q表示将人脸图像分割的行数和列数。
其次,采用阈值分割模型和血液容积分布,对生理信号所在区域进行分割,如公式36至38所示。
其中,hist(.)表示直方图计算函数,h Vol 表示计算得到血液容积分布对应的直方图序列,threcal(.)表示阈值分割模型,thre Vol 表示血液容积分布对应的最佳阈值序列,K表示分割次数,findphy(.)表示通过最佳阈值序列对血液容积分布进行分割并返回存在生理信号的区域,作为第一局部区域位置集合truephy Vol 。
以此为基础,计算参考频率峰值,如公式39所示。
其中,hr ref 表示参考频率峰值,mean(.)表示均值函数,truephy Vol 表示均值计算范围,即获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值。
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,如公式41至43所示。
其中,hist(.)表示直方图计算函数,h hr 表示所有局部感兴趣信号的频率峰值分布对应的直方图序列,threcal(.)表示阈值分割模型,thre hr 表示局部感兴趣信号的频率峰值分布对应的最佳阈值序列,findphy(.)表示表示通过最佳阈值序列对局部感兴趣信号的频率峰值分布进行分割并返回存在生理信号的区域,作为第二局部区域位置集合truephy hr 。
(3.3.3)基于步骤(3.3.1)和(3.3.2),计算最后包含生理信号的最终局部区域位置集合,如公式44所示。
(3.4)生理信号分布检测:
计算包含人脸生理信号所在区域位置与考察区域的交叠比率作为判断是否为人脸的依据,基于人脸关键点,选择额头、左右面颊部分区域作为考察区域。计算过程如公式45、46所示。
其中,overlap表示步骤(3.3.3)得到人脸生理信号最终局部区域位置集合与考察区域重叠,refphy表示考察区域;ratio表示交叠比率,作为判断是否为活体的判别依据,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
(4)最终活体检测结果:
基于步骤(2)和(3)分别所示基于摩尔纹特征活体检测和基于血液容积分布特征的活体检测,综合上述两种检测方式,得到活体检测结果,如公式47所示。
其中,res vivo 表示最终活体检测结果,res moire 表示基于摩尔纹特征活体检测结果,res sig 表示基于人脸生理信号特征的活体检测结果,and(.)表示条件与计算,即res moire 和res sig 同时确认被检测对象为活体的条件下才能得到被检测对象为活体的结论。
图2示出了直接拍摄人脸效果及其谱分布(左上、右上图),以及通过手机屏幕二次拍摄人脸效果及其谱分布(左下,右下图);可见,手机二次拍摄的人脸效果及其谱分布具有明显的摩尔纹,基于摩尔纹特征可实现对视频重播攻击手段的快速检测。
图3示出了血容积分布示意图(左图)和心率分布示意图(右图),说明血容积分布与心率具备相关性,当检测到面部生理信号,可有效证明其为活体,能够对高仿真面具和高清图片攻击进行高精度检测。
与前述的一种快速活体检测的方法的实施例相对应,本申请还提供了一种快速活体检测的系统的实施例,其包括:
视频数据的预处理模块,其用于获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并转换成对应的频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量。
基于摩尔纹特征的活体检测模块,其用于对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,提取多尺度二次拍摄图像的特征向量;
以及,用于利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测。
基于生理信号分布特征的活体检测模块,其用于提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
以及,用于获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
以及,用于将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体。
活体最终检测结果判断模块,其用于结合基于摩尔纹特征的活体检测模块和基于生理信号分布特征的活体检测模块的检测结果,输出最终结果。
对于系统实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为基于摩尔纹特征的活体检测模块,可以是或者也可以不是物理上分开的。另外,在本发明中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。上述集成的模块或单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现,以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (7)
1.一种快速活体检测的方法,其特征在于,包括以下步骤:
步骤1,获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
步骤2,对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,采用步骤1的方法提取多尺度二次拍摄图像的特征向量;
步骤3,利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练;利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
步骤4,提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;
步骤5,获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;
步骤6,将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
步骤7,若步骤3和步骤6的检测结果均为活体,则最终判断结果为活体,否则,最终判断为非活体。
3.根据权利要求1或2所述的快速活体检测的方法,其特征在于,步骤1中,将频谱以固定角度第一次旋转后投影到水平和垂直方向上,分别得到水平方向上的一维向量和垂直方向上的一维向量,连接后作为该次旋转后的特征向量;遍历所有的帧图像以及每一个帧图像的所有尺度,将每一个帧图像不同尺度对应的特征向量横向连接,作为帧图像的多尺度特征向量,将不同帧图像对应的多尺度特征向量纵向连接,构成多维度矩阵作为最终特征。
4.根据权利要求1所述的快速活体检测的方法,其特征在于,所述的血液容积分布的计算具体为:
针对待进行活体检测的视频对应的人脸图像序列,将每一个人脸图像的平均像素强度作为面部总体信号,根据时间序列构成面部总体信号集合,去噪化处理并提取频谱图;
以及,将每一个人脸图像分割成子块,将每一个子块作为一个局部感兴趣信号,根据位置序列和时间序列构成局部感兴趣信号集合,去噪化处理并提取频谱图;
计算面部总体信号集合的频谱图与每一个局部感兴趣信号频谱图的相关性,将相关性结果作为血液容积分布。
5.根据权利要求4所述的快速活体检测的方法,其特征在于,所述的计算所有局部感兴趣信号的频率峰值分布,具体为:
获取所有局部感兴趣信号的峰值列表:
其中,hr list 表示所有局部感兴趣信号的峰值列表,hr (i,j)表示人脸图像分割的第i行第j个局部感兴趣信号对应的频率峰值;R和Q表示将人脸图像分割的行数和列数;
从峰值列表中筛选出第一局部区域位置集合中的局部感兴趣信号对应的频率峰值,取均值作为参考频率峰值;
根据参考频率峰值对所有局部感兴趣信号的峰值列表进行映射,得到所有局部感兴趣信号的频率峰值分布:
6.根据权利要求1所述的快速活体检测的方法,其特征在于,所述的阈值分割模型具体为:
设thre表示阈值序列:
thre={thre 1, thre 2,…, thre i ,…, thre K }
其中,thre i 表示第i个分割阈值,K表示阈值数量,对应于分割次数;
将直方图尺度序列表示为,待分割序列对应的
直方图序列X及概率序列P表示为,,其中,表示直方图尺度序列中的第个元素,表
示直方图序列中的第个元素,在数值上等于待分割序列中的元素分布在的数量,;x(0)在数值上等于待分割序列中的元素分布在[0, hist(0)]的数量;表示直方图序列中第个元素对应的概率;
根据阈值序列thre和待分割序列对应的直方图序列的长度N,将直方图序列划分成K+1段;首先计算每一段的期望值,再根据每一段的期望值得到分割序列;
其中,u(i)表示第i段的期望值,u j 是分割序列u中的第j个元素,若thre i-1≤j<thre i ,则u j =u(i),i=1,2,...,K;若N≥j≥thre K ,则u j =u(K+1),u为阈值分割序列;
计算直方图序列与分割序列u的相关系数:
通过调整阈值序列,相关系数会发生变化,通过遍历求解法得到相关系数最大时对应的阈值序列,作为最佳阈值序列;利用最佳阈值序列对直方图序列进行分割,得到包含生理信号的局部感兴趣信号的具体位置,构成局部区域位置集合。
7.一种快速活体检测的系统,其特征在于,包括:
视频数据的预处理模块,其用于获取真实人脸视频中的帧图像序列,将帧图像序列中的图像进行多尺度放大并表示成频谱图,将频谱图以固定角度旋转后投影到水平和垂直方向上,将多次固定角度旋转后的投影结果连接起来,得到多尺度真实图像的特征向量;
基于摩尔纹特征的活体检测模块,其用于对真实人脸视频中的帧图像序列进行二次多尺度拍摄并表示成频谱图,提取多尺度二次拍摄图像的特征向量;以及,用于利用多尺度真实图像的特征向量和多尺度二次拍摄图像的特征向量对神经网络模型进行训练,利用训练好的神经网络模型对待进行活体检测的视频进行检测,检测结果为活体或非活体;
基于生理信号分布特征的活体检测模块,其用于提取待进行活体检测的视频对应的人脸图像序列,标记人脸图像中的关键点;提取人脸图像序列的面部总体信号集合和局部感兴趣信号集合,根据面部总体信号和局部感兴趣信号的相关性得到血液容积分布;利用阈值分割模型对血液容积分布对应的直方图序列进行分割,得到包含生理信号的第一局部区域位置集合;以及,用于获取第一局部区域位置集合中的局部感兴趣信号的频率峰值,将频率峰值的均值作为参考频率峰值,计算所有局部感兴趣信号的频率峰值分布;利用阈值分割模型对所有局部感兴趣信号的频率峰值分布对应的直方图序列进行分割,得到包含生理信号的第二局部区域位置集合;以及,用于将第一局部区域位置集合和第二局部区域位置集合的交集作为最终局部区域位置集合;根据人脸图像中的关键点确定考察区域,计算最终局部区域位置集合与所述考察区域的交叠比,若交叠比大于阈值,则判断为活体,否则,判断为非活体;
活体最终检测结果判断模块,其用于结合基于摩尔纹特征的活体检测模块和基于生理信号分布特征的活体检测模块的检测结果,输出最终结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111580954.0A CN113963427B (zh) | 2021-12-22 | 2021-12-22 | 一种快速活体检测的方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111580954.0A CN113963427B (zh) | 2021-12-22 | 2021-12-22 | 一种快速活体检测的方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113963427A true CN113963427A (zh) | 2022-01-21 |
CN113963427B CN113963427B (zh) | 2022-07-26 |
Family
ID=79473494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111580954.0A Active CN113963427B (zh) | 2021-12-22 | 2021-12-22 | 一种快速活体检测的方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113963427B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116631010A (zh) * | 2023-07-17 | 2023-08-22 | 粤港澳大湾区数字经济研究院(福田) | 一种交互式关键点检测方法及相关装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150073282A1 (en) * | 2008-08-08 | 2015-03-12 | Eugene B. Hanlon | Spectroscopic detection of brain damage |
CN106845395A (zh) * | 2017-01-19 | 2017-06-13 | 北京飞搜科技有限公司 | 一种基于人脸识别进行活体检测的方法 |
CN108474841A (zh) * | 2015-04-20 | 2018-08-31 | 瑞思迈传感器技术有限公司 | 由特征信号对人类的检测和识别 |
CN108549884A (zh) * | 2018-06-15 | 2018-09-18 | 天地融科技股份有限公司 | 一种活体检测方法及装置 |
CN109344716A (zh) * | 2018-08-31 | 2019-02-15 | 深圳前海达闼云端智能科技有限公司 | 活体检测模型的训练方法、检测方法、装置、介质及设备 |
CN109558813A (zh) * | 2018-11-14 | 2019-04-02 | 武汉大学 | 一种基于脉搏信号的ai深度换脸视频取证方法 |
CN109886244A (zh) * | 2019-03-01 | 2019-06-14 | 北京视甄智能科技有限公司 | 一种人脸识别活体检测方法及装置 |
CN110532957A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置、电子设备和存储介质 |
CN110555930A (zh) * | 2019-08-30 | 2019-12-10 | 北京市商汤科技开发有限公司 | 门锁控制方法及装置、电子设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
CN110866498A (zh) * | 2019-11-15 | 2020-03-06 | 北京华宇信息技术有限公司 | 一种便携式心率监测装置及其心率监测方法 |
CN111241957A (zh) * | 2020-01-04 | 2020-06-05 | 圣点世纪科技股份有限公司 | 一种基于多特征融合和de-elm的手指静脉活体检测方法 |
CN111523344A (zh) * | 2019-02-01 | 2020-08-11 | 上海看看智能科技有限公司 | 人体活体检测系统及方法 |
CN111626182A (zh) * | 2020-05-25 | 2020-09-04 | 浙江大学 | 一种基于视频的人体心率及面部血容积精确检测方法和系统 |
US20210089786A1 (en) * | 2019-09-23 | 2021-03-25 | Sensority Ltd. | Living skin tissue tracking in video stream |
-
2021
- 2021-12-22 CN CN202111580954.0A patent/CN113963427B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150073282A1 (en) * | 2008-08-08 | 2015-03-12 | Eugene B. Hanlon | Spectroscopic detection of brain damage |
CN108474841A (zh) * | 2015-04-20 | 2018-08-31 | 瑞思迈传感器技术有限公司 | 由特征信号对人类的检测和识别 |
CN106845395A (zh) * | 2017-01-19 | 2017-06-13 | 北京飞搜科技有限公司 | 一种基于人脸识别进行活体检测的方法 |
CN108549884A (zh) * | 2018-06-15 | 2018-09-18 | 天地融科技股份有限公司 | 一种活体检测方法及装置 |
CN109344716A (zh) * | 2018-08-31 | 2019-02-15 | 深圳前海达闼云端智能科技有限公司 | 活体检测模型的训练方法、检测方法、装置、介质及设备 |
CN109558813A (zh) * | 2018-11-14 | 2019-04-02 | 武汉大学 | 一种基于脉搏信号的ai深度换脸视频取证方法 |
CN111523344A (zh) * | 2019-02-01 | 2020-08-11 | 上海看看智能科技有限公司 | 人体活体检测系统及方法 |
CN109886244A (zh) * | 2019-03-01 | 2019-06-14 | 北京视甄智能科技有限公司 | 一种人脸识别活体检测方法及装置 |
CN110555930A (zh) * | 2019-08-30 | 2019-12-10 | 北京市商汤科技开发有限公司 | 门锁控制方法及装置、电子设备和存储介质 |
CN110532957A (zh) * | 2019-08-30 | 2019-12-03 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置、电子设备和存储介质 |
CN110705392A (zh) * | 2019-09-17 | 2020-01-17 | Oppo广东移动通信有限公司 | 一种人脸图像检测方法及装置、存储介质 |
US20210089786A1 (en) * | 2019-09-23 | 2021-03-25 | Sensority Ltd. | Living skin tissue tracking in video stream |
CN110866498A (zh) * | 2019-11-15 | 2020-03-06 | 北京华宇信息技术有限公司 | 一种便携式心率监测装置及其心率监测方法 |
CN111241957A (zh) * | 2020-01-04 | 2020-06-05 | 圣点世纪科技股份有限公司 | 一种基于多特征融合和de-elm的手指静脉活体检测方法 |
CN111626182A (zh) * | 2020-05-25 | 2020-09-04 | 浙江大学 | 一种基于视频的人体心率及面部血容积精确检测方法和系统 |
Non-Patent Citations (5)
Title |
---|
BOFAN LIN 等: "Face Liveness Detection by rPPG Features and Contextual Patch-Based CNN", 《2019 ASSOCIATION FOR COMPUTING MACHINERY》 * |
SHERVIN RAHIMZADEH ARASHLOO 等: "Face Spoofing Detection Based on Multiple Descriptor Fusion Using Multiscale Dynamic Binarized Statistical Image Features", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》 * |
李盼盼 等: "基于注意力机制的多特征融合人脸活体检测", 《信息与控制》 * |
谢心谦: "智能门禁系统中人脸活体检测方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
陈澎勃: "多模态特征融合的人脸活体检测方法研究", 《万方数据库》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116631010A (zh) * | 2023-07-17 | 2023-08-22 | 粤港澳大湾区数字经济研究院(福田) | 一种交互式关键点检测方法及相关装置 |
CN116631010B (zh) * | 2023-07-17 | 2023-10-31 | 粤港澳大湾区数字经济研究院(福田) | 一种交互式关键点检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113963427B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111524137B (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
CN109684925B (zh) | 一种基于深度图像的人脸活体检测方法及设备 | |
CN103116763B (zh) | 一种基于hsv颜色空间统计特征的活体人脸检测方法 | |
CN111784721B (zh) | 基于深度学习的超声内窥图像智能分割与量化方法及系统 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
CN108830149B (zh) | 一种目标细菌的检测方法及终端设备 | |
CN110021019B (zh) | 一种aga临床图像的ai辅助毛发的粗细分布分析方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN111882559B (zh) | Ecg信号的获取方法及装置、存储介质、电子装置 | |
CN114764786B (zh) | 一种基于超声视频流的病灶区域实时检测装置 | |
CN117197462A (zh) | 基于多尺度特征融合和对齐的轻量地基云分割方法及系统 | |
CN113963427B (zh) | 一种快速活体检测的方法与系统 | |
CN117710868B (zh) | 一种对实时视频目标的优化提取系统及方法 | |
CN118096584A (zh) | 基于上下文感知和多尺度扩散网络的超声图像增强方法 | |
CN117876690A (zh) | 一种基于异构UNet的超声影像多组织分割方法和系统 | |
Wang et al. | Infrared and visible image fusion based on Laplacian pyramid and generative adversarial network. | |
CN109241932A (zh) | 一种基于运动方差图相位特征的热红外人体动作识别方法 | |
CN112837325A (zh) | 医学影像图像处理方法、装置、电子设备及介质 | |
CN112488165A (zh) | 一种基于深度学习模型的红外行人识别方法及系统 | |
Zhang et al. | An approach of region of interest detection based on visual attention and gaze tracking | |
CN111753640B (zh) | 一种采用卷积神经网络和长短期记忆检测群养猪玩耍行为的分析方法 | |
Patibandla et al. | CT Image Precise Denoising Model with Edge Based Segmentation with Labeled Pixel Extraction Using CNN Based Feature Extraction for Oral Cancer Detection | |
CN117558035B (zh) | 一种基于图像技术的人物身份识别系统及方法 | |
CN112329606B (zh) | 一种活体检测方法、装置、电子设备及可读存储介质 | |
CN112085020B (zh) | 一种视觉显著性目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |