CN110941986B - 活体检测模型的训练方法、装置、计算机设备和存储介质 - Google Patents
活体检测模型的训练方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110941986B CN110941986B CN201910958191.5A CN201910958191A CN110941986B CN 110941986 B CN110941986 B CN 110941986B CN 201910958191 A CN201910958191 A CN 201910958191A CN 110941986 B CN110941986 B CN 110941986B
- Authority
- CN
- China
- Prior art keywords
- living body
- candidate region
- target
- face
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及人工智能领域,提供了一种活体检测模型的训练方法、装置、计算机设备和存储介质。方法包括:获取包括初始候选区域生成网络及初始活体分类网络的初始活体检测模型;根据第一训练样本集训练初始候选区域生成网络,得到第一候选区域生成网络;根据第一候选区域生成网络及第二训练样本集训练初始活体分类网络,得到第一活体分类网络;根据第一候选区域生成网络、第一活体分类网络及第二训练样本集,得到当前活体位置信息;根据当前活体位置信息及目标活体位置信息的差异调整第一候选区域生成网络的参数并继续训练,得到目标候选区域生成网络;根据目标候选区域生成网络及第二训练样本集训练第一活体分类网络,得到目标活体分类网络。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种活体检测模型的训练方法、装置、计算机设备和存储介质。
背景技术
近红外活体检测,作为一种身份见证方法,利用红外光的光谱波段禹可见光不同,无需用户配合,可在近红外图像上进行盲测。降低了活体检测算法的繁琐度与提高其精度,并且降低生产成本的同时,可以更好地保证相关用户与企业的利益。
传统的近红外活体检测方法,大多分两步。首先,利用检脸器在可见光所成的彩色图片上检测人脸;然后在近红外图像对应位置提取人脸的LBP特征输入至活体判别器进行活体判断。这种方式,每一步骤都是一个独立的任务,所使用到的检脸器和活体判别器都需要单独分开训练,模型之间的契合度不高,活体判别器的准确性容易受到检脸器的影响,导致训练得到的模型的准确性低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高模型训练准确性的活体检测模型的训练方法、装置、计算机设备和存储介质。
一种活体检测模型的训练方法,所述方法包括:
获取初始活体检测模型,所述初始活体检测模型包括初始候选区域生成网络及初始活体分类网络;
获取第一训练样本集及第二训练样本集;所述第二训练样本集对应的训练样本中包括彩色图像、与所述彩色图像对应的近红外图像及对应的目标活体位置信息;
根据所述第一训练样本集训练所述初始候选区域生成网络直至收敛,得到第一候选区域生成网络;
根据所述第一候选区域生成网络及所述第二训练样本集训练所述初始活体分类网络直至收敛,得到第一活体分类网络;
将所述彩色图像输入到所述第一候选区域生成网络中,得到当前人脸候选区域位置信息,将所述当前人脸候选区域位置信息及所述近红外图像输入所述第一活体分类网络中,得到当前活体位置信息;
根据所述当前活体位置信息及所述目标活体位置信息的差异调整所述第一候选区域生成网络的参数,并返回将所述彩色图像输入到所述第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络;
根据所述目标候选区域生成网络及所述第二训练样本集训练所述第一活体分类网络直至收敛,得到目标活体分类网络,根据所述目标候选区域生成网络及所述目标活体分类网络得到训练好的目标活体检测模型。
在其中一个实施例中,所述方法还包括:
获取所述目标活体检测模型;
获取待检测人脸对应的待检测彩色图像和待检测近红外图像;
将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;
将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
在其中一个实施例中,所述目标候选区域生成网络包括第一卷积层、第二卷积层及第一池化层,所述将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息,包括:
将所述待检测彩色图像输入所述第一卷积层中,通过所述第一卷积层对所述待检测彩色图像进行卷积运算,得到第一特征矩阵;
将所述第一特征矩阵输入所述第一池化层中,通过所述第一池化层对所述第一特征矩阵中的每个向量中最大的权重进行投影得到归一化的第二特征矩阵;
将所述第二特征矩阵输入所述第二卷积层中,通过所述第二卷积层对所述第二特征矩阵进行卷积计算,得到目标人脸候选区域位置信息。
在其中一个实施例中,所述目标活体分类网络包括第三卷积层、第四卷积层及第二池化层,所述将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果,包括:
根据所述目标人脸候选区域位置信息从所述待检测近红外图像上截取对应的感兴趣区域图像,将所述感兴趣区域图像输入第三卷积层中,通过所述第三卷积层对所述感兴趣区域图像进行卷积运算,得到第三特征矩阵;
将所述第三特征矩阵输入所述第二池化层中,通过所述第二池化层对所述第三特征矩阵中的每个向量中最大的权重进行投影得到归一化的第四特征矩阵;
将所述第四特征矩阵输入至第四卷积层中,通过所述第四卷积层对第四特征矩阵进行卷积计算,得到活体检测结果。
在其中一个实施例中,所述根据所述目标人脸候选区域位置信息从所述待检测近红外图像上截取对应的感兴趣区域图像,包括:
根据预先标定的摄像头参数矩阵,将所述目标人脸候选区域位置信息对应到所述待检测近红外图像上,定位出所述待检测近红外图像中的人脸位置,根据定位出的人脸位置截取出对应的感兴趣区域图像。
在其中一个实施例中,在所述获取待检测人脸对应的待检测彩色图像和待检测近红外图像之前,还包括:
利用双摄像头模组采集所述待检测人脸对应的彩色图像和近红外图像,对采集到的彩色图像进行人脸检测;
当根据人脸检测结果判断出检测到人脸时,将采集到的彩色图像及近红外图像分别确定为待检测彩色图像及待检测近红外图像;
当根据人脸检测结果判断出未检测到人脸时,返回所述利用双摄像头模组采集所述待检测人脸对应的彩色图像和近红外图像的步骤。
一种活体检测模型的训练装置,所述装置包括:
初始模型获取模块,用于获取初始活体检测模型,所述初始活体检测模型包括初始候选区域生成网络及初始活体分类网络;
训练样本获取模块,用于获取第一训练样本集及第二训练样本集;所述第二训练样本集对应的训练样本中包括彩色图像、与所述彩色图像对应的近红外图像及对应的目标活体位置信息;
第一训练模块,用于根据所述第一训练样本集训练所述初始候选区域生成网络直至收敛,得到第一候选区域生成网络;
第二训练模块,用于根据所述第一候选区域生成网络及所述第二训练样本集训练所述初始活体分类网络直至收敛,得到第一活体分类网络;
输入模块,用于将所述彩色图像输入到所述第一候选区域生成网络中,得到当前人脸候选区域位置信息,将所述当前人脸候选区域位置信息及所述近红外图像输入所述第一活体分类网络中,得到当前活体位置信息;
参数调整模块,用于根据所述当前活体位置信息及所述目标活体位置信息的差异调整所述第一候选区域生成网络的参数,并返回将所述彩色图像输入到所述第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络;
活体检测模型获得模块,根据所述目标候选区域生成网络及所述第二训练样本集训练所述第一活体分类网络直至收敛,得到目标活体分类网络,根据所述目标候选区域生成网络及所述目标活体分类网络得到训练好的目标活体检测模型。
在其中一个实施例中,所述装置还包括:活体检测模块,用于获取所述目标活体检测模型;获取待检测人脸对应的待检测彩色图像和待检测近红外图像;将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任意实施例所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意实施例所述方法的步骤。
上述活体检测模型的训练方法、装置、计算机设备和存储介质,首先训练初始候选区域生成网络,得到第一候选区域生成网络,然后固定第一候选区域生成网络的参数,训练初始活体分类网络,得到第一活体分类网络,接着根据第一候选区域生成网络和第一活体分类网络得到当前活体位置信息,根据所述当前活体位置信息及所述目标活体位置信息的差异反向传播调整所述第一候选区域生成网络的参数,以得到目标候选区域生成网络,固定目标候选区域生成网络继续训练第一活体分类网络,得到目标活体分类网络,最后根据目标候选区域生成网络及所述目标活体分类网络得到训练好的目标活体检测模型。本申请中将人脸检测与活体分类整合到一个模型中,采用端到端的模型训练方法,在进行训练时,由于活体分类网络的损失可以反向传播至候选区域生成网络,网络之间的契合度高,得到的活体检测模型相较于传统技术中两个单独的模型来说准确性得到了明显的提升。
附图说明
图1为一个实施例中活体检测模型的训练方法的应用场景图;
图2为一个实施例中活体检测模型的训练方法的流程示意图;
图3为一个实施例中得到目标人脸候选区域位置信息的步骤流程示意图;
图4为一个实施例中活体检测模型的训练装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的活体检测模型的训练方法,可以应用于如图1所示的应用环境中。在该应用环境中,计算机设备102首先获取包括初始候选区域生成网络及初始活体分类网络的初始活体检测模型,并根据第一训练样本集训练初始候选区域生成网络直至收敛,得到第一候选区域生成网络,然后根据第一候选区域生成网络及第二训练样本集训练初始活体分类网络直至收敛,得到第一活体分类网络,将彩色图像输入到第一候选区域生成网络中,得到当前人脸候选区域位置信息,将当前人脸候选区域位置信息及近红外图像输入第一活体分类网络中,得到当前活体位置信息,进一步根据当前活体位置信息及目标活体位置信息的差异调整第一候选区域生成网络的参数,并返回将彩色图像输入到第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络,根据目标候选区域生成网络及第二训练样本集训练第一活体分类网络直至收敛,得到目标活体分类网络,最后根据目标候选区域生成网络及目标活体分类网络得到训练好的目标活体检测模型。进一步,计算机设备102在训练得到目标活体检测模型后,可以存储至本地或者发送至计算机设备104。
其中,计算机设备102以及算机设备104可以但不限于是各种个人计算机、笔记本电脑。
在一个实施例中,如图2所示,提供了一种活体检测模型的训练方法,以该方法应用于上述计算机设备102为例进行说明,包括以下步骤:
步骤202,获取初始活体检测模型,初始活体检测模型包括初始候选区域生成网络及初始活体分类网络。
初始活体检测模型可以是为了训练活体检测模型而预先确定的用于进行活体检测的模型,初始活体检测模型可以是未经训练的活体检测模型或者训练未完成的活体检测模型。初始活体检测模型,包括初始候选区域生成网络及初始活体分类网络。其中,候选初始候选区域用于训练得到目标候选区域生成网络,目标候选区域生成网络用于从输入图像中提取候选区域;初始活体分类网络用于训练得到目标活体分类网络,目标活体分类网络用于根据输入图像进行活体分类得到活体检测结果。
在一个实施例中,步骤202之前,还包括以下步骤:
首先,可以确定初始活体检测模型的网络结构信息。具体来说,由于初始活体检测模型包括初始候选区域生成网络和初始活体分类网络,因此,可以分别确定初始候选区域生成网络的网络结构信息,以及初始活体分类网络的网络结构信息。
可以理解的是,初始候选区域生成网络和初始活体分类网络可以是各种神经网络,为此可以分别确定初始候选区域生成网络和初始活体分类网络是哪种神经网络,包括几层神经元,每层有多少个神经元,各层神经元之间的连接顺序关系,每层神经元都包括哪些参数,每层神经元对应的激活函数类型等等。可理解的是,对于不同的神经网络类型,所需要确定的网络结构信息也是不同的。
然后,可以初始化初始生成对抗网络中初始候选区域生成网络和初始活体分类网络的网络参数的参数值。在一个实施例中,可以将初始候选区域生成网络和初始活体分类网络的各个网络参数用一些不同的小随机数进行初始化。“小随机数”用来保证网络不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证网络可以正常地学习。
步骤204,获取第一训练样本集及第二训练样本集;第二训练样本集对应的训练样本中包括彩色图像、与彩色图像对应的近红外图像及对应的目标活体位置信息。
其中,第一训练样本集及第二训练样本集均为已标注的包含人脸的图像样本集。第一训练样本集中的训练样本(以下简称第一训练样本)中包括彩色图像、目标人脸图像及对应的目标人脸候选区域位置信息,彩色图像指的是由摄像头在自然光下采集的RGB图像,目标人脸图像指的是彩色图像中人脸区域对应的图像,目标人脸候选区域位置信息指的彩色图像中人脸区域对应的位置坐标,可以理解的是,彩色图像为第一训练样本对应的输入数据,目标人脸图像及对应的目标人脸候选区域位置信息为该第一训练样本对应的训练标签。
第二训练样本集对应的训练样本(以下简称第二训练样本)中包括彩色图像、与彩色图像对应的近红外图像、目标活体检测结果及对应的目标活体位置信息,可以理解的是,目标活体检测结果及对应的目标活体位置信息为该第二训练样本对应的训练标签,目标活体检测结果用于表征待检测的人脸图像中的人脸是否是活体人脸;目标活体位置信息指的是目标活体检测结果对应的人脸图像的位置坐标。
在一个实施例中,活体检测结果可以为用于表征人脸图像中的人脸是活体人脸的是检测结果标识(例如,数字1或者向量(1,0))或者用于表征人脸图像中的人脸不是活体人脸的否检测结果标识(例如,数字0或者向量(0,1));在另一个实施例中,活体检测结果还可以包括人脸图像中的人脸是活体人脸的概率和/或人脸图像中的人脸是非活体人脸的概率,例如,活体检测结果可以是包括第一概率和第二概率的向量,其中,第一概率用于表征人脸图像中的人脸是活体人脸的概率,第二概率用于表征人脸图像中的人脸是非活体人脸的概率。
步骤206,根据第一训练样本集训练初始候选区域生成网络直至收敛,得到第一候选区域生成网络。
具体地,将第一训练样集对应的训练本中的彩色图像输入初始候选区域生成网络中,将彩色图像对应的目标人脸图像及对应的目标人脸候选区域位置信息作为期望的输出对初始候选区域生成网络进行训练,在训练的过程中不断对初始候选区域生成网络的参数进行调整,直至满足收敛条件时,停止训练,得到当前训练好的候选区域生成网络,即第一候选区域生成网络。在一个实施例中,收敛条件可以是训练时间超过预设时长、训练次数超过预设次数、实际输出与期望输出之间的差异小于差异阈值。
可以理解的是,本实施例中可以采用各种方式对初始候选区域生成网络进行训练,例如,可以采用BP(Back Propagation,反向传播)算法或者SGD(Stochastic GradientDescent,随机梯度下降)算法。
步骤208,根据第一候选区域生成网络及第二训练样本集训练初始活体分类网络直至收敛,得到第一活体分类网络。
具体地,在对初始活体分类网络进行训练时,需要对当前训练好的候选区域生成网络的参数进行固定,即首先将第二训练样本中的彩色图像输入第一候选区域生成网络中,得到第一目标人脸图像及其对应的第一人脸候选区域位置信息,然后根据第一人脸候选区域位置信息、第二训练样本中与彩色图像对应的近红外图像、目标活体检测结果及对应的目标活体位置信息对初始活体分类网络进行训练,直至满足收敛条件时,停止训练,得到当前训练好的活体分类网络,即第一活体分类网络。
训练过程时,首先根据第一人脸候选区域位置信息从近红外图像中截取对应位置的图像得到感兴趣区域图像,将感兴趣区域图像输入初始活体分类网络中,将目标活体检测结果及对应的目标活体位置信息作为期望的输出对初始活体分类网络的参数进行调整,直至满足收敛条件时,结束训练。
步骤210,将彩色图像输入到第一候选区域生成网络中,得到当前人脸候选区域位置信息,将当前人脸候选区域位置信息及近红外图像输入第一活体分类网络中,得到当前活体位置信息。
具体地,将第二训练样本中的彩色图像输入第一候选区域生成网络中,可以得到该彩色图像对应的当前人脸图像及该当前人脸图像对应的当前人脸候选区域位置信息,进一步,将当前人脸候选区域位置信息及第二训练样本中与彩色图像对应的近红外图像输入第一活体分类网络中,通过第一活体分类网络首先从近红外图像中截取与当前人脸候选区域位置信息对应的图像区域,得到感兴趣区域图像,然后通过第一活体分类网络对该感兴趣区域图像进行活体分类,得到当前活体检测结果及对应的当前活体位置信息,该当前活体位置信息即对感兴趣区域图像进行位置回归得到的位置坐标。
步骤212,根据当前活体位置信息及目标活体位置信息的差异调整第一候选区域生成网络的参数,并返回将彩色图像输入到第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络。
其中,差异可以是误差,误差可以是平均绝对误差(mean absolute error,MAE)、均方误差(mean squared error,MSE)或均方根误差(root mean squared error,RMSE)等。
具体地,可以根据当前活体位置信息及目标活体位置信息的误差构建代价函数(cost function),通常也被称为损失函数(loss function),应理解,代价函数用于反应当前活体位置信息及目标活体位置信息的之间的差异,可以包括用于防止过拟合的正则化项。本实施例中,由于候选区域生成网络与活体分类网络中人脸区域的位置信息是对应的,二者代价函数一致,且存在梯度反传,因此可以通过最小化活体分类网络的代价函数来调节候选区域生成网络的参数。
在一个实施例中,可以通过梯度下降法来调整第一候选区域生成网络的参数,具体地,可以根据当前活体位置信息及目标活体位置信息的误差所确定的梯度(例如,代价函数对模型参数的偏导数)反向传播到第一候选区域生成网络,以调节第一候选区域生成网络的参数。
重复步骤210-步骤212对第一候选区域生成网络进行多次训练,直至满足收敛条件时,停止训练,得到训练好的目标候选区域生成网络。
步骤214,根据目标候选区域生成网络及第二训练样本集训练第一活体分类网络直至收敛,得到目标活体分类网络,根据目标候选区域生成网络及目标活体分类网络得到训练好的目标活体检测模型。
具体地,固定目标候选区域生成网络的参数,通过第二训练样本集对第一活体分类网络进行训练。首先将第二训练样本中的彩色图像输入目标候选区域生成网络中,得到第二目标人脸图像及其对应的第二人脸候选区域位置信息,然后根据第二人脸候选区域位置信息、第二训练样本中与彩色图像对应的近红外图像、目标活体检测结果及对应的目标活体位置信息对第一活体分类网络进行训练,直至满足收敛条件时,停止训练,得到当前训练好的活体分类网络,即目标活体分类网络。
训练时,首先根据第二人脸候选区域位置信息从近红外图像中截取对应位置的图像得到感兴趣区域图像,将感兴趣区域图像输入第一活体分类网络中,将目标活体检测结果及对应的目标活体位置信息作为期望的输出对第一活体分类网络的参数进行调整,直至满足收敛条件时,结束训练。
在得到目标候选区域生成网络和目标活体分类网络后,将目标候选区域生成网络的输出端与目标活体分类网络的输入端相连接,可以得到训练好的目标活体检测模型。
上述活体检测模型的训练方法中,首先训练初始候选区域生成网络,得到第一候选区域生成网络,然后固定第一候选区域生成网络的参数,训练初始活体分类网络,得到第一活体分类网络,接着根据第一候选区域生成网络和第一活体分类网络得到当前活体位置信息,根据当前活体位置信息及目标活体位置信息的差异反向传播调整第一候选区域生成网络的参数,以得到目标候选区域生成网络,固定目标候选区域生成网络继续训练第一活体分类网络,得到目标活体分类网络,最后根据目标候选区域生成网络及目标活体分类网络得到训练好的目标活体检测模型。本申请中将人脸检测与活体分类整合到一个模型中,采用端到端的模型训练方法,在进行训练时,由于活体分类网络的损失可以反向传播至候选区域生成网络,网络之间的契合度高,得到的活体检测模型相较于传统技术中两个单独的模型来说准确性得到了明显的提升。
在一个实施例中,上述方法还包括:获取目标活体检测模型;获取待检测人脸对应的待检测彩色图像和待检测近红外图像;将待检测彩色图像输入至目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;将目标人脸候选区域位置信息及待检测近红外图像输入至目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
其中,待检测彩色图像指的是用于进行活体检测以判断待检测人脸是否为活体人脸的彩色图像,待检测近红外图像指的是用于进行活体检测以判断待检测人脸是否为活体人脸的近红外图像。
本实施例中,通过将待检测彩色图像输入至目标候选区域生成网络中,可以得到目标人脸图像及对应的目标人脸候选区域位置信息,将目标人脸候选区域位置信息及待检测近红外图像输入至目标活体分类网络中,目标活体分类网络可先根据目标人脸候选区域位置信息从待检测近红外图像截取对应位置的图像,得到感兴趣区域图像,对感兴趣区域图像进行活体分类,得到待检测人脸对应的活体检测结果。
上述实施例中,由于采用了比较准确的端到端的目标活体检测模型进行活体检测,提高了活体检测的准确性。
在一个实施例中,如图3所示,目标候选区域生成网络包括第一卷积层、第二卷积层及第一池化层,将待检测彩色图像输入至目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息,包括:
步骤302,将待检测彩色图像输入第一卷积层中,通过第一卷积层对待检测彩色图像进行卷积运算,得到第一特征矩阵。
具体地,目标候选区域生成网络包括至少一个卷积层,卷积层对待检测彩色图像进行卷积运算,得到第一特征矩阵。卷积运算是指利用卷积核进行乘积的运算。经过卷积核卷积可以降低特征维度,并且表达出图像的局部特征,不同的卷积窗口具有不同的表达能力。其中,卷积窗口的大小是根据图像对应的特征向量的纬度(embedding size)以及滤波宽度(filter width)决定的,滤波宽度是由实验调整得到的,在一个实施例中,滤波宽度分别选择3,4,5,6,7,8几个值,假设特征向量的纬度为128维,那么卷积窗口可以分别选择128*3,128*4,128*5,128*6,128*7,128*8。其中,一个卷积核对应一个输出,比如,如果卷积层中有10个卷积核,经过10个卷积核的作用将会得到10个输出,即得到10维的第一特征矩阵。
步骤304,将第一特征矩阵输入第一池化层中,通过第一池化层对第一特征矩阵中的每个向量中最大的权重进行投影得到归一化的第二特征矩阵。
具体地,目标候选区域生成网络包括至少一个池化层。在一个实施例中,池化层采用最大池化层(max-pooling),即用于将卷积层得到的每个向量中的能量最大的元素(即权重最大元素)投影到下一层的输入,这样做的目的是为了保证不同特征向量和不同卷积核的输出归一化,并保持最大信息没有丢失。第一特征矩阵是由多个向量组成的,将每个向量中最大的权重进行投影得到归一化的第二特征矩阵。
步骤306,将第二特征矩阵输入第二卷积层中,通过第二卷积层对第二特征矩阵进行卷积计算,得到目标人脸候选区域位置信息。
具体地,本实施例中的候选区域生成网络采用全卷积网络(Fully ConvolutionalNetworks),图像在经过池化层后直接输入第二卷积层中,用第二卷积层代替全连接层,对第二特征矩阵进行卷积计算,得到待检测彩色图像对应的目标人脸图像及对应的目标人脸候选区域位置信息。
上述实施例中,通过用卷积层代替全连接层的方式,由于卷积核的计算是并行的,且不需要同时读入内存中,因此,可以节省存储开销同时可以提升候选区域生成网络进行人脸分类及位置回归的效率。
在一个实施例中,将目标人脸候选区域位置信息及待检测近红外图像输入至目标活体检测模型对应的目标活体分类网络中,得到活体检测结果,包括:根据目标人脸候选区域位置信息从待检测近红外图像上截取对应的感兴趣区域图像,将感兴趣区域图像输入第三卷积层中,通过第三卷积层对感兴趣区域图像进行卷积运算,得到第三特征矩阵;将第三特征矩阵输入第二池化层中,通过第二池化层对第三特征矩阵中的每个向量中最大的权重进行投影得到归一化的第四特征矩阵;将第四特征矩阵输入至第四卷积层中,通过第四卷积层对第四特征矩阵进行卷积计算,得到活体检测结果。
本实施例中,活体分类网络采用全卷积网络,包括至少一个第三卷积层、至少一个第四卷积层及至少一个第二池化层。在将根据目标人脸候选区域位置信息从待检测近红外图像上截取对应的感兴趣区域图像后,首先将感兴趣区域图像输入第三卷积层中,通过第三卷积层进行卷积运算以表达出局部特性,得到第三特征矩阵,接着将第三特征矩阵输入与第三卷积层相连接的第二池化层,得到第四特征矩阵,由于第四特征矩阵是通过对第三特征矩阵中的每个向量中最大的权重进行投影得到的,参数数量明显减少,从而可以降低特征维度,最后将得到的第四特征矩阵输入到与第二池化层相连接的第四卷积层中,通过第四卷积层对第四特征矩阵进行卷积计算,得到活体检测结果及对应的活体位置信息。可以理解的是这里的活体位置信息指的是对感兴趣区域图像进行位置回归得到的位置信息,可以是活体人脸对应的位置信息或者非活体人脸对应的位置信息。本实施例中,由于采用了全卷积网络,不仅节省了存储开销,同时也可以提升活体检测效率。
在一个实施例中,根据目标人脸候选区域位置信息从待检测近红外图像上截取对应的感兴趣区域图像,包括:根据预先标定的摄像头参数矩阵,将目标人脸候选区域位置信息对应到待检测近红外图像上,定位出待检测近红外图像中的人脸位置,根据定位出的人脸位置截取出对应的感兴趣区域图像。
本实施例中,利用双摄像头模组分别采集彩色图像及近红外图像,并预先标定彩色图像对应的摄像头模组与近红外图像对应的摄像头模组之间的摄像头参数矩阵,当根据目标候选区域生成网络进行位置回归得到到待检测人脸对应的目标人脸候选区域位置信息后,可以根据摄像头参数矩阵对目标人脸候选区域位置信息进行矩阵变换,得到近红外图像中对应的位置信息,从而可以根据该位置信息从近红外图像上定位出人脸位置,截取该人脸位置对应的图像区域即得到感兴趣区域图像。
上述实施例中,通过预先标定摄像头参数矩阵,可以准确快递的从近红外图像上截取感兴趣区域图像,从而提高活体检测的效率和准确性。
在一个实施例中,在获取待检测人脸对应的待检测彩色图像和待检测近红外图像之前,上述方法还包括:利用双摄像头模组采集待检测人脸对应的彩色图像和近红外图像,对采集到的彩色图像进行人脸检测;当根据人脸检测结果判断出检测到人脸时,将采集到的彩色图像及近红外图像分别确定为待检测彩色图像及待检测近红外图像;当根据人脸检测结果判断出未检测到人脸时,返回利用双摄像头模组采集待检测人脸对应的彩色图像和近红外图像的步骤。
本实施例中,通过双摄像头模组采集到彩色图像和近红外图像后,对彩色图像进行人脸检测,当彩色图像中检测到人脸时,由于近红外图像和彩色图像是同时采集的,因此,近红外图像中必然也会包含人脸区域,因此,可以将此时采集到的彩色图像及近红外图像分别确定为待检测彩色图像及待检测近红外图像;反之,若彩色图像中未检测到人脸,则近红外图像中必然也不包含人脸区域,此时,需要继续采集待检测人脸对应的彩色图像和近红外图像,以采集到能够用于活体检测的包含了人脸的图像。
上述实施例中,通过双摄像头模组采集待检测人脸对应的彩色图像和近红外图像,只要对彩色图像进行人脸检测,即可准确的判断出是否采集到能够用于活体检测的包含了人脸的图像,提高了图像采集的效率,从而可以提高活体检测的效率。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种活体检测模型的训练装置400,包括:
初始模型获取模块402,用于获取初始活体检测模型,初始活体检测模型包括初始候选区域生成网络及初始活体分类网络;
训练样本获取模块404,用于获取第一训练样本集及第二训练样本集;第二训练样本集对应的训练样本中包括彩色图像、与彩色图像对应的近红外图像及对应的目标活体位置信息;
第一训练模块406,用于根据第一训练样本集训练初始候选区域生成网络直至收敛,得到第一候选区域生成网络;
第二训练模块408,用于根据第一候选区域生成网络及第二训练样本集训练初始活体分类网络直至收敛,得到第一活体分类网络;
输入模块410,用于将彩色图像输入到第一候选区域生成网络中,得到当前人脸候选区域位置信息,将当前人脸候选区域位置信息及近红外图像输入第一活体分类网络中,得到当前活体位置信息;
参数调整模块412,用于根据当前活体位置信息及目标活体位置信息的差异调整第一候选区域生成网络的参数,并返回将彩色图像输入到第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络;
活体检测模型获得模块414,根据目标候选区域生成网络及第二训练样本集训练第一活体分类网络直至收敛,得到目标活体分类网络,根据目标候选区域生成网络及目标活体分类网络得到训练好的目标活体检测模型。
在一个实施例中,上述装置还包括:活体检测模块,用于获取目标活体检测模型;获取待检测人脸对应的待检测彩色图像和待检测近红外图像;将待检测彩色图像输入至目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;将目标人脸候选区域位置信息及待检测近红外图像输入至目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
在一个实施例中,目标候选区域生成网络包括第一卷积层、第二卷积层及第一池化层,活体检测模块还用于将待检测彩色图像输入第一卷积层中,通过第一卷积层对待检测彩色图像进行卷积运算,得到第一特征矩阵;将第一特征矩阵输入第一池化层中,通过第一池化层对第一特征矩阵中的每个向量中最大的权重进行投影得到归一化的第二特征矩阵;将第二特征矩阵输入第二卷积层中,通过第二卷积层对第二特征矩阵进行卷积计算,得到目标人脸候选区域位置信息。
在一个实施例中,目标活体分类网络包括第三卷积层、第四卷积层及第二池化层,活体检测模块还用于根据目标人脸候选区域位置信息从待检测近红外图像上截取对应的感兴趣区域图像,将感兴趣区域图像输入第三卷积层中,通过第三卷积层对感兴趣区域图像进行卷积运算,得到第三特征矩阵;将第三特征矩阵输入第二池化层中,通过第二池化层对第三特征矩阵中的每个向量中最大的权重进行投影得到归一化的第四特征矩阵;将第四特征矩阵输入至第四卷积层中,通过第四卷积层对第四特征矩阵进行卷积计算,得到活体检测结果。
在一个实施例中,活体检测模块还用于根据预先标定的摄像头参数矩阵,将目标人脸候选区域位置信息对应到待检测近红外图像上,定位出待检测近红外图像中的人脸位置,根据定位出的人脸位置截取出对应的感兴趣区域图像。
在一个实施例中,上述装置还包括:图像采集模块,用于利用双摄像头模组采集待检测人脸对应的彩色图像和近红外图像,对采集到的彩色图像进行人脸检测;当根据人脸检测结果判断出检测到人脸时,将采集到的彩色图像及近红外图像分别确定为待检测彩色图像及待检测近红外图像;当根据人脸检测结果判断出未检测到人脸时,返回利用双摄像头模组采集待检测人脸对应的彩色图像和近红外图像的步骤。
关于活体检测模型的训练装置的具体限定可以参见上文中对于活体检测模型的训练方法的限定,在此不再赘述。上述活体检测模型的训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练样本数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种活体检测模型的训练方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述任意实施例所述的活体检测模型的训练方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意实施例所述的活体检测模型的训练方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种活体检测模型的训练方法,所述方法包括:
获取初始活体检测模型,所述初始活体检测模型包括初始候选区域生成网络及初始活体分类网络;
获取第一训练样本集及第二训练样本集;所述第二训练样本集对应的训练样本中包括彩色图像、与所述彩色图像对应的近红外图像及对应的目标活体位置信息;
根据所述第一训练样本集训练所述初始候选区域生成网络直至收敛,得到第一候选区域生成网络;
根据所述第一候选区域生成网络及所述第二训练样本集训练所述初始活体分类网络直至收敛,得到第一活体分类网络;
将所述彩色图像输入到所述第一候选区域生成网络中,得到当前人脸候选区域位置信息,将所述当前人脸候选区域位置信息及所述近红外图像输入所述第一活体分类网络中,得到当前活体位置信息;
根据所述当前活体位置信息及所述目标活体位置信息的差异调整所述第一候选区域生成网络的参数,并返回将所述彩色图像输入到所述第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络;
根据所述目标候选区域生成网络及所述第二训练样本集训练所述第一活体分类网络直至收敛,得到目标活体分类网络,根据所述目标候选区域生成网络及所述目标活体分类网络得到训练好的目标活体检测模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标活体检测模型;
获取待检测人脸对应的待检测彩色图像和待检测近红外图像;
将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;
将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
3.根据权利要求2所述的方法,其特征在于,所述目标候选区域生成网络包括第一卷积层、第二卷积层及第一池化层,所述将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息,包括:
将所述待检测彩色图像输入所述第一卷积层中,通过所述第一卷积层对所述待检测彩色图像进行卷积运算,得到第一特征矩阵;
将所述第一特征矩阵输入所述第一池化层中,通过所述第一池化层对所述第一特征矩阵中的每个向量中最大的权重进行投影得到归一化的第二特征矩阵;
将所述第二特征矩阵输入所述第二卷积层中,通过所述第二卷积层对所述第二特征矩阵进行卷积计算,得到目标人脸候选区域位置信息。
4.根据权利要求2所述的方法,其特征在于,所述目标活体分类网络包括第三卷积层、第四卷积层及第二池化层,所述将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果,包括:
根据所述目标人脸候选区域位置信息从所述待检测近红外图像上截取对应的感兴趣区域图像,将所述感兴趣区域图像输入第三卷积层中,通过所述第三卷积层对所述感兴趣区域图像进行卷积运算,得到第三特征矩阵;
将所述第三特征矩阵输入所述第二池化层中,通过所述第二池化层对所述第三特征矩阵中的每个向量中最大的权重进行投影得到归一化的第四特征矩阵;
将所述第四特征矩阵输入至第四卷积层中,通过所述第四卷积层对第四特征矩阵进行卷积计算,得到活体检测结果。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标人脸候选区域位置信息从所述待检测近红外图像上截取对应的感兴趣区域图像,包括:
根据预先标定的摄像头参数矩阵,将所述目标人脸候选区域位置信息对应到所述待检测近红外图像上,定位出所述待检测近红外图像中的人脸位置,根据定位出的人脸位置截取出对应的感兴趣区域图像。
6.根据权利要求2至5任意一项所述的方法,其特征在于,在所述获取待检测人脸对应的待检测彩色图像和待检测近红外图像之前,还包括:
利用双摄像头模组采集所述待检测人脸对应的彩色图像和近红外图像,对采集到的彩色图像进行人脸检测;
当根据人脸检测结果判断出检测到人脸时,将采集到的彩色图像及近红外图像分别确定为待检测彩色图像及待检测近红外图像;
当根据人脸检测结果判断出未检测到人脸时,返回所述利用双摄像头模组采集所述待检测人脸对应的彩色图像和近红外图像的步骤。
7.一种活体检测模型的训练装置,其特征在于,所述装置包括:
初始模型获取模块,用于获取初始活体检测模型,所述初始活体检测模型包括初始候选区域生成网络及初始活体分类网络;
训练样本获取模块,用于获取第一训练样本集及第二训练样本集;所述第二训练样本集对应的训练样本中包括彩色图像、与所述彩色图像对应的近红外图像及对应的目标活体位置信息;
第一训练模块,用于根据所述第一训练样本集训练所述初始候选区域生成网络直至收敛,得到第一候选区域生成网络;
第二训练模块,用于根据所述第一候选区域生成网络及所述第二训练样本集训练所述初始活体分类网络直至收敛,得到第一活体分类网络;
输入模块,用于将所述彩色图像输入到所述第一候选区域生成网络中,得到当前人脸候选区域位置信息,将所述当前人脸候选区域位置信息及所述近红外图像输入所述第一活体分类网络中,得到当前活体位置信息;
参数调整模块,用于根据所述当前活体位置信息及所述目标活体位置信息的差异调整所述第一候选区域生成网络的参数,并返回将所述彩色图像输入到所述第一候选区域生成网络中的步骤直至收敛,得到目标候选区域生成网络;
活体检测模型获得模块,根据所述目标候选区域生成网络及所述第二训练样本集训练所述第一活体分类网络直至收敛,得到目标活体分类网络,根据所述目标候选区域生成网络及所述目标活体分类网络得到训练好的目标活体检测模型。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:活体检测模块,用于获取所述目标活体检测模型;获取待检测人脸对应的待检测彩色图像和待检测近红外图像;将所述待检测彩色图像输入至所述目标活体检测模型对应的目标候选区域生成网络,得到目标人脸候选区域位置信息;将所述目标人脸候选区域位置信息及所述待检测近红外图像输入至所述目标活体检测模型对应的目标活体分类网络中,得到活体检测结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958191.5A CN110941986B (zh) | 2019-10-10 | 2019-10-10 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
PCT/CN2019/116269 WO2021068322A1 (zh) | 2019-10-10 | 2019-11-07 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958191.5A CN110941986B (zh) | 2019-10-10 | 2019-10-10 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110941986A CN110941986A (zh) | 2020-03-31 |
CN110941986B true CN110941986B (zh) | 2023-08-01 |
Family
ID=69906043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910958191.5A Active CN110941986B (zh) | 2019-10-10 | 2019-10-10 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110941986B (zh) |
WO (1) | WO2021068322A1 (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582155B (zh) * | 2020-05-07 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN113822302B (zh) * | 2020-06-18 | 2024-09-27 | 北京金山数字娱乐科技有限公司 | 一种目标检测模型的训练方法及装置 |
CN112528908B (zh) * | 2020-12-18 | 2024-06-28 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN113139460A (zh) * | 2021-04-22 | 2021-07-20 | 广州织点智能科技有限公司 | 一种人脸检测模型训练方法、人脸检测方法及其相关装置 |
CN113239762A (zh) * | 2021-04-29 | 2021-08-10 | 中国农业大学 | 一种基于视觉与红外信号的活体检测方法及装置 |
CN113343826B (zh) * | 2021-05-31 | 2024-02-13 | 北京百度网讯科技有限公司 | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 |
CN113378715B (zh) * | 2021-06-10 | 2024-01-05 | 北京华捷艾米科技有限公司 | 一种基于彩色人脸图像的活体检测方法及相关设备 |
CN113283388B (zh) * | 2021-06-24 | 2024-05-24 | 中国平安人寿保险股份有限公司 | 活体人脸检测模型的训练方法、装置、设备及存储介质 |
CN113379772B (zh) * | 2021-07-06 | 2022-10-11 | 新疆爱华盈通信息技术有限公司 | 基于背景消除及跟踪算法的复杂环境下的移动测温方法 |
CN113658113B (zh) * | 2021-07-28 | 2024-02-27 | 武汉联影医疗科技有限公司 | 医学影像检测方法和医学影像检测模型的训练方法 |
CN113807407B (zh) * | 2021-08-25 | 2023-04-18 | 西安电子科技大学广州研究院 | 目标检测模型训练方法、模型性能检测方法及装置 |
CN114049289B (zh) * | 2021-11-10 | 2024-03-05 | 合肥工业大学 | 基于对比学习与StyleGAN2的近红外-可见光人脸图像合成方法 |
CN114202805A (zh) * | 2021-11-24 | 2022-03-18 | 北京百度网讯科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN114093006A (zh) * | 2021-11-26 | 2022-02-25 | 北京百度网讯科技有限公司 | 活体人脸检测模型的训练方法、装置、设备以及存储介质 |
CN114067445A (zh) * | 2021-11-26 | 2022-02-18 | 中科海微(北京)科技有限公司 | 人脸真伪识别的数据处理方法、装置、设备及存储介质 |
CN114219971B (zh) * | 2021-12-13 | 2024-08-09 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、设备以及计算机可读存储介质 |
CN114360015A (zh) * | 2021-12-30 | 2022-04-15 | 杭州萤石软件有限公司 | 活体检测方法、装置、设备及存储介质 |
CN114724258A (zh) * | 2022-04-24 | 2022-07-08 | 厦门熵基科技有限公司 | 活体检测方法、装置、存储介质及计算机设备 |
CN115147902B (zh) * | 2022-06-30 | 2023-11-07 | 北京百度网讯科技有限公司 | 人脸活体检测模型的训练方法、装置及计算机程序产品 |
CN114965441B (zh) * | 2022-07-28 | 2022-12-06 | 中国科学院国家天文台 | 元素概率化预测模型的训练方法和元素概率化预测方法 |
CN115393183B (zh) * | 2022-10-28 | 2023-02-07 | 腾讯科技(深圳)有限公司 | 图像编辑方法、装置、计算机设备和存储介质 |
CN115512427B (zh) * | 2022-11-04 | 2023-04-25 | 北京城建设计发展集团股份有限公司 | 一种结合配合式活检的用户人脸注册方法与系统 |
CN115601818B (zh) * | 2022-11-29 | 2023-04-07 | 海豚乐智科技(成都)有限责任公司 | 一种轻量化可见光活体检测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537152A (zh) * | 2018-03-27 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于检测活体的方法和装置 |
CN108875833A (zh) * | 2018-06-22 | 2018-11-23 | 北京智能管家科技有限公司 | 神经网络的训练方法、人脸识别方法及装置 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
CN109255322A (zh) * | 2018-09-03 | 2019-01-22 | 北京诚志重科海图科技有限公司 | 一种人脸活体检测方法及装置 |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590430A (zh) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 活体检测方法、装置、设备及存储介质 |
CN107808115A (zh) * | 2017-09-27 | 2018-03-16 | 联想(北京)有限公司 | 一种活体检测方法、装置及存储介质 |
CN108830188B (zh) * | 2018-05-30 | 2022-03-04 | 西安理工大学 | 基于深度学习的车辆检测方法 |
CN108921071A (zh) * | 2018-06-24 | 2018-11-30 | 深圳市中悦科技有限公司 | 人脸活体检测方法、装置、存储介质及处理器 |
CN109034059B (zh) * | 2018-07-25 | 2023-06-06 | 深圳市中悦科技有限公司 | 静默式人脸活体检测方法、装置、存储介质及处理器 |
CN109446981B (zh) * | 2018-10-25 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 一种脸部活体检测、身份认证方法及装置 |
-
2019
- 2019-10-10 CN CN201910958191.5A patent/CN110941986B/zh active Active
- 2019-11-07 WO PCT/CN2019/116269 patent/WO2021068322A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN108537152A (zh) * | 2018-03-27 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于检测活体的方法和装置 |
CN108875833A (zh) * | 2018-06-22 | 2018-11-23 | 北京智能管家科技有限公司 | 神经网络的训练方法、人脸识别方法及装置 |
CN108898112A (zh) * | 2018-07-03 | 2018-11-27 | 东北大学 | 一种近红外人脸活体检测方法及系统 |
CN109255322A (zh) * | 2018-09-03 | 2019-01-22 | 北京诚志重科海图科技有限公司 | 一种人脸活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021068322A1 (zh) | 2021-04-15 |
CN110941986A (zh) | 2020-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110941986B (zh) | 活体检测模型的训练方法、装置、计算机设备和存储介质 | |
CN109034078B (zh) | 年龄识别模型的训练方法、年龄识别方法及相关设备 | |
US11138478B2 (en) | Method and apparatus for training, classification model, mobile terminal, and readable storage medium | |
CN110569721B (zh) | 识别模型训练方法、图像识别方法、装置、设备及介质 | |
CN110136103B (zh) | 医学影像解释方法、装置、计算机设备及存储介质 | |
CN109508638B (zh) | 人脸情绪识别方法、装置、计算机设备及存储介质 | |
CN109543627B (zh) | 一种判断驾驶行为类别的方法、装置、及计算机设备 | |
CN107944379B (zh) | 基于深度学习的眼白图像超分辨率重建与图像增强方法 | |
CN111368758B (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
CN111275685B (zh) | 身份证件的翻拍图像识别方法、装置、设备及介质 | |
KR101603019B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 컴퓨터로 판독 가능한 기록 매체 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
CN111199523B (zh) | 电力设备识别方法、装置、计算机设备和存储介质 | |
CN108268885A (zh) | 特征点检测方法、设备和计算机可读存储介质 | |
CN111860147A (zh) | 行人重识别模型优化处理方法、装置和计算机设备 | |
CN112884782B (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN112183295A (zh) | 行人重识别方法、装置、计算机设备及存储介质 | |
CN110059666B (zh) | 一种注意力检测方法及装置 | |
CN112580660B (zh) | 图像处理方法、装置、计算机设备和可读存储介质 | |
CN111144285B (zh) | 胖瘦程度识别方法、装置、设备及介质 | |
CN111583184A (zh) | 图像分析方法、网络、计算机设备和存储介质 | |
CN111860582B (zh) | 图像分类模型构建方法、装置、计算机设备和存储介质 | |
CN113705685A (zh) | 疾病特征识别模型训练、疾病特征识别方法、装置及设备 | |
CN110335248A (zh) | 医学图像病灶检测方法、装置、计算机设备和存储介质 | |
CN112115860A (zh) | 人脸关键点定位方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40020148 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |