CN114998962A - 一种活体检测以及模型训练方法及装置 - Google Patents
一种活体检测以及模型训练方法及装置 Download PDFInfo
- Publication number
- CN114998962A CN114998962A CN202210615763.1A CN202210615763A CN114998962A CN 114998962 A CN114998962 A CN 114998962A CN 202210615763 A CN202210615763 A CN 202210615763A CN 114998962 A CN114998962 A CN 114998962A
- Authority
- CN
- China
- Prior art keywords
- training sample
- determining
- local
- living body
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本说明书公开了一种活体检测以及模型训练方法及装置,通过根据用户图像确定尺度不同的局部图,将用户图像及各局部图分别输入活体检测模型中的不同特征提取网络,确定用户图像的全局特征以及各局部图的局部特征,并将全局特征及各局部特征拼接,得到融合特征,将融合特征输入活体检测模型的回归网络可得到活体检测结果。该活体检测模型为根据基于融合特征确定的对比损失及基于训练样本的标签对应的概率确定的分类损失训练得到的,融合特征及标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入活体检测模型得到。由于能够提取到全局特征与尺度不同的局部特征,特征提取全面且充分,使模型的输出更准确。
Description
技术领域
本说明书涉及活体检测技术领域,尤其涉及一种活体检测以及模型训练方法及装置。
背景技术
人脸识别技术的应用方便了人们的生活,但也带来了一定的风险。例如,被他人恶意利用用户照片、用户的人脸面具等成功进行人脸识别,则可能对用户造成损失。因此,人脸识别技术通常伴随着活体检测技术共同使用。
活体检测技术用于识别镜头前的人脸是真实的活体人脸,还是非活体人脸(如、打印照片、面具、屏幕照片等)。目前的活体检测技术包括配合式及非配合式两种。非配合式无需进行人脸识别的用户配合做动作,因此效率更高。
当前的非配合式活体检测方法通过采集用户图像,并输入训练后的模型得到活体检测结果(活体或非活体)。由于模型对特征的提取不够全面,因而目前的活体检测方法得到的活体检测结果不够准确。
发明内容
本说明书提供一种活体检测以及模型训练方法及装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种活体检测方法,预先训练的活体检测模型包括回归网络以及若干特征提取网络,所述方法包括:
获取用户图像,根据所述用户图像确定尺度不同的各局部图;
将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征;
将所述全局特征以及各局部特征进行拼接,得到融合特征;
将所述融合特征输入所述回归网络,得到活体检测结果;
其中,所述活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的;所述融合特征以及所述标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入所述活体检测模型得到。
本说明书提供了一种模型训练方法,活体检测模型包括回归网络以及若干特征提取网络,所述方法包括:
获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签;
针对每个训练样本,确定该训练样本对应的尺度不同的各局部图;
将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征;
将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率;
根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失;
以所述总损失最小为目标,对所述活体检测模型进行训练。
可选地,针对每个训练样本,确定该训练样本对应的尺度不同的各局部图,具体包括:
针对每个训练样本,通过目标检测算法,确定该训练样本包含的面部区域;
根据得到的面部区域确定面部图像;
确定所述面部图像中的关键点区域,以从中确定属于预设类型的关键点区域;
将所述面部图像以及所述预设类型的关键点区域,作为该训练样本对应的尺度不同的各局部图。
可选地,根据得到的面部区域确定面部图像,具体包括:
当所述面部区域为多个时,根据面积最大的面部区域,确定该训练样本对应的面部图像;
当所述面部区域为一个时,根据确定出的面部区域,确定该训练样本对应的面部图像。
可选地,确定所述面部图像中的关键点区域,以从中确定属于预设类型的关键点区域,具体包括:
对所述面部图像进行人脸关键点定位,确定所述面部图像中的各关键点区域以及各关键点区域的类型;
根据各关键点区域的类型,从各关键点区域中,确定眼部关键点区域,作为属于预设类型的关键点区域。
可选地,根据各训练样本对应的融合特征,确定对比损失,具体包括:
确定各训练样本的融合特征两两间的相似度,作为各第二相似度;
针对每个训练样本,从各第二相似度中确定该训练样本分别与和该训练样本标签相同的其他训练样本的融合特征间的相似度,同时作为第一相似度;
根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失;
根据各训练样本对应的损失,确定对比损失。
可选地,根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失,具体包括:
将各第二相似度求和,得到综合相似度;
针对每个第一相似度,根据该第一相似度与所述综合相似度的比值,确定该第一相似度对应的相似度比值;
根据该训练样本的各第一相似度对应的相似度比值,确定该训练样本对应的损失。
本说明书提供了一种活体检测装置,预先训练的活体检测模型包括回归网络以及若干特征提取网络,所述装置包括:
获取模块,用于获取用户图像,根据所述用户图像确定尺度不同的各局部图;
第一特征提取模块,用于将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征;
融合模块,用于将所述全局特征以及各局部特征进行拼接,得到融合特征;
检测模块,用于将所述融合特征输入所述回归网络,得到活体检测结果;
其中,所述活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的;所述融合特征以及所述标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入所述活体检测模型得到。
本说明书提供了一种模型训练装置,活体检测模型包括回归网络以及若干特征提取网络,所述装置包括:
样本确定模块,用于获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签;
局部图确定模块,用于针对每个训练样本,确定该训练样本对应的尺度不同的各局部图;
第二特征提取模块,用于将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征;
回归模块,用于将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率;
损失确定模块,用于根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失;
训练模块,用于以所述总损失最小为目标,对所述活体检测模型进行训练。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述活体检测以及模型训练方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述活体检测以及模型训练方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的活体检测以及模型训练方法中,通过根据用户图像确定尺度不同的局部图,将用户图像及各局部图分别输入活体检测模型中的不同特征提取网络,确定用户图像的全局特征以及各局部图的局部特征,并将全局特征及各局部特征拼接,得到融合特征,将融合特征输入活体检测模型的回归网络可得到活体检测结果。该活体检测模型为根据基于融合特征确定的对比损失及基于训练样本的标签对应的概率确定的分类损失训练得到的,融合特征及标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入活体检测模型得到。
从上述方法中可以看出,本方法由于能够提取到全局特征与尺度不同的局部特征,特征提取全面且充分,使模型的输出更准确。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书提供的一种活体检测方法的流程示意图;
图2为本说明书提供的一种模型训练方法的流程示意图;
图3为本说明书提供的一种模型训练示意图;
图4为本说明书提供的一种活体检测装置的示意图;
图5为本说明书提供的一种模型训练装置的示意图;
图6为本说明书提供的一种电子设备的结构示意图。
具体实施方式
目前,非配合式活体检测方法通常通过采集进行人脸识别的用户图像,并将用户图像输入模型提取图像的全局特征,以得到活体检测结果(活体或非活体)。在真人进行人脸识别时采集的用户图像即活体对应的图像,利用打印照片、面具等其他承载有人脸的介质进行人脸识别时,再次在介质上采集的用户图像则为非活体对应的图像。
对于一些非活体的照片、面具等,其局部具有便于准确识别是否为活体的特征。例如,对于打印照片,其局部通常具有纸质特征性纹理,或者也会反光。对于人脸面具,尤其是一些带孔洞的面具,孔洞处面具部分与人的实际皮肤的衔接通常不自然。对于屏幕展示的照片,则也会出现反光、屏幕上的摩尔纹等。这些特征都是利于准确得到活体检测结果的局部特征。但是现有的方法未关注局部特征。
由于现有的方法仅关注了全局特征,无法对图像进行细节性的局部特征的提取,因此,对于一些高清打印图像、人脸面具、屏幕展示的含人脸的照片等非活体介质无法准确检测是否为活体。
并且,现有的用于活体检测的模型在训练时,通常仅基于训练样本的标签(活体或非活体),基于训练样本的标签确定损失函数以进行训练,训练得到的模型的泛化性也不够好。
为了至少部分解决上述问题,本说明书提供了一种活体检测以及模型训练方法。在本说明书提供的活体检测以及模型训练方法中,除了通过活体检测模型提取用户图像的全局特征,还基于用户图像确定各尺度不同的局部图,并通过活体检测模型提取局部图对应的局部特征,以基于各特征得到既包含全局特征又包含局部特征的融合特征。使得活体检测模型能够基于融合特征输出更准确的结果。
并且,在对活体检测模型进行训练时,除了基于训练样本的标签确定分类损失,还确定了对比损失。利用对比损失与分类损失对活体检测模型进行训练,能够使活体检测模型更准确地表征不同的特征,并拉近相似特征在特征空间的距离,拉远不相似特征在特征空间的距离,使得活体检测模型输出的活体检测结果更准确。
由于基于对比损失对活体检测模型进行训练,能够使活体检测模型输出的相同标签对应的融合特征在特征空间的距离更近,使不同标签对应的融合特征在特征空间的距离更远,使相同标签的融合特征更聚合与集中,使不同标签的融合特征更分离。
这使得在出现未知类的(如除打印照片、屏幕照片、人脸面具外的训练样本中不包含的)非活体用户图像时,能够更准确识别其融合特征在特征空间更接近哪种标签对应的融合特征,即,更准确识别其融合特征与活体类融合特征更相似还是与非活体类融合特征更相似。进一步使得该活体检测模型能够准确输出该未知类的用户图像属于活体这一活体的概率与非活体的概率,概率更高的一方即得到的活体检测结果。因而,结合对比损失对活体检测模型进行训练可使活体检测模型的泛化能力也更好。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种活体检测方法的流程示意图,具体包括以下步骤:
S100:获取用户图像,根据所述用户图像确定尺度不同的各局部图。
在本说明书中,该活体检测方法可由服务器执行。当然,也可由其他能够基于用户图像,通过预先训练好的活体检测模型进行活体检测的电子设备执行,本说明书在此不做限制。
在本说明书中,预先训练的活体检测模型包括回归网络以及若干特征提取网络。该活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的,融合特征以及标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入活体检测模型得到。对活体检测模型进行训练的过程在后续进行说明,在此先不进行赘述。
在本说明书一个或多个实施例中,在进行活体检测时,首先,该服务器可获取用户图像。该用户图像可以是在进行人脸识别时通过视觉传感器采集的。
在获取到用户图像后,为了使得后续活体检测模型能够提取到不同尺度的特征,包括全局特征以及局部特征,该服务器可根据获取到的该用户图像确定尺度不同的各局部图。
即,截取该用户图像的局部区域,作为各局部图。
由于该活体检测方法用于在人脸识别时检测当前进行人脸识别的用户人脸是活体还是承载有用户人脸的非活体介质,而用户面部包含大量辅助识别其是否为活体的特征,因此,用户的面部图像可作为进行活体检测的一个局部区域。
于是,在本说明书一个或多个实施例中,在确定局部图时,具体的,该服务器可通过目标检测算法,确定该用户图像中包含的用户的面部区域。并根据得到的面部区域确定面部图像。
在本说明书一个或多个实施例中,通过目标检测,可得到该用户图像中各面部的包围框,面部区域可以是在该用户图像中,通过目标检测得到的人脸的包围框所包围的图像区域。
需要说明的是,本说明书对具体采用的目标检测算法不做限制,可采用任何能够识别人的面部并输出包围框的现有的目标检测算法。
在本说明书一个或多个实施例中,在得到面部图像后,该服务器可进一步基于面部图像继续确定该用户图像的局部图。
该服务器可通过人脸关键点定位,确定该面部图像中的关键点区域,以从中确定属于预设类型的关键点区域,之后,可将该面部图像以及预设类型的关键点区域,作为该训练样本对应的尺度不同的各局部图。
其中,对预设类型的关键点区域的数量不做限制。例如,类型可包括嘴部、眼部中的至少一种。则属于预设类型的关键点区域可包括用户图像中的眼部关键点区域与嘴部关键点区域中的至少一种。由于人脸关键点定位已经是成熟的技术,因此,对进行人脸关键点定位的具体过程,本说明书在此不做赘述。
由于在进行人脸识别时,环境中可能有他人走动,因此采集的用户图像中可能包含多人的人脸,但距离传感器最近的人脸应当是进行人脸识别的用户的人脸,其面积也是所有人脸中最大的。
基于此,在本说明书一个或多个实施例中,当确定出的面部区域仅有一个时,该服务器则可根据该面部区域,确定面部图像。即,从该用户图像中截取出该面部区域对应的图像作为面部图像。
当确定出的面部区域有多个时,该服务器则可确定各面部图像的面积,并根据面积最大的面部区域,确定该用户图像对应的面部图像。
其中,面部区域的面积,可以是面部区域的包围框的面积。
S102:将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征。
在本说明书一个或多个实施例中,确定出的用户图像以及各局部图的总数与该活体检测模型包含的特征提取网络数量相同。
该服务器在确定出用户图像以及各局部图后,可将用户图像以及各局部图分别输入不同的特征提取网络,确定用户图像对应的全局特征以及各局部图对应的局部特征。即,分别将用户图像与各局部图中的每一张图像输入一个特征提取网络,以得到对应的特征提取网络输出的全局特征及局部特征。
S104:将所述全局特征以及各局部特征进行拼接,得到融合特征。
在本说明书一个或多个实施例中,在得到全局特征以及各局部特征后,该服务器可将该全局特征与各局部特征进行拼接,则可得到融合特征。使得在后续步骤中,活体检测模型能够基于包含全局特征与局部特征的融合特征,更准确输出用户图像为活体的概率与为非活体的概率。
S106:将所述融合特征输入所述回归网络,得到活体检测结果。
在本说明书一个或多个实施例中,该服务器可将得到的融合特征输入回归网络,得到活体检测结果。
其中,该活体检测结果可包括活体以及非活体中的一种。
具体的,该服务器可在将融合特征输入回归网络后,从回归网络输出的该用户图像为活体这一类别的概率以及该用户图像为非活体这一类别的概率中,确定概率更高的一种类别,作为该用户图像对应的活体检测结果。
基于图1所示的活体检测方法,通过获取用户图像,基于待检测的用户图像进一步确定尺度不同的各局部图,以通过活体检测模型的不同特征提取网络分别对用户图像与各局部图进行特征提取,得到全局特征以及尺度不同的各局部特征,以将全局特征及各局部特征融合得到融合特征,之后,将融合特征输入活体检测模型的回归网络,基于回归网络的输出,得到活体检测结果。
从上述方法中可以看出,本方法由于对用户图像进行全局与局部的特征提取,对特征提取更全面,基于将全局特征及不同尺度的局部特征拼接得到的融合特征,能够更准确得确定出活体检测结果。
另外,本说明书还提供了一种模型训练方法,基于该模型训练方法可对活体检测模型进行训练。如上所述,该活体检测模型包括回归网络以及若干特征提取网络。并且,该活体检测模型包括的各网络基于图2所示的端到端的训练方式进行联合训练。
其中,该活体检测模型包括的各特征提取网络具体可为卷积神经网络(Convolutional Neural Network,CNN)、多层感知机(Multilayer Perceptron,MLP)、循环神经网络(Recurrent Neural Network,RNN)、变换器(transformer)中的一种或多种。例如,各特征提取网络可以皆为CNN,或者,各特征提取网络可不同,可部分为CNN(或上述列出的其他网络),部分为MLP(或上述列出的其他网络),即,各特征提取网络可以是CNN、MLP、RNN、transformer中的至少部分网络。该活体检测模型的回归网络则可为MLP网络。
图2为本说明书中一种模型训练方法的流程示意图,具体包括以下步骤:
S300:获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签。
在本说明书一个或多个实施例中,该模型训练方法可由服务器执行。在对实体检测模型进行训练时,首先,该服务器可获取预先采集的各用户图像作为各训练样本。并针对每个训练样本,将该训练样本是否为活体作为该训练样本对应的标签。
其中,获取的各用户图像中包括采集的类别为活体的用户图像,以及采集的诸如用户的打印照片、印有用户脸部的面具、屏幕展示的用户照片等类别为非活体的用户图像。
S302:针对每个训练样本,确定该训练样本对应的尺度不同的各局部图。
在本说明书一个或多个实施例中,在确定出各训练样本及其对应的标签后,该服务器可针对每个训练样本,确定该训练样本对应的尺度不同的各局部图。使得在后续步骤中,该服务器可通过待训练的该活体检测模型,得到全局特征及尺度不同的局部特征。
具体的,该服务器可针对每个训练样本,通过目标检测算法,确定该训练样本包含的面部区域,并根据得到的面部区域确定面部图像。之后,该服务器可确定面部图像中的关键点区域,以从中确定属于预设类型的关键点区域,并将面部图像以及预设类型的关键点区域,作为该训练样本对应的尺度不同的各局部图。
在本说明书一个或多个实施例中,在确定面部图像时,当确定出的面部区域为多个时,该服务器可根据面积最大的面部区域,确定该训练样本对应的面部图像,当确定出的面部区域为一个时,根据确定出的一个面部区域确定面部图像。
在确定面部图像中的关键点区域时,该服务器可对该面部图像进行人脸关键点定位,确定该面部图像中的各关键点区域以及各关键点区域的类型,之后,根据各关键点区域的类型,从各关键点区域中,确定眼部关键点区域,作为属于预设类型的关键点区域。
当然,如上述步骤S100中所述,对预设类型的关键点区域的数量不做限制。关键点区域还可包括其他类型的关键点区域。因此,该服务器还可根据各关键点区域的类型,从各关键点区域中,确定嘴部关键点区域,作为属于预设类型的关键点区域。当然也可确定其他关键点区域,如耳部等。
在进行关键点定位时,可得到用户面部的各类型的关键点坐标。关键点即描绘关键点区域的各点。例如类型为眼部的各关键点为描绘眼部轮廓的各点,基于各关键点坐标,可确定出眼部在用户图像中的位置,如可直接基于眼部的各关键点坐标确定眼部包围框,将包围框对应的图像区域,作为眼部的关键点区域,或者,还可在基于眼部的各关键点坐标确定眼部包围框后,根据预设的扩张距离,对包围框进行扩张。该服务器可将扩张后的包围框,作为眼部对应的关键点区域。
S304:将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征。
在本说明书一个或多个实施例中,该服务器在确定出各局部图后,可将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征。
S306:将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率。
在得到全局特征以及各局部特征后,该服务器则可将全局特征以及各局部特征进行拼接,得到融合特征,并将融合特征输入到活体检测模型的回归网络,得到该训练样本属于活体的概率以及属于非活体的概率。
S308:根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失。
在本说明书一个或多个实施例中,该服务器可针对每个训练样本,从回归网络输出的该训练样本属于活体的概率以及该训练样本属于非活体的概率中,确定该训练样本的标签对应的概率。
之后,该服务器则可根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失。以根据该分类损失以及该对比损失确定总损失。
在本说明书一个或多个实施例中,确定分类损失的公式可具体如下:
其中,L1即分类损失,I为各训练样本构成的集合。例如,当以一个样本子集(batch)中的训练样本确定一次损失时,I即一个batch。pi即集合I中第i个训练样本的标签对应的概率。可见,训练样本的标签对应的概率与分类损失负相关。
在本说明书一个或多个实施例中,在确定对比损失时,具体的,该服务器可确定各训练样本的融合特征两两间的相似度,作为各第二相似度,并针对每个训练样本,从各第二相似度中确定该训练样本分别与和该训练样本标签相同的其他训练样本的融合特征间的相似度,同时作为第一相似度。之后,该服务器可根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失,以根据各训练样本对应的损失,确定对比损失。
其中,用于确定该训练样本对应的损失的第二相似度中包含同样作为第一相似度的相似度。
在针对每个训练样本,确定该训练样本对应的损失时,该服务器可将各第二相似度求和,得到综合相似度。之后,针对每个第一相似度,可根据该第一相似度与所述综合相似度的比值,确定该第一相似度对应的相似度比值。然后,该服务器可根据该训练样本的各第一相似度对应的相似度比值,确定该训练样本对应的损失。
在本说明书一个或多个实施例中,确定对比损失的公式可具体如下:
其中,L2即对比损失,I为各训练样本构成的集合。zi表示集合I中第i个训练样本对应的融合特征。Q为与第i个训练样本标签相同的其他训练样本构成的集合。|Q|即集合Q中包含的训练样本的数量。zq表示集合Q中第q个训练样本的融合特征。za为集合A中第a个训练样本的融合特征。集合A可以包含第i个训练样本以及各其他的训练样本,也可不包含第i个训练样本,仅包含其他的训练样本。
即,集合A可以与集合I相同,也可为集合I去掉第i个训练样本后的集合。τ为预设的调节参数,可根据需要设置,例如,可以是0.1,当然也可以是其他数值,具体可根据需要设置。
即一个第一相似度(集合I中第i个训练样本与集合Q中第q个训练样本的第一相似度),即一个第二相似度(集合I中第i个训练样本与集合A中第a个训练样本的第二相似度)。即融合相似度。即集合Q中第q个训练样本与集合I中第i个训练样本的第一相似度对应的相似度比值。即集合I中第i个训练样本对应的损失。
在本说明书一个或多个实施例中,具体可将分类损失与对比损失求和得到总损失。或者也可通过将分类损失与对比损失加权求和的方式,确定总损失。
在本说明书一个或多个实施例中,确定总损失的公式可具体如下:
L总=L1+λL2
其中,L总即总损失,L1即分类损失,L2即对比损失。λ为预设的加权系数,可根据需要设置,例如,可以是0.5,当然也可以是其他数值,具体可根据需要设置。
S310:以所述总损失最小为目标,对所述活体检测模型进行训练。
在确定出总损失后,该服务器可以该总损失最小为目标,对该活体检测模型进行训练。
基于图2所示的模型训练方法,通过针对每个用户图像作为的训练样本,确定该训练样本对应的尺度不同的各局部图,将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及尺度不同的各局部图对应的局部特征,之后将全局特征以及各局部特征拼接得到的融合特征输入回归网络,得到该训练样本属于活体及非活体的概率,根据得到的标签对应的概率确定分类损失,根据各训练样本对应的融合特征,确定对比损失,并根据分类损失以及对比损失确定总损失,以总损失最小为目标,对活体检测模型进行训练。
从上述方法中可以看出,本方法由于对用户图像进行全局与局部的特征提取,对特征提取更全面,基于将全局特征及局部特征拼接得到的融合特征,能够使活体检测模型输出更准确的活体检测结果。并且,在对活体检测模型进行训练时,除了以基于训练样本的标签确定出的分类损失进行训练,还基于训练样本对应的融合特征确定的对比损失进行训练。基于分类损失与对比损失确定的总损失,能够使活体检测模型能够更准确输出活体检测结果的前提下,具有更好的泛化能力。
为了方便理解,本说明书还该提供了如图3所示的模型训练示意图。
如图3所示,基于作为训练样本的用户图像,可得到用户的面部图像作为的局部图,即第一局部图。进一步地,基于用户的面部图像,可得到用户的眼部关键点区域作为局部图,即第二局部图。将用户图像与各局部图分别输入活体检测模型的不同的特征提取网络后,可得到用户图像对应的全局特征、用户的面部图像作为的第一局部图对应的局部特征以及用户的眼部关键点区域作为的第二局部图对应的局部特征。将各局部图进行拼接,则可得的融合特征。将融合特征输入回归网络,则可得到该训练样本属于活体的概率以及属于非活体的概率。
在得到活体检测模型输出的多个训练样本对应的概率后。可根据各训练样本的概率中,标签对应的概率确定分类损失,以及根据各训练样本的融合特征确定的相似度(包括标签相同的训练样本的融合特征确定的相似度,以及不同标签的训练样本的融合特征确定的相似度)确定的对比损失。基于分类损失与对比损失可得到总损失。得到总损失后,可以总损失最小为目标对活体检测模型进行训练。
以上为本说明书的一个或多个实施例提供的活体检测以及模型训练方法,基于同样的思路,本说明书还提供了相应的活体检测装置,如图4所示。
图4为本说明书提供的一种活体检测装置示意图,预先训练的活体检测模型包括回归网络以及若干特征提取网络,该装置包括:
获取模块200,用于获取用户图像,根据所述用户图像确定尺度不同的各局部图;
第一特征提取模块201,用于将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征;
融合模块202,用于将所述全局特征以及各局部特征进行拼接,得到融合特征;
检测模块203,用于将所述融合特征输入所述回归网络,得到活体检测结果;
其中,所述活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的;所述融合特征以及所述标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入所述活体检测模型得到。
本说明书还提供了相应的模型训练装置,如图5所示。
图5为本说明书提供的一种模型训练装置示意图,活体检测模型包括回归网络以及若干特征提取网络,该装置包括:
样本确定模块400,用于获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签;
局部图确定模块401,用于针对每个训练样本,确定该训练样本对应的尺度不同的各局部图;
第二特征提取模块402,用于将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征;
回归模块403,用于将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率;
损失确定模块404,用于根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失;
训练模块405,用于以所述总损失最小为目标,对所述活体检测模型进行训练。
可选地,所述局部图确定模块401,还用于针对每个训练样本,通过目标检测算法,确定该训练样本包含的面部区域,根据得到的面部区域确定面部图像,确定所述面部图像中的关键点区域,以从中确定属于预设类型的关键点区域,将所述面部图像以及所述预设类型的关键点区域,作为该训练样本对应的尺度不同的各局部图。
可选地,所述局部图确定模块401,还用于当所述面部区域为多个时,根据面积最大的面部区域,确定该训练样本对应的面部图像,当所述面部区域为一个时,根据确定出的面部区域,确定该训练样本对应的面部图像。
可选地,所述局部图确定模块401,还用于对所述面部图像进行人脸关键点定位,确定所述面部图像中的各关键点区域以及各关键点区域的类型,根据各关键点区域的类型,从各关键点区域中,确定眼部关键点区域,作为属于预设类型的关键点区域。
可选地,所述损失确定模块404,还用于确定各训练样本的融合特征两两间的相似度,作为各第二相似度,针对每个训练样本,从各第二相似度中确定该训练样本分别与和该训练样本标签相同的其他训练样本的融合特征间的相似度,同时作为第一相似度,根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失,根据各训练样本对应的损失,确定对比损失。
可选地,所述损失确定模块404,还用于将各第二相似度求和,得到综合相似度,针对每个第一相似度,根据该第一相似度与所述综合相似度的比值,确定该第一相似度对应的相似度比值,根据该训练样本的各第一相似度对应的相似度比值,确定该训练样本对应的损失。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1、图2提供的活体检测以及模型训练方法。
本说明书还提供了图6所示的电子设备的结构示意图。如图6所示,在硬件层面,该电子设备包括处理器、内部总线、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1、图2提供的活体检测以及模型训练方法。
需要说明的是,本说明书中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (11)
1.一种活体检测方法,其特征在于,预先训练的活体检测模型包括回归网络以及若干特征提取网络,所述方法包括:
获取用户图像,根据所述用户图像确定尺度不同的各局部图;
将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征;
将所述全局特征以及各局部特征进行拼接,得到融合特征;
将所述融合特征输入所述回归网络,得到活体检测结果;
其中,所述活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的;所述融合特征以及所述标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入所述活体检测模型得到。
2.一种模型训练方法,其特征在于,活体检测模型包括回归网络以及若干特征提取网络,所述方法包括:
获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签;
针对每个训练样本,确定该训练样本对应的尺度不同的各局部图;
将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征;
将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率;
根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失;
以所述总损失最小为目标,对所述活体检测模型进行训练。
3.如权利要求2所述的方法,其特征在于,针对每个训练样本,确定该训练样本对应的尺度不同的各局部图,具体包括:
针对每个训练样本,通过目标检测算法,确定该训练样本包含的面部区域;
根据得到的面部区域确定面部图像;
确定所述面部图像中的关键点区域,以从中确定属于预设类型的关键点区域;
将所述面部图像以及所述预设类型的关键点区域,作为该训练样本对应的尺度不同的各局部图。
4.如权利要求3所述的方法,其特征在于,根据得到的面部区域确定面部图像,具体包括:
当所述面部区域为多个时,根据面积最大的面部区域,确定该训练样本对应的面部图像;
当所述面部区域为一个时,根据确定出的面部区域,确定该训练样本对应的面部图像。
5.如权利要求3所述的方法,其特征在于,确定所述面部图像中的关键点区域,以从中确定属于预设类型的关键点区域,具体包括:
对所述面部图像进行人脸关键点定位,确定所述面部图像中的各关键点区域以及各关键点区域的类型;
根据各关键点区域的类型,从各关键点区域中,确定眼部关键点区域,作为属于预设类型的关键点区域。
6.如权利要求2所述的方法,其特征在于,根据各训练样本对应的融合特征,确定对比损失,具体包括:
确定各训练样本的融合特征两两间的相似度,作为各第二相似度;
针对每个训练样本,从各第二相似度中确定该训练样本分别与和该训练样本标签相同的其他训练样本的融合特征间的相似度,同时作为第一相似度;
根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失;
根据各训练样本对应的损失,确定对比损失。
7.如权利要求6所述的方法,其特征在于,根据确定出的各第一相似度以及各第二相似度,确定该训练样本对应的损失,具体包括:
将各第二相似度求和,得到综合相似度;
针对每个第一相似度,根据该第一相似度与所述综合相似度的比值,确定该第一相似度对应的相似度比值;
根据该训练样本的各第一相似度对应的相似度比值,确定该训练样本对应的损失。
8.一种活体检测装置,其特征在于,预先训练的活体检测模型包括回归网络以及若干特征提取网络,所述装置包括:
获取模块,用于获取用户图像,根据所述用户图像确定尺度不同的各局部图;
第一特征提取模块,用于将所述用户图像以及各局部图分别输入不同的特征提取网络,确定所述用户图像对应的全局特征以及各局部图对应的局部特征;
融合模块,用于将所述全局特征以及各局部特征进行拼接,得到融合特征;
检测模块,用于将所述融合特征输入所述回归网络,得到活体检测结果;
其中,所述活体检测模型为,根据基于融合特征确定的对比损失以及基于训练样本的标签对应的概率确定的分类损失训练得到的;所述融合特征以及所述标签对应的概率皆通过将用户图像作为的训练样本及其对应的各局部图输入所述活体检测模型得到。
9.一种模型训练装置,其特征在于,活体检测模型包括回归网络以及若干特征提取网络,所述装置包括:
样本确定模块,用于获取各用户图像作为各训练样本,将各训练样本是否为活体作为标签;
局部图确定模块,用于针对每个训练样本,确定该训练样本对应的尺度不同的各局部图;
第二特征提取模块,用于将该训练样本以及各局部图分别输入不同的特征提取网络,确定该训练样本对应的全局特征以及各局部图对应的局部特征;
回归模块,用于将所述全局特征以及各局部特征进行拼接,得到融合特征,并将所述融合特征输入所述回归网络,得到该训练样本属于活体及非活体的概率;
损失确定模块,用于根据各训练样本的标签对应的概率确定分类损失,并根据各训练样本对应的融合特征,确定对比损失,以确定总损失;
训练模块,用于以所述总损失最小为目标,对所述活体检测模型进行训练。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210615763.1A CN114998962A (zh) | 2022-05-31 | 2022-05-31 | 一种活体检测以及模型训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210615763.1A CN114998962A (zh) | 2022-05-31 | 2022-05-31 | 一种活体检测以及模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998962A true CN114998962A (zh) | 2022-09-02 |
Family
ID=83030278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210615763.1A Pending CN114998962A (zh) | 2022-05-31 | 2022-05-31 | 一种活体检测以及模型训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998962A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830721A (zh) * | 2022-11-02 | 2023-03-21 | 深圳市新良田科技股份有限公司 | 活体检测方法、装置、终端设备和可读存储介质 |
CN118155792A (zh) * | 2024-05-10 | 2024-06-07 | 天津市肿瘤医院(天津医科大学肿瘤医院) | 一种基于结直肠非结构化数据库的特征提取方法 |
-
2022
- 2022-05-31 CN CN202210615763.1A patent/CN114998962A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830721A (zh) * | 2022-11-02 | 2023-03-21 | 深圳市新良田科技股份有限公司 | 活体检测方法、装置、终端设备和可读存储介质 |
CN115830721B (zh) * | 2022-11-02 | 2024-05-03 | 深圳市新良田科技股份有限公司 | 活体检测方法、装置、终端设备和可读存储介质 |
CN118155792A (zh) * | 2024-05-10 | 2024-06-07 | 天津市肿瘤医院(天津医科大学肿瘤医院) | 一种基于结直肠非结构化数据库的特征提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358157B (zh) | 一种人脸活体检测方法、装置以及电子设备 | |
CN111553333B (zh) | 人脸图像识别模型训练方法、识别方法、装置和电子设备 | |
CN111178341A (zh) | 一种活体检测方法、装置及设备 | |
CN114998962A (zh) | 一种活体检测以及模型训练方法及装置 | |
CN108664526B (zh) | 检索的方法和设备 | |
CN111368944B (zh) | 翻拍图像、证件照识别、模型训练方法、装置及电子设备 | |
CN112507831B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN112784857B (zh) | 一种模型训练以及图像处理方法及装置 | |
CN111914812A (zh) | 图像处理模型训练方法、装置、设备及存储介质 | |
CN112836625A (zh) | 人脸活体检测方法、装置、电子设备 | |
CN112446322A (zh) | 眼球特征检测方法、装置、设备及计算机可读存储介质 | |
CN112990172B (zh) | 一种文本识别方法、字符识别方法及装置 | |
CN113837257A (zh) | 一种目标检测方法及装置 | |
CN115600157A (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
CN116186330B (zh) | 一种基于多模态学习的视频去重方法及装置 | |
CN112287905A (zh) | 车辆损伤识别方法、装置、设备及存储介质 | |
CN112614111A (zh) | 一种基于强化学习的视频篡改操作检测方法及装置 | |
CN115546908A (zh) | 一种活体检测方法、装置及设备 | |
EP4332910A1 (en) | Behavior detection method, electronic device, and computer readable storage medium | |
CN114926437A (zh) | 一种图像质量评价方法及装置 | |
CN115004245A (zh) | 目标检测方法、装置、电子设备和计算机存储介质 | |
CN115705758A (zh) | 活体识别方法、装置、电子设备和存储介质 | |
CN113095347A (zh) | 基于深度学习的标记识别方法和训练方法及其系统和电子设备 | |
CN116310406B (zh) | 一种图像检测的方法、装置、存储介质及电子设备 | |
CN116188919B (zh) | 一种测试方法、装置、可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |