CN116259116A - 活体检测方法和系统 - Google Patents
活体检测方法和系统 Download PDFInfo
- Publication number
- CN116259116A CN116259116A CN202310042198.9A CN202310042198A CN116259116A CN 116259116 A CN116259116 A CN 116259116A CN 202310042198 A CN202310042198 A CN 202310042198A CN 116259116 A CN116259116 A CN 116259116A
- Authority
- CN
- China
- Prior art keywords
- teacher
- image
- living body
- body detection
- knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本说明书提供的活体检测方法和系统,在获得目标用户的目标用户图像后,将所述目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;该方案可以提升活体检测的准确率。
Description
技术领域
本说明书涉及图像识别领域,尤其涉及一种活体检测方法和系统。
背景技术
近年来,随着互联网技术的飞速发展,在人脸识别系统中活体检测已经成为不可缺少的一环,通过活体检测可以有效拦截非活体类型的攻击样本。现有的活体检测方法往往通过在云侧或端侧通过活体检测模型进行活体检测。
在对现有技术的研究和实践过程中,本发明的发明人发现在部署在云侧的活体检测模型进行活体检测侧,需要将用户图像上传至云侧,必须依赖网络,针对无网和弱网环境下无法进行活体检测,而在端侧通过活体检测模型进行活体检测时,受限与端侧的算力和存储空间,使得活体检测模型的检测性能受限,因此,导致活体检测的准确率较低。
发明内容
本说明书提供一种准确率更高的活体检测方法和系统。
第一方面,本说明书提供一种活体检测方法,包括:获得目标用户的目标用户图像;将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,所述活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型;以及基于所述攻击概率,确定所述目标用户的活体检测结果,并输出所述活体检测结果。
在一些实施例中,所述难易知识包括简单知识和困难知识,所述简单知识包括显著特征对应的知识,所述困难知识包括除所述显著特征以外的特征对应的知识。
在一些实施例中,所述活体检测模型的训练过程包括以下步骤:获得第一用户图像样本,并将所述第一用户图像样本输入至所述双子教师模型组,以获得教师图像特征和教师预测类别;将所述第一用户图像样本、所述教师图像特征和所述教师预测类别输入至预设活体检测模型,以获得学生图像特征、学生预测类别和所述难易知识对应的解耦权重;以及基于所述教师图像特征、所述教师预测类别、所述学生图像特征、所述学生预测类别和解耦权重,对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型。
在一些实施例中,所述预设活体检测模型包括学生网络和所述难易知识对应的元网络;以及所述将所述第一用户图像样本、所述教师图像特征和所述教师预测类别输入至预设活体检测模型,以获得学生图像特征、学生预测类别和所述难易知识对应的解耦权重,包括:将所述第一用户图像样本输入至所述学生网络,以获得所述第一用户图像样本对应的学生图像特征和所述学生预测类别,以及将所述教师图像特征、所述教师预测类别、所述学生图像特征和所述学生预测类别输入至所述元网络,以获得所述难易知识对应的解耦权重。
在一些实施例中,所述对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型,包括:将所述教师预测类别与所述学生预测类别进行对比,以得到分类蒸馏损失信息;基于所述解耦权重,将所述教师图像特征与所述学生图像特征进行对比,以得到解耦蒸馏损失信息;以及将所述分类蒸馏损失信息和所述解耦蒸馏损失信息进行融合,并基于融合后的目标蒸馏损失信息,对所述预设活体检测模型进行收敛,得到所述活体检测模型。
在一些实施例中,所述将所述教师图像特征与所述学生图像特征进行对比,以得到解耦蒸馏损失信息,包括:分别在所述教师图像特征和所述学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息;将所述教师图像特征的绝对值与所述学生图像特征的绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息;以及基于所述解耦权重,分别对所述简单知识蒸馏损失信息和所述困难知识蒸馏损失信息进行加权融合,得到所述解耦蒸馏损失信息。
在一些实施例中,所述分别在所述教师图像特征和所述学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息,包括:在所述教师图像特征中提取出显著特征,得到所述双子教师模型组对应的教师简单知识;在所述学生图像特征中提取出所述显著特征,得到所述学生网络对应的学生简单知识;以及将所述教师简单知识与所述学生简单知识进行对比,以得到所述简单知识蒸馏损失信息。
在一些实施例中,所述教师图像特征包括多个图像子特征;以及所述在所述教师图像特征中提取出显著特征,得到双子教师模型组对应的教师简单知识,包括:确定所述多个图像子特征中每一图像子特征的特征值,基于所述特征值,对所述多个图像子特征从大到小进行排序,以及基于排序结果,在所述多个图像子特征中选取出预设排序范围对应的图像子特征,得到所述显著特征,并将所述显著特征作为所述教师简单知识。
在一些实施例中,所述多个图像子特征的数量为N个,所述预设排序范围为前N/2个图像子特征。
在一些实施例中,所述将所述教师图像特征的绝对值与所述学生图像特征的绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息,包括:确定所述教师图像特征的绝对值,得到教师困难知识,并确定所述学生图像特征的绝对值,得到学生困难知识;获得所述教师困难知识与所述学生困难知识之间的特征差值;以及基于所述特征差值,确定所述困难知识对应的困难知识蒸馏损失信息。
在一些实施例中,所述对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型之后,还包括:获得所述简单知识中的学生简单知识的统计特征,得到第一统计特征,并基于所述第一统计特征,确定所述学生简单知识的第一特征分布;以及获得所述困难知识中的学生困难知识的统计特征,得到第二统计特征,并基于所述第二统计特征,确定所述学生困难知识的第二特征分布。
在一些实施例中,所述统计特征包括均值和方差中的至少一个。
在一些实施例中,还包括:在所述活体检测模型的运行时间达到预设时间周期时,统计所述运行时间内的用户图像集合的数据分布概率,所述数据分布概率包括所述用户图像集合中的用户图像处于所述第一特征分布的第一分布概率和处于所述第二特征分布的第二分布概率;以及基于所述第一分布概率和所述第二分布概率,从第一方案、第二方案和第三方案中择一执行,其中:第一方案包括:确定所述第一分布概率小于第一预设概率阈值,将所述活体检测模型作为更新后的目标活体检测模型,第二方案包括:确定所述第二分布概率小于第二预设概率阈值,基于所述用户图像,对所述活体检测模型进行训练,得到更新后的目标活体检测模型,以及第三方案包括:确定所述第一分布概率大于所述第一预设概率阈值,且所述第二分布概率大于所述第二预设概率阈值,将所述用户图像发送至远程服务器,以便所述远程服务器对所述活体检测模型进行更新,并接收所述远程服务器返回的更新后的目标活体检测模型。
在一些实施例中,所述统计所述运行时间内的用户图像集合的数据分布概率,包括:获得所述运行时间内的用户图像集合,并确定所述用户图像集合中每一用户图像处于所述第一特征分布的第一初始分布概率和处于所述第二特征分布的第二初始分布概率;确定所述第一初始分布概率的均值,得到第一分布概率,并确定所述第二初始分布概率的均值,得到第二分布概率;以及将所述第一分布概率和所述第二分布概率作为所述用户图像集合的数据分布概率。
在一些实施例中,所述双子教师模型组的训练过程包括以下步骤:获得第二用户图像样本;将所述第二用户图像样本输入至预设双子教师模型组,以获得所述预设双子教师模型组中每一教师模型输出的样本图像特征和预测用户类别;以及基于所述样本图像特征和所述预测用户类别,对所述预设双子教师模型组进行收敛,得到训练后的所述双子教师模型组。
在一些实施例中,所述预设双子教师模型组包括结构相同的第一教师模型和第二教师模型;以及所述对所述预设双子教师模型组进行收敛,得到训练后的所述双子教师模型组,包括:获得所述第二用户图像样本的标注用户类别,并将所述标注用户类别与所述预测用户类别进行对比,得到单一分类损失信息,将所述第一教师模型的样本图像特征与所述第二教师模型的样本图像特征进行对比,以得到特征互补损失信息,将所述第一教师模型的预测用户类别与所述第二教师模型的预测类别进行融合,以得到融合分类损失信息,以及将所述单一分类损失信息、所述特征互补损失信息和所述融合分类损失信息进行融合,并基于融合后的目标教师损失信息对预设双子教师模型组进行收敛,得到所述双子教师模型组。
在一些实施例中,所述将所述第一教师模型的样本图像特征与所述第二教师模型的样本图像特征进行对比,以得到特征互补损失信息,包括:在所述第一教师模型的样本图像特征中提取出所述第一教师模型的每一网络层输出的第一目标样本图像特征;在所述第二教师模型的样本图像特征中提取出所述第二教师模型的每一网络层输出的第二目标样本图像特征;以及确定所述第一目标样本图像特征与对应的所述第二目标样本图像特征之间的相似度,以得到所述每一网络层的特征互补损失信息,所述特征互补损失信息的约束条件为约束不同教师模型的对应网络层的目标样本图像特征之间的相似度小于预设相似度阈值。
在一些实施例中,所述将所述第一教师模型的预测用户类别与所述第二教师模型的预测用户类别进行融合,以得到融合分类损失信息,包括:在所述第一教师模型的预测用户类别中提取出每一候选用户类别对应的第一预测概率;在所述第二教师模型的预测用户类别中提取出所述每一候选用户类别对应的第二预测概率;将所述第一预测概率与对应的所述第二预测概率相加,得到所述每一候选用户类别的目标预测概率;以及基于所述目标预测概率,确定融合后的目标用户类别,并将所述目标用户类别与所述标注用户类别进行对比,以得到所述融合分类损失信息。
在一些实施例中,所述基于所述攻击概率,确定所述目标用户的活体检测结果,包括:在所述攻击概率大于预设攻击概率阈值时,确定所述目标用户的活体检测结果为攻击用户。
在一些实施例中,还包括:在所述攻击概率小于所述预设攻击概率阈值时,确定所述目标用户的活体检测结果为正常用户。
第二方面,本说明书还提供一种活体检测系统,包括:至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及至少一个处理器,同所述至少一个存储介质通信连接,其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行本说明书第一方面所述的活体检测方法。
由以上技术方案可知,本说明书提供的活体检测方法和系统,在获得目标用户的目标用户图像后,将所述目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;由于该方案通过双子教师模型组指导学生模型,在指导过程中通过对难易知识进行解耦蒸馏,从而获得端侧的轻量活体检测模型,通过所述轻量的活体检测模型可以提升端侧的活体检测性能,因此,可以提升活体检测的准确率。
本说明书提供的活体检测方法和系统的其他功能将在以下说明中部分列出。根据描述,以下数字和示例介绍的内容将对那些本领域的普通技术人员显而易见。本说明书提供的活体检测方法和系统的创造性方面可以通过实践或使用下面详细示例中所述的方法、装置和组合得到充分解释。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本说明书的实施例提供的一种活体检测系统的应用场景示意图;
图2示出了根据本说明书的实施例提供的一种计算设备的硬件结构图;
图3示出了根据本说明书的实施例提供的一种活体检测方法流程图;以及
图4示出了根据本说明书的实施例提供的一种人脸识别场景下的活体检测方法的整体流程示意图。
具体实施方式
以下描述提供了本说明书的特定应用场景和要求,目的是使本领域技术人员能够制造和使用本说明书中的内容。对于本领域技术人员来说,对所公开的实施例的各种局部修改是显而易见的,并且在不脱离本说明书的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用。因此,本说明书不限于所示的实施例,而是与权利要求一致的最宽范围。
这里使用的术语仅用于描述特定示例实施例的目的,而不是限制性的。比如,除非上下文另有明确说明,这里所使用的,单数形式“一”,“一个”和“该”也可以包括复数形式。当在本说明书中使用时,术语“包括”、“包含”和/或“含有”意思是指所关联的整数,步骤、操作、元素和/或组件存在,但不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或组的存在或在该系统/方法中可以添加其他特征、整数、步骤、操作、元素、组件和/或组。
考虑到以下描述,本说明书的这些特征和其他特征、以及结构的相关元件的操作和功能、以及部件的组合和制造的经济性可以得到明显提高。参考附图,所有这些形成本说明书的一部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在限制本说明书的范围。还应理解,附图未按比例绘制。
本说明书中使用的流程图示出了根据本说明书中的一些实施例的系统实现的操作。应该清楚地理解,流程图的操作可以不按顺序实现。相反,操作可以以反转顺序或同时实现。此外,可以向流程图添加一个或多个其他操作。可以从流程图中移除一个或多个操作。
为了方便描述,本说明书将对以下描述将会出现的术语进行如下解释:
知识蒸馏:指利用复杂的教师模型(网络)指导轻量级的学生模型(网络),从而提升学生模型的性能的模型训练方法;
活体检测:在人脸识别系统中,检测照片、屏幕等攻击手段的方法被称为活体检测;
难易知识:指的是将知识蒸馏中教师网络的知识划分为简单知识和困难知识两个部分。
在对本说明书具体实施例说明之前,先对本说明书的应用场景进行如下介绍:
本说明书提供的活体检测方法可以应用在任意的活体检测场景中,比如,在人脸支付场景中,可以通过本说明书的活体检测方法对采集的待支付用户的人脸图像进行活体检测;在身份验证场景中,可以通过本说明书的活体检测方法对采集的用户的身份图像进行活体检测;还可以应用在任意的人脸识别场景中,在此就不再一一赘述。
本领域技术人员应当明白,本说明书所述的活体检测方法和系统应用于其他使用场景也在本说明书的保护范围内。
图1示出了根据本说明书的实施例提供的一种活体检测系统001的应用场景示意图。活体检测的系统001(以下简称系统001)可以应用于任意场景的活体检测,比如,人脸支付场景下的活体检测、身份验证场景下的活体检测、人脸识别场景下的活体检测,等等,如图1所示,系统001可以包括用户100、客户端200、服务器300以及网络400。
用户100可以为触发对目标用户图像进行识别的用户,用户100可以在客户端200进行活体检测操作,用户100可以为目标用户,也可以为其他用户。
客户端200可以为响应于用户100的活体检测操作对目标用户图像进行活体检测的设备。在一些实施例中,所述活体检测方法可以在客户端200上执行。此时,客户端200可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,客户端200可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。如图1所示,客户端200可以与服务器300进行通信连接。在一些实施例中,服务器300可以与多个客户端200进行通信连接。在一些实施例中,客户端200可以通过网络400与服务器300交互,以接收或发送消息等,比如接收或发送目标用户的目标用户图像等。在一些实施例中,客户端200可以包括移动设备、平板电脑、笔记本电脑、机动车辆的内置设备或类似内容,或其任意组合。在一些实施例中,所述移动设备可包括智能家居设备、智能移动设备、虚拟现实设备、增强现实设备或类似设备,或其任意组合。在一些实施例中,所述智能家居装置可包括智能电视、台式电脑等,或任意组合。在一些实施例中,所述智能移动设备可包括智能手机、个人数字辅助、游戏设备、导航设备等,或其任意组合。在一些实施例中,所述虚拟现实设备或增强现实设备可能包括虚拟现实头盔、虚拟现实眼镜、虚拟现实手柄、增强现实头盔、增强现实眼镜、增强现实手柄或类似内容,或其中的任何组合。例如,所述虚拟现实设备或所述增强现实设备可能包括谷歌眼镜、头戴式显示器、VR等。在一些实施例中,所述机动车中的内置装置可包括车载计算机、车载电视等。在一些实施例中,客户端200可以包括图像采集设备,用于采集目标用户的至少一张用户图像,从而获得目标用户图像。在一些实施例中,所述图像采集设备可以是二维图像采集设备(比如RGB摄像头),也可以是二维图像采集设备(比如RGB摄像头)和深度图像采集设备(比如3D结构光摄像头、激光探测器,等等)。在一些实施例中,客户端200可以是具有定位技术的设备,用于定位客户端200的位置。
在一些实施例中,客户端200可以安装有一个或多个应用程序(APP)。所述APP能够为用户100提供通过网络400同外界交互的能力以及界面。所述APP包括但不限于:网页浏览器类APP程序、搜索类APP程序、聊天类APP程序、购物类APP程序、视频类APP程序、理财类APP程序、即时通信工具、邮箱客户端、社交平台软件等等。在一些实施例中,客户端200上可以安装有目标APP。所述目标APP能够为客户端200采集目标用户的至少一张用户图像,从而获得目标用户图像。在一些实施例中,所述用户100还可以通过所述目标APP触发活体检测请求。所述目标APP可以响应于所述活体检测请求,执行本说明书描述的活体检测方法。所述活体检测方法将在后面的内容中详细介绍。
服务器300可以是提供各种服务的服务器,例如对客户端200上采集的目标用户图像进行活体检测提供支持的后台服务器。在一些实施例中,所述活体检测方法可以在服务器300上执行。此时,服务器300可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,服务器300可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。服务器300可以与多个客户端200通信连接,并接收客户端200发送的数据。
网络400用以在客户端200和服务器300之间提供通信连接的介质。网络400可以促进信息或数据的交换。如图1所示,客户端200和服务器300可以同网络400连接,并且通过网络400互相传输信息或数据。在一些实施例中,网络400可以是任何类型的有线或无线网络,也可以是其组合。比如,网络400可以包括电缆网络,有线网络、光纤网络、电信通信网络、内联网、互联网、局域网(LAN)、广域网(WAN)、无线局域网(WLAN)、大都市市区网(MAN)、广域网(WAN)、公用电话交换网(PSTN)、蓝牙TM网络、ZigBeeTM网络、近场通信(NFC)网络或类似网络。在一些实施例中,网络400可以包括一个或多个网络接入点。例如,网络400可以包括有线或无线网络接入点,如基站或互联网交换点,通过该接入点,客户端200和服务器300的一个或多个组件可以连接到网络400以交换数据或信息。
应该理解,图1中的客户端200、服务器300和网络400的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端200、服务器300和网络400。
需要说明的是,所述活体检测方法可以完全在客户端200上执行,也可以完全在服务器300上执行,还可以部分在客户端200上执行,部分在服务器300上执行。
图2示出了根据本说明书的实施例提供的一种计算设备600的硬件结构图。计算设备600可以执行本说明书描述的活体检测方法。所述活体检测方法在本说明书中的其他部分介绍。当所述活体检测方法在客户端200上执行时,计算设备600可以是客户端200。当所述活体检测方法在服务器300上执行时,计算设备600可以是服务器300。当所述活体检测方法可以部分在客户端200上执行,部分在服务器300上执行时,计算设备600可以是客户端200和服务器300。
如图2所示,计算设备600可以包括至少一个存储介质630和至少一个处理器620。在一些实施例中,计算设备600还可以包括通信端口650和内部通信总线610。同时,计算设备600还可以包括I/O组件660。
内部通信总线610可以连接不同的系统组件,包括存储介质630、处理器620和通信端口650。
I/O组件660支持计算设备600和其他组件之间的输入/输出。
通信端口650用于计算设备600同外界的数据通信,比如,通信端口650可以用于计算设备600同网络400之间的数据通信。通信端口650可以是有线通信端口也可以是无线通信端口。
存储介质630可以包括数据存储装置。所述数据存储装置可以是非暂时性存储介质,也可以是暂时性存储介质。比如,所述数据存储装置可以包括磁盘632、只读存储介质(ROM)634或随机存取存储介质(RAM)636中的一种或多种。存储介质630还包括存储在所述数据存储装置中的至少一个指令集。所述指令是计算机程序代码,所述计算机程序代码可以包括执行本说明书提供的活体检测方法的程序、例程、对象、组件、数据结构、过程、模块等等。
至少一个处理器620可以同至少一个存储介质630以及通信端口650通过内部通信总线610通信连接。至少一个处理器620用以执行上述至少一个指令集。当计算设备600运行时,至少一个处理器620读取所述至少一个指令集,并且根据所述至少一个指令集的指示,执行本说明书提供的活体检测方法。处理器620可以执行活体检测方法包含的所有步骤。处理器620可以是一个或多个处理器的形式,在一些实施例中,处理器620可以包括一个或多个硬件处理器,例如微控制器,微处理器,精简指令集计算机(RISC),专用集成电路(ASIC),特定于应用的指令集处理器(ASIP),中心处理单元(CPU),图形处理单元(GPU),物理处理单元(PPU),微控制器单元,数字信号处理器(DSP),现场可编程门阵列(FPGA),高级RISC机器(ARM),可编程逻辑器件(PLD),能够执行一个或多个功能的任何电路或处理器等,或其任何组合。仅仅为了说明问题,在本说明书中计算设备600中仅描述了一个处理器620。然而,应当注意,本说明书中计算设备600还可以包括多个处理器,因此,本说明书中披露的操作和/或方法步骤可以如本说明书所述的由一个处理器执行,也可以由多个处理器联合执行。例如,如果在本说明书中计算设备600的处理器620执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同处理器620联合或分开执行(例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一和第二处理器共同执行步骤A和B)。
图3示出了根据本说明书的实施例提供的一种活体检测方法P100的流程图。如前,计算设备600可以执行本说明书的活体检测方法P100。具体地,处理器620可以读取存储在其本地存储介质中的指令集,然后根据指令集的规定,执行本说明书的活体检测方法P100。如图3所示,方法P100可以包括:
S110:获得目标用户的目标用户图像。
其中,目标用户图像可以为包含目标用户的生物特征的图像。所述生物特征可以包括面部、躯体、虹膜、巩膜、指纹、掌纹、声纹或骨骼投影中的至少一个。
其中,获得目标用户的目标用户图像的方式可以有多种,具体可以如下:
例如,处理器620可以直接接收用户100或目标用户通过客户端、终端或服务器上传的所述目标用户的至少一张用户图像,从而得到目标用户图像,或者,可以从网络或者图像数据库中获得包含目标用户的生物特征的图像,从而得到目标用户图像,或者,可以通过图像采集设备采集目标用户的至少一张包含生物特征的用户图像,从而得到目标用户图像,或者,在目标用户图像的数量较多或者内存较大时,还可以接收活体检测请求,该活体检测请求中包括目标用户的目标用户图像的存储地址,基于该存储地址,获得目标用户的目标用户图像,等等。
S120:将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率。
其中,活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型。所述双子教师模型组可以包括两个网络结构相同的教师模型。所述难易知识包括简单知识和困难知识,所述简单知识包括显著特征对应的知识,所述困难知识包括除显著特征以外的特征(非显著特征)对应的知识。所述显著特征可以理解为活体检测模型输出的最后一层的特征中按照特征尺寸从大至小排序后的预设排序范围内的特征。
其中,攻击概率可以为目标用户为攻击用户的概率,所述攻击用户可以为非活体的用户。
其中,活体检测模型可以包括蒸馏后的学生网络。通过蒸馏后的学生网络预测出目标用户的攻击概率。蒸馏后的学生网络可以包括特征提取子网络和活体分类子网络。将目标用户输入至活体检测模型,以获得目标用户的攻击概率的方式可以有多种,具体可以如下:
例如,处理器620可以将目标用户图像输入至特征提取子网络,以获得所述目标用户图像的用户图像特征,将用户图像特征输入活体分类子网络,以获得所述目标用户的攻击概率,或者,还可以将目标用户图像输入至特征提取子网络,以获得所述目标用户图像的用户特征,将用户特征输入至活体分类子网络,以获得所述目标用户的攻击概率。
其中,活体检测模型的训练过程可以包括以下步骤:处理器620可以获得第一用户图像样本,并将第一用户图像样本输入至双子教师模型组,以获得教师图像特征和教师预测类别,将第一用户图像样本、教师图像特征和教师预测类别输入至预设活体检测模型,以获得学生图像特征、学生预测类别和解耦权重,以及基于教师图像特征、教师预测类别、学生图像特征、学生预测类别和解耦权重,对预设活体检测模型进行蒸馏,得到训练后的活体检测模型。
其中,教师图像特征可以为双子教师模型组输出的最后一层的图像特征,教师预测类别可以为双子教师模型组预测出的第一用户图像样本的活体类别。
其中,预设活体检测模型可以包括学生网络和难易知识对应的元网络。学生图像特征可以为学生网络输出的最后一层的图像特征,学生预测类别可以为学生网络预测出的第一用户图像样本的活体类别。解耦权重可以为元网络输出的简单知识和困难知识分别对应的权重。将第一用户图像样本输入至预设活体检测模型,以获得学生图像特征、学生预测类别和难易知识对应的解耦权重的方式可以有多种,比如,处理器620可以将第一用户图像样本输入至学生网络,以获得第一用户图像样本对应的学生图像特征和学生预测类别,以及将教师图像特征、教师预测类别、学生图像特征和学生预测类别输入至元网络,以获得难易知识对应的解耦权重。
处理器620在得到教师图像特征、教师预测类别、学生图像特征、学生预测类别和解耦权重之后,便可以基于教师图像特征、教师预测类别、学生图像特征、学生预测类别和解耦权重,对预设活体检测模型进行蒸馏,得到训练后的活体检测模型。对预设活体检测模型进行蒸馏的方式可以有多种,比如,处理器620可以将教师预测类别与学生预测类别进行对比,以得到分类蒸馏损失信息,基于解耦权重,将教师图像特征与学生图像特征进行对比,以得到解耦蒸馏损失信息,以及将分类蒸馏损失信息和解耦蒸馏损失信息进行融合,并基于融合后的目标蒸馏损失信息,对预设活体检测模型进行收敛,得到活体检测模型。
其中,分类蒸馏损失信息可以为教师模型和学生网络进行活体分类时产生的损失信息。分类蒸馏损失信息的约束条件可以为教师模型和学生网络针对同一个第一用户图像样本进行活体分类时的预测结果之间的差值小于预设差值阈值,也就是说教师模型和学生网络进行活体分类时的预测结果尽量一致。将教师预测类别与学生预测类别进行对比,以得到分类损失信息的方式可以有多种,比如,处理器620可以采用交叉熵损失函数,将教师预测类别与学生预测类别进行对比,从而得到分类损失信息,或者,还可以采用对比损失函数,将教师预测类别与学生预测类别进行对比,从而得到分类损失信息。
其中,解耦蒸馏损失信息可以理解为学生网络在教师模型的指导下学习简单知识和困难知识时产生的蒸馏损失信息。将教师图像特征与学生图像特征进行对比,以得到解耦蒸馏损失信息的方式可以有多种,比如,处理器620可以分别在教师图像特征和学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息,将教师图像特征的绝对值与学生图像特征的特征绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息,以及基于解耦权重,分别对简单知识蒸馏损失信息和困难知识蒸馏损失信息进行加权融合,得到解耦蒸馏损失信息。
其中,简单知识蒸馏损失信息可以为双子教师模型组将简单知识蒸馏至学生网络时产生的蒸馏损失信息。分别将教师图像特征和学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息的方式可以有多种,比如,处理器620可以在教师图像特征中提取出显著特征,得到双子教师模型组对应的教师简单知识,在学生图像特征中提取出显著特征,得到学生网络对应的学生简单知识,以及将教师简单知识与学生简单知识进行对比,以得到简单知识蒸馏损失信息。
其中,教师简单知识可以为双子教师模型组对需要蒸馏的知识进行解耦后得到的简单知识。所述简单知识就可以为显著特征对应的知识。教师图像特征可以包括多个图像子特征,另外需要说明的是,这些图像子特征的特征值的大小不同,特征值可以为正值,也可以为负值。在教师图像特征中提取出显著特征的方式可以有多种,比如,处理器620可以确定多个图像子特征中每一图像子特征的特征值,基于特征值,对多个图像子特征从大到小进行排序,以及基于排序结果,在多个图像子特征中选取出预设排序范围对应的图像子特征,得到显著特征,并将显著特征作为教师简单知识。
其中,学生简单知识可以为学生网络学习到的双子教师模型组解耦出的简单知识。在学生图像特征中提取出显著特征的方式与在教师图像特征中提取出显著特征方式的类似,详见上文所述,在此就不再一一赘述。
其中,以图像子特征的数量为N个为例,则预设排序范围可以为前N/2,与之对应的显著特征就可以为图像子特征中前N/2的特征。显著特征就可以理解为特征值较大的特征,这类特征比较容易被学生网络进行学习或蒸馏,因此,简单知识就可以为这些比较容易被学习或蒸馏的显著特征。
处理器620在得到教师简单知识和学生简单知识之后,便可以将教师简单知识与学生简单知识进行对比,以得到简单知识蒸馏损失信息。将教师单元至少与学生简单知识进行对比的方式可以有多种,比如,处理器620可以确定教师简单知识与学生简单知识的差值,得到简单知识蒸馏差值,并确定简单知识蒸馏差值的L2范数,从而得到简单知识蒸馏损失信息。以显著特征可以为前N/2的图像子特征为例,确定简单知识蒸馏损失信息的方式可以如公式(1)所示:
其中,困难知识蒸馏损失信息可以为双子教师模型组将困难知识蒸馏至学生网络时产生的蒸馏损失信息。所述困难知识可以为除显著特征以外的特征(非显著特征)对应的知识。将教师图像特征的绝对值与学生图像特征的绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息的方式可以有多种,比如,处理器620可以确定教师图像特征的绝对值,得到教师困难知识,并确定学生图像特征的绝对值,得到学生困难知识,得到学生困难知识,获得教师困难知识与学生困难知识之间的特征差值,以及基于特征差值,确定困难知识对应的困难知识蒸馏损失信息。
其中,教师困难知识可以为双子教师模型组对需要蒸馏的知识进行解耦后的困难知识。确定教师图像特征的绝对值,得到教师困难知识的方式可以有多种,比如,处理器620可以确定出教师图像特征中每一图像子特征的特征值的绝对值,从而得到教师困难知识,或者,还可以在教师图像特征的图像子特征中删除显著特征,得到目标图像子特,并确定目标图像子特征的特征值的绝对值,从而得到教师困难知识。
其中,学生困难知识就可以为学生网络学习到的双子教师模型组解耦出的困难知识。确定学生困难知识的方式与确定教师困难知识的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在确定出教师困难知识和学生困难知识之后,便可以获得教师困难知识与学生困难知识之间的特征差值,然后,基于特征差值,确定困难知识对应的困难知识蒸馏损失信息。确定困难知识蒸馏损失信息的方式可以有多种,比如,处理器620可以确定特征差值的L2范数,以得到困难知识蒸馏损失信息,具体可以如公式(2)所示:
其中,Khard为困难知识蒸馏损失信息,ft为教师图像特征的图像子特征,abs(ft)为教师困难知识,fs为学生图像特征的图像子特征,abs(fs)为学生困难知识。
处理器620在确定出简单知识蒸馏损失信息和困难知识蒸馏损失信息之后,便可以基于解耦权重,分别对简单知识蒸馏损失信息和困难知识蒸馏损失信息进行加权融合,从而得到解耦蒸馏损失信息。解耦权重包括简单知识蒸馏权重和困难知识蒸馏权重。对简单知识蒸馏损失信息和困难知识蒸馏损失信息进行加权融合的方式可以有多种,比如,处理器620可以基于简单知识蒸馏权重对简单知识蒸馏损失信息进行加权,得到加权后的简单知识蒸馏损失信息,基于困难知识蒸馏权重对困难知识蒸馏损失信息进行加权,得到加权后的困难知识蒸馏损失信息,并将加权后的简单知识蒸馏损失信息与加权后的困难知识蒸馏损失信息进行融合,从而得到解耦蒸馏损失信息。
处理器620在确定出分类蒸馏损失信息和解耦蒸馏损失信息之后,便可以将分类蒸馏损失信息与解耦蒸馏损失信息进行融合。融合的方式可以有多种,比如,处理器620可以直接将分类蒸馏损失信息和解耦蒸馏损失信息相加,从而得到融合后的目标蒸馏损失信息,具体可以如公式(3)所示:
Loss1=Lossprediction+a*Keasy+v*Khard (3)
其中,Loss1为目标蒸馏损失信息,Lossprediction为分类蒸馏损失信息,a为简单知识蒸馏权重,Keasy为简单知识蒸馏损失信息,b为困难知识蒸馏权重,Khard为困难知识蒸馏损失信息。
处理器620在将分类蒸馏损失信息和解耦蒸馏损失信息进行融合后,便可以基于融合后的目标蒸馏损失信息,对预设活体检测模型进行收敛,从而得到活体检测模型。对预设活体检测模型进行收敛的方式可以有多种,比如,处理器620可以采用梯度下降算法,基于目标蒸馏损失信息对预设活体检测模型的网络参数进行更新,得到更新后的更新活体检测模型,将预设活体检测模型更新为更新活体检测模型,并返回执行获得第一用户图像样的步骤,直至预设活体检测模型收敛时为止,从而得到训练后的活体检测模型,或者,还可以采用其他网络参数更新算法,基于目标蒸馏损失信息对预设活体检测模型的网络参数进行更新,得到更新后的更新活体检测模型,将预设活体检测模型更新为更新活体检测模型,并返回执行获得第一用户图像样的步骤,直至预设活体检测模型收敛时为止,从而得到训练后的活体检测模型,等等。
其中,传统的知识蒸馏主要是将教师网络的输出作为一个整体进行知识蒸馏。但是每一部分的至少都有难易之分,需要循环渐进的学习,因此,本方案中,对预设活体检测模型进行知识蒸馏时,采用了基于难易知识解耦的自适应蒸馏方法,将教师网络的输出解耦为简单知识和困难知识,并通过不同的解耦权重或蒸馏权重,对困难知识和简单知识进行蒸馏,从而提升训练后的活体检测模型的检测性能,进而提升活体检测的准确率。
其中,需要说明的是,对活体检测模型进行训练的执行主体可以为端侧的计算设备600中的处理器620,还可以云侧(服务端)的计算设备600中的处理器620。
在一些实施例中,在对预设活体检测模型进行蒸馏前,处理器620还可以对双子教师模型组进行训练,从而基于训练后的双子教师模型组对预设活体检测模型进行蒸馏,从而得到训练后的活体检测模型。双子教师模型组的训练过程可以包括以下步骤:处理器620可以获得第二用户图像样本,将第二用户图像样本输入至预设双子教师模型组,以获得预设双子教师模型中每一教师模型输出的样本图像特征和预测用户类别,以及基于样本图像特征和预测用户类别,对预设双子教师模型组进行收敛,得到训练后的双子教授模型组。
其中,预设双子教师模型组包括结构相同的第一教师模型和第二教师模型。对预设双子教师模型组进行收敛的方式可以有多种,比如,处理器620可以获得第二用户图像样本的标注用户类别,并将标注用户类别与预测用户类别进行对比,得到单一分类损失信息,将第一教师模型的样本图像特征与第二教师模型的样本图像特征进行对比,以得到特征互补损失信息,将第一教师模型的预测用户类别与第二教师模型的预测用户类别进行融合,以得到融合分类损失信息,以及将单一分类损失信息、特征互补损失信息和融合分类损失信息进行融合,并基于融合后的目标教师损失信息对预设双子教师模型进行收敛,得到双子教师模型组。
其中,单一分类损失信息可以为第一教师模型独立进行活体分类产生的损失信息和第二教师模型独立进行活体分类产生的损失信息。将标注用户类别与预测用户类别进行对比,得到单一分类损失信息的方式可以有多种,比如,处理器620可以在预测用户类别中提取出第一教师模型对应的第一预测用户类别和第二教师模型对应的第二预测用户类别,将第一预测用户类别与标注用户类别进行对比,以得到第一初始分类损失信息,将第二预测用户类别与标注用户类别进行对比,以得到第二初始分类损失信息,将第一初始分类损失信息和第二初始分类损失信息相加,从而得到单一分类损失信息。
其中,将第一预测用户类别与标注用户类别进行对比,以得到第一初始分类损失信息的方式可以有多种,比如,处理器620可以采用交叉熵损失函数,将第一预测用户类别与标注用户类别进行对比,从而得到第一初始分类损失信息,或者,还可以采用其他类型的损失函数,将第一预测用户类别与标注用户类别进行对比,从而得到第一初始分类损失信息,等等。
其中,处理器620确定第一初始分类损失信息的方式与确定第二初始分类损失信息的方式类似,详见上文所述,在此就不再一一赘述。
其中,特征互补损失信息可以为第一教师模型输出的特征与第二教师模型输出的对应层的特征之间的差异对应的损失信息。特征互补损失信息的约束条件为约束不同教师模型的对应网络层的目标样本图像特征之间的相似度小于预设相似度阈值,也就是说不同教师模型输出的对应层的特征的相似度(比如,余弦相似度等等)接近零。将第一教师模型的样本图像特征与第二教师模型的样本图像特征进行对比的方式可以有多种,比如,处理器620可以在第一教师模型的样本图像特征中提取出第一教师模型的每一网络层输出的第一目标样本图像特征,在第二教师模型的样本图像特征中提取出第二教师模型的每一网络层输出的第二目标样本图像特征,以及确定第一目标样本图像特征与第二目标样本图像特征之间的相似度,以得到每一网络层的特征互补损失信息。
其中,融合分类损失信息可以为不同教师模型之间的融合决策结果的分类准确率对应的损失信息,也可以理解为不同教师模型输出的预测用户类别进行融合后与标注用户类别之间的差异对应的损失信息。将第一教师模型的预测用户类别与第二教师模型的预测用户类别进行融合的方式可以有多种,比如,处理器620可以在第一教师模型的预测用户类别中提取出每一候选用户类别对应的第一预测概率,在第二教师模型的预测用户类别中提取出每一候选用户类别对应的第二预测概率,将第一预测概率与第二预测概率相加,得到每一候选用户类别的目标预测概率,以及基于目标预测概率,确定融合后的目标用户类别,并将目标用户类别与标注用户类别进行对比,以得到融合分类损失信息。
处理器620在确定出单一分类损失信息、特征互补损失信息和融合分类损失信息之后,便可以将单一分类损失信息、特征互补损失信息和融合分类损失信息进行融合。融合的方式可以有多种,比如,处理器620可以将单一分类损失信息、特征互补损失信息和融合分类损失信息相加,从而得到融合后的目标教师损失信息,具体可以如公式(4)所示:
Loss2=Losscls+Lossplementary+Lossensemble (4)
其中,Loss2为目标教师损失信息,Losscls为单一分类损失信息,Lossplementary为特征互补损失信息,Lossensemble为融合分类损失信息。
处理器620在将单一分类损失信息、特征互补损失信息和融合分类损失信息进行融合之后,便可以基于融合后的目标教师损失信息对预设双子教师模型组进行收敛,从而得到双子教师模型。对预设双子教师模型组进行收敛的方式与对预设活体检测模型进行收敛的方式类似,详见上文所述,在此就不再一一赘述。
其中,需要说明的是,传统的教师模型的训练方法往往是使用训练数据训练单个的模型,因此,得到的知识的单一的,不够丰富。在本方案中,基于双子模型组的mutuallearning(协同学习或相互学习)方法,通过两个相同结构的教师模型的互相学习来促进每个教师模型的性能,从而得到性能更好的单个教师模型,进而可以提升蒸馏后的活体检测模型的检测性能,并提升活体检测的准确率。
在一些实施例中,处理器620对预设活体检测模型进行蒸馏,得到训练后的活体检测模型之后,还可以确定训练数据中难易知识的原始分布。确定难易知识的原始分布的方式可以有多种,比如,处理器620可以获得简单知识中的学生简单知识的统计特征,得到第一统计特征,并基于第一统计特征,确定学生简单知识的第一特征分布,以及获得困难知识中学生困难知识的统计特征,得到第二统计特征,并基于第二统计特征,确定学生困难知识的第二特征分布。
其中,统计特征包括均值和方差中的至少一个,还可以包括其他统计特征。获得学生简单知识的统计特征的方式可以有多种,比如,处理器620可以在获得学生简单知识的均值和方差,从而得到第一统计特征,或者,还可以获得的其他统计特征,从而得到第一统计特征。
处理器620在获得第一统计特征之后,便可以基于第一统计特征,确定学生简单知识的第一特征分布。确定第一特征分布的方式可以有多种,比如,处理器620可以基于学生简单知识的均值和方差,生成高斯分布,并将高斯分布作为第一特征分布。
其中,获得第二统计特征的方式与获得第一统计特征的方式类似,确定第二特征分布与确定第一特征分布的方式类似,详见上文所述,在此就不再一一赘述。
其中,需要说明的是,确定训练数据中难易知识的特征分布,主要用于通过难易知识的分布变化来衡量端侧的样本(用户图像)的分布变化程度,从而决定自适应对活体检测模型进行适配。因此,在对预设活体检测模型进行蒸馏,得到训练后的活体检测模型之后,还可以对活体检测模型运行后,统计活体检测模型累计到的用户图像集合的数据分布概率,从而对活体检测模型进行自适应的更新。对活体检测模型进行自适应更新的方式可以有多种,比如,处理器620可以在活体检测模型的运行时间达到预设时间周期时,统计运行时间内的用户图像集合的数据分布概率,所述数据分布概率可以包括用户图像集合中的用户图像处于第一特征分布的第一分布概率和处于第二特征分布的第二分布概率,基于第一分布概率和第二分布概率,从第一方案、第二方案和第三方案中择一执行,从而对活体检测模型进行自适应更新。
其中,统计运行时间内的用户集合的数据分布概率的方法可以有多种,比如,处理器620可以获得运行时间内的用户图像集合,并确定用户图像集合中每一用户图像处于第一特征分布的第一初始分布概率和处于第二特征分布的第二初始分布概率,确定第一初始分类概率的均值,得到第一分布概率,并确定第二初始分类概率的均值,得到第二分布概率,以及将第一分布概率和第二分布概率作为用户图像集合的数据分布概率。
其中,第一分布概率可以为用户图像集合对应的简单知识概率,第二分布可以为用户图像对应的困难知识概率。基于第一分布概率和第二分布概率,从第一方案、第二方案和第三方案中择一执行的方式可以有多种,比如,第一方案可以为:处理器620确定第一分布概率小于第一预设概率阈值,将活体检测模型作为更新后的目标活体检测模型,也就是说无需对活体检测模型进行更新;第二方案可以为:处理器620确定第二分布概率小于第二预设概率阈值,基于用户图像,对活体检测模型进行训练,得到更新后的目标活体检测模型,也就是说,在端侧通过用户图像对活体检测模型进行更新(自适应训练);第三方案:确定第一分布概率大于第一预设概率阈值,且第二分布概率大于第二预设概率阈值,将用户图像发送至远程服务器,以便远程服务器对活体检测模型进行更新,并接收远程服务器返回的更新后的目标活体检测模型,也就是说,需要在服务端(远程服务器)对活体检测模型进行重新训练,训练的样本还是端侧累计的部分或全部用户图像。
其中,在端侧,处理器620基于用户图像,对活体检测模型进行训练的方式可以有多种,比如,处理器620可以获得用户图像对应的历史预测用户类别,并将历史预测类别作为用户图像的标注用户类别(用户标签),从而得到历史用户图像样本,并将历史用户图像样本作为第一用户图像样本,将活体检测模型作为预设活体检测模型,对预设活体检测模型进行训练,从而得到更新后的目标活体检测模型。处理器620对预设活体检测模型的训练过程可以参见上文所述,在此就不再一一赘述。
其中,在云侧(远程服务器),对活体检测模型的方式可以有多种,比如,处理器620可以将活体检测模型和部分或全部的用户图像发送至远程服务器,以便远程服务器对接收到用户图像进行人工标注,然后,基于人工标注结果对活体检测模型进行更新,处理器620可以接收远程服务器返回的更新后的目标活体检测模型。
其中,需要说明的是,传统的端侧模型会随着端侧数据的分布变化(端侧数据会随着时间的推移发生也能够明显的分布变迁)而产生对应的性能波动,当数据分布变化较小时,可以直接在端侧完成自适应适配,而当分布变化较大时,则需要服务端重新训练端侧模型以完成适配。在本方案中,通过在预设时间周期内累计到的K个样本,并确定K个样本的数据分布概率,在第一分布概率p1小于第一预设概率阈值T1时,就表明数据分布基本没有变化,此时,就可以对活体检测模型无需进行自适应训练;在第二分布概率p2小于第二预设概率阈值T2时,就表明数据分布变化较小,此时,就可以在端侧对活体检测模型进行训练,从而得到更新后的目标活体检测模型;在第一分布概率p1大于第一预设概率阈值T1,且第二分布概率p2大于第二预设概率阈值T2时,就表明数据分布变化较大,此时,就需要服务端(远程服务器)对部署在端侧的活体检测模型进行重新训练,并将训练后的目标活体检测模型发送至端侧,使得端侧获得目标活体检测模型。通过难易知识的分布变化来衡量样本分布变化的程度,并基于分布变化的程度,对活体检测模型进行自适应更新,从而使得活体检测模型可以一直高性能,进而提升活体检测的准确率。
S130:基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果。
其中,活体检测结果可以包括攻击用户和正常用户中的一种。所述攻击用户可以为采用照片、屏幕等各种非活体的攻击方式的用户。所述正常用户可以为活体用户,即没有攻击的正常活体的用户。
其中,基于攻击概率,确定目标用户的活体检测结果的方式可以有多种,具体可以如下:
例如,处理器620可以在攻击概率大于预设攻击概率阈值时,确定目标用户的活体检测结果为攻击用户,或者,在攻击概率小于预设攻击概率阈值时,确定目标用户的活体检测结果为正常用户。
处理器620在确定出目标用户的活体检测结果之后,便可以输出该活体检测结果。输出活体检测结果的方式可以有多种,比如,处理器620可以直接将活体检测结果发送至用户100或目标用户对应的客户端200、终端或服务器,以便客户端200、终端或服务器基于活体检测结果对目标用户或目标用户对应的请求进行响应,或者,还可以直接可视化展示该活体检测结果,等等。
其中,可视化展示活体检测结果的方式可以有多种,比如,处理器620可以直接显示该活体检测结果,或者,可以通过声光等方式展示该活体检测结果(譬如,通过语音播报活体检测结果,或者,可以通过显式不同颜色的光显式不同类型的活体检测结果,或者,还可以通过声光联动的方式展示活体检测结果),或者,还可以针对特定类型的活体检测结果进行展示(譬如,仅针对攻击用户这一类型的活体检测结果进行展示,或者,仅针对活体用户这一类型的活体检测结果进行展示,等等),等等。
在一些实施例中,处理器620还可以在确定出目标用户的活体检测结果或者输出该活体检测结果之后,基于该活体检测结果对目标用户或者目标用户对应的请求进行响应,响应的方式可以有多种,比如,处理器620可以直接对目标用户或目标用户对应的请求进行拦截,或者,处理器620还可以直接对目标用户进行二次验证,并基于二次验证结果,对目标用户或目标用户对应的请求进行最终的响应,等等。
其中,在人脸识别场景下,本方案可以基于难易知识解耦的轻量级的活体检测模型在端侧进行活体检测,整体的活体检测流程可以如图4所示,可以包括教师模型训练、难易知识解耦蒸馏、活体检测和端侧周期性自适应等四个部分,具体可以如下:
(1)双子教师模型组训练:基于双子模型组的mutual learning的方法,通过两个同结构的教师模型的互相学习来促进每个教师模型的性能,从而得到性能更好的单个教师模型,具体的训练过程可以如前所述,在此就不再一一赘述。
(2)难易知识解耦蒸馏:传统的知识蒸馏将教师模型的输出作为一个整体进行知识蒸馏,但每一部分的知识都有难易之分,需要循序渐进进行学习。本方案中,通过将教师模型的输出的知识进行解耦,得到简单知识和困难知识,并根据简单知识和困难知识的蒸馏权重,对简单知识和困难知识进行自适应的难易知识蒸馏,从而得到性能更好的轻量级的活体检测模型,具体的解耦蒸馏过程可以参见上文所述,在此就不再一一赘述。在进行难易知识解耦蒸馏得到活体检测模型之后,还可以确定训练数据中的难易知识原始分布计算,主要是计算训练数据中的简单知识和困难知识的均值和方差,利用均值和方差将简单知识和困难知识刻画外高斯分布。
(3)活体检测:在端侧部署训练后的轻量级的活体检测模型。在目标用户开始人脸识别后,采集目标用户的人脸图像,将人脸图像输入至活体检测模型,以获得目标用户的攻击概率p。如果p大于提前设定的预设攻击概率阈值T时,就可以确定目标用户为攻击用户,否则为活体用户。
(4)端侧周期性自适应:传统的部署在端侧的活体模型会随着端侧数据的分布变化(端侧数据会随着时间的推移发生明显的分布变化)而产生对应的性能波动。当数据分布变化较小时,可以直接在端侧完成自适应适配,而当分布变化较大时,则需要服务端(远程服务器)重新训练端侧的活体检测模型完成适配。本方案中,通过难易知识的分布变化来衡量端侧样本的分布变化程度,从而决定自适应适配的方法。自适应适配的方法具体可以包括:在端侧的活体检测模型运行至预设时间周期(比如,可以包括一周、一个月、半年、一年或者任意时间周期)后,在预设时间内累计到K个样本后,分别计算K个样本处于简单知识高斯分布和困难知识高斯分布的概率,并计算概率的均值,从而得到简单知识概率p1和困难知识概率p2。在p1小于阈值T1时,对端侧的活体检测模型无需进行自适应训练(适配);在p2小于阈值T2时,在端侧对活体检测模型进行自适应训练(适配),从而得到更新后的目标活体检测模型;在p1大于T1,且p2大于T2时,确定需要在服务端(远程服务器)进行重新训练,并接收服务端返回的重新训练后的目标活体检测模型,将部署在端侧的活体检模型更新为目标活体检测模型。
其中,在端侧对活体检测模型进行自适应训练的过程可以包括:利用端侧的活体检测模型预测的N个样本的标签,并将样本-标签对作为输入进行训练,从而得到目标活体检测模型。N为[1,K]中的任意整数。
其中,服务端对端侧的活体检测模型重新训练的过程可以包括:接收本地设备传输的K个样本中全部或部分样本,采用人工标注的方式对接收的样本进行标注,然后,基于人工标注的标签-样本对作为输入,对活体检测模型进行训练,并将训练后的目标活体检测模型发送至本地设备,以便本地设备将端侧当前的活体检测模型更新为目标活体检测模型。
其中,本方案首先通过mutual learning的方式进行教师模型进行训练,从而得到双子教师模型组,然后,利用双子教师模型指导学生模型(预设活体检测模型)进行自适应的难易知识解耦蒸馏,从而得到高性能的轻量级的活体检测模型,最后,利用难易知识的特性对端侧的活体检测模型进行分级周期性自适应适配,并进行活体检测,从而可以提升活体检测的性能,进而提升活体检测的准确率。
综上所述,本说明书提供的活体检测方法P100和系统001,处理器620在获得目标用户的目标用户图像后,将所述目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;由于该方案通过双子教师模型组指导学生模型,在指导过程中通过对难易知识进行解耦蒸馏,从而得到端侧的轻量活体检测模型,通过所述轻量的活体检测模型可以提升端侧的活体检测性能,因此,可以提升活体检测的准确率。
本说明书另一方面提供一种非暂时性存储介质,存储有至少一组用来进行活体检测的可执行指令。当所述可执行指令被处理器执行时,所述可执行指令指导所述处理器实施本说明书所述的活体检测方法P100的步骤。在一些可能的实施方式中,本说明书的各个方面还可以实现为一种程序产品的形式,其包括程序代码。当所述程序产品在计算设备600上运行时,所述程序代码用于使计算设备600执行本说明书描述的活体检测方法P100的步骤。用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)包括程序代码,并可以在计算设备600上运行。然而,本说明书的程序产品不限于此,在本说明书中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本说明书操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在计算设备600上执行、部分地在计算设备600上执行、作为一个独立的软件包执行、部分在计算设备600上部分在远程计算设备上执行、或者完全在远程计算设备上执行。
上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者是可能有利的。
综上所述,在阅读本详细公开内容之后,本领域技术人员可以明白,前述详细公开内容可以仅以示例的方式呈现,并且可以不是限制性的。尽管这里没有明确说明,本领域技术人员可以理解本说明书需求囊括对实施例的各种合理改变,改进和修改。这些改变,改进和修改旨在由本说明书提出,并且在本说明书的示例性实施例的精神和范围内。
此外,本说明书中的某些术语已被用于描述本说明书的实施例。例如,“一个实施例”,“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征,结构或特性可以包括在本说明书的至少一个实施例中。因此,可以强调并且应当理解,在本说明书的各个部分中对“实施例”或“一个实施例”或“替代实施例”的两个或更多个引用不一定都指代相同的实施例。此外,特定特征,结构或特性可以在本说明书的一个或多个实施例中适当地组合。
应当理解,在本说明书的实施例的前述描述中,为了帮助理解一个特征,出于简化本说明书的目的,本说明书将各种特征组合在单个实施例、附图或其描述中。然而,这并不是说这些特征的组合是必须的,本领域技术人员在阅读本说明书的时候完全有可能将其中一部分设备标注出来作为单独的实施例来理解。也就是说,本说明书中的实施例也可以理解为多个次级实施例的整合。而每个次级实施例的内容在于少于单个前述公开实施例的所有特征的时候也是成立的。
本文引用的每个专利,专利申请,专利申请的出版物和其他材料,例如文章,书籍,说明书,出版物,文件,物品等,可以通过引用结合于此。用于所有目的全部内容,除了与其相关的任何起诉文件历史,可能与本文件不一致或相冲突的任何相同的,或者任何可能对权利要求的最宽范围具有限制性影响的任何相同的起诉文件历史。现在或以后与本文件相关联。举例来说,如果在与任何所包含的材料相关联的术语的描述、定义和/或使用与本文档相关的术语、描述、定义和/或之间存在任何不一致或冲突时,使用本文件中的术语为准。
最后,应理解,本文公开的申请的实施方案是对本说明书的实施方案的原理的说明。其他修改后的实施例也在本说明书的范围内。因此,本说明书披露的实施例仅仅作为示例而非限制。本领域技术人员可以根据本说明书中的实施例采取替代配置来实现本说明书中的申请。因此,本说明书的实施例不限于申请中被精确地描述过的实施例。
Claims (21)
1.一种活体检测方法,包括:
获得目标用户的目标用户图像;
将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,所述活体检测模型为基于双子教师模型组对难易知识进行解耦蒸馏得到的轻量模型;以及
基于所述攻击概率,确定所述目标用户的活体检测结果,并输出所述活体检测结果。
2.根据权利要求1所述的活体检测方法,其中,所述难易知识包括简单知识和困难知识,所述简单知识包括显著特征对应的知识,所述困难知识包括除所述显著特征以外的特征对应的知识。
3.根据权利要求1所述的活体检测方法,其中,所述活体检测模型的训练过程包括以下步骤:
获得第一用户图像样本,并将所述第一用户图像样本输入至所述双子教师模型组,以获得教师图像特征和教师预测类别;
将所述第一用户图像样本、所述教师图像特征和所述教师预测类别输入至预设活体检测模型,以获得学生图像特征、学生预测类别和所述难易知识对应的解耦权重;以及
基于所述教师图像特征、所述教师预测类别、所述学生图像特征、所述学生预测类别和解耦权重,对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型。
4.根据权利要求3所述的活体检测方法,其中,所述预设活体检测模型包括学生网络和所述难易知识对应的元网络;以及
所述将所述第一用户图像样本、所述教师图像特征和所述教师预测类别输入至预设活体检测模型,以获得学生图像特征、学生预测类别和所述难易知识对应的解耦权重,包括:
将所述第一用户图像样本输入至所述学生网络,以获得所述第一用户图像样本对应的学生图像特征和所述学生预测类别,以及
将所述教师图像特征、所述教师预测类别、所述学生图像特征和所述学生预测类别输入至所述元网络,以获得所述难易知识对应的解耦权重。
5.根据权利要求3所述的活体检测方法,其中,所述对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型,包括:
将所述教师预测类别与所述学生预测类别进行对比,以得到分类蒸馏损失信息;
基于所述解耦权重,将所述教师图像特征与所述学生图像特征进行对比,以得到解耦蒸馏损失信息;以及
将所述分类蒸馏损失信息和所述解耦蒸馏损失信息进行融合,并基于融合后的目标蒸馏损失信息,对所述预设活体检测模型进行收敛,得到所述活体检测模型。
6.根据权利要求5所述的活体检测方法,其中,所述将所述教师图像特征与所述学生图像特征进行对比,以得到解耦蒸馏损失信息,包括:
分别在所述教师图像特征和所述学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息;
将所述教师图像特征的绝对值与所述学生图像特征的绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息;以及
基于所述解耦权重,分别对所述简单知识蒸馏损失信息和所述困难知识蒸馏损失信息进行加权融合,得到所述解耦蒸馏损失信息。
7.根据权利要求6所述的活体检测方法,其中,所述分别在所述教师图像特征和所述学生图像特征中提取出显著特征,以得到简单知识对应的简单知识蒸馏损失信息,包括:
在所述教师图像特征中提取出显著特征,得到所述双子教师模型组对应的教师简单知识;
在所述学生图像特征中提取出所述显著特征,得到所述学生网络对应的学生简单知识;以及
将所述教师简单知识与所述学生简单知识进行对比,以得到所述简单知识蒸馏损失信息。
8.根据权利要求7所述的活体检测方法,其中,所述教师图像特征包括多个图像子特征;以及
所述在所述教师图像特征中提取出显著特征,得到双子教师模型组对应的教师简单知识,包括:
确定所述多个图像子特征中每一图像子特征的特征值,
基于所述特征值,对所述多个图像子特征从大到小进行排序,以及
基于排序结果,在所述多个图像子特征中选取出预设排序范围对应的图像子特征,得到所述显著特征,并将所述显著特征作为所述教师简单知识。
9.根据权利要求8所述的活体检测方法,其中,所述多个图像子特征的数量为N个,所述预设排序范围为前N/2个图像子特征。
10.根据权利要求6所述的活体检测方法,其中,所述将所述教师图像特征的绝对值与所述学生图像特征的绝对值进行对比,以得到困难知识对应的困难知识蒸馏损失信息,包括:
确定所述教师图像特征的绝对值,得到教师困难知识,并确定所述学生图像特征的绝对值,得到学生困难知识;
获得所述教师困难知识与所述学生困难知识之间的特征差值;以及
基于所述特征差值,确定所述困难知识对应的困难知识蒸馏损失信息。
11.根据权利要求3所述的活体检测方法,其中,所述对所述预设活体检测模型进行蒸馏,得到训练后的所述活体检测模型之后,还包括:
获得所述简单知识中的学生简单知识的统计特征,得到第一统计特征,并基于所述第一统计特征,确定所述学生简单知识的第一特征分布;以及
获得所述困难知识中的学生困难知识的统计特征,得到第二统计特征,并基于所述第二统计特征,确定所述学生困难知识的第二特征分布。
12.根据权利要求11所述的活体检测方法,其中,所述统计特征包括均值和方差中的至少一个。
13.根据权利要求11所述的活体检测方法,其中,还包括:
在所述活体检测模型的运行时间达到预设时间周期时,统计所述运行时间内的用户图像集合的数据分布概率,所述数据分布概率包括所述用户图像集合中的用户图像处于所述第一特征分布的第一分布概率和处于所述第二特征分布的第二分布概率;以及
基于所述第一分布概率和所述第二分布概率,从第一方案、第二方案和第三方案中择一执行,其中:
第一方案包括:确定所述第一分布概率小于第一预设概率阈值,将所述活体检测模型作为更新后的目标活体检测模型,
第二方案包括:确定所述第二分布概率小于第二预设概率阈值,基于所述用户图像,对所述活体检测模型进行训练,得到更新后的目标活体检测模型,以及
第三方案包括:确定所述第一分布概率大于所述第一预设概率阈值,且所述第二分布概率大于所述第二预设概率阈值,将所述用户图像发送至远程服务器,以便所述远程服务器对所述活体检测模型进行更新,并接收所述远程服务器返回的更新后的目标活体检测模型。
14.根据权利要求13所述的活体检测方法,其中,所述统计所述运行时间内的用户图像集合的数据分布概率,包括:
获得所述运行时间内的用户图像集合,并确定所述用户图像集合中每一用户图像处于所述第一特征分布的第一初始分布概率和处于所述第二特征分布的第二初始分布概率;
确定所述第一初始分布概率的均值,得到第一分布概率,并确定所述第二初始分布概率的均值,得到第二分布概率;以及
将所述第一分布概率和所述第二分布概率作为所述用户图像集合的数据分布概率。
15.根据权利要求1所述的活体检测方法,其中,所述双子教师模型组的训练过程包括以下步骤:
获得第二用户图像样本;
将所述第二用户图像样本输入至预设双子教师模型组,以获得所述预设双子教师模型组中每一教师模型输出的样本图像特征和预测用户类别;以及
基于所述样本图像特征和所述预测用户类别,对所述预设双子教师模型组进行收敛,得到训练后的所述双子教师模型组。
16.根据权利要求15所述的活体检测方法,其中,所述预设双子教师模型组包括结构相同的第一教师模型和第二教师模型;以及
所述对所述预设双子教师模型组进行收敛,得到训练后的所述双子教师模型组,包括:
获得所述第二用户图像样本的标注用户类别,并将所述标注用户类别与所述预测用户类别进行对比,得到单一分类损失信息,
将所述第一教师模型的样本图像特征与所述第二教师模型的样本图像特征进行对比,以得到特征互补损失信息,
将所述第一教师模型的预测用户类别与所述第二教师模型的预测类别进行融合,以得到融合分类损失信息,以及
将所述单一分类损失信息、所述特征互补损失信息和所述融合分类损失信息进行融合,并基于融合后的目标教师损失信息对预设双子教师模型组进行收敛,得到所述双子教师模型组。
17.根据权利要求16所述的活体检测方法,其中,所述将所述第一教师模型的样本图像特征与所述第二教师模型的样本图像特征进行对比,以得到特征互补损失信息,包括:
在所述第一教师模型的样本图像特征中提取出所述第一教师模型的每一网络层输出的第一目标样本图像特征;
在所述第二教师模型的样本图像特征中提取出所述第二教师模型的每一网络层输出的第二目标样本图像特征;以及
确定所述第一目标样本图像特征与对应的所述第二目标样本图像特征之间的相似度,以得到所述每一网络层的特征互补损失信息,所述特征互补损失信息的约束条件为约束不同教师模型的对应网络层的目标样本图像特征之间的相似度小于预设相似度阈值。
18.根据权利要求16所述的活体检测方法,其中,所述将所述第一教师模型的预测用户类别与所述第二教师模型的预测用户类别进行融合,以得到融合分类损失信息,包括:
在所述第一教师模型的预测用户类别中提取出每一候选用户类别对应的第一预测概率;
在所述第二教师模型的预测用户类别中提取出所述每一候选用户类别对应的第二预测概率;
将所述第一预测概率与对应的所述第二预测概率相加,得到所述每一候选用户类别的目标预测概率;以及
基于所述目标预测概率,确定融合后的目标用户类别,并将所述目标用户类别与所述标注用户类别进行对比,以得到所述融合分类损失信息。
19.根据权利要求1所述的活体检测方法,其中,所述基于所述攻击概率,确定所述目标用户的活体检测结果,包括:
在所述攻击概率大于预设攻击概率阈值时,确定所述目标用户的活体检测结果为攻击用户。
20.根据权利要求19所述的活体检测方法,其中,还包括:
在所述攻击概率小于所述预设攻击概率阈值时,确定所述目标用户的活体检测结果为正常用户。
21.一种活体检测系统,包括:
至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及
至少一个处理器,同所述至少一个存储介质通信连接,
其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行权利要求1-20中任一项所述的活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310042198.9A CN116259116A (zh) | 2023-01-13 | 2023-01-13 | 活体检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310042198.9A CN116259116A (zh) | 2023-01-13 | 2023-01-13 | 活体检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116259116A true CN116259116A (zh) | 2023-06-13 |
Family
ID=86680319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310042198.9A Pending CN116259116A (zh) | 2023-01-13 | 2023-01-13 | 活体检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116259116A (zh) |
-
2023
- 2023-01-13 CN CN202310042198.9A patent/CN116259116A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444826B (zh) | 视频检测方法、装置、存储介质及计算机设备 | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN110503076B (zh) | 基于人工智能的视频分类方法、装置、设备和介质 | |
CN114333078B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN109101602A (zh) | 图像检索模型训练方法、图像检索方法、设备及存储介质 | |
WO2021232985A1 (zh) | 人脸识别方法、装置、计算机设备及存储介质 | |
CN111444744A (zh) | 活体检测方法、装置以及存储介质 | |
CN110516737B (zh) | 用于生成图像识别模型的方法和装置 | |
CN112651333B (zh) | 静默活体检测方法、装置、终端设备和存储介质 | |
CN116012612A (zh) | 内容检测方法和系统 | |
CN115393606A (zh) | 图像识别的方法和系统 | |
CN113822427A (zh) | 一种模型训练的方法、图像匹配的方法、装置及存储介质 | |
CN113140012A (zh) | 图像处理方法、装置、介质及电子设备 | |
CN118096924A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN115880740A (zh) | 人脸活体检测方法、装置、计算机设备和存储介质 | |
CN116311546A (zh) | 活体检测方法和系统 | |
CN115984977A (zh) | 活体检测方法和系统 | |
US20190311184A1 (en) | High Accuracy and Volume Facial Recognition on Mobile Platforms | |
CN115880530A (zh) | 对抗攻击的检测方法和系统 | |
CN116433955A (zh) | 对抗攻击的检测方法及系统 | |
CN115578768A (zh) | 图像检测网络的训练方法、图像检测方法和系统 | |
CN115497176A (zh) | 活体检测模型训练方法、活体检测方法和系统 | |
CN116259116A (zh) | 活体检测方法和系统 | |
CN111079704A (zh) | 一种基于量子计算的人脸识别方法及装置 | |
CN116110132A (zh) | 活体检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |