CN116110134A - 活体检测方法和系统 - Google Patents

活体检测方法和系统 Download PDF

Info

Publication number
CN116110134A
CN116110134A CN202310035166.6A CN202310035166A CN116110134A CN 116110134 A CN116110134 A CN 116110134A CN 202310035166 A CN202310035166 A CN 202310035166A CN 116110134 A CN116110134 A CN 116110134A
Authority
CN
China
Prior art keywords
living body
body detection
network
detection network
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310035166.6A
Other languages
English (en)
Inventor
曹佳炯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202310035166.6A priority Critical patent/CN116110134A/zh
Publication of CN116110134A publication Critical patent/CN116110134A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本说明书提供的活体检测方法和系统,在获得目标用户的目标用户图像后,将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为对预设活体检测模型采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;该方案可以提升活体检测的准确率。

Description

活体检测方法和系统
技术领域
本说明书涉及图像识别领域,尤其涉及一种活体检测方法和系统。
背景技术
近年来,随着互联网技术的飞速发展,在人脸识别系统中活体检测已经成为不可缺少的一环,通过活体检测可以有效拦截非活体类型的攻击样本。在活体检测中通过采用活体检测模型来完成活体检测。为了使得活体检测模型(算法)可以高效、准确的在终端设备运行,往往就需要对活体检测模型进行压缩。现有的活体检测方法中通常采用静态压缩或动态压缩的方式进行压缩,然后,将通过压缩后的活体检测模型进行活体检测。
在对现有技术的研究和实践过程中,本发明的发明人发现通过在静态压缩方式中,对所有样本都使用静态压缩后的活体检测模型,对于部分样本的性能就会有所衰减,而使用动态压缩的方式,需要对活体检测模型的每个部分都计算重要性,往往会引入较高的额外计算成本,有时候甚至超过了模型裁剪带来的收益,另外,动态裁剪之前的原始模型往往较大,难以适应终端设备有限的存储空间,使得活体检测模型的检测性能收到限制,因此,导致活体检测的准确率较低。
发明内容
本说明书提供一种准确率更高的活体检测方法和系统。
第一方面,本说明书提供一种活体检测方法,包括:获得目标用户的目标用户图像;将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,所述活体检测模型为对预设活体检测网络采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型;以及基于所述攻击概率,确定所述目标用户的活体检测结果,并输出所述活体检测结果。
在一些实施例中,所述活体检测模型包括活体检测网络和通道检测网络;以及所述将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,包括:将所述目标用户图像输入至所述通道检测网络,以获得所述活体检测网络中每一网络层的特征通道的通道重要性值,基于所述通道重要性值,对所述活体检测网络进行动态裁剪,得到裁剪后的目标活体检测网络,以及将所述目标用户图像输入至所述目标活体检测网络,以获得所述目标用户的攻击概率。
在一些实施例中,所述对所述活体检测网络进行动态裁剪,得到裁剪后的目标活体检测网络,包括:基于所述通道重要性值,确定所述每一网络层中特征通道对应的卷积核的目标重要性值;在所述卷积核中选取所述目标重要性值大于预设重要性阈值的至少一个卷积核,得到目标卷积核;以及在所述活体检测网络中对所述目标卷积核进行裁剪,得到所述目标活体检测网络。
在一些实施例中,所述在所述活体检测网络中对所述目标卷积核进行裁剪,得到所述目标活体检测网络,包括:在所述活体检测网络中停用所述目标卷积核,得到所述目标活体检测网络。
在一些实施例中,所述将所述目标用户图像输入至所述目标活体检测网络,得到所述目标用户的攻击概率之后,还包括:在所述目标活体检测网络中恢复所述目标卷积核,得到恢复后的活体检测网络;以及将所述活体检测网络更新为所述恢复后的活体检测网络。
在一些实施例中,所述活体检测模型的训练过程包括以下步骤:对预设活体检测网络进行静态压缩,得到初始活体检测网络;基于所述预设活体检测网络,对所述初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络;以及基于预设通道检测网络,对所述当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和训练后的通道检测网络,并将所述活体检测网络和所述通道检测网络作为所述活体检测模型。
在一些实施例中,所述对预设活体检测网络进行静态压缩,得到初始活体检测网络,包括:获得第一用户图像样本,并将所述第一用户图像样本输入至所述预设活体检测网络,以获得第一预测用户类别;获得所述预设活体检测网络中每一网络参数的当前参数信息,并基于所述第一预测用户类别和所述当前参数信息,确定所述第一用户图像样本对应的静态压缩损失信息;以及基于所述静态压缩损失信息,对所述预设活体检测网络进行收敛,以得到所述初始活体检测网络。
在一些实施例中,所述基于所述第一预测用户类别和所述当前参数信息,确定所述第一用户图像样本对应的静态压缩损失信息,包括:获得所述第一用户图像样本的第一标注用户类别,并将所述第一预测用户类别与所述第一标注用户类别进行对比,以得到分类损失信息;获得所述每一网络参数的初始梯度敏感值,并基于所述初始梯度敏感值,确定所述每一网络参数的稀疏权重,所述稀疏权重与所述初始梯度敏感值成反比;基于所述当前参数信息,确定每一网络参数的初始稀疏损失信息,并基于所述稀疏权重,对所述初始稀疏损失信息进行加权融合,得到目标稀疏损失信息;以及将所述分类损失信息和所述目标稀疏损失信息进行融合,得到所述静态压缩损失信息。
在一些实施例中,所述对所述预设活体检测网络进行收敛,以得到所述初始活体检测网络,包括:基于所述静态压缩损失信息,对所述每一网络参数的初始梯度敏感值进行更新,并将更新后的当前梯度敏感值作为所述初始梯度敏感值;基于所述静态压缩信息,对所述预设活体检测网络中所述每一网络参数进行更新,得到更新后的当前活体检测网络,并将所述预设活体检测网络更新为所述当前活体检测网络;以及返回执行所述获得第一用户图像样本的步骤,直至所述预设活体检测网络收敛时为止,得到候选活体检测网络,并对所述候选活体检测网络进行静态裁剪,得到初始活体检测网络。
在一些实施例中,所述对所述每一网络参数的初始梯度敏感值进行更新,包括:基于所述静态压缩损失信息,确定所述每一网络参数对应的当前梯度;对所述静态压缩损失信息进行波动调整,得到目标静态压缩损失信息,所述目标静态压缩损失信息与所述静态压缩损失信息的波动值小于预设波动阈值;基于所述目标静态压缩损失信息,确定所述每一网络参数的目标梯度;获得所述当前梯度与对应的所述目标梯度之间的梯度差值,并基于所述梯度差值,确定所述每一网络参数的当前梯度敏感值;以及将所述每一网络参数的初始梯度敏感值更新为所述当前梯度敏感值。
在一些实施例中,所述对所述候选活体检测网络进行静态裁剪,得到初始活体检测网络,包括:获得所述候选活体检测网络中每一网络参数的参数值;在所述每一网络参数中选取出所述参数值为零的目标网络参数;以及在所述候选活体检测网络中对所述目标网络参数对应的卷积核进行裁剪,得到所述初始活体检测网络。
在一些实施例中,所述对所述初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络,包括:获得用户图像样本集合,并将所述用户图像样本集合输入至所述预设活体检测网络,以获得所述用户图像样本集合中每一第二用户图像样本的第一样本图像特征和第二预测用户类别;将所述用户图像样本集合输入至所述初始活体检测网络,以获得所述每一第二用户图像样本的第二样本图像特征和第三预测用户类别;以及基于所述第一样本图像特征、第二样本图像特征、第二预测用户类别和所述第三预测用户类别,对所述初始活体检测网络进行收敛,得到所述当前活体检测网络。
在一些实施例中,所述对所述初始活体检测网络进行收敛,得到所述当前活体检测网络,包括:获得所述每一第二用户图像样本的第二标注用户类别,并将所述第二标注用户类别与所述第三预测用户类别进行对比,以得到裁剪后的目标分类损失信息;将所述第二预测用户类别与所述第三预测用户类别进行对比,以得到预测一致性损失信息;基于所述第一样本图像特征和第二样本图像特征,确定所述用户图像样本集合的样本关系一致性损失信息;以及将所述目标分类损失信息、所述预测一致性损失信息和所述样本关系一致性损失信息进行融合,并基于融合后的蒸馏损失信息,对所述初始活体检测网络进行收敛,得到所述当前活体检测网络。
在一些实施例中,所述基于所述第一样本图像特征和第二样本图像特征,确定所述用户图像样本集合的样本关系一致性损失信息,包括:获得所述第一样本图像特征之间的第一特征相似度,并基于所述第一特征相似度,确定所述用户图像样本集合对应的第一样本关系特征;获得所述第二样本图像特征之间的第二特征相似度,并基于所述第二特征相似度,确定所述用户图像样本集合对应的第二样本关系特征;以及将所述第一样本关系特征与所述第二样本关系特征进行对比,以得到所述样本关系一致性损失信息。
在一些实施例中,所述对所述当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和训练后的通道检测网络,包括:获得第三用户图像样本,并将所述第三用户图像样本输入至所述预设通道检测网络,以获得所述当前活体检测网络中每一网络层的特征通道的样本通道重要性值;基于所述样本通道重要性值,对所述当前活体检测网络进行动态裁剪,得到裁剪后的当前活体检测网络,并将所述第三用户图像样本输入至所述裁剪后的当前活体检测网络,以获得第四预测用户类别;将所述第三用户图像样本的第三标注用户类别与所述第四预测用户类别进行对比,以得到所述第三用户图像样本的候选分类损失信息;以及基于所述候选分类损失信息对所述裁剪后的当前活体检测网络和所述预设通道检测网络进行收敛,得到训练后的所述活体检测网络和训练后的所述通道检测网络。
在一些实施例中,所述基于所述攻击概率,确定所述目标用户的活体检测结果,包括:在所述攻击概率大于预设攻击概率阈值时,确定所述目标用户的活体检测结果为攻击用户。
在一些实施例中,还包括:在所述攻击概率小于所述预设攻击概率阈值时,确定所述目标用户的活体检测结果为正常用户。
第二方面,本说明书还提供一种活体检测系统,包括:至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及至少一个处理器,同所述至少一个存储介质通信连接,其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行本说明书第一方面所述的活体检测方法。
由以上技术方案可知,本说明书提供的活体检测方法和系统,在获得目标用户的目标用户图像后,将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为对预设活体检测模型采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;由于该方案中活体检测模型为通过静态压缩和动态压缩相结合的方式训练得到的,在对预设活体检测模型进行静态压缩之后,还可以根据不同样本进行动态压缩,从而使得活体检测模型针对不同样本可以保持较高的检测性能,而且,在动态压缩之前,就已经对预设活体检测模型进行静态压缩,使得动态压缩之前的模型的体积较小,可以适配终端有限的存储空间,也降低了动态压缩的计算成本,从而提升了活体检测模型的检测性能,因此,可以提升活体检测的准确率。
本说明书提供的活体检测方法和系统的其他功能将在以下说明中部分列出。根据描述,以下数字和示例介绍的内容将对那些本领域的普通技术人员显而易见。本说明书提供的活体检测方法和系统的创造性方面可以通过实践或使用下面详细示例中所述的方法、装置和组合得到充分解释。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本说明书的实施例提供的一种活体检测系统的应用场景示意图;
图2示出了根据本说明书的实施例提供的一种计算设备的硬件结构图;
图3示出了根据本说明书的实施例提供的一种活体检测方法流程图;
图4示出了根据本说明书的实施例提供的一种人脸识别场景下的活体检测的整体流程示意图;以及
图5示出了根据本说明书的实施例提供的一种活体检测模型对目标用户进行活体检测的流程示意图。
具体实施方式
以下描述提供了本说明书的特定应用场景和要求,目的是使本领域技术人员能够制造和使用本说明书中的内容。对于本领域技术人员来说,对所公开的实施例的各种局部修改是显而易见的,并且在不脱离本说明书的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用。因此,本说明书不限于所示的实施例,而是与权利要求一致的最宽范围。
这里使用的术语仅用于描述特定示例实施例的目的,而不是限制性的。比如,除非上下文另有明确说明,这里所使用的,单数形式“一”,“一个”和“该”也可以包括复数形式。当在本说明书中使用时,术语“包括”、“包含”和/或“含有”意思是指所关联的整数,步骤、操作、元素和/或组件存在,但不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或组的存在或在该系统/方法中可以添加其他特征、整数、步骤、操作、元素、组件和/或组。
考虑到以下描述,本说明书的这些特征和其他特征、以及结构的相关元件的操作和功能、以及部件的组合和制造的经济性可以得到明显提高。参考附图,所有这些形成本说明书的一部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在限制本说明书的范围。还应理解,附图未按比例绘制。
本说明书中使用的流程图示出了根据本说明书中的一些实施例的系统实现的操作。应该清楚地理解,流程图的操作可以不按顺序实现。相反,操作可以以反转顺序或同时实现。此外,可以向流程图添加一个或多个其他操作。可以从流程图中移除一个或多个操作。
为了方便描述,本说明书将对以下描述将会出现的术语进行如下解释:
活体检测:人脸识别系统中,对活体攻击(包括手机照片,纸质照片以及面具等攻击行为)进行检测和拦截的算法技术;
蒸馏学习:指利用大规模的教师对轻量级的学生网络进行指导的学习和模型训练方法;
动态压缩:在推理阶段,为每个样本生成不同压缩模型结构,并用该模型结构进行预测的压缩方法;
静态压缩:模型在训练阶段完成压缩,在推理阶段对所有的样本保持不变。
在对本说明书具体实施例说明之前,先对本说明书的应用场景进行如下介绍:
本说明书提供的活体检测方法可以应用在任意的活体检测场景中,比如,在人脸支付场景中,可以通过本说明书的活体检测方法对采集的待支付用户的人脸图像进行活体检测;在身份验证场景中,可以通过本说明书的活体检测方法对采集的用户的身份图像进行活体检测;还可以应用在任意的人脸识别场景中,在此就不再一一赘述。
本领域技术人员应当明白,本说明书所述的活体检测方法和系统应用于其他使用场景也在本说明书的保护范围内。
图1示出了根据本说明书的实施例提供的一种活体检测系统001的应用场景示意图。活体检测系统001(以下简称系统001)可以应用于任意场景的活体检测,比如,人脸支付场景下的活体检测、身份验证场景下的活体检测、人脸识别场景下的活体检测,等等,如图1所示,系统001可以包括用户100、客户端200、服务器300以及网络400。
用户100可以为触发对目标用户图像进行识别的用户,用户100可以在客户端200进行活体检测操作,用户100可以为目标用户,也可以为其他用户。
客户端200可以为响应于用户100的活体检测操作对目标用户图像进行活体检测的设备。在一些实施例中,所述活体检测方法可以在客户端200上执行。此时,客户端200可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,客户端200可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。如图1所示,客户端200可以与服务器300进行通信连接。在一些实施例中,服务器300可以与多个客户端200进行通信连接。在一些实施例中,客户端200可以通过网络400与服务器300交互,以接收或发送消息等,比如接收或发送目标用户的目标用户图像等。在一些实施例中,客户端200可以包括移动设备、平板电脑、笔记本电脑、机动车辆的内置设备或类似内容,或其任意组合。在一些实施例中,所述移动设备可包括智能家居设备、智能移动设备、虚拟现实设备、增强现实设备或类似设备,或其任意组合。在一些实施例中,所述智能家居装置可包括智能电视、台式电脑等,或任意组合。在一些实施例中,所述智能移动设备可包括智能手机、个人数字辅助、游戏设备、导航设备等,或其任意组合。在一些实施例中,所述虚拟现实设备或增强现实设备可能包括虚拟现实头盔、虚拟现实眼镜、虚拟现实手柄、增强现实头盔、增强现实眼镜、增强现实手柄或类似内容,或其中的任何组合。例如,所述虚拟现实设备或所述增强现实设备可能包括谷歌眼镜、头戴式显示器、VR等。在一些实施例中,所述机动车中的内置装置可包括车载计算机、车载电视等。在一些实施例中,客户端200可以包括图像采集设备,用于采集目标用户的至少一张用户图像,从而获得目标用户图像。在一些实施例中,所述图像采集设备可以是二维图像采集设备(比如RGB摄像头),也可以是二维图像采集设备(比如RGB摄像头)和深度图像采集设备(比如3D结构光摄像头、激光探测器,等等)。在一些实施例中,客户端200可以是具有定位技术的设备,用于定位客户端200的位置。
在一些实施例中,客户端200可以安装有一个或多个应用程序(APP)。所述APP能够为用户100提供通过网络400同外界交互的能力以及界面。所述APP包括但不限于:网页浏览器类APP程序、搜索类APP程序、聊天类APP程序、购物类APP程序、视频类APP程序、理财类APP程序、即时通信工具、邮箱客户端、社交平台软件等等。在一些实施例中,客户端200上可以安装有目标APP。所述目标APP能够为客户端200采集目标用户的至少一张用户图像,从而获得目标用户图像。在一些实施例中,所述用户100还可以通过所述目标APP触发活体检测请求。所述目标APP可以响应于所述活体检测请求,执行本说明书描述的活体检测方法。所述活体检测方法将在后面的内容中详细介绍。
服务器300可以是提供各种服务的服务器,例如对客户端200上采集的目标用户图像进行活体检测提供支持的后台服务器。在一些实施例中,所述活体检测方法可以在服务器300上执行。此时,服务器300可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,服务器300可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。服务器300可以与多个客户端200通信连接,并接收客户端200发送的数据。
网络400用以在客户端200和服务器300之间提供通信连接的介质。网络400可以促进信息或数据的交换。如图1所示,客户端200和服务器300可以同网络400连接,并且通过网络400互相传输信息或数据。在一些实施例中,网络400可以是任何类型的有线或无线网络,也可以是其组合。比如,网络400可以包括电缆网络,有线网络、光纤网络、电信通信网络、内联网、互联网、局域网(LAN)、广域网(WAN)、无线局域网(WLAN)、大都市市区网(MAN)、广域网(WAN)、公用电话交换网(PSTN)、蓝牙TM网络、ZigBeeTM网络、近场通信(NFC)网络或类似网络。在一些实施例中,网络400可以包括一个或多个网络接入点。例如,网络400可以包括有线或无线网络接入点,如基站或互联网交换点,通过该接入点,客户端200和服务器300的一个或多个组件可以连接到网络400以交换数据或信息。
应该理解,图1中的客户端200、服务器300和网络400的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端200、服务器300和网络400。
需要说明的是,所述活体检测方法可以完全在客户端200上执行,也可以完全在服务器300上执行,还可以部分在客户端200上执行,部分在服务器300上执行。
图2示出了根据本说明书的实施例提供的一种计算设备600的硬件结构图。计算设备600可以执行本说明书描述的活体检测方法。所述活体检测方法在本说明书中的其他部分介绍。当所述活体检测方法在客户端200上执行时,计算设备600可以是客户端200。当所述活体检测方法在服务器300上执行时,计算设备600可以是服务器300。当所述活体检测方法可以部分在客户端200上执行,部分在服务器300上执行时,计算设备600可以是客户端200和服务器300。
如图2所示,计算设备600可以包括至少一个存储介质630和至少一个处理器620。在一些实施例中,计算设备600还可以包括通信端口650和内部通信总线610。同时,计算设备600还可以包括I/O组件660。
内部通信总线610可以连接不同的系统组件,包括存储介质630、处理器620和通信端口650。
I/O组件660支持计算设备600和其他组件之间的输入/输出。
通信端口650用于计算设备600同外界的数据通信,比如,通信端口650可以用于计算设备600同网络400之间的数据通信。通信端口650可以是有线通信端口也可以是无线通信端口。
存储介质630可以包括数据存储装置。所述数据存储装置可以是非暂时性存储介质,也可以是暂时性存储介质。比如,所述数据存储装置可以包括磁盘632、只读存储介质(ROM)634或随机存取存储介质(RAM)636中的一种或多种。存储介质630还包括存储在所述数据存储装置中的至少一个指令集。所述指令是计算机程序代码,所述计算机程序代码可以包括执行本说明书提供的活体检测方法的程序、例程、对象、组件、数据结构、过程、模块等等。
至少一个处理器620可以同至少一个存储介质630以及通信端口650通过内部通信总线610通信连接。至少一个处理器620用以执行上述至少一个指令集。当计算设备600运行时,至少一个处理器620读取所述至少一个指令集,并且根据所述至少一个指令集的指示,执行本说明书提供的活体检测方法。处理器620可以执行活体检测方法包含的所有步骤。处理器620可以是一个或多个处理器的形式,在一些实施例中,处理器620可以包括一个或多个硬件处理器,例如微控制器,微处理器,精简指令集计算机(RISC),专用集成电路(ASIC),特定于应用的指令集处理器(ASIP),中心处理单元(CPU),图形处理单元(GPU),物理处理单元(PPU),微控制器单元,数字信号处理器(DSP),现场可编程门阵列(FPGA),高级RISC机器(ARM),可编程逻辑器件(PLD),能够执行一个或多个功能的任何电路或处理器等,或其任何组合。仅仅为了说明问题,在本说明书中计算设备600中仅描述了一个处理器620。然而,应当注意,本说明书中计算设备600还可以包括多个处理器,因此,本说明书中披露的操作和/或方法步骤可以如本说明书所述的由一个处理器执行,也可以由多个处理器联合执行。例如,如果在本说明书中计算设备600的处理器620执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同处理器620联合或分开执行(例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一和第二处理器共同执行步骤A和B)。
图3示出了根据本说明书的实施例提供的一种活体检测方法P100的流程图。如前,计算设备600可以执行本说明书的活体检测方法P100。具体地,处理器620可以读取存储在其本地存储介质中的指令集,然后根据指令集的规定,执行本说明书的活体检测方法P100。如图3所示,方法P100可以包括:
S110:获得目标用户的目标用户图像。
其中,目标用户图像可以为包含目标用户的生物特征的图像。所述生物特征可以包括面部、躯体、虹膜、巩膜、指纹、掌纹、声纹或骨骼投影中的至少一个。
其中,获得目标用户的目标用户图像的方式可以有多种,具体可以如下:
例如,处理器620可以直接接收用户100或目标用户通过客户端、终端或服务器上传的所述目标用户的至少一张用户图像,从而得到目标用户图像,或者,可以从网络或者图像数据库中获得包含目标用户的生物特征的图像,从而得到目标用户图像,或者,可以通过图像采集设备采集目标用户的至少一张包含生物特征的用户图像,从而得到目标用户图像,或者,在目标用户图像的数量较多或者内存较大时,还可以接收活体检测请求,该活体检测请求中包括目标用户的目标用户图像的存储地址,基于该存储地址,获得目标用户的目标用户图像,等等。
S120:将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率。
其中,活体检测模型为对预设活体检测网络采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型。静态压缩和动态压缩相结合的方式可以包括先对预设活体检测模型进行静态压缩,然后,在静态压缩得到的模型上进行知识蒸馏,然后,对蒸馏后的模型进行动态压缩的训练,从而得到该活体检测模型,具体的训练过程可以参考下文所述。
其中,攻击概率可以为目标用户为攻击用户的概率。所述攻击用户可以为非活体的用户。
其中,活体检测模型可以包括活体检测网络和通道检测网络。活体检测网络被配置为对目标用户进行活体检测。通道检测网络被配置为检测出活体检测网络中每层网络层中特征通道的重要性。将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率的方式可以有多种,具体可以如下:
例如,处理器620可以将目标用户图像输入至通道检测网络,以获得活体检测网络中每一网络层的特征通道的通道重要性值,基于通道重要性值,对活体检测网络进行动态裁剪,得到裁剪后的目标活体检测网络,以及将目标用户图像输入至目标活体检测网络,以获得目标用户的攻击概率。
其中,通道重要性值可以为评价网络层中特征通道的重要性的参数。通道重要性值越大,说明该通道重要性值对应的特征通道越重要,反之则说明该特征通道越不重要。对于评价出的不重要的特征通道,可以对该特征通道对应的卷积核(滤波器)进行停用,从而可以得到裁剪后的目标活体检测模型。基于通道重要性值,对活体检测网络进行动态裁剪的方式可以有多种,比如,处理器620可以基于重要性值,确定每一网络层中特征通道对应的卷积核的目标重要性值,在卷积核中选取出目标重要性值大于预设重要性阈值的至少一个卷积核,得到目标卷积核,以及在活体检测网络中对目标卷积核进行裁剪,得到目标活体检测网络。
其中,目标重要性值为评价卷积核的重要性的参数。目标重要性值越大,则卷积核就越重要。所述卷积核又可以称为滤波器,主要为用于计算图像像素的参考矩阵。卷积核(滤波器)主要用于对图像进行卷积处理。一个卷积核(滤波器)对应一个特征通道。基于通道重要性值,确定每一网络层中特征通道对应的卷积核的目标重要性值的方式可以有多种,比如,处理器620可以直接将通道重要性值作为对应的卷积核的目标重要值,或者,还可以获得卷积核集合对应的预设重要性值集合,在预设重要性值集合中选取出通道重要值对应的重要性值,得到对应的卷积核的目标重要性值。
处理器620在确定出每一网络层中特征通道对应的卷积核的目标重要性值之后,便可以在卷积核中选取出目标重要性值大于预设重要性阈值的至少一个卷积核,从而得到目标卷积核。在活体检测网络中对目标卷积核进行裁剪,从而得到目标活体检测网络。对目标卷积核进行裁剪的方式可以有多种,比如,处理器620可以在活体检测网络中停用目标卷积核,从而得到目标活体检测网络。需要说明的是,这里的停用只是针对目标用户图像进行活体检测这个时间段,在这个时间段内,目标活体检测网络中仍然是包含该目标卷积核,只是在进行活体检测这个阶段,目标卷积核处于停用的状态,无法启用该目标卷积核。因此,处理器620在将目标用户图像输入至目标活体检测网络,得到目标用户的攻击概率之后,还可以在目标活体检测网络中恢复目标卷积核,得到恢复后的活体检测网络,以及将活体检测网络更新为恢复后的活体检测网络。
其中,活体检测模型的训练过程可以包括以下步骤:处理器620可以对预设活体检测网络进行静态压缩,得到初始活体检测网络,基于预设活体检测网络,对初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络,以及基于预设通道检测网络,对当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和通道检测网络,并将活体检测网络和通道检测网络作为活体检测模型,具体可以如下:
(1)对预设活体检测模型进行静态压缩,得到初始活体检测网络。
其中,预设活体检测网络可以为预先设定的用于进行活体检测的检测网络。静态压缩可以为对预设活体检测模型中的一些不重要的卷积核(滤波器)进行裁剪。这里的裁剪可以理解为对预设活体检测模型中的一些不重要的卷积核(滤波器)直接删除,使得裁剪后的初始活体检测模型中不再包含这些不重要的卷积核(滤波器),或者,对这些不重要的卷积核(滤波器)永久停用,且不得恢复。对预设活体检测网络进行静态压缩的方式可以有多种,具体可以如下:
例如,处理器620可以获得第一用户图像样本,并将第一用户图像样本输入至预设活体检测网络,以获得第一预测用户类别,获得预设活体检测网络中每一网络参数的当前参数信息,并基于第一预测用户类别和当前参数信息,确定第一用户图像样本对应的静态压缩损失信息,以及基于静态压缩信息,对预设活体检测网络进行收敛,以得到初始活体检测网络。
其中,预设活体检测网络可以包括特征提取子网络和活体分类子网络。特征提取子网络被配置为对第一用户图像样本进行特征提取,得到图像特征。活体分类子网络被配置为基于图像特征,对第一用户图像样本进行活体分类,从而得到第一预测用户类别。
其中,特征提取子网络的网络结构可以多种,比如,可以包括卷积网络(CNN)、残差网络或ShuffleNetV2(轻量级CNN网络),等等。
其中,当前参数信息可以为网络参数在当前状态下的至少一个参数值。静态压缩损失信息可以为对预设活体检测模型进行静态压缩时产生的损失信息。基于第一预测用户类别和当期参数信息,确定第一用户图像样本对应的静态压缩损失信息的方式可以有多种,比如,处理器620可以获得第一用户图像样本的第一标注用户类别,并将第一预测用户类别与第一标注用户类别进行对比,以得到分类损失信息,获得每一网络参数的初始梯度敏感值,并基于初始梯度敏感值,确定每一网络参数的稀疏权重,基于当前参数信息,确定每一网络参数的初始稀疏损失信息,并基于稀疏权重,对初始稀疏损失信息进行加权,得到每一网络参数的目标稀疏损失信息,以及将分类损失信息和目标稀疏损失信息进行融合,得到静态压缩损失信息。
其中,分类损失信息可以为预设活体检测网络对第一用户图像样本进行活体分类时产生的损失信息。将第一预测用户类别与第一标注用户类别进行对比,以得到分类损失信息的方式可以有多种,比如,处理器620可以采用交叉熵损失函数,将第一预测用户类别与第一标注类别进行对比,从而得到分类损失信息,或者,还可以采用其他类型的损失函数,将第一预测用户类别与第一标注类别进行对比,从而得到分类损失信息,等等。
其中,稀疏权重可以为初始梯度敏感值的倒数,因此,稀疏权重与初始梯度敏感值成反比,即初始梯度敏感度越大,稀疏权重越小。所述初始梯度敏感值可以为预先设定的每个网络参数对应的损失函数的敏感度的值,也可以理解为评估梯度敏感的值。
其中,初始稀疏损失信息可以为表针网络参数的参数值稀疏性的损失信息。基于当前参数信息,确定每一网络参数的初始稀疏损失信息的方式可以有多种,比如,处理器620可以确定每一网络参数的当前参数信息中每一参数值的L1范数,从而得到每一网络参数的初始稀疏损失信息。
处理器620在确定出每一网络参数的初始稀疏损失信息之后,便可以基于稀疏权重,对初始稀疏损失信息进行加权融合,从而得到目标稀疏损失信息。然后,将分类损失信息与目标稀疏损失信息进行融合,得到静态压缩损失信息。将分类损失信息与目标稀疏损失信息进行融合的方式可以有多种,比如,处理器620可以直接将分类损失信息和目标稀疏损失信息相加,从而得到静态压缩损失信息,具体可以如公式(1)所示:
Lossstatic=Losscls1+Losssparse    (1)
其中,Lossstatic为静态压缩损失信息,Losscls1为分类损失信息,Losssparse为目标稀疏损失信息。
处理器620在确定出静态压缩损失信息之后,便可以基于静态压缩损失信息,对预设活体检测网络进行收敛,以得到初始活体检测网络。对预设活体检测网络进行收敛的方式可以有多种,比如,处理器620可以基于静态压缩损失信息,对每一网络参数的初始梯度敏感值进行更新,并将更新后的当前梯度敏感值作为初始梯度敏感值,基于静态压缩损失信息,对预设活体检测网络中的每一网络参数进行更新,得到更新后的当前活体检测网络,并将预设活体检测网络更新为当前活体检测网络,以及返回执行获得第一用户图像样本的步骤,直至预设活体检测网络收敛时为止,得到候选活体检测网络,并对候选活体检测网络进行静态裁剪,得到初始活体检测网络。
其中,基于静态压缩损失信息,对每一网络参数的初始梯度敏感值进行更新。更新的方式可以有多种,比如,处理器620可以基于静态压缩损失信息,确定每一网络参数对应的当前梯度,对静态压缩损失信息进行波动调整,得到目标静态压缩损失信息,基于目标静态压缩损失信息,确定每一网络参数的目标梯度,获得当前梯度与对应的目标梯度之间的梯度差值,并基于梯度差值,确定每一网络参数的当前梯度敏感值,以及将每一网络参数的初始梯度值更新为当前梯度敏感值。
其中,目标静态压缩损失信息与静态压缩损失信息的波动值小于预设波动阈值。对静态压缩损失信息进行波动调整的方式可以有多种,比如,处理器620可以获取预设波动值,将静态压缩损失信息减去该波动值,从而得到目标静态压缩损失信息。所述波动值小于预设波动阈值,也可以理解为波动值为一个极小的波动值,比如,可以包括0.0001或者其他任意的极小值。通过极小的波动值来判断梯度变化,如果梯度变化过大,就可以表明梯度敏感值较大或敏感,如果梯度变化不明显,就可以表明梯度敏感值较小或者不敏感。
处理器620在对静态压缩损失信息进行波动调整之后,便可以基于波动调整后的目标静态压缩损失信息,确定每一网络参数的目标梯度。然后,获得当前梯度与目标梯度之间的差值,并基于梯度差值,确定每一网络参数的当前梯度敏感值。基于梯度差值,确定每一网络参数的当前梯度敏感值的方式可以有多种,比如,处理器620可以获得梯度差值的L2范数,从而得到每一网络参数对应的当前梯度敏感值,具体可以如公式(2)所示:
Figure BDA0004049010240000151
其中,seni为第i个网络参数的当前梯度敏感值,L为损失信息,v为静态压缩损失信息,Δ为波动值,(v-Δ)为目标静态压缩损失信息,pi为第i个网络参数的参数值。
处理器620在确定出每一网络参数的当前梯度敏感值之后,便可以将初始梯度敏感值更新为当前梯度敏感值。从而在下一次对预设活体检测模型进行迭代时,可以基于更新后的初始梯度敏感值,确定每一网络参数对应的稀疏权重,然后,基于稀疏权重,确定出静态压缩损失信息,并基于静态压缩损失信息,对当前梯度敏感值进行更新,依次循环迭代,直至预设活体检测模型收敛时为止,从而得到初始活体检测网络。
其中,基于静态压缩损失信息,对预设活体检测网络中每一网络参数进行更新的方式可以有多种,比如,处理器620可以采用梯度下降算法,基于静态压缩损失信息,对预设活体检测网络中每一网络参数进行更新,从而得到更新后的当前活体检测网络,或者,还可以采用其他网络参数更新算法,基于静态压缩损失信息,对预设活体检测网络中每一网络参数进行更新,从而得到更新后的当前活体检测网络,等等。
处理器620在对预设活体检测网络的每一网络参数更新之后,便可以将预设活体检测模型更新为更新后的当前活体检测网络。然后,返回执行获得第一用户图像样本的步骤,直至预设活体检测网络收敛时为止,从而得到候选活体检测网络,并对候选活体检测网络进行。
其中,在对预设活体检测模型进行迭代训练时,初始梯度敏感值为预先设定的梯度敏感值,从第二次迭代训练时,就可以采用第一迭代中确定出的静态压缩损失信息对初始梯度敏感值进行更新,然后,基于更新后的当前梯度敏感值,确定第二次迭代训练时的静态压缩损失信息,然后,依此迭代,直至预设活体检测网络收敛时为止,从而可以得到候选活体检测网络。
处理器620在得到候选活体检测网络之后,便可以对候选活体检测网络进行静态裁剪,从而得到初始活体检测网络。对候选活体检测网络进行静态裁剪的方式可以有多种,比如,处理器620可以获得候选活体检测网络中每一网络参数的参数值,在每一网络参数中选取出参数值为零的目标网络参数,以及在候选活体检测网络中对目标网络参数对应的卷积核(滤波器)进行裁剪,得到初始活体检测网络。
(2)基于预设活体检测网络,对初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络。
例如,处理器620可以获得用户图像样本集合,并将用户图像样本集合输入至预设活体检测网络,以获得用户图像样本集合中每一第二用户图像样本的第一样本图像特征和第二预测用户类别,将用户图像样本集合输入至初始活体检测网络,以获得每一第二用户图像样本的第二样本图像特征和第三预测用户类别,以及基于第一样本图像特征、第二样本图像特征、第二预测用户类别和第三预测用户类别,对初始活体检测网络进行收敛,得到当前活体检测网络。
其中,第一样本图像特征可以为预设活体检测网络对第二用户图像样本进行特征提取之后,最后一层网络层输出的图像特征。该图像特征可以包括用户特征或用户生物特征中的至少一个特征。第二样本图像特征就可以为初始活体检测网络对第二用户图像样本进行特征提取之后,最后一层网络输出的图像特征。第二预测用户类别可以为预设活体检测网络对第二用户图像样本进行活体分类后得到的预测结果。第三预测用户类别可以为初始活体检测网络对第二用户图像样本进行活体分类后得到的预测结果。
处理器620在得到第一样本图像特征、第二样本图像特征、第二预测用户类别和第三用户类别之后,便可以基于第一样本图像特征、第二样本图像特征、第二预测用户类别和第三用户类别,对初始活体检测网络进行收敛,得到当前活体检测网络。对初始活体检测网络进行收敛的方式可以有多种,比如,处理器620可以获得每一第二用户图像样本的第二标注用户类别,并将第二标注用户类别与第三预测用户类别进行对比,以得到裁剪后的目标分类损失信息,将第二预测用户类别与第三预测用户类别进行对比,以得到观测一致性损失信息,基于第一样本图像特征和第二样本图像特征,确定用户图像样本集合的样本关系一致性损失信息,以及将目标分类损失信息、预测一致性损失信息和样本关系一致性损失信息进行融合,并基于融合后的蒸馏损失信息,对初始活体检测网络进行收敛,得到当前活体检测网络。
其中,裁剪后的目标分类损失信息可以为静态裁剪后的初始活体检测网络在对第二用户图像样本进行活体分类时产生的损失信息。确定裁剪后的目标分类损失信息的方式与确定分类损失信息的方式类似,详见上文所述,在此就不再一一赘述。
其中,预测一致性损失信息可以为静态裁剪前后的活体检测网络(预设活体检测网络和初始活体检测网络)对第二用户图像样本进行活体分类时的预测结果之间的差异对应的损失信息。预测一致性损失信息的约束条件可以为第二预测用户类别和第三预测用户类别之间的误差在预设误差范围内,也就是说预设活体检测网络和初始活体检测网络针对同一个训练样本的预测结果需要尽量一致。将第二预测用户类别与第三预测用户类别进行对比,以得到预测一致性损失信息的方式可以有多种,比如,处理器620可以确定第二预测用户类别与第三预测用户类别之间的预测差值,并基于预测差值,确定预测一致性损失信息,或者,还可以确定第二预测用户类别与第三预测用户类别之间的预测差值,并将预测差值作为预测一致性损失信息,等等。
其中,样本关系一致性损失信息可以为静态裁剪前后的用户图像样本集合中的第二用户图像样本之间的样本关系之间的差异产生的损失信息。所述样本关系的特征可以为用户图像样本中不同的用户图像样本的样本特征之间的相似度构建的关系矩阵,比如,以用户图像样本集合包括N个第二用户图像样本,提取出对应的N个样本图像特征,计算得到N*N的矩阵作为关系矩阵,第i行第j列元素表示第i个样本特征和第j个样本特征的余弦相似度。样本关系一致性损失信息的约束条件为裁剪前后的用户图像样本集合中第二用户图像样本之间的样本关系特征之间的差值小于预设差值阈值,也就是说模型静态裁剪前后的用户图像样本集合中第二用户图像样本之间的样本关系特征保持一致。确定用户图像样本集合的样本关系一致性损失信息的方式可以有多种,比如,处理器620可以获得第一样本图像特征之间的第一特征相似度,并基于第一特征相似度,确定用户图像样本集合对应的第一样本关系特征,获得第二样本图像特征之间的第二特征相似度,并基于第二特征相似度,确定用户图像样本集合对应的第二样本关系特征,将第一样本关系特征与第二样本关系特征进行对比,以得到样本关系一致性损失信息。
其中,第一特征相似度可以为第二用户图像样本的第一样本图像特征之间的特征相似度。特征相似度的类型可以有多种,比如,可以包括余弦相似度,还可以包括特征距离转换的相似度,等等。基于第一特征相似度,确定用户图像样本集合对应的第一样本关系特征的方式可以有多种,比如,以特性相似度为余弦相似度,用户图像样本集合包括N个第二用户图像样本为例,则通过预设活体检测网络可以提取出对应的N个第一样本图像特征,计算N个第一样本图像特征之间的余弦相似度,并基于余弦相似度,构建N*N的关系矩阵,关系矩阵中的第i行第j列元素表示第i个第一样本图像特征和第j个第一样本图像特征之间的余弦相似度,将该关系矩阵作为第一样本关系特征。
其中,第二特征相似度可以为第二用户图像样本的第二样本图像特征之间的特征相似度。确定第二样本关系特征的方式可以与确定第一样本关系特征的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在确定出第一样本关系特征和第二样本关系特征之后,便可以将第一样本关系特征与第二样本关系特征进行对比,以得到样本关系一致性损失信息。将第一样本关系特征与第二样本关系特征进行对比的方式可以有多种,比如,处理器620可以确定第一样本关系特征与第二样本关系特征之间的关系矩阵差值,并采用预设损失函数,基于关系矩阵差值,确定样本关系一致性损失信息,或者,还可以确定第一样本关系特征与第二样本关系特征中每一特征元素的差值,并采用预设损失函数,基于元素差值,确定样本关系一致性损失信息。
处理器620在确定目标分类损失信息、预测一致性损失信息和样本关系一致性损失信息之后,便可以将目标分类损失信息、预测一致性损失信息和样本关系一致性损失信息进行融合,从而给得到融合后的蒸馏损失信息。将目标分类损失信息、预测一致性损失信息和样本关系一致性损失信息进行融合的方式可以有多种,比如,处理器620可以直接将目标分类损失信息、预测一致性损失信息和样本关系一致性损失信息相加,从而得到蒸馏损失信息,具体可以如公式(3)所示:
Los□KD=Losscls2+Lossprediction+Lossrelation    (3)
其中,LossKD为蒸馏损失信息,Losscls2为目标分类损失信息,Lossprediction为预测一致性损失信息,Lossrelation为样本关系一致性损失信息。
处理器620在将目标分类损失信息、预测一致性损失信息和样本关系一致性损失融合之后,便可以基于融合后的蒸馏损失信息,对初始活体检测网络进行收敛,从而得到当前活体检测网络。对初始活体检测网络进行收敛的过程与对预设活体检测网络的收敛过程类似,详见上文所述,在此就不再一一赘述。
其中,需要说明的是,本方案中对初始活体检测网络采用样本关系的知识蒸馏,可以进一步增强静态裁剪后的初始活体检测网络的性能,避免静态裁剪对初始活体检测网络带来过大的性能下降。
(3)基于预设通道检测网络,对当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和训练后的通道检测网络,并将活体检测网络和通道检测网络作为活体检测模型。
其中,基于预设通道检测网络,对当前活体检测网络进行动态压缩的方式可以有多种,具体可以如下:
例如,处理器620可以获得第三用户图像样本,并将第三用户图像样本输入至预设通道检测网络,以获得当前活体检测网络中每一网络层的特征通道的样本通道重要性值,基于样本通道重要性值,对当前活体检测网络进行动态裁剪,得到裁剪后的当前活体检测网络,并将第三用户图像样本输入至裁剪后的当前活体检测网络,以获得第四预测用户类别,将第三用户图像样本的第三标注用户类别与第四预测用户类别进行对比,以得到第三用户图像样本的候选分类损失信息,以及基于候选分类损失信息对裁剪后的当前活体检测网络和预测通道检测网络进行收敛,得到训练后的活体检测网络和训练后的通道检测网络。
其中,对当前活体检测网络进行动态裁剪的方式与对活体检测网络进行的动态裁剪的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在对当前活体检测网络进行动态裁剪后,将第三用户图像样本输入至裁剪后的当前活体检测网络中,以获得第四预测用户类别。然后,将第三用户图像样本的第三标注用户类别与第四预测用户类别进行对比,以得到第三用户图像样本的候选分类损失信息。所述候选分类损失信息可以为动态裁剪后的当前活体检测网络在对第三用户图像样本进行活体分类时产生的损失信息。确定候选分类损失信息的方式可以与确定目标分类损失信息的方式类似,详见上文所述,在此就不再一一赘述。
其中,第一用户图像样本、第二用户图像样本和第三用户图像样本可以为同一用户图像样本,也可以为不同用户图像样本。
处理器620在得到候选分类损失信息之后,便可以基于候选分类损失信息对裁剪后的当前活体检测网络和预设通道检测网络进行收敛,从而得到训练后的活体检测网络和训练后的通道检测网络。对裁剪后的当前活体检测网络和预设通道检测网络进行收敛的方式可以与对初始活体检测网络进行收敛的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在对裁剪后的当前活体检测网络和预设通道检测网络进行收敛之后,便可以将收敛后(训练后)的活体检测网络和通道检测网络作为活体检测模型。
其中,需要说明的是,本方案中通过通道重要性计算的方式对初始活体检测网络进行动态压缩,从而可以减少计算量,进而在端侧有限的存储空间和算力下,提升活体检测模型的检测性能,进而提升活体检测的准确率。
S130:基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果。
其中,活体检测结果可以包括目标用户为攻击用户或正常用户中的一种。
其中,基于攻击概率,确定目标用户的活体检测结果的方式可以有多种,具体可以如下:
例如,处理器620可以在攻击概率大于预设攻击概率阈值时,确定目标用户的活体检测结果为攻击用户,或者,在攻击概率小于预设攻击概率阈值时,确定目标用户的活体检测结果为正常用户,等等。
理器620在确定出目标用户的活体检测结果之后,便可以输出该活体检测结果。输出活体检测结果的方式可以有多种,比如,处理器620可以直接将活体检测结果发送至用户100或目标用户对应的客户端200、终端或服务器,以便客户端200、终端或服务器基于活体检测结果对目标用户或目标用户对应的请求进行响应,或者,还可以直接可视化展示该活体检测结果,等等。
其中,可视化展示活体检测结果的方式可以有多种,比如,处理器620可以直接显示该活体检测结果,或者,可以通过声光等方式展示该活体检测结果(譬如,通过语音播报活体检测结果,或者,可以通过显式不同颜色的光显式不同类型的活体检测结果,或者,还可以通过声光联动的方式展示活体检测结果),或者,还可以针对特定类型的活体检测结果进行展示(譬如,仅针对攻击用户这一类型的活体检测结果进行展示,或者,仅针对活体用户这一类型的活体检测结果进行展示,等等),等等。
在一些实施例中,处理器620还可以在确定出目标用户的活体检测结果或者输出该活体检测结果之后,基于该活体检测结果对目标用户或者目标用户对应的请求进行响应,响应的方式可以有多种,比如,处理器620可以直接对目标用户或目标用户对应的请求进行拦截,或者,处理器620还可以直接对目标用户进行二次验证,并基于二次验证结果,对目标用户或目标用户对应的请求进行最终的响应,等等。
其中,在人脸识别场景下,本方案可以基于静态压缩和动态压缩相结合的方式训练出轻量级的活体检测模型,部署在端侧进行活体检测,整体的活体检测流程可以如图4所示,可以包括:基于梯度敏感性评估的静态压缩、模型裁剪和知识蒸馏、基于通道重要性的动态压缩、模型部署和活体检测,具体可以如下:
(1)基于梯度敏感性评估的静态压缩:传统的模型静态压缩方法,会根据网络参数的一些特性来进行参数重要性计算。常见的重要性计算方法可以包括网络参数的大小、网络参数的绝对值以及网络参数产生的特征的大小,等等。但是,这些计算方法都忽略了网络参数和整个任务之间的关系。本方案中通过确定网络参数和损失信息(函数)之间的敏感度,从而对网络参数的重要性进行排序,这种方法更加网络参数的“重要性”的定义,具体的静态压缩的训练过程可以参见上文所述,在此就不再一一赘述。
(2)模型裁剪和知识蒸馏:模型裁剪主要是将静态压缩训练后得到的候选活体检测网络中网络参数全为0的卷积核(滤波器)进行裁剪,从而得到静态压缩后的初始活体检测模型。另外,传统的知识蒸馏用于类别较多的情况,对于活体分类这种二分类任务,基本没有收益,因此,本方案中通过基于样本关系的知识蒸馏进一步增强静态裁剪后的初始活体检测网络的性能,避免对初始活体检测网络带来过大的性能下降。对初始活体检测网络进行知识蒸馏的过程可以参见上文所述,在此就不再一一赘述。
(3)基于通道重要性的动态压缩:传统的动态压缩方法统计的是卷积核(滤波器)的重要性,由于卷积核(滤波器)的数量过大,从而导致确定卷积核的重要性的参数量过大,为了节约计算量,本方案通过基于通道性计算的动态压缩方法,确定特征通道的通道重要性值,并基于通道重要性值,确定出对应的卷积核(滤波器)的目标重要性值,从而无需直接计算出卷积核(滤波器)的目标重要性值。然后,基于目标重要性值,对当前活体检测网络进行动态压缩的训练,并将训练后的活体检测网络和训练后的通道检测网络作为活体检测模型。
(4)模型部署和活体检测:活体检测模型可以部署在端侧,需要说明的是,活体检测模型中可以包括活体检测网络和通道检测网络。在目标用户开始人脸识别后,端侧的计算设备600中的处理器620就可以采集目标用户的目标用户图像,将目标用户图像输入至通道检测网络,得到活体检测网络中每一网络层中的特征通道的通道重要性值,根据通道重要性值,确定出对应的卷积核(滤波器)的目标重要性值,将目标重要性值小于阈值T1的目标卷积核动态裁剪,得到动态裁剪后的目标活体检测网络。将目标用户图像输入至目标活体检测网络,从而得到目标用户的攻击概率p,在攻击概率p大于概率阈值T2时,确定出目标用户为攻击用户,在攻击概率p小于概率阈值T2时,确定出目标用户为正常用户(活体用户),具体可以如图5所示。
其中,本方案中首先通过梯度敏感性评估方法对预设活体检测网络进行静态压缩,得到轻量级的初始活体检测网络。然后,对初始活体检测网络进行知识蒸馏,最后,通过基于通道重要性的动态压缩训练,从而得到活体检测网络和通道检测网络,并将活体检测网络和通道检测网络作为活体检测模型,并采用该活体检测模型用于活体检测。本方案创造性的将静态压缩和动态压缩相结合,即结合了静态压缩和动态压缩的优点,又克服了各自对应的缺点,从而提升了活体检测模型的检测性能,进而提升活体检测的准确率。
综上所述,本说明书提供的活体检测方法P100和系统001,在获得目标用户的目标用户图像后,将目标用户图像输入至活体检测模型,以获得目标用户的攻击概率,所述活体检测模型为对预设活体检测模型采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型,以及基于攻击概率,确定目标用户的活体检测结果,并输出活体检测结果;由于该方案中活体检测模型为通过静态压缩和动态压缩相结合的方式训练得到的,在对预设活体检测模型进行静态压缩之后,还可以根据不同样本进行动态压缩,从而使得活体检测模型针对不同样本可以保持较高的检测性能,而且,在动态压缩之前,就已经对预设活体检测模型进行静态压缩,使得动态压缩之前的模型的体积较小,可以适配终端有限的存储空间,也降低了动态压缩的计算成本,从而提升了活体检测模型的检测性能,因此,可以提升活体检测的准确率。
本说明书另一方面提供一种非暂时性存储介质,存储有至少一组用来进行活体检测的可执行指令。当所述可执行指令被处理器执行时,所述可执行指令指导所述处理器实施本说明书所述的活体检测方法P100的步骤。在一些可能的实施方式中,本说明书的各个方面还可以实现为一种程序产品的形式,其包括程序代码。当所述程序产品在计算设备600上运行时,所述程序代码用于使计算设备600执行本说明书描述的活体检测方法P100的步骤。用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)包括程序代码,并可以在计算设备600上运行。然而,本说明书的程序产品不限于此,在本说明书中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本说明书操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在计算设备600上执行、部分地在计算设备600上执行、作为一个独立的软件包执行、部分在计算设备600上部分在远程计算设备上执行、或者完全在远程计算设备上执行。
上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者是可能有利的。
综上所述,在阅读本详细公开内容之后,本领域技术人员可以明白,前述详细公开内容可以仅以示例的方式呈现,并且可以不是限制性的。尽管这里没有明确说明,本领域技术人员可以理解本说明书需求囊括对实施例的各种合理改变,改进和修改。这些改变,改进和修改旨在由本说明书提出,并且在本说明书的示例性实施例的精神和范围内。
此外,本说明书中的某些术语已被用于描述本说明书的实施例。例如,“一个实施例”,“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征,结构或特性可以包括在本说明书的至少一个实施例中。因此,可以强调并且应当理解,在本说明书的各个部分中对“实施例”或“一个实施例”或“替代实施例”的两个或更多个引用不一定都指代相同的实施例。此外,特定特征,结构或特性可以在本说明书的一个或多个实施例中适当地组合。
应当理解,在本说明书的实施例的前述描述中,为了帮助理解一个特征,出于简化本说明书的目的,本说明书将各种特征组合在单个实施例、附图或其描述中。然而,这并不是说这些特征的组合是必须的,本领域技术人员在阅读本说明书的时候完全有可能将其中一部分设备标注出来作为单独的实施例来理解。也就是说,本说明书中的实施例也可以理解为多个次级实施例的整合。而每个次级实施例的内容在于少于单个前述公开实施例的所有特征的时候也是成立的。
本文引用的每个专利,专利申请,专利申请的出版物和其他材料,例如文章,书籍,说明书,出版物,文件,物品等,可以通过引用结合于此。用于所有目的全部内容,除了与其相关的任何起诉文件历史,可能与本文件不一致或相冲突的任何相同的,或者任何可能对权利要求的最宽范围具有限制性影响的任何相同的起诉文件历史。现在或以后与本文件相关联。举例来说,如果在与任何所包含的材料相关联的术语的描述、定义和/或使用与本文档相关的术语、描述、定义和/或之间存在任何不一致或冲突时,使用本文件中的术语为准。
最后,应理解,本文公开的申请的实施方案是对本说明书的实施方案的原理的说明。其他修改后的实施例也在本说明书的范围内。因此,本说明书披露的实施例仅仅作为示例而非限制。本领域技术人员可以根据本说明书中的实施例采取替代配置来实现本说明书中的申请。因此,本说明书的实施例不限于申请中被精确地描述过的实施例。

Claims (18)

1.一种活体检测方法,包括:
获得目标用户的目标用户图像;
将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,所述活体检测模型为对预设活体检测网络采用静态压缩和动态压缩相结合的方式训练后得到的轻量级模型;以及
基于所述攻击概率,确定所述目标用户的活体检测结果,并输出所述活体检测结果。
2.根据权利要求1所述的活体检测方法,其中,所述活体检测模型包括活体检测网络和通道检测网络;以及
所述将所述目标用户图像输入至活体检测模型,以获得所述目标用户的攻击概率,包括:
将所述目标用户图像输入至所述通道检测网络,以获得所述活体检测网络中每一网络层的特征通道的通道重要性值,
基于所述通道重要性值,对所述活体检测网络进行动态裁剪,得到裁剪后的目标活体检测网络,以及
将所述目标用户图像输入至所述目标活体检测网络,以获得所述目标用户的攻击概率。
3.根据权利要求2所述的活体检测方法,其中,所述对所述活体检测网络进行动态裁剪,得到裁剪后的目标活体检测网络,包括:
基于所述通道重要性值,确定所述每一网络层中特征通道对应的卷积核的目标重要性值;
在所述卷积核中选取所述目标重要性值大于预设重要性阈值的至少一个卷积核,得到目标卷积核;以及
在所述活体检测网络中对所述目标卷积核进行裁剪,得到所述目标活体检测网络。
4.根据权利要求3所述的活体方法,其中,所述在所述活体检测网络中对所述目标卷积核进行裁剪,得到所述目标活体检测网络,包括:
在所述活体检测网络中停用所述目标卷积核,得到所述目标活体检测网络。
5.根据权利要求4所述的活体检测方法,其中,所述将所述目标用户图像输入至所述目标活体检测网络,得到所述目标用户的攻击概率之后,还包括:
在所述目标活体检测网络中恢复所述目标卷积核,得到恢复后的活体检测网络;以及
将所述活体检测网络更新为所述恢复后的活体检测网络。
6.根据权利要求1所述的活体检测方法,其中,所述活体检测模型的训练过程包括以下步骤:
对预设活体检测网络进行静态压缩,得到初始活体检测网络;
基于所述预设活体检测网络,对所述初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络;以及
基于预设通道检测网络,对所述当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和训练后的通道检测网络,并将所述活体检测网络和所述通道检测网络作为所述活体检测模型。
7.根据权利要求6所述的活体检测方法,其中,所述对预设活体检测网络进行静态压缩,得到初始活体检测网络,包括:
获得第一用户图像样本,并将所述第一用户图像样本输入至所述预设活体检测网络,以获得第一预测用户类别;
获得所述预设活体检测网络中每一网络参数的当前参数信息,并基于所述第一预测用户类别和所述当前参数信息,确定所述第一用户图像样本对应的静态压缩损失信息;以及
基于所述静态压缩损失信息,对所述预设活体检测网络进行收敛,以得到所述初始活体检测网络。
8.根据权利要求7所述的活体检测方法,其中,所述基于所述第一预测用户类别和所述当前参数信息,确定所述第一用户图像样本对应的静态压缩损失信息,包括:
获得所述第一用户图像样本的第一标注用户类别,并将所述第一预测用户类别与所述第一标注用户类别进行对比,以得到分类损失信息;
获得所述每一网络参数的初始梯度敏感值,并基于所述初始梯度敏感值,确定所述每一网络参数的稀疏权重,所述稀疏权重与所述初始梯度敏感值成反比;
基于所述当前参数信息,确定每一网络参数的初始稀疏损失信息,并基于所述稀疏权重,对所述初始稀疏损失信息进行加权融合,得到目标稀疏损失信息;以及
将所述分类损失信息和所述目标稀疏损失信息进行融合,得到所述静态压缩损失信息。
9.根据权利要求7所述的活体检测方法,其中,所述对所述预设活体检测网络进行收敛,以得到所述初始活体检测网络,包括:
基于所述静态压缩损失信息,对所述每一网络参数的初始梯度敏感值进行更新,并将更新后的当前梯度敏感值作为所述初始梯度敏感值;
基于所述静态压缩信息,对所述预设活体检测网络中所述每一网络参数进行更新,得到更新后的当前活体检测网络,并将所述预设活体检测网络更新为所述当前活体检测网络;以及
返回执行所述获得第一用户图像样本的步骤,直至所述预设活体检测网络收敛时为止,得到候选活体检测网络,并对所述候选活体检测网络进行静态裁剪,得到初始活体检测网络。
10.根据权利要求9所述的活体检测方法,其中,所述对所述每一网络参数的初始梯度敏感值进行更新,包括:
基于所述静态压缩损失信息,确定所述每一网络参数对应的当前梯度;
对所述静态压缩损失信息进行波动调整,得到目标静态压缩损失信息,所述目标静态压缩损失信息与所述静态压缩损失信息的波动值小于预设波动阈值;
基于所述目标静态压缩损失信息,确定所述每一网络参数的目标梯度;
获得所述当前梯度与对应的所述目标梯度之间的梯度差值,并基于所述梯度差值,确定所述每一网络参数的当前梯度敏感值;以及
将所述每一网络参数的初始梯度敏感值更新为所述当前梯度敏感值。
11.根据权利要求9所述的活体检测方法,其中,所述对所述候选活体检测网络进行静态裁剪,得到初始活体检测网络,包括:
获得所述候选活体检测网络中每一网络参数的参数值;
在所述每一网络参数中选取出所述参数值为零的目标网络参数;以及
在所述候选活体检测网络中对所述目标网络参数对应的卷积核进行裁剪,得到所述初始活体检测网络。
12.根据权利要求6所述的活体检测方法,其中,所述对所述初始活体检测网络进行知识蒸馏,得到蒸馏后的当前活体检测网络,包括:
获得用户图像样本集合,并将所述用户图像样本集合输入至所述预设活体检测网络,以获得所述用户图像样本集合中每一第二用户图像样本的第一样本图像特征和第二预测用户类别;
将所述用户图像样本集合输入至所述初始活体检测网络,以获得所述每一第二用户图像样本的第二样本图像特征和第三预测用户类别;以及
基于所述第一样本图像特征、第二样本图像特征、第二预测用户类别和所述第三预测用户类别,对所述初始活体检测网络进行收敛,得到所述当前活体检测网络。
13.根据权利要求12所述的活体检测方法,其中,所述对所述初始活体检测网络进行收敛,得到所述当前活体检测网络,包括:
获得所述每一第二用户图像样本的第二标注用户类别,并将所述第二标注用户类别与所述第三预测用户类别进行对比,以得到裁剪后的目标分类损失信息;
将所述第二预测用户类别与所述第三预测用户类别进行对比,以得到预测一致性损失信息;
基于所述第一样本图像特征和第二样本图像特征,确定所述用户图像样本集合的样本关系一致性损失信息;以及
将所述目标分类损失信息、所述预测一致性损失信息和所述样本关系一致性损失信息进行融合,并基于融合后的蒸馏损失信息,对所述初始活体检测网络进行收敛,得到所述当前活体检测网络。
14.根据权利要求13所述的活体检测方法,其中,所述基于所述第一样本图像特征和第二样本图像特征,确定所述用户图像样本集合的样本关系一致性损失信息,包括:
获得所述第一样本图像特征之间的第一特征相似度,并基于所述第一特征相似度,确定所述用户图像样本集合对应的第一样本关系特征;
获得所述第二样本图像特征之间的第二特征相似度,并基于所述第二特征相似度,确定所述用户图像样本集合对应的第二样本关系特征;以及
将所述第一样本关系特征与所述第二样本关系特征进行对比,以得到所述样本关系一致性损失信息。
15.根据权利要求6所述的活体检测方法,其中,所述对所述当前活体检测网络进行动态压缩,以得到训练后的活体检测网络和训练后的通道检测网络,包括:
获得第三用户图像样本,并将所述第三用户图像样本输入至所述预设通道检测网络,以获得所述当前活体检测网络中每一网络层的特征通道的样本通道重要性值;
基于所述样本通道重要性值,对所述当前活体检测网络进行动态裁剪,得到裁剪后的当前活体检测网络,并将所述第三用户图像样本输入至所述裁剪后的当前活体检测网络,以获得第四预测用户类别;
将所述第三用户图像样本的第三标注用户类别与所述第四预测用户类别进行对比,以得到所述第三用户图像样本的候选分类损失信息;以及
基于所述候选分类损失信息对所述裁剪后的当前活体检测网络和所述预设通道检测网络进行收敛,得到训练后的所述活体检测网络和训练后的所述通道检测网络。
16.根据权利要求1所述的活体检测方法,其中,所述基于所述攻击概率,确定所述目标用户的活体检测结果,包括:
在所述攻击概率大于预设攻击概率阈值时,确定所述目标用户的活体检测结果为攻击用户。
17.根据权利要求16所述的活体检测方法,其中,还包括:
在所述攻击概率小于所述预设攻击概率阈值时,确定所述目标用户的活体检测结果为正常用户。
18.一种活体检测系统,包括:
至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及
至少一个处理器,同所述至少一个存储介质通信连接,
其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行权利要求1-17中任一项所述的活体检测方法。
CN202310035166.6A 2023-01-10 2023-01-10 活体检测方法和系统 Pending CN116110134A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310035166.6A CN116110134A (zh) 2023-01-10 2023-01-10 活体检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310035166.6A CN116110134A (zh) 2023-01-10 2023-01-10 活体检测方法和系统

Publications (1)

Publication Number Publication Date
CN116110134A true CN116110134A (zh) 2023-05-12

Family

ID=86265067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310035166.6A Pending CN116110134A (zh) 2023-01-10 2023-01-10 活体检测方法和系统

Country Status (1)

Country Link
CN (1) CN116110134A (zh)

Similar Documents

Publication Publication Date Title
CN109961009B (zh) 基于深度学习的行人检测方法、系统、装置及存储介质
US10949952B2 (en) Performing detail enhancement on a target in a denoised image
CN108710847B (zh) 场景识别方法、装置及电子设备
CN109815770B (zh) 二维码检测方法、装置及系统
US9098888B1 (en) Collaborative text detection and recognition
CN111476306A (zh) 基于人工智能的物体检测方法、装置、设备及存储介质
CN109829506B (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN110569721A (zh) 识别模型训练方法、图像识别方法、装置、设备及介质
KR20190072563A (ko) 얼굴 라이브니스 검출 방법 및 장치, 그리고 전자 디바이스
CN112052831B (zh) 人脸检测的方法、装置和计算机存储介质
CN111754396B (zh) 脸部图像处理方法、装置、计算机设备和存储介质
US20210004587A1 (en) Image detection method, apparatus, device and storage medium
CN111597884A (zh) 面部动作单元识别方法、装置、电子设备及存储介质
CN111914775B (zh) 活体检测方法、装置、电子设备及存储介质
CN108241855B (zh) 图像生成方法和装置
CN108509994B (zh) 人物图像聚类方法和装置
KR20150128510A (ko) 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
CN112149570B (zh) 多人活体检测方法、装置、电子设备及存储介质
CN111931153A (zh) 基于人工智能的身份验证方法、装置和计算机设备
CN113837257B (zh) 一种目标检测方法及装置
CN112464873A (zh) 模型的训练方法、人脸活体识别方法、系统、设备及介质
CN115984977A (zh) 活体检测方法和系统
CN116798041A (zh) 图像识别方法、装置和电子设备
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
US20240037995A1 (en) Detecting wrapped attacks on face recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination