CN116311546A - 活体检测方法和系统 - Google Patents
活体检测方法和系统 Download PDFInfo
- Publication number
- CN116311546A CN116311546A CN202211652624.2A CN202211652624A CN116311546A CN 116311546 A CN116311546 A CN 116311546A CN 202211652624 A CN202211652624 A CN 202211652624A CN 116311546 A CN116311546 A CN 116311546A
- Authority
- CN
- China
- Prior art keywords
- attribute
- living body
- feature
- sample
- explicit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本说明书提供的活体检测方法和系统,在获取目标面部图像,并在目标面部图像中提取出预设属性的显式属性特征后,在目标面部图像中提取出隐式属性特征,该隐式属性特征包括未知类型的攻击具备的除预设属性以外的未知属性的特征,以及基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测,并输出活体检测结果;该方案可以提升活体检测的准确率和检测效率。
Description
技术领域
本说明书涉及图像识别领域,尤其涉及一种活体检测方法和系统。
背景技术
近年来,随着互联网技术的飞速发展,在人脸识别系统中活体检测已经成为不可缺少的一环,通过活体检测可以有效拦截非活体类型的攻击样本。攻击样本的类型可以有多种,有些可以为已知攻击类型,有些可以为未知攻击类型。针对未知攻击类型,现有的活体检测方法往往是基于质量检测或单边分类进行新类型攻击的检测。
在对现有技术的研究和实践过程中,本申请的发明人发现基于质量检测的方法在攻击样本的质量较高时,该方法几乎会失效,从而使得检测失败,而单边分类的方法需要额外引入一个单边分类器作为新类型攻击的检测器,从而使得活体检测的效率变低,另外,还提升了对用户的打扰率,因此,导致针对新攻击类型的活体检测的效率较低。
发明内容
本说明书提供一种检测效率更高的活体检测方法和系统。
第一方面,本说明书提供一种活体检测方法,包括:获取目标面部图像,并在所述目标面部图像中提取出预设属性的显式属性特征;在所述目标面部图像中提取出隐式属性特征,所述隐式属性特征包括未知类型的攻击具备的除所述预设属性以外的未知属性的特征;以及基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,并输出活体检测结果。
在一些实施例中,所述预设属性包括与已知攻击类型相关的显式属性,所述显式属性包括反光、终端屏幕、纸张、动态模糊或高斯模糊中的至少一种。
在一些实施例中,所述在所述目标面部图像中提取出预设属性的显式属性特征,包括:采用显式属性活体检测网络对所述目标面部图像进行特征提取,得到所述目标面部图像的特征图谱;对所述特征图谱进行多属性分类,以得到所述特征图谱中的至少一个显式属性和所述至少一个显式属性对应的属性特征;以及将所述至少一个显式属性对应的属性特征作为所述预设属性的显式属性特征。
在一些实施例中,所述显式属性活体检测网络的训练过程包括以下步骤:获取第一面部图像样本,并采用预设显式属性活体检测网络在所述第一面部图像样本中提取出显式属性特征,得到第一样本显式属性特征;基于所述第一样本显式属性特征预测所述第一面部图像样本的活体类别,得到第一预测活体类别;以及基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一活体损失信息,并基于所述第一活体损失对所述预设显式属性活体检测网络进行收敛,得到训练后的显式属性活体检测网络。
在一些实施例中,所述基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一活体损失信息,包括:基于所述第一样本显式属性特征的属性类别和所述第一面部图像样本的标注属性类别,确定所述第一面部图像样本的显式属性分类损失信息;基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一稀疏性损失信息,所述第一稀疏性损失信息表征参与活体决策的属性特征的稀疏性的损失信息;基于所述第一预测活体类别和所述第一面部图像样本的标注活体类别,确定所述第一面部图像样本的第一活体分类损失信息;以及将所述显式属性分类损失信息、所述第一稀疏性损失信息和所述第一活体分类损失信息进行累加,得到所述第一面部图像样本的第一活体损失信息。
在一些实施例中,所述在所述目标面部图像中提取出预设属性的显式属性特征之后,还包括:基于所述显式属性特征,确定所述目标面部图像的第一活体分类结果,所述第一活体分类结果包括显式攻击概率;在所述显式攻击概率在预设第一攻击概率区间外时,将所述第一活体分类结果作为所述目标面部图像的活体检测结果。
在一些实施例中,所述在所述目标面部图像中提取出隐式属性特征,包括:在所述显式攻击概率在所述预设第一攻击概率区间内时,采用隐式属性活体检测网络在所述目标面部图像中提取出隐式属性特征。
在一些实施例中,所述隐式属性活体检测网络包括区域候选子网络、隐式特征编码子网络和隐式属性活体检测子网络;以及所述采用隐式属性活体检测网络在所述目标面部图像中提取出隐式属性特征,包括:采用所述区域候选子网络在所述目标面部图像中提取出语义区域,所述语义区域为所述目标面部图像中包含语义信息的区域,以及基于所述隐式特征编码子网络在所述语义区域中提取出至少一个属性特征,得到所述隐式属性特征。
在一些实施例中,所述隐式属性活体检测网络的训练过程包括以下步骤:获取第二面部图像样本,并采用显式属性活体检测网络在所述第二面部图像样本中提取出第二样本显式属性特征;采用预设隐式属性活体检测网络在所述第二面部图像样本中提取出第一样本隐式属性特征,并基于所述第一样本隐式属性特征预测所述第二面部图像样本的活体类别,得到第二预测活体类别;基于所述第二样本显式属性特征、所述第一样本隐式属性特征和所述第二预测活体类别,确定所述第二面部图像样本的第二活体损失信息;以及基于所述第二活体损失信息对所述预设隐式属性活体检测网络中的隐式特征编码子网络和隐式属性活体检测子网络进行收敛,得到训练后的隐式属性活体检测网络。
在一些实施例中,所述基于所述第二样本显式属性特征、所述第一样本隐式属性特征和所述第二预测活体类别,确定所述第二面部图像样本的第二活体损失信息,包括:基于所述第一样本隐式属性特征的属性类别和所述第二面部图像样本中的标注属性类别,确定所述第二面部图像样本的隐式属性分类损失信息;基于所述第二预测活体类别和所述第二面部图像样本的标注活体类别,确定所述第二面部图像样本的第二活体分类损失信息;基于所述第二样本显式属性特征和所述第一样本隐式属性特征,确定所述第二面部图像样本的特征相关性损失信息,所述特征相关性损失信息的约束条件为最小化所述第二样本显式属性特征和所述第一样本隐式属性特征之间的相关性;以及将所述隐式属性分类损失信息、所述第二活体分类损失信息和所述特征相关性损失信息进行累加,得到所述第二面部图像样本的第二活体损失信息。
在一些实施例中,所述在所述目标面部图像中提取出隐式属性特征之后,还包括:基于所述隐式属性特征,确定所述目标面部图像的第二活体分类结果,所述第二活体分类结果包括隐式攻击概率;以及在所述隐式攻击概率在预设第二攻击概率区间外时,将所述第二活体分类结果作为所述目标面部图像的活体检测结果。
在一些实施例中,所述基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,包括:在所述隐式攻击概率在所述预设第二攻击概率区间内时,采用属性融合网络基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测。
在一些实施例中,所述属性融合网络包括特征融合子网络和分类子网络;以及所述采用属性融合网络基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,包括:采用所述特征融合子网络将所述显式属性特征和所述隐式属性特征进行特征融合,得到所述目标面部图像的目标活体特征,采用所述分类子网络对所述目标活体特征进行活体分类,得到所述目标面部图像的目标活体类别,以及将所述目标活体类别作为所述目标面部图像的活体检测结果。
在一些实施例中,所述采用所述特征融合子网络将所述显式属性特征和所述隐式属性特征进行特征融合,得到所述目标面部图像的目标活体特征,包括:将所述显式属性特征转换为查询特征,并将所述隐式属性特征转换为键特征和值特征;基于所述查询特征、所述键特征和所述值特征,确定出注意力权重;以及基于所述注意力权重,对所述显式属性特征和隐式属性特征进行加权融合,得到所述目标面部图像的目标活体特征。
在一些实施例中,所述目标活体类别包括活体图像或攻击图像中的一种,所述攻击图像包括已知攻击类型的攻击图像或未知攻击类型的攻击图像中的一种。
在一些实施例中,所述属性融合网络的训练过程包括以下步骤:获取第三面部图像样本对应的第三样本显式属性特征和第二样本隐式属性特征;采用预设属性融合网络将所述第三样本显式属性特征转换为样本查询特征,并将所述第二样本隐式属性特征转换为样本键特征和样本值特征;基于所述样本查询特征、所述样本键特征和所述样本值特征,预测所述第三面部图像样本的活体类别,得到第三预测活体类别;以及基于所述样本查询特征、所述样本值特征和所述第三预测活体类别,确定所述第三面部图像样本的第三活体损失信息,并基于所述第三活体损失信息对所述预设属性融合网络进行收敛,得到训练后的属性融合网络。
在一些实施例中,所述基于所述样本查询特征、所述样本值特征和所述第三预测活体类别,确定所述第三面部图像样本的第三活体损失信息,包括:计算所述样本查询特征和所述样本值特征之间的相关性,以得到所述第三面部图像样本的第二稀疏性损失信息;基于所述第三预测活体类别和所述第三面部图像样本的标注活体类别,确定所述第三面部图像样本的第三活体分类损失信息;以及将所述第二稀疏性损失信息和所述第三活体分类损失信息相加,得到所述第三面部图像样本的第三活体损失信息。
第二方面,本说明书还提供一种活体检测系统,包括:至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及至少一个处理器,同所述至少一个存储介质通信连接,其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行本说明书第一方面所述的活体检测方法。
由以上技术方案可知,本说明书提供的活体检测方法和系统,在获取目标面部图像,并在目标面部图像中提取出预设属性的显式属性特征后,在目标面部图像中提取出隐式属性特征,该隐式属性特征包括未知类型的攻击具备的除预设属性以外的未知属性的特征,以及基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测,并输出活体检测结果;由于该方案不仅可以在目标面部图像中提取出预设属性的显式属性特征,还可以在目标面部图像中提取出与未知攻击类型相关的隐式属性特征,这些属性特征组成了攻击需要的要素,从而使得可以同时完成已知类型和未知类型的攻击的检测,而不需要引入额外的算法环节,因此,可以提升活体检测的准确率和检测效率。
本说明书提供的活体检测方法和系统的其他功能将在以下说明中部分列出。根据描述,以下数字和示例介绍的内容将对那些本领域的普通技术人员显而易见。本说明书提供的活体检测方法和系统的创造性方面可以通过实践或使用下面详细示例中所述的方法、装置和组合得到充分解释。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本说明书的实施例提供的一种活体检测系统的应用场景示意图;
图2示出了根据本说明书的实施例提供的一种计算设备的硬件结构图;
图3示出了根据本说明书的实施例提供的一种活体检测方法流程图;以及
图4示出了根据本说明书的实施例提供的一种活体检测方法的整体流程示意图。
具体实施方式
以下描述提供了本说明书的特定应用场景和要求,目的是使本领域技术人员能够制造和使用本说明书中的内容。对于本领域技术人员来说,对所公开的实施例的各种局部修改是显而易见的,并且在不脱离本说明书的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用。因此,本说明书不限于所示的实施例,而是与权利要求一致的最宽范围。
这里使用的术语仅用于描述特定示例实施例的目的,而不是限制性的。比如,除非上下文另有明确说明,这里所使用的,单数形式“一”,“一个”和“该”也可以包括复数形式。当在本说明书中使用时,术语“包括”、“包含”和/或“含有”意思是指所关联的整数,步骤、操作、元素和/或组件存在,但不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或组的存在或在该系统/方法中可以添加其他特征、整数、步骤、操作、元素、组件和/或组。
考虑到以下描述,本说明书的这些特征和其他特征、以及结构的相关元件的操作和功能、以及部件的组合和制造的经济性可以得到明显提高。参考附图,所有这些形成本说明书的一部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在限制本说明书的范围。还应理解,附图未按比例绘制。
本说明书中使用的流程图示出了根据本说明书中的一些实施例的系统实现的操作。应该清楚地理解,流程图的操作可以不按顺序实现。相反,操作可以以反转顺序或同时实现。此外,可以向流程图添加一个或多个其他操作。可以从流程图中移除一个或多个操作。
为了方便描述,本说明书将对以下描述将会出现的术语进行如下解释:
活体防攻击:人脸识别系统中,对活体攻击(包括手机照片、纸张照片以及面部等攻击行为)进行检测和拦截的算法技术。
攻击属性&攻击线索:指可以被显式或隐式定义的,和活体检测有较强相关性的语音信息(特征信息),例如图像中是否有反光区域、图像中是否有手机屏幕,等等。
新攻击检测:在活体防攻击中,对未知类型的攻击进行检测。对于已知类型的检测相比于新攻击类型的检测(即未知类型的攻击)难度相对较低。
在对本说明书具体实施例说明之前,先对本说明书的应用场景进行如下介绍:
本说明书提供的活体检测方法可以应用在任意的活体检测场景中,比如,在人脸支付场景中,可以通过本说明书的活体检测方法对采集的待支付用户的人脸图像进行活体检测;在身份验证场景中,可以通过本说明书的活体检测方法对采集的用户的身份图像进行活体检测;还可以应用在任意的人脸识别场景中,在此就不再一一赘述。
本领域技术人员应当明白,本说明书所述的活体检测方法和系统应用于其他使用场景也在本说明书的保护范围内。
图1示出了根据本说明书的实施例提供的一种活体检测系统001的应用场景示意图。活体检测系统001(以下简称系统001)可以应用于任意场景的活体检测,比如,人脸支付场景下的活体检测、身份验证场景下的活体检测、其他人脸识别场景下的活体检测,等等,如图1所示,系统001可以包括目标用户100、客户端200、服务器300以及网络400。
目标用户100可以为触发对目标面部图像进行活体检测的用户,目标用户100可以在客户端200进行活体检测的操作。
客户端200可以为响应于目标用户100的活体检测操作对目标面部图像进行活体检测的设备。在一些实施例中,所述活体检测方法可以在客户端200上执行。此时,客户端200可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,客户端200可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。如图1所示,客户端200可以与服务器300进行通信连接。在一些实施例中,服务器300可以与多个客户端200进行通信连接。在一些实施例中,客户端200可以通过网络400与服务器300交互,以接收或发送消息等。在一些实施例中,客户端200可以包括移动设备、平板电脑、笔记本电脑、机动车辆的内置设备或类似内容,或其任意组合。在一些实施例中,所述移动设备可包括智能家居设备、智能移动设备、虚拟现实设备、增强现实设备或类似设备,或其任意组合。在一些实施例中,所述智能家居装置可包括智能电视、台式电脑等,或任意组合。在一些实施例中,所述智能移动设备可包括智能手机、个人数字辅助、游戏设备、导航设备等,或其任意组合。在一些实施例中,所述虚拟现实设备或增强现实设备可能包括虚拟现实头盔、虚拟现实眼镜、虚拟现实补丁、增强现实头盔、增强现实眼镜、增强现实补丁或类似内容,或其中的任何组合。例如,所述虚拟现实设备或所述增强现实设备可能包括谷歌眼镜、头戴式显示器、VR等。在一些实施例中,所述机动车中的内置装置可包括车载计算机、车载电视等。在一些实施例中,客户端200可以包括图像采集设备,用于采集目标面部图像。在一些实施例中,所述图像采集设备可以是二维图像采集设备(比如RGB摄像头),也可以是二维图像采集设备(比如RGB摄像头)和深度图像采集设备(比如3D结构光摄像头、激光探测器,等等)。在一些实施例中,客户端200可以是具有定位技术的设备,用于定位客户端200的位置。
在一些实施例中,客户端200可以安装有一个或多个应用程序(APP)。所述APP能够为目标用户100提供通过网络400同外界交互的能力以及界面。所述APP包括但不限于:网页浏览器类APP程序、搜索类APP程序、聊天类APP程序、购物类APP程序、视频类APP程序、理财类APP程序、即时通信工具、邮箱客户端、社交平台软件等等。在一些实施例中,客户端200上可以安装有目标APP。所述目标APP能够为客户端200采集至少一种面部图像,得到目标面部图像。在一些实施例中,所述目标对象100还可以通过所述目标APP触发活体检测请求。所述目标APP可以响应于所活体检测请求,执行本说明书描述的活体检测方法。所述活体检测方法将在后面的内容中详细介绍。
服务器300可以是提供各种服务的服务器,例如对客户端200上采集的目标面部图像和对目标面部图像进行活体检测提供支持的后台服务器。在一些实施例中,所述活体检测方法可以在服务器300上执行。此时,服务器300可以存储有执行本说明书描述的活体检测方法的数据或指令,并可以执行或用于执行所述数据或指令。在一些实施例中,服务器300可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。服务器300可以与多个客户端200通信连接,并接收客户端200发送的数据。
网络400用以在客户端200和服务器300之间提供通信连接的介质。网络400可以促进信息或数据的交换。如图1所示,客户端200和服务器300可以同网络400连接,并且通过网络400互相传输信息或数据。在一些实施例中,网络400可以是任何类型的有线或无线网络,也可以是其组合。比如,网络400可以包括电缆网络,有线网络、光纤网络、电信通信网络、内联网、互联网、局域网(LAN)、广域网(WAN)、无线局域网(WLAN)、大都市市区网(MAN)、广域网(WAN)、公用电话交换网(PSTN)、蓝牙网络TM、ZigBeeTM网络、近场通信(NFC)网络或类似网络。在一些实施例中,网络400可以包括一个或多个网络接入点。例如,网络400可以包括有线或无线网络接入点,如基站或互联网交换点,通过该接入点,客户端200和服务器300的一个或多个组件可以连接到网络400以交换数据或信息。
应该理解,图1中的客户端200、服务器300和网络400的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端200、服务器300和网络400。
需要说明的是,所述活体检测方法可以完全在客户端200上执行,也可以完全在服务器300上执行,还可以部分在客户端200上执行,部分在服务器300上执行。
图2示出了根据本说明书的实施例提供的一种计算设备600的硬件结构图。计算设备600可以执行本说明书描述的活体检测方法。所述活体检测方法在本说明书中的其他部分介绍。当所述活体检测方法在客户端200上执行时,计算设备600可以是客户端200。当所述活体检测方法在服务器300上执行时,计算设备600可以是服务器300。当所述活体检测方法可以部分在客户端200上执行,部分在服务器300上执行时,计算设备600可以是客户端200和服务器300。
如图2所示,计算设备600可以包括至少一个存储介质630和至少一个处理器620。在一些实施例中,计算设备600还可以包括通信端口650和内部通信总线610。同时,计算设备600还可以包括I/O组件660。
内部通信总线610可以连接不同的系统组件,包括存储介质630、处理器620和通信端口650。
I/O组件660支持计算设备600和其他组件之间的输入/输出。
通信端口650用于计算设备600同外界的数据通信,比如,通信端口650可以用于计算设备600同网络400之间的数据通信。通信端口650可以是有线通信端口也可以是无线通信端口。
存储介质630可以包括数据存储装置。所述数据存储装置可以是非暂时性存储介质,也可以是暂时性存储介质。比如,所述数据存储装置可以包括磁盘632、只读存储介质(ROM)634或随机存取存储介质(RAM)636中的一种或多种。存储介质630还包括存储在所述数据存储装置中的至少一个指令集。所述指令是计算机程序代码,所述计算机程序代码可以包括执行本说明书提供的活体检测方法的程序、例程、对象、组件、数据结构、过程、模块等等。
至少一个处理器620可以同至少一个存储介质630以及通信端口650通过内部通信总线610通信连接。至少一个处理器620用以执行上述至少一个指令集。当计算设备600运行时,至少一个处理器620读取所述至少一个指令集,并且根据所述至少一个指令集的指示,执行本说明书提供的活体检测方法。处理器620可以执行活体检测方法包含的所有步骤。处理器620可以是一个或多个处理器的形式,在一些实施例中,处理器620可以包括一个或多个硬件处理器,例如微控制器,微处理器,精简指令集计算机(RISC),专用集成电路(ASIC),特定于应用的指令集处理器(ASIP),中心处理单元(CPU),图形处理单元(GPU),物理处理单元(PPU),微控制器单元,数字信号处理器(DSP),现场可编程门阵列(FPGA),高级RISC机器(ARM),可编程逻辑器件(PLD),能够执行一个或多个功能的任何电路或处理器等,或其任何组合。仅仅为了说明问题,在本说明书中计算设备600中仅描述了一个处理器620。然而,应当注意,本说明书中计算设备600还可以包括多个处理器,因此,本说明书中披露的操作和/或方法步骤可以如本说明书所述的由一个处理器执行,也可以由多个处理器联合执行。例如,如果在本说明书中计算设备600的处理器620执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同处理器620联合或分开执行(例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一和第二处理器共同执行步骤A和B)。
图3示出了根据本说明书的实施例提供的一种活体检测方法P100的流程图。如前,计算设备600可以执行本说明书的活体检测方法P100。具体地,处理器620可以读取存储在其本地存储介质中的指令集,然后根据指令集的规定,执行本说明书的活体检测方法P100。如图3所示,方法P100可以包括:
S110:获取目标面部图像,并在目标面部图像中提取出预设属性的显式属性特征。
其中,目标面部图像为需要进行活体检测的面部图像。所述面部图像可以为包含面部的图像,比如,可以包括人脸图像或者其他生物面部的图像。目标面部图像可以包括一张或者多张面部图像。
其中,预设属性可以为与已知攻击类型相关的显式属性。所述显式属性可以包括反光、终端屏幕、纸张、动态模糊或高斯模糊中的至少一种。
其中,显式属性特征可以包括目标面部图像中预设属性或者显式属性对应的特征信息。比如,可以包括目标面部图像是否反光的特征信息,或者,可以包括目标面部图像中是否包括纸张的特征信息,等等。
其中,获取目标面部图像的方式可以有多种,具体可以如下:
例如,处理器620可以直接接收目标用户100通过客户端200或者终端上传的目标面部图像,或者,可以通过图像采集设备(比如,RGB摄像头或者其他图像采集设备)对目标用户100或者其他需要进行活体检测的对象进行面部图像采集,从而得到目标面部图像;或者,可以从网络或者图像数据库中选取出至少一张包含面部的图像,从而得到目标面部图像,或者,在目标面部图像的数量较多或者内存较大时,还可以接收活体检测请求,该活体检测请求中携带目标面部图像的存储地址,基于该存储地址,获取目标面部图像,等等。
处理器620在获取到目标面部图像之后,便可以在目标面部图像中提取出预设属性的显式属性特征。在目标面部图像中提取出预设属性的显式属性特征的方式可以有多种,比如,处理器620可以采用显式属性活体检测网络对目标面部图像进行特征提取,得到目标面部图像的特征图谱,对特征图谱进行多属性分类,以得到特征图谱中的至少一个显式属性和至少一个显式属性对应的属性特征,以及将至少一个显式属性对应的属性特征作为预设属性的显式属性特征。
其中,特征图谱可以为对目标面部图像进行特征提取后得到多种类别的属性特征组成的特征图或者图谱。该特征图谱中可以包括多种类别的属性特征。
其中,显式属性活体检测网络可以包括特征编码模块、多属性分类模块和属性融合决策模块。所述特征编码模块用于对目标面部图像进行特征提取,从而得到目标面部图像的特征图谱。所述多属性分类模块用于将特征图谱中的属性特征进行多属性分类,从而得到多个属性分类结果和对应的属性特征,将对应的属性特征就可以作为预设属性的显式属性特征。所述属性融合决策模块用于基于多个属性的分类结果和对应的属性特征对目标面部图像进行活体判断,从而输出最终的活体判断结果。
处理器620在目标面部图像中提取出预设属性的显式属性特征之后,便可以采用属性融合决策模块对目标面部图像进行活体判断。比如,处理器620可以基于显式属性特征,采用属性融合决策模块确定目标面部图像的第一活体分类结果,该第一活体分类结果包括显式攻击概率,在显式攻击概率在预设第一攻击概率区间外时,将第一活体分类结果作为目标面部图像的活体检测结果。
其中,第一活体分类结果可以为基于显式属性特征对目标面部图像进行活体分类后得到的分类结果。该分类结果表征了目标面部图像的活体类别。所述活体类别可以为目标面部图像中的用户或者对象是否为活体的类别,活体类别可以有多种,比如,可以包括活体图像/对象/样本、以及攻击图像/对象/样本,对于攻击图像/对象/样本而言,还可以分为已知攻击和未知攻击这两大类,针对这两大类还可以根据实际应用具体进行细分。
其中,显式攻击概率可以为采用显式属性特征确定出的活体分类结果所对应的攻击概率。以第一攻击概率区间为[T1,T2]为例,如果显式攻击概率低于T1或者高于T2,则可以将第一活体分类结果作为目标面部图像的活体检测结果;如果显式攻击概率高于T1且低于T2时,就可以在目标面部图像中提取出隐式属性特征,并基于隐式属性特征对目标面部图像进行活体检测。
其中,显式属性活体检测网络的训练过程可以包括以下步骤:处理器620可以获取第一面部图像样本,并采用预设显式属性活体检测网络在第一面部图像样本中提取出显式属性特征,得到第一样本显式属性特征,基于第一样本显式属性特征预测第一面部图像样本的活体类别,得到第一预测活体类别,以及基于第一预测活体类别和第一样本显式属性特征,确定第一面部图像样板的第一活体损失信息,并基于第一活体损失信息对预设显式属性活体检测网络进行收敛,得到训练后的显式属性活体检测网络。
其中,第一样本显式属性特征可以为第一面部图像样本对应的至少一个预设属性的显式属性特征。采用预设显式属性活体检测网络在第一面部图像样本中提取出显式属性特征的方式与提取目标面部图像的显式属性特征的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在提取出第一面部图像样本的第一样本显式属性特征之后,便可以基于第一样本显式属性特征预测第一面部图像样本的活体类别,从而得到第一预测活体类别。如果第一面部图像样本中的用户或对象为活体时,则第一面部图像样本的活体类别就可以为活体图像/对象/样本,如果第一面部图像样本中的用户或对象为非活体时,则第一面部图像样本的活体类别就可以为攻击图像/对象/样本,等等。处理器620基于第一样本显式属性特征预测第一面部图像样本的活体类别的方式可以有多种,比如,处理器620可以将第一样本显式属性特征和对应的显式属性类别输入至预设显式属性活体检测网络的属性融合决策模块,从而得到第一面部图像样本的第一预测活体类别。
处理器620在预测第一面部图像样本的活体类别的之后,便可以基于第一预测活体类别和第一样本显式属性特征,确定第一面部图像样本的第一活体损失信息。所述第一活体损失信息可以为训练过程中第一面部图像样本对应的活体损失信息。所述活体损失信息可以为对第一面部图像样本进行活体类别预测时产生的损失信息。处理器620基于第一预测活体类别和第一样本显式属性特征,确定第一面部图像样本的第一活体损失信息的方式可以有多种,比如,处理器620可以基于第一样本显式属性特征的属性类别和第一面部图像样本的标注属性类别,确定第一面部图像样本的显式属性分类损失信息,基于第一预测活体类别和第一样本显式属性特征,确定第一面部图像样本的第一稀疏性损失信息,基于第一预测活体类别和第一面部图像样本的标注活体类别,确定第一面部图像样本的第一活体分类损失信息,以及将显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息进行累加,得到第一面部图像样本的第一活体损失信息。
其中,显式属性分类损失信息用于判断提取出的显式属性特征中是否包括第一面部图像样本标注的属性类别。第一稀疏性损失信息表征参与活体决策的属性特征的稀疏性的损失信息,可以理解为属性融合决策模块中参与活体检测的总是最重要的几个显式属性的显式属性特征,而并不是所有的显式属性的显式属性特征。第一活体分类损失信息表征预设显式属性活体检测网络预测的活体类别和标注的活体类别之间的差异产生的损失信息。显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息可以采用同一类型的损失函数计算损失信息,比如,可以采用交叉熵损失函数或者其他损失函数。显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息也可以根据实际应用来设定通过不同的损失函数计算损失信息。
处理器620在确定出显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息之后,便可以将显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息进行累加,从而得到第一面部图像样本的第一活体损失信息。以损失函数为交叉熵损失函数(CrossEntropy Loss)为例,将显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息进行累加可以如公式(1)所示:
Loss1=Lossattr-CE1+Lossattr-sparsity+LossCE1 (1)
其中,Loss1为第一活体损失信息,Lossattr-CE1为显式属性分类损失信息,Lossattr-sparsity为第一稀疏性损失信息,LossCE1为第一活体分类损失信息。
在一些实施例中,处理器620将显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息进行累加之前,还可以获取显式损失权重,并基于显式损失权重分别对显式属性分类损失信息、第一稀疏性损失信息和第一活体分类损失信息进行加权,并将加权后的显式属性分类损失信息、加权后的第一稀疏性损失信息和加权后的第一活体分类损失信息进行累加,从而得到第一面部图像样本的第一活体损失信息。
处理器620在确定出第一面部图像样本的第一活体损失信息之后,便可以基于第一活体损失信息对预设显式属性活体检测网络进行收敛,从而得到训练后的显式属性活体检测网络。处理器620基于第一活体损失信息对预设显式属性活体检测网络进行收敛的方式可以有多种,比如,处理器620可以采用梯度下降算法基于第一活体损失信息对预设显式属性活体检测网络的网络参数进行更新,返回执行获取第一面部图像样本的步骤,直至预设显式属性活体检测网络达到预设收敛条件时为止,从而得到训练后的显式属性活体检测网络。
其中,预设收敛条件可以包括预设次数或者预设显式属性活体检测网络的预设检测效果等等。
S120:在目标面部图像中提取出隐式属性特征。
其中,隐式属性特征包括未知类型的攻击具备的除预设属性以外的未知属性的特征。这类属性是没有办法被显式定义的,但是这些属性特征又与显式属性特征共同组成的攻击需要的要素。
其中,在目标面部图像中提取出隐式属性特征的方式可以有多种,具体可以如下:
例如,处理器620可以在显式攻击概率在预设第一攻击概率区间内时,采用隐式属性活体检测网络在目标面部图像中提取出隐式属性特征。
其中,隐式属性活体检测网络可以包括区域候选子网络(Region ProposalNetwork,RPN)、隐式特征编码子网络和隐式属性活体检测子网络。处理器620采用隐式属性活体检测网络在目标面部图像中提取出隐式属性特征的方式可以有多种,比如,处理器620可以采用区域候选子网络在目标面部图像中提取出语义区域,基于隐式特征编码子网络在语义区域中提取出至少一个属性特征,得到隐式属性特征。
其中,语义区域为目标面部区域中包含语义信息的区域。基于隐式特征编码子网络在语义区域中提取出至少一个属性特征,从而就可以得到隐式属性特征。隐式属性特征的数量可以为多个,比如,可以为10-20个,或者,还可以根据实际应用进行设定。
处理器620采用隐式属性活体检测网络在目标面部图像中提取出隐式属性特征之后,还可以基于隐式属性特征,对目标面部图像进行活体检测。比如,处理器620可以基于隐式属性特征,确定目标面部图像的第二活体分类结果,该第二分类结果包括隐式攻击概率,在隐式攻击概率在预设第二攻击概率区间外时,将第二活体分类结果作为目标面部图像的活体检测结果,在隐式攻击概率在预设第二攻击概率区间内时,采用属性融合网络基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测。
其中,第二活体分类结果可以为基于隐式属性特征对目标面部图像进行活体分类后得到的分类结果。
其中,隐式攻击概率可以为采用隐式属性特征确定出的活体分类结果所对应的攻击概率。以第二攻击概率区间为[T3,T4]为例,如果隐式攻击概率低于T3或者高于T4,则可以将第二活体分类结果作为目标面部图像的活体检测结果;如果隐式攻击概率高于T3且低于T4时,采用属性融合网络基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测。
其中,采用隐式属性活体检测网络可以自动进行隐式属性的挖掘,进行除了显式属性以外的隐式属性特征的自动学习。因此,隐式属性活体检测网络的训练过程可以包括以下步骤:处理器620获取第二面部图像样本,并采用显式属性活体检测网络在第二面部图像样本中提取出第二样本显式属性特征,采用预设隐式属性活体检测网络在第二面部图像中提取出第一样本隐式属性特征,并基于第一样本隐式属性特征预测第二面部图像的活体类别,得到第二预测活体类别,基于第二样本显式属性特征、第一样本隐式属性特征和第二预测活体类别,确定第二面部图像样本的第二活体损失信息,以及基于第二活体损失信息对预设隐式属性活体检测网络中的隐式特征编码子网络和隐式属性活体检测子网络进行收敛,得到训练后的隐式属性活体检测网络。
其中,第二面部图像样本为用于对预设隐式属性活体检测网络进行训练的面部图像样本。第二样本显式属性特征为训练后的显式属性活体检测网络在第二面部图像样本提取出的显式属性特征。第一样本隐式属性特征为预设隐式活体检测网络在第二面部图像样本中提取出隐式属性特征。基于第一样本隐式属性特征预测第二面部图像样本的活体类别的方式可以有多种,比如,处理器620可以将第一样本隐式属性特征和对应的属性分类结果输入至预设隐式属性活体检测网络的隐式属性活体检测子网络,以得到第二面部图像样本的第二预测活体类别。
处理器620在预测出第二面部图像样本的活体类别之后,便可以基于第二样本显式属性特征、第一样本隐式属性特征和第二预测活体类别,确定第二面部图像样本的第二活体损失信息。第二活体损失信息可以理解为采用预设隐式属性活体检测网络预测第二面部图像样本的活体类别时产生的损失信息。基于第二样本显式属性特征、第一样本隐式属性特征和第二预测活体类别,确定第二面部图像样本的第二活体损失信息的方式可以有多种,比如,处理器620可以基于第一样本隐式属性特征的属性类别和第二面部图像样本中的标注属性类别,得到第二面部图像样本的隐式属性分类损失信息,基于第二预测活体类别和第二面部图像样本的标注活体类别,确定第二面部图像样本的地热活体分类损失信息,基于第二样本显式属性特征和第一样本隐式属性特征,确定第二面部图像样本的特征相关性损失信息,将隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息进行累加,得到第二面部图像样本的第二活体损失信息。
其中,隐式属性分类损失信息用于判断提取出的隐式属性特征中是否包括第二面部图像样本标注的属性类别。确定隐式属性分类损失信息的方式与确定显式属性分类损失信息的方式类似,详见上文所述,在此就不再一一赘述。
其中,第二活体分类损失信息表征预设隐式属性活体检测网络预测的活体类别和标注的活体类别之间的差异产生的损失信息。确定第二活体分类损失信息的方式与确定第一活体分类损失信息的方式类似,详见上文所述,在此就不再一一赘述。
其中,特征相似性损失信息表征第二面部图像样本中的隐式属性特征和显式属性特征之间相关性的损失信息。特征相关性损失性的约束条件为最小化第二样本显式属性特征和第一样本隐式属性特征之间的相关性。特征相似性损失主要用于约束在挖掘隐式属性特征时,可以挖掘出与显式属性特征互补的特征。
其中,隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息可以采用同一类型的损失函数计算损失信息,比如,可以采用交叉熵损失函数或者其他损失函数。隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息也可以根据实际应用来设定通过不同的损失函数计算损失信息。
处理器620在确定出隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息之后,便可以将隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息进行累加,从而得到第二面部图像样本的第二活体损失信息。以损失函数为交叉熵损失函数(CE)为例,则将隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息进行累加,从而得到第二面部图像样本的第二活体损失信息,具体可以如公式(2)所示:
Loss2=Lossattr-CE2+LossCE2+Losscorrelation1 (2)
其中,Loss2为第二活体损失信息,Lossattr-CE2为隐式属性分类损失信息,LossCE2为第二活体分类损失信息,Losscorrelation1为特征相关性损失信息。
在一些实施例中,处理器620将隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息进行累加之前,还可以获取隐式损失权重,并基于隐式损失权重分别对隐式属性分类损失信息、第二活体分类损失信息和特征相关性损失信息进行加权,并将加权后的隐式属性分类损失、加权后的第二活体分类损失信息和加权后的特征相关性损失信息进行累加,从而得到第二面部图像样本的第二活体损失信息。
处理器620在确定出第二面部图像样本的第二活体损失信息之后,便可以基于第二活体损失信息对预设隐式属性活体检测网络进行收敛,从而得到训练后的隐式属性活体检测网络。基于第二活体损失信息对预设隐式属性活体检测网络进行收敛的方式与基于第一活体损失信息对预设显式属性活体检测网络进行收敛的方式类似,详见上文所述,在此就不再一一赘述。
S130:基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测,并输出活体检测结果。
其中,活体检测结果可以为目标面部图像对应的目标活体类别。所述目标活体类别可以包括活体图像或攻击图像中的一种。所述活体图像可以为目标面部图像中的用户或对象为活体。所述攻击图像可以为目标面部图像中的用户或对象为非活体,也可以理解为攻击用户或对象。所述攻击图像可以包括已知攻击类型的攻击图像或未知攻击类型的攻击图像中的一种。
其中,基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测的方式可以有多种,具体可以如下:
例如,处理器620可以在隐式攻击概率在预设第二攻击概率区间内时,采用属性融合网络基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测。
其中,属性融合网络可以包括特征融合子网络和分类子网络。处理器620采用属性融合网络基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测的方式可以有多种,比如,处理器620可以采用特征融合子网络将显式属性特征和隐式属性特征进行特征融合,得到目标面部图像的目标活体特征,采用分类子网络对目标活体特征进行活体分类,得到目标面部图像的目标活体类别,以及将目标活体类别作为目标面部图像的活体检测结果。
其中,目标活体特征可以为目标面部图像中用于进行活体分类的特征信息。处理器620采用特征融合子网络将显式属性特征和隐式属性特征进行特征融合的方式可以有多种,比如,处理器620可以将显式属性特征转换为查询特征,并将隐式属性特征转换为键特征和值特征,基于查询特征、键特征和值特征,确定目标面部图像的注意力权重,以及基于注意力权重,对显式属性特征和隐式属性特征进行加权融合,得到目标面部图像的目标活体特征。
其中,查询特征(Q)、键特征(K)和值特征(V)分别为注意力机制中的特征信息,其实质可以为三个权重矩阵,具体可以参考注意力机制相关的内容。将显式属性特征转换查询特征的方式可以有多种,比如,处理器620可以将多个属性类别的显式属性特征进行拼接,得到目标显式属性特征,并通过预设全连接层将目标显式属性特征转换为查询特征。
其中,处理器620将隐式属性特征转换为键特征和值特征的方式与转换为查询特征的方式类似,详见上文所述,在此就不再一一赘述。
处理器620在将显式属性特征和隐式属性特征进行特征转换之后,便可以基于转换出的查询特征、键特征和值特征,确定注意力权重。所述注意力权重可以为多个显式属性的显式属性特征之间的关联程度,也可以为多个隐式属性的隐式属性特征之间的关系程度,还可以为显式隐式属性特征和隐式属性特征之间的关联程度,等等。基于查询特征、键特征和值特征,确定注意力权重的方式可以有多种,比如,处理器620将查询特征和键特征进行融合,并对融合后的注意力特征进行归一化处理,得到注意力权重。
处理器620在确定出注意力权重之后,便可以基于注意力权重,分别对显式属性特征和隐式属性特征进行加权融合。对显式属性特征和隐式属性特征进行加权融合的方式可以有多种,比如,处理器620可以将注意力权重分别与值特征进行加权,并将加权后的值特征进行累加,从而得到显式属性特征和隐式属性特征融合后的融合特征,并将融合特征作为目标面部图像的目标活体特征。
处理器620在将显式属性特征和隐式属性特征进行融合之后,便可以采用分类子网络对目标活体特征进行活体分类,从而得到目标面部图像的目标活体类别。分类子网络可以为二分类的分类器,也可以为多分类的分类器。在分类子网络为二分类的分类器时,目标活体分类结果就可以包括活体图像或攻击图像中的一种。在分类子网络为多分类的分类器时,目标活体分类结果就可以包括活体图像、已知攻击类型的攻击图像或未知攻击类型的攻击图像中的一种。
其中,分类子网络的网络结构可以有多种,比如,可以包括softmax分类器或者其他类型的分类器,等等。
处理器620在采用分类子网络对目标活体特征进行活体分类之后,便可以将目标活体分类结果作为目标面部图像的活体检测结果。
其中,属性融合网络的网络结构可以有多种,比如,可以为transformer block的自注意力模型或者其他可以进行特征融合的网络,等等。属性融合网络的训练过程可以包括以下步骤:处理器620可以获取第三面部图像样本对应的第三样本显式属性特征和第二隐式属性特征,采用预设属性融合网络将第三样本显式属性特征转换为样本查询特征,并将第二样本隐式属性特征转换为样本键特征和样本值特征,基特征于样本查询特征、样本键特征、样本值特征,预测第三面部图像样本的活体类别,得到第三预测活体类别,基于样本查询特征、样本值特征和第三预测活体类别,确定第三面部图像样本的第三活体损失信息,并基于第三活体损失信息对预设属性融合网络进行收敛,得到训练后的属性融合网络。
其中,第三面部图像样本为对预设属性融合网络进行训练的面部图像样本。获取第三面部图像样本对应的第三样本显式属性特征和第二隐式属性特征的方式可以有多种,比如,处理器620可以采用显式属性活体检测网络在第三面部图像样本中提取出显式属性特征,得到第三样本显式属性特征,采用隐式属性活体检测网络在第三面部图像样本中提取出隐式属性特征,得到第二样本隐式属性特征,提取显式属性特征和隐式属性特征的方式具体可以参照上文所述,在此就不再一一赘述。
处理器620在获取第三样本显式属性特征和第二样本隐式属性特征之后,便可以采用预设属性融合网络将第三样本显式属性特征转换为样本查询特征,并将第二样本隐式属性特征转换为样本键特征和样本值特征,特征转换的过程具体可以参见上文所述,在此就不再一一赘述。
处理器620在对第三样本显式属性特征和第二样本隐式属性特征进行特征转换之后,便可以基于转换出的样本查询特征、样本键特征和样本值特征,预测第三面部图像样本的活体类别,得到第三预测活体类别。预测第三面部图像样本的活体类别的方式可以有多种,比如,处理器620可以基于样本查询特征、样本键特征和样本值特征,确定样本注意力权重,并基于样本注意力权重,对第三样本显式属性特征和第二样本隐式属性特征进行加权融合,从而得到第三面部图像样本的样本活体特征,并基于样本活体特征,确定第三面部图像样本的第三预测活体类别,具体确定过程可以参考基于目标活体特征确定目标面部图像的目标活体类别的具体过程,在此就不再一一赘述。
处理器620在预测出第三面部图像样本的第三预测活体类别之后,便可以基于样本查询特征、样本值特征和第三预测活体类别,确定第三面部图像样本的第三活体损失信息。第三活体损失信息可以为采用预设属性融合网络预测第三面部图像样本的活体类别产生的损失信息。基于样本查询特征、样本值特征和第三预测活体类别,确定第三面部图像样本的第三活体损失信息的方式可以有多种,比如,处理器620可以计算样本查询认证和样本值特征之间的相关性,以得到第三面部图像样本的第二稀疏性损失信息,基于第三预测活体类别和第三面部图像样本的标注活体类别,确定第三面部提箱的第三活体分类损失信息,以及将第二稀疏性损失信息和第三活体分类损失信息相加,得到第三面部图像样本的第三活体损失信息。
其中,第二稀疏性损失信息为表征样本查询特征和样本值特征之间相关性的稀疏程度对应的损失信息。所述相关性可以理解为相关联的程度,相关性越高,样本查询特征和样本值特征之间的关联程度就越高,也可以理解为样本查询特征和样本值特征之间就越相似。第二稀疏性损失信息的约束条件为样本查询特征和样本值特征之间的相关性要较为稀疏,即显式属性特征和隐式属性特征之间需要互补。计算样本查询特征和样本值特征之间的相关性的方式可以有多种,比如,处理器620可以采用特征相关性算法(譬如,‘皮尔逊’相关系数、‘斯皮尔曼’相关系数、判定系数或者特征相关性计算模型的,等等)计算样本查询特征和样本值特征之间的相关性,或者,还可以计算样本查询特征和样本值特征之间的特征距离或者相似度,并基于特征距离或相似度,确定样本查询特征和样本值特征之间的相关性,等等。
其中,第三活体分类损失信息为采用预设属性融合网络对第三面部图像样本进行活体分类而产生的分类损失信息。基于第三预测活体类别和第三面部图像样本的标注活体类别,确定第三面部图像样本的第三活体分类损失信息的方式可以有多种,比如,处理器620可以直接将第三预测活体类别与第三面部图像样本的标注活体类别进行对比,基于对比结果,采用交叉熵损失(CE)确定出第三活体分类损失信息,或者,还可以采用其他类型的损失函数基于对比结果,确定出第三活体分类损失信息,等等。
处理器620在确定出第二稀疏性损失信息和第三活体分类损失信息之后,便可以基于将第二稀疏性损失信息和第三活体分类损失信息相加,从而得到第三面部图像样本的第三活体损失信息。以损失函数为交叉熵损失函数(CE)为例,计算第三活体损失信息可以如公式(3)所示:
Loss3=Losscorrelation2+LosscE3 (3)
其中,Los □3为第三活体损失信息,Losscorrelation2为第二稀疏性损失信息,LossCE3为第三活体分类损失信息。
处理器620在确定出第三面部图像样本的第三活体损失信息之后,便可以基于第三活体损失信息对预设属性融合网络进行收敛,从而得到训练后的属性融合网络。基于第三活体损失信息对预设属性融合网络进行收敛的方式与基于第一活体损失信息对预设显式属性活体检测网络进行收敛的方式类似,详见上文所述,在此就不再一一赘述。
其中,需要说明的是,第一面部图像样本、第二面部图像样本和第三面部图像样本可以为同一面部图像样本,也可以为不同面部图像样本。
处理器620对预设属性融合网络进行训练之后,便可以基于训练后的属性融合网络将目标面部图像的显式属性特征和隐式属性特征进行融合,得到目标面部图像的目标活体特征,并基于目标活体特征,对目标面部图像进行活体分类,从而得到目标面部图像的目标活体类别,并将该目标活体类别作为目标面部图像的活体检测结果。
处理器620在对目标面部图像进行活体检测之后,便可以输出目标面部图像的活体检测结果。处理器620输出目标面部图像的活体检测结果的方式可以有多种,比如,处理器620可以直接将活体检测结果发送至目标用户100的客户端200或终端,或者,可以将活体检测结果发送至验证服务器,以便该验证服务器基于活体检测结果,对目标用户100的面部验证进行处理,或者,还可以可视化的形式展示该目标面部图像的活体检测结果,等等。
其中,可视化的形式展示该目标面部图像的活体检测结果的方式可以有多种,比如,处理器620可以直接显式该目标面部图像的活体检测结果,或者,可以语音播报该目标面部图像的活体检测结果,或者,还以触发该活体检测结果对应的声光显式,譬如,检测为攻击图像时,进行声光报警,等等。
在一些实施例中,还可以基于目标面部图像的活体检测结果,对目标面部图像进行处理,比如,以应用场景为人脸识别场景为例,在活体检测结果为目标面部图像为攻击图像时,直接拦截该目标面部图像对应的人脸识别请求,并进行报警提示,在活体检测结果为目标面部图像为活体图像时,对目标面部图像进行面部识别,等等。
其中,本方案为了在不引入额外算法环节的情况下,提升对未知攻击的检测能力,提出了基于属性自适应组合的新攻击快速响应的活体检测方法。该活体检测方法的整体流程示意图可以如图4所示,主要包括四个部分:显式属性学习、隐式属性学习、属性智能融合和活体检测决策,具体可以如下:
(1)显式属性学习:定义和活体相关的各类显式属性(比如,反光、模糊、手机屏幕,等等),然后,训练预设显式属性活体检测网络学习到各个显式属性的特征,具体的训练过程参见上文所述,在此就不再一一赘述。
(2)隐式属性学习:采用隐式属性活体检测网络,进行多尺度、多区域的隐式属性学习,得到各个隐式属性对应的特征。隐式属性活体检测网络挖掘隐式属性特征和训练预设隐式属性活体检测网络的具体过程可以参见上文所述,在此就不再一一赘述。
(3)属性智能融合:采用transformer block的自注意力模型的属性融合网络将显式属性特征和隐式属性特征进行融合,然后,基于融合后的特征进行攻击分类和未知攻击的检测。属性融合网络进行攻击分类和未知攻击的检测的具体过程可以参见上文所述,在此就不再一一赘述。对属性融合网络的训练过程也可以参见上文所述,在此就不再一一赘述。
(4)活体检测决策:采用上述的三个模型,进行活体检测的决策,可以包括显式活体决策、隐式活体决策和联合活体决策。所述显式活体决策可以计算显式属性特征对应的活体分类结果和对应的显式攻击概率,为对于提前设定的阈值T1和T2,如果显式攻击概率低于T1或者高于T2则直接使用显式属性特征确定的活体分类结果。所述隐式活体决策可以为对于上一步显式攻击概率在T1和T2之间的样本,计算隐式属性特征对应的隐式攻击概率,对于提前设定的阈值T3和T4;如果隐式攻击概率低于T3或者高于T4则直接使用隐式属性特征确定的活体分类结果。所述联合活体决策可以为对于其他情况,说明该样本置信度不高,采用属性智能融合的决策结果作为最终结果,也就是说需要将显式属性特征和隐式属性特征进行融合,并基于融合后的特征确定出活体分类结果作为最终输出的目标面部图像的活体检测结果。活体检测的决策过程就可以理解为采用显式属性活体检测网络进行检测,得到显式属性特征对应的活体分类结果和对应的显式攻击概率,在显式攻击概率不满足预设条件时,就可以继续采用隐式属性活体检测网络进行检测,得到隐式属性对应的活体分类结果和对应的隐式攻击概率,在隐式攻击概率不满足预设条件时,就可以继续采用属性融合网络进行活体检测,从而得到最终的活体检测结果。由此可以发现,在活体检测的决策过程中,可以采用多层级的活体检测,从而实现高效率高准确率的对未知攻击类型和已知攻击类型进行活体检测。
其中,本方案分别定义显式和隐私属性,这些属性组成了攻击需要的要素。然后,通过对于这些要素的组合来判断样本为攻击还是活体。这个方法可以同时完成已知攻击和未知攻击的检测,从而不引入额外的算法环节,节约了系统成本。
综上所述,本说明书提供的活体检测方法P100和系统001,在获取目标面部图像,并在目标面部图像中提取出预设属性的显式属性特征后,在目标面部图像中提取出隐式属性特征,该隐式属性特征包括未知类型的攻击具备的除预设属性以外的未知属性的特征,以及基于显式属性特征和隐式属性特征,对目标面部图像进行活体检测,并输出活体检测结果;由于该方案不仅可以在目标面部图像中提取出预设属性的显式属性特征,还可以在目标面部图像中提取出与未知攻击类型相关的隐式属性特征,这些属性特征组成了攻击需要的要素,从而使得可以同时完成已知类型和未知类型的攻击的检测,而不需要引入额外的算法环节,因此,可以提升活体检测的准确率和检测效率。
本说明书另一方面提供一种非暂时性存储介质,存储有至少一组用来进行活体检测的可执行指令。当所述可执行指令被处理器执行时,所述可执行指令指导所述处理器实施本说明书所述的活体检测方法P100的步骤。在一些可能的实施方式中,本说明书的各个方面还可以实现为一种程序产品的形式,其包括程序代码。当所述程序产品在计算设备600上运行时,所述程序代码用于使计算设备600执行本说明书描述的活体检测方法P100的步骤。用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)包括程序代码,并可以在计算设备600上运行。然而,本说明书的程序产品不限于此,在本说明书中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本说明书操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在计算设备600上执行、部分地在计算设备600上执行、作为一个独立的软件包执行、部分在计算设备600上部分在远程计算设备上执行、或者完全在远程计算设备上执行。
上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者是可能有利的。
综上所述,在阅读本详细公开内容之后,本领域技术人员可以明白,前述详细公开内容可以仅以示例的方式呈现,并且可以不是限制性的。尽管这里没有明确说明,本领域技术人员可以理解本说明书需求囊括对实施例的各种合理改变,改进和修改。这些改变,改进和修改旨在由本说明书提出,并且在本说明书的示例性实施例的精神和范围内。
此外,本说明书中的某些术语已被用于描述本说明书的实施例。例如,“一个实施例”,“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征,结构或特性可以包括在本说明书的至少一个实施例中。因此,可以强调并且应当理解,在本说明书的各个部分中对“实施例”或“一个实施例”或“替代实施例”的两个或更多个引用不一定都指代相同的实施例。此外,特定特征,结构或特性可以在本说明书的一个或多个实施例中适当地组合。
应当理解,在本说明书的实施例的前述描述中,为了帮助理解一个特征,出于简化本说明书的目的,本说明书将各种特征组合在单个实施例、附图或其描述中。然而,这并不是说这些特征的组合是必须的,本领域技术人员在阅读本说明书的时候完全有可能将其中一部分设备标注出来作为单独的实施例来理解。也就是说,本说明书中的实施例也可以理解为多个次级实施例的整合。而每个次级实施例的内容在于少于单个前述公开实施例的所有特征的时候也是成立的。
本文引用的每个专利,专利申请,专利申请的出版物和其他材料,例如文章,书籍,说明书,出版物,文件,物品等,可以通过引用结合于此。用于所有目的全部内容,除了与其相关的任何起诉文件历史,可能与本文件不一致或相冲突的任何相同的,或者任何可能对权利要求的最宽范围具有限制性影响的任何相同的起诉文件历史。现在或以后与本文件相关联。举例来说,如果在与任何所包含的材料相关联的术语的描述、定义和/或使用与本文档相关的术语、描述、定义和/或之间存在任何不一致或冲突时,使用本文件中的术语为准。
最后,应理解,本文公开的申请的实施方案是对本说明书的实施方案的原理的说明。其他修改后的实施例也在本说明书的范围内。因此,本说明书披露的实施例仅仅作为示例而非限制。本领域技术人员可以根据本说明书中的实施例采取替代配置来实现本说明书中的申请。因此,本说明书的实施例不限于申请中被精确地描述过的实施例。
Claims (18)
1.一种活体检测方法,包括:
获取目标面部图像,并在所述目标面部图像中提取出预设属性的显式属性特征;
在所述目标面部图像中提取出隐式属性特征,所述隐式属性特征包括未知类型的攻击具备的除所述预设属性以外的未知属性的特征;以及
基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,并输出活体检测结果。
2.根据权利要求1所述的活体检测方法,其中,所述预设属性包括与已知攻击类型相关的显式属性,所述显式属性包括反光、终端屏幕、纸张、动态模糊或高斯模糊中的至少一种。
3.根据权利要求1所述的活体检测方法,其中,所述在所述目标面部图像中提取出预设属性的显式属性特征,包括:
采用显式属性活体检测网络对所述目标面部图像进行特征提取,得到所述目标面部图像的特征图谱;
对所述特征图谱进行多属性分类,以得到所述特征图谱中的至少一个显式属性和所述至少一个显式属性对应的属性特征;以及
将所述至少一个显式属性对应的属性特征作为所述预设属性的显式属性特征。
4.根据权利要求3所述的活体检测方法,其中,所述显式属性活体检测网络的训练过程包括以下步骤:
获取第一面部图像样本,并采用预设显式属性活体检测网络在所述第一面部图像样本中提取出显式属性特征,得到第一样本显式属性特征;
基于所述第一样本显式属性特征预测所述第一面部图像样本的活体类别,得到第一预测活体类别;以及
基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一活体损失信息,并基于所述第一活体损失对所述预设显式属性活体检测网络进行收敛,得到训练后的显式属性活体检测网络。
5.根据权利要求4所述的活体检测方法,其中,所述基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一活体损失信息,包括:
基于所述第一样本显式属性特征的属性类别和所述第一面部图像样本的标注属性类别,确定所述第一面部图像样本的显式属性分类损失信息;
基于所述第一预测活体类别和所述第一样本显式属性特征,确定所述第一面部图像样本的第一稀疏性损失信息,所述第一稀疏性损失信息表征参与活体决策的属性特征的稀疏性的损失信息;
基于所述第一预测活体类别和所述第一面部图像样本的标注活体类别,确定所述第一面部图像样本的第一活体分类损失信息;以及
将所述显式属性分类损失信息、所述第一稀疏性损失信息和所述第一活体分类损失信息进行累加,得到所述第一面部图像样本的第一活体损失信息。
6.根据权利要求1所述的活体检测方法,其中,所述在所述目标面部图像中提取出预设属性的显式属性特征之后,还包括:
基于所述显式属性特征,确定所述目标面部图像的第一活体分类结果,所述第一活体分类结果包括显式攻击概率;
在所述显式攻击概率在预设第一攻击概率区间外时,将所述第一活体分类结果作为所述目标面部图像的活体检测结果。
7.根据权利要求6所述的活体检测方法,其中,所述在所述目标面部图像中提取出隐式属性特征,包括:
在所述显式攻击概率在所述预设第一攻击概率区间内时,采用隐式属性活体检测网络在所述目标面部图像中提取出隐式属性特征。
8.根据权利要求7所述的活体检测方法,其中,所述隐式属性活体检测网络包括区域候选子网络、隐式特征编码子网络和隐式属性活体检测子网络;以及
所述采用隐式属性活体检测网络在所述目标面部图像中提取出隐式属性特征,包括:
采用所述区域候选子网络在所述目标面部图像中提取出语义区域,所述语义区域为所述目标面部图像中包含语义信息的区域,以及
基于所述隐式特征编码子网络在所述语义区域中提取出至少一个属性特征,得到所述隐式属性特征。
9.根据权利要求7所述的活体检测方法,其中,所述隐式属性活体检测网络的训练过程包括以下步骤:
获取第二面部图像样本,并采用显式属性活体检测网络在所述第二面部图像样本中提取出第二样本显式属性特征;
采用预设隐式属性活体检测网络在所述第二面部图像样本中提取出第一样本隐式属性特征,并基于所述第一样本隐式属性特征预测所述第二面部图像样本的活体类别,得到第二预测活体类别;
基于所述第二样本显式属性特征、所述第一样本隐式属性特征和所述第二预测活体类别,确定所述第二面部图像样本的第二活体损失信息;以及
基于所述第二活体损失信息对所述预设隐式属性活体检测网络中的隐式特征编码子网络和隐式属性活体检测子网络进行收敛,得到训练后的隐式属性活体检测网络。
10.根据权利要求9所述的活体检测方法,其中,所述基于所述第二样本显式属性特征、所述第一样本隐式属性特征和所述第二预测活体类别,确定所述第二面部图像样本的第二活体损失信息,包括:
基于所述第一样本隐式属性特征的属性类别和所述第二面部图像样本中的标注属性类别,确定所述第二面部图像样本的隐式属性分类损失信息;
基于所述第二预测活体类别和所述第二面部图像样本的标注活体类别,确定所述第二面部图像样本的第二活体分类损失信息;
基于所述第二样本显式属性特征和所述第一样本隐式属性特征,确定所述第二面部图像样本的特征相关性损失信息,所述特征相关性损失信息的约束条件为最小化所述第二样本显式属性特征和所述第一样本隐式属性特征之间的相关性;以及
将所述隐式属性分类损失信息、所述第二活体分类损失信息和所述特征相关性损失信息进行累加,得到所述第二面部图像样本的第二活体损失信息。
11.根据权利要求1所述的活体检测方法,其中,所述在所述目标面部图像中提取出隐式属性特征之后,还包括:
基于所述隐式属性特征,确定所述目标面部图像的第二活体分类结果,所述第二活体分类结果包括隐式攻击概率;以及
在所述隐式攻击概率在预设第二攻击概率区间外时,将所述第二活体分类结果作为所述目标面部图像的活体检测结果。
12.根据权利要求11所述的活体检测方法,其中,所述基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,包括:
在所述隐式攻击概率在所述预设第二攻击概率区间内时,采用属性融合网络基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测。
13.根据权利要求12所述的活体检测方法,其中,所述属性融合网络包括特征融合子网络和分类子网络;以及
所述采用属性融合网络基于所述显式属性特征和所述隐式属性特征,对所述目标面部图像进行活体检测,包括:
采用所述特征融合子网络将所述显式属性特征和所述隐式属性特征进行特征融合,得到所述目标面部图像的目标活体特征,
采用所述分类子网络对所述目标活体特征进行活体分类,得到所述目标面部图像的目标活体类别,以及
将所述目标活体类别作为所述目标面部图像的活体检测结果。
14.根据权利要求13所述的活体检测方法,其中,所述采用所述特征融合子网络将所述显式属性特征和所述隐式属性特征进行特征融合,得到所述目标面部图像的目标活体特征,包括:
将所述显式属性特征转换为查询特征,并将所述隐式属性特征转换为键特征和值特征;
基于所述查询特征、所述键特征和所述值特征,确定出注意力权重;以及
基于所述注意力权重,对所述显式属性特征和隐式属性特征进行加权融合,得到所述目标面部图像的目标活体特征。
15.根据权利要求13所述的活体检测方法,其中,所述目标活体类别包括活体图像或攻击图像中的一种,所述攻击图像包括已知攻击类型的攻击图像或未知攻击类型的攻击图像中的一种。
16.根据权利要求12所述的活体检测方法,其中,所述属性融合网络的训练过程包括以下步骤:
获取第三面部图像样本对应的第三样本显式属性特征和第二样本隐式属性特征;
采用预设属性融合网络将所述第三样本显式属性特征转换为样本查询特征,并将所述第二样本隐式属性特征转换为样本键特征和样本值特征;
基于所述样本查询特征、所述样本键特征和所述样本值特征,预测所述第三面部图像样本的活体类别,得到第三预测活体类别;以及
基于所述样本查询特征、所述样本值特征和所述第三预测活体类别,确定所述第三面部图像样本的第三活体损失信息,并基于所述第三活体损失信息对所述预设属性融合网络进行收敛,得到训练后的属性融合网络。
17.根据权利要求16所述的活体检测方法,其中,所述基于所述样本查询特征、所述样本值特征和所述第三预测活体类别,确定所述第三面部图像样本的第三活体损失信息,包括:
计算所述样本查询特征和所述样本值特征之间的相关性,以得到所述第三面部图像样本的第二稀疏性损失信息;
基于所述第三预测活体类别和所述第三面部图像样本的标注活体类别,确定所述第三面部图像样本的第三活体分类损失信息;以及
将所述第二稀疏性损失信息和所述第三活体分类损失信息相加,得到所述第三面部图像样本的第三活体损失信息。
18.一种活体检测系统,包括:
至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及
至少一个处理器,同所述至少一个存储介质通信连接,
其中,当所述活体检测系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行权利要求1-17中任一项所述的活体检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211652624.2A CN116311546A (zh) | 2022-12-22 | 2022-12-22 | 活体检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211652624.2A CN116311546A (zh) | 2022-12-22 | 2022-12-22 | 活体检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311546A true CN116311546A (zh) | 2023-06-23 |
Family
ID=86798479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211652624.2A Pending CN116311546A (zh) | 2022-12-22 | 2022-12-22 | 活体检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311546A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877071A (zh) * | 2024-03-08 | 2024-04-12 | 广州思德医疗科技有限公司 | 体位动作识别方法及系统 |
-
2022
- 2022-12-22 CN CN202211652624.2A patent/CN116311546A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877071A (zh) * | 2024-03-08 | 2024-04-12 | 广州思德医疗科技有限公司 | 体位动作识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190072563A (ko) | 얼굴 라이브니스 검출 방법 및 장치, 그리고 전자 디바이스 | |
CN111444826B (zh) | 视频检测方法、装置、存储介质及计算机设备 | |
KR20190106853A (ko) | 텍스트 인식 장치 및 방법 | |
CN113128481A (zh) | 一种人脸活体检测方法、装置、设备及存储介质 | |
CN116311546A (zh) | 活体检测方法和系统 | |
Dai et al. | Multi-scale video flame detection for early fire warning based on deep learning | |
CN116630630B (zh) | 语义分割方法、装置、计算机设备及计算机可读存储介质 | |
WO2023246912A1 (zh) | 图像文字结构化输出方法、装置、电子设备和存储介质 | |
CN116012612A (zh) | 内容检测方法和系统 | |
CN115984977A (zh) | 活体检测方法和系统 | |
CN115880530A (zh) | 对抗攻击的检测方法和系统 | |
CN115578768A (zh) | 图像检测网络的训练方法、图像检测方法和系统 | |
CN114581978A (zh) | 人脸识别的方法和系统 | |
CN112380369A (zh) | 图像检索模型的训练方法、装置、设备和存储介质 | |
CN116343346A (zh) | 活体检测方法和系统 | |
CN116259116A (zh) | 活体检测方法和系统 | |
CN116189315A (zh) | 活体检测方法和系统 | |
CN115953709A (zh) | 对抗攻击的检测方法和系统 | |
CN116110136A (zh) | 活体检测方法和系统 | |
CN116665315A (zh) | 活体检测模型的训练方法、活体检测方法和系统 | |
CN115497176A (zh) | 活体检测模型训练方法、活体检测方法和系统 | |
CN115909511A (zh) | 活体检测方法和系统 | |
CN116071795A (zh) | 表情识别方法和系统 | |
CN116110132A (zh) | 活体检测方法和系统 | |
CN115223226A (zh) | 生物识别的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |