CN114724258A - 活体检测方法、装置、存储介质及计算机设备 - Google Patents
活体检测方法、装置、存储介质及计算机设备 Download PDFInfo
- Publication number
- CN114724258A CN114724258A CN202210453246.9A CN202210453246A CN114724258A CN 114724258 A CN114724258 A CN 114724258A CN 202210453246 A CN202210453246 A CN 202210453246A CN 114724258 A CN114724258 A CN 114724258A
- Authority
- CN
- China
- Prior art keywords
- image
- living body
- palm
- original
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 175
- 238000001727 in vivo Methods 0.000 claims abstract description 82
- 238000012549 training Methods 0.000 claims abstract description 52
- 238000005286 illumination Methods 0.000 claims description 51
- 238000000034 method Methods 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 39
- 238000000605 extraction Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 22
- 238000011176 pooling Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 239000000463 material Substances 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000001574 biopsy Methods 0.000 description 6
- 230000003321 amplification Effects 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101100261000 Caenorhabditis elegans top-3 gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供的活体检测方法、装置、存储介质及计算机设备,将获取到的待测对象的原始图像输入至活体检测模型中,由于本申请的活体检测模型是将不同材料的假体当作不同类别的假体进行网络训练,并分别针对不同假体提取对应的假体特征图,可以有效保留各类假体自身的特性,无需将差异很大的假体特征强行映射到同一特征空间,从而使得训练后的活体检测模型具备了有效区分活体与不同类别假体的能力,此时将待测对象的原始图像输入至活体检测模型后,预测得到的待测对象的活体分类结果的检测精度较高。
Description
技术领域
本发明涉及生物识别技术领域,尤其涉及一种活体检测方法、装置、存储介质及计算机设备。
背景技术
随着科技的不断发展,生物识别技术也应用到各种不同的领域。例如,使用考勤设备进行考勤时,考勤设备可以通过活体检测来识别手掌、人脸等特征,使合法用户获得对应权限,并对合法用户的考勤进行记录。
对活体检测任务而言,由于活体与假体之间存在类间差异小、类内差异大的特点,一旦假体被误检为活体,那么整个防假功能便失效了。
现有的活体检测算法,通常会将提取到的假体特征映射到同一特征空间,然后再对待测对象进行活体检测,这样会导致假体之间的特征差异变大,从而使得最终的检测结果的检测精度不高。
发明内容
本发明的目的旨在至少能解决上述的技术缺陷之一,特别是现有技术中将提取到的假体特征映射到同一特征空间,再对待测对象进行活体检测,这样会导致假体之间的特征差异变大,从而使得最终的检测结果的检测精度不高的技术缺陷。
本发明提供了一种活体检测方法,所述方法包括:
获取待测对象的原始图像;
基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果;
所述活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测所述一组训练图像中每一张训练图像的活体分类结果的能力,其中,所述一组训练图像包括一张活体训练图像及一张假体训练图像。
可选地,所述基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果的步骤,包括:
基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图;
将所述原始图像的全局特征图和局部特征图进行串接,并利用串接后的特征图预测所述待测对象的活体分类结果。
可选地,所述基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图的步骤,包括:
利用所述活体检测模型对所述原始图像进行至少一次全局最大池化上采样操作,得到对应的第一特征图;
对所述第一特征图进行特征提取,得到所述原始图像的全局特征图;
利用所述活体检测模型对所述原始图像进行下采样后,得到对应的第二特征图;
提取所述第二特征图的感兴趣区域,得到若干不同尺度的响应特征区域图像及所述响应特征区域图像对应的置信分数;
根据所述响应特征区域图像对应的置信分数筛选至少两组不同尺度的响应特征区域图像;
将筛选后得到的响应特征区域图像进行串接并卷积,得到所述原始图像的局部特征图。
可选地,所述的活体检测方法,还包括:
对所述原始图像进行中心区域裁剪后,得到中心区域裁剪图像;
对所述原始图像进行光照亮度变化后,得到光照亮度变化图像;
将所述中心区域裁剪图像和所述光照亮度变化图像依次输入至所述活体检测模型中,得到所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果。
可选地,所述待测对象包括手掌,所述待测对象的原始图像包括原始手掌图像;
所述对所述原始手掌图像进行中心区域裁剪后,得到中心区域裁剪图像的步骤,包括:
将所述原始手掌图像输入至手掌检测模型中,得到所述手掌检测模型输出的所述原始手掌图像的手掌中心点、所述原始手掌图像的手掌区域外接矩形的宽度和高度;
根据所述原始手掌图像的手掌中心点,以及所述原始手掌图像的手掌区域外接矩形的宽度和高度,对所述原始手掌图像进行中心区域裁剪,得到中心区域裁剪图像;
其中,所述中心区域裁剪图像为所述原始手掌图像中手掌区域的最小外接正方形图像。
可选地,所述的活体检测方法,还包括:
根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果。
可选地,所述根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果的步骤,包括:
将所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果;
以及,对所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果和所述光照亮度变化图像的活体分类结果进行投票,得到第二预测结果;
基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果。
可选地,所述基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果的步骤,包括:
将所述第一预测结果和所述第二预测结果进行比对;
若所述第一预测结果与所述第二预测结果相同,则将所述第一预测结果或所述第二预测结果作为所述活体检测模型的最终预测结果;
若所述第一预测结果与所述第二预测结果不同,则将所述原始图像的活体分类结果作为所述活体检测模型的最终预测结果。
本发明还提供了一种活体检测装置,包括:
图像获取模块,用于获取待测对象的原始图像;
活体检测模块,用于基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果;
所述活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测所述一组训练图像中每一张训练图像的活体分类结果的能力,其中,所述一组训练图像包括一张活体训练图像及一张假体训练图像。
本发明还提供了一种存储介质,所述存储介质中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如上述实施例中任一项所述活体检测方法的步骤。
本发明还提供了一种计算机设备,所述计算机设备中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如上述实施例中任一项所述活体检测方法的步骤。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明提供的活体检测方法、装置、存储介质及计算机设备,将获取到的待测对象的原始图像输入至活体检测模型中,由于本申请的活体检测模型是将不同材料的假体当作不同类别的假体进行网络训练,并分别针对不同假体提取对应的假体特征图,可以有效保留各类假体自身的特性,无需将差异很大的假体特征强行映射到同一特征空间,从而使得训练后的活体检测模型具备了有效区分活体与不同类别假体的能力,此时将待测对象的原始图像输入至活体检测模型后,预测得到的待测对象的活体分类结果的检测精度较高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种活体检测方法的流程示意图;
图2为本发明实施例提供的活体检测模型的训练过程示意图;
图3为本发明实施例提供的测试图像推理扩增手掌活体检测流程图;
图4为本发明实施例提供的一种活体检测装置的结构示意图;
图5为本发明实施例提供的一种计算机设备的内部结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着科技的不断发展,生物识别技术也应用到各种不同的领域。例如,使用考勤设备进行考勤时,考勤设备可以通过活体检测来识别手掌、人脸等特征,使合法用户获得对应权限,并对合法用户的考勤进行记录。
对活体检测任务而言,由于活体与假体之间存在类间差异小、类内差异大的特点,一旦假体被误检为活体,那么整个防假功能便失效了。
现有的活体检测算法,通常会将提取到的假体特征映射到同一特征空间,然后再对待测对象进行活体检测,这样会导致假体之间的特征差异变大,从而使得最终的检测结果的检测精度不高。
因此,本发明的目的是解决现有技术中将提取到的假体特征映射到同一特征空间,再对待测对象进行活体检测,这样会导致假体之间的特征差异变大,从而使得最终的检测结果的检测精度不高的技术问题,并提出如下技术方案:
在一个实施例中,如图1所示,图1为本发明实施例提供的一种活体检测方法的流程示意图;本发明提供了一种活体检测方法,所述方法包括:
S110:获取待测对象的原始图像。
本步骤中,在进行活体检测之前,可以获取待测对象的原始图像,这里的待测对象可以是手掌、人脸等具有可识别特征的活体或假体,在获取待测对象的原始图像时,可以通过具有图像采集功能的设备来进行获取,包括但不限于带摄像头的手持设备、移动设备等。
例如,当待测对象为手掌时,可以通过身份识别设备来提取待测手掌的原始图像;当待测对象为人脸时,可以通过该人脸图像采集设备来采集待测人脸的指定区域。
进一步地,采集的图像中既可以包含活体图像,也可以包括假体图像;其中,活体图像指的是使用设备在各种光照、背景条件下所采集的用户处于各种人体姿态下的图像的集合,假体图像指的是使用设备在各种光照、背景条件下所采集的用户利用打印得到的手掌、人脸图像,视频及模具等进行活体检测时的处于各种人体姿态下的图像的集合。
在实际应用中,采集图像时的光照可以包括自然光、办公室灯光、路灯光等多种光照条件;采集图像的背景可以包括街道、办公室、商场等多种场景;人体姿态可以包括双手下垂、手指并拢、手指张开、面部紧张或面部松弛等多种姿态。
S120:基于预配置的活体检测模型对原始图像进行特征提取,并基于提取的特征预测待测对象的活体分类结果。
本步骤中,通过步骤S110获取待测对象的原始图像后,可以利用预配置的活体检测模型对原始图像进行特征提取,并基于提取的特征预测待测对象的活体分类结果。
需要说明的是,本申请中的活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测一组训练图像中每一张训练图像的活体分类结果的能力,其中,一组训练图像包括一张活体训练图像及一张假体训练图像。
具体地,本申请中的活体检测模型在模型训练时,模型采用的是树形网络多分支处理单元,并通过不同的网络分支,分别学习活体与某一种具体假体之间的特征差异,然后通过多分支结合训练,分别单独学习活体与各种假体之间的特征表示,从而有效区分活体与不同假体。
因此,通过上述训练过程进行训练后得到的活体检测模型,不仅能够对待测对象的原始图像进行特征提取,还能够根据提取到特征来预测待测对象的活体分类结果,进而确定该待测对象是否活体。
进一步地,由于本申请中的活体检测模型在训练过程中是以一组训练图像作为输入数据,因此,推理阶段在对待测对象的原始图像进行特征提取之前,活体检测模型可以自动复制一份原始图像,使得活体检测模型在处理过程中是将两张一样的原始图像同时输入模型,从而得到一个预测结果。
另外,本申请中的活体分类结果可以包括模型输出的活体预测得分,将该活体预测得分与预先设置的活体检测阈值进行比对后,即可得到最终的活体检测结果。
上述实施例中,将获取到的待测对象的原始图像输入至活体检测模型中,由于本申请的活体检测模型是将不同材料的假体当作不同类别的假体进行网络训练,并分别针对不同假体提取对应的假体特征图,可以有效保留各类假体自身的特性,无需将差异很大的假体特征强行映射到同一特征空间,从而使得训练后的活体检测模型具备了有效区分活体与不同类别假体的能力,此时将待测对象的原始图像输入至活体检测模型后,预测得到的待测对象的活体分类结果的检测精度较高。
上述实施例对本申请中的活体检测方法进行展开描述,下面将对本申请中如何对原始图像进行特征提取,并预测活体分类结果的过程进行详细说明。
在一个实施例中,步骤S120中基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果的步骤,可以包括:
S121:基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图。
S122:将所述原始图像的全局特征图和局部特征图进行串接,并利用串接后的特征图预测所述待测对象的活体分类结果。
本实施例中,在对原始图像进行特征提取时,可使用活体检测模型来提取原始图像的全局特征和局部特征,然后将提取到的全局特征图与局部特征图进行串接,以便利用串接后的特征图来预测待测对象的活体分类结果。
具体地,本申请在使用活体检测模型对原始图像的全局特征和局部特征进行特征提取时,可以使用FPN特征金字塔来构建不同尺度的特征金字塔,这种网络结构,能够在把低分辨率、高语义信息的高层特征和高分辨率、低语义信息的低层特征进行自上而下的侧边连接,使得所有尺度下的特征都有丰富的语义信息。网络大致结构包括一个自底向上的线路、一个自顶向下的线路以及横向连接。
其中,自底向上的过程就是神经网络普通的前向传播过程。在前向过程中,feature map的大小在经过某些层后会改变,而在经过其他一些层的时候不会改变,将不改变feature map大小的层归为一个stage,因此每次抽取的特征都是每个stage的最后一个层输出,这样就能构成特征金字塔。
自顶向下的过程就是把高层特征图进行上采样(比如最近邻上采样),然后把该特征横向连接(lateral connections)至前一层特征的过程,该过程使得高层特征得到加强。
而横向连接指的是前一层的特征图经过1×1的卷积核卷积的过程,目的为改变通道数,因为要和后一层上采样的特征图通道数相同。
当活体检测模型对原始图像的全局特征和局部特征进行特征提取后,可以对全局特征图和局部特征图进行串接,并将串接后的特征图输入至输入一个批量归一化层,自适应平均池化层,在平均池化层之后该处理单元包含两个全连接层,通过两个全连接层来预测待测对象的活体分类结果。
进一步地,如图2所示,图2为本发明实施例提供的活体检测模型的训练过程示意图;图2中,在活体检测模型训练时,可以将活体与任意一种类别的假体作为一组训练图像输入至活体检测模型中,并且,在使用FPN特征金字塔来获取不同尺度的特征图之前,还可以将活体图像与假体图像进行通道维度上的concat操作,使得输入图像的通道数增加,每一特征下的信息没有增加。
例如,本申请可以获取112*112尺度手掌方形区域图像,然后随机选择一张活体手掌与一张假体手掌图像(活体+假体i号)作为一组数据同时输入活体检测模型中,首先通过3*3卷积处理获得图像输入特征图与然后在通道维度c上串连两张特征图得到新的特征图
接着,通过FPN特征金字塔以及特征提取器来提取相应的全局特征和局部特征,将全局特征和局部特征拼接后,输入至输入一个批量归一化层,自适应平均池化层,在平均池化层之后该处理单元包含两个全连接层,通过两个全连接层来预测待测对象的活体分类结果。
其中,第一个全连接层针对活体和任意一类假体分别输出活体和假体的预测类别及类别得分,其中FC_layer_1针对活体与假体1号进行softmax激活输出,FC_layer_2针对活体与假体2号进行softmax激活输出,其它假体种类的激活输出与此类似。通过结合活体与不同种类假体得到不同预测输出结果,采用第二个全连接层对第一个全连接层的所有预测结果进行激活输出,得到最终的多分支结合训练结果,完成最终活体检测模型搭建。
通过上述的网络多分支处理单元设计,既可以保留图像原始特征信息,也可以通过学习图像局部特征以挖掘更深层的特征语义信息,针对每一种假体分别学习其对应的特征表征,而不需要将多种不同材质的假体特征强行映射到同一个特征空间中,通过多分支结合训练,分别单独学习活体与各种假体之间的特征表示,使得模型能够有效防止来自不同种类假体的攻击,从而使得模型更加鲁棒与稳定。
上述实施例中对本申请中如何对原始图像进行特征提取,并预测活体分类结果的过程进行详细说明,下面将对本申请中如何提取全局特征和局部特征的过程进行说明。
在一个实施例中,步骤S121中基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图的步骤,可以包括:
S211:利用所述活体检测模型对所述原始图像进行至少一次全局最大池化上采样操作,得到对应的第一特征图。
S212:对所述第一特征图进行特征提取,得到所述原始图像的全局特征图。
S213:利用所述活体检测模型对所述原始图像进行下采样后,得到对应的第二特征图。
S214:提取所述第二特征图的感兴趣区域,得到若干不同尺度的响应特征区域图像及所述响应特征区域图像对应的置信分数。
S215:根据所述响应特征区域图像对应的置信分数筛选至少两组不同尺度的响应特征区域图像。
S216:将筛选后得到的响应特征区域图像进行串接并卷积,得到所述原始图像的局部特征图。
本实施例中,如图2所示,本申请可以采用FPN特征金字塔网络中自下而上架构及横向连接方式,来提取原始手掌图像的不同尺度的特征图。在对原始图像进行全局特征提取时,可以使用FPN特征金字塔对原始图像进行3次全局最大池化上采样操作,此处表示为fgmp(·)操作,在经过3次最大池化操作后生成的特征图Xp上进行特征提取,其中特征提取器采用的是全卷积网络,此处用ω表示,提取到的手掌图像基于语义内容的全局特征Xglobal_feature可表示为下式:
Xglobal_feature=ω(fgmp(X))
对于一组原始手掌图像对应的特征图,可以通过横向连接得到下采样后恢复到最原始分辨率下的特征图,在该特征图上采用RPN网络结合ROIAlign方法提取ROI区域作为手掌局部图像,该方法可以在特征图上生成若干不同尺度的响应特征区域及对应置信分数,本申请可以选取置信分数top-3的手掌区域为ROI区域,设置特征图尺度{12×12,6×6,3×3}对应原始手掌图区域{28×28,56×56,112×112},在特征图X上提取感兴趣ROI区域的过程可以表示为下式:
其中,xroi表示在特征图上提取到的感兴趣ROI区域,fROIAlign(·)表示ROIAlign操作,(h*,w*)表示ROI区域的高与宽。
在获得特征图上的ROI区域之后,根据特征图尺度{12×12,6×6,3×3}对应原始手掌图区域{28×28,56×56,112×112}的关系,在原始手掌图像上根据ROI区域进行相应的crop和resize处理,得到最终的三张方形尺度ROI手掌局部图像。继续采用FPN特征金字塔对手掌局部图像生成特征图,采用特征提取器进行对应区域特征提取,对于每一张手掌图i,都能得到关于3个ROI区域图像的局部特征Xlocal_fea_i1、Xlocal_fea_i2、Xlocal_fea_i3,对局部特征采用串连接,再通过一个卷积层处理得到ROI区域图像的整体局部特征Xlocal_fea_i,其中Xlocal_fea_i可以表示为下式(3):
Xlocal_fea_i=fconv[Xlocal_fea_i1,Xlocal_fea_i2,Xlocal_fea_i3]
最终将融合后的手掌特征图Xfeature_fusion_i输入一个批量归一化层,自适应平均池化层,在平均池化层之后该处理单元包含两个全连接层,通过全连接层对待测对象的活体分类结果进行预测。
上述的一组原始手掌图像在模型训练时,指的是一张活体训练图像和一张假体训练图像,而在模型应用阶段,指的是一张原始图像和一张复制原始图像后得到的图像。
上述实施例对本申请中如何提取全局特征和局部特征的过程进行说明,下面将对本申请中活体检测方法的过程进行进一步扩展。
在一个实施例中,如图3所示,图3为本发明实施例提供的测试图像推理扩增手掌活体检测流程图;所述的活体检测方法,还可以包括:
A11:对所述原始图像进行中心区域裁剪后,得到中心区域裁剪图像。
A12:对所述原始图像进行光照亮度变化后,得到光照亮度变化图像。
A13:将所述中心区域裁剪图像和所述光照亮度变化图像依次输入至所述活体检测模型中,得到所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果。
本实施例中,由于活体检测算法对待测对象的尺度、旋转角度与光照变化等具有很强的敏感性,通常在训练活体检测模型时,会对训练数据采用旋转、缩放、亮度变化等一系列数据扩增方法,来更好地挖掘图像对于尺度、旋转角度与光照不敏感的低响应特征信息,从而学习到更鲁棒的模型参数,使得模型具有更好的泛化性能。
在现有活体检测算法推理阶段,通常只考虑了预测时所检测到的单帧图像,并通过活体检测模型推理出该帧图像的真假。但在实际应用中,由于受不可确定的使用场景、光照等外部因素的影响,难免会对活体检测算法产生一定的干扰,使得活体预测的结果存在可预见的偶然误差,尤其是假体被误检测为活体,将最终导致防假失败,影响产品使用性能。
本申请中,如图3所示,通过对推理时检测到的单帧图像进行中心区域裁剪、光照亮度变化两种方式进行扩增,来获取到三张待输入图像,即原始图像、中心区域裁剪图像、光照亮度变化图像,此处中心区域裁剪因子δ可以设置为0.9,亮度变化因子θ可以设置在0.8到1.2之间。
将上述三张图像同时输入已训练好的活体检测模型中,通过该模型对上述三张图像分别进行预测,得到各自对应的活体分类结果。
上述实施例对本申请中活体检测方法的过程进行进一步扩展,下面将对本申请中原始图像的裁剪过程进行说明。
在一个实施例中,所述待测对象可以包括手掌,所述待测对象的原始图像可以包括原始手掌图像;步骤A11中对所述原始图像进行中心区域裁剪后,得到中心区域裁剪图像的步骤,可以包括:
A111:将所述原始手掌图像输入至手掌检测模型中,得到所述手掌检测模型输出的所述原始手掌图像的手掌中心点、所述原始手掌图像的手掌区域外接矩形的宽度和高度。
A112:根据所述原始手掌图像的手掌中心点,以及所述原始手掌图像的手掌区域外接矩形的宽度和高度,对所述原始手掌图像进行中心区域裁剪,得到中心区域裁剪图像;
其中,所述中心区域裁剪图像为所述原始手掌图像中手掌区域的最小外接正方形图像。
本实施例中,对于采集到的原始手掌图像,需要从中提取感兴趣的手掌区域,在通过手掌检测模型对原始手掌图像进行检测时,对于检测到的手掌区域并未直接裁剪下来,而是记录手掌区域中心点的位置及宽高尺度,根据宽高尺度,在原图上对手掌区域随机扩充至方形尺度,若出现手掌区域存在于原图边角处,则按照在原始手掌图像上裁剪其最小外接正方形的方式获取方形手掌区域图像。
该方法获取的手掌区域图像有两个优点:(1)直接在原始手掌图像上进行手掌区域外接方形裁剪,可以有效保留手掌区域上下文语义信息;(2)对于手掌区域的方形区域随机扩充,可以有效加大样本数据的多样性,以及手掌位置的随机性。
进一步地,原始手掌图像中手掌区域中心点的位置坐标是通过预先训练好的手掌检测模型回归出来的,模型回归手掌中心点的同时,也能够检测出手掌的宽和高。
其中,宽指的是模型检测出的手掌区域外接矩形的宽度、高指的是模型检测出的手掌区域外接矩形的高度;根据检测到的手掌区域宽w和高h,若h>w,则在手掌区域左右各扩充(h-w)/2,若h<w,则在手掌区域上下各扩充(w-h)/2,保证手掌区域长边固定,短边扩充到长边的长度再进行原图裁剪,保证裁剪出来的手掌区域为手掌最小外接正方形图像,且该区域将手掌完全包含在其中。
上述实施例对本申请中原始图像的裁剪过程进行说明,下面将对本申请中活体检测模型的最终预测结果确定过程进行描述。
在一个实施例中,所述的活体检测方法,还可以包括:
A14:根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果。
本实施例中,由于活体检测模型分别对原始图像、中心区域裁剪图像以及光照亮度变化图像进行活体预测,并得到各自的活体分类结果,由于原始图像、中心区域裁剪图像以及光照亮度变化图像都是基于待测对象所获取的图像。因此,可以结合原始图像的活体分类结果、中心区域裁剪图像的活体分类结果,以及光照亮度变化图像的活体分类结果,来确定待测对象的最终预测结果,该最终预测结果在关注原图预测输出的同时,考虑了中心区域与光照变化后的图像预测输出,通过该扩增方式,可有效降低测试环境的干扰,降低偶尔预测错误的问题,提高模型鲁棒性。
上述实施例对本申请中活体检测模型的最终预测结果确定过程进行描述,下面将对本申请中如何得到活体检测模型的最终预测结果的过程进行说明。
在一个实施例中,步骤A14中根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果的步骤,可以包括:
A141:将所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果。
A142:对所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果和所述光照亮度变化图像的活体分类结果进行投票,得到第二预测结果。
A143:基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果。
本实施例中,在确定活体检测模型的最终预测结果时,可以将原始图像的活体分类结果、中心区域裁剪图像的活体分类结果,以及光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果;另外,还可以对原始图像的活体分类结果、中心区域裁剪图像的活体分类结果和光照亮度变化图像的活体分类结果进行投票,得到第二预测结果,最后基于第一预测结果和所述第二预测结果,来确定活体检测模型的最终预测结果。
如图3所示,假设对手掌进行活体检测,原始测试图像的活体预测得分为score1,中心区域裁剪图像活体预测得分为score2,光照亮度变化图像活体预测得分为score3,根据应用场景选择对应的加权阈值,最终的预测得分Score计算过程如下所示:
Score=α*score1+β*score2+γ*score3
此处的加权阈值可以根据场景自定义设置,如应用场景中的光照强度、亮度、背景复杂度等因素,本申请中的加权阈值可以设置为α=0.6,β=0.2,γ=0.2。
进一步地,本申请一方面根据三张图像的最终Score得分与活体检测阈值η之间的关系,确定待测对象是否为活体;另一方面,还可以设置单张图像的预测活体检测阈值μ,如果score1的值大于μ,则认为原始测试图像为活体,另外两种图像测试结果与此类似,通过该方式可分别判断三张手掌图像是否为活体,然后根据三张图像的预测结果进行投票,若有两张及以上图像分为活体,则将待测对象投票为活体,否则为假体。
上述实施例对本申请中如何得到活体检测模型的最终预测结果的过程进行说明,下面将对本申请中如何根据第一预测结果和第二预测结果确定最终预测结果的过程进行展开描述。
在一个实施例中,步骤A143中基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果的步骤,可以包括:
A1431:将所述第一预测结果和所述第二预测结果进行比对。
A1432:若所述第一预测结果与所述第二预测结果相同,则将所述第一预测结果或所述第二预测结果作为所述活体检测模型的最终预测结果。
A1433:若所述第一预测结果与所述第二预测结果不同,则将所述原始图像的活体分类结果作为所述活体检测模型的最终预测结果。
本实施例中,在将原始图像的活体分类结果、中心区域裁剪图像的活体分类结果,以及光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果,以及对原始图像的活体分类结果、中心区域裁剪图像的活体分类结果和光照亮度变化图像的活体分类结果进行投票,得到第二预测结果后,可以将第一预测结果与第二预测结果进行比对,从而确定最终预测结果。
具体地,若第一预测结果与第二预测结果相同,则将第一预测结果或第二预测结果作为活体检测模型的最终预测结果,若第一预测结果与第二预测结果不同,则将原始图像的活体分类结果作为活体检测模型的最终预测结果。
举例来说,在对手掌图像的真假进行判断时,可以通过两方面共同判断得出,若两种方式均判断为活体,则将该手掌分为活体手掌;若两种方式均判断为假体,则将该手掌分为假体手掌;若一种方式判断为活体,另一种方式判断为假体,则根据单张原始测试图像的真假来确定最终手掌的真假。
下面对本申请实施例提供的活体检测装置进行描述,下文描述的活体检测装置与上文描述的文本处理方法可相互对应参照。
在一个实施例中,如图4所示,图4为本发明实施例提供的一种活体检测装置的结构示意图;本发明还提供了一种活体检测装置,包括图像获取模型210、活体检测模块220,具体包括如下:
图像获取模块210,用于获取待测对象的原始图像;
活体检测模块220,用于基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果;
所述活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测所述一组训练图像中每一张训练图像的活体分类结果的能力,其中,所述一组训练图像包括一张活体训练图像及一张假体训练图像。
上述实施例中,将获取到的待测对象的原始图像输入至活体检测模型中,由于本申请的活体检测模型是将不同材料的假体当作不同类别的假体进行网络训练,并分别针对不同假体提取对应的假体特征图,可以有效保留各类假体自身的特性,无需将差异很大的假体特征强行映射到同一特征空间,从而使得训练后的活体检测模型具备了有效区分活体与不同类别假体的能力,此时将待测对象的原始图像输入至活体检测模型后,预测得到的待测对象的活体分类结果的检测精度较高。
在一个实施例中,所述活体检测模块220可以包括:
特征提取模块,用于基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图。
串接模块,用于将所述原始图像的全局特征图和局部特征图进行串接,并利用串接后的特征图预测所述待测对象的活体分类结果。
在一个实施例中,所述特征提取模块可以包括:
上采样模块,用于利用所述活体检测模型对所述原始图像进行至少一次全局最大池化上采样操作,得到对应的第一特征图。
第一提取模块,用于对所述第一特征图进行特征提取,得到所述原始图像的全局特征图。
下采样模块,用于利用所述活体检测模型对所述原始图像进行下采样后,得到对应的第二特征图。
第二提取模块,用于提取所述第二特征图的感兴趣区域,得到若干不同尺度的响应特征区域图像及所述响应特征区域图像对应的置信分数。
筛选模块,用于根据所述响应特征区域图像对应的置信分数筛选至少两组不同尺度的响应特征区域图像。
卷积模块,用于将筛选后得到的响应特征区域图像进行串接并卷积,得到所述原始图像的局部特征图。
在一个实施例中,所述的活体检测装置,还可以包括:
裁剪模块,用于对所述原始图像进行中心区域裁剪后,得到中心区域裁剪图像。
光照变化模块,用于对所述原始图像进行光照亮度变化后,得到光照亮度变化图像。
预测结果模块,用于将所述中心区域裁剪图像和所述光照亮度变化图像依次输入至所述活体检测模型中,得到所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果。
在一个实施例中,所述待测对象可以包括手掌,所述待测对象的原始图像可以包括原始手掌图像;所述裁剪模块可以包括:
裁剪数据确定模块,用于将所述原始手掌图像输入至手掌检测模型中,得到所述手掌检测模型输出的所述原始手掌图像的手掌中心点、所述原始手掌图像的手掌区域外接矩形的宽度和高度。
中心区域裁剪模块,用于根据所述原始手掌图像的手掌中心点,以及所述原始手掌图像的手掌区域外接矩形的宽度和高度,对所述原始手掌图像进行中心区域裁剪,得到中心区域裁剪图像;
其中,所述中心区域裁剪图像为所述原始手掌图像中手掌区域的最小外接正方形图像。
在一个实施例中,所述的活体检测装置,还可以包括:
最终结果确定模块,用于根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果。
在一个实施例中,所述最终结果确定模块可以包括:
加权求和模块,用于将所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果。
投票模块,用于对所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果和所述光照亮度变化图像的活体分类结果进行投票,得到第二预测结果。
确定模块,用于基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果。
在一个实施例中,所述确定模块可以包括:
比对模块,用于将所述第一预测结果和所述第二预测结果进行比对。
第一预测模块,用于若所述第一预测结果与所述第二预测结果相同,则将所述第一预测结果或所述第二预测结果作为所述活体检测模型的最终预测结果。
第二预测模块,用于若所述第一预测结果与所述第二预测结果不同,则将所述原始图像的活体分类结果作为所述活体检测模型的最终预测结果。
在一个实施例中,本发明还提供了一种存储介质,所述存储介质中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如上述实施例中任一项所述活体检测方法的步骤。
在一个实施例中,本发明还提供了一种计算机设备,所述计算机设备中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如上述实施例中任一项所述活体检测方法的步骤。
示意性地,如图5所示,图5为本发明实施例提供的一种计算机设备的内部结构示意图,该计算机设备300可以被提供为一服务器。参照图5,计算机设备300包括处理组件302,其进一步包括一个或多个处理器,以及由存储器301所代表的存储器资源,用于存储可由处理组件302的执行的指令,例如应用程序。存储器301中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件302被配置为执行指令,以执行上述任意实施例的活体检测方法。
计算机设备300还可以包括一个电源组件303被配置为执行计算机设备300的电源管理,一个有线或无线网络接口304被配置为将计算机设备300连接到网络,和一个输入输出(I/O)接口305。计算机设备300可以操作基于存储在存储器301的操作系统,例如WindowsServer TM、Mac OS XTM、Unix TM、Linux TM、Free BSDTM或类似。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间可以根据需要进行组合,且相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种活体检测方法,其特征在于,所述方法包括:
获取待测对象的原始图像;
基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果;
所述活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测所述一组训练图像中每一张训练图像的活体分类结果的能力,其中,所述一组训练图像包括一张活体训练图像及一张假体训练图像。
2.根据权利要求1所述的活体检测方法,其特征在于,所述基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果的步骤,包括:
基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图;
将所述原始图像的全局特征图和局部特征图进行串接,并利用串接后的特征图预测所述待测对象的活体分类结果。
3.根据权利要求2所述的活体检测方法,其特征在于,所述基于预配置的活体检测模型对所述原始图像进行全局特征提取和局部特征提取,得到所述原始图像的全局特征图和局部特征图的步骤,包括:
利用所述活体检测模型对所述原始图像进行至少一次全局最大池化上采样操作,得到对应的第一特征图;
对所述第一特征图进行特征提取,得到所述原始图像的全局特征图;
利用所述活体检测模型对所述原始图像进行下采样后,得到对应的第二特征图;
提取所述第二特征图的感兴趣区域,得到若干不同尺度的响应特征区域图像及所述响应特征区域图像对应的置信分数;
根据所述响应特征区域图像对应的置信分数筛选至少两组不同尺度的响应特征区域图像;
将筛选后得到的响应特征区域图像进行串接并卷积,得到所述原始图像的局部特征图。
4.根据权利要求1所述的活体检测方法,其特征在于,还包括:
对所述原始图像进行中心区域裁剪后,得到中心区域裁剪图像;
对所述原始图像进行光照亮度变化后,得到光照亮度变化图像;
将所述中心区域裁剪图像和所述光照亮度变化图像依次输入至所述活体检测模型中,得到所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果。
5.根据权利要求4所述的活体检测方法,其特征在于,所述待测对象包括手掌,所述待测对象的原始图像包括原始手掌图像;
所述对所述原始手掌图像进行中心区域裁剪后,得到中心区域裁剪图像的步骤,包括:
将所述原始手掌图像输入至手掌检测模型中,得到所述手掌检测模型输出的所述原始手掌图像的手掌中心点、所述原始手掌图像的手掌区域外接矩形的宽度和高度;
根据所述原始手掌图像的手掌中心点,以及所述原始手掌图像的手掌区域外接矩形的宽度和高度,对所述原始手掌图像进行中心区域裁剪,得到中心区域裁剪图像;
其中,所述中心区域裁剪图像为所述原始手掌图像中手掌区域的最小外接正方形图像。
6.根据权利要求4所述的活体检测方法,其特征在于,还包括:
根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果。
7.根据权利要求6所述的活体检测方法,其特征在于,所述根据所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果,确定所述活体检测模型的最终预测结果的步骤,包括:
将所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果,以及所述光照亮度变化图像的活体分类结果进行加权求和,得到第一预测结果;
以及,对所述原始图像的活体分类结果、所述中心区域裁剪图像的活体分类结果和所述光照亮度变化图像的活体分类结果进行投票,得到第二预测结果;
基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果。
8.根据权利要求7所述的活体检测方法,其特征在于,所述基于所述第一预测结果和所述第二预测结果,确定所述活体检测模型的最终预测结果的步骤,包括:
将所述第一预测结果和所述第二预测结果进行比对;
若所述第一预测结果与所述第二预测结果相同,则将所述第一预测结果或所述第二预测结果作为所述活体检测模型的最终预测结果;
若所述第一预测结果与所述第二预测结果不同,则将所述原始图像的活体分类结果作为所述活体检测模型的最终预测结果。
9.一种活体检测装置,其特征在于,包括:
图像获取模块,用于获取待测对象的原始图像;
活体检测模块,用于基于预配置的活体检测模型对所述原始图像进行特征提取,并基于提取的特征预测所述待测对象的活体分类结果;
所述活体检测模型被配置为,对输入的一组训练图像分别进行特征提取及融合,并基于融合特征预测所述一组训练图像中每一张训练图像的活体分类结果的能力,其中,所述一组训练图像包括一张活体训练图像及一张假体训练图像。
10.一种存储介质,其特征在于:所述存储介质中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至8中任一项所述活体检测方法的步骤。
11.一种计算机设备,其特征在于:所述计算机设备中存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至8中任一项所述活体检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210453246.9A CN114724258A (zh) | 2022-04-24 | 2022-04-24 | 活体检测方法、装置、存储介质及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210453246.9A CN114724258A (zh) | 2022-04-24 | 2022-04-24 | 活体检测方法、装置、存储介质及计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114724258A true CN114724258A (zh) | 2022-07-08 |
Family
ID=82246572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210453246.9A Pending CN114724258A (zh) | 2022-04-24 | 2022-04-24 | 活体检测方法、装置、存储介质及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114724258A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115482248A (zh) * | 2022-09-22 | 2022-12-16 | 推想医疗科技股份有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN116597527A (zh) * | 2023-07-18 | 2023-08-15 | 第六镜科技(成都)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021068322A1 (zh) * | 2019-10-10 | 2021-04-15 | 平安科技(深圳)有限公司 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
CN113743194A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、电子设备及存储介质 |
CN113807237A (zh) * | 2021-09-15 | 2021-12-17 | 河南星环众志信息科技有限公司 | 活体检测模型的训练、活体检测方法、计算机设备及介质 |
CN114155580A (zh) * | 2021-11-26 | 2022-03-08 | 浙江大华技术股份有限公司 | 一种红外图像处理、活体检测方法及装置 |
CN114373195A (zh) * | 2022-01-06 | 2022-04-19 | 厦门熵基科技有限公司 | 光照场景自适应的手掌防伪方法、装置、设备和存储介质 |
-
2022
- 2022-04-24 CN CN202210453246.9A patent/CN114724258A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021068322A1 (zh) * | 2019-10-10 | 2021-04-15 | 平安科技(深圳)有限公司 | 活体检测模型的训练方法、装置、计算机设备和存储介质 |
CN113743194A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 人脸静默活体检测方法、装置、电子设备及存储介质 |
CN113807237A (zh) * | 2021-09-15 | 2021-12-17 | 河南星环众志信息科技有限公司 | 活体检测模型的训练、活体检测方法、计算机设备及介质 |
CN114155580A (zh) * | 2021-11-26 | 2022-03-08 | 浙江大华技术股份有限公司 | 一种红外图像处理、活体检测方法及装置 |
CN114373195A (zh) * | 2022-01-06 | 2022-04-19 | 厦门熵基科技有限公司 | 光照场景自适应的手掌防伪方法、装置、设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
马思源;郑涵;郭文;: "应用深度光学应变特征图的人脸活体检测", 中国图象图形学报, no. 03, 16 March 2020 (2020-03-16) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115482248A (zh) * | 2022-09-22 | 2022-12-16 | 推想医疗科技股份有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN115482248B (zh) * | 2022-09-22 | 2023-12-08 | 推想医疗科技股份有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN116597527A (zh) * | 2023-07-18 | 2023-08-15 | 第六镜科技(成都)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
CN116597527B (zh) * | 2023-07-18 | 2023-09-19 | 第六镜科技(成都)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3961484B1 (en) | Medical image segmentation method and device, electronic device and storage medium | |
CN109284670B (zh) | 一种基于多尺度注意力机制的行人检测方法及装置 | |
CN111860169B (zh) | 皮肤分析方法、装置、存储介质及电子设备 | |
JP2017016593A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN114724258A (zh) | 活体检测方法、装置、存储介质及计算机设备 | |
JP5153434B2 (ja) | 情報処理装置及び情報処理方法 | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
CN108960260B (zh) | 一种分类模型生成方法、医学影像图像分类方法及装置 | |
CN112364873A (zh) | 弯曲文本图像的文字识别方法、装置及计算机设备 | |
WO2023165616A1 (zh) | 图像模型隐蔽后门的检测方法及系统、存储介质、终端 | |
CN112884782B (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN113378609B (zh) | 代理商代签名的识别方法及装置 | |
CN113378675A (zh) | 一种同时检测和特征提取的人脸识别方法 | |
CN116563583B (zh) | 一种图像匹配的方法、地图信息的更新方法以及相关装置 | |
CN114067431A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112818774A (zh) | 一种活体检测方法及装置 | |
Ge et al. | Coarse-to-fine foraminifera image segmentation through 3D and deep features | |
CN113297956A (zh) | 一种基于视觉的手势识别方法及系统 | |
CN116168240A (zh) | 基于注意力增强的任意方向密集舰船目标检测方法 | |
Duffner et al. | A neural scheme for robust detection of transparent logos in TV programs | |
CN113192085A (zh) | 三维器官图像分割方法、装置及计算机设备 | |
CN116798041A (zh) | 图像识别方法、装置和电子设备 | |
CN116052225A (zh) | 掌纹识别方法、电子设备、存储介质及计算机程序产品 | |
Rush et al. | Feature Map Activation Analysis for Object Key-Point Detection | |
Singh et al. | Facial Emotion Analysis and Recommendation Using CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |