CN111611851A - 模型生成方法、虹膜检测方法及装置 - Google Patents
模型生成方法、虹膜检测方法及装置 Download PDFInfo
- Publication number
- CN111611851A CN111611851A CN202010277110.8A CN202010277110A CN111611851A CN 111611851 A CN111611851 A CN 111611851A CN 202010277110 A CN202010277110 A CN 202010277110A CN 111611851 A CN111611851 A CN 111611851A
- Authority
- CN
- China
- Prior art keywords
- iris
- detection
- training sample
- layer
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 382
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 223
- 210000001747 pupil Anatomy 0.000 claims abstract description 117
- 238000013528 artificial neural network Methods 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 238000011176 pooling Methods 0.000 claims abstract description 23
- 239000002537 cosmetic Substances 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 31
- 238000010586 diagram Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 13
- 210000000554 iris Anatomy 0.000 description 470
- 238000007781 pre-processing Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000001727 in vivo Methods 0.000 description 5
- 238000001574 biopsy Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002911 mydriatic effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000000741 silica gel Substances 0.000 description 2
- 229910002027 silica gel Inorganic materials 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种模型生成方法、虹膜检测方法及装置,其中,该模型生成方法包括:获取训练样本集;训练样本集包括多个训练样本子集,每个训练样本子集中每个训练样本包括虹膜图像、类型标签及真实虹膜包围框位置信息,且每个训练样本子集中训练样本的类型包括真人虹膜、美瞳虹膜及假体虹膜;利用训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,得到虹膜检测模型;虹膜检测神经网络包括:特征提取层、虹膜定位层、感兴趣区池化层、美瞳检测层、及假体检测层;特征提取层、虹膜定位层、感兴趣区池化层及美瞳检测层依次连接,特征提取层的输出还与感兴趣区池化层和假体检测层连接。通过上述方案能够提高虹膜图像处理效率。
Description
技术领域
本发明涉及虹膜识别技术领域,尤其涉及一种模型生成方法、虹膜检测方法及装置。
背景技术
作为安全性极高的生物特征识别技术,虹膜识别技术在公安刑侦、监狱、嫌疑人排查、出入境等身份管理中得到了广泛应用。但是,虹膜识别也面临恶意攻击的问题。恶意攻击手段主要分为假体攻击和美瞳攻击两部分。其中,假体攻击可指利用打印纸、视频、硅胶假人头、义眼等模拟真人虹膜进行注册或验证;美瞳攻击可指通过配戴具有特定纹理的美瞳进行注册或验证,因为美瞳纹理会影响虹膜纹理特征,从而造成误识或识别失败。因此,虹膜活体检测在虹膜识别中占据重要地位。
基于图像的活体检测方法是利用图像算法分析图像本身包含的形状、纹理等信息。目前基于深度学习,通过分析虹膜图像中的形态纹理信息进行虹膜活体检测,区分真人虹膜图像和被攻击虹膜的图像成为主要技术发展趋势。
现有的基于图像的虹膜活体检测算法,需要先进行虹膜区域定位检测,再进行活体检测,从而使得虹膜定位和活体检测成为两个分开的任务。而且,对于不同攻击类型的虹膜图像活体检测,也需要分别使用不同的方案进行处理。然而,将虹膜定位、不同活体检测等任务分开去解决,会降低虹膜图像预处理的效率。
发明内容
有鉴于此,本发明提供了一种模型生成方法、虹膜检测方法及装置,以实现虹膜图像的一体化检测,提高虹膜图像处理效率。
为了达到上述目的,本发明采用以下方案实现:
根据本发明实施例的一个方面,提供了一种虹膜检测模型生成方法,包括:
获取训练样本集;其中,所述训练样本集包括多个训练样本子集,每个训练样本子集中每个训练样本包括虹膜图像、相应的类型标签、及相应的真实虹膜包围框位置信息,且每个训练样本子集中训练样本的类型包括真人虹膜、美瞳虹膜及假体虹膜;
利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,得到虹膜检测模型;其中,所述虹膜检测神经网络包括:特征提取层、虹膜定位层、感兴趣区池化层、美瞳检测层、及假体检测层;所述特征提取层、所述虹膜定位层、所述感兴趣区池化层、及所述美瞳检测层依次连接,所述特征提取层的输出还与所述感兴趣区池化层和所述假体检测层连接。
在一些实施例中,所述特征提取层为深度卷积网络;和/或,所述虹膜定位层为回归网络;和/或,所述美瞳检测层为二分类网络;和/或,所述假体检测层为二分类网络。
在一些实施例中,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,包括:
将训练样本子集中每个训练样本的虹膜图像输入至所述特征提取层,得到相应的第一特征图;
将训练样本子集中每个训练样本对应的第一特征图输入至所述虹膜定位层,得到相应的虹膜包围框位置检测信息;
将训练样本子集中每个训练样本对应的第一特征图和虹膜包围框位置检测信息输入至所述感兴趣区池化层,以从相应的第一特征图中截取对应于相应的虹膜包围框位置检测信息的虹膜所在区域,得到具有设定维度的相应的第二特征图;
将从训练样本子集中真人虹膜类型和美瞳虹膜类型的所有训练样本中选取的训练样本对应的第二特征图输入至所述美瞳检测层,得到相应的美瞳检测分类判别结果,以及将从训练样本子集中真人虹膜类型和假体虹膜类型的所有训练样本中选取的训练样本对应的第一特征图输入至所述假体检测层,得到相应的假体检测分类判别结果;
根据训练样本子集中各训练样本对应的虹膜包围框位置检测信息和真实虹膜包围框位置信息计算得到相应训练样本子集对应的虹膜包围框位置预测误差,根据训练样本子集中各训练样本对应的类型标签和美瞳检测分类判别结果计算得到相应训练样本子集对应的美瞳预测分类误差,根据训练样本子集中各训练样本对应的类型标签和假体检测分类判别结果计算得到相应训练样本子集对应的假体预测类误差,根据训练样本子集对应的虹膜包围框位置预测误差、美瞳预测分类误差、及假体预测类误差计算得到相应训练样本子集对应的总体损失函数的值;
将训练样本子集对应的总体损失函数的值在所述虹膜检测神经网络中反向传播,以更新所述虹膜检测神经网络的参数并进行下一次训练。
在一些实施例中,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,还包括:
在所述虹膜检测神经网络的训练次数达到设定次数或训练精度达到设定精度的情况下,得到训练后的所述虹膜检测神经网络。
在一些实施例中,虹膜包围框位置检测信息为虹膜包围框相对坐标,虹膜包围框相对坐标包括虹膜包围框中心坐标、虹膜包围框的宽、及虹膜包围框的高;所述虹膜定位层为回归网络,虹膜包围框位置预测误差是根据回归损失函数得到,在回归损失函数中,虹膜包围框的宽和虹膜包围框的高均为平方根形式。
根据本发明实施例的另一个方面,提供了一种虹膜检测方法,包括:
获取待检测虹膜图像;
将所述待检测虹膜图像输入至根据本发明任一实施例所述的虹膜检测模型生成方法得到的虹膜检测模型,得到所述待检测虹膜图像的虹膜包围框位置检测信息、美瞳检测分类判别结果、及假体检测分类判别结果中的至少一个信息;
根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果。
在一些实施例中,在所述至少一个信息包括所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果的情况下,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,包括:
对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果。
在一些实施例中,对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果,包括:
在所述待检测虹膜图像的美瞳检测分类判别结果大于或等于设定美瞳得分阈值,和/或所述待检测虹膜图像的假体检测分类判别结果大于或等于设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为攻击;在所述待检测虹膜图像的美瞳检测分类判别结果小于所述设定美瞳得分阈值,且所述待检测虹膜图像的假体检测分类判别结果小于所述设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为真人。
在一些实施例中,在所述至少一个信息包括所述待检测虹膜图像的虹膜包围框位置检测信息的情况下,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,包括:
根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果。
在一些实施例中,在所述待检测虹膜图像的虹膜包围框位置检测信息为虹膜包围框相对坐标值的情况下,根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果,包括:
对所述待检测虹膜图像的虹膜包围框相对坐标值进行处理,得到虹膜包围框真实坐标值,作为所述待检测虹膜图像的虹膜定位检测结果。
根据本发明实施例的另一个方面,提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一实施例所述的虹膜检测模型生成方法或上述任一实施例所述的虹膜检测方法的步骤。
根据本发明实施例的另一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一实施例所述的虹膜检测模型生成方法或上述任一实施例所述的虹膜检测方法的步骤。
本发明实施例的虹膜检测模型生成方法、虹膜检测方法、电子设备及计算机可读存储介质,能够实现虹膜定位和活体检测一体化处理,提高了虹膜预处理的效率和安全性。而且,实现活体检测中假体攻击和美瞳攻击的差别性处理,保证了虹膜图像预处理的准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是本发明一实施例的虹膜检测模型生成方法的流程示意图;
图2是本发明一实施例的虹膜检测方法的流程示意图;
图3是本发明一具体实施例的虹膜定位和活体检测一体化的架构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
现有的基于图像的虹膜活体检测算法,虹膜的定位检测和活体检测两个任务是分开进行的,这会导致算法设计流程繁琐、时间复杂度高、模型参数大等问题,从而会降低虹膜图像预处理的效率等问题。
发明人通过实验分析发现,虹膜的定位检测和活体检测这两个任务可以共享虹膜图像中的形状、纹理等特征。因此,可以基于特征共享,现算法模型的统一。
基于此,本发明提出了一种虹膜检测模型生成方法,根据该方法生成的虹膜检测模型能够用于一体化实现虹膜的定位检测和活体检测,从而能够用于提高虹膜图像处理速度等。
需要预先说明的是,本文所提及的“虹膜检测”包括对虹膜进行定位(可称为定位检测),检测虹膜是否为假体(可称为假体检测),以及检测虹膜是否为美瞳(可称为美瞳检测)。另外,本文所提及的活体检测可包括假体检测和美瞳检测。
图1是本发明一实施例的虹膜检测模型生成方法的流程示意图。如图1所示,一些实施例的虹膜检测模型生成方法,可包括以下步骤S110至步骤S120。
步骤S110:获取训练样本集;其中,所述训练样本集包括多个训练样本子集,每个训练样本子集中每个训练样本包括虹膜图像、相应的类型标签、及相应的真实虹膜包围框位置信息,且每个训练样本子集中训练样本的类型包括真人虹膜、美瞳虹膜及假体虹膜。
该步骤S110中,一个训练样本子集可包括真人虹膜训练样本、美瞳虹膜训练样本及假体虹膜训练样本,真人虹膜训练样本包括真人虹膜图像、相应的真人虹膜标签等,美瞳虹膜训练样本包括美瞳虹膜图像、相应的美瞳虹膜标签等,假体虹膜训练样本包括假体虹膜图像、相应的假体虹膜标签等。
一个训练样本主要包括虹膜图像,该虹膜图像对应一个类型标签(真人虹膜、美瞳虹膜或假体虹膜),该虹膜图像对应其中虹膜的真实虹膜包围框位置信息。虹膜包围框位置信息可以是虹膜图像中虹膜包围框的相对坐标。美瞳虹膜可以是指覆盖有具有一定纹理的美瞳的真人虹膜。假体虹膜可以是指通过打印纸、视频、硅胶假人头、义眼等模拟真人虹膜得到的虹膜。对于一个训练样本子集而言,其中,一部分训练样本中的虹膜图像中的虹膜可以为真人虹膜,另外一部分训练样本中的虹膜图像中的虹膜可以为美瞳虹膜,还有一部分训练样本中的虹膜图像可以为假体虹膜。
步骤S120:利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,得到虹膜检测模型;其中,所述虹膜检测神经网络包括:特征提取层、虹膜定位层、感兴趣区池化层、美瞳检测层、及假体检测层;所述特征提取层、所述虹膜定位层、所述感兴趣区池化层、及所述美瞳检测层依次连接,所述特征提取层的输出还与所述感兴趣区池化层和所述假体检测层连接。
该步骤S120中,该虹膜检测神经网络是自行设计的网络结构,可以基于深度学习的网络结构。该虹膜检测神经网络中的各层可以利用现有的深度网络层实现。
其中,该特征提取层可以用于对输入的虹膜图像进行特征提取,得到多通道的特征图,该特征图可以用于虹膜定位、美瞳检测及假体检测,所以可以称为共享特征图;该虹膜定位层可以用于对该特征提取层提取得到的特征图进行处理,得到该虹膜图像中虹膜的包围框的位置信息,该位置信息可以用于得到虹膜定位结果;该感兴趣区池化层可以用于对该特征提取层提取的特征图和该虹膜定位层得到的虹膜包围框位置信息进行综合处理得到具有固定尺寸(即,一定维度)的特征图,从而便于美瞳检测;该美瞳检测层可以用于对该感兴趣区池化层得到的特征图进行处理,从而判别该虹膜图像的美瞳攻击(虹膜覆盖有具有一定纹理的美瞳)的情况,例如,为美瞳攻击的概率;该假体检测层可以用于对该特征提取层提取得到的特征图(共享特征图)进行处理,从而判别该虹膜图像的假体攻击(虹膜为假体模拟的虹膜)的情况,例如,为假体攻击的概率。
具体地,例如,所述特征提取层可以为深度卷积网络。所述虹膜定位层可以为回归网络。所述美瞳检测层可以为二分类网络。所述假体检测层可以为二分类网络。
对于训练虹膜检测神经网络得到虹膜检测模型的过程而言,在一些具体实施例中,上述步骤S120中,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,具体可包括以下步骤:
S121,将训练样本子集中每个训练样本的虹膜图像输入至所述特征提取层,得到相应的第一特征图;
S122,将训练样本子集中每个训练样本对应的第一特征图输入至所述虹膜定位层,得到相应的虹膜包围框位置检测信息;
S123,将训练样本子集中每个训练样本对应的第一特征图和虹膜包围框位置检测信息输入至所述感兴趣区池化层,以从相应的第一特征图中截取对应于相应的虹膜包围框位置检测信息的虹膜所在区域,得到具有设定维度的相应的第二特征图;
S123,将从训练样本子集中真人虹膜类型和美瞳虹膜类型的所有训练样本中选取的训练样本对应的第二特征图输入至所述美瞳检测层,得到相应的美瞳检测分类判别结果,以及将从训练样本子集中真人虹膜类型和假体虹膜类型的所有训练样本中选取的训练样本对应的第一特征图输入至所述假体检测层,得到相应的假体检测分类判别结果;
S124,根据训练样本子集中各训练样本对应的虹膜包围框位置检测信息和真实虹膜包围框位置信息计算得到相应训练样本子集对应的虹膜包围框位置预测误差,根据训练样本子集中各训练样本对应的类型标签和美瞳检测分类判别结果计算得到相应训练样本子集对应的美瞳预测分类误差,根据训练样本子集中各训练样本对应的类型标签和假体检测分类判别结果计算得到相应训练样本子集对应的假体预测类误差,根据训练样本子集对应的虹膜包围框位置预测误差、美瞳预测分类误差、及假体预测类误差计算得到相应训练样本子集对应的总体损失函数的值;
S125,将训练样本子集对应的总体损失函数的值在所述虹膜检测神经网络中反向传播,以更新所述虹膜检测神经网络的参数并进行下一次训练。
该实施例中,利用训练样本子集中的真人虹膜和美瞳虹膜训练美瞳检测层,利用训练样本子集中的真人虹膜和假体虹膜训练假体检测层,通过区分不同层所使用的训练样本,能够提高虹膜检测神经网络的训练效率。
上述步骤S124中,虹膜包围框位置预测误差可以根据现有的虹膜定位层的网络结构对应的现有的或改进的损失函数计算得到。美瞳预测分类误差可以根据现有的美瞳检测层的网络结构对应的现有的或改进的损失函数计算得到。假体预测类误差可以根据现有的假体检测层的网络结构对应的现有的或改进的损失函数计算得到。
在一些实施例中,虹膜包围框位置检测信息可以为虹膜包围框相对坐标,虹膜包围框相对坐标可包括虹膜包围框中心坐标、虹膜包围框的宽、及虹膜包围框的高;所述虹膜定位层可以为回归网络,虹膜包围框位置预测误差可以是根据回归损失函数得到,在回归损失函数中,虹膜包围框的宽和虹膜包围框的高均为平方根形式,以此可以降低减小宽和高的误差对虹膜包围框大小的敏感性。
例如,回归损失函数为:
其中,Loss_reg表示回归损失函数的值,m表示一个训练样本子集中所有样本的数量,xi、yi分别表示真实虹膜包围框相对坐标中(真实虹膜包围框位置信息)中心点的横坐标和纵坐标,wi、hi分别表示真实虹膜包围框相对坐标中的宽和高,x'i、y'i分别表示虹膜包围框位置相对坐标中(虹膜包围框位置检测信息)中心点的横坐标和纵坐标,w'i、h'i分别表示虹膜包围框位置相对坐标中的宽和高。
另外,在美瞳检测层为二分类网络的情况下,美瞳预测分类误差(损失函数)可以为:
其中,Loss_cls_c表示美瞳预测分类误差的值,mc表示一个训练样本子集中真人虹膜和美瞳虹膜的所有训练样本的数量,pci表示第i个训练样本的类型标签对应的美瞳检测结果(如,若为美瞳虹膜,可为1,若为真人虹膜,可为0),pc'i表示第i个训练样本的美瞳检测分类判别结果(如,0~1之间的数值,可表示预测为美瞳虹膜的概率或得分)。
在假体检测层为二分类网络的情况下,假体预测类误差(损失函数)可以为:
其中,ml表示,一个训练样本子集中真人虹膜和假体虹膜的所有训练样本的数量,Loss_cls_l表示假体预测类误差的值,pli表示第i个训练样本的类型标签对应的假体检测结果(如,若为假体虹膜,可为1,若为真人虹膜,可为0)。
通过上述步骤S121至S124得到总体损失函数的值,可以完成对虹膜检测神经网络的一次训练。通过上述步骤S125将总体损失函数的值(例如按照链式法则)在所述虹膜检测神经网络中反向传播,可以更新所述虹膜检测神经网络的参数,进而可以继续对虹膜检测神经网络进行下一次训练。以此循环进行,可以进行大量训练,从而可以不断修正虹膜检测神经网络中各网络层的参数,直到满足训练要求,完成训练。
在一些实施例中,可以根据训练次数确定是否结束训练。例如,上述步骤S120中,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,除了包括上述步骤S121至S125,还可包括步骤:S126,在所述虹膜检测神经网络的训练次数达到设定次数或训练精度达到设定精度的情况下,得到训练后的所述虹膜检测神经网络。其中,该训练次数可以根据经验确定。训练精度可以用训练后网络的总体误差表示,该设定精度可以根据经验确定。
在一些具体实施例中,所述特征提取层为深度卷积网络,所述虹膜定位层为回归网络,所述美瞳检测层为二分类网络,所述假体检测层为二分类网络。虹膜检测神经网络包括:深度卷积网络层、回归网络层、感兴趣区池化层、第一二分类网络层、及第二二分类网络层。所述深度卷积网络层、所述回归网络层、所述感兴趣区池化层、及所述第一二分类网络层依次连接,所述深度卷积网络层的输出还与所述第一二分类网络层和所述第二二分类网络层连接。在此情况下,上述步骤S120中,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,具体可包括以下步骤:
S1,将训练样本子集中每个训练样本的虹膜图像输入至虹膜检测神经网络的深度卷积网络层,得到相应的第一特征图;
S2,将训练样本子集中每个训练样本对应的第一特征图输入至所述虹膜检测神经网络的回归网络层,得到相应的虹膜包围框位置检测信息;
S3,将训练样本子集中每个训练样本对应的第一特征图和虹膜包围框位置检测信息输入至所述虹膜检测神经网络的感兴趣区池化层,以从相应的第一特征图中截取对应于相应的虹膜包围框位置检测信息的虹膜所在区域,得到具有设定维度的相应的第二特征图;
S4,将从训练样本子集中真人虹膜类型和美瞳虹膜类型的所有训练样本中选取的训练样本对应的第二特征图输入至所述虹膜检测神经网络的第一二分类网络层,得到相应的美瞳检测分类判别结果,以及将从训练样本子集中真人虹膜类型和假体虹膜类型的所有训练样本中选取的训练样本对应的第一特征图输入至所述虹膜检测神经网络的第二二分类网络层,得到相应的假体检测分类判别结果;
S5,根据训练样本子集中各训练样本对应的虹膜包围框位置检测信息和真实虹膜包围框位置信息计算得到相应训练样本子集对应的回归损失函数的值,根据训练样本子集中各训练样本对应的类型标签和美瞳检测分类判别结果计算得到相应训练样本子集对应的美瞳预测分类误差,根据训练样本子集中各训练样本对应的类型标签和假体检测分类判别结果计算得到相应训练样本子集对应的假体预测类误差,根据训练样本子集对应的回归损失函数的值、美瞳预测分类误差、及假体预测类误差计算得到相应训练样本子集对应的总体损失函数的值;
S6,将训练样本子集对应的总体损失函数的值按链式法则在所述虹膜检测神经网络中反向传播,以更新所述虹膜检测神经网络的参数并进行下一次训练。
其中,回归网络层或虹膜定位层对应的输出层可为Sigmoid层。第一二分类网络层或美瞳检测层对应的输出层可为Softmax层。第二二分类网络层或假体检测层对应的输出层可为Softmax层。
另外上述二分类网络的基础网络,例如,可以为计算复杂度相对较高的VGG网络、ResNet网络,或者可以为计算复杂度相对降低的深度网络结构MobileNet、ShuffleNet等。
可以在所述虹膜检测神经网络的训练次数达到设定次数的情况下,得到训练后的所述虹膜检测神经网络,可以作为虹膜检测模型。
虹膜活体检测所包含的假体攻击和美瞳攻击存在不同之处:对于前者,虹膜图像的整个区域均提供判别信息;而对于后者,虹膜图像中只有覆盖美瞳的虹膜区域才包含判别信息。
此外,在一些实施例中,上述步骤S120中,根据训练后的所述虹膜检测神经网络得到虹膜检测模型,可包括:将其输出侧添加有综合输出模块的训练后的所述虹膜检测神经网络作为虹膜检测模型,其中,所述综合输出模块用于根据训练后的所述虹膜检测神经网络输出的美瞳检测分类判别结果和假体检测分类判别结果得到虹膜活体检测结果。在一些实施例中,所述综合输出模块还可用于输出训练后的所述虹膜检测神经网络输出的虹膜包围框位置检测信息。
本发明实施例的虹膜检测模型生成方法中,美瞳检测和假体检测共享了特征提取层提取的特征图,并通过虹膜定位层检测虹膜位置,以此能够提高虹膜图像检测的效率。之后通过感兴趣区池化层和美瞳检测层进行美瞳检测,通过假体检测层进行假体检测,简言之,针对不同的攻击类型,使用了不同的方案进行处理,如此一来,一方面能够充分利用虹膜图像的信息,另一方面也能够排除虹膜图像中的无关信息,降低干扰,以此可以保证活体检测的准确度。进一步地,利用训练样本子集中的真人虹膜和美瞳虹膜训练美瞳检测层,利用训练样本子集中的真人虹膜和假体虹膜训练假体检测层,通过区分不同层所使用的训练样本,能够提高虹膜检测神经网络的训练效率。简言之,本发明实施例的虹膜检测模型生成方法,基于特征共享,实现虹膜定位和活体检测的统一,并实现活体检测中假体攻击和美瞳攻击的差别性处理,以此训练得到的虹膜检测模型能够提高虹膜图像预处理的速度和效率,并能保证准确度。
另外,基于与图1所示的虹膜检测模型生成方法相同的发明构思,本发明实施例还提供了一种虹膜检测方法。图2是本发明一实施例的虹膜检测方法的流程示意图,如图2所示,该方法可包括:
步骤S210:获取待检测虹膜图像;
步骤S220:将所述待检测虹膜图像输入至本发明实施例所述的虹膜检测模型生成方法得到的虹膜检测模型,得到所述待检测虹膜图像的虹膜包围框位置检测信息、美瞳检测分类判别结果、及假体检测分类判别结果中的至少一个信息;
步骤S230:根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果。
上述步骤S210中,可以通过各种虹膜采集设备拍摄得到虹膜图像(可包括虹膜周围的人眼部分等),作为待检测虹膜图像。
上述步骤S220中,虹膜检测模型可以将训练后的虹膜检测神经网络的虹膜定位层的输出结果进行输出,得到所述待检测虹膜图像的虹膜包围框位置检测信息。虹膜检测模型可以将训练后的虹膜检测神经网络的美瞳检测层的输出结果进行输出,得到所述待检测虹膜图像的美瞳检测分类判别结果。虹膜检测模型可以将训练后的虹膜检测神经网络的假体检测层的输出结果进行输出,得到所述待检测虹膜图像的假体检测分类判别结果。
上述步骤S230中,对所述待检测虹膜图像的虹膜包围框位置检测信息进一步处理可以得到所述待检测虹膜图像的虹膜定位检测结果。对所述待检测虹膜图像的美瞳检测分类判别结果和/或假体检测分类判别结果进行处理,相应地,可以得到所述待检测虹膜图像的虹膜活体检测结果。
在一些实施例中,为了对待检测虹膜图像进行虹膜活体检测。例如,所述至少一个信息可包括所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果,在此情况下,上述步骤S230,即,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,具体地,可包括步骤:S2311,对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果。
本实施例中,可以方便地综合不同类型的攻击得到虹膜图像的虹膜活体检测结果,提高了虹膜活体检测效率。
进一步地,上述步骤S2311,即,对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果,更具体地,可包括步骤:在所述待检测虹膜图像的美瞳检测分类判别结果大于或等于设定美瞳得分阈值,和/或所述待检测虹膜图像的假体检测分类判别结果大于或等于设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为攻击;在所述待检测虹膜图像的美瞳检测分类判别结果小于所述设定美瞳得分阈值,且所述待检测虹膜图像的假体检测分类判别结果小于所述设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为真人。其中,设定美瞳得分阈值和设定假体得分阈值可以根据经验确定。
该实施例中,若美瞳检测分类判别结果和假体检测分类判别结果中只要有一个超过其各自阈值,就可以认为待检测虹膜图像不是虹膜活体,即,为被攻击的虹膜,更具体地,可为美瞳虹膜或假体虹膜。若美瞳检测分类判别结果和假体检测分类判别结果均不超过其各自阈值,可以认为待检测虹膜图像是真人虹膜,即为虹膜活体。
在另一些实施例中,为了对待检测虹膜图像进行虹膜区域的定位检测。例如,所述至少一个信息可包括所述待检测虹膜图像的虹膜包围框位置检测信息,在此情况下,上述步骤S230,即,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,具体地,可包括:S2321,根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果。
进一步地,所述待检测虹膜图像的虹膜包围框位置检测信息可为虹膜包围框相对坐标值,在此情况下,上述步骤S2321,即,根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果,具体地,可包括步骤:对所述待检测虹膜图像的虹膜包围框相对坐标值进行处理,得到虹膜包围框真实坐标值,作为所述待检测虹膜图像的虹膜定位检测结果。例如,可以通过将虹膜图像到的宽和高分别乘以虹膜包围框的中心坐标,并将虹膜图像到的宽和高分别乘以虹膜包围框的宽和高,可以得到虹膜包围框真实坐标值。
又一些实施例中,为了一同对待检测虹膜图像进行虹膜定位和活体检测,所述至少一个信息可包括所述待检测虹膜图像的虹膜包围框位置检测信息、美瞳检测分类判别结果及假体检测分类判别结果,在此情况下,上述步骤S230,即,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,具体地,可包括:对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果;对所述待检测虹膜图像的虹膜包围框相对坐标值进行处理,得到虹膜包围框真实坐标值,作为所述待检测虹膜图像的虹膜定位检测结果。
本发明实施例的虹膜检测方法,利用根据本发明实施例的虹膜检测模型生成方法得到的虹膜检测模型,可以得到虹膜定位信息和/或虹膜活体检测相关信息,从而能够一体化地实现虹膜检测,提高虹膜图像预处理的效率。另外,多任务一体化进行,避免中间数据泄露,从而能够提高虹膜数据的安全性。
另外,基于与图1所示的虹膜检测模型生成方法、图2所示的虹膜检测方法相同的发明构思,本发明实施例还提供了相应的装置或设备,如下面实施例所述。由于装置或设备解决问题的原理与方法相似,因此装置或设备的实施可以参见方法的实施,重复之处不再赘述。
在一些实施例中,提供的电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一实施例所述的虹膜检测模型生成方法或上述任一实施例所述的虹膜检测方法的步骤。
在一些实施例中,提供的计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一实施例所述的虹膜检测模型生成方法或上述任一实施例所述的虹膜检测方法的步骤。
为使本领域技术人员更好地了解本发明,下面将以具体实施例说明本发明的实施方式。
图3是本发明一具体实施例的虹膜定位和活体检测一体化的架构示意图。参见图3,虹膜检测神经网络可为深度网络。其中,深度网络层主要可包括:1.深度卷积网络共享层(特征提取层),可用于多任务共享,输出共享特征图;2.深度网络虹膜定位层(虹膜定位层),可为回归网络,输出层可为Sigmoid层,输入为共享特征图,输出为虹膜包围框相对坐标;3.深度网络假体检测层(假体检测层),可为二分类网络(用于区分真人虹膜和假体虹膜),输出层可为Softmax层,输入为共享特征图,输出为假体分类判别分数;4.深度网络美瞳检测层(美瞳检测层),可为二分类网络(用于区分真人虹膜和美瞳虹膜),输出层可为Softmax层,输入为虹膜区域对应的特征图,输出为美瞳分类判别分数。
其中,上述二分类网络模型架构中的基础网络,例如,可以为计算复杂度相对较高的VGG网络、ResNet网络,或者可以为计算复杂度相对降低的深度网络结构MobileNet、ShuffleNet等。
具体地,虹膜检测神经网络的虹膜定位和活体检测的整体前向推理过程可包括如下步骤:
(1)将虹膜图像输入至深度卷积网络虹膜定位层,并输出共享特征图,该共享特征图可用于后续的虹膜定位、假体检测和美瞳检测;
(2)将共享特征图输入至回归网络虹膜定位层,输出虹膜包围框相对坐标(x,y,w,h),其中,x和y为虹膜包围框在原虹膜图像中的相对中心坐标,w和h分别为虹膜包围框在原虹膜图像中的相对宽和高,且满足0≤x,y,w,h<1;
(3)将步骤(1)中得到的共享特征图和步骤(2)中得到的虹膜包围框坐标输入ROIPooling层(感兴趣区池化层)。ROIPooling层计算和截取共享特征图中虹膜相应区域,并经过一定的处理输出固定尺度的特征图;
(4)ROIPooling层输出的固定尺度(维度)的特征图输入至深度网络美瞳检测层,从而输出关于美瞳检测的分类判别结果;
(5)将共享特征图输入至深度网络假体检测层,并输出关于假体的分类判别分数;
(6)基于一定判别策略,对步骤(4)和步骤(5)中的输出进行综合处理,输出最终活体检测判别分数。另外,对步骤(2)中输出的虹膜包围框相对坐标进行处理,输出虹膜包围框真实坐标值。
上述步骤(4)中,关于ROIPooling层,对于不同大小的虹膜包围框,ROIPooling层能够保证输入维度大小固定的特征图。其处理过程具体可包括如下步骤:
(41)根据虹膜包围框坐标,将感兴趣区ROI(虹膜区域)映射到共享特征图对应的位置;
(42)将映射后的区域划分为相同大小的单元cells(cells数量与输出的维度相同);
(43)对每个单元cell进行最大池化max pooling操作,最终输出维度与cells数量相同的特征图。
对上述虹膜检测神经网络进行模型训练过程中,所用的虹膜数据分为三类:真人虹膜、假体虹膜和美瞳虹膜,所有虹膜数据都标注了相应类别标签label和虹膜的包围框相对坐标(x’,y’,w’,h’),且满足0<=x’,y’,w’,h’<1。
为了解决多任务问题,训练模型时所采用的损失函数可包含有多个部分,每个部分分别对应于不同的任务。
总体损失函数Loss可为:
Loss=λregLoss_reg+λccLoss_cls_c+λclLoss_cls_l,
其中,λreg,λcc和λcl分别为虹膜定位、美瞳检测及假体检测任务的损失函数的权重。Loss_reg为回归损失,Loss_cls_c为关于美瞳预测的分类误差,Loss_cls_l为关于假体预测的分类误差。
回归损失Loss_reg为:
其中,m为训练时一个批量样本的数目(batch size)。为了消除宽和高误差对包围框大小的敏感性,包围框的宽与高采用平方根预测方案。
关于美瞳预测的分类误差Loss_cls_c为:
其中,mc为训练时一个批量样本中美瞳样本和真人样本的数目,pci和pc'i分别为样本i的真实值和美瞳分类器(美瞳检测层)关于样本i的预测值。
关于假体预测的分类误差Loss_cls_l为:
其中,ml为训练时一个批量样本中假体样本和真人样本的数目,pli和pl'i分别为样本i的真实值和假体分类器(假体检测层)关于样本i的预测值。
在进行模型训练时,若类型标签label为假体,则不参与美瞳预测的分类误差Loss_cls_c的计算,若类型标签label为美瞳,则不参与假体预测的分类误差Loss_cls_l的计算。
训练好模型后,在进行虹膜检测时,可以综合结果输出:将美瞳检测结果和假体检测结果进行综合处理,得到一个最终的活体检测结果。假设经过各自的二分类Softmax层后,美瞳和假体的分类得分分别为CF和LF,且满足0≤CF,LF<=1。为了得到最终活体检测结果,所采用策略可如为:若CF>=Th_c或LF>=Th_l,则判断为被攻击的虹膜;若CF<Th_c且LF<Th_l,则判断为真人虹膜。其中,判断为美瞳的阈值Th_c和判断为假体的阈值Th_l可通过实验和经验确定。以此,可以得到活体检测结果。另外,通过x0=Wx,y0=Hy,w0=Ww,h0=Hh,得到虹膜包围框在原图中的坐标值(x0,y0,w0,h0)。其中,W和H分别为输入虹膜图像的宽和高,w和h分别为虹膜包围框的宽和高,x和y为虹膜包围框的中心坐标。
本实施例中,基于特征共享,虹膜定位和活体检测一体化处理,实现了多任务算法和模型统一,提高了虹膜预处理的效率和安全性。在活体检测中,对于美瞳检测和假体检测,根据其各自的特点分别处理,能够降低干扰,提高准确率。实现了虹膜定位和活体检测的统一,并实现活体检测中假体攻击和美瞳攻击的差别性处理,提高虹膜图像预处理的速度和准确度。
综上所述,本发明实施例的虹膜检测模型生成方法、虹膜检测方法、电子设备及计算机可读存储介质,能够实现虹膜定位和活体检测一体化处理,提高了虹膜预处理的效率和安全性。而且,实现活体检测中假体攻击和美瞳攻击的差别性处理,保证了虹膜图像预处理的准确度。
在本说明书的描述中,参考术语“一个实施例”、“一个具体实施例”、“一些实施例”、“例如”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。各实施例中涉及的步骤顺序用于示意性说明本发明的实施,其中的步骤顺序不作限定,可根据需要作适当调整。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种虹膜检测模型生成方法,其特征在于,包括:
获取训练样本集;其中,所述训练样本集包括多个训练样本子集,每个训练样本子集中每个训练样本包括虹膜图像、相应的类型标签、及相应的真实虹膜包围框位置信息,且每个训练样本子集中训练样本的类型包括真人虹膜、美瞳虹膜及假体虹膜;
利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,得到虹膜检测模型;其中,所述虹膜检测神经网络包括:特征提取层、虹膜定位层、感兴趣区池化层、美瞳检测层、及假体检测层;所述特征提取层、所述虹膜定位层、所述感兴趣区池化层、及所述美瞳检测层依次连接,所述特征提取层的输出还与所述感兴趣区池化层和所述假体检测层连接。
2.如权利要求1所述的虹膜检测模型生成方法,其特征在于,
所述特征提取层为深度卷积网络;和/或
所述虹膜定位层为回归网络;和/或
所述美瞳检测层为二分类网络;和/或
所述假体检测层为二分类网络。
3.如权利要求1所述的虹膜检测模型生成方法,其特征在于,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,包括:
将训练样本子集中每个训练样本的虹膜图像输入至所述特征提取层,得到相应的第一特征图;
将训练样本子集中每个训练样本对应的第一特征图输入至所述虹膜定位层,得到相应的虹膜包围框位置检测信息;
将训练样本子集中每个训练样本对应的第一特征图和虹膜包围框位置检测信息输入至所述感兴趣区池化层,以从相应的第一特征图中截取对应于相应的虹膜包围框位置检测信息的虹膜所在区域,得到具有设定维度的相应的第二特征图;
将从训练样本子集中真人虹膜类型和美瞳虹膜类型的所有训练样本中选取的训练样本对应的第二特征图输入至所述美瞳检测层,得到相应的美瞳检测分类判别结果,以及将从训练样本子集中真人虹膜类型和假体虹膜类型的所有训练样本中选取的训练样本对应的第一特征图输入至所述假体检测层,得到相应的假体检测分类判别结果;
根据训练样本子集中各训练样本对应的虹膜包围框位置检测信息和真实虹膜包围框位置信息计算得到相应训练样本子集对应的虹膜包围框位置预测误差,根据训练样本子集中各训练样本对应的类型标签和美瞳检测分类判别结果计算得到相应训练样本子集对应的美瞳预测分类误差,根据训练样本子集中各训练样本对应的类型标签和假体检测分类判别结果计算得到相应训练样本子集对应的假体预测类误差,根据训练样本子集对应的虹膜包围框位置预测误差、美瞳预测分类误差、及假体预测类误差计算得到相应训练样本子集对应的总体损失函数的值;
将训练样本子集对应的总体损失函数的值在所述虹膜检测神经网络中反向传播,以更新所述虹膜检测神经网络的参数并进行下一次训练。
4.如权利要求3所述的虹膜检测模型生成方法,其特征在于,利用所述训练样本集中的每个训练样本子集的各训练样本对虹膜检测神经网络进行训练,还包括:
在所述虹膜检测神经网络的训练次数达到设定次数或训练精度达到设定精度的情况下,得到训练后的所述虹膜检测神经网络。
5.如权利要求3所述的虹膜检测模型生成方法,其特征在于,虹膜包围框位置检测信息为虹膜包围框相对坐标,虹膜包围框相对坐标包括虹膜包围框中心坐标、虹膜包围框的宽、及虹膜包围框的高;所述虹膜定位层为回归网络,虹膜包围框位置预测误差是根据回归损失函数得到,在回归损失函数中,虹膜包围框的宽和虹膜包围框的高均为平方根形式。
6.一种虹膜检测方法,其特征在于,包括:
获取待检测虹膜图像;
将所述待检测虹膜图像输入至根据如权利要求1至5任一项所述的虹膜检测模型生成方法得到的虹膜检测模型,得到所述待检测虹膜图像的虹膜包围框位置检测信息、美瞳检测分类判别结果、及假体检测分类判别结果中的至少一个信息;
根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果。
7.如权利要求6所述的虹膜检测方法,其特征在于,在所述至少一个信息包括所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果的情况下,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,包括:
对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果。
8.如权利要求7所述的虹膜检测方法,其特征在于,对所述待检测虹膜图像的美瞳检测分类判别结果和假体检测分类判别结果进行综合处理,得到所述待检测虹膜图像的虹膜活体检测结果,包括:
在所述待检测虹膜图像的美瞳检测分类判别结果大于或等于设定美瞳得分阈值,和/或所述待检测虹膜图像的假体检测分类判别结果大于或等于设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为攻击;在所述待检测虹膜图像的美瞳检测分类判别结果小于所述设定美瞳得分阈值,且所述待检测虹膜图像的假体检测分类判别结果小于所述设定假体得分阈值的情况下,确定所述待检测虹膜图像的虹膜活体检测结果为真人。
9.如权利要求6至8任一项所述的虹膜检测方法,其特征在于,在所述至少一个信息包括所述待检测虹膜图像的虹膜包围框位置检测信息的情况下,根据得到的所述至少一个信息得到所述待检测虹膜图像的虹膜检测结果,包括:
根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果。
10.如权利要求9所述的虹膜检测方法,其特征在于,在所述待检测虹膜图像的虹膜包围框位置检测信息为虹膜包围框相对坐标值的情况下,根据所述待检测虹膜图像的虹膜包围框位置检测信息得到所述待检测虹膜图像的虹膜定位检测结果,包括:
对所述待检测虹膜图像的虹膜包围框相对坐标值进行处理,得到虹膜包围框真实坐标值,作为所述待检测虹膜图像的虹膜定位检测结果。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至10任一项所述方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至10任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010277110.8A CN111611851B (zh) | 2020-04-10 | 2020-04-10 | 模型生成方法、虹膜检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010277110.8A CN111611851B (zh) | 2020-04-10 | 2020-04-10 | 模型生成方法、虹膜检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611851A true CN111611851A (zh) | 2020-09-01 |
CN111611851B CN111611851B (zh) | 2024-04-02 |
Family
ID=72203712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010277110.8A Active CN111611851B (zh) | 2020-04-10 | 2020-04-10 | 模型生成方法、虹膜检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611851B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749687A (zh) * | 2021-01-31 | 2021-05-04 | 云知声智能科技股份有限公司 | 一种图片质量和静默活体检测多任务训练方法和设备 |
CN112860932A (zh) * | 2021-02-19 | 2021-05-28 | 电子科技大学 | 抵御恶意样本攻击的图像检索方法、装置、设备及存储介质 |
CN113052150A (zh) * | 2021-05-24 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
CN114373218A (zh) * | 2022-03-21 | 2022-04-19 | 北京万里红科技有限公司 | 一种用于检测活体对象的卷积网络的生成方法 |
CN115100730A (zh) * | 2022-07-21 | 2022-09-23 | 北京万里红科技有限公司 | 虹膜活体检测模型的训练方法、虹膜活体检测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833646A (zh) * | 2009-03-11 | 2010-09-15 | 中国科学院自动化研究所 | 一种虹膜活体检测方法 |
CN109409342A (zh) * | 2018-12-11 | 2019-03-01 | 北京万里红科技股份有限公司 | 一种基于轻量卷积神经网络的虹膜活体检测方法 |
CN110059589A (zh) * | 2019-03-21 | 2019-07-26 | 昆山杜克大学 | 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法 |
CN110321844A (zh) * | 2019-07-04 | 2019-10-11 | 北京万里红科技股份有限公司 | 一种基于卷积神经网络的快速虹膜检测方法 |
-
2020
- 2020-04-10 CN CN202010277110.8A patent/CN111611851B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833646A (zh) * | 2009-03-11 | 2010-09-15 | 中国科学院自动化研究所 | 一种虹膜活体检测方法 |
CN109409342A (zh) * | 2018-12-11 | 2019-03-01 | 北京万里红科技股份有限公司 | 一种基于轻量卷积神经网络的虹膜活体检测方法 |
CN110059589A (zh) * | 2019-03-21 | 2019-07-26 | 昆山杜克大学 | 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法 |
CN110321844A (zh) * | 2019-07-04 | 2019-10-11 | 北京万里红科技股份有限公司 | 一种基于卷积神经网络的快速虹膜检测方法 |
Non-Patent Citations (1)
Title |
---|
CUNJIAN CHEN 等: "A Multi-task Convolutional Neural Network for Joint Iris Detection and Presentation Attack Detection", 2018 IEEE WINTER APPLICATIONS OF COMPUTER VISION WORKSHOPS (WACVW) * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749687A (zh) * | 2021-01-31 | 2021-05-04 | 云知声智能科技股份有限公司 | 一种图片质量和静默活体检测多任务训练方法和设备 |
CN112860932A (zh) * | 2021-02-19 | 2021-05-28 | 电子科技大学 | 抵御恶意样本攻击的图像检索方法、装置、设备及存储介质 |
CN112860932B (zh) * | 2021-02-19 | 2022-08-12 | 电子科技大学 | 抵御恶意样本攻击的图像检索方法、装置、设备及存储介质 |
CN113052150A (zh) * | 2021-05-24 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
CN113052150B (zh) * | 2021-05-24 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、电子设备和计算机可读存储介质 |
CN114373218A (zh) * | 2022-03-21 | 2022-04-19 | 北京万里红科技有限公司 | 一种用于检测活体对象的卷积网络的生成方法 |
CN114373218B (zh) * | 2022-03-21 | 2022-06-14 | 北京万里红科技有限公司 | 一种用于检测活体对象的卷积网络的生成方法 |
CN115100730A (zh) * | 2022-07-21 | 2022-09-23 | 北京万里红科技有限公司 | 虹膜活体检测模型的训练方法、虹膜活体检测方法及装置 |
CN115100730B (zh) * | 2022-07-21 | 2023-08-08 | 北京万里红科技有限公司 | 虹膜活体检测模型的训练方法、虹膜活体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111611851B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259982B (zh) | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 | |
CN111611851A (zh) | 模型生成方法、虹膜检测方法及装置 | |
Salman et al. | Classification of real and fake human faces using deep learning | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN109522798A (zh) | 基于活体识别的视频防伪方法、系统、装置及可存储介质 | |
CN109583364A (zh) | 图像识别方法及设备 | |
CN115131503A (zh) | 一种虹膜三维识别的健康监测方法及其系统 | |
CN111598144A (zh) | 图像识别模型的训练方法和装置 | |
CN117975170A (zh) | 基于大数据的医疗信息处理方法及系统 | |
CN112861743B (zh) | 一种掌静脉图像防伪方法、装置和设备 | |
Pal et al. | Advanced convolutional neural network model to identify melanoma skin cancer | |
Patil et al. | Techniques of deep learning for image recognition | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN112818899A (zh) | 人脸图像处理方法、装置、计算机设备和存储介质 | |
CN111860601A (zh) | 预测大型真菌种类的方法及装置 | |
CN116168438A (zh) | 关键点检测方法、装置及电子设备 | |
CN112668668B (zh) | 一种术后医学影像评估方法、装置、计算机设备及存储介质 | |
CN115116117A (zh) | 一种基于多模态融合网络的学习投入度数据的获取方法 | |
Zheng et al. | WPNet: Wide Pyramid Network for Recognition of HER2 Expression Levels in Breast Cancer Evaluation | |
Santos et al. | Detection of Fundus Lesions through a Convolutional Neural Network in Patients with Diabetic Retinopathy | |
KR102498316B1 (ko) | 디지털 병리 의료 영상 이상탐지 모델의 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN117636416B (zh) | 基于人脸不适度的人脸伪造与活体联合检测方法和相关设备 | |
CN114757943B (zh) | 一种数字影像人工智能分析方法和系统 | |
Raju et al. | Reduce Overfitting and Improve Deep Learning Models' Performance in Medical Image Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |