CN113205082A - 基于采集不确定性解耦的鲁棒虹膜识别方法 - Google Patents
基于采集不确定性解耦的鲁棒虹膜识别方法 Download PDFInfo
- Publication number
- CN113205082A CN113205082A CN202110689241.1A CN202110689241A CN113205082A CN 113205082 A CN113205082 A CN 113205082A CN 202110689241 A CN202110689241 A CN 202110689241A CN 113205082 A CN113205082 A CN 113205082A
- Authority
- CN
- China
- Prior art keywords
- uncertainty
- image
- decoupling
- difficulty
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012549 training Methods 0.000 claims abstract description 16
- 230000014509 gene expression Effects 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 33
- 239000000126 substance Substances 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000013135 deep learning Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 4
- 230000002779 inactivation Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供基于采集不确定性解耦的鲁棒虹膜识别方法,为了解决低配合虹膜识别中不确定采集因素对身份特征的影响,探究了采集过程中来自眼、设备、环境的不确定因素,从像素层和特征层出发,分别提出了归一化虹膜图像增强方法和不确定性嵌入表达来解决采集不确定性问题。前者在像素层依据图像的局部和全局统计量逐步对图像进行调整;后者则在特征层使用高斯分布来表示图像,事实上将身份信息从采集因素中解耦出来。此外,还提出了不确定性导向的训练策略让模型按照样本的不确定性从易到难进行学习,以获得更鲁棒的特征表达。
Description
技术领域
本发明涉及图像处理领域,具体涉及基于采集不确定性解耦的鲁棒虹膜识别方法。
背景技术
虹膜识别由于其极高的识别精度被视为未来监控场景下具有广阔应用前景的生物特征识别技术。然而,虹膜识别在配合度较低的监控场景下不可避免地会受多种因素影响,比如眼睛(运动、位置、遮挡)、设备(光学镜头、传感器、电子控制单元),以及环境(照明)。这些不确定的采集因素不仅使得采集设备难以捕获让人满意的虹膜图像,也让成像结果之间存在显著的差异,导致了巨大的类内差异。
为了缩小这种分歧,必须要采用强大的特征提取器来学习紧凑的特征表示。传统的虹膜识别方法如对数Gabor、定序编码等将虹膜图像编码为二进制模板,而深度虹膜识别方法如Maxout、动态图表示法则采用深度神经网络来生成特征向量。这两类方法都是基于确定点来表示虹膜图像,并在特征层缩小类内距离。然后,这些方法却忽略了造成类内差异的更深层次原因,即数据的不确定性导致类内距离。诚然,为了进一步减少确定点特征表达中的类内距离,研究人员也开发了许多虹膜识别技巧,如模板位移、掩码和模板二值化等,甚至尝试增加模型容量来缩小类内距离。但这些旨在利用计算资源换取性能提升的技巧依旧受限于确定点特征表达,难以有效消除虹膜数据中的不确定性,无法显著的提升识别方法在低配合度场景中的表现。
申请公布号CN102629319B公开了一种基于特定边界检测子的鲁棒虹膜区域分割方法。该方法包括以下步骤:S1:构建左、右内边界、左、右外边界以及上、下眼皮边界六个虹膜特定边界训练数据集和候选特征集合;S2:使用级联的自适应学习算法构建六个虹膜特定边界检测子;S3:利用左、右内边界检测子和加权霍夫变换定位虹膜内边界;S4:利用左、右外边界检测子和加权霍夫变换定位虹膜外边界;S5:利用上、下眼皮边界检测子和鲁棒最小二乘法定位上下眼皮边界。
现有技术存在的问题是:低配合场景下的虹膜识别难点主要集中在于不确定的采集因素导致了不稳定的虹膜成像,这使得采集到的虹膜图像不仅包含身份信息,同时也与采集因素(或采集过程)息息相关。现有的确定点特征表示方法忽略了采集因素对特征提取的影响,影响了特征提取器学习,使得采集因素模糊了最终的特征表达。
发明内容
有鉴于此,本发明提供一种基于采集不确定性解耦的鲁棒虹膜识别方法,具体地,本发明是通过如下技术方案实现的:
S1:对低配合条件下采集的原始虹膜图像X raw进行虹膜预处理操作,得到虹膜归一化图像X;
S2:应用滑动窗口对所述虹膜归一化图像X的窗口中心像素点进行像素局部增强,得到局部增强图像X n local(h,w);
再应用局部增强图像X n local(h,w)计算全局一阶统计量X n M和全局二阶统计量X n S;
最后,应用全局一阶统计量、全局二阶统计量和局部增强图像X n local(h,w)计算得到增强图像X out(h,w);
S3:将增强图像X out(h,w)输入深度学习网络,得到均值u n 和方差σ n ;
应用均值u n 和方差σ n 构建不确定性嵌入表达p(X out);
最后应用均值u n 和方差σ n 计算KL散度损失L kl 来对方差估计进行约束;
S4:从标准正态分布N(0,I)中随机生成一组随机数ɛ n ;
不确定性嵌入表达p(X out)依照所述随机数来进行采样,获得随机嵌入结果s n ;
将随机嵌入结果s n 输入分类矩阵,得到随机嵌入结果s n 的类别y n ;分类矩阵为全连接层;
利用随机数ɛ n 和所述方差σ n 来获得随机嵌入结果的样本难度得分r n ;
S5:根据训练迭代次数t来调整难度采样阈值a(t);
根据样本难度得分r n 和难度采样阈值a(t)构建样本难度评判函数p n ;
再根据样本难度评判函数p n 计算分类损失L cls ;
S6:将采样后的所述分类损失L cls 和KL散度损失L kl 加权相加获得最终的模型损失L;
应用Adam优化器对模型损失L不断迭代优化直至稳定收敛到一个最小值,获得最佳的模型参数,使得模型学得鲁棒均值u n 作为身份表达,并用于身份识别;
所述模型参数包括:所述深度学习网络的参数和分类矩阵的参数W C 。
优选地,得到局部增强图像X n local(h,w)的计算方法为:
对于虹膜归一化图像X,使用一个小大为3x3的滑动窗口来进行局部观察,统计窗口内像素均值,并将像素均值视为窗口中心像素应拥有的像素值,即:
其中,
i,j:控制滑动窗口的大小。
优选地,计算全局一阶统计量X n M和全局二阶统计量X n S的具体方法为:
其中,
H和W:分别表示图像X n local(h,w)的纵向高度和横向宽度;
得到增强图像X out(h,w)的计算方法为:
优选地,将所述增强图像X out(h,w)输入深度学习网络,得到均值u n 和方差σ n 的具体方法为:
将增强图像X out(h,w)传入主干网络来获得隐空间表示zn;
再将隐空间表示zn输入均值分支网络和方差分支网络,得到均值和方差;
均值分支网络和方差分支网络采用了相同的结构,参数不同。
优选地,应用均值u n 和方差σ n 构建不确定性嵌入表达p(X out)的具体方法为:
其中,
I n:大小为n×n的单位阵;
N(•):高斯分布。
优选地,应用均值u n 和方差σ n 计算KL散度损失L kl 的具体方法为:
其中,
N:样本数量;
D:均值、方差和随机数的特征长度。
优选地,获得随机嵌入结果s n 的具体方法为:
优选地,获得随机嵌入结果的样本难度得分r n 的具体方法为:
优选地,根据训练迭代次数t来调整难度采样阈值a(t)的具体方法为:
构建样本难度评判函数p n 的具体方法为:
当p n =1时,该样本为低困难样本,纳入模型损失计算;而p n =0时,该样本为高困难样本,不纳入当前模型损失计算。
优选地,分类损失L cls 的具体公式为:
其中,
W c :分类矩阵W C 中类别c对应的一列向量;
W yn :分类矩阵W C 中类别y n 对应的一列向量;
C:全部类别的总数;
g:特征放缩因子,设置参数,参数设置范围为60-65;
m:间隔参数,设置参数,参数设置范围为0.4-0.6。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:
缓解了低配合场景中降质虹膜图像识别难问题。本方法基于虹膜采集过程中的不确定因素,从增强图像和改善特征表达两方面出发来缓解虹膜图像中不确定性信息对身份特征的影响。此外,本方法还利用模型对不确定性的预测结果来区分高难度和低难度样本,并通过调节阈值的方式来不断将更多的样本扩充入低难度样本去参与模型训练。
附图说明
图1为本发明实施例提供的基于采集不确定性解耦的鲁棒虹膜识别方法的流程图;
图2为本发明实施例提供的不确定性嵌入表达深度学习网络结构图;
图3为本发明实施例提供的均值分支网络和方差分支网络结构图;
图4为本发明实施例提供的采样分类损失计算过程图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
如图1所示本申请实施例提供的基于采集不确定性解耦的鲁棒虹膜识别方法,包括:
S1:对低配合条件下采集的原始虹膜图像X raw进行虹膜预处理操作,得到虹膜归一化图像X;
S2:应用滑动窗口对所述虹膜归一化图像X的窗口中心像素点进行像素局部增强,得到局部增强图像X n local(h,w),计算方法为:
对于虹膜归一化图像X,使用一个小大为3x3的滑动窗口来进行局部观察,统计窗口内像素均值,并将所述像素均值视为窗口中心像素应拥有的像素值,即:
其中,
i,j:控制滑动窗口的大小;
滑动所述滑动窗口,并根据窗口均值来调整窗口中心像素,直至遍历图像的每个像素,实现了基于局部不确定性的增强;
再应用局部增强图像X n local(h,w)计算全局一阶统计量X n M和全局二阶统计量X n S,具体方法为:
其中,
H和W:分别表示图像X n local(h,w)的纵向高度和横向宽度;
最后,应用全局一阶统计量、全局二阶统计量和局部增强图像X n local(h,w)计算得到增强图像X out(h,w),计算方法为:
S3:如图2所示,将所述增强图像X out(h,w)输入Maxout网络,得到均值u n 和方差σ n ,具体方法为:
将增强图像X out(h,w)传入主干网络来获得隐空间表示zn;
再将隐空间表示zn输入均值分支网络和方差分支网络,得到所述均值和方差;
所述均值分支网络和方差分支网络采用了相同的结构,参数不同;
得到所述均值和方差的具体过程为:
如图3所示,隐空间表示zn通过批归一化层C0,然后传入失活概率为0.4的随机失活层C1,把获得的特征进行张量展开,获得向量;展开后的向量通过4800*512的全连接层C2,然后送入MFM层C3,最终再通过批归一化层C4,获得均值或方差输出;
应用所述均值u n 和方差σ n 构建不确定性嵌入表达p(X out),具体方法为:
其中,
I n:大小为n×n的单位阵;
N(•):高斯分布;
最后应用所述均值u n 和方差σ n 计算KL散度损失L kl 来对方差估计进行约束,具体方法为:
其中,
N:样本数量;
D:均值、方差和随机数的特征长度;
S4:从标准正态分布N(0,I)中随机生成一组随机数ɛ n ;
不确定性嵌入表达p(X out)依照所述随机数来进行采样,获得随机嵌入结果s n ,具体方法为:
将所述随机嵌入结果sn输入分类矩阵,得到随机嵌入结果sn的类别yn;所述分类矩阵为全连接层;
利用所述随机数ɛ n 和所述方差σ n 来获得随机嵌入结果的样本难度得分r n ,具体方法为:
S5:如图4所示,根据训练迭代次数t来调整难度采样阈值a(t),具体方法为:
根据所述样本难度得分r n 和难度采样阈值a(t)构建样本难度评判函数p n ,具体方法为:
当p n =1时,该样本为低困难样本,纳入模型损失计算;而p n =0时,该样本为高困难样本,不纳入当前模型损失计算;
再根据样本难度评判函数p n 计算分类损失L cls ,具体公式为:
其中,
W c :分类矩阵W C 中类别c对应的一列向量;
W yn :分类矩阵W C 中类别y n 对应的一列向量;
c:采集样本的全部类别数;
g:特征放缩因子,设置参数,参数设置范围为64;
m:间隔参数,设置参数,参数设置范围为0.5;
W c :分类矩阵W C 中类别c对应的一列向量,针对该部分的解释是一个无偏置(bias)全连接层(full),使用该层来进行标签分类,以提供每个特征不同的身份标签;全连接层的功能就是output = W^T*input的过程。这里的Wc就是全连接层中的权重W,该权重本身是一个可学习的参数。Wc是一个矩阵尺寸为D*c的数值随机初始化的线变换矩阵,不断迭代优化直至稳定收敛到一个最小值以获得最佳的模型参数(不确定性嵌入表达深度学习网络和线性变换矩阵)。
Wyn:分类矩阵 WC 中类别yn对应的一列向量;针对该部分的解释是一个无偏置(bias)全连接层(full),使用该层来进行标签分类,以提供每个特征不同的身份标签;全连接层的功能就是output = W^T*input的过程。这里的Wc就是全连接层中的权重W,该权重本身是一个可学习的参数。Wc是一个矩阵尺寸为D*c的数值随机初始化的线变换矩阵,不断迭代优化直至稳定收敛到一个最小值以获得最佳的模型参数(不确定性嵌入表达深度学习网络和线性变换矩阵)。
应用Adam优化器对模型损失L不断迭代优化直至稳定收敛到一个最小值,获得最佳的模型参数,使得模型学得鲁棒均值u n 作为身份表达,并用于身份识别;
所述模型参数包括:所述深度学习网络的参数和分类矩阵的参数WC。
实施例2:
基于采集不确定性解耦的鲁棒虹膜识别方法,其特征在于,所述方法包括:
S1:进入CASIA-IrisV4数据集官网,如http://www.cripacsir.cn/dataset/casia-
irisv4/下载CASIA-IrisV4-Interval数据集。该数据集包括250个个体双眼的眼周图像,其中全部个体的左眼图像(L文件夹内,共计198类1332张)做训练数据,用于模型训练;全部个体的右眼图像(R文件夹内,共计197类1307张,正样本4,478对,负样本848,993对)做测试数据,用于模型测试。
使用开源的虹膜预处理项目TVMIRIS(https://www4.comp.polyu.edu.hk/
~csajaykr/tvmiris.htm)对训练数据和测试数据进行预处理,得到虹膜归一化图像X;
S2:应用滑动窗口对所述虹膜归一化图像X的窗口中心像素点进行像素局部增强,得到局部增强图像X n local(h,w),计算方法为:
对于虹膜归一化图像X,使用一个小大为3x3的滑动窗口来进行局部观察,统计窗口内像素均值,并将所述像素均值视为窗口中心像素应拥有的像素值,即:
其中,
i,j:控制滑动窗口的大小;
滑动所述滑动窗口,并根据窗口均值来调整窗口中心像素,直至遍历图像的每个像素,实现了基于局部不确定性的增强;
再应用局部增强图像X n local(h,w)计算全局一阶统计量X n M和全局二阶统计量X n S,具体方法为:
其中,
H和W:分别表示图像X n local(h,w)的纵向高度和横向宽度;
最后,应用全局一阶统计量、全局二阶统计量和局部增强图像X n local(h,w)计算得到增强图像X out(h,w),计算方法为:
S3:如图2所示,将所述增强图像X out(h,w)输入Maxout网络,得到均值u n 和方差σ n ,具体方法为:
将增强图像X out(h,w)传入主干网络来获得隐空间表示zn;
再将隐空间表示zn输入均值分支网络和方差分支网络,得到所述均值和方差;
所述均值分支网络和方差分支网络采用了相同的结构,参数不同;
得到所述均值和方差的具体过程为:
如图3所示,隐空间表示zn通过批归一化层C0,然后传入失活概率为0.4的随机失活层C1,把获得的特征进行张量展开,获得向量;展开后的向量通过4800*512的全连接层C2,然后送入MFM层C3,最终再通过批归一化层C4,获得均值或方差输出;
应用所述均值u n 和方差σ n 构建不确定性嵌入表达p(X out),具体方法为:
其中,
I n:大小为n×n的单位阵;
N(•):高斯分布;
最后应用所述均值u n 和方差σ n 计算KL散度损失L kl 来对方差估计进行约束,具体方法为:
其中,
N:样本数量;
D:均值、方差和随机数的特征长度;
S4:从标准正态分布N(0,I)中随机生成一组随机数ɛ n ;
不确定性嵌入表达p(X out)依照所述随机数来进行采样,获得随机嵌入结果s n ,具体方法为:
利用所述随机数ɛ n 和所述方差σ n 来获得随机嵌入结果的样本难度得分r n ,具体方法为:
S5:如图4所示,更新当前训练迭代次数t,如果当前为首次迭代则t=0,否则,根据训练迭代次数t来调整难度采样阈值a(t),具体方法为:
根据所述样本难度得分r n 和难度采样阈值a(t)构建样本难度评判函数p n ,具体方法为:
当p n =1时,该样本为低困难样本,纳入模型损失计算;而p n =0时,该样本为高困难样本,不纳入当前模型损失计算;
再根据样本难度评判函数p n 计算分类损失L cls ,具体公式为:
其中,
Wc:分类矩阵,WC 中类别c对应的一列向量;
W yn :分类矩阵W C 中类别y n 对应的一列向量;
c:采集样本的全部类别数;
g:特征放缩因子,设置参数,参数设置范围为64;
m:间隔参数,设置参数,参数设置范围为0.5;
W c :分类矩阵W C 中类别c对应的一列向量,针对该部分的解释是一个无偏置(bias)全连接层(full),使用该层来进行标签分类,以提供每个特征不同的身份标签;全连接层的功能就是output = W^T*input的过程。这里的Wc就是全连接层中的权重W,该权重本身是一个可学习的参数。Wc是一个矩阵尺寸为D*c的数值随机初始化的线变换矩阵,不断迭代优化直至稳定收敛到一个最小值以获得最佳的模型参数(不确定性嵌入表达深度学习网络和线性变换矩阵)。
Wyn:分类矩阵 WC 中类别yn对应的一列向量;针对该部分的解释是一个无偏置(bias)全连接层(full),使用该层来进行标签分类,以提供每个特征不同的身份标签;全连接层的功能就是output = W^T*input的过程。这里的Wc就是全连接层中的权重W,该权重本身是一个可学习的参数。Wc是一个矩阵尺寸为D*c的数值随机初始化的线变换矩阵,不断迭代优化直至稳定收敛到一个最小值以获得最佳的模型参数(不确定性嵌入表达深度学习网络和线性变换矩阵)。
S6:将采样后的所述分类损失L cls 和所述KL散度损失L kl 加权相加获得最终的模型损失L;
通过学习率为0.001Adam优化器对模型损失L不断迭代优化,重复步骤S2- S6,直至稳定收敛到一个最小值,使得模型学得鲁棒均值u n 作为身份表达,并用于身份识别。
S7:身份验证:
选择测试图像中的任意一对图像X n1和X n2,将S2中的训练图像替换为这两张测试图像,进行步骤S2-S4,获得测试图像数据的均值u n1和u n2,计算两个均值向量之间的相似度得分:
式中||•||计算了向量的二范数,T表示转置操作;sim(u n1,u n2)度量了X n1和X n2之间的相似度分数。依据该相似度判断图像对是否来自同一个人,若相似度得分越高则这两张图像属于同一个人的概率越大。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本说明书中描述的主题及功能操作的实施例可以在以下中实现:数字电子电路、有形体现的计算机软件或固件、包括本说明书中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本说明书中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理单元。通常,中央处理单元将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本说明书内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (10)
1.基于采集不确定性解耦的鲁棒虹膜识别方法,其特征在于,所述方法包括:
S1:对低配合条件下采集的原始虹膜图像X raw进行虹膜预处理操作,得到虹膜归一化图像X;
S2:应用滑动窗口对所述虹膜归一化图像X的窗口中心像素点进行像素局部增强,得到局部增强图像X n local(h,w);
再应用局部增强图像X n local(h,w)计算全局一阶统计量X n M和全局二阶统计量X n S;
最后,应用全局一阶统计量、全局二阶统计量和局部增强图像X n local(h,w)计算得到增强图像X out(h,w);
S3:将所述增强图像X out(h,w)输入深度学习网络,得到均值u n 和方差σ n ;
应用所述均值u n 和方差σ n 构建不确定性嵌入表达p(X out);
最后应用所述均值u n 和方差σ n 计算KL散度损失L kl 来对方差估计进行约束;
S4:从标准正态分布N(0,I)中随机生成一组随机数ɛ n ;
不确定性嵌入表达p(X out)依照所述随机数来进行采样,获得随机嵌入结果s n ;
将所述随机嵌入结果s n 输入分类矩阵,得到随机嵌入结果s n 的类别y n ;所述分类矩阵为全连接层;
利用所述随机数ɛ n 和所述方差σ n 来获得随机嵌入结果的样本难度得分r n ;
S5:根据训练迭代次数t来调整难度采样阈值a(t);
根据所述样本难度得分r n 和难度采样阈值a(t)构建样本难度评判函数p n ;
再根据样本难度评判函数p n 计算分类损失L cls ;
S6:将采样后的所述分类损失L cls 和所述KL散度损失L kl 加权相加获得最终的模型损失L;
应用Adam优化器对模型损失L不断迭代优化直至稳定收敛到一个最小值,获得最佳的模型参数,使得模型学得鲁棒均值u n 作为身份表达,并用于身份识别;
所述模型参数包括:所述深度学习网络的参数和分类矩阵的参数W C 。
4.根据权利要求3所述的基于采集不确定性解耦的鲁棒虹膜识别方法,其特征在于,所述将所述增强图像X out(h,w)输入深度学习网络,得到均值u n 和方差σ n 的具体方法为:
将增强图像X out(h,w)传入主干网络来获得隐空间表示zn;
再将隐空间表示zn输入均值分支网络和方差分支网络,得到所述均值和方差;
所述均值分支网络和方差分支网络采用了相同的结构,参数不同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110689241.1A CN113205082B (zh) | 2021-06-22 | 2021-06-22 | 基于采集不确定性解耦的鲁棒虹膜识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110689241.1A CN113205082B (zh) | 2021-06-22 | 2021-06-22 | 基于采集不确定性解耦的鲁棒虹膜识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113205082A true CN113205082A (zh) | 2021-08-03 |
CN113205082B CN113205082B (zh) | 2021-10-15 |
Family
ID=77022581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110689241.1A Active CN113205082B (zh) | 2021-06-22 | 2021-06-22 | 基于采集不确定性解耦的鲁棒虹膜识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205082B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135508A (zh) * | 2019-05-21 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
US20200005182A1 (en) * | 2018-06-27 | 2020-01-02 | Fujitsu Limited | Selection method, selection apparatus, and recording medium |
CN110765363A (zh) * | 2019-09-27 | 2020-02-07 | 复旦大学 | 一种基于高斯分布表示的深度推荐模型 |
US10572802B1 (en) * | 2018-11-15 | 2020-02-25 | University Of South Florida | Learning state-dependent sensor measurement models for localization |
CN110910004A (zh) * | 2019-11-18 | 2020-03-24 | 国电湖南巫水水电开发有限公司 | 一种多重不确定性的水库调度规则提取方法及系统 |
CN111340105A (zh) * | 2020-02-25 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练方法、图像分类方法、装置及计算设备 |
CN111339988A (zh) * | 2020-03-11 | 2020-06-26 | 福州大学 | 基于动态间隔损失函数和概率特征的视频人脸识别方法 |
CN111582365A (zh) * | 2020-05-06 | 2020-08-25 | 吉林大学 | 一种基于样本难度的垃圾邮件分类方法 |
WO2020216621A1 (de) * | 2019-04-26 | 2020-10-29 | Robert Bosch Gmbh | Training trainierbarer module mit lern-daten, deren labels verrauscht sind |
CN111968107A (zh) * | 2020-08-31 | 2020-11-20 | 合肥奥比斯科技有限公司 | 基于不确定度的早产儿视网膜病plus病变分类系统 |
CN112016626A (zh) * | 2020-08-31 | 2020-12-01 | 南京泰明生物科技有限公司 | 基于不确定度的糖尿病视网膜病变分类系统 |
US10902291B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to segmentation while performing automatic verification by using uncertainty scores and devices using the same |
CN112348190A (zh) * | 2020-10-26 | 2021-02-09 | 福州大学 | 一种基于改进的嵌入模型suke的不确定知识图预测方法 |
-
2021
- 2021-06-22 CN CN202110689241.1A patent/CN113205082B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200005182A1 (en) * | 2018-06-27 | 2020-01-02 | Fujitsu Limited | Selection method, selection apparatus, and recording medium |
US10572802B1 (en) * | 2018-11-15 | 2020-02-25 | University Of South Florida | Learning state-dependent sensor measurement models for localization |
WO2020216621A1 (de) * | 2019-04-26 | 2020-10-29 | Robert Bosch Gmbh | Training trainierbarer module mit lern-daten, deren labels verrauscht sind |
CN110135508A (zh) * | 2019-05-21 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备及计算机可读存储介质 |
CN110765363A (zh) * | 2019-09-27 | 2020-02-07 | 复旦大学 | 一种基于高斯分布表示的深度推荐模型 |
CN110910004A (zh) * | 2019-11-18 | 2020-03-24 | 国电湖南巫水水电开发有限公司 | 一种多重不确定性的水库调度规则提取方法及系统 |
CN111340105A (zh) * | 2020-02-25 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练方法、图像分类方法、装置及计算设备 |
CN111339988A (zh) * | 2020-03-11 | 2020-06-26 | 福州大学 | 基于动态间隔损失函数和概率特征的视频人脸识别方法 |
CN111582365A (zh) * | 2020-05-06 | 2020-08-25 | 吉林大学 | 一种基于样本难度的垃圾邮件分类方法 |
US10902291B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to segmentation while performing automatic verification by using uncertainty scores and devices using the same |
CN111968107A (zh) * | 2020-08-31 | 2020-11-20 | 合肥奥比斯科技有限公司 | 基于不确定度的早产儿视网膜病plus病变分类系统 |
CN112016626A (zh) * | 2020-08-31 | 2020-12-01 | 南京泰明生物科技有限公司 | 基于不确定度的糖尿病视网膜病变分类系统 |
CN112348190A (zh) * | 2020-10-26 | 2021-02-09 | 福州大学 | 一种基于改进的嵌入模型suke的不确定知识图预测方法 |
Non-Patent Citations (5)
Title |
---|
JIE CHANG 等: "Data Uncertainty Learning in Face Recognition", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
XIWEN YAO 等: "Automatic Weakly Supervised Object Detection From High Spatial Resolution Remote Sensing Images via Dynamic Curriculum Learning", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 * |
YAN LI 等: "Loss Rescaling by Uncertainty Inference For Single-Stage Object Detection", 《2020 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 * |
王财勇 等: "虹膜分割算法评价基准", 《计算机研究与发展》 * |
赵婷婷 等: "模型化强化学习研究综述", 《计算机科学与探索》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113205082B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523621B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN110633745B (zh) | 一种基于人工智能的图像分类训练方法、装置及存储介质 | |
CN106415594B (zh) | 用于面部验证的方法和系统 | |
CN110796057A (zh) | 行人重识别方法、装置及计算机设备 | |
CN112800876B (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN109190544B (zh) | 一种基于序列深度图像的人体身份识别方法 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
WO2016086330A1 (en) | A method and a system for face recognition | |
CN112560710B (zh) | 一种用于构建指静脉识别系统的方法及指静脉识别系统 | |
CN110705600A (zh) | 一种基于互相关熵的多深度学习模型融合方法、终端设备及可读存储介质 | |
CN107633527B (zh) | 基于全卷积神经网络的目标追踪方法及装置 | |
CN112861743B (zh) | 一种掌静脉图像防伪方法、装置和设备 | |
CN112613474B (zh) | 一种行人重识别的方法和装置 | |
CN111652320B (zh) | 一种样本分类方法、装置、电子设备及存储介质 | |
CN109815887B (zh) | 一种基于多智能体协作的复杂光照下人脸图像的分类方法 | |
CN113205082B (zh) | 基于采集不确定性解耦的鲁棒虹膜识别方法 | |
CN111242114A (zh) | 文字识别方法及装置 | |
CN116232699A (zh) | 细粒度网络入侵检测模型的训练方法和网络入侵检测方法 | |
Pryor et al. | Deepfake Detection Analyzing Hybrid Dataset Utilizing CNN and SVM | |
CN111553202B (zh) | 进行活体检测的神经网络的训练方法、检测方法及装置 | |
CN113449751B (zh) | 基于对称性和群论的物体-属性组合图像识别方法 | |
CN112613341A (zh) | 训练方法及装置、指纹识别方法及装置、电子设备 | |
CN116912921B (zh) | 表情识别方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |