CN114445904A - 基于全卷积神经网络的虹膜分割方法和装置、介质和设备 - Google Patents

基于全卷积神经网络的虹膜分割方法和装置、介质和设备 Download PDF

Info

Publication number
CN114445904A
CN114445904A CN202111561511.7A CN202111561511A CN114445904A CN 114445904 A CN114445904 A CN 114445904A CN 202111561511 A CN202111561511 A CN 202111561511A CN 114445904 A CN114445904 A CN 114445904A
Authority
CN
China
Prior art keywords
iris
layer
size
mask
convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111561511.7A
Other languages
English (en)
Inventor
张颖捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Radio Metrology and Measurement
Original Assignee
Beijing Institute of Radio Metrology and Measurement
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Radio Metrology and Measurement filed Critical Beijing Institute of Radio Metrology and Measurement
Priority to CN202111561511.7A priority Critical patent/CN114445904A/zh
Publication of CN114445904A publication Critical patent/CN114445904A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于全卷积神经网络的虹膜分割方法和装置、介质和设备。在一个具体的实施例中,所述方法包括将预处理后的虹膜图像输入训练好的压缩模型,进行预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;将压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;将虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。

Description

基于全卷积神经网络的虹膜分割方法和装置、介质和设备
技术领域
本发明涉及互联网应用技术领域。更具体地,涉及一种基于全卷积神经网络的虹膜分割方法和装置、介质和设备。
背景技术
近年来,通过生物识别来进行身份验证在银行、边境、门禁控制等安全领域中越来越普遍,包括指纹识别、人脸识别、虹膜识别等生物识别技术已经广泛地出现在我们的生活中。在各类生物识别信息中,虹膜因为其高可靠性、高稳定性以及非接触性,受到了很多研究者的关注。虹膜识别主要包括虹膜获取、虹膜分割、归一化、虹膜编码、虹膜匹配五个步骤。其中虹膜分割是指从获取到的虹膜图片中分割出虹膜区域。作为后续识别过程的基础,虹膜分割对整个虹膜识别过程的速度和准确率都有重要影响。
传统的虹膜分割算法主要依靠数字图像处理技术,根据虹膜图像的灰度和梯度信息来进行分割,以微分-差分算法和霍夫变换算法为主要代表。传统方法的主要问题在于参数空间非常大,带来了大量的计算耗时。同时传统方法只能处理高质量的虹膜图片,需要用户在虹膜获取过程中高度配合,否则睫毛、眼睑等的遮挡,以及反光、阴影等都会影响到计算结果。
随着人工智能的发展,深度学习技术在计算机视觉的各项任务中取得了超越传统方法的表现。虹膜分割作为计算机视觉的任务之一,也在被积极探索着使用深度学习技术的可能性。但是不同于一般的图像分割任务,虹膜分割对于算法的准确率、鲁棒性、实时性都有着极高的要求。另外大部分基于深度学习的虹膜分割方法只能得到虹膜掩码,为了进行后续的归一化,还需要使用其他方式在虹膜掩码的基础上得到虹膜内外边界的信息,这种方式区别于以往算法的先得到内外边界再得到虹膜掩码,对于遮挡严重的情况很容易出现定位错误。
发明内容
为了解决上述问题,本发明的目的在于提供一种基于全卷积神经网络的虹膜分割方法和装置、介质和设备。
为达到上述目的,本发明采用下述技术方案:
本发明第一方面提供了一种基于全卷积神经网络的虹膜分割方法,所述方法包括:
对采集到的虹膜图像进行预处理;
将预处理后的虹膜图像输入训练好的压缩模型,进行所述预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;
将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;
将所述虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与所述压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;
对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;
通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
进一步地,所述对采集到的虹膜图像进行预处理包括:
使用均值消减法对所述采集到的虹膜图像进行预处理,从而凸显虹膜特征,并通过中心裁剪和/或缩放的方式对所述虹膜图像的尺寸进行调整以得到预设尺寸的虹膜图像。
进一步地,所述训练好的压缩模型的结构如下:
第一层为卷积层,包括64个尺寸为3*3*3的卷积核,步长为1,该层使用SAME模式填充,以保证卷积前后特征大小不变,只有通道数变化;
第二层为卷积层,包括64个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output0;
第三层为最大池化层,其步长为2,大小为2*2;
第四层为卷积层,包括128个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充;
第五层为卷积层,包括128个3*3*128的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output1;
第六层为最大池化层,其步长为2,大小为2*2;
第七层为卷积层,其包括256个3*3*128的卷积核,步长为1,该层使用SAME模式填充;
第八层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第九层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output2;
第十层为最大池化层,其步长为2,大小为2*2;
第十一层为卷积层,其包括512个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第十二层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十三层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output3;
第十四层为最大池化层,其步长为2,大小为2*2;
第十五层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十六层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十七层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵为压缩虹膜特征P;
其中,每个卷积层后面都跟随一个ReLU激活函数。
进一步地,所述将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重包括:
使用全局平均池化,得到压缩虹膜特征P的全局平均值AdaptiveAvgPool(P),然后用由256个尺寸为1*1*512的卷积核组成的卷积层进行卷积,接着用线性插值进行上采样,将全局平均值AdaptiveAvgPool(P)恢复至原始大小,计算公式为:
G(P)=Up(Conv1×1(AdaptiveAvgPool(P)))……(1)
其中,Conv1×1(AdaptiveAvgPool(P))表示卷积层的输出结果;
Up(Conv1×1(AdaptiveAvgPool(P)))表示上采样输出结果;
用256个尺寸为1*1*512的卷积核对所述压缩虹膜特征P进行卷积,最后一个卷积层的输出为D1(P):
D1(P)=Conv1×1(P)……(2)
分别使用空洞率为6、12、18的空洞卷积对所述压缩虹膜特征P进行卷积,3个空洞卷积分别包括256个尺寸为3*3*512的卷积核:
Figure BDA0003420621460000031
Figure BDA0003420621460000032
Figure BDA0003420621460000041
将所述各卷积层的输出结果G(P)、D1(P)、D2(P)、D3(P)和D4(P)在通道维度上进行拼接,然后进行两次卷积,并用sigmoid()激活函数进行激活,得到注意力机制的输出权重W:
Figure BDA0003420621460000042
W=Sigmoid(Conv3×3(Conv3×3(H)))……(7)
其中
Figure BDA0003420621460000043
符号表示在通道维度上的拼接,H表示拼接的结果;
将所述压缩虹膜特征P与输出权重W进行逐元素点乘,并与自身进行拼接,得到注意力机制的最终输出虹膜特征P’:
Figure BDA0003420621460000044
其中
Figure BDA0003420621460000045
符号表示在通道维度上的拼接,
Figure BDA0003420621460000046
表示逐元素点乘。
所述训练好的扩张模型的结构如下:
第一层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,输出通道数为1024,其输出矩阵记为up0;
第二层为拼接层,其将up0和output3按照通道数进行拼接;
第三层为卷积层,其包括768个尺寸为3*3*1536的卷积核;
第四层为卷积层,其包括256个3*3*786的卷积核;
第五层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up1;
第六层为拼接层,将up1和output2按照通道数进行拼接;
第七层为卷积层,其包括256个尺寸为3*3*512的卷积核;
第八层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第九层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up2;
第十层为拼接层,将up2和output1按照通道数进行拼接;
第十一层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第十二层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十三层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up3;
第十四层为拼接层,将所述up3和output0按照通道数进行拼接;
第十五层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十六层为卷积层,其包括32个尺寸为3*3*64的卷积核,其输出结果记为所述扩张模型的输出结果;
其中,每一个卷积层后面都跟随一个批归一化和ReLU激活函数。
进一步地,所述对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界包括:
将所述扩张模型的输出结果输入由3个尺寸为1*1*32的卷积核组成的卷积层,将所述卷积层的输出结果的通道数设置为3,对其输出结果进行通道分割,使用sigmoid函数将输出结果的值置为[0,1]之间,再乘以255归为整数,得到网络的最终输出结果即虹膜掩码、瞳孔掩码和虹膜外边界。
进一步地,所述通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息包括:
分别使用固定阈值对所述虹膜掩码、瞳孔掩码和虹膜外边界进行二值化,得到有效像素;
使用形态学闭运算连接虹膜边界中的微小断点,使虹膜外边界更加完整;
分别提取所述虹膜掩码、瞳孔掩码和虹膜外边界中的8连通域;
两两计算虹膜掩码连通域和瞳孔掩码连通域,以及虹膜掩码连通域和虹膜外边界掩码连通域之间的切比雪夫距离得到候选三元组集;
在候选三元组集中选择最大的一个三元组,其成员即为候选的虹膜掩码、瞳孔掩码和虹膜外边界;
从所述候选的瞳孔掩码和虹膜外边界中提取轮廓,并用轮廓上的点进行最小二乘圆拟合,即可得到优化后的虹膜内外边界的中心坐标和半径;
根据优化后的虹膜内外边界对所述候选的虹膜掩码进行优化,去除内外边界以外的部分得到优化后的虹膜掩码。
本发明第二方面提供了一种一种基于全卷积神经网络的虹膜分割装置,所述装置包括:
虹膜图像采集模块,用于捕获虹膜图像;
虹膜图像预处理模块,用于将虹膜图像采集模块得到的虹膜图像进行预处理操作,得到预处理后的虹膜图像;
虹膜图像压缩模块,用于将虹膜图像预处理模块得到的预处理后的虹膜图像输入到训练好的压缩模型,得到对应的特征和压缩虹膜特征P;
虹膜图像处理模块,用于通过注意力模块为所述虹膜图像压缩模块输出的压缩虹膜特征P的不同像素分配不同的权重,并得到虹膜特征P’;
虹膜图像扩张模块,用于对压缩后的虹膜特征P’进行上采样使其扩张到原始大小,并在通道维度上与所述虹膜图像压缩模块输出的对应特征进行拼接融合;
虹膜图像分割模块,用于对所述虹膜图像扩张模块的输出结果进行通道分离得到虹膜掩码、瞳孔掩码和虹膜外边界;
虹膜图像后处理模块,用于通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
本发明第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有应用程序,其中所述应用程序被处理器执行时实现本发明第一方面提供的一种基于全卷积神经网络的虹膜图像分割方法。
本发明第四方面提供了一种终端设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时可实现本发明第一方面提供的一种基于全卷积神经网络的虹膜图像分割方法
本发明的有益效果:
本发明所提供的技术方案,基于全卷积神经网络进行虹膜分割,具有高精度和高鲁棒性,适用于各类虹膜图像的分割,有助于提升整体虹膜识别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本发明的一个实施例提供的一种基于全卷积神经网络的虹膜分割方法的步骤图。
图2示出本发明实施例提供的一种全卷积神经网络的示意图。
图3示出本大明实施例提供的一种图像后处理方法的步骤图
图4示出本发明实施例提供的一种基于全卷积神经网络的虹膜分割装置的示意图。
图5示出实现本发明实施例提供的装置的计算机系统的结构示意图。
具体实施方式
为了使本领域的技术人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及以上附图中的术语“第一”、“第二”等是用于区分类别的对象,而不必用于描述特定的顺序或先后次序。应该理解,这样使用的对象在适当的情况下可以互换,以便这里描述的本发明的实施例能够以除了这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一些列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的那些步骤或单元。
第一实施例-一种基于全卷积神经网络的虹膜分割方法,如图1所示,本实施例提供的虹膜分割方法包括如下步骤:
S1:对采集到的虹膜图像进行预处理;
S2:将预处理后的虹膜图像输入训练好的压缩模型,进行所述预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;
S3:将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;
S4:将所述虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与所述压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;
S5:对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;
S6:通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
在一种可能的实现方式中,所述对采集到的虹膜图像进行预处理包括:
使用均值消减法对所述采集到的虹膜图像进行预处理,从而凸显虹膜特征,并通过中心裁剪和/或缩放的方式对所述虹膜图像的尺寸进行调整以得到预设尺寸的虹膜图像。
本领域技术人员能够理解的是,虹膜掩码为一张黑白图像,其中白色像素表示虹膜像素,黑色像素表示非虹膜像素。虹膜内外边界均用黑色背景图像上的一个圆形来表示。这里由于虹膜分割网络输出的边界宽度会大于1,因此使用形态学膨胀将标注的圆形宽度变宽。
在进行全卷积神经网络的训练时,需对采集到的虹膜图像进行人工标注和预处理,需要在虹膜图像上人工标注虹膜掩码以及虹膜内外边界,在预处理部分,使用数据增强方式来解决虹膜图像数据不充足的问题。在图像的深度学习中,为了丰富图像训练集,更好的提取图像特征,泛化模型,一般都会对数据图像进行数据增强。本发明实例使用的数据增强手段有:随机图像尺寸缩放、随机图像模糊、随机平移、随机旋转、随机翻转和随机裁剪。
以所述经过人工标注和预处理的虹膜图像作为训练集训练所述全卷积神经网络,所述全卷积神经网络结构包括:压缩模型、注意力模块和扩张模型。
在一个具体的实施例中,所述压缩模型共分为五个阶段,其中包含了多个卷积层和池化层。卷积层使用的卷积核大小均为3×3,卷积输出的通道数分别为64、128、256、512、512。每个卷积层后面都会跟随一个ReLU激活函数。前四个阶段的最后会使用一个2×2的最大池化层来进行降采样,同时扩大卷积层的感受野。可以看出,随着网络的加深,虹膜特征图的通道数不断增加,而尺寸逐渐减少。也就是说在前几个阶段,卷积提取的是图像中较低层次的空间信息,而在后期提取的则是较高层次的语义信息。
在收缩模块和扩张模型之间有一个过渡阶段,收缩模块从虹膜图像中逐步提取高维度的特征,又在扩张模型中根据得到的压缩特征逐步扩张出分割结果,因此在过渡阶段的处理对网络的分割结果尤为重要。注意力机制是深度学习中的一种机制,它启发于人类在观察一副图片时往往会把注意力放在图片中的重要部分而忽视其他不重要的部分。在深度学习网络中,也能够为图像中的每个像素训练出一个权重值,从而在后续处理中使权重更大、更关键的像素起到更重要的作用。
在一种可能的实现方式中,所述注意力模块共有5个并行处理:
使用全局平均池化和1×1的卷积得到一个全局信息,然后再上采样至原始压缩特征大小;对压缩特征进行1×1的卷积;分别使用空洞率为6、12、18的3×3的卷积对压缩特征卷积;
然后将5个并行模块的输出结果在通道维度上拼接,进行两次卷积,并用sigmoid函数进行调整,得到的就是注意力机制输出的权重。将压缩特征与权重进行点乘,再与自身拼接,即为注意力模块的输出,也就是扩张模型的输入。
与收缩模块对应的,扩张模型由四个阶段组成。每个阶段先使用双线性插值对特征进行上采样,然后与收缩模块中的对应特征拼接,再由两个3×3卷积层来卷积。这里每个卷积层后都跟随着批归一化(Batch Normalization,BN)和ReLU激活函数。每个阶段的输出通道数分别为256、128、64、32。
将所述经过人工标注和预处理的虹膜图像作为训练集输入至所述全卷积神经网络中得到训练好的全卷积神经网络,包括:训练好的压缩模型、扩张模型和注意力模块。
在一种可能的实现方式中,如图2所示,所述训练好的压缩模型的结构如下:
第一层为卷积层,包括64个尺寸为3*3*3的卷积核,步长为1,该层使用SAME模式填充,以保证卷积前后特征大小不变,只有通道数变化;
第二层为卷积层,包括64个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output0;
第三层为最大池化层,其步长为2,大小为2*2;
第四层为卷积层,包括128个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充;
第五层为卷积层,包括128个3*3*128的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output1;
第六层为最大池化层,其步长为2,大小为2*2;
第七层为卷积层,其包括256个3*3*128的卷积核,步长为1,该层使用SAME模式填充;
第八层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第九层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output2;
第十层为最大池化层,其步长为2,大小为2*2;
第十一层为卷积层,其包括512个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第十二层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十三层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output3;
第十四层为最大池化层,其步长为2,大小为2*2;
第十五层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十六层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十七层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵为压缩虹膜特征P;
其中,每个卷积层后面都跟随一个ReLU激活函数。
在一种可能的实现方式中,所述将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重包括:
使用全局平均池化,得到压缩虹膜特征P的全局平均值AdaptiveAvgPool(P),然后用由256个尺寸为1*1*512的卷积核组成的卷积层进行卷积,接着用线性插值进行上采样,将全局平均值AdaptiveAvgPool(P)恢复至原始大小,计算公式为:
G(P)=Up(Conv1×1(AdaptiveAvgPool(P)))……(1)
其中,Conv1×1(AdaptiveAvgPool(P))表示卷积层的输出结果;
Up(Conv1×1(AdaptiveAvgPool(P)))表示上采样输出结果;
用256个尺寸为1*1*512的卷积核对所述压缩虹膜特征P进行卷积,最后一个卷积层的输出为D1(P):
D1(P)=Conv1×1(P)……(2)
分别使用空洞率为6、12、18的空洞卷积对所述压缩虹膜特征P进行卷积,3个空洞卷积分别包括256个尺寸为3*3*512的卷积核:
Figure BDA0003420621460000101
Figure BDA0003420621460000102
Figure BDA0003420621460000103
将所述各卷积层的输出结果G(P)、D1(P)、D2(P)、D3(P)和D4(P)在通道维度上进行拼接,然后进行两次卷积,并用sigmoid()激活函数进行激活,得到注意力机制的输出权重W:
Figure BDA0003420621460000104
W=Sigmoid(Conv3×3(Conv3×3(H)))……(7)
其中
Figure BDA0003420621460000105
符号表示在通道维度上的拼接,H表示拼接的结果;
将所述压缩虹膜特征P与输出权重W进行逐元素点乘,并与自身进行拼接,得到注意力机制的最终输出虹膜特征P’:
Figure BDA0003420621460000106
其中
Figure BDA0003420621460000111
符号表示在通道维度上的拼接,
Figure BDA0003420621460000112
表示逐元素点乘。
在一个具体的实施例中,如图2所示,所述训练好的扩张模型的结构如下:
第一层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,输出通道数为1024,其输出矩阵记为up0;
第二层为拼接层,其将up0和output3按照通道数进行拼接;
第三层为卷积层,其包括768个尺寸为3*3*1536的卷积核;
第四层为卷积层,其包括256个3*3*786的卷积核;
第五层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up1;
第六层为拼接层,将up1和output2按照通道数进行拼接;
第七层为卷积层,其包括256个尺寸为3*3*512的卷积核;
第八层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第九层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up2;
第十层为拼接层,将up2和output1按照通道数进行拼接;
第十一层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第十二层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十三层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up3;
第十四层为拼接层,将所述up3和output0按照通道数进行拼接;
第十五层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十六层为卷积层,其包括32个尺寸为3*3*64的卷积核,其输出结果记为所述扩张模型的输出结果;
其中,每一个卷积层后面都跟随一个批归一化和ReLU激活函数。
在一个具体的实施例中,所述对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界包括:
将所述扩张模型的输出结果输入由3个尺寸为1*1*32的卷积核组成的卷积层,将所述卷积层的输出结果的通道数设置为3,对其输出结果进行通道分割,使用sigmoid函数将输出结果的值置为[0,1]之间,再乘以255归为整数,得到网络的最终输出结果即虹膜掩码、瞳孔掩码和虹膜外边界。
在一种可能的实现方式中,如图3所示,所述通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息包括:
二值化:分别使用固定阈值对所述虹膜掩码、瞳孔掩码和虹膜外边界进行二值化,得到有效像素;
对虹膜外边界做形态学闭运算:使用形态学闭运算连接虹膜边界中的微小断点,使虹膜外边界更加完整;
提取8连通域:分别提取所述虹膜掩码、瞳孔掩码和虹膜外边界中的8连通域;
计算切比雪夫距离,形成候选三元集:两两计算虹膜掩码连通域和瞳孔掩码连通域,以及虹膜掩码连通域和虹膜外边界掩码连通域之间的切比雪夫距离,将两个距离都小于阈值的连通域设为一个候选三元组。在计算连通域距离时,先提取两个待计算连通域的外层轮廓,然后分别计算轮廓中各个像素之间的切比雪夫距离,以所有像素之间的最近距离作为两个连通域之间的距离。这样就能得到一个候选三元组集合。
选择最大三元组:在候选三元组集中选择最大的一个三元组,其成员即为候选的虹膜掩码、瞳孔掩码和虹膜外边界;
根据候选瞳孔掩码计算虹膜内边界:从候选瞳孔掩码中提取虹膜内边界信息。提取瞳孔掩码的外轮廓,即为内边界的轮廓,根据轮廓中的所有像素使用最小二乘圆拟合的方式拟合圆,即可得到虹膜内边界的中心坐标和半径。
根据候选虹膜外边界计算虹膜外边界:从候选虹膜外边界中提取虹膜外边界信息。由于上述过程中得到的虹膜外边界就是轮廓的形式,因此直接使用其中的所有像素来进行最小二乘圆拟合,从而得到虹膜外边界的中心坐标和半径。
优化虹膜掩码:根据优化后的虹膜内外边界对所述候选的虹膜掩码进行优化,去除内外边界以外的部分得到优化后的虹膜掩码。
第二实施例-一种基于全卷积神经网络的虹膜分割装置,如图4所示,所述装置包括:
虹膜图像采集模块,用于捕获虹膜图像;
虹膜图像预处理模块,用于将虹膜图像采集模块得到的虹膜图像进行预处理操作,得到预处理后的虹膜图像;
虹膜图像压缩模块,用于将虹膜图像预处理模块得到的预处理后的虹膜图像输入到训练好的压缩模型,得到对应的特征和压缩虹膜特征P;
虹膜图像处理模块,用于通过注意力模块为所述虹膜图像压缩模块输出的压缩虹膜特征P的不同像素分配不同的权重,并得到虹膜特征P’;
虹膜图像扩张模块,用于对压缩后的虹膜特征P’进行上采样使其扩张到原始大小,并在通道维度上与所述虹膜图像压缩模块输出的对应特征进行拼接融合;
虹膜图像分割模块,用于对所述虹膜图像扩张模块的输出结果进行通道分离得到虹膜掩码、瞳孔掩码和虹膜外边界;
虹膜图像后处理模块,用于通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
需要说明的是,本实施例提供的基于全卷积神经网络的虹膜分割装置的原理及工作流程与上述基于全卷积神经网络的虹膜分割方法相似,相关之处可以参照上述说明,在此不再赘述。
第三实施例-一种终端设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现:
对采集到的虹膜图像进行预处理;
将预处理后的虹膜图像输入训练好的压缩模型,进行所述预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;
将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;
将所述虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与所述压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;
对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;
通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
第四实施例-一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:
对采集到的虹膜图像进行预处理;
将预处理后的虹膜图像输入训练好的压缩模型,进行所述预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;
将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;
将所述虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与所述压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;
对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;
通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
第五实施例-一种计算机设备。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图5中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种基于全卷积神经网络的虹膜分割方法。
需要说明的是,在本发明的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (10)

1.一种基于全卷积神经网络的虹膜分割方法,其特征在于,所述方法包括:
对采集到的虹膜图像进行预处理;
将预处理后的虹膜图像输入训练好的压缩模型,进行所述预处理后的虹膜图像中的特征提取得到压缩虹膜特征P;
将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重W,最终输出虹膜特征P’;
将所述虹膜特征P’作为训练好的扩张模型的输入,进行上采样并在通道维度上与所述压缩模型中对应的特征融合将虹膜图像扩张至原始输入大小;
对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界;
通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
2.根据权利要求1所述的方法,其特征在于,
所述对采集到的虹膜图像进行预处理包括:
使用均值消减法对所述采集到的虹膜图像进行预处理,从而凸显虹膜特征,并通过中心裁剪和/或缩放的方式对所述虹膜图像的尺寸进行调整以得到预设尺寸的虹膜图像。
3.根据权利要求1所述的方法,其特征在于,所述训练好的压缩模型的结构如下:
第一层为卷积层,包括64个尺寸为3*3*3的卷积核,步长为1,该层使用SAME模式填充,以保证卷积前后特征大小不变,只有通道数变化;
第二层为卷积层,包括64个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output0;
第三层为最大池化层,其步长为2,大小为2*2;
第四层为卷积层,包括128个尺寸为3*3*64的卷积核,步长为1,该层使用SAME模式填充;
第五层为卷积层,包括128个3*3*128的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output1;
第六层为最大池化层,其步长为2,大小为2*2;
第七层为卷积层,其包括256个3*3*128的卷积核,步长为1,该层使用SAME模式填充;
第八层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第九层为卷积层,其包括256个3*3*256的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output2;
第十层为最大池化层,其步长为2,大小为2*2;
第十一层为卷积层,其包括512个3*3*256的卷积核,步长为1,该层使用SAME模式填充;
第十二层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十三层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵记为output3;
第十四层为最大池化层,其步长为2,大小为2*2;
第十五层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十六层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充;
第十七层为卷积层,其包括512个3*3*512的卷积核,步长为1,该层使用SAME模式填充,其输出矩阵为压缩虹膜特征P;
其中,每个卷积层后面都跟随一个ReLU激活函数。
4.根据权利要求1所述的方法,其特征在于,
所述将所述压缩虹膜特征P作为注意力模块的输入,为所述虹膜图像的不同像素分配不同的权重包括:
使用全局平均池化,得到压缩虹膜特征P的全局平均值AdaptiveAvgPool(P),然后用由256个尺寸为1*1*512的卷积核组成的卷积层进行卷积,接着用线性插值进行上采样,将全局平均值AdaptiveAvgPool(P)恢复至原始大小,计算公式为:
G(P)=Up(Conv1×1(AdaptiveAvgPool(P)))……(1)
其中,Conv1×1(AdaptiveAvgPool(P))表示卷积层的输出结果;Up(Conv1×1(AdaptiveAvgPool(P)))表示上采样输出结果;
用256个尺寸为1*1*512的卷积核对所述压缩虹膜特征P进行卷积,最后一个卷积层的输出为D1(P):
D1(P)=Conv1×1(P)……(2)
分别使用空洞率为6、12、18的空洞卷积对所述压缩虹膜特征P进行卷积,3个空洞卷积分别包括256个尺寸为3*3*512的卷积核:
Figure FDA0003420621450000031
Figure FDA0003420621450000032
Figure FDA0003420621450000033
将所述各卷积层的输出结果G(P)、D1(P)、D2(P)、D3(P)和D4(P)在通道维度上进行拼接,然后进行两次卷积,并用sigmoid()激活函数进行激活,得到注意力机制的输出权重W:
Figure FDA0003420621450000034
W=Sigmoid(Conv3×3(Conv3×3(H)))……(7)
其中
Figure FDA0003420621450000035
符号表示在通道维度上的拼接,H表示拼接的结果;
将所述压缩虹膜特征P与输出权重W进行逐元素点乘,并与自身进行拼接,得到注意力机制的最终输出虹膜特征P’:
Figure FDA0003420621450000036
其中
Figure FDA0003420621450000037
符号表示在通道维度上的拼接,
Figure FDA0003420621450000038
表示逐元素点乘。
5.根据权利要求1所述的方法,其特征在于,
所述训练好的扩张模型的结构如下:
第一层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,输出通道数为1024,其输出矩阵记为up0;
第二层为拼接层,其将up0和output3按照通道数进行拼接;
第三层为卷积层,其包括768个尺寸为3*3*1536的卷积核;
第四层为卷积层,其包括256个3*3*786的卷积核;
第五层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up1;
第六层为拼接层,将up1和output2按照通道数进行拼接;
第七层为卷积层,其包括256个尺寸为3*3*512的卷积核;
第八层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第九层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up2;
第十层为拼接层,将up2和output1按照通道数进行拼接;
第十一层为卷积层,其包括128个尺寸为3*3*256的卷积核;
第十二层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十三层为上采样层,通过双线性插值法将上采样到输入矩阵扩大至两倍大小,其输出矩阵记为up3;
第十四层为拼接层,将所述up3和output0按照通道数进行拼接;
第十五层为卷积层,其包括64个尺寸为3*3*128的卷积核;
第十六层为卷积层,其包括32个尺寸为3*3*64的卷积核,其输出结果记为所述扩张模型的输出结果;
其中,每一个卷积层后面都跟随一个批归一化和ReLU激活函数。
6.根据权利要求1所述的方法,其特征在于,
所述对所述扩张模型的输出结果进行通道分离,得到虹膜掩码、瞳孔掩码和虹膜外边界包括:
将所述扩张模型的输出结果输入由3个尺寸为1*1*32的卷积核组成的卷积层,将所述卷积层的输出结果的通道数设置为3,对其输出结果进行通道分割,使用sigmoid函数将输出结果的值置为[0,1]之间,再乘以255归为整数,得到网络的最终输出结果即虹膜掩码、瞳孔掩码和虹膜外边界。
7.根据权利要求1所述的方法,其特征在于,
所述通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息包括:
分别使用固定阈值对所述虹膜掩码、瞳孔掩码和虹膜外边界进行二值化,得到有效像素;
使用形态学闭运算连接虹膜边界中的微小断点,使虹膜外边界更加完整;
分别提取所述虹膜掩码、瞳孔掩码和虹膜外边界中的8连通域;
两两计算虹膜掩码连通域和瞳孔掩码连通域,以及虹膜掩码连通域和虹膜外边界掩码连通域之间的切比雪夫距离得到候选三元组集;
在候选三元组集中选择最大的一个三元组,其成员即为候选的虹膜掩码、瞳孔掩码和虹膜外边界;
从所述候选的瞳孔掩码和虹膜外边界中提取轮廓,并用轮廓上的点进行最小二乘圆拟合,即可得到优化后的虹膜内外边界的中心坐标和半径;
根据优化后的虹膜内外边界对所述候选的虹膜掩码进行优化,去除内外边界以外的部分得到优化后的虹膜掩码。
8.一种基于全卷积神经网络的虹膜分割装置,其特征在于,包括:
虹膜图像采集模块,用于捕获虹膜图像;
虹膜图像预处理模块,用于将虹膜图像采集模块得到的虹膜图像进行预处理操作,得到预处理后的虹膜图像;
虹膜图像压缩模块,用于将虹膜图像预处理模块得到的预处理后的虹膜图像输入到训练好的压缩模型,得到对应的特征和压缩虹膜特征P;
虹膜图像处理模块,用于通过注意力模块为所述虹膜图像压缩模块输出的压缩虹膜特征P的不同像素分配不同的权重,并得到虹膜特征P’;
虹膜图像扩张模块,用于对压缩后的虹膜特征P’进行上采样使其扩张到原始大小,并在通道维度上与所述虹膜图像压缩模块输出的对应特征进行拼接融合;
虹膜图像分割模块,用于对所述虹膜图像扩张模块的输出结果进行通道分离得到虹膜掩码、瞳孔掩码和虹膜外边界;
虹膜图像后处理模块,用于通过后处理对所述虹膜掩码、瞳孔掩码和虹膜外边界进行优化去除噪声,得到最终的虹膜掩码和虹膜内外边界信息。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有应用程序,其中所述应用程序被处理器执行时实现如权利要求1至7中任一项所述的基于全卷积神经网络的虹膜图像分割方法。
10.一种终端设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7中任一项权利要求所述的基于全卷积神经网络的虹膜图像分割方法。
CN202111561511.7A 2021-12-20 2021-12-20 基于全卷积神经网络的虹膜分割方法和装置、介质和设备 Pending CN114445904A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111561511.7A CN114445904A (zh) 2021-12-20 2021-12-20 基于全卷积神经网络的虹膜分割方法和装置、介质和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111561511.7A CN114445904A (zh) 2021-12-20 2021-12-20 基于全卷积神经网络的虹膜分割方法和装置、介质和设备

Publications (1)

Publication Number Publication Date
CN114445904A true CN114445904A (zh) 2022-05-06

Family

ID=81363025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111561511.7A Pending CN114445904A (zh) 2021-12-20 2021-12-20 基于全卷积神经网络的虹膜分割方法和装置、介质和设备

Country Status (1)

Country Link
CN (1) CN114445904A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115762787A (zh) * 2022-11-24 2023-03-07 浙江大学 基于眼睑拓扑形态分析的眼睑疾病手术疗效评估方法和系统
CN116798107A (zh) * 2023-06-16 2023-09-22 北京万里红科技有限公司 一种用于比对虹膜图像的可视化处理方法及装置
CN117036255A (zh) * 2023-07-21 2023-11-10 北京北排建设有限公司 一种基于深度学习的管道缺陷检测与评价方法及装置
CN117316437A (zh) * 2023-11-29 2023-12-29 首都医科大学附属北京安定医院 一种基于瞳孔变化的疼痛等级预测方法、系统及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115762787A (zh) * 2022-11-24 2023-03-07 浙江大学 基于眼睑拓扑形态分析的眼睑疾病手术疗效评估方法和系统
CN116798107A (zh) * 2023-06-16 2023-09-22 北京万里红科技有限公司 一种用于比对虹膜图像的可视化处理方法及装置
CN116798107B (zh) * 2023-06-16 2024-05-14 北京万里红科技有限公司 一种用于比对虹膜图像的可视化处理方法及装置
CN117036255A (zh) * 2023-07-21 2023-11-10 北京北排建设有限公司 一种基于深度学习的管道缺陷检测与评价方法及装置
CN117316437A (zh) * 2023-11-29 2023-12-29 首都医科大学附属北京安定医院 一种基于瞳孔变化的疼痛等级预测方法、系统及设备
CN117316437B (zh) * 2023-11-29 2024-03-08 首都医科大学附属北京安定医院 一种基于瞳孔变化的疼痛等级预测方法、系统及设备

Similar Documents

Publication Publication Date Title
CN108509915B (zh) 人脸识别模型的生成方法和装置
CN114445904A (zh) 基于全卷积神经网络的虹膜分割方法和装置、介质和设备
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
US20200117906A1 (en) Space-time memory network for locating target object in video content
CN112288011B (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN114066902A (zh) 一种基于卷积和transformer融合的医学图像分割方法、系统、装置
CN112861575A (zh) 一种行人结构化方法、装置、设备和存储介质
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN112308866A (zh) 图像处理方法、装置、电子设备及存储介质
Zhang et al. An unsupervised remote sensing single-image super-resolution method based on generative adversarial network
CN110570394A (zh) 医学图像分割方法、装置、设备及存储介质
CN112750071B (zh) 一种用户自定义的表情制作方法及系统
CN113159053A (zh) 图像识别方法、装置及计算设备
CN111753736A (zh) 基于分组卷积的人体姿态识别方法、装置、设备和介质
CN113537187A (zh) 文本识别方法、装置、电子设备及可读存储介质
CN116363561A (zh) 一种时序动作定位方法、装置、设备及存储介质
CN116778164A (zh) 一种基于多尺度结构改进DeeplabV3+网络的语义分割方法
CN113610856B (zh) 训练图像分割模型和图像分割的方法和装置
CN115049546A (zh) 样本数据处理方法、装置、电子设备及存储介质
CN114943995A (zh) 人脸识别模型的训练方法、人脸识别方法及装置
Chi et al. Handwriting Recognition Based on Resnet-18
CN117036658A (zh) 一种图像处理方法及相关设备
CN114219977A (zh) 一种年龄估计方法、系统、电子设备及存储介质
CN113763313A (zh) 文本图像的质量检测方法、装置、介质及电子设备
CN113822846A (zh) 医学图像中确定感兴趣区域的方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination