CN113343943B - 基于巩膜区域监督的眼部图像分割方法 - Google Patents

基于巩膜区域监督的眼部图像分割方法 Download PDF

Info

Publication number
CN113343943B
CN113343943B CN202110823193.0A CN202110823193A CN113343943B CN 113343943 B CN113343943 B CN 113343943B CN 202110823193 A CN202110823193 A CN 202110823193A CN 113343943 B CN113343943 B CN 113343943B
Authority
CN
China
Prior art keywords
semantic
feature
segmentation
features
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110823193.0A
Other languages
English (en)
Other versions
CN113343943A (zh
Inventor
田小林
王凯
黄小萃
杨婷
焦李成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110823193.0A priority Critical patent/CN113343943B/zh
Publication of CN113343943A publication Critical patent/CN113343943A/zh
Application granted granted Critical
Publication of CN113343943B publication Critical patent/CN113343943B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于巩膜区域监督的眼部图像分割方法,主要解决传统方法分割精度低的问题。其方案为:通过残差网络提取巩膜区域的高维特征;利用该高维特征对原眼部图像的高维特征进行注意力调整;对调整后的原眼部图像的高维特征进行编码得到编码语义特征;通过跨连接激励对编码语义特征进行改善,并将其输入到解码器进行解码得到解码语义特征;对解码语义特征进行通道调整,输出初步分割结果;计算初步分割结果与分割标签的总损失,并通过将其与设置阈值的比较,判断是否需要对所有的滤波器、编码器和解码器进行优化,输出瞳孔、虹膜和巩膜的最终分割结果。本发明提高了分割精度,可用于人眼定位、眨眼检测、改善视线估计、瞳孔变化监测。

Description

基于巩膜区域监督的眼部图像分割方法
技术领域
本发明属于图像处理技术领域,更进一步涉及一种眼部图像分割方法,可用于人眼定位、眨眼检测、改善视线估计与注视点估计、瞳孔变化监测。
背景技术
眼部图像分割的主要任务是将眼部图像的每一个像素关联到具体的瞳孔、虹膜、巩膜及其他的类别标签中,最终输出带有眼睛各部分具体位置信息的语义分割图。现有的语义分割最流行的方法之一是采用编码和解码的网络结构,编码采用多层卷积和池化即下采样实现,解码通过对编码进行逆运算,将编码得到的特征图不断上采样,最终得到一个与原图尺寸一致的全分辨率分割图。
腾讯医疗健康(深圳)有限公司在其拥有的专利技术“基于先验信息的眼部图像分割方法、装置、设备及介质”(专利申请号CN201910833947.3,授权公告号CN110599491A)中公开了一种基于先验信息的眼部图像分割方法。该方法的实现步骤是:获取眼底图像数据集,根据所述眼底图像数据集计算先验信息,然后构建机器学习模型,基于先验信息获得图像分割模型,从而实现对目标图像的最终分割。但是,该方法存在的不足之处在于,计算先验信息的过程十分耗时,同时对于上述先验信息具体的可解释性不强,且针对真实场景下的眼部图像会存在不同的先验信息,对于先验信息的计算十分困难。
重庆大学陈默涵在其硕士学位论文“人眼分割及瞳孔定位研究”中提出了一种基于随机椭圆拟合的瞳孔分割方法。该方法的实现步骤是,使用自适应阈值法和积分投影对瞳孔进行初分割得到瞳孔区域,结合随机原理和二乘法对初分割的到的瞳孔区域进行椭圆拟合,得到更加精细的瞳孔分割结果。该方法虽然解决了霍夫变换检测椭圆时计算量较大、所需内存较大的问题。但却存在两方面问题:一是其采用的自适应阈值法对于不同样本可能需要不同的设置,从而影响椭圆拟合的精细分割结果,导致分割精度有限;二是该方法没有很好地利用眼部图像中除瞳孔以外的虹膜、巩膜的特征以及它们之间的关系,使得分割效率降低。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于巩膜区域监督的眼部图像分割方法,以提高巩膜先验信息的计算速度与可解释性,提升眼部图像分割的分割速度和分割精度,提高分割效率。
为实现上述目的,本发明的技术方案包括:
1.一种基于巩膜区域监督的眼部图像分割方法,其特征在于,包括:
(1)从OpenEDS眼部分割数据集中获取带有标签的原眼部图像,并将其作为残差网络的输入,提取其巩膜区域的高维特征Fm
(2)在高维特征空间中,利用巩膜区域的高维特征Fm对原眼部图像进行注意力调整:
(2a)使用非线性滤波器提取原眼部图像的高维特征Fi
(2b)利用(1)中得到的巩膜区域的高维特征Fm,对眼部图像的高维特征Fi进行注意力调整,获得调整后的高维眼部图像特征Fa
Figure BDA0003172600780000021
其中,
Figure BDA0003172600780000022
表示点乘操作;
(3)通过由残差网络构成的编码器对调整后的高维眼部图像特征进行编码,得到编码语义特征Fe
(4)通过非线性滤波器提取编码语义特征Fe的激励特征Fs,并使用该激励特征对编码语义特征Fe进行跨连接激励,得到改善后的编码语义特征Fi:
Figure BDA0003172600780000023
其中,
Figure BDA0003172600780000024
f(.)表示线性滤波器,
Figure BDA0003172600780000025
表示点乘操作;
(5)通过由稠密网络构成的解码器对改善的编码语义特征进行解码,得到解码语义特征Fd
(6)通过一个卷积层对解码语义特征进行通道调整,输出瞳孔、虹膜和巩膜的初步分割结果;
(7)利用OpenEDS眼部分割数据集中的标签集F构建巩膜区域标签集S;
(8)利用(1)中获取的眼部巩膜区域的高维特征生成巩膜区域掩膜图像,并计算该掩膜图像与巩膜区域标签集的均方误差损失MSE;
(9)根据(6)的初步分割结果与(1)获取的原图像标签,计算这两者的交叉熵损失CE;
(10)将均方误差损失MSE与交叉熵损失CE进行求和,得到巩膜区域掩膜图像与初步分割结果的总损失L;
(11)设置损失阈值Lt=0.08,将总损失L与损失阈值Lt进行比较:
若L<Lt,则将(6)中的瞳孔、虹膜和巩膜的初步分割结果作为最终分割结果,
若L≥Lt,则执行(12);
(12)利用Adam学习算法对(1)~(6)中所有的滤波器、编码器和解码器进行优化,返回(1)。
本发明与现有技术相比有以下优点:
第一,由于本发明利用残差网络生成巩膜区域掩膜的高维特征,利用该高维特征在高维特征空间中对眼部图像特征进行注意力调整,可得到具有巩膜区域先验信息的眼部图像高维特征,克服了现有技术对于先验信息计算困难、可解释性不强的缺点,且对于不同眼部图像样本都可以生成相应的巩膜区域掩膜,更加具有广泛性。
第二,由于本发明利用非线性滤波器生成编码语义特征的激励特征,并使用该激励特征对解码语义特征进行跨连接激励,从而可利用浅层的细节特征对深层的位置空间特征进行细化调整,克服了现有技术分割精度有限、没有很好利用瞳孔、虹膜和巩膜之间的上下文信息的缺点,提高了在眼部图像分割任务上的鲁棒性。
仿真结果表明,本发明在整个OpenEDS眼部分割数据集的验证集上最后的验证的平均交并比MIOU为95.28%,对其中一幅尺寸为640×480的眼部图像进行分割仅需约0.025秒,在保持分割精度的同时也保证了分割速度,提高了分割效率。
附图说明
图1为本发明的实现流程图;
图2为本发明的仿真结果图。
具体实施方式
下面结合附图对本发明实施例和效果做进一步的描述。
参照图1,对本实例的具体实现包括如下步骤:
步骤1,提取眼部巩膜区域的高维特征Fm
1.1)在互联网上下载OpenEDS眼部分割数据集,该数据集共有12759张眼部图像,其中有11319张带有瞳孔、虹膜和巩膜区域的分割标签;
1.2)从下载的OpenEDS眼部分割数据集中获取带有标签的原眼部图像;
1.3)使用现有的残差网络对带有标签的原眼部图像进行特征提取,即将该眼部图像输入到残差网络中,输出原眼部图像巩膜区域的高维特征Fm
步骤2,对原眼部图像进行注意力调整。
2.1)使用现有的非线性滤波器对原眼部图像进行特征提取,即将该眼部图像输入非线性滤波器中,输出原眼部图像的高维特征Fi
2.2)利用1.3)中得到的巩膜区域的高维特征Fm,对眼部图像的高维特征Fi进行注意力调整,即将巩膜区域的高维特征Fm和眼部图像的高维特征Fi进行点乘操作,获得调整后的高维眼部图像特征Fa
Figure BDA0003172600780000041
其中,
Figure BDA0003172600780000042
表示点乘操作。
步骤3,获取编码语义特征Fe
3.1)将现有的残差网络与一个平均池化层级联,构成一个编码块;
3.2)将调整后的高维眼部图像特征Fa作为编码块的输入,输出第一次编码语义特征Fe1
3.3)将第一次编码语义特征Fe1作为编码块的输入,输出第二次编码语义特征Fe2
3.4)将第二次编码语义特征Fe2作为编码块的输入,输出第三次编码语义特征Fe3
3.5)将第三次编码语义特征Fe3作为编码块的输入,输出最终的编码语义特征Fe
步骤4,对编码语义特征进行改善。
由于上述得到的编码语义特征Fe只含有很好的语义信息,而缺少空间位置信息,为了在解码过程中也能利用到眼部图像中的空间位置信息,在进行解码前需对编码语义特征Fe进行改善,其实现如下:
4.1)通过一个现有的非线性滤波器提取编码语义特征Fe的激励特征Fs,即将编码语义特征Fe输入该非线性滤波器,输出激励特征Fs
Figure BDA0003172600780000043
其中,f(.)表示一现有线性滤波器;
4.2)使用编码语义特征Fe的激励特征Fs对编码语义特征Fe进行跨连接激励,即将激励特征Fs和编码语义特征Fe进行点乘操作,得到改善后的编码语义特征Fi:
Figure BDA0003172600780000044
其中,
Figure BDA0003172600780000045
表示点乘操作。
步骤5,获取解码语义特征Fd
5.1)将现有的稠密网络与上采样层级联,构建一个解码块;
5.2)将改善的编码语义特征Fi作为解码块的输入,输出第一次初步解码语义特征
Figure BDA0003172600780000046
5.3)将第三次编码语义特征Fe3作为现有的非线性滤波器的输入,输出激励特征Fs3,并使用Fs3对第一次初步解码语义特征
Figure BDA0003172600780000047
进行跨连接激励,即将激励特征Fs3和第一次初步解码语义特征
Figure BDA0003172600780000051
进行点乘操作,得到第一次解码语义特征Fd1:
Figure BDA0003172600780000052
其中,
Figure BDA0003172600780000053
f3(.)表示一现有线性滤波器,
Figure BDA0003172600780000054
表示点乘操作;
5.4)将第一次解码语义特征Fd1作为解码块的输入,输出第二次初步解码语义特征
Figure BDA0003172600780000055
5.5)将第二次编码语义特征Fe2作为现有的非线性滤波器的输入,输出激励特征Fs2,并使用Fs2对第二次初步解码语义特征
Figure BDA0003172600780000056
进行跨连接激励,即将激励特征Fs2和第二次初步解码语义特征
Figure BDA0003172600780000057
进行点乘操作,得到第二次解码语义特征Fd2:
Figure BDA0003172600780000058
其中,
Figure BDA0003172600780000059
f2(.)表示现有的线性滤波器,
Figure BDA00031726007800000510
表示点乘操作;
5.6)将第二次编码语义特征Fd2作为解码块的输入,输出第三次初步解码语义特征
Figure BDA00031726007800000511
5.7)将第一次编码语义特征Fe1作为现有的非线性滤波器的输入,输出激励特征Fs1,并使用Fs1对第三次初步解码语义特征
Figure BDA00031726007800000512
进行跨连接激励,即将激励特征Fs1和第三次初步解码语义特征
Figure BDA00031726007800000513
进行点乘操作,得到最终的编码语义特征Fd:
Figure BDA00031726007800000514
其中,
Figure BDA00031726007800000515
f1(.)表示现有的线性滤波器,
Figure BDA00031726007800000516
表示点乘操作。
步骤6,输出瞳孔、虹膜和巩膜的初步分割结果。
6.1)通过一个尺寸为3×3×32的三维卷积核构成一个卷积层;
6.2)将5.7)中得到的编码语义特征Fd输入到该卷积层,输出瞳孔、虹膜和巩膜初步分割结果。
步骤7,构建巩膜区域标签集S。
7.1)将OpenEDS眼部分割数据集中的标签集用K表示,并用该标签集构建巩膜区域标签集S,即将标签集K中的像素值为1的像素保留下来,作为巩膜区域标签集S:
Figure BDA00031726007800000517
其中,Si(x,y)表示巩膜区域标签集S中第i个标签中第x行第y列的像素值,Ki(x,y)表示标签集K中第i个标签中第x行第y列的像素值,i,x和y都是整数,i的取值范围是0~K,x取值范围范围是0~640,y取值范围范围是0~480。
步骤8,计算均方误差损失MSE。
8.1)利用1.2)中获取的眼部巩膜区域的高维特征生成巩膜区域掩膜图像,即将该高维特征输入一个非线性滤波器,输出巩膜区域掩膜图像;
8.2)计算巩膜区域掩膜图像与巩膜区域标签集S的均方误差损失MSE:
Figure BDA0003172600780000061
其中,Ixy表示生成的巩膜区域掩膜图像的第i行第j列的像素值,Sxy表示巩膜区域掩膜标签的第x行第y列的像素值,h和w分别表示巩膜区域掩膜图像的高和宽,*表示数值相乘。
步骤9,计算交叉熵损失CE。
9.1)根据步骤6的初步分割结果与步骤1获取的原图像标签,计算这两者的交叉熵损失CE:
Figure BDA0003172600780000062
其中,N表示原图像中的像素总数,c表示分割类别数,根据分割的类别数设置,由于本实例中分割类别包括瞳孔、虹膜、巩膜和其它这四个类别,故c=4,pab表示第a个像素属于第b类的真实概率,
Figure BDA0003172600780000063
表示第a个像素属于第b类的预测概率。
步骤10,计算总损失L,确定最终分割结果。
10.1)将均方误差损失MSE与交叉熵损失CE进行求和,得到巩膜区域掩膜图像与初步分割结果的总损失:
L=MSE+CE
10.2)设置损失阈值Lt=0.08;
10.3)将总损失L与损失阈值Lt进行比较:
若L<Lt,则将步骤6中的瞳孔、虹膜和巩膜的初步分割结果作为最终分割结果,
若L≥Lt,则执行步骤11。
步骤11,对所有的滤波器、编码器和解码器进行优化,重新进行分割。
由于步骤1~6中的所有滤波器、编码器和解码器的参数并不是最佳参数,所以步骤6中的瞳孔、虹膜和巩膜的初步分割结果的精度较低,为了得到更好的分割结果,需要对所有的滤波器、编码器和解码器进行优化,其实现如下:
11.1)计算总损失L对θ的梯度g,其中θ表示待优化的所有滤波器、编码器和解码器的参数;
11.2)计算梯度g的一阶矩m和二阶矩v;
11.3)对一阶矩m进行校正,得到校正后的一阶矩
Figure BDA0003172600780000071
Figure BDA0003172600780000072
其中,β1为一阶衰减系数,本实例中β1=0.9,t表示优化次数,
Figure BDA0003172600780000073
表示β1的t次方;
11.4)对二阶矩v进行校正,得到校正后的二阶矩
Figure BDA0003172600780000074
Figure BDA0003172600780000075
其中,β2为二阶衰减系数,本实例中β2=0.999,t表示优化次数,
Figure BDA0003172600780000076
表示β2的t次方;
11.5)对待优化的所有滤波器、编码器和解码器的参数θ进行更新,获得优化后的参数θt:
Figure BDA0003172600780000077
其中,α为优化步长,本实例中α=0.001,∈为正则化系数,本示例中∈=1×10-8
11.6)本次优化结束,返回步骤2。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPUintelCorei5-6500,主频为3.2GHz,内存8GB,显卡为GeForceGTX1080。
本发明仿真实验的软件平台为:Windows7旗舰版,64位操作系统,VSCode集成开发环境,python3.7,cuda10.1。
仿真实验所用数据来自从互联网下载的OpenEDS眼部图像数据集中验证集的数据,验证集共有2403幅带有标签的眼部图像。
2.仿真内容及结果分析:
本发明仿真实验是在OpenEDS验证集上进行测试,即对于验证集上的单幅眼部图像,首先利用本发明步骤1提取其巩膜区域掩膜的高维特征;接着利用本发明步骤2进行注意力调整;然后,通过本发明步骤3~6生成初步分割结果;最后,通过步骤8~11输出最终分割结果,如图2所示。其中:
图2(a)左图为OpenEDS验证集中的一幅带有眼镜的眼部图像,该图像分割的难点在于,图像中有眼镜遮挡,镜片中有光线反射干扰。
图2(a)右图为利用本发明对图2(a)左图进行分割的最终分割结果,从结果来看,本发明对于带有眼镜遮挡、反射干扰的眼部图像进行分割,也能获得比较好的分割效果,具有很高的鲁棒性。
图2(b)左图为OpenEDS验证集中的一幅睫毛较长的眼部图像,该图像分割的难点在于,图像中睫毛较长,对眼部有一定遮挡,并且眼开合较小,瞳孔、虹膜不完整。
图2(b)右图为利用本发明对图2(b)左图进行分割的最终分割结果,从该分割结果图来看,本发明在对眼开合较小、带有睫毛干扰的眼部图像进行分割时,仍能保持较好的鲁棒性。
获得整个OpenEDS验证集的所有分割结果之后,评估整个OpenEDS验证集上的最终分割结果与所有标签之间的平均交并比MIOU。经过评估,整个验证集上的平均交并比MIOU为95.28%,推理速度大概为40FPS,表明本发明在保证较高精度的同时满足实时性要求,具有较高的分割效率。
以上仿真实验表明:本发明利用巩膜区域的高维特征对眼部图像高维特征进行注意力调整,最终能够实现非常精准的瞳孔、虹膜以及巩膜区域的分割,在具有某些干扰或者眼开合较小时,不仅具有较高的鲁棒性,而且还具有较高的分割效率。

Claims (6)

1.一种基于巩膜区域监督的眼部图像分割方法,其特征在于,包括:
(1)从OpenEDS眼部分割数据集中获取带有标签的原眼部图像,并将其作为残差网络的输入,提取其眼部巩膜区域的高维特征Fm
(2)在高维特征空间中,利用巩膜区域的高维特征Fm对原眼部图像进行注意力调整:
(2a)使用非线性滤波器提取原眼部图像的高维特征Fi′;
(2b)利用(1)中得到的巩膜区域的高维特征Fm,对眼部图像的高维特征Fi进行注意力调整,获得调整后的高维眼部图像特征Fa
其中,表示点乘操作;
(3)通过由残差网络构成的编码器对调整后的高维眼部图像特征进行编码,得到编码语义特征Fe,实现如下:
3.1)将现有的残差网络与一个平均池化层级联,构成一个编码块;
3.2)将调整后的高维眼部图像特征Fa作为编码块的输入,输出第一次编码语义特征Fe1
3.3)将第一次编码语义特征Fe1作为编码块的输入,输出第二次编码语义特征Fe2
3.4)将第二次编码语义特征Fe2作为编码块的输入,输出第三次编码语义特征Fe3
3.5)将第三次编码语义特征Fe3作为编码块的输入,输出最终的编码语义特征Fe
(4)通过非线性滤波器提取编码语义特征Fe的激励特征Fs,并使用该激励特征对编码语义特征Fe进行跨连接激励,得到改善后的编码语义特征Fi:
其中,f(.)表示线性滤波器,表示点乘操作;
(5)通过由稠密网络构成的解码器对改善的编码语义特征进行解码,得到解码语义特征Fd
5.1)将现有的稠密网络与上采样层级联,构建一个解码块;
5.2)将改善的编码语义特征Fi作为解码块的输入,输出第一次初步解码语义特征
5.3)将第三次编码语义特征Fe3作为现有的非线性滤波器的输入,输出激励特征Fs3,并使用Fs3对第一次初步解码语义特征进行跨连接激励,即将激励特征Fs3和第一次初步解码语义特征进行点乘操作,得到第一次解码语义特征Fd1:
其中,f3(.)表示一现有线性滤波器,表示点乘操作;
5.4)将第一次解码语义特征Fd1作为解码块的输入,输出第二次初步解码语义特征
5.5)将第二次编码语义特征Fe2作为现有的非线性滤波器的输入,输出激励特征Fs2,并使用Fs2对第二次初步解码语义特征进行跨连接激励,即将激励特征Fs2和第二次初步解码语义特征进行点乘操作,得到第二次解码语义特征Fd2:
其中,f2(.)表示现有的线性滤波器,表示点乘操作;
5.6)将第二次编码语义特征Fd2作为解码块的输入,输出第三次初步解码语义特征
5.7)将第一次编码语义特征Fe1作为现有的非线性滤波器的输入,输出激励特征Fs1,并使用Fs1对第三次初步解码语义特征进行跨连接激励,即将激励特征Fs1和第三次初步解码语义特征进行点乘操作,得到最终的编码语义特征Fd:
其中,f1(.)表示现有的线性滤波器,表示点乘操作;
(6)通过一个卷积层对解码语义特征进行通道调整,输出瞳孔、虹膜和巩膜的初步分割结果;
(7)利用OpenEDS眼部分割数据集中的标签集K构建巩膜区域标签集S;
(8)利用(1)中获取的眼部巩膜区域的高维特征生成巩膜区域掩膜图像,并计算该掩膜图像与巩膜区域标签集的均方误差损失MSE;
(9)根据(6)的初步分割结果与(1)获取的原图像标签,计算这两者的交叉熵损失CE;
(10)将均方误差损失MSE与交叉熵损失CE进行求和,得到巩膜区域掩膜图像与初步分割结果的总损失L;
(11)设置损失阈值Lt=0.08,将总损失L与损失阈值Lt进行比较:
若L<Lt,则将(6)中的瞳孔、虹膜和巩膜的初步分割结果作为最终分割结果,
若L≥Lt,则执行(12);
(12)利用Adam学习算法对(1)~(6)中所有的滤波器、编码器和解码器进行优化,返回(1)。
2.根据权利要求1所述的方法,其特征在于,(6)中通过一个卷积层对解码语义特征进行通道调整,是通过尺寸为3×3×32的三维卷积核将通道数为32的解码语义特征调整为通道数为4的瞳孔、虹膜和巩膜分割结果。
3.根据权利要求1所述的方法,其特征在于,(7)中利用OpenEDS眼部分割数据集中的标签集K构建巩膜区域标签集S,公式如下:
其中,Si(x,y)表示巩膜区域标签集S中第i个标签中第x行第y列的像素值,ki(x,y)表示OpenEDS眼部分割数据集中的标签集K中第i个标签中第x行第y列的像素值,i,x和y都是整数,i的取值范围是0~标签集K的标签总数,x取值范围范围是0~640,y取值范围范围是0~480。
4.根据权利要求1所述的方法,其特征在于,(8)中计算掩膜图像与巩膜区域标签集的均方误差损失MSE,公式如下:
其中,Ixy表示生成的巩膜区域掩膜图像的第x行第y列的像素值,Sxy表示巩膜区域掩膜标签的第x行第y列的像素值,h和w分别表示巩膜区域掩膜图像的高和宽,*表示数值相乘。
5.根据权利要求1所述的方法,其特征在于,(9)中计算初步分割结果与原图像标签这两者的交叉熵损失CE,公式如下:
其中,CE表示交叉熵损失,N表示原图像中的像素总数,c表示分割类别数,pab表示第a个像素属于第b类的真实概率,表示第a个像素属于第b类的预测概率。
6.根据权利要求1所述的方法,其特征在于,(12)中利用Adam学习算法对(1)~(6)中所有的滤波器、编码器和解码器进行优化,实现如下:
(12a)计算(10)中的L对θ的梯度g,其中θ表示待优化的所有滤波器、编码器和解码器的参数;
(12b)计算梯度g的一阶矩m和二阶矩v;
(12c)对一阶矩m进行校正,得到校正后的一阶矩
其中,β1为一阶衰减系数,t表示优化次数,表示β1的t次方;
(12d)对二阶矩v进行校正,得到校正后的二阶矩
其中,β2为二阶衰减系数,t表示优化次数,表示β2的t次方;
(12e)对待优化的所有滤波器、编码器和解码器的参数θ进行更新,获得优化后的参数θt:
其中,α为优化步长,∈为正则化系数。
CN202110823193.0A 2021-07-21 2021-07-21 基于巩膜区域监督的眼部图像分割方法 Active CN113343943B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110823193.0A CN113343943B (zh) 2021-07-21 2021-07-21 基于巩膜区域监督的眼部图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110823193.0A CN113343943B (zh) 2021-07-21 2021-07-21 基于巩膜区域监督的眼部图像分割方法

Publications (2)

Publication Number Publication Date
CN113343943A CN113343943A (zh) 2021-09-03
CN113343943B true CN113343943B (zh) 2023-04-28

Family

ID=77480261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110823193.0A Active CN113343943B (zh) 2021-07-21 2021-07-21 基于巩膜区域监督的眼部图像分割方法

Country Status (1)

Country Link
CN (1) CN113343943B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908237B (zh) * 2022-08-18 2023-09-08 上海佰翊医疗科技有限公司 一种眼裂宽度的测量方法、装置和存储介质
CN117132777B (zh) * 2023-10-26 2024-03-22 腾讯科技(深圳)有限公司 图像分割方法、装置、电子设备及存储介质
CN117274256B (zh) * 2023-11-21 2024-02-06 首都医科大学附属北京安定医院 一种基于瞳孔变化的疼痛评估方法、系统及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669285A (zh) * 2020-12-29 2021-04-16 中山大学 一种基于共享解码器和残差塔式结构的眼底图像血管分割方法
CN113065578A (zh) * 2021-03-10 2021-07-02 合肥市正茂科技有限公司 一种基于双路区域注意力编解码的图像视觉语义分割方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875787B (zh) * 2018-05-23 2020-07-14 北京市商汤科技开发有限公司 一种图像识别方法及装置、计算机设备和存储介质
KR102215757B1 (ko) * 2019-05-14 2021-02-15 경희대학교 산학협력단 이미지 세그멘테이션 방법, 장치 및 컴퓨터 프로그램
CN111428737B (zh) * 2020-04-01 2024-01-19 南方科技大学 眼科影像的实例检索方法、装置、服务器及存储介质
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112785592A (zh) * 2021-03-10 2021-05-11 河北工业大学 基于多重扩张路径的医学影像深度分割网络

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669285A (zh) * 2020-12-29 2021-04-16 中山大学 一种基于共享解码器和残差塔式结构的眼底图像血管分割方法
CN113065578A (zh) * 2021-03-10 2021-07-02 合肥市正茂科技有限公司 一种基于双路区域注意力编解码的图像视觉语义分割方法

Also Published As

Publication number Publication date
CN113343943A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN113343943B (zh) 基于巩膜区域监督的眼部图像分割方法
Jiang et al. Retinal vessels segmentation based on dilated multi-scale convolutional neural network
CN110738605B (zh) 基于迁移学习的图像去噪方法、系统、设备及介质
US20220051025A1 (en) Video classification method and apparatus, model training method and apparatus, device, and storage medium
KR20220066945A (ko) 이미지 프로세싱 방법, 장치, 전자 디바이스 및 컴퓨터 판독가능 저장 매체
CN110569756B (zh) 人脸识别模型构建方法、识别方法、设备和存储介质
CN115661144B (zh) 基于可变形U-Net的自适应医学图像分割方法
CN112183501B (zh) 深度伪造图像检测方法及装置
CN112528830A (zh) 一种结合迁移学习的轻量级cnn口罩人脸姿态分类方法
CN113706406B (zh) 基于特征空间多分类对抗机制的红外可见光图像融合方法
CN116433914A (zh) 一种二维医学图像分割方法及系统
CN114511576B (zh) 尺度自适应特征增强深度神经网络的图像分割方法与系统
CN112990052A (zh) 基于人脸修复的部分遮挡人脸识别方法及装置
CN113658040A (zh) 一种基于先验信息和注意力融合机制的人脸超分辨方法
CN110135371A (zh) 一种基于Mixup算法的柑橘黄龙病识别方法及装置
CN115082966B (zh) 行人重识别模型训练方法、行人重识别方法、装置和设备
CN115953784A (zh) 基于残差和特征分块注意力的激光打码字符分割方法
Uddin et al. A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss
CN117593275A (zh) 一种医学图像分割系统
CN117593187A (zh) 基于元学习和Transformer的遥感图像任意尺度超分辨率重建方法
CN116703750A (zh) 基于边缘注意力和多阶微分损失的图像去雾方法及系统
CN115100731B (zh) 一种质量评价模型训练方法、装置、电子设备及存储介质
Fan et al. [Retracted] Accurate Recognition and Simulation of 3D Visual Image of Aerobics Movement
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
CN107729992B (zh) 一种基于反向传播的深度学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant