CN115797329A - 一种基于改进Unet网络的眼底图像视盘视杯分割方法 - Google Patents

一种基于改进Unet网络的眼底图像视盘视杯分割方法 Download PDF

Info

Publication number
CN115797329A
CN115797329A CN202211732709.1A CN202211732709A CN115797329A CN 115797329 A CN115797329 A CN 115797329A CN 202211732709 A CN202211732709 A CN 202211732709A CN 115797329 A CN115797329 A CN 115797329A
Authority
CN
China
Prior art keywords
unet network
network
optic
improved
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211732709.1A
Other languages
English (en)
Inventor
徐伟
陶淑苹
刘帅
李宗轩
高倓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Original Assignee
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun Institute of Optics Fine Mechanics and Physics of CAS filed Critical Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority to CN202211732709.1A priority Critical patent/CN115797329A/zh
Publication of CN115797329A publication Critical patent/CN115797329A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

本发明提出一种基于改进Unet网络的眼底图像视盘视杯分割方法,包括步骤:使用labelme软件对获取的眼底图像数据集进行视盘视杯区域的数据标注以及数据集划分;构建Unet网络,包括主干特征提取部分、加强特征提取部分和预测部分;在Unet网络中每次3×3的卷积后添加批量标准化以及引入Rate分别为1、2、4的三个空洞卷积,并将三个空洞卷积的结果累积加和;网络训练后得到训练好的Unet网络模型。本发明通过在Unet网络中添加BN,降低了不同样本间值域的差异性,减少了梯度对参数或其初始值的依赖性,加速了网络的收敛;通过引入三个空洞卷积,在不增加模型参数数量和复杂性的前提下扩大感受野,分割准确率更高。

Description

一种基于改进Unet网络的眼底图像视盘视杯分割方法
技术领域
本发明属于医学影像人工智能语义分割技术领域,尤其涉及一种基于改进Unet网络的眼底图像视盘视杯分割方法。
背景技术
青光眼是一种可导致视力严重减弱甚至失明的高发眼部疾病,而且青光眼引起的视觉损伤是不可逆的。但是,早期发现并及时治疗可极大地降低视力损伤。青光眼的早期检查通常是通过彩色眼底图像中视杯垂直直径和视盘垂直直径的长度比例即杯盘比(cuptodiscratio,CDR)关系确定。CDR现已成为当今青光眼疾病诊断和患病程度的一个重要衡量指标。而准确计算CDR的前提就是准确地对眼底图像分割视杯和视盘区域。
传统的视杯和视盘区域分割通常是由有经验的医生手动完成,这种分割方式耗费大量精力并且分割效率较低。随着计算机视觉技术的发展,开始对眼底图像进行图像处理来实现自动准确地分割视杯和视盘区域。传统图像处理技术进行分割视杯和视盘区域方法主要有:基于超像素、血管空间结构先验分析、聚类分析和活动轮廓模型等算法。但是,上述大部分算法虽然成功实现了眼底图像视盘及视杯区域的分割,但通常没有考虑视杯和视盘的解剖几何结构关系,且算法易受视网膜病理区域、血管覆盖和图像的灰度不均匀性等因素的影响。
发明内容
针对上述问题,本发明提供一种基于改进Unet网络的眼底图像视盘视杯分割方法。
为解决上述问题,本发明采取如下的技术方案:
一种基于改进Unet网络的眼底图像视盘视杯分割方法,包括以下步骤:
步骤1:获取眼底图像数据集,使用labelme软件对所述眼底图像数据集进行视盘视杯区域的数据标注,并将标注后的数据集划分为训练集、验证集和测试集;
步骤2:构建Unet网络,所述Unet网络包括主干特征提取部分、加强特征提取部分和预测部分,其中所述主干特征提取部分为卷积层和最大池化层的堆叠,利用主干特征提取部分获得五个初步有效特征层,五个初步有效特征层的尺寸分别为512×512×64、256×256×128、128×128×256、64×64×512和32×32×512,所述加强特征提取部分利用五个初步有效特征层进行上采样,并且进行特征融合,获得一个融合了所有特征的有效特征层,所述预测部分利用最终获得的有效特征层对每一个特征点进行三分类;
步骤3:在所述Unet网络中每次3×3的卷积后添加批量标准化以及在尺寸为32×32×512的初步有效特征层之后、相邻的上采样操作之前引入Rate分别为1、2、4的三个空洞卷积,并将三个空洞卷积的结果累积加和,经过上述对Unet网络的优化改进后得到改进Unet网络;
步骤4:根据DiceLoss损失函数求解改进Unet网络的损失值;
步骤5:将训练集和验证集输入改进Unet网络,利用梯度下降法优化网络模型参数,对改进Unet网络进行训练,得到训练好的Unet网络模型;
步骤6:用训练好的Unet网络模型对待分割眼底图像进行视盘及视杯区域的分割,得到视盘视杯分割结果。
本发明的有益效果是:
(1)本发明通过在Unet网络中每次3×3的卷积后添加批量标准化(BatchNormalization,BN),BN降低了不同样本间值域的差异性,减少了梯度对参数或其初始值的依赖性,从而避免了梯度消失和梯度爆炸,加速了网络的收敛;
(2)本发明通过在Unet网络中引入三个空洞卷积,在不增加模型参数数量和复杂性的前提下扩大感受野来获得更多上下文信息;将三个空洞卷积的结果累积加和,这可以在不丢失分辨率的情况下扩大感受野,并且可以捕获多尺度上下文信息;
(3)将本发明所提出的视盘视杯分割方法与其他语义分割算法在眼底公共数据集上做对比,本发明的分割方法具有较高的分割准确率。
附图说明
图1为本发明所述的一种基于改进Unet网络的眼底图像视盘视杯分割方法的流程图;
图2为Unet网络结构图;
图3为改进Unet网络结构图;
图4为Unet网络结构参数图;
图5为改进Unet网络结构参数图;
图6为眼底图像视盘及视杯区域的分割效果图。
具体实施方式
为了加深对本发明的理解,下面将结合附图和实例对本发明做进一步详细描述,该实例仅为本分明其中的一个应用实例,并不对本发明的保护范围构成限定。
如图1所示,本发明提供一种基于改进Unet网络的眼底图像视盘视杯分割方法,包括以下步骤:
步骤1:获取眼底图像数据集,使用labelme软件对所述眼底图像数据集进行视盘视杯区域的数据标注,并将标注后的数据集划分为训练集、验证集和测试集。
眼底图像数据集可以从MESSIDOR数据集获取,例如获取MESSIDOR数据集的1058张眼底图像,使用labelme软件对眼底数据集中的图像逐一进行视盘视杯区域的数据标注,然后按照7:1:2的比例将标注后的数据集分为训练集740张、验证集106张和测试集212张。
步骤2:构建Unet网络,该Unet网络分为三个部分:主干特征提取部分、加强特征提取部分和预测部分。Unet网络结构如图2所示。主干特征提取部分为卷积层和最大池化层的堆叠,利用主干特征提取部分获得五个初步有效特征层,它们的尺寸分别为512×512×64、256×256×128、128×128×256、64×64×512和32×32×512。加强特征提取部分利用主干特征提取部分获取到的五个初步有效特征层进行上采样,并且进行特征融合,获得一个融合了所有特征的有效特征层,该有效特征层的尺寸为512×512×64。预测部分利用最终获得的有效特征层对每一个特征点进行三分类,相当于对每一个像素点进行背景区域、视盘区域和视杯区域三分类。Unet网络结构参数如图4所示。
步骤3:对于Unet这种深层神经网络,如果网络前几层的数据稍有变化,那么后几层误差会累积扩大。因此,本发明对Unet网络进行如下的优化改进:(1)在Unet网络中每次3×3的卷积后添加批量标准化(BatchNormalization,BN),BN降低了不同样本间值域的差异性,减少了梯度对参数或其初始值的依赖性,从而避免了梯度消失和梯度爆炸,加速了网络的收敛;(2)在Unet网络中,为了在不增加模型参数数量和复杂性的前提下扩大感受野来获得更多上下文信息,在尺寸为32×32×512的初步有效特征层后、相邻的上采样操作之前引入Rate分别为1、2、4的三个空洞卷积,并且为了获取多尺度上下文信息,将三个空洞卷积的结果累积加和,这可以在不丢失分辨率的情况下扩大感受野,并且不同的Rate可以捕获多尺度上下文信息。经过上述对Unet网络的优化改进后即可得到改进Unet网络,改进Unet网络结构如图3所示,改进Unet网络结构参数如图5所示。
步骤4:根据DiceLoss损失函数求解改进Unet网络的损失值。
步骤5:模型训练,将训练集和验证集输入改进Unet网络,利用梯度下降法优化网络模型参数,对改进Unet网络进行训练,得到训练好的Unet网络模型。
进一步地,在对改进Unet网络进行训练时,具体包括如下步骤:
S51):网络模型参数初始化,利用Fine-tune原理,保留原Unet的模型参数;
S52):设置模型训练参数,网络的初始化learningrate为0.001,decay为0.0005,momentum为0.9,batch_size为32;
S53):通过梯度下降法对改进的Unet网络进行训练,利用Keras中的Callback函数监视验证集的损失值,每迭代50次保存一次网络参数,经过不断的迭代训练,得到训练好的Unet网络模型。
步骤6:用训练好的Unet网络模型对待分割眼底图像进行视盘及视杯区域的分割,得到视盘视杯分割结果。利用本发明设计的改进Unet网络,用户给定图像后,用训练好的Unet网络模型分割视盘及视杯区域,可以得到更加精确的视盘及视杯区域的相关信息。
将测试集中的眼底图像输入到训练好的Unet网络模型,首先主干特征提取部分对图像进行特征提取得到5个初步有效特征层,然后加强特征提取部分进行上采样并将上采样结果与初步有效特征层进行特征融合得到融合所有特征的有效特征层,最后预测部分对有效特征层的每一个像素点进行三分类,得到眼底图像的视盘视杯分割结果。眼底图像视盘及视杯区域的分割效果如图6所示。
本发明的保护范围也并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (2)

1.一种基于改进Unet网络的眼底图像视盘视杯分割方法,其特征在于,包括以下步骤:
步骤1:获取眼底图像数据集,使用labelme软件对所述眼底图像数据集进行视盘视杯区域的数据标注,并将标注后的数据集划分为训练集、验证集和测试集;
步骤2:构建Unet网络,所述Unet网络包括主干特征提取部分、加强特征提取部分和预测部分,其中所述主干特征提取部分为卷积层和最大池化层的堆叠,利用主干特征提取部分获得五个初步有效特征层,五个初步有效特征层的尺寸分别为512×512×64、256×256×128、128×128×256、64×64×512和32×32×512,所述加强特征提取部分利用五个初步有效特征层进行上采样,并且进行特征融合,获得一个融合了所有特征的有效特征层,所述预测部分利用最终获得的有效特征层对每一个特征点进行三分类;
步骤3:在所述Unet网络中每次3×3的卷积后添加批量标准化以及在尺寸为32×32×512的初步有效特征层之后、相邻的上采样操作之前引入Rate分别为1、2、4的三个空洞卷积,并将三个空洞卷积的结果累积加和,经过上述对Unet网络的优化改进后得到改进Unet网络;
步骤4:根据DiceLoss损失函数求解改进Unet网络的损失值;
步骤5:将训练集和验证集输入改进Unet网络,利用梯度下降法优化网络模型参数,对改进Unet网络进行训练,得到训练好的Unet网络模型;
步骤6:用训练好的Unet网络模型对待分割眼底图像进行视盘及视杯区域的分割,得到视盘视杯分割结果。
2.根据权利要求1所述的一种基于改进Unet网络的眼底图像视盘视杯分割方法,其特征在于,对改进Unet网络进行训练的具体步骤如下:
S51):网络模型参数初始化,利用Fine-tune原理,保留原Unet网络的模型参数;
S52):设置模型训练参数,网络的初始化learningrate为0.001,decay为0.0005,momentum为0.9,batch_size为16;
S53):通过梯度下降法对改进的Unet网络进行训练,利用Keras中的Callback函数监视验证集的损失值,每迭代50次保存一次网络参数,经过不断的迭代训练,得到训练好的Unet网络模型。
CN202211732709.1A 2022-12-30 2022-12-30 一种基于改进Unet网络的眼底图像视盘视杯分割方法 Pending CN115797329A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211732709.1A CN115797329A (zh) 2022-12-30 2022-12-30 一种基于改进Unet网络的眼底图像视盘视杯分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211732709.1A CN115797329A (zh) 2022-12-30 2022-12-30 一种基于改进Unet网络的眼底图像视盘视杯分割方法

Publications (1)

Publication Number Publication Date
CN115797329A true CN115797329A (zh) 2023-03-14

Family

ID=85428386

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211732709.1A Pending CN115797329A (zh) 2022-12-30 2022-12-30 一种基于改进Unet网络的眼底图像视盘视杯分割方法

Country Status (1)

Country Link
CN (1) CN115797329A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN116385725B (zh) * 2023-06-02 2023-09-08 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备

Similar Documents

Publication Publication Date Title
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN110197493B (zh) 眼底图像血管分割方法
CN109584254B (zh) 一种基于深层全卷积神经网络的心脏左心室分割方法
CN109166126B (zh) 一种基于条件生成式对抗网络在icga图像上分割漆裂纹的方法
CN110930416B (zh) 一种基于u型网络的mri图像前列腺分割方法
CN109325942B (zh) 基于全卷积神经网络的眼底图像结构分割方法
Abdullah et al. A review on glaucoma disease detection using computerized techniques
CN110276356A (zh) 基于r-cnn的眼底图像微动脉瘤识别方法
CN112529839B (zh) 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
CN110992382A (zh) 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
CN111369528B (zh) 基于深度卷积网络的冠状动脉血管造影图像狭窄区域标示方法
CN108764342B (zh) 一种对于眼底图中视盘和视杯的语义分割方法
CN112837805B (zh) 基于深度学习的眼睑拓扑形态特征的提取方法
CN111507932A (zh) 高特异性的糖尿病性视网膜病变特征检测方法及存储设备
CN115797329A (zh) 一种基于改进Unet网络的眼底图像视盘视杯分割方法
CN115035127A (zh) 一种基于生成式对抗网络的视网膜血管分割方法
CN115578783A (zh) 基于眼部图像进行眼部疾病识别的装置、方法及相关产品
CN113724203B (zh) 应用于oct图像中目标特征分割的模型训练方法及装置
Miao et al. Classification of diabetic retinopathy based on multiscale hybrid attention mechanism and residual algorithm
CN112102234B (zh) 基于目标检测神经网络的耳硬化病灶检测及诊断系统
Shanid et al. Lung cancer detection from CT images using salp-elephant optimization-based deep learning
Thanh et al. A Real-Time Classification Of Glaucoma from Retinal Fundus Images Using AI Technology
CN116092667A (zh) 基于多模态影像的疾病检测方法、系统、装置及存储介质
CN115409857A (zh) 一种基于深度学习的三维脑积水ct图像分割方法
Khan et al. A Computer-Aided Diagnostic System to Identify Diabetic Retinopathy, Utilizing a Modified Compact Convolutional Transformer and Low-Resolution Images to Reduce Computation Time. Biomedicines. 2023. No. 11. Art. 1566

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination