CN114881962A - 一种基于改进U-Net网络的视网膜图像血管分割方法 - Google Patents
一种基于改进U-Net网络的视网膜图像血管分割方法 Download PDFInfo
- Publication number
- CN114881962A CN114881962A CN202210477599.2A CN202210477599A CN114881962A CN 114881962 A CN114881962 A CN 114881962A CN 202210477599 A CN202210477599 A CN 202210477599A CN 114881962 A CN114881962 A CN 114881962A
- Authority
- CN
- China
- Prior art keywords
- model
- blood vessel
- network
- segmentation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 45
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 25
- 210000001525 retina Anatomy 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims abstract description 7
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 238000012795 verification Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 210000001210 retinal vessel Anatomy 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000002401 inhibitory effect Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000005728 strengthening Methods 0.000 claims description 3
- 230000002207 retinal effect Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000005070 sampling Methods 0.000 abstract description 3
- 238000005096 rolling process Methods 0.000 abstract 2
- 230000004913 activation Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000004256 retinal image Effects 0.000 description 3
- 201000004569 Blindness Diseases 0.000 description 2
- 206010012689 Diabetic retinopathy Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000002249 Diabetes Complications Diseases 0.000 description 1
- 206010012655 Diabetic complications Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 206010047513 Vision blurred Diseases 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提出了一种基于改进U‑Net网络的视网膜血管分割方法。通过对彩色眼底图像进行图像增强,提高图像中血管与背景之间的对比度,同时扩增训练数据集。以U‑Net编码器‑解码器结构为基本分割框架,设计密集卷积块和CDBR层结构代替传统卷积块,实现了多尺度特征信息的学习,提高模型的特征提取能力。同时,在模型跳跃连接处引入注意力机制,使模型重新分配权重,调整特征通道的重要程度,抑制噪声同时解决解码器端上采样过程中的血管信息丢失问题,基于以上技术构建GAB‑D2BUNet网络模型。本发明采用国际公开的视网膜眼底血管数据集DRIVE进行训练,最后保留最佳的分割模型验证模型的分割性能。本发明实现了精确的分割视网膜眼底血管的任务,具有较优的分割性能。
Description
技术领域
本发明涉及一种利用深度学习进行图像分割方法,具体为一种基于改进U-Net网络的视网膜图像血管分割方法,属于图像处理领域。
背景技术
糖尿病视网膜病变是一种病发率和致盲率都很高的糖尿病并发症。糖尿病视网膜病变是由血糖升高引起的视网膜疾病,体内血糖水平较高会导致滋养视网膜的微小视网膜血管堵塞或损坏,为了维持眼部营养代谢,视网膜会滋生新的细小血管,但由于新生血管比较脆弱,容易出现血管物质渗出和出血的现象。久而久之,患者就会出现视力模糊症状,更严重的会导致失明。据世界卫生组织统计,全世界大约有2.2亿人受到糖尿病的影响。由于视网膜血管结构形态变化直接反映了眼部的健康状况,专业医生对视网膜血管状况的准确诊断对预防和治疗相关眼部疾病具有非常重要的意义。但眼部血管细密且分布复杂,视网膜血管与眼球的对比度较低,造成微小血管难以区分。除此之外,视网膜眼底图片在成像时,受光线不均和噪声的影响较大,造成眼底视网膜图像的血管分割困难。人工分割耗时较长且难以实现大量图像分割,另外,专业医生水平、诊断经验的不同造成实际的手动分割效果也相差较大,难以统一分割标准。视网膜血管的自动分割技术依然成为目前医学图像分割领域的研究重点。
国内外研究者提出了大量算法用于解决眼底图像分割任务,这些算法中根据是否需要标签主要分为有监督和无监督两种。无监督算法不需要对像素点进行标记,利用视网膜血管的结构分布等特征信息,通过匹配滤波、形态学处理、血管追踪、均值聚类等方法,学习利用特征信息的相关性来识别血管的大概分布。相比于无监督的方法,监督算法需要把像素点标记为血管还是背景,监督学习中的机器学习方式主要是利用卷积进行提取特征,然后训练分类器,同时对眼底图像全局或特定区域的血管进行分类。特征提取通常采用Gabor变换、离散小波变换、高斯滤波等方法,在分类阶段通常利用支持向量机SVM算法和人工神经网络作为分类器。
近年来,深度学习在目标检测、图像识别等计算机视觉领域取得了较大突破,目前越来越多的研究人员采用深度学习的方法进行眼底视网膜血管分割。卷积神经网络通过对原始图像数据进行从低层到高层的特征提取,有效提取高层的语义特征。最近几年,研究人员提出了一种基于全卷积神经网络的编码器-解码器网络架构,由于该结构对称呈U型,故称为U-Net。
发明内容
为了解决现有分割技术分割不精细的问题,本发明提供了一种基于改进U-Net网络的视网膜图像血管分割方法。采用公开的彩色眼底数据集DRIVE对模型进行训练,实现视网膜图像血管的精确分割。
为了验证模型的分割性能,本发明的技术方案为:
步骤1:获取公开的彩色视网膜眼底血管分割数据集DRIVE;
步骤2:随机划分原始数据集,验证集取20张和测试集取20张;
步骤3:对步骤2的训练集眼底图像预处理,提高图像对比度突出视网膜血管细节特征;
步骤4:对步骤3预处理后的图像,进行数据扩增处理,采用随机裁剪,加入高斯噪声,水平、垂直和对角线翻转等方式来处理数据;
步骤5:设计密集卷积块,利用密集卷积块替代传统卷积块以实现特征复用、提高模型的特征提取能力;
步骤6:引入DropBlock块来正则化网络,缓解卷积网络中的过拟合问题;
步骤7:构建注意力机制模块,强化目标特征信息,抑制无用特征信息;
步骤8:使用Tensorflow深度学习框架搭建GAB-D2BUNet网络;
步骤9:将增强后的训练数据集输入到步骤7所建立的分割网络中,进行模型的训练。模型训练过程中设置Batchsize为5,设置网络学习率为0.0001,DropBlock阈值概率设为0.8,丢弃块block_size大小为7,选择Adam优化器进行网络参数优化,采用交叉熵损失函数计算损失,epoch大小设为100;
步骤10:按照步骤8的参数配置训练模型,最后保存训练完成后的模型参数;
步骤11:引入模型框架,加载步骤9保存的模型参数,得到训练好的血管分割模型,利用步骤2随机划分的测试集输入到该模型中,获取最终的分割图。
附图说明
图1为本发明的流程图;
图2为本发明的眼底图像预处理效果图;
图3为本发明的密集卷积块结构图;
图4为本发明的改进注意力模块;
图5为本发明的GAB-D2BUNet网络模型框架图;
图6为本发明的U-Net传统卷积与CDBR结构化卷积结构对比图,其中左为U-Net传统卷积,右为CDBR结构化卷积;
图7为本发明模型训练的Accuracy和Loss曲线;
图8为本发明算法的分割效果对比图。
具体实施方式
根据本发明的一个实施例,提出了一个基于改进U-Net网络的视网膜图像血管分割方法。精简U-Net框架,采用对称的3次编码-解码结构,优化传统卷积,引入注意力机制,最后实现模型的精确分割效果。下面结合图和具体实例对本发明作进一步的详细描述,本发明的血管分割流程图如图1所示。本发明的基于改进U-Net网络的视网膜图像血管分割方法具体包含以下步骤:
步骤1:获取公开的彩色视网膜眼底血管分割数据集DRIVE;
步骤2:随机划分原始数据集,验证集取20张和测试集取20张;
步骤3:对步骤2的训练集眼底图像预处理,提高图像对比度突出视网膜血管细节特征,如图2所示。将数据集进行灰度转换,对眼底图像进行通道提取,观察可知绿色通道中眼底图片的血管和背景对比度较高,能够较为清晰的显示血管结构分布,包含的细节信息最丰富;对绿色单通图像进行对比度受限的自适应直方图均衡化(Contrast LimitedAdaptive Histogram Equalization,CLAHE)算法增强血管和背景之间的对比度,使血管结构特征更加清晰,增强图像边缘信息,同时抑制图像中存在的噪声;利用伽马gamma修正灰度化,降低光照不均和中心线反射现象的影响,在保证视网膜图像中高亮血管区域的同时增亮对比度较低的血管区域;对修正后的灰度图进行标准化处理,对图像进行零均值化和单位标准化处理,使其符合正态分布。使网络更好地学习图像的特征分布,加快网络的训练速度。
步骤4:对步骤3预处理后的图像,进行数据扩增处理,采用随机裁剪,加入高斯噪声,水平、垂直和对角线翻转等方式来处理数据;
步骤5:设计密集卷积块,利用密集卷积块替代传统卷积块以实现特征复用、提高模型的特征提取能力。首先构建密集连接子块,密集连接子块先通过1x1的卷积层将输入信息进行特征整合,然后通过一个批量归一化层和ReLU激活函数将特征进行非线性特征处理,再通过3x3的卷积层进行特征提取,提取的特征图再通过归一化层和ReLU激活函数层,密集卷积设计为4组密集连接子块,最后为了减少密集连接层输出特征图通道数过多,最后添加一个压缩层,恢复输入原始通道数,密集连接块结构如图3所示。在密集连接中,网络每一层的输入都是前面所有层输出的并集,每一层的输出也会直接传给之后的所有层作为输入,达到特征重复利用的目的。设网络第i层的输出为Xi,其计算公式如下:
Xi=Hi([X0,X1,…Xi-1]);
其中,Hi是i层的非线性变换函数,其可以是批量归一化、激活、池化或者卷积的复合函数,[X0,X1,…Xi-1]表示将0到i-1层的输出进行合并。对于数据规模较小的模型输入,在训练过程中难以避免过拟合的问题,而密集连接具有较好的抗过拟合性能。密集连接可以充分利用浅层的特征,深浅层不同复杂度的特征综合利用,保证网络中各层之间特征信息流的最大化,增强抗拟合性。特征图每经过一个密集卷积块就会输出得到一个具有融合多尺度信息的特征图,而非冗余信息。另外,密集连接可以从前面的密集卷积块输出中获益,有效避免特征传播过程中梯度爆炸和消失的风险。
步骤6:引入DropBlock块来正则化网络,缓解卷积网络中的过拟合问题。模型采用DxopBlock,来正则化网络,这是一种结构化形式的dropout来正则化,它将feature map相邻区域中的单元放在一起丢弃,这种方式可以有效的丢弃部分语义信息,激励网络提取到更加有效的特征信息,可以有效防止卷积网络中的过拟合问题,DropBlock有两个主要参数,block_size和γ。Block_size表示要删除的块的大小,γ控制要删除的激活单元的个数。γ的计算公式如下:
其中,keep_prob表示阈值概率,特征图中所有低于这个值的元素都会被丢弃掉,feat_size表示为特征图的尺寸,feat_size-block_size+1为有效的种子区域。γ的大小取决于keep_prob,通常不直接设置γ的取值,而是设置阈值概率来计算γ。
步骤7:构建注意力机制模块,强化目标特征信息,抑制无用特征信息。设计注意力机制GAB模块,如图4所示。将其应用于U-Net的跳跃连接上,以赋予收缩路径的每个特征图新的权重,GAB由通道注意CA模块和空间注意力SA模块构成,采用单分支结构代替CBAM的双分支结构。GAB的特征输入Fgab-input∈RH×W×C,特征图的每个通道可以视为对特定类别的响应,通道注意力更加关注有意义的特征。首先通过全局平均池化来聚合全局信息生成一个R1×1×C维度的通道描述符,汇集有意义的特征。为了充分利用全局信息,捕获特征图各通道之间的依赖关系,采用1×1大小的卷积核进行通道压缩,即原来的通道数由C缩小为C′,生成特征图Fdense=RH×W×C′,其中C′=C/r,参数r的大小不同,对模型性能影响效果也会不同,然后再经过一个全连接层,将通道数恢复至原来数量,接着Sigmoid函数激活得到权重系数Mc(Fgab-input)∈R1×1×C。最后,特征图Fgab-input和权重系数相乘输出为缩放后的新特征图,通道注意力特征图Fc∈RH×W×C计算公式如下:
Fc=Fgab-inputMc(Fgab-input)=Fgab-input·σ(γ(f1×1(f1×1(GAB(Fgab-input)))))
上式中,γ(·)表示ReLU激活函数,σ(·)表示Sigmoid函数,GAP(·)为全局平均池化层,f1×1(·)表示卷积核大小为1×1的卷积操作。
空间注意力SA使用特征之间的空间关系来产生空间注意力图,在计算过程中,改进传统的SA中对通道轴进行最大池化和平均池化,所提出的模块采用单分支结构,在SA中,只沿着通道轴进行平均池化操作,生成特征图然后以卷积核为7×7大小对其进行卷积,接着采用Sigmoid激活函数进行激活处理得到新的空间权重系数Ms(Fc)∈RH×W×C。最后将原来的特征图和新的空间权重系数相乘,由以下公式计算得出,输出特征Fs∈RH ×W×C。
Fs=Fc·Ms(Fc)=Fc·σ(f7×7(AvgPool(Fc)));
其中,f7×7(·)为卷积核大小为7的卷积操作,σ(·)表示Sigmoid函数。
步骤8:使用Tensorflow深度学习框架搭建GAB-D2BUNet分割网络,整体模型框架图5所示。采用对称的3次下采样网络结构取代传统的U-Net网络使用4次下采样操作和4次上采样结构。模型集成Conv2D层、DropBlock层、批量归一化BN层以及ReLU激活函数构成CDBR模块,如图6所示,并结合密集卷积块取代原始的U-Net卷积。
首先对模型输入的图像进行1x1的卷积,设置16个卷积核,实现单通道的灰度图映射为16通道的特征图,图片尺寸为596×596像素,输入到解码端。卷积输出图像数据经过密集卷积块得到指定输出通道数的特征图,密集卷积的输出特征传递到CDBR集成模块中。无论在编码端还是解码端,每一层对应密集卷积块和CDBR集成的组合。模型采用Max pooling下采样,利用反卷积进行上采样,还原图像原始分辨率。编码端与解码端以跳跃连接的方式将特征图连接起来,在跳跃连接结构与编码-解码的“桥”连接处中嵌入注意力机制,实现下采样的深度信息与上采样中的浅层信息融合,同时抑制无关信息。在最后一层,使用1×1大小的卷积生成一个与原始图像分辨率相同的特征图,
步骤9:将增强后的训练数据集输入到步骤7所建立的分割网络中,进行模型的训练。模型训练过程中设置Batchsize为5,设置网络学习率为0.0001,DropBlock阈值概率设为0.8,丢弃块block_size大小为7,选择Adam优化器进行网络参数优化,采用二分类交叉熵损失函数计算损失,epoch大小设为100。模型训练的准确率和损失变化曲线下图7所示。
步骤10:按照步骤8的参数配置训练模型,最后保存训练完成后的模型参数;
步骤11:引入模型框架,加载步骤9保存的模型参数,得到训练好的血管分割模型,利用步骤2随机划分的测试集输入到该模型中,获取最终的分割图。
基于改进U-Net网络的视网膜图像血管分割方法模型在测试集上的准确率为0.9690、特异性0.9873、灵敏度0.8441、AUC值0.9858、F1值0.8289,具体分割结果如图8所示,模型分割效果较好,在分割准确率和分割细节上表现出色。
以上对本发明所提供的基于改进U-Net网络的视网膜图像血管分割方法进行了详细的说明,但本发明的范围并不局限于此,在不脱离所附权利要求书所限定的保护范围的情况下,对上述实例的各种改变都在本发明的范围之内。
Claims (1)
1.基于改进U-Net网络的视网膜图像血管分割方法,其特征在于,具体步骤为:
步骤1:获取公开的彩色视网膜眼底血管分割数据集DRIVE;
步骤2:随机划分原始数据集,验证集取20张和测试集取20张;
步骤3:对步骤2的训练集眼底图像预处理,提高图像对比度突出视网膜血管细节特征;
步骤4:对步骤3预处理后的图像,进行数据扩增处理,采用随机裁剪,加入高斯噪声,水平、垂直和对角线翻转等方式来处理数据;
步骤5:设计密集卷积块,利用密集卷积块替代传统卷积块以实现特征复用、提高模型的特征提取能力;
步骤6:引入DropBlock块来正则化网络,缓解卷积网络中的过拟合问题;
步骤7:构建注意力机制模块,强化目标特征信息,抑制无用特征信息;
步骤8:使用Tensorflow深度学习框架搭建GAB-D2BUNet网络;
步骤9:将增强后的训练数据集输入到步骤7所建立的分割网络中,进行模型的训练;模型训练过程中设置Batchsize为5,设置网络学习率为0.0001,DropBlock阈值概率设为0.8,丢弃块block_size大小为7,选择Adam优化器进行网络参数优化,采用交叉熵损失函数计算损失,epoch大小设为100;
步骤10:按照步骤8的参数配置训练模型,最后保存训练完成后的模型参数;
步骤11:引入模型框架,加载步骤9保存的模型参数,得到训练好的血管分割模型,利用步骤2随机划分的测试集输入到该模型中,获取最终的分割图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210477599.2A CN114881962B (zh) | 2022-04-28 | 2022-04-28 | 一种基于改进U-Net网络的视网膜图像血管分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210477599.2A CN114881962B (zh) | 2022-04-28 | 2022-04-28 | 一种基于改进U-Net网络的视网膜图像血管分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114881962A true CN114881962A (zh) | 2022-08-09 |
CN114881962B CN114881962B (zh) | 2024-04-19 |
Family
ID=82674294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210477599.2A Active CN114881962B (zh) | 2022-04-28 | 2022-04-28 | 一种基于改进U-Net网络的视网膜图像血管分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881962B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115424023A (zh) * | 2022-11-07 | 2022-12-02 | 北京精诊医疗科技有限公司 | 一种增强小目标分割性能的自注意力机制模块 |
CN116452992A (zh) * | 2023-05-18 | 2023-07-18 | 山东省人工智能研究院 | 一种最小路径管状结构中心线的提取方法 |
CN117058676A (zh) * | 2023-10-12 | 2023-11-14 | 首都医科大学附属北京同仁医院 | 一种基于眼底检查影像的血管分割方法、装置和系统 |
CN117078720A (zh) * | 2023-08-31 | 2023-11-17 | 齐鲁工业大学(山东省科学院) | 融合神经网络的管状结构快速追踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097554A (zh) * | 2019-04-16 | 2019-08-06 | 东南大学 | 基于密集卷积和深度可分离卷积的视网膜血管分割方法 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
JP6980958B1 (ja) * | 2021-06-23 | 2021-12-15 | 中国科学院西北生態環境資源研究院 | 深層学習に基づく農村地域分けゴミ識別方法 |
-
2022
- 2022-04-28 CN CN202210477599.2A patent/CN114881962B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097554A (zh) * | 2019-04-16 | 2019-08-06 | 东南大学 | 基于密集卷积和深度可分离卷积的视网膜血管分割方法 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
JP6980958B1 (ja) * | 2021-06-23 | 2021-12-15 | 中国科学院西北生態環境資源研究院 | 深層学習に基づく農村地域分けゴミ識別方法 |
Non-Patent Citations (1)
Title |
---|
梅旭璋;江红;孙军;: "基于密集注意力网络的视网膜血管图像分割", 计算机工程, no. 03, 15 March 2020 (2020-03-15) * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115424023A (zh) * | 2022-11-07 | 2022-12-02 | 北京精诊医疗科技有限公司 | 一种增强小目标分割性能的自注意力机制模块 |
CN116452992A (zh) * | 2023-05-18 | 2023-07-18 | 山东省人工智能研究院 | 一种最小路径管状结构中心线的提取方法 |
CN116452992B (zh) * | 2023-05-18 | 2024-02-02 | 山东省人工智能研究院 | 一种最小路径管状结构中心线的提取方法 |
CN117078720A (zh) * | 2023-08-31 | 2023-11-17 | 齐鲁工业大学(山东省科学院) | 融合神经网络的管状结构快速追踪方法 |
CN117078720B (zh) * | 2023-08-31 | 2024-03-01 | 齐鲁工业大学(山东省科学院) | 融合神经网络的管状结构快速追踪方法 |
CN117058676A (zh) * | 2023-10-12 | 2023-11-14 | 首都医科大学附属北京同仁医院 | 一种基于眼底检查影像的血管分割方法、装置和系统 |
CN117058676B (zh) * | 2023-10-12 | 2024-02-02 | 首都医科大学附属北京同仁医院 | 一种基于眼底检查影像的血管分割方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114881962B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114881962A (zh) | 一种基于改进U-Net网络的视网膜图像血管分割方法 | |
CN111476283A (zh) | 基于迁移学习的青光眼眼底图像识别方法 | |
CN109635862B (zh) | 早产儿视网膜病plus病变分类方法 | |
CN109448006A (zh) | 一种注意力机制u型密集连接视网膜血管分割方法 | |
CN109685813A (zh) | 一种自适应尺度信息的u型视网膜血管分割方法 | |
CN112150476B (zh) | 基于时空判别性特征学习的冠状动脉序列血管分割方法 | |
CN112016626B (zh) | 基于不确定度的糖尿病视网膜病变分类系统 | |
CN111612856B (zh) | 用于彩色眼底图像的视网膜新生血管检测方法及成像方法 | |
Nebout et al. | Predicting saliency maps for ASD people | |
CN113012163A (zh) | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 | |
CN113763292A (zh) | 一种基于深度卷积神经网络的眼底视网膜图像分割方法 | |
Phridviraj et al. | A bi-directional Long Short-Term Memory-based Diabetic Retinopathy detection model using retinal fundus images | |
Qin et al. | A review of retinal vessel segmentation for fundus image analysis | |
Tu et al. | DRPAN: a novel adversarial network approach for retinal vessel segmentation | |
CN117315258A (zh) | 基于图卷积网络和部分卷积的轻量级视网膜血管分割方法 | |
Mookiah et al. | Computer aided diagnosis of diabetic retinopathy using multi-resolution analysis and feature ranking frame work | |
CN116091449A (zh) | 一种基于无监督异构蒸馏框架的视网膜oct图像病变分类方法 | |
CN114359104A (zh) | 一种基于分级生成的白内障眼底图像增强方法 | |
Prabha et al. | Diabetic Retinopathy Detection Using Automated Segmentation Techniques | |
Fu et al. | Agc-unet: a global context feature fusion method based on u-net for retinal vessel segmentation | |
Taş et al. | Detection of retinal diseases from ophthalmological images based on convolutional neural network architecture. | |
Xu et al. | Retinal vessel segmentation with vae reconstruction and multi-scale context extractor | |
Singh et al. | Deep learning-based retinal vessel segmentation: a review | |
Hatode et al. | Evolution and Testimony of Deep Learning Algorithm for Diabetic Retinopathy Detection | |
Nageswari et al. | Automatic Detection and Classification of Diabetic Retinopathy using Modified UNET |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |