CN109685813B - 一种自适应尺度信息的u型视网膜血管分割方法 - Google Patents
一种自适应尺度信息的u型视网膜血管分割方法 Download PDFInfo
- Publication number
- CN109685813B CN109685813B CN201811611340.2A CN201811611340A CN109685813B CN 109685813 B CN109685813 B CN 109685813B CN 201811611340 A CN201811611340 A CN 201811611340A CN 109685813 B CN109685813 B CN 109685813B
- Authority
- CN
- China
- Prior art keywords
- information
- image
- retinal
- layer
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种自适应尺度信息的U型视网膜血管分割方法,包括视网膜血管图像预处理;构建视网膜血管分割模型二步骤。本发明能有效地解决相邻血管易相连、微血管过宽、细小血管易断裂、血管交叉处分割不足以及对图像噪声过于敏感、目标与背景灰度值交叉、视盘与病灶误分割等问题。本发明在较低复杂度的情况下融合多种网络模型,在DRIVE数据集上取得优异的分割结果,其准确率和灵敏度分别为97.48%和85.78%。ROC曲线值达到98.72%,已达到现在医疗实际应用的水准。
Description
技术领域
本发明涉及一种自适应目标尺度信息的U型密集连接视网膜血管分割方法,较好地解决了现有算法对血管尺度、姿态和纹理边缘信息鲁棒性不强的问题,有助于解决算法存在微血管分割不足、微血管分割过宽、血管交叉处分割断裂、病变处血管断裂、病灶与视盘误分割为血管等问题。
背景技术
血管是视网膜最重要的组成部分之一,视网膜血管分割和血管形态属性的划分,如长度、宽度、迂曲和角度,可用于各种心血管和眼科疾病的诊断、筛选、治疗和评估。近年来深度学习模型能够通过组合底层的特征形成高层的数据抽象特征进而模拟人类大脑认知机制,且能够自动发现隐藏在数据中的模式,具有强大的数据结构学习能力和特征提取能力,可以使用这类模型来学习图像形状复杂的全局特征进而表征形状,但传统的卷积模型仍然存在模型固化,尺度单一等缺点。
最新文献“(蒋芸,谭宁.基于条件深度卷积生成对抗网络的视网膜血管分割[J/OL].自动化学报:1-12,2018-08-27.doi.org/10.16383/j.aas.c180285.)”记载,在DRIVE数据集上分割准确率和灵敏度分别在96.08%和82.74%,而在医学图像处理技术中,视网膜血管分割结果准确率即使提升0.1%都需要在算法复杂度与分割性能之间做出优异的权衡,往往高精度代表着算法的高复杂度,达不到实时辅助专家医疗的水平。
发明内容
本发明的目的是针对视网膜血管特征复杂多样与现有分割算法存在的不足,提出一种自适应尺度信息的U型视网膜血管分割方法。
本发明的技术方案:一种自适应尺度信息的U型视网膜血管分割方法,包括以下步骤:
步骤A01,视网膜血管图像预处理:
首先利用二维K-L变换方法综合分析视网膜图像的RGB三通道的频带信息,获取最优化目标形态结构和特征信息的第一主分量p1作为主要研究对象;然后利用多尺度形态学Top-Hot滤波提升视网膜图像微小血管的多尺度亮、暗细节特征,并平滑去噪;
步骤A02,构建视网膜血管分割模型:
首先在U-net模型中引入局部信息熵采样方法将视网膜图像划分为含血管信息量丰富的块状图像,有助于增加训练集,解决算法过拟合的问题;编码部分引入DenseNet网络DenseBlock结构,并且在DenseBlock结构嵌入可变形卷积层Deformable Convolutional,这样不仅能有效地学习金标准图像提供的特征信息,而且具有自适应血管形态结构和尺度信息能力,使得算法更鲁棒地提取血管复杂结构的特征信息;同时DenseBlock结构能充分利用每层可变形卷积的前后输出层特征图的结构信息,以降低特征提取时的网络参数复杂度,进一步克服原始U-net网络存在对底层卷积层血管特征信息利用不全的现象;其次,在U型模型底部引入金字塔型空洞卷积,通过设置不同扩张率有助于空洞卷积捕捉血管的局部或者全局特征信息,同时在增加网路整体的感受野信息情况下不增加算法的复杂度;在解码部分引入带有注意门模型Attention gates的反卷积网络;注意门模型Attentiongates,简称AGs,AGs可以根据金标准图像gτ特征信息增加经编码处理后第l网络层输入特征图血管的权重特征,能有效捕捉到血管的全局或者局部特征信息,并且过滤背景伪影、硬性渗出物、视盘和黄斑,提升反卷积层对血管图像信息的恢复和特征整合的性能,并结合U-net自身具有将高层信息与底层信息相结合的优点,有利于降低解码操作在恢复图像细节信息时,因信息恢复不全而造成的微血管断裂和分割不足的现象;最后,由Softmax激活函数进行血管与背景像素分类,以实现视网膜血管精分割。
所述的视网膜血管图像预处理包括以下子步骤:
步骤A01.1,利用二维K-L变换分析图像的统计信息来减少由颜色频带之间组成的数据维度,同时尽可能地保留数据集中主要的血管空间尺度信息;对于原始三通道图像x=(xR,xG,xB)T,频带之间信息是不相关的,故将原始颜色频带分量转换到主分量P=(p1,p2,p3)空间并创建三个新通道R′,G′,B′,相当于将原始RGB坐标系的中心点移到点分布的中心位置;原始图像x=(xR,xG,xB)T经K-L变换得到图像Ik,其定义如下:
式(1)中,为x的协方差矩阵的特征向量矩阵,T为转置符号;k=1,2,3;为了找到图像三通道的主分量P=(p1,p2,p3),并得到特征向量矩阵,需要将数据进行协方差对角化,故定义协方差矩阵C(i,j)为:
式(2)中,xi(m,n)和xj(m,n)分别为像素点(m,n)在i和j频带的值;xi0和xj0分别为i和j频带的平均值;由于眼底视网膜图像有R、G和B三个频带,故i,j=1,2,3;N为像素个数;
步骤A01.2,由多尺度形态学Top-Hot变换进行血管图像的整体增强,同时提取视网膜血管的微血管信息;通过控制图像边缘信息控制因子γa,调整相邻血管像素尺度的差值,降低视盘与黄斑特征信息的干扰,提高视网膜图像微小血管的多尺度亮、暗细节特征;多尺度形态学Top-Hot模型定义如下:
式(3)中,N为视网膜图像像素索引;λ为视网膜图像边缘增强因子;Id为输出图像;I1为包含最优化目标形态结构和特征信息的第一主分量p1所对应的图像;Dopa与Dcla分别为视网膜图像血管的亮与暗细节特征;控制因子γa的值由下式给出:
式(4)中,Sigmoid为激活函数;ea是视网膜图像膨胀与腐蚀之差;eamax与eamin分别为ea的最大值与最小值;γa的变化主要由视网膜图像的梯度信息决定;m,n为图像邻域像素值;
步骤A01.3,采用48×48的滑动窗口根据金标准图像局部块状所提供的目标特征信息确定训练图片局部区域的标签,并通过局部信息熵采样的方法捕捉预处理图像中的信息熵最高的块状部分,确保局部块状中含有目标特征信息;其图像信息熵H定义如下:
式(5)中,h为灰度级,qh为在灰度级h下的概率。
所述的构建视网膜血管分割模型包括编码、解码和视网膜血管分割三部分:
A02.1编码部分:
在U-net编码部分将DenseNet网络的DenseBlock结构与可变形卷积相结合,密集连接的路径有助于保证可变形卷积层之间的最大信息流,进而提高可变形卷积对目标尺度和形态特征的提取,从而改善梯度消失的问题;设l层的输出为θl,则该模型第l层的输出定义为:
θl=Hl([θ0,θ1,…,θl-1]) (6)
式(6)中,θ0,θ1,…,θl-1表示0,1,…,l-1层输出特征层的特征相合并,Hl(·)表示第l层非线性映射;函数Hl(·)会产生κ个特征映射,κ为增长率,则l层会具有κ0+κ(l-1)特征映射,其中κ0是输入层中的通道数目,因此每一层可以访问其模块中所有前面的特征映射;此外,DenseNet网络结构一个重要优势可以设定一个固定的特征图增长率κ;因此提取的特征图相比传统网络具有更少的输出维数,避免学习冗余特征,从而增强网络对视网膜血管分割的性能;可变形卷积通过偏移量Δtb提升的提取特征能力,其定义为:
编码部分的底部设置为金字塔型的空洞卷积模块,以进一步提高中间图像特征映射的感受野信息;空洞卷积将传统矩形卷积核的每个像素之间插入为0的像素值,从而增加网络的扩张率r;设输入与滤波器分别为E[s]和的空洞卷积输出y'[s]定义如下:
Mv=max[Mv+1-2rv,Mv+1-2(Mv+1-rv),rv] (9)
其中,Mv是指第v层的最大扩张率,rv为第v层的扩张率,即设置扩张率为r=1,2,5,1;
A02.2解码部分:
在解码结构中利用上池化跟踪目标图像的原始位置,上池化层能通过使用一组转换变量记录每个池化区域内的最大值激活位置,以获得近似的池化逆过程,有效地重构血管的精细分辨率结构信息,并以此联系空间网络水平模型的位置和全局范围内血管组织的关系;同时引入反卷积层学习上池化层的稀疏特征图,该反卷积层具有多个学习滤波器,能有效地捕捉血管特征图不同级别的细节信息;
在上池化层和反卷积层基础上引入注意门AGs模型降低周围噪音的干扰;AGs模型通过一个跳过连接传播特征,即不再经过上池化层,更重要的是AGs模型每跳过连接的选通信号可以聚集来自多个成像尺度的血管信息;AGs模型在不相关的背景区中会逐渐抑制特征响应,而不需要在网络之间裁剪感兴趣区域ROI,进而降低算法的计算复杂度,解决传统U-net卷积网络对特征图注意力分散的现象,使得血管权重与背景噪音权重具有明显差异,大幅度提高U型网络对背景的抗噪能力,降低假阳性率;设AGs模型的门注意系数为通过该系数能够识别血管特征的显著性区域和修剪相应的特征,仅保留与特征任务相关的特征信息,降低数据的冗余度。AGs输出特征定义如下:
式(11)中T为转置符号;η为视网膜血管特征图学习参数;AGs的特征由一组包含线性变换的参数ξatt得到,该参数ξatt包括:线性转换系数Wx',Wg分别为输入图像和金标准图像权重系数,b'g和b'η为偏置项;σ'1为ReLU激活函数:在式(12)中,为防止特征过于稀疏,选择sigmoid激活函数进行非线性变换;x'τ和gτ分别为输入特征图和金标准图像。AGs通过结合编码结构的特征图分析得到相应的门相关系数,使得AGs能够集中于与金标准图像相似的主要目标信息的结构特征,剔除其他噪音等异常特征信息影响;
A02.3视网膜血管分割部分:
视网膜血管分割的整个训练过程通过交叉验证来最小化像素分割错误率,采用Adam算法优化损失函数,最后由Softmax激活函数对血管图像精分割。
本发明不需要按照最新文献“融合形状先验的水平集眼底图像血管分割[J],梁礼明等,计算机学报,2018,41(7):1678-1692”进行后处理步骤即可得到较精细血管图像。
本发明能有效地解决相邻血管易相连、微血管过宽、细小血管易断裂、血管交叉处分割不足以及对图像噪声过于敏感、目标与背景灰度值交叉、视盘与病灶误分割等问题。本发明在较低复杂度的情况下融合多种网络模型,在DRIVE数据集上取得优异的分割结果,其准确率和灵敏度分别为97.48%和85.78%。ROC曲线值达到98.72%,已达到现在医疗实际应用的水准。
附图说明
图1为本发明经K-L变换后彩色坐标空间形成的点簇。其中p1,p2,p3分别为视网膜图像第一主分量、第二主分量和第三主分量;R′,G′,B′为原始R,G,B三通道转换到主分量P=(p1,p2,p3)空间所创建的新通道。
图2为本发明利用二维K-L变换提取视网膜图像第一主分量所对应的图像I1。
图3为本发明采用多尺度形态学高低帽滤波的图像效果图。
图4为本发明局部信息熵采样的效果图。
图5为本发明密集可变形卷积内部结构图。
图6为本发明金子塔型空洞卷积的模型图。
图7为本发明AGs模型内部结构图。
图8为本发明最终的分割结果图。
图9为本发明自适应尺度信息算法的总结网络结构图。
图10为本发明DRIVE数据集ROC曲线图。
具体实施方式
本发明基于U型网络结构融合密集型可变形卷积、金字塔型空洞卷积和带有注意力机制的反卷积层,提出一种自适应目标图像形态结构和尺度信息的U型视网膜图像分割算法;此模型能更高效、更高精度地捕捉血管形状特征,可以简化目前眼科专家采取手工提取视网膜血管的繁琐过程,并将其从定性分析转为定量分析,避免不同眼科医生因主观因素存在的误差,为临床眼科医生对疾病的诊断和治疗提供帮助。
实验说明:实施例数据来自DRIVE数据库健康人的03_test视网膜图像。
下面结合具体实施方式,进一步阐述本发明。
步骤A01,视网膜血管图像预处理:
步骤A01.1利用二维K-L变换分析图像的统计信息来减少由颜色频带之间组成的数据维度,同时增加血管与背景的类间差异,提高目标图像的可分性。由原始图像x=(xR,xG,xB)T经K-L变换得到图像Ik,其定义如下:
式(2)中xi(m,n)和xj(m,n)分别为像素点(m,n)在i和j频带的值;xi0和xj0分别为i和j频带的平均值;由于眼底视网膜图像有R,G,B三个频带,故i和j取值仅为三种;N为像素个数。K-L变换综合考虑了原始视网膜图像RGB三通道频带信息,因此变换后得到灰度图能更好的反映出血管的本质特征信息,其中第一个主分量P1包含最优结构化的目标形态结构和特征信息,故选取第一主分量图像I1作为进一步处理对象,如图2所示;
步骤A01.2构建多尺度形态学Top-Hot模型,以增强血管与其周围区域背景之间的对比度差异性,由形态学运算滤除比目标结构小的亮或暗细节特征信息,而且按照一定比例增强目标的细节信息,同时能够保证图像的灰度不变性。多尺度形态学Top-Hot模型定义如下:
式(3)中,N为视网膜图像像素索引;λ是视网膜图像边缘增强因子;Id为输出图像;I1为包含最优化目标形态结构和特征信息的第一主分量p1所对应的图像;Dopa与Dcla分别为视网膜图像血管的亮与暗细节特征;控制因子γa的值由下式给出:
式(4)中,Sigmoid为激活函数;ea为视网膜图像膨胀与腐蚀之差;eamax与eamin分别为ea的最大值与最小值;γa的变化主要由视网膜图像的梯度信息决定;m,n为图像邻域像素值;黄斑、宽血管与背景之间梯度信息较大,增强程度较弱;微小血管与背景梯度信息适中,为突出微小血管特征等隐藏细节,进行较大的增强;微小血管与主血管存在较小梯度信息,为避免微小血管过度增强致使分割结果变粗,增强程度相应减弱,其效果如图3所示;
步骤A01.2采用48×48的滑动窗口与局部信息熵采样的方法,根据金标准图像局部块状所提供的目标特征信息确定训练图片局部区域的标签,其图像信息熵H定义如下:
式(5)中,h为灰度级,qh为在灰度级h下的概率;局部信息熵采样的效果如图4所示。
步骤A02,构建视网膜血管分割模型:
步骤A02.1编码部分:在U-net编码部分将DenseNet网络的DenseBlock结构与可变形卷积相结合,构成密集连接模型。密集连接的路径有助于保证可变形卷积层之间的最大信息流,进而提高可变形卷积对目标尺度和形态特征的提取,从而改善梯度消失的问题;设l层的输出为θl,则该模型第l层的输出定义为:
θl=Hl([θ0,θ1,…,θl-1]) (6)
式(6)中,θ0,θ1,…,θl-1表示0,1,…,l-1层输出特征层的特征相合并,Hl(·)表示第l层非线性映射;函数Hl(·)会产生κ个特征映射,κ为增长率,则l层会具有κ0+κ(l-1)特征映射,其中κ0是输入层中的通道数目,因此提取的特征图相比传统网络具有更少的输出维数,避免学习冗余特征,从而增强网络对视网膜血管分割的性能,可以更准确且更多地提取微血管特征信息,保证网络编码部分的特征提取能力,其可变形卷积y(t0)的定义为:
在图5中虽然每层的特征映射均由κ作为限制,但仍然会使下一个密集模块具有大量的输入,因此在每个3×3可变形卷积前和整个密集模块后引入1×1卷积层作为瓶颈层,以减少输入特征映射的数量,从而提高计算效率;卷积核为3×3四部分密集可变形卷积网络结构提取相关血管特征,并设定特征图增长率κ=12控制特征参数的数目,提高特征提取的效率,降低特征图冗余度;接着将每层的前后层特征图信息进行合并并重复利用,其中激活函数均指数线性单元Exponential Linear Unit,简称ELU;然后将视网膜图像特征图信息进行批量归一化Batch Normalization,简称BN,每次选取15个数据处理,用来降低模型训练中的协变转移,防止因视网膜图像存在病理性造成梯度消失,并且降低网络对初始参数选择的敏感性;密集可变形卷积层后均有一层具有平移不变性的2×2最大下采样层Maxpooling用以整合Dense block提取的血管特征,提高特征图感受野,减少后续训练的参数;
将编码部分的底部设置为金字塔型的空洞卷积模块,以进一步提高中间图像特征映射的感受野信息;空洞卷积将传统矩形卷积核的每个像素之间插入为0的像素值,从而增加网络的扩张率r;设输入与滤波器分别为E[s]和的空洞卷积输出y'[s]定义如下:
Mv=max[Mv+1-2rv,Mv+1-2(Mv+1-rv),rv] (9)
式(9)中,Mv指的是第v层的最大扩张率,rv为第v层的扩张率;空洞卷积模型如图6所示;
步骤A02.2解码部分:虽然编码结构的最大池化层能保留鲁棒性强的激活特征,但是仍会造成部分空间信息在汇集期间丢失,为了解决这一问题,在解码结构中利用上池化跟踪目标图像的原始位置,上池化层能通过使用一组转换变量记录每个池化区域内的最大值激活位置,以获得近似的池化逆过程,有效地重构血管的精细分辨率结构信息,并以此联系空间网络水平模型的位置和全局范围内血管组织的关系;但上池化操作易造成特征较稀疏的现象,故在此基础上引入反卷积学习上池化层的稀疏特征图,该反卷积层具有多个学习滤波器,能有效地捕捉血管特征图不同级别的细节信息,较底层的过滤器捕捉血管的总体轮廓特征,而视网膜图像中的微血管信息和交叉血管处的细节在高层滤波器中体现,进而使得特征图更密集,保证最后分割结构的鲁棒性;
AGs模型根据金标准图像的特征信息将输入图像血管权重系数Wx增大,削弱背景病理信息、视盘和黄斑权重比例,其中AGs模型的注意函数为αi,该函数主要用来识别显著图像区域和修剪特征,仅保留与特征任务相关的信息;设AGs模型的门注意系数为通过该系数能够识别血管特征的显著性区域和修剪相应的特征,仅保留与特征任务相关的特征信息,降低数据的冗余度。AGs输出特征定义如下:
式(11)中T为转置符号;η为视网膜血管特征图学习参数;AGs的特征由一组包含线性变换的参数ξatt得到,该参数ξatt包括:线性转换系数Wx',Wg分别为输入图像和金标准图像权重系数,b'g和b'η为偏置项;σ'1为ReLU激活函数:在式(12)中,为防止特征过于稀疏,选择sigmoid激活函数进行非线性变换;x'τ和gτ分别为输入特征图和金标准图像;AGs模型在解码结构中通过跳过上池化层直接级联到下一个反卷积层以融合互补目标的特征信息,同时采用1×1卷积层进行线性变换将特征解耦并映射到低维空间进行选通操作,而U型结构自身具有将高层信息与底层信息结合的优势,有助于进一步降低图像细节因恢复不足而造成目标结构分割断裂或出现缺口的现象,注意门内部结构如图7所示;
将AGs模型提取的特征图通过U型网络特性将编码部分的底层信息与解码部分的高层信息相结合通过3×3卷积层提取更加复杂的特征,从而提高微小血管的分割精度,使得设计的较浅层网络能够完成深层网络的分割性能;紧接着通过核大小为2×2的上池化层进行图像编码,恢复图像信息,并根据金标准图像与网络提取的血管特征信息补足粗分割的血管信息;
步骤A02.3视网膜血管分割部分:视网膜血管分割的训练过程中通过算法随机初始化初始权重信息,设置批量大小为15,迭代100次。通过交叉验证最小化像素错误率,采用Adam算法优化损失函数,其初始学习率设为默认值0.001;为了降低过拟合和加速训练过程收敛,动态设置学习率,若损失迭代4次仍不变降低10倍学习率,若经过20次不变则停止训练;最后由Softmax激活函数对血管图像精分割,得到血管分割结果如图8所示,并且不需要进一步的后处理即可得到较精细血管图像,不存在视盘和相关病理信息误分割的现象。
本发明采用了一种新型的卷积神经网络,在U型网络框架下引入密集可变形卷积结构,在编码结构中较充分地提取血管形态结构和尺度信息,较好地克服了现有算法在视网膜血管分割中微血管分割不足的难题。在U型网络的底部引入U型结构底部去掉池化层采用多尺度空洞卷积的,使得网络具有更大的感受野,并且能获得多尺度下的血管特征信息。在解码部分引入带有注意力机制的反卷积层,解决了现有传统深度学习算法血管特征与噪音的权重比例差距不明显而造成的误分割,并且能有效地恢复编码结构存在信息损失的现象,在DRIVE数据集得到的最终分割结果准确率与灵敏度分别高达97.48%和85.78%;本发明总体网络结构如图9所示。
总体性能由受试者工作特征曲线(receiver operating characteristic curve,简称ROC曲线)体现,ROC曲线以假阳性概率(False positive rate,FPR)为横轴,真阳性率(True positive rate,TPR)为纵轴,如图10所示;ROC曲线值达到98.72%,已达到现在医疗实际应用的水准。
Claims (2)
1.一种自适应尺度信息的U型视网膜血管分割方法,其特征是:包括以下步骤:
步骤A01,视网膜血管图像预处理:
首先利用二维K-L变换方法综合分析视网膜图像的RGB三通道的频带信息,获取最优化目标形态结构和特征信息的第一主分量p1作为主要研究对象;然后利用多尺度形态学Top-Hot滤波提升视网膜图像微小血管的多尺度亮、暗细节特征,并平滑去噪;
步骤A02,构建视网膜血管分割模型:
首先在U-net模型中引入局部信息熵采样方法将视网膜图像划分为含血管信息量丰富的块状图像,有助于增加训练集,解决算法过拟合的问题;编码部分引入DenseNet网络DenseBlock结构,并且在DenseBlock结构嵌入可变形卷积层Deformable Convolutional,这样不仅能有效地学习金标准图像提供的特征信息,而且具有自适应血管形态结构和尺度信息能力,使得算法更鲁棒地提取血管复杂结构的特征信息;同时DenseBlock结构能充分利用每层可变形卷积的前后输出层特征图的结构信息,以降低特征提取时的网络参数复杂度,进一步克服原始U-net网络存在对底层卷积层血管特征信息利用不全的现象;其次,在U型模型底部引入金字塔型空洞卷积,通过设置不同扩张率有助于空洞卷积捕捉血管的局部或者全局特征信息,同时在增加网路整体的感受野信息情况下不增加算法的复杂度;在解码部分引入带有注意门模型Attention gates的反卷积网络;注意门模型Attentiongates,简称AGs,AGs可以根据金标准图像gτ特征信息增加经编码处理后第l网络层输入特征图x’τ l血管的权重特征,能有效捕捉到血管的全局或者局部特征信息,并且过滤背景伪影、硬性渗出物、视盘和黄斑,提升反卷积层对血管图像信息的恢复和特征整合的性能,并结合U-net自身具有将高层信息与底层信息相结合的优点,有利于降低解码操作在恢复图像细节信息时,因信息恢复不全而造成的微血管断裂和分割不足的现象;最后,由Softmax激活函数进行血管与背景像素分类,以实现视网膜血管精分割;
所述的视网膜血管图像预处理包括以下子步骤:
步骤A01.1,利用二维K-L变换分析图像的统计信息来减少由颜色频带之间组成的数据维度,同时尽可能地保留数据集中主要的血管空间尺度信息;对于原始三通道图像x=(xR,xG,xB)T,频带之间信息是不相关的,故将原始颜色频带分量转换到主分量P=(p1,p2,p3)空间并创建三个新通道R′,G′,B′,相当于将原始RGB坐标系的中心点移到点分布的中心位置;原始图像x=(xR,xG,xB)T经K-L变换得到图像Ik,其定义如下:
式(1)中,为x的协方差矩阵的特征向量矩阵,T为转置符号;k=1,2,3;为了找到图像三通道的主分量P=(p1,p2,p3),并得到特征向量矩阵,需要将数据进行协方差对角化,故定义协方差矩阵C(i,j)为:
式(2)中,xi(m,n)和xj(m,n)分别为像素点(m,n)在i和j频带的值;xi0和xj0分别为i和j频带的平均值;由于眼底视网膜图像有R、G和B三个频带,故i,j=1,2,3;N为像素个数;
步骤A01.2,由多尺度形态学Top-Hot变换进行血管图像的整体增强,同时提取视网膜血管的微血管信息;通过控制图像边缘信息控制因子γa,调整相邻血管像素尺度的差值,降低视盘与黄斑特征信息的干扰,提高视网膜图像微小血管的多尺度亮、暗细节特征;多尺度形态学Top-Hot模型定义如下:
式(3)中,N为视网膜图像像素索引;λ为视网膜图像边缘增强因子;Id为输出图像;I1为包含最优化目标形态结构和特征信息的第一主分量p1所对应的图像;Dopa与Dcla分别为视网膜图像血管的亮与暗细节特征;控制因子γa的值由下式给出:
式(4)中,Sigmoid为激活函数;ea是视网膜图像膨胀与腐蚀之差;eamax与eamin分别为ea的最大值与最小值;γa的变化主要由视网膜图像的梯度信息决定;m,n为图像邻域像素值;
步骤A01.3,采用48×48的滑动窗口根据金标准图像局部块状所提供的目标特征信息确定训练图片局部区域的标签,并通过局部信息熵采样的方法捕捉预处理图像中的信息熵最高的块状部分,确保局部块状中含有目标特征信息;其图像信息熵H定义如下:
式(5)中,h为灰度级,qh为在灰度级h下的概率。
2.根据权利要求1所述的一种自适应尺度信息的U型视网膜血管分割方法,其特征是:所述的构建视网膜血管分割模型包括编码、解码和视网膜血管分割三部分:
A02.1编码部分:
在U-net编码部分将DenseNet网络的DenseBlock结构与可变形卷积相结合,密集连接的路径有助于保证可变形卷积层之间的最大信息流,进而提高可变形卷积对目标尺度和形态特征的提取,从而改善梯度消失的问题;设l层的输出为θl,则该模型第l层的输出定义为:
θl=Hl([θ0,θ1,…,θl-1]) (6)
式(6)中,θ0,θ1,…,θl-1表示0,1,…,l-1层输出特征层的特征相合并,Hl(·)表示第l层非线性映射;函数Hl(·)会产生κ个特征映射,κ为增长率,则l层会具有κ0+κ(l-1)特征映射,其中κ0是输入层中的通道数目,因此每一层可以访问其模块中所有前面的特征映射;此外,DenseNet网络结构一个重要优势可以设定一个固定的特征图增长率κ;因此提取的特征图相比传统网络具有更少的输出维数,避免学习冗余特征,从而增强网络对视网膜血管分割的性能;可变形卷积通过偏移量Δtb提升的提取特征能力,其定义为:
编码部分的底部设置为金字塔型的空洞卷积模块,以进一步提高中间图像特征映射的感受野信息;空洞卷积将传统矩形卷积核的每个像素之间插入为0的像素值,从而增加网络的扩张率r;设输入与滤波器分别为E[s]和的空洞卷积输出y'[s]定义如下:
Mv=max[Mv+1-2rv,Mv+1-2(Mv+1-rv),rv] (9)
其中,Mv是指第v层的最大扩张率,rv为第v层的扩张率,即设置扩张率为r=1,2,5,1;
A02.2解码部分:
在解码结构中利用上池化跟踪目标图像的原始位置,上池化层能通过使用一组转换变量记录每个池化区域内的最大值激活位置,以获得近似的池化逆过程,有效地重构血管的精细分辨率结构信息,并以此联系空间网络水平模型的位置和全局范围内血管组织的关系;同时引入反卷积层学习上池化层的稀疏特征图,该反卷积层具有多个学习滤波器,能有效地捕捉血管特征图不同级别的细节信息;
在上池化层和反卷积层基础上引入注意门AGs模型降低周围噪音的干扰;AGs模型通过一个跳过连接传播特征,即不再经过上池化层,更重要的是AGs模型每跳过连接的选通信号可以聚集来自多个成像尺度的血管信息;AGs模型在不相关的背景区中会逐渐抑制特征响应,而不需要在网络之间裁剪感兴趣区域ROI,进而降低算法的计算复杂度,解决传统U-net卷积网络对特征图注意力分散的现象,使得血管权重与背景噪音权重具有明显差异,大幅度提高U型网络对背景的抗噪能力,降低假阳性率;设AGs模型的门注意系数为通过该系数能够识别血管特征的显著性区域和修剪相应的特征,仅保留与特征任务相关的特征信息,降低数据的冗余度,AGs输出特征定义如下:
式(11)中T为转置符号;η为视网膜血管特征图学习参数;AGs的特征由一组包含线性变换的参数ξatt得到,该参数ξatt包括:线性转换系数Wx',Wg分别为输入图像和金标准图像权重系数,b'g和b'η为偏置项;σ'1为ReLU激活函数:在式(12)中,为防止特征过于稀疏,选择sigmoid激活函数进行非线性变换;x'τ和gτ分别为输入特征图和金标准图像;AGs通过对跨过连接特征图分析得到相应的门相关系数,使得AGs能够集中于和金标准图像相似的结构特征,剔除其他噪音等异常特征信息影响;
A02.3视网膜血管分割部分:
视网膜血管分割的整个训练过程通过交叉验证来最小化像素分割错误率,采用Adam算法优化损失函数,最后由Softmax激活函数对血管图像精分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811611340.2A CN109685813B (zh) | 2018-12-27 | 2018-12-27 | 一种自适应尺度信息的u型视网膜血管分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811611340.2A CN109685813B (zh) | 2018-12-27 | 2018-12-27 | 一种自适应尺度信息的u型视网膜血管分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109685813A CN109685813A (zh) | 2019-04-26 |
CN109685813B true CN109685813B (zh) | 2020-10-13 |
Family
ID=66190552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811611340.2A Active CN109685813B (zh) | 2018-12-27 | 2018-12-27 | 一种自适应尺度信息的u型视网膜血管分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109685813B (zh) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136147A (zh) * | 2019-05-21 | 2019-08-16 | 湖北工业大学 | 一种基于U-Net模型的分割医学图像的方法、装置及存储介质 |
CN110288609B (zh) * | 2019-05-30 | 2021-06-08 | 南京师范大学 | 一种注意力机制引导的多模态全心脏图像分割方法 |
CN110348543B (zh) * | 2019-06-10 | 2023-01-06 | 腾讯医疗健康(深圳)有限公司 | 眼底图像识别方法、装置、计算机设备及存储介质 |
CN110288605A (zh) * | 2019-06-12 | 2019-09-27 | 三峡大学 | 细胞图像分割方法和装置 |
CN110363769B (zh) * | 2019-06-19 | 2023-03-10 | 西南交通大学 | 一种高铁接触网支撑装置腕臂系统图像分割方法 |
CN110334719B (zh) * | 2019-07-11 | 2020-07-28 | 兰州交通大学 | 一种提取遥感影像中建筑物图像的方法及系统 |
CN110349162B (zh) * | 2019-07-17 | 2021-10-22 | 苏州大学 | 一种视网膜黄斑水肿多病变图像分割方法 |
CN110415231A (zh) * | 2019-07-25 | 2019-11-05 | 山东浪潮人工智能研究院有限公司 | 一种基于注意力先验网络的cnv分割方法 |
CN110443813B (zh) * | 2019-07-29 | 2024-02-27 | 腾讯医疗健康(深圳)有限公司 | 血管、眼底图像的分割方法、装置、设备及可读存储介质 |
CN110473188B (zh) * | 2019-08-08 | 2022-03-11 | 福州大学 | 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法 |
CN110458833B (zh) | 2019-08-15 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的医学图像处理方法、医学设备和存储介质 |
CN110517235B (zh) * | 2019-08-19 | 2021-10-19 | 苏州大学 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
CN110544221B (zh) * | 2019-09-05 | 2022-03-29 | 迪爱斯信息技术股份有限公司 | 训练方法及装置、去雨方法、终端设备、存储介质 |
CN110674829B (zh) * | 2019-09-26 | 2023-06-02 | 哈尔滨工程大学 | 一种基于图卷积注意网络的三维目标检测方法 |
CN110853051B (zh) * | 2019-10-24 | 2022-06-03 | 北京航空航天大学 | 基于多注意密集连接生成对抗网络的脑血管影像分割方法 |
CN111126403B (zh) * | 2019-11-13 | 2023-10-24 | 中国科学院计算技术研究所 | 一种基于磁共振血管造影图像的脑血管分割方法和系统 |
CN110930418B (zh) * | 2019-11-27 | 2022-04-19 | 江西理工大学 | 融合W-net和条件生成对抗网络的视网膜血管分割方法 |
CN110992352A (zh) * | 2019-12-13 | 2020-04-10 | 北京小白世纪网络科技有限公司 | 基于卷积神经网络的婴儿头围ct图像自动测量方法 |
CN111062347B (zh) * | 2019-12-21 | 2023-04-28 | 武汉中海庭数据技术有限公司 | 一种自动驾驶中交通要素分割方法、电子设备及存储介质 |
CN111242949B (zh) * | 2020-01-02 | 2021-06-18 | 浙江工业大学 | 基于全卷积神经网络多尺度特征的眼底图像血管分割方法 |
CN111311592B (zh) * | 2020-03-13 | 2021-10-08 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
CN111402174A (zh) * | 2020-04-03 | 2020-07-10 | 北京图湃影像科技有限公司 | 一种单张OCT B-scan图像去噪方法及装置 |
CN111598894B (zh) * | 2020-04-17 | 2021-02-09 | 哈尔滨工业大学 | 基于全局信息卷积神经网络的视网膜血管图像分割系统 |
CN111815563B (zh) * | 2020-06-10 | 2024-04-09 | 重庆贝奥新视野医疗设备有限公司 | 一种U-Net与区域增长PCNN相结合的视网膜视盘分割方法 |
CN111860171B (zh) * | 2020-06-19 | 2021-03-23 | 中国科学院空天信息创新研究院 | 一种大规模遥感图像中不规则形状目标的检测方法及系统 |
CN111932550B (zh) * | 2020-07-01 | 2021-04-30 | 浙江大学 | 一种基于深度学习的3d心室核磁共振视频分割系统 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
CN111932555A (zh) * | 2020-07-31 | 2020-11-13 | 商汤集团有限公司 | 一种图像处理方法及装置、计算机可读存储介质 |
CN111986181B (zh) * | 2020-08-24 | 2021-07-30 | 中国科学院自动化研究所 | 基于双注意力机制的血管内支架图像分割方法和系统 |
CN112258526B (zh) * | 2020-10-30 | 2023-06-27 | 南京信息工程大学 | 一种基于对偶注意力机制的ct肾脏区域级联分割方法 |
CN112348794A (zh) * | 2020-11-05 | 2021-02-09 | 南京天智信科技有限公司 | 基于注意力增强u型网络的超声乳腺肿瘤自动分割方法 |
CN112348766B (zh) * | 2020-11-06 | 2023-04-18 | 天津大学 | 一种用于监控视频增强的渐进式特征流深度融合网络 |
CN112465772B (zh) * | 2020-11-25 | 2023-09-26 | 平安科技(深圳)有限公司 | 眼底彩照图像血管评估方法、装置、计算机设备和介质 |
CN113240677B (zh) * | 2021-05-06 | 2022-08-02 | 浙江医院 | 一种基于深度学习的视网膜视盘分割方法 |
CN115409764B (zh) * | 2021-05-28 | 2024-01-09 | 南京博视医疗科技有限公司 | 一种基于域自适应的多模态眼底血管分割方法及装置 |
CN113222975B (zh) * | 2021-05-31 | 2023-04-07 | 湖北工业大学 | 一种基于改进U-net的高精度视网膜血管分割方法 |
CN113256609B (zh) * | 2021-06-18 | 2021-09-21 | 四川大学 | 一种基于改进型Unet的CT图脑出血自动检测系统 |
CN113763330B (zh) * | 2021-08-17 | 2022-06-10 | 北京医准智能科技有限公司 | 一种血管分割方法、装置、存储介质及电子设备 |
CN113793345B (zh) * | 2021-09-07 | 2023-10-31 | 复旦大学附属华山医院 | 一种基于改进注意力模块的医疗影像分割方法及装置 |
CN117274278B (zh) * | 2023-09-28 | 2024-04-02 | 武汉大学人民医院(湖北省人民医院) | 基于模拟感受野的视网膜图像病灶部位分割方法及系统 |
CN117058160B (zh) * | 2023-10-11 | 2024-01-16 | 湖南大学 | 基于自适应特征融合网络的三维医学图像分割方法及系统 |
CN117911705B (zh) * | 2024-03-19 | 2024-05-28 | 成都理工大学 | 一种基于GAN-UNet变体网络的脑部MRI肿瘤分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN108564025A (zh) * | 2018-04-10 | 2018-09-21 | 广东电网有限责任公司 | 一种基于可变形卷积神经网络的红外图像物体识别方法 |
CN108986106A (zh) * | 2017-12-15 | 2018-12-11 | 浙江中医药大学 | 面向青光眼临床诊断的视网膜血管自动分割方法 |
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
CN109035184A (zh) * | 2018-06-08 | 2018-12-18 | 西北工业大学 | 一种基于单位可变形卷积的密集连接方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510467B (zh) * | 2018-03-28 | 2022-04-08 | 西安电子科技大学 | 基于深度可变形卷积神经网络的sar图像目标识别方法 |
CN108961270B (zh) * | 2018-06-26 | 2023-03-17 | 陕西师范大学 | 一种基于语义分割的桥梁裂缝图像分割模型 |
-
2018
- 2018-12-27 CN CN201811611340.2A patent/CN109685813B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986106A (zh) * | 2017-12-15 | 2018-12-11 | 浙江中医药大学 | 面向青光眼临床诊断的视网膜血管自动分割方法 |
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN108564025A (zh) * | 2018-04-10 | 2018-09-21 | 广东电网有限责任公司 | 一种基于可变形卷积神经网络的红外图像物体识别方法 |
CN109035184A (zh) * | 2018-06-08 | 2018-12-18 | 西北工业大学 | 一种基于单位可变形卷积的密集连接方法 |
CN108986124A (zh) * | 2018-06-20 | 2018-12-11 | 天津大学 | 结合多尺度特征卷积神经网络视网膜血管图像分割方法 |
Non-Patent Citations (3)
Title |
---|
Attention U-Net:Learning Where to Look for the Pancreas;Ozan Oktay等;《cs.CV》;20180420;第1页摘要,第2-3页第1.2节,第3-5页第2节以及图1-2 * |
Deformable Convolutional Networks;Jifeng Dai等;《2017 IEEE International Conference on Computer Vision(ICCV)》;20171029;第764页摘要,第765页第2.1节,第766页第2.3节以及图5 * |
基于改进卷积神经网络的视网膜血管图像分割;吴晨玥等;《光学学报》;20181130;第38卷(第11期);第2页2.1节,第3页第2.3节,第4页第3.2节以及图1和图3 * |
Also Published As
Publication number | Publication date |
---|---|
CN109685813A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685813B (zh) | 一种自适应尺度信息的u型视网膜血管分割方法 | |
CN109448006B (zh) | 一种注意力机制u型密集连接视网膜血管分割方法 | |
CN110197493B (zh) | 眼底图像血管分割方法 | |
Xiuqin et al. | A fundus retinal vessels segmentation scheme based on the improved deep learning U-Net model | |
CN110930418B (zh) | 融合W-net和条件生成对抗网络的视网膜血管分割方法 | |
CN109886986A (zh) | 一种基于多分支卷积神经网络的皮肤镜图像分割方法 | |
CN109345538A (zh) | 一种基于卷积神经网络的视网膜血管分割方法 | |
CN112001928B (zh) | 一种视网膜血管分割方法及系统 | |
CN108764342B (zh) | 一种对于眼底图中视盘和视杯的语义分割方法 | |
CN112884788B (zh) | 基于丰富上下文网络的视杯视盘分割方法及成像方法 | |
CN113012163A (zh) | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 | |
CN111242949B (zh) | 基于全卷积神经网络多尺度特征的眼底图像血管分割方法 | |
Guo et al. | Simultaneous classification and segmentation of intracranial hemorrhage using a fully convolutional neural network | |
Sharma et al. | Machine learning approach for detection of diabetic retinopathy with improved pre-processing | |
Xu et al. | Dual-channel asymmetric convolutional neural network for an efficient retinal blood vessel segmentation in eye fundus images | |
CN112785603A (zh) | 一种基于Unet和超像素的脑组织分割方法 | |
CN110991254A (zh) | 超声图像视频分类预测方法及系统 | |
CN112288749A (zh) | 一种基于深度迭代融合深度学习模型的颅骨图像分割方法 | |
CN112633416A (zh) | 一种融合多尺度超像素的脑ct图像分类方法 | |
CN110610480B (zh) | 基于Attention机制的MCASPP神经网络眼底图像视杯视盘分割模型 | |
CN115409764A (zh) | 一种基于域自适应的多模态眼底血管分割方法及装置 | |
Bataineh et al. | Enhancement method for color retinal fundus images based on structural details and illumination improvements | |
Zhao et al. | Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation | |
CN114372985B (zh) | 适应多中心图像的糖尿病视网膜病变病灶分割方法及系统 | |
CN111340773A (zh) | 一种视网膜图像血管分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |