CN111739030A - 一种语义和多尺度融合网络的眼底图像血管分割方法 - Google Patents
一种语义和多尺度融合网络的眼底图像血管分割方法 Download PDFInfo
- Publication number
- CN111739030A CN111739030A CN202010541936.0A CN202010541936A CN111739030A CN 111739030 A CN111739030 A CN 111739030A CN 202010541936 A CN202010541936 A CN 202010541936A CN 111739030 A CN111739030 A CN 111739030A
- Authority
- CN
- China
- Prior art keywords
- semantic
- network
- scale
- scale fusion
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 77
- 230000011218 segmentation Effects 0.000 title claims abstract description 69
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 8
- 210000001525 retina Anatomy 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 24
- 238000012360 testing method Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims 1
- 238000013507 mapping Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 4
- 230000002207 retinal effect Effects 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract 1
- 210000001210 retinal vessel Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 7
- 208000017442 Retinal disease Diseases 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 206010012689 Diabetic retinopathy Diseases 0.000 description 3
- 206010038923 Retinopathy Diseases 0.000 description 3
- 238000004195 computer-aided diagnosis Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 208000010412 Glaucoma Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 238000011056 performance test Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 206010012667 Diabetic glaucoma Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012984 biological imaging Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种语义和多尺度融合网络的眼底图像血管的分割方法,属于医学图像处理和计算机视觉领域。该方法设计了语义融合模块和多尺度融合模块,并利用这两种模块构建了结构独特的语义和多尺度融合网络,用于分割视网膜图像的眼底血管。语义融合模块通过更好的融合高维语义信息来提升毛细血管的分割精度,多尺度融合模块利用多尺度信息的融合来解决血管尺度变化大的问题。实验证明本发明的方法能有效提高视网膜眼底血管分割的精度。此外,本发明提出的网络结构清晰,容易构建,易于实现。
Description
技术领域
本发明属于医学图像处理和计算机视觉领域,涉及利用深度学习神经网络框架,对眼底图像中的血管进行分割,具体涉及到一种语义和多尺度融合网络的眼底图像血管的分割方法。
背景技术
视网膜疾病,如糖尿病性视网膜病变和青光眼,是导致失明的主要原因,也是全世界公共卫生关注的重要问题。由于生活方式的改变、人口老龄化等风险因素,视网膜疾病的患者数量逐渐增多。这推动了许多研究致力于开发计算机辅助诊断(CAD)系统自动诊断视网膜病变。视网膜血管的分割是建立此类CAD系统的基础步骤,对眼底图像上视网膜疾病的准确定量至关重要。虽然已经有了大量的工作致力于解决视网膜血管的分割问题,但对整个血管树的准确分割仍然具有挑战性。首先视网膜血管直径大小不一。小血管的直径只有一个或几个像素,而大血管的直径可以宽几十倍。尺度的变化增加了准确分割血管的难度。其次,由于不均匀的光照条件和病态的影响,毛细血管在分割的过程中很容易与主血管树断开。
随着深度学习技术在图像处理中的广泛应用,深度神经网络在图像处理和计算机视觉领域带来了革命性的影响。虽然深度神经网络在血管分割问题上可以比传统方法表现得更好,但是它们的体系结构并不是专门为解决视网膜血管分割问题而设计的。因此又有许多研究提出了用于视网膜血管分割的深度神经网络,例如有研究针对视网膜血管分割问题搭建了一个深度卷积神经网络(Wu,Yicheng,et al."Multiscale network followednetwork model for retinal vessel segmentation."International Conference onMedical Image Computing and Computer-Assisted Intervention.Springer,Cham,2018.),利用了多尺度信息促进了视网膜血管分割的精度;Ronneberger等人(RonnebergerO,Fischer P,Brox T.U-net:Convolutional networks for biomedical imagesegmentation[C]//International Conference on Medical image computing andcomputer-assisted intervention.Springer,Cham,2015:234-241.)设计了一种基于编码器-解码器的网络,该网络广泛应用于生物医学图像的许多分割任务,包括视网膜血管分割。虽然已经有很多工作致力于用深层神经网络改善视网膜血管分割的结果,但是其性能仍不令人满意,因此需要做更多的工作来进一步改善这一任务。
为了解决毛细血管较难分割以及血管尺度变化大的问题,本发明设计了一个语义融和多尺度融合的网络,该网络通过独特设计的语义融合模块以及多尺度融合模块来解决视网膜血管分割的问题。语义融合模块通过更好的融合高维语义信息来提升毛细血管的分割精度,多尺度融合模块通过挖掘多尺度信息来解决血管尺度变化大的问题。通过这两个模块的共同作用,有效的提升血管分割的精度。
发明内容
本发明旨在克服现有技术的不足,提供了一种语义和多尺度融合网络的眼底图像血管的分割方法。该方法设计了语义融合模块和多尺度融合模块,从而构建语义和多尺度融合网络,用于高精度的视网膜血管分割。语义融合模块通过更好的融合高维语义信息来提升毛细血管的分割精度,多尺度融合模块利用多尺度信息的融合来解决血管尺度变化大的问题。通过这两个模块的共同作用,有效的提升血管分割的精度。
本发明的具体技术方案为,一种语义和多尺度融合网络的眼底图像血管的分割方法,包括下列步骤:
1)准备初始数据:对视网膜眼底数据进行处理,生成用来训练和测试的眼底图像小块和对应眼底图像血管分割标签的图像小块;
2)构建语义和多尺度融合网络:构建语义和多尺度融合网络,首先构建融合语义信息的基于编码器-解码器结构的子网络,然后连接一个多尺度融合模块;
3)训练语义和多尺度融合网络:基于步骤(2)得到的语义和多尺度融合网络进行训练。
4)分割网络性能测试:对步骤(3)中训练的血管分割网络进行测试,并与其他视网膜血管分割方法进行比较。
构建语义和多尺度融合网络,具体包括以下步骤:
2-1)构建的语义和多尺度融合网络中的编码器部分由五个子编码器组成,每个子编码器包含两个堆叠的卷积块。这些子编码器通过最大池化层串联,最大池化层将特征映射大小减半,以产生不同级别的层次特征。
2-2)构建的语义和多尺度融合网络中的解码器部分由四个子解码器构成,每个子解码器都是一个语义融合模块,它包含一个横向连接来利用空间信息,以及多个跳跃连接来融合所有的高维语义信息。
2-3)构建的语义融合和多尺度融合网络中的多尺度融合模块包含多个并行分支,以学习不同尺度的信息,将多尺度的信息进行融合生成更强大的血管特征。
训练语义和多尺度融合网络,具体包括以下步骤:
3-1)使用小批量训练模式,利用类平衡交叉熵的平均值作为损失函数来衡量血管分割结果与实际血管标签的差别,公式如下:
式中,L(·)表示损失函数值,n表示该批量中参与训练的总像素数,本发明中n为32,x表示该批量中参与训练的图像小块数据矩阵,∑为求和运算符。β表示该批量中分割标签是血管(等于1)的像素点数量与该批量中所有像素点的比值,即前景样本的权重比例,(1-β)表示该批量中分割标签为背景(等于0)的像素点数量与该批量中所有像素点的比值,即背景样本的权重比例。y表示与x相对应的血管分割标签矩阵,log(·)表示对数运算,y′表示网络对图像小块x的血管分割结果矩阵。
3-2)使用步骤3-1)中的损失函数优化语义融合和多尺度融合网络。
本发明的有益效果是:本发明基于深度学习的思想,构建了一种语义和多尺度融合网络。该网络利用了融合潜藏在血管图像中的语义和多尺度信息来增强视网膜血管分割的精度。该系统具有以下特点:
1、系统容易构建,仅仅依靠原始的眼底图像小块和对应的眼底图像血管分割标签小块,通过构建语义和多尺度融合网络并进行训练的,就可以得到较高准确率的分割结果;
2、程序简单,易于实现;
3、通过设计语义融合模块,更好的融合高维语义信息来提升毛细血管的分割精度;
4、通过设计多尺度融合模块更好的利用多尺度信息,从而解决血管尺度变化大的问题。
5、利用语义融合模块和多尺度融合模块,为眼底图像的血管分割,设计了一种新的深层网络,即语义和多尺度融合网络。
附图说明
图1为具体实施流程图。
图2为语义和多尺度融合网络的结构简图。
图3为语义融合模块结构图。
图4为多尺度融合模块结构图。
具体实施方式
本发明提出了一种基于语义和多尺度融合网络的眼底图像血管的分割方法,结合附图及实施例详细说明如下:
本发明构建了一个语义和多尺度融合网络,利用眼底图像进行训练,在测试中达到了较高的分割准确率,具体实施流程如图1所示,所述方法包括下列步骤;
1)准备初始数据:对视网膜眼底数据进行处理,生成用来训练和测试的眼底图像小块和对应眼底图像血管分割标签的图像小块。
1-1)使用了两个眼底图片的公开数据集,即CHASE_DB1(Fraz M M,Remagnino P,Hoppe A,et al.An ensemble classification-based approach applied to retinalblood vessel segmentation[J].IEEE Transactions on Biomedical Engineering,2012,59(9):2538-2548.)和HRF(Budai A,Bock R,Maier A,et al.Robust vesselsegmentation in fundus images[J].International journal of biomedical imaging,2013,2013.)。CHASE_DB1数据集包含28张来自在校儿童的眼底图像,图像分辨率为999×960。HRF数据集包含45幅眼底图像,分辨率为2336×3504,分为三类,即15张无病理的眼底图片,15张有糖尿病视网膜病变的眼底图片,15张有青光眼视网膜病变的眼底图片。此外,数据集中还包含了眼底图片数量相同的血管标签图。
1-2)对这两个数据集的所有眼底图像进行如下操作:
1-2-1)将彩色图像转换为灰度图像;
1-2-2)在所有的灰度图像上执行CLAHE直方图均衡化(Pizer S M,Amburn E P,Austin J D,et al.Adaptive histogram equalization and its variations[J].Computer vision,graphics,and image processing,1987,39(3):355-368.);
1-2-3)对直方图均衡化后的图片进行伽马校正,伽玛校正公式如下:
y=Axγ
其中,x为上一步得到的图片像素值,A恒取1,γ恒取0.5,y是校正后的结果。
1-3)对于CHASE_DB1数据集,选择步骤(1-2)所得的眼底图片的前20张图像用于训练,其余8张图像用于测试。从前20张图片中随机抽取40万个大小为48×48的图像小块和相对应的血管分割标签小块进行网络训练。对于HRF数据集,选择步骤(1-2)所得的眼底图片,随机选取无病理、有糖尿病视网膜病变、有青光眼视网膜病变的眼底图片各10张(共30张)用于训练,其余共15张用于测试,并在用于训练的图片中,随机抽取150000个大小为128×128图像小块和相对应的血管分割标签小块用于网络训练。
2)语义和多尺度融合网络的构建:构建语义和多尺度融合网络,它由两个部分构成,首先是可以融合语义信息的基于编码器-解码器(encoder-decoder)结构的子网络,然后连接一个多尺度融合模块。图2展示的是网络结构的简图。
2-1)本发明构建的语义和多尺度融合网络的输入图像为图像小块,网络中的编码器部分由五个子编码器组成,每个子编码器包含两个堆叠的卷积块。每个卷积块由卷积(Convolution)层(卷积核大小为3×3)、批量归一化(BN)层和整流线性单元(ReLU)层组成。这些子编码器通过最大池化(Max pooling)层串联,最大池化层将特征映射大小减半,以产生不同级别的层次特征。高维特征中包含大量的语义信息,有助于正确识别毛细血管。其中,卷积层、批量归一化层、整流线性单元层、最大池化层均为深层卷积神经网络的通用模块。经过子编码器1~5后,得到的特征图通道数分别为64、64、128、128、256。
2-2)构建的语义和多尺度融合网络中的解码器部分由四个子解码器,即四个语义融合模块组成。每个语义融合模块包含一个横向连接来利用空间信息,以及几个跳跃连接来融合所有的高维语义信息。图3展示了语义融合模块的结构,它由一个连接节点和两个卷积块组成。连接节点横向连接到同一层的子编码器,同时通过跳跃连接方式连接到下一级的子解码器和更高级的其余子编码器。为了匹配特征图尺寸和通道数,一些跳跃连接采用线性插值方式调节尺寸,通过卷积核大小为1×1的卷积层调节通道数。然后将级联后的特征图通过卷积核大小为1×1卷积层进行通道压缩,再通过两个堆叠的卷积核大小为3×3的卷积层来学习更有代表性的特征。
2-3)连接在基于编码器-解码器结构的子网络后的的多尺度融合模块包含多个并行分支,以学习不同尺度的信息,将多尺度的信息进行融合生成更强大的血管特征。图4展示了多尺度融合模块的结构。顶部的分支只通过一个卷积核大小为1×1的卷积层将通道数压缩到10。其他分支先通过一个卷积核大小为1×1的卷积层,再通过一个膨胀卷积层(Chen,Liang Chieh,et al."DeepLab:Semantic Image Segmentation with DeepConvolutional Nets,Atrous Convolution,and Fully Connected CRFs."IEEETransactions on Pattern Analysis&Machine Intelligence40.4(2016):834-848.)将通道数压缩到10,不同分支具有不同的膨胀率(r0,r1,r2,r3,r4)。最后将这些分支的输出与并行分支的输入相加。图4中膨胀率r0,r1,r2,r3,r4分别取值为0,2,4,6,8。
3)训练语义和多尺度融合网络:基于步骤(2)得到的语义和多尺度融合网络进行训练。
3-1)使用小批量训练模式,利用如下公式计算类平衡交叉熵的平均值,作为损失函数来衡量血管分割结果与实际血管标签的差别,公式如下:
式中,L(·)表示损失函数值,n表示该批量中参与训练的总像素数,本发明中n为32,x表示该批量中参与训练的图像小块数据矩阵,∑为求和运算符。β表示该批量中分割标签是血管(等于1)的像素点数量与该批量中所有像素点的比值,即前景样本的权重比例,(1-β)表示该批量中分割标签为背景(等于0)的像素点数量与该批量中所有像素点的比值,即背景样本的权重比例。y表示与x相对应的血管分割标签矩阵,log(·)表示对数运算,y′表示网络对图像小块x的血管分割结果矩阵。
3-2)使用步骤(3-1)中损失函数优化语义和多尺度融合网络网络。直至损失函数在连续的8个训练周期内无新的最小值时,停止训练。
4)分割网络性能测试:利用步骤(1)得到的CHASE_DB1和HRF的测试数据,对步骤(3)中训练的血管分割网络进行测试,并与其他视网膜血管分割方法进行比较。本发明方法的测试结果以及与其他方法的比较如表1所示。
表1本发明方法的测试结果及与其他已有视网膜血管分割方法的比较
性能测试时,采用血管分割的常用的三个测试指标,包括ACC(像素识别的准确率)、AUC(ROC(感受性曲线)曲线下与坐标轴围成的面积)和PR(精确率-召回率曲线下与坐标轴围成的面积)。表1中方法(a)为论文(JoséIgnacio Orlando,Prokofyeva E,BlaschkoM B.ADiscriminatively Trained Fully Connected Conditional Random Field Modelfor Blood Vessel Segmentation in Fundus Images[J].IEEE Transactions onBiomedical Engineering,2016,64(1):16-27.)提出方法的分割结果;方法(b)为论文(Liskowski P,Krawiec K.Segmenting Retinal Blood Vessels with Deep NeuralNetworks[J].IEEE Transactions on Medical Imaging,2016:1-1.)提出方法的分割结果;方法(c)为论文(Xu R,Jiang G,Ye X,et al.Retinal vessel segmentation viamultiscaled deep-guidance[C]//Pacific Rim Conference on Multimedia.Springer,Cham,2018:158-168.)提出方法的分割结果;方法(d)为论文(Wu Y,Xia Y,Song Y,etal.Multiscale network followed network model for retinal vessel segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Springer,Cham,2018:119-126.)提出方法的分割结果;(e)为本发明方法的结果。
Claims (3)
1.一种语义和多尺度融合网络的眼底图像血管的分割方法,其特征在于,包括下列步骤:
1)准备初始数据:对视网膜眼底数据进行处理,生成用来训练和测试的眼底图像小块和对应眼底图像血管分割标签的图像小块;
2)构建语义和多尺度融合网络:构建语义和多尺度融合网络,首先构建融合语义信息的基于编码器-解码器结构的子网络,然后连接一个多尺度融合模块;
3)训练语义和多尺度融合网络:基于步骤(2)得到的语义和多尺度融合网络进行训练。
2.根据权利要求1所述的一种语义和多尺度融合网络的眼底图像血管的分割方法,其特征在于,步骤(2)中构建语义和多尺度融合网络,具体包括以下步骤:
2-1)构建的语义和多尺度融合网络的输入图像为图像小块,网络中的编码器部分由五个子编码器组成,每个子编码器包含两个堆叠的卷积块;每个卷积块由卷积层、批量归一化层和整流线性单元层组成;子编码器通过最大池化层串联,最大池化层将特征映射大小减半,以产生不同级别的层次特征;
2-2)构建的语义和多尺度融合网络中的解码器部分由四个子解码器,即四个语义融合模块组成;每个语义融合模块包含一个横向连接,用于利用空间信息,以及多个跳跃连接,用于融合所有的高维语义信息;连接节点横向连接到同一层的子编码器,同时通过跳跃连接方式连接到下一级的子解码器和更高级的其余子编码器;
2-3)连接在基于编码器-解码器结构的子网络后的多尺度融合模块包含多个并行分支,以学习不同尺度的信息,将多尺度的信息进行融合生成更强大的血管特征;顶部的分支只通过一个卷积核大小为1×1的卷积层将通道数压缩到10;其他分支先通过一个卷积核大小为1×1的卷积层,再通过一个膨胀卷积层将通道数压缩到10,不同分支具有不同的膨胀率;最后将这些分支的输出与并行分支的输入相加。
3.根据权利要求2所述的一种语义和多尺度融合网络的眼底图像血管的分割方法,其特征在于,步骤2-2),为了匹配特征图尺寸和通道数,跳跃连接采用线性插值方式调节尺寸,通过卷积核大小为1×1的卷积层调节通道数;然后将级联后的特征图通过卷积核大小为1×1卷积层进行通道压缩,再通过两个堆叠的卷积核大小为3×3的卷积层学习更有代表性的特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541936.0A CN111739030A (zh) | 2020-06-15 | 2020-06-15 | 一种语义和多尺度融合网络的眼底图像血管分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010541936.0A CN111739030A (zh) | 2020-06-15 | 2020-06-15 | 一种语义和多尺度融合网络的眼底图像血管分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111739030A true CN111739030A (zh) | 2020-10-02 |
Family
ID=72649150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010541936.0A Withdrawn CN111739030A (zh) | 2020-06-15 | 2020-06-15 | 一种语义和多尺度融合网络的眼底图像血管分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111739030A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967272A (zh) * | 2021-03-25 | 2021-06-15 | 郑州大学 | 基于改进U-net的焊接缺陷检测方法、装置及终端设备 |
CN113192089A (zh) * | 2021-04-12 | 2021-07-30 | 温州医科大学附属眼视光医院 | 一种用于图像分割的双向交叉连接的卷积神经网络 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658422A (zh) * | 2018-12-04 | 2019-04-19 | 大连理工大学 | 一种基于多尺度深监督网络的视网膜图像血管分割方法 |
-
2020
- 2020-06-15 CN CN202010541936.0A patent/CN111739030A/zh not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658422A (zh) * | 2018-12-04 | 2019-04-19 | 大连理工大学 | 一种基于多尺度深监督网络的视网膜图像血管分割方法 |
Non-Patent Citations (1)
Title |
---|
姜桂良: "基于深度学习的视网膜血管分割", 中国优秀硕士学位论文全文数据库信息科技辑, pages 25 - 47 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967272A (zh) * | 2021-03-25 | 2021-06-15 | 郑州大学 | 基于改进U-net的焊接缺陷检测方法、装置及终端设备 |
CN112967272B (zh) * | 2021-03-25 | 2023-08-22 | 郑州大学 | 基于改进U-net的焊接缺陷检测方法、装置及终端设备 |
CN113192089A (zh) * | 2021-04-12 | 2021-07-30 | 温州医科大学附属眼视光医院 | 一种用于图像分割的双向交叉连接的卷积神经网络 |
CN113192089B (zh) * | 2021-04-12 | 2022-07-19 | 温州医科大学附属眼视光医院 | 一种用于图像分割的双向交叉连接的卷积神经网络 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112132817A (zh) | 一种混合注意力机制的眼底图像视网膜血管分割方法 | |
CN109410219A (zh) | 一种基于金字塔融合学习的图像分割方法、装置和计算机可读存储介质 | |
CN109658422A (zh) | 一种基于多尺度深监督网络的视网膜图像血管分割方法 | |
CN110503635B (zh) | 一种基于异构数据融合网络的手骨x光片骨龄评估方法 | |
CN113298780B (zh) | 一种基于深度学习的儿童骨龄评估方法及系统 | |
CN109087298B (zh) | 一种阿尔兹海默病mri图像分类方法 | |
CN111739030A (zh) | 一种语义和多尺度融合网络的眼底图像血管分割方法 | |
CN109215040B (zh) | 一种基于多尺度加权学习的乳腺肿瘤分割方法 | |
CN115222688B (zh) | 基于图网络时间序列的医学影像分类方法 | |
CN111161278A (zh) | 一种基于深层网络聚合的眼底图像病灶分割方法 | |
CN111179366A (zh) | 基于解剖结构差异先验的低剂量图像重建方法和系统 | |
CN112037179B (zh) | 一种脑疾病诊断模型的生成方法、系统及设备 | |
US11093800B2 (en) | Method and device for identifying object and computer readable storage medium | |
CN112085745A (zh) | 基于均衡采样拼接的多通道u型全卷积神经网络的视网膜血管图像分割方法 | |
Xu et al. | Retinal vessel segmentation via a semantics and multi-scale aggregation network | |
CN114463605A (zh) | 基于深度学习的持续学习图像分类方法及装置 | |
Dong et al. | Supervised learning-based retinal vascular segmentation by m-unet full convolutional neural network | |
CN111127400A (zh) | 一种乳腺病变检测方法和装置 | |
US11507774B2 (en) | Device and method for selecting a deep learning network for processing images | |
CN111260619A (zh) | 基于U-net模型的舌体自动分割方法 | |
CN116912344A (zh) | 一种基于原始-对偶网络的列表模式tof-pet重建方法 | |
CN116486156A (zh) | 融合多尺度特征上下文的全视野数字切片图像分类方法 | |
CN113378898B (zh) | 基于相对熵损失函数卷积神经网络的脑龄预测方法 | |
CN116188435A (zh) | 一种基于模糊逻辑的医学图像深度分割方法 | |
CN115346091A (zh) | 一种Mura缺陷图像数据集的生成方法和生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201002 |
|
WW01 | Invention patent application withdrawn after publication |