CN110349166A - 一种针对于视网膜图像的血管分割方法、装置及设备 - Google Patents
一种针对于视网膜图像的血管分割方法、装置及设备 Download PDFInfo
- Publication number
- CN110349166A CN110349166A CN201910502122.3A CN201910502122A CN110349166A CN 110349166 A CN110349166 A CN 110349166A CN 201910502122 A CN201910502122 A CN 201910502122A CN 110349166 A CN110349166 A CN 110349166A
- Authority
- CN
- China
- Prior art keywords
- image
- convolutional network
- retinal
- blood vessel
- retinal images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004256 retinal image Effects 0.000 title claims abstract description 250
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 160
- 230000011218 segmentation Effects 0.000 title claims abstract description 140
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000000926 separation method Methods 0.000 claims description 52
- 238000001914 filtration Methods 0.000 claims description 10
- 210000001210 retinal vessel Anatomy 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000003475 lamination Methods 0.000 claims description 6
- 230000008034 disappearance Effects 0.000 abstract description 5
- 230000005540 biological transmission Effects 0.000 abstract 1
- 230000009466 transformation Effects 0.000 description 19
- 230000002207 retinal effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000004195 computer-aided diagnosis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- ONUFESLQCSAYKA-UHFFFAOYSA-N iprodione Chemical compound O=C1N(C(=O)NC(C)C)CC(=O)N1C1=CC(Cl)=CC(Cl)=C1 ONUFESLQCSAYKA-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本申请公开了一种针对于视网膜图像的血管分割方法、装置及设备,包括:获取目标视网膜图像,将目标视网膜图像输入至预先训练得到的全卷积网络模型中,并基于全卷积网络模型的输出结果确定该目标视网膜图像的血管分割图像,其中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且该全卷积网络模型预先已基于历史视网膜图像以及历史视网膜图像所已知的血管分割图像进行训练。由于全卷积网络模型中的密集连接卷积网络能够保证不同层之间的图像特征的上下文联系,有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少图像特征在传输过程中的特征损耗,从而提高针对于该视网膜图像的血管分割的准确性。
Description
技术领域
本申请涉及图像分割技术领域,特别是涉及一种针对于视网膜图像的血管分割方法、装置及设备。
背景技术
近年来,随着人工智能的快速发展,计算机辅助诊断技术也逐渐得到一定程度的发展。其中,计算机辅助诊断技术是指通过医学图像处理等技术,辅助影像医生快速、准确地发现病灶,提高诊断的效率。在利用计算机辅助诊断技术实现视网膜血管病变检测时,通常需要实现对视网膜图像中的血管进行分割。
目前,在对视网膜图像中的血管进行分割时,通常是基于深度学习的方法自动提取出视网膜图像中的图像特征,进而根据所提取的图像特征分割出视网膜图像中的血管。但是,基于已有的深度学习方法无法精准的分割出视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,从而使得针对于视网膜图像中血管的分割结果不是很理想。
发明内容
本申请实施例提供了一种针对于视网膜图像的方法、装置及设备,以使得对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,也能精准的分割出来,从而提高视网膜图像中血管分割的准确性。
第一方面,本申请实施例提供了一种针对于视网膜图像的血管分割方法,所述方法包括:
获取目标视网膜图像;
将所述目标视网膜图像输入至全卷积网络模型中,所述全卷积网络模型的解码网络中包括密集连接卷积网络,所述全卷积网络模型预先已基于历史视网膜图像以及所述历史视网膜图像已知的血管分割图像进行了训练;
根据所述全卷积网络模型的输出结果确定所述目标视网膜图像的血管分割图像。
在一些可能的实施方式中,所述密集连接卷积网络包括卷积网络单元,所述卷积网络单元包括多个并联的不同网络分支,所述网络分支包括最大池化层和/或卷积层,所述卷积网络单元的输出结果基于所述多个网络分支的输出结果得到。
在一些可能的实施方式中,所述密集连接卷积网络包括第一卷积网络单元、第二卷积网络单元,所述第一卷积网络单元的输入是所述密集连接卷积网络的输入,所述第二卷积网络单元的输入包括所述第一卷积网络单元的输出与所述密集连接卷积网络的输入。
在一些可能的实施方式中,所述获取目标视网膜图像,包括:
获取原始视网膜图像,所述原始视网膜图像上呈现有视网膜血管;
从所述原始视网膜图像中分离出绿色通道的图像,得到通道分离图像;
基于所述通道分离图像确定所述目标视网膜图像。
在一些可能的实施方式中,所述基于所述通道分离图像确定所述目标视网膜图像,包括:
利用中值滤波算法计算出所述通道分离图像中各个像素点的像素值,得到第一图像;
将所述第一图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述基于所述通道分离图像确定所述目标视网膜图像,包括:
利用直方图均衡化算法将所述通道分离图像中像素点的灰度值变化范围统一至预设范围,得到第二图像;
将所述第二图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述方法还包括:
根据所述历史视网膜图像、所述全卷积网络模型基于所述历史视网膜图像的输出结果以及所述历史视网膜图像已知的血管分割图像,计算所述全卷积网络模型对应的损失函数的函数值;
若所述函数值处于预设范围,则确定所述全卷积网络模型完成训练。
在一些可能的实施方式中,所述历史视网膜图像为源视网膜图像经过随机选择的刚性变换操作得到,所述历史视网膜图像对应的历史血管分割图像为所述源视网膜图像对应的源血管分割图像经过所述刚性变换操作得到,所述刚性变换操作包括旋转、缩放、平移、翻转以及灰度变换中的任意一种或多种。
在一些可能的实施方式中,所述方法还包括:
获取所述历史视网膜图像以及所述历史视网膜图像已知的血管分割图像;
将所述历史视网膜图像作为全卷积网络模型的输入,将所述已知的血管分割图像作为所述全卷积网络模型的输出,训练所述全卷积网络模型;
其中,所述全卷积网络模型的解码网络中包括密集连接卷积网络。
第二方面,本申请实施例还提供了一种针对于视网膜图像的血管分割装置,所述装置包括:
获取模块,用于获取目标视网膜图像;
输入模块,用于将所述目标视网膜图像输入至全卷积网络模型中,所述全卷积网络模型的解码网络中包括密集连接卷积网络,所述全卷积网络模型预先已基于历史视网膜图像以及所述历史视网膜图像已知的血管分割图像进行了训练;
确定模块,用于根据所述全卷积网络模型的输出结果确定所述目标视网膜图像的血管分割图像。
在一些可能的实施方式中,所述密集连接卷积网络包括卷积网络单元,所述卷积网络单元包括多个并联的不同网络分支,所述网络分支包括最大池化层和/或卷积层,所述卷积网络单元的输出结果基于所述多个网络分支的输出结果得到。
在一些可能的实施方式中,所述密集连接卷积网络包括第一卷积网络单元、第二卷积网络单元,所述第一卷积网络单元的输入是所述密集连接卷积网络的输入,所述第二卷积网络单元的输入包括所述第一卷积网络单元的输出与所述密集连接卷积网络的输入。
在一些可能的实施方式中,所述获取模块,包括:
获取单元,用于获取原始视网膜图像,所述原始视网膜图像上呈现有视网膜血管;
分离单元,用于从所述原始视网膜图像中分离出绿色通道的图像,得到通道分离图像;
第一确定单元,用于基于所述通道分离图像确定所述目标视网膜图像。
在一些可能的实施方式中,所述确定模块,包括:
计算单元,用于利用中值滤波算法计算出所述通道分离图像中各个像素点的像素值,得到第一图像;
第二确定单元,用于将所述第一图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述确定模块,包括:
统一单元,用于利用直方图均衡化算法将所述通道分离图像中像素点的灰度值变化范围统一至预设范围,得到第二图像;
第三确定单元,用于将所述第二图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述装置还包括:
计算模块,用于根据所述历史视网膜图像、所述全卷积网络模型基于所述历史视网膜图像的输出结果以及所述历史视网膜图像已知的血管分割图像,计算所述全卷积网络模型对应的损失函数的函数值;
训练完成确定模块,用于若所述函数值处于预设范围,则确定所述全卷积网络模型完成训练。
在一些可能的实施方式中,所述历史视网膜图像为源视网膜图像经过随机选择的刚性变换操作得到,所述历史视网膜图像对应的历史血管分割图像为所述源视网膜图像对应的源血管分割图像经过所述刚性变换操作得到,所述刚性变换操作包括旋转、缩放、平移、翻转以及灰度变换中的任意一种或多种。
在一些可能的实施方式中,所述装置还包括:
历史视网膜图像获取模块,用于获取所述历史视网膜图像以及所述历史视网膜图像已知的血管分割图像;
模型训练模块,用于将所述历史视网膜图像作为全卷积网络模型的输入,将所述已知的血管分割图像作为所述全卷积网络模型的输出,训练所述全卷积网络模型;
其中,所述全卷积网络模型的解码网络中包括密集连接卷积网络。
第三方面,本申请实施例还提供了一种针对于视网膜图像的血管分割设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行上述第一方面所述的针对于视网膜图像的血管分割方法。
第四方面,本申请实施例还提供了一种存储介质,所述存储介质用于存储程序代码,所述程序代码用于执行上述第一方面所述的针对于视网膜图像的血管分割方法。
在本申请实施例的上述实现方式中,先获取需要进行血管分割的目标视网膜图像,在该目标视网膜图像上呈现有视网膜血管,然后,可以将该目标视网膜图像输入至预先训练得到的全卷积网络模型中,并基于全卷积网络模型的输出结果确定该目标视网膜图像的血管分割图像,其中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且该全卷积网络模型预先已基于历史视网膜图像以及历史视网膜图像所已知的血管分割图像进行训练。可以理解,由于全卷积网络模型中的密集连接卷积网络能够保证不同层之间的图像特征的上下文联系,有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少视网膜图像的图像特征在从该全卷积网络模型的输入层传递至输出层所产生的特征损耗,这样,对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,全卷积网络模型也能精准的将其分割出来,从而提高了针对于该视网膜图像的血管分割的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为一示例性原始视网膜图像;
图2为基于现有的血管分割方法所得到的血管分割图像示意图;
图3为基于本申请实施例的技术方案所得到的血管分割图像示意图;
图4为本申请实施例中一示例性应用场景示意图;
图5为本申请实施例中一种针对于视网膜图像的血管分割方法的流程示意图;
图6为将密集连接卷积网络、卷积层以及最大池化层进行级联示意图;
图7为解码网络中包含四个密集连接卷积网络的示意图;
图8为卷积网络单元包括四个不同的网络分支示意图;
图9为密集连接卷积网络包括四个卷积网络单元示意图;
图10本申请实施例中针对于全卷积网络模型的示例性训练过程示意图;
图11为本申请实施例中一种针对于视网膜图像的血管分割装置的结构示意图;
图12为本申请实施例中一种针对于视网膜图像的血管分割设备的结构示意图。
具体实施方式
在检测视网膜血管病变时,对视网膜图像进行血管分割是视网膜血管病变检测的基础。现有技术中,常见的针对于视网膜图像进行血管分割的方法主要分为两大类:基于规则的方法以及基于学习的方法。
其中,基于规则的血管分割方法主要是利用视网膜图像中血管的特征,设计相应的滤波器来实现血管分割。具体的,由于视网膜图像中血管的特征基本符合高斯分布的特点,则可以将视网膜血管与高斯分布函数进行不同方向的匹配滤波,比如,可以在12个不同方向上进行匹配滤波,然后,可以对匹配滤波的响应结果进行阈值化处理,并选取响应最大的匹配滤波结果作为该视网膜图像的血管分割结果,进而最终提取出针对于该视网膜图像的血管分割图像。但是,这种血管分割方法是依据于视网膜图像中的血管特征来实现血管分割的,而实际应用中,若视网膜中病变部位的特征与血管特征相似时,则会造成最终得到的血管分割图像的准确度较低。
而基于学习的血管分割方法大致可以分为两种,分别为基于传统的机器学习方法以及基于深度学习的方法。其中,基于传统的机器学习的方法通常是采用二维Gabor小波变换响应等方法提取有效特征,然后利用训练好的支持向量机基于所提取的有效特征进行分类,以得到血管分割图像。但是这种传统的机器学习很难设计出有效的特征来描述出视网膜血管的多种形态,从而给使得对于部分形态的血管无法准确分割出,进而使得血管分割的准确性较低。另一种基于深度学习的方法所训练出来的卷积网络模型,能够自动提取出图像特征并实现血管分割,虽然,能够在一定程度上改善传统的机器学习方法的分割不准确的问题,但是,发明人经研究发现,这种方法的关键在于模型的网络结构的设计,而针对于现有模型的网络结构,视网膜图像的图像特征在该模型的各个层之间进行传递时,容易出现梯度消失或者梯度爆炸的情况,从而导致视网膜图像的图像特征在从输入层传递至输出层时,出现较大损耗甚至是消失,这就使得在分割视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支时,由于图像特征在模型网络中的各个层之间进行传递时的较大损耗,最终对于视网膜图像中的血管分割结果不精准。比如,对于图1所示的原始视网膜图像,基于现有的血管分割方法所得到的血管分割图像如图2所示。通过对比图1以及图2可见,对于图1中已圈出的区域内的血管,基于现有的血管分割方法无法精准的分割得到,存在较为细小的部分血管存在分割丢失,使得最终的血管分割结果不准确。
基于此,本申请实施例提供了一种针对于视网膜图像的血管分割方法,利用包括密集连接卷积网络的全卷积网络模型来对视网膜图像进行血管分割,以使得对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,也能精准的分割出来,从而提高视网膜图像中血管分割的准确性。具体的,可以先获取需要进行血管分割的目标视网膜图像,在该目标视网膜图像上呈现有视网膜血管,然后,可以将该目标视网膜图像输入至预先训练得到的全卷积网络模型中,并基于全卷积网络模型的输出结果确定该目标视网膜图像的血管分割图像,其中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且该全卷积网络模型预先已基于历史视网膜图像以及历史视网膜图像所已知的血管分割图像进行训练。可见,对于视网膜图像中血管对比度不明显区域处的血管以及视网膜图像中的较为细小的血管分支所对应的图像特征,在全卷积网络模型中的不同层之间进行传递时,由于密集连接卷积网络的存在能够使得该图像特征被大量复用,因此,这些血管的图像特征在从全卷积网络模型的输入层传递至输出层时仍保留有大量的图像特征,从而减少了这些图像特征在从全卷积网络模型的输入层传递至输出层的过程中所产生的特征损耗,即有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,这使得全卷积网络模型基于这些血管的大量图像特征能够更精准的将这些血管分割出来,进而可以提高针对于该视网膜图像的血管分隔的准确性。由于全卷积网络模型中的密集连接卷积网络能够保证不同层之间的图像特征的上下文联系,有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少视网膜图像的图像特征在从该全卷 积网络模型的输入层传递至输出层所产生的特征损耗,这样,对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,全卷积网络模型也能精准的将其分割出来,从而提高了针对于该视网膜图像的血管分割的准确性。
如图3所示,若目标视网膜图像为图1所示的图像,则采用本申请实施例所示的技术方案对该目标视网膜图像进行血管分割,所得到的血管分割图像如图3所示。针对于图1中所圈出区域的细小血管,在图3所示的血管分割图像中能够精准分割出来,从而有效的提高了血管分割的精准度。
作为一种示例,本申请实施例可以应用于如图4所示的示例性应用场景。在该应用场景中,用户401(如医生等)可以将视网膜图像上传至终端402上,以触发终端402对获得的视网膜图像进行血管分割;终端402在获得该视网膜图像后,可以将该视网膜图像输入至预先训练得到的全卷积网络模型中,作为该全卷积网络模型的输入,并根据该全卷积网络模型的输出结果确定该视网膜图像的血管分割图像。其中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且,该全卷积网络模型预先已经在终端402上基于历史视网膜图像以及该历史视网膜图像已知的血管分割图像进行了训练。
可以理解的是,上述场景仅是本申请实施例提供的一个场景示例,本申请实施例并不限于此场景。比如,在其它可能的应用场景中,考虑到服务器的计算效率以及响应时长通常优于终端,因此,在用户401将视网膜图像输入终端后,终端402可以向服务器发送血管分割请求,该请求中包括用户401 上传的视网膜图像,然后,服务器响应该请求,利用全卷积网络模型对该视网膜图像进行血管分割,并将所得到的血管分割图像回传给终端402,由终端 402显示给用户。总而言之,本申请实施例可以应用于任何可适用的场景中,不限于上述场景示例。
为使本申请的上述目的、特征和优点能够更加明显易懂,下面将结合附图对本申请实施例中的各种非限定性实施方式进行示例性说明。显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
参阅图5,图5示出了本申请实施例中一种针对于视网膜图像的血管分割方法的流程示意图,该方法具体可以包括:
S501:获取目标视网膜图像。
本实施例中,是要实现视网膜图像上血管的精确分割,因此,所获取的目标视网膜图像上通常呈现有视网膜血管。在一种具体的应用场景中,医生在为病人进行视网膜血管病变的检测时,可以将病人的视网膜图像上传至诊断设备中,以便于医生能够对该诊断设备所输出的血管分割图像对病人进行疾病诊断。
实际应用中,针对于视网膜图像上血管图像部分的像素与非血管图像部分的像素,通常在绿色通道的像素值存在较大的对比度,因此,利用视网膜图像上像素点的绿色通道的像素值,可以有效区分视网膜图像上血管图像部分与非血管图像部分。基于此,在一些可能的实施方式中,所获取的目标视网膜图像为从原始视网膜图像中所分离出得到的单通道图像。具体的,可以先获取原始视网膜图像,当然,该原始视网膜图像上呈现有视网膜血管,通常情况下,该原始视网膜图像包含R(Red,红色)、G(Green,绿色)以及 B(Blue,蓝色)三通道的图像,然后,可以从该原始视网膜图像中分离出G 通道的图像。为了描述方便,此处称之为通道分离图像。这样,基于该通道分离图像可以确定出目标视网膜图像。如,可以直接将该通道分离图像作为目标视网膜图像等。
可以理解,由于在生成原始视网膜图像的过程中,可能会存在一些噪声污染(如光噪声等),因此,在进一步的实施方式中,在获取目标视网膜图像的过程中还可以进行除燥处理。即,在得到通道分离图像后,可以利用中值滤波算法计算出该通道分离图像中每个像素点的像素值,得到第一图像,并将所得到的第一图像确定为目标视网膜图像。具体的,针对于该通道分离图像中的像素点,可以选择预设模板对该像素点按照G通道的像素值进行大小排序,并利用像素值的中间值作为通道分离图像上该像素点的像素值,按照上述过程对通道分离图像上的每个像素点进行处理,可以得到第一图像,并将其作为目标视网膜图像,以此来实现对通道分离图像的除燥。以处理通道分离图像上的像素点A为例,可以选用3×3(即,3个像素点×3个像素点) 的模板,将像素点A以及该像素点A周围的8个像素点的像素值按照大小进行排序(共计9个像素值),将第5个像素值(也即将中间大小的像素值)作为像素点A的像素值。
实际应用中,不同通道分离图像上像素点对应的灰度值波动范围可能不同,比如,对于通道分离图像A而言,其上像素点对应的灰度值波动范围处于35~150之间,而对于通道分离图像B而言,其上像素点对应的灰度值波动范围处于0至~255之间,则,在基于通道分离图像得到目标视网膜图像的过程中,可以将不同的通道分离图像上像素点对应的灰度值的波动范围统一至相同范围。则,在一些可能的实施方式中,可以利用直方图均衡化算法将通道分离图像中像素点的灰度值变化范围统一至预设范围,得到第二图像,并将该第二图像确定为目标视网膜图像。具体的,在基于通道分离图像得到目标视网膜图像的过程中,可以先计算出该通道分离图像的直方图,然后,基于该直方图计算出该通道分离图像的灰度值变化表,再对该通道分离图像上每个像素点的灰度值进行变换操作,使得该通道分离图像上像素点的灰度值波动范围处于预设范围(如0至255等)。
S502:将所获取的目标视网膜图像输入至全卷积网络模型中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且,该全卷积网络模型预先已经基于历史视网膜图像以及该历史视网膜图像已知的血管分割图像进行了训练。
本实施例中,是采用深度学习的方法来实现对视网膜图像进行血管分割。因此,可以将获得的视网膜图像输入至预先已经训练好的全卷积网络模型中,以得到针对于该视网膜图像的血管分割结果。其中,该全卷积网络模型预先基于至少一组历史视网膜图像以及该历史视网膜图像已知的血管分割图像进行了训练。在一种模型训练的示例中,可以将该历史视网膜图像作为该全卷积网络模型的输入,将该历史视网膜图像已知的血管分割图像作为该全卷积网络模型的输出。对于该全卷积网络模型的具体训练过程,可参见后文的详细介绍,在此不再赘述。
值得注意的是,针对于图像特征在从模型的输入层传递至输出层的过程中,容易出现图像特征损耗较大的问题,本实施例中,在设计全卷积网络模型的网络结构时,采用了密集连接卷积网络来增加该全卷积网络模型中不同层之间的上下文联系,从而可以有效减少图像特征在全卷积网络模型的输入层与输出层之间进行传递时所产生的特征损耗。
作为一种示例,该全卷积网络模型的网络结构可以如图6所示,包括解码网络以及编码网络。其中,该解码网络,具体可以包括密集连接卷积网络、卷积层以及最大池化层,其中,该解码网络中的密集连接卷积网络、卷积层以及最大池化层具体可以是如图6所示的方式进行级联;而编码网络中,具体可以包括卷积层以及反卷积层,并且,该卷积层与反卷积层之间级联,其中,反卷积层的输出与解码网络中的密集连接卷积网络的输出进行线性相加合并,作为编码网络中部分卷积层的输入,如图6所示。
实际应用中,该全卷积网络模型的解码网络中可以包含多个密集连接卷积网络。例如,如图7所示,解码网络中可以包含密集连接卷积网络1、密集连接卷积网络2、密集连接卷积网络3以及密集连接卷积网络4这四个密集连接卷积网络。相应的,编码网络中部分卷积层的输入,可以通过编码网络中相应的密集连接卷积网络的输出以及该编码网络中反卷积层的输出进行合并得到。如图7所示,卷积层6-1的输入,是由反卷积1的输出以及密集连接卷积网络4的输入进行合并得到;卷积层9-1的输入,是由反卷积4的输出以及密集连接卷积网络1的输入进行合并得到等。
进一步的,在一些可能的实施方式中,本实施例中的密集连接卷积网络,具体可以是由包括多个并联的网络分支的卷积网络单元所构成。其中,该卷积网络单元所包括的网络分支包括最大池化层和/或卷积层,并且,该卷积网络单元中至少包括两个不同的网络分支,则该卷积网络单元的输出可以基于所包括的多个网络分支的输出得到。以卷积网络单元包括四个不同的网络分支为例,参见图8,该卷积网络单元包括并联的第一网络分支、第二网络分支、第三网络分支以及第四网络分支。其中,第一网络分支具体为最大池化层,第二网络分支具体是由卷积核为1×1的卷积层以及卷积核为3×3的卷积层级联构成,第三网络分支具体是由卷积核为1×1的卷积层以及卷积核为5×5的卷积层级联构成,第四网络分支为卷积核具体为1×1的卷积层。该四个不同的网络分支的输出在组合层进行串联组合后,利用卷积核为3×3的卷积层生成卷积网络单元的输出结果。
可以理解,由于构成密集连接卷积网络的卷积网络单元中,包括了多个不同的网络分支,因此,在利用该密集连接卷积网络提取目标视网膜图像的特征时,能够提取到多个方面的特征,相较于现有的基于深度学习的血管分割方法而言,在网络宽度上有着更多的层数,能够提取到多方面层次的特征,从而有利于提高视网膜图像的血管分割的准确性,特别是针对于视网膜图像中血管对比度不明显区域处的血管以及视网膜图像中的较为细小的血管分支,血管分割精度得到有效提高。
基于此,在一种利用卷积网络单元构成密集连接卷积网络的示例中,该密集连接卷积网络可以包括至少两个卷积网络单元,分别为第一卷积网络单元以及第二卷积网络单元,其中,第一卷积网络单元的输入为该密集连接卷积网络的输入,而第二卷积网络单元的输入是由第一卷积网络单元的输出以及密集连接卷积网络的输入拼接组成。实际应用中,当密集连接卷积网络包括三个或者三个以上的卷积网络单元时,按照从密集连接卷积网络的输入层至输出层的顺序,第一个卷积网络单元的输入为该密集连接卷积网络的输入,而后面每个卷积网络单元的输入均是由前面所有卷积网络单元的输出以及该密集连接卷积网络的输入进行拼接组成。以密集连接卷积网络包括四个卷积网络单元为例,参见图9,该密集连接卷积网络包括第一卷积网络单元、第二卷积网络单元、第三卷积网络单元以及第四卷积网络单元。其中,对于第一卷积网络单元,其输入为该密集连接卷积网络的输入;而第二卷积网络单元的输入,是由第一卷积网络单元的输出以及该密集连接卷积网络的输入在第一拼接层进行拼接组成;第三卷积网络单元的输入,是由第一卷积网络单元的输出、第二卷积网络单元的输出以及该密集连接卷积网络的输入在第二拼接层进行拼接组成;第四卷积网络单元的输入,是由第一卷积网络单元的输出、第二卷积网络单元的输出、第三卷积网络单元的输出以及该密集连接卷积网络的输入在第三拼接层进行拼接组成。
S503:根据该全卷积网络模型的输出结果确定该目标视网膜图像的血管分割图像。
在将目标视网膜图像输入至预先训练好的全卷积网络模型后,该全卷积网络模型会基于该目标视网膜图像得到针对于血管的分割结果,并将该分割结果进行输出,从而基于该全卷积网络模型的输出结果能够确定出针对于该目标视网膜图像的血管分割图像。在一种示例性的具体实现方式中,该全卷积网络模型的输出结果即可以是针对于目标视网膜图像的血管分割图像,从而,该全卷积网络模型可以直接输出所需的血管分割图像;而在另一种示例性的具体实现方式,该全卷积网络模型的输出结果可以是能够表征血管分割情况的结果,比如,可以是用于描述血管像素点位置的文件等,从而基于该全卷积网络模型的输出结果,可以进一步确定出针对于目标视网膜图像的血管分割图像。
本实施例中,可以先获取需要进行血管分割的目标视网膜图像,在该目标视网膜图像上呈现有视网膜血管,然后,可以将该目标视网膜图像输入至预先训练得到的全卷积网络模型中,并基于全卷积网络模型的输出结果确定该目标视网膜图像的血管分割图像,其中,该全卷积网络模型的解码网络中包括密集连接卷积网络,并且该全卷积网络模型预先已基于历史视网膜图像以及历史视网膜图像所已知的血管分割图像进行训练。可以理解,由于全卷积网络模型中的密集连接卷积网络能够保证不同层之间的图像特征的上下文联系,有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少视网膜图像的图像特征在从该全卷积网络模型的输入层传递至输出层所产生的特征损耗,这样,对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,全卷积网络模型也能精准的将其分割出来,从而提高了针对于该视网膜图像的血管分割的准确性。
为了更加详细的介绍申请实施例的技术方案,下面对全卷积网络模型的训练过程进行详细说明。参阅图10,图10示出了本申请实施例中针对于全卷积网络模型的示例性训练过程示意图,其具体为:
S1001:搭建全卷积网络模型,该全卷积网络模型的解码网络中包括密集连接卷积网络。
本实施例中,由于对视网膜图像进行血管的分割的全卷积网络模型中包括有密集连接卷积网络,以保证该全卷积网络模型中不同层之间的图像特征的上下文联系,缓解该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少视网膜图像的图像特征在从该全卷积网络模型的输入层传递至输出层所产生的特征损耗,提高血管分割的准确性。其中,对于全卷积网络模型的具体网络结果,可参阅上一实施例的相关之处描述,在此不做赘述。
其中,在搭建全卷积网络模型时,还可以对该全卷积网络模型进行参数设置。其中,所需设置的参数可以包括两类,一类是用于学习图像特征的特征参数,另一类是超参数,包括该全卷积网络模型的学习率、隐藏层个数、卷积核大小、模型训练的迭代次数、每次迭代的批次大小等。比如,可以设置学习率为0.001,隐藏层个数分别为16、32、64、128、256,卷积核大小为 3×3,训练迭代次数为4000次,每次迭代批次大小为1等。
S1002:获取历史视网膜图像以及该历史视网膜图像所已知的血管分割图像。
在对搭建好的全卷积网络模型进行训练时,需要获取用于训练的历史数据,包括作为全卷积网络模型输入的历史视网膜图像,以及已知的作为全卷积网络模型输出的血管分割图像。当然,在另一些可能的实施方式中,所训练的全卷积网络模型的输出结果也可以是用于描述该已知的血管分割图像的结果。
可以理解,由于训练模型所需的训练数据较多,若所获取的用于模型训练的视网膜图像较少,则可以通过对这些视网膜图像进行刚性变换操作来扩增训练数据。具体的,在一种示例性的实施方式中,可以先获取一定数量的源视网膜图像以及该源视网膜图像所已知的源血管分割图像,然后,对该源视网膜图像进行随机选择的刚性变换操作,得到多个视网膜图像,同样,对该源视网膜图像所已知的源血管分割图像,也进行相同的刚性变换操作,得到多个血管分割图像。其中,该刚性变换操作包括旋转、缩放、平移、翻转以及灰度变换中的任意一种或多种操作。例如,可以从公开数据库DRIVE (Digital Retinal Imagefor Vessel Extraction)中获得40张分辨率为565×584 的视网膜图像作为源视网膜图像,并获得该源视网膜图像所已知的血管分割图像,然后,由于源视网膜图像以及对应的血管分割图像数量较少,可能无法满足训练全卷积网络模型所需的训练数据的需求,因此,可以对源视网膜图像以及对应的血管分割图像随机选择旋转、缩放、平移、翻转以及灰度变换等刚性变换操作中的任意一种或者多种操作(如对源视网膜图像进行旋转和缩放两种操作等),使得对源视网膜图像进行刚性变换操作后,能够获得 4000张视网膜图像,每张视网膜图像均具有对应的已知血管分割图像。
考虑到视网膜图像上血管图像部分的像素与非血管图像部分的像素,通常在绿色通道的像素值存在较大的对比度,从而基于绿色通道的像素值对视网膜图像上的血管进行分割,可以使得分割结果更准确。因此,在对源视网膜图像进行数据扩增后,可以对所得到的视网膜图像进行通道分离处理,即从扩增后的视网膜图像中分离出绿色通道的图像,得到多个通道分离图像。
进一步的,所得到的通道分离图像中可能会存在部分诸如光噪声等噪声污染,因此,在一些可能的实施方式中,可以利用中值滤波算法对该通道分离图像进行除燥处理。具体实现时,针对于该通道分离图像中的像素点,可以选择预设模板对该像素点按照G通道的像素值进行大小排序,并利用像素值的中间值作为通道分离图像上该像素点的像素值,按照上述过程对通道分离图像上的每个像素点进行处理,即可完成对通道分离图像的除燥处理。
此外,由于不同通道分离图像上像素点对应的灰度值波动范围可能不同,则,在基于通道分离图像得到历史视网膜图像的过程中,还可以利用直方图均衡化算法将通道分离图像中像素点的灰度值变化范围统一至预设范围,得到所需的历史视网膜图像。具体的,可以先计算出该通道分离图像的灰度直方图,然后,基于该灰度直方图计算出该通道分离图像的灰度值变化表,再对该通道分离图像上每个像素点的灰度值进行变换操作,使得该通道分离图像上像素点的灰度值波动范围处于预设范围(如0至255等)。
S1003:根据随机梯度下降法,利用所获得的历史视网膜图像以及血管分割图像训练所搭建的全卷积网络模型,直至该全卷积网络模型达到预设条件时结束训练。
在一种示例性的实施方式中,可以将历史视网膜图像作为该全卷积网络模型的输入,将已知的血管分割图像作为该全卷积网络模型的输出,利用随机梯度下降法来训练该全卷积网路模型。具体的,可以先向该全卷积网络模型中输入历史视网膜图像,从该历史视网膜图像中所提取的特征从该全卷积网络模型的输入层传递至该全卷积网络模型的输出层,然后,可以计算出该全卷积网络模型中每一层的特征图谱激活值,也即计算出每一层的输出值。然后,可以反向计算出每一层的梯度敏感值,具体可以是利用公式(1)计算出该全卷积网络模型的输出层(假设模型包括n层,则输出层即为第n层,n 为大于1的正整数)的梯度敏感值δn,其计算公式如下:
δn=-(y-an)×f'(zn) (1)
其中,y为已知的血管分割图像,也即为训练样本的真实值,an为输出层的预测值,f'(zn)为输出层参数的偏导数。
在计算出输出层的梯度敏感值后,可以利用公式(2)依次计算出第(n-1) 层至第1层的梯度敏感值,其中,第l(l=n-1,n-2,Λ,1)层的梯度敏感值δl为:
δl=((Wl)T·δl+1)×f'(zl) (2)
其中,Wl表征第l层的参数,δl+1表征第l+1层的梯度敏感值,f'(zl)表征第l层的偏导数。
进而,利用所计算出的各个层的梯度敏感值去更新上一层的参数,其具体可以采用如下所示的公式(3)以及公式(4)来进行参数更新:
其中,Wl和bl分别表示l层的权重参数和偏置参数,为学习率,al为第l层的输出值。
利用上述反向传播算法来优化该全卷积网络模型中的参数后,可以判断该全卷积网络模型是否达到训练结束的预设条件,若达到,则完成对该全卷积网络模型的训练,并保存该模型中的各参数,若未达到,则继续利用历史视网膜图像以及对应的已知血管分割图像对该全卷积网络模型进行训练,更新该模型中的相应参数。
在一些可能的实施方式中,可以利用损失函数来确定全卷积网络模型的训练结束条件。具体的,可以根据历史视网膜图像、全卷积网络模型基于该历史视网膜图像的输出结果以及该历史视网膜图像已知的血管分割结果,来计算出全卷积网络模型对应的损失函数的函数值,进而判断该函数值是否处于预设范围内,若是,则结束对该全卷积网络模型的训练,表示训练完成,若不是,则可以继续利用下一组历史视网膜图像以及对应的已知血管分割图像进行训练。
作为一种示例,该损失函数具体可以如公式(5)所示:
其中,L(W,b)表征损失函数,xi表征输入的第i个历史视网膜图像数据, fW,b(xi)表征第i个训练样本的模型输出结果,yi表征第i个训练样本的血管分割图像数据,K为平滑参数,用于避免分母为零时无法进行计算,比如可以设置为10-3等。
此外,本申请实施例还提供了一种针对于视网膜图像的血管分割装置。参见图11,图11示出了本申请实施例中一种针对于视网膜图像的血管分割装置的结构示意图,该装置1100包括:
获取模块1101,用于获取目标视网膜图像;
输入模块1102,用于将所述目标视网膜图像输入至全卷积网络模型中,所述全卷积网络模型的解码网络中包括密集连接卷积网络,所述全卷积网络模型预先已基于历史视网膜图像以及所述历史视网膜图像已知的血管分割图像进行了训练;
确定模块1103,用于根据所述全卷积网络模型的输出结果确定所述目标视网膜图像的血管分割图像。
在一些可能的实施方式中,所述密集连接卷积网络包括卷积网络单元,所述卷积网络单元包括多个并联的不同网络分支,所述网络分支包括最大池化层和/或卷积层,所述卷积网络单元的输出结果基于所述多个网络分支的输出结果得到。
在一些可能的实施方式中,所述密集连接卷积网络包括第一卷积网络单元、第二卷积网络单元,所述第一卷积网络单元的输入是所述密集连接卷积网络的输入,所述第二卷积网络单元的输入包括所述第一卷积网络单元的输出与所述密集连接卷积网络的输入。
在一些可能的实施方式中,所述获取模块1101,包括:
获取单元,用于获取原始视网膜图像,所述原始视网膜图像上呈现有视网膜血管;
分离单元,用于从所述原始视网膜图像中分离出绿色通道的图像,得到通道分离图像;
第一确定单元,用于基于所述通道分离图像确定所述目标视网膜图像。
在一些可能的实施方式中,所述确定模块1103,包括:
计算单元,用于利用中值滤波算法计算出所述通道分离图像中各个像素点的像素值,得到第一图像;
第二确定单元,用于将所述第一图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述确定模块1103,包括:
统一单元,用于利用直方图均衡化算法将所述通道分离图像中像素点的灰度值变化范围统一至预设范围,得到第二图像;
第三确定单元,用于将所述第二图像确定为所述目标视网膜图像。
在一些可能的实施方式中,所述装置1100还包括:
计算模块,用于根据所述历史视网膜图像、所述全卷积网络模型基于所述历史视网膜图像的输出结果以及所述历史视网膜图像已知的血管分割图像,计算所述全卷积网络模型对应的损失函数的函数值;
训练完成确定模块,用于若所述函数值处于预设范围,则确定所述全卷积网络模型完成训练。
在一些可能的实施方式中,所述历史视网膜图像为源视网膜图像经过随机选择的刚性变换操作得到,所述历史视网膜图像对应的历史血管分割图像为所述源视网膜图像对应的源血管分割图像经过所述刚性变换操作得到,所述刚性变换操作包括旋转、缩放、平移、翻转以及灰度变换中的任意一种或多种。
在一些可能的实施方式中,所述装置1100还包括:
历史视网膜图像获取模块,用于获取所述历史视网膜图像以及所述历史视网膜图像已知的血管分割图像;
模型训练模块,用于将所述历史视网膜图像作为全卷积网络模型的输入,将所述已知的血管分割图像作为所述全卷积网络模型的输出,训练所述全卷积网络模型;
其中,所述全卷积网络模型的解码网络中包括密集连接卷积网络。
本实施例中,由于全卷积网络模型中的密集连接卷积网络能够保证不同层之间的图像特征的上下文联系,有效的缓解了该全卷积网络模型中的梯度消失或者梯度爆炸的问题,从而可以有效减少视网膜图像的图像特征在从该全卷积网络模型的输入层传递至输出层所产生的特征损耗,这样,对于视网膜图像中血管对比度不明显区域处的血管,以及视网膜图像中的较为细小的血管分支,全卷积网络模型也能精准的将其分割出来,从而提高了针对于该视网膜图像的血管分割的准确性。
此外,本申请实施例还提供了一种针对于视网膜图像的血管分割设备。如图12所示,所述设备1200包括处理器1201以及存储器1202:
所述存储器1202用于存储程序代码,并将所述程序代码传输给所述处理器1201;
所述处理器1201可以用于根据所述程序代码中的指令执行图5所示实施例所述的针对于视网膜图像的血管分割方法。
另外,本申请实施例还提供了一种存储介质,所述存储介质用于存储程序代码,所述程序代码用于执行图5所示实施例所述的针对于视网膜图像的血管分割方法。
本申请实施例中提到的“第一卷积网络单元”、“第一图像”、“第一确定单元”等名称中的“第一”只是用来做名字标识,并不代表顺序上的第一。该规则同样适用于“第二”等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如只读存储器(英文:read-only memory,ROM)/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如路由器等网络通信设备)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本申请示例性的实施方式,并非用于限定本申请的保护范围。
Claims (10)
1.一种针对于视网膜图像的血管分割方法,其特征在于,所述方法包括:
获取目标视网膜图像;
将所述目标视网膜图像输入至全卷积网络模型中,所述全卷积网络模型的解码网络中包括密集连接卷积网络,所述全卷积网络模型预先已基于历史视网膜图像以及所述历史视网膜图像已知的血管分割图像进行了训练;
根据所述全卷积网络模型的输出结果确定所述目标视网膜图像的血管分割图像。
2.根据权利要求1所述方法,其特征在于,所述密集连接卷积网络包括卷积网络单元,所述卷积网络单元包括多个并联的不同网络分支,所述网络分支包括最大池化层和/或卷积层,所述卷积网络单元的输出结果基于所述多个网络分支的输出结果得到。
3.根据权利要求1所述的方法,其特征在于,所述密集连接卷积网络包括第一卷积网络单元、第二卷积网络单元,所述第一卷积网络单元的输入是所述密集连接卷积网络的输入,所述第二卷积网络单元的输入包括所述第一卷积网络单元的输出与所述密集连接卷积网络的输入。
4.根据权利要求1所述的方法,其特征在于,所述获取目标视网膜图像,包括:
获取原始视网膜图像,所述原始视网膜图像上呈现有视网膜血管;
从所述原始视网膜图像中分离出绿色通道的图像,得到通道分离图像;
基于所述通道分离图像确定所述目标视网膜图像。
5.根据权利要求4所述的方法,其特征在于,所述基于所述通道分离图像确定所述目标视网膜图像,包括:
利用中值滤波算法计算出所述通道分离图像中各个像素点的像素值,得到第一图像;
将所述第一图像确定为所述目标视网膜图像。
6.根据权利要求4所述的方法,其特征在于,所述基于所述通道分离图像确定所述目标视网膜图像,包括:
利用直方图均衡化算法将所述通道分离图像中像素点的灰度值变化范围统一至预设范围,得到第二图像;
将所述第二图像确定为所述目标视网膜图像。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述历史视网膜图像、所述全卷积网络模型基于所述历史视网膜图像的输出结果以及所述历史视网膜图像已知的血管分割图像,计算所述全卷积网络模型对应的损失函数的函数值;
若所述函数值处于预设范围,则确定所述全卷积网络模型完成训练。
8.一种针对于视网膜图像的血管分割装置,其特征在于,所述装置包括:
获取模块,用于获取目标视网膜图像;
输入模块,用于将所述目标视网膜图像输入至全卷积网络模型中,所述全卷积网络模型的解码网络中包括密集连接卷积网络,所述全卷积网络模型预先已基于历史视网膜图像以及所述历史视网膜图像已知的血管分割图像进行了训练;
确定模块,用于根据所述全卷积网络模型的输出结果确定所述目标视网膜图像的血管分割图像。
9.一种针对于视网膜图像的血管分割设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1至7任一项所述的一种针对于视网膜图像的血管分割方法。
10.一种存储介质,所述存储介质用于存储程序代码,所述程序代码用于执行权利要求1至7任一项所述的针对于视网膜图像的血管分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910502122.3A CN110349166A (zh) | 2019-06-11 | 2019-06-11 | 一种针对于视网膜图像的血管分割方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910502122.3A CN110349166A (zh) | 2019-06-11 | 2019-06-11 | 一种针对于视网膜图像的血管分割方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110349166A true CN110349166A (zh) | 2019-10-18 |
Family
ID=68181741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910502122.3A Pending CN110349166A (zh) | 2019-06-11 | 2019-06-11 | 一种针对于视网膜图像的血管分割方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110349166A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001923A (zh) * | 2020-11-02 | 2020-11-27 | 中国人民解放军国防科技大学 | 一种视网膜图像分割方法及装置 |
CN112365474A (zh) * | 2020-11-12 | 2021-02-12 | 中科麦迪人工智能研究院(苏州)有限公司 | 血管提取方法、装置、电子设备和存储介质 |
CN114387437A (zh) * | 2022-01-12 | 2022-04-22 | 福建农林大学 | 基于多注意力U-Net全卷积网络的视网膜图像视盘提取方法 |
CN116912257A (zh) * | 2023-09-14 | 2023-10-20 | 东莞理工学院 | 基于深度学习的混凝土路面裂缝识别方法及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016676A (zh) * | 2017-03-13 | 2017-08-04 | 三峡大学 | 一种基于pcnn的视网膜血管图像分割方法和系统 |
CN109118495A (zh) * | 2018-08-01 | 2019-01-01 | 沈阳东软医疗系统有限公司 | 一种视网膜血管分割方法和装置 |
CN109165550A (zh) * | 2018-07-13 | 2019-01-08 | 首都师范大学 | 一种基于无监督深度学习的多模态手术轨迹快速分割方法 |
CN109345538A (zh) * | 2018-08-30 | 2019-02-15 | 华南理工大学 | 一种基于卷积神经网络的视网膜血管分割方法 |
CN109448006A (zh) * | 2018-11-01 | 2019-03-08 | 江西理工大学 | 一种注意力机制u型密集连接视网膜血管分割方法 |
CN109685077A (zh) * | 2018-12-13 | 2019-04-26 | 深圳先进技术研究院 | 一种乳腺肿块图像识别方法及装置 |
-
2019
- 2019-06-11 CN CN201910502122.3A patent/CN110349166A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016676A (zh) * | 2017-03-13 | 2017-08-04 | 三峡大学 | 一种基于pcnn的视网膜血管图像分割方法和系统 |
CN109165550A (zh) * | 2018-07-13 | 2019-01-08 | 首都师范大学 | 一种基于无监督深度学习的多模态手术轨迹快速分割方法 |
CN109118495A (zh) * | 2018-08-01 | 2019-01-01 | 沈阳东软医疗系统有限公司 | 一种视网膜血管分割方法和装置 |
CN109345538A (zh) * | 2018-08-30 | 2019-02-15 | 华南理工大学 | 一种基于卷积神经网络的视网膜血管分割方法 |
CN109448006A (zh) * | 2018-11-01 | 2019-03-08 | 江西理工大学 | 一种注意力机制u型密集连接视网膜血管分割方法 |
CN109685077A (zh) * | 2018-12-13 | 2019-04-26 | 深圳先进技术研究院 | 一种乳腺肿块图像识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
GAO HUANG ET AL: "Densely Connected Convolutional Networks", 《ARXIV》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001923A (zh) * | 2020-11-02 | 2020-11-27 | 中国人民解放军国防科技大学 | 一种视网膜图像分割方法及装置 |
CN112365474A (zh) * | 2020-11-12 | 2021-02-12 | 中科麦迪人工智能研究院(苏州)有限公司 | 血管提取方法、装置、电子设备和存储介质 |
CN114387437A (zh) * | 2022-01-12 | 2022-04-22 | 福建农林大学 | 基于多注意力U-Net全卷积网络的视网膜图像视盘提取方法 |
CN116912257A (zh) * | 2023-09-14 | 2023-10-20 | 东莞理工学院 | 基于深度学习的混凝土路面裂缝识别方法及存储介质 |
CN116912257B (zh) * | 2023-09-14 | 2023-12-29 | 东莞理工学院 | 基于深度学习的混凝土路面裂缝识别方法及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349166A (zh) | 一种针对于视网膜图像的血管分割方法、装置及设备 | |
CN111369440B (zh) | 模型训练、图像超分辨处理方法、装置、终端及存储介质 | |
EP3961484A1 (en) | Medical image segmentation method and device, electronic device and storage medium | |
CN112862689B (zh) | 一种图像超分辨率重建方法及系统 | |
CN109886986A (zh) | 一种基于多分支卷积神经网络的皮肤镜图像分割方法 | |
CN111860528B (zh) | 基于改进U-Net网络的图像分割模型及训练方法 | |
CN109118495A (zh) | 一种视网膜血管分割方法和装置 | |
CN108764342B (zh) | 一种对于眼底图中视盘和视杯的语义分割方法 | |
CN106796716A (zh) | 用于为低分辨率图像提供超分辨率的设备和方法 | |
CN114782350A (zh) | 一种基于注意力机制的多模态特征融合的mri脑瘤图像分割方法 | |
CN105981050A (zh) | 用于从人脸图像的数据提取人脸特征的方法和系统 | |
CN109948575A (zh) | 超声图像中眼球区域分割方法 | |
CN112330684A (zh) | 对象分割方法、装置、计算机设备及存储介质 | |
CN110738660A (zh) | 基于改进U-net的脊椎CT图像分割方法及装置 | |
CN111179196A (zh) | 一种基于分而治之的多分辨率深度网络图像去高光方法 | |
CN116452618A (zh) | 一种三输入脊柱ct图像分割方法 | |
CN115147640A (zh) | 一种基于改进胶囊网络的脑肿瘤图像分类方法 | |
CN114529794B (zh) | 一种红外与可见光图像融合方法、系统及介质 | |
CN109583406A (zh) | 基于特征关注机制的人脸表情识别方法 | |
CN110796716A (zh) | 一种基于多重残差网络和正则化迁移学习的图像着色方法 | |
CN116188501A (zh) | 基于多尺度交叉注意力的医学图像分割方法 | |
CN113450364B (zh) | 一种基于三维通量模型的树状结构中心线提取方法 | |
CN113935908B (zh) | 一种基于双支路通道和特征强化机制的遥感图像去云方法 | |
CN113506226B (zh) | 运动模糊复原方法及系统 | |
CN114972062A (zh) | 一种基于平行自适应引导网络的图像修复模型及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191018 |
|
RJ01 | Rejection of invention patent application after publication |