CN109859146A - 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法 - Google Patents

一种基于U-net卷积神经网络的彩色眼底图像血管分割方法 Download PDF

Info

Publication number
CN109859146A
CN109859146A CN201910151413.2A CN201910151413A CN109859146A CN 109859146 A CN109859146 A CN 109859146A CN 201910151413 A CN201910151413 A CN 201910151413A CN 109859146 A CN109859146 A CN 109859146A
Authority
CN
China
Prior art keywords
layer
image
layers
blood vessel
eye fundus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910151413.2A
Other languages
English (en)
Inventor
张静
蒋雨梦
赵家喜
肖璇璐
刘霖
刘娟秀
刘永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910151413.2A priority Critical patent/CN109859146A/zh
Publication of CN109859146A publication Critical patent/CN109859146A/zh
Pending legal-status Critical Current

Links

Abstract

本发明公开了一种基于U‑net卷积神经网络的彩色眼底图像血管分割方法,属于图像处理和深度学习技术领域,具体涉及一种基于神经网络的眼底图像血管自动分割方法。本发明在图像进行对比度受限的自适应直方图均衡处理后进行Gamma校正,能够有效地提升眼底图像中血管与眼底图像背景的对比度,提升二维Gabor滤波器的滤波效果,有利于眼底图像中微细血管的分割。本发明在二维滤波器后对图像采用最值化处理,可以在分割血管的同时很好地抑制噪声。本发明采用的神经网络为改进的U‑net神经网络,输入图像的大小为48×48,使得神经网络的结构得到优化,并且训练样本的数量可以得到极大的扩增,使得分割模型的分割效果得到较大的改善。

Description

一种基于U-net卷积神经网络的彩色眼底图像血管分割方法
技术领域
本发明属于图像处理和深度学习技术领域,具体涉及一种基于神经网络的眼底图像血管自动分割方法。
背景技术
眼底血管网络是人体内能够通过非创直接观察到的比较深层次的微血管。任何系统性和血液性的病变都会导致眼底微血管的特征或形态发生变化。视网膜血管分割是眼科计算机辅助诊断和大规模疾病筛查系统的基础。大多数医院都是通过眼科医生仔细观察眼底图像,然后得出诊断结果。这种人工检测方法操作时间长、工作强度大,而且人的主观判断对结果影响很大,标准不能统一;重复而又单调,效率低下,所以人工观察的方式已经难以快速、准确、客观的对眼底图像进行观察。随着机器视觉技术的成熟发展,使用计算机取代眼科医生的眼睛,通过计算机智能化的观察和分析图像,采用自动化的方法帮助眼科医生进行视网膜图像的理解,早已引起了国内外学者们的兴趣。为了彩色眼底图像血管分割的准确率和效率,本发明提出了一种基于神经网络的彩色眼底图像血管自动分割方法。首先对彩色眼底图像进行对比度受限的自适应直方图均衡处理,伽马校正和二维Gabor滤波,再将处理后的图片制成训练神经网络所需数据集,然后将数据集中的样本送入设计好的深度卷积神经网络中进行彩色眼底图像血管识别模型的训练。最后,我们使用这个模型进行彩色眼底图像中的血管分割。
本发明提出的方法应用在彩色眼底图像中的血管分割,可以极大程度地降低血管分割的人力成本,提高生产效率和识别准确率。
发明内容
本发明针对彩色眼底图像中的血管分割人工成本高和辨别效率低的缺点,设计了一种基于神经网络的彩色眼底图像血管自动分割方法,从而达到高效、准确和成本低的彩色眼底图像中的血管分割的目的。
本发明技术方案是一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,该方法包括以下步骤:
步骤1:人工获得彩色眼底样本图像;
步骤2:提取步骤1的彩色眼底样本图像中的绿色通道信息;
步骤3:对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理;
步骤4:利用伽马校正(Gamma Correction)对步骤3处理后的图像进行图像校正;
步骤5:对步骤4校正的后的图像进行反置;
步骤6:构建二维Gabor滤波器;
步骤7:利用步骤6构建的二维Gabor滤波器对步骤5反置后的图像进行滤波;
步骤8:将步骤7获得的滤波后的图像进行方向和尺度的最值处理;
步骤9:获取步骤1获得的彩色眼底样本图像对应的手工血管分割图像;
步骤10:对步骤8和步骤9获得的图片进行相同的裁剪操作,然后制成数据集;
步骤11:将步骤10制作好的数据集随机分为训练集和测试集;
步骤12:建立卷积神经网络;
步骤13:将步骤11的训练集和测试集输入到步骤12建立的深度卷积神经网络进行彩色眼底图像血管识别模型的训练,训练完成后保存模型参数;
步骤14:将待测彩色眼底图像经过步骤2到步骤8,裁剪后送入到步骤13中训练好的彩色眼底图像血管识别模型中,得彩色眼底图像血管识别结果。
进一步的,所述步骤3的具体步骤为:
步骤3.1:创建一个对比度受限的自适应直方图均衡对象,其clipLimit设置为5.0,tileGridSize设置为20×20;
步骤3.2:利用步骤3.1创建的自适应直方图均衡对象对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理。
进一步的,所述步骤4的具体步骤为:
步骤4.1:设置伽马校正(Gamma Correction)参数,计算公式如下所示:
T(x,y)=a*f(x,y)gamma
其中,T(x,y)是输出(x,y)的像素值,f(x,y)是输入(x,y)的像素值,a和gamma是可调参数;本发明中,a为1,gamma为1/3;
步骤4.2:将步骤3.2得到的图像利用步骤4.1的公式计算伽马校正;
进一步的,所述步骤6的具体步骤为:
步骤6.1:选着合适的二维Gabor小波定义公式,二维Gabor小波核函数定义如下所示:
Gu,v(z)=||ku,v||2/sigma2*exp(-||ku,v||2*||z||2/2*sigma2)*[exp(i*ku,v*z)-exp(-sigma2/2)]
其中,Gu,v(z)为二维Gabor小波,u为方向,v为尺度,z=(x,y)为图像坐标,sigma是高斯函数半径,ku,v是滤波器的中心频率,i为虚数单位;
步骤6.2:提取步骤6.1的二维Gabor小波核函数的实部,其计算公式如下所示:
Gr(m+Hh+1,n+Hw+1)=(Kmax/fv)2*K1*K2/sigma2
K1=exp(-((Kmax/fv)4(m2+n2)/2*sigma2)
K2=cos((Kmax/fv)cos(π*u/18)*n+(Kmax/fv)*sin(π*u/18)*m)-exp(-sigma2/2)
其中,Gr(j+Hh+1,i+Hw+1)为二维Gabor小波核函数的实部,m,n的取值范围为-Hh≤m≤Hh,-Hw≤n≤Hw,Kmax为最大频率,f为空间因子,fv表示f的v次方,Hh为滤波器二分之一高度,Hw为滤波器二分之一宽度;为简化公式,所以将二维Gabor小波核函数的实部计算公式中的部分公式用K1和K2表示;
本发明中,Hh和Hw均等于17,sigma等于π/2,f为21/2,Kmax为1.5*π/2,u的取值范围为[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17],v的取值范围为[0,1,2,3,4,5,6,7];
进一步的,所述步骤8的具体步骤为:
步骤8.1:取步骤7中u为[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17],v为[4,5,6]的滤波图像;
步骤8.2:将步骤8.1所得的图像进行最大值化处理,计算公式如下:
其中,I(x,y)为输入图像,P(x,y)为输出图像。
进一步的,所述步骤10的具体步骤为:
步骤10.1:将步骤8.2和步骤9获得的图像进行相同的裁剪,将图像裁剪成48×48大小的图片;
步骤10.2:在步骤10.1裁剪后图片中随机抽取100000张图片制成数据集;
进一步的,所述步骤12的具体步骤为:
步骤12.1:搭建深度神经网络,其结构包括八层,其中第一层为输入层,第二层至第层七为隐藏层,第八层为输出层,各层结构如下
第一层:输入层:输入训练集的图像数据和每张图像的真实标签;
第二层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第三层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第四层:隐藏层:包含两个卷积层和一个Dropout层;
第五层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第六层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第七层:隐藏层:包含一个卷积层,一个Reshape层和一个Permute层;
第八层:输出层:一个激活函数层;
步骤12.2:设置深度神经网络参数:
第二层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的元素保留率keep_prob设置为0.8;
第三层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的元素保留率keep_prob设置为0.8;
第四层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为128,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;
第五层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第六层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第七层:卷积层的卷积核大小为1×1,步长stride为1,卷积核数量为2,激活函数为Relu激活函数;
第八层:激活函数为softmax激活函数。
所述步骤13的具体步骤为:
步骤13.1:将步骤11的训练集样本图像输入到步骤12建立的深度卷积神经网络中,计算训练集交叉熵损失train-loss.
步骤13.2:使用SGD优化器对步骤13.1的交叉熵损失train-loss进行优化;
步骤13.3:每隔1000训练步长,便将测试集样本图像也输入到步骤12建立的神经网络中,同时计算训练集交叉熵损失train-loss和测试集交叉熵损失test-loss;
步骤13.4:重复步骤13.1、13.2和13.3,当步骤13.3的train-loss小于0.001和步骤13.3的test-loss小于0.01时,训练停止,保存训练完成后的模型参数。
本发明在图像进行对比度受限的自适应直方图均衡处理后进行Gamma校正,能够有效地提升眼底图像中血管与眼底图像背景的对比度,提升二维Gabor滤波器的滤波效果,有利于眼底图像中微细血管的分割。本发明在二维滤波器后对图像采用最值化处理,可以在分割血管的同时很好地抑制噪声。本发明采用的神经网络为改进的U-net神经网络,输入图像的大小为48×48,使得神经网络的结构得到优化,并且训练样本的数量可以得到极大的扩增,使得分割模型的分割效果得到较大的改善。
附图说明
图1为眼底显微图像。
图2为本发明步骤8处理后的图像。
图3为本发明步骤9获得的手工血管分割图像。
图4为本发明步骤10裁剪后的图像;图4-1为最值化裁剪图像,图4-2为手工分割裁剪图像。
图5为本发明一种基于神经网络的彩色眼底图像血管自动分割方法的流程图。
图6为本发明步骤12搭建的神经网络结构图。
具体实施方式
下面结合附图,对本发明一种基于神经网络的彩色眼底图像血管自动分割方法进行详细说明:
步骤1:人工获得彩色眼底样本图像;
步骤2:提取步骤1的彩色眼底样本图像中的绿色通道信息;
步骤3:对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理;
步骤3.1:将对比度受限的自适应直方图均衡对clipLimit设置为5.0,tileGridSize设置为20×20;
步骤3.2:利用步骤3.1创建的自适应直方图均衡对象对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理;
步骤4:利用伽马校正(Gamma Correction)对步骤3.2处理后的的图像进行图像校正;
步骤4.1:设置,令a为1,gamma为1/3;
步骤4.2:利用步骤4.1的伽马校正(Gamma Correction)参数对步骤3.2得到的图像进行伽马校正;
步骤5:对步骤4.2校正的后的图像进行反置;
步骤6:构建二维Gabor滤波器;
步骤6.1:选着合适的二维Gabor小波定义公式;
步骤6.2:提取步骤6.1的二维Gabor小波核函数的实部;
步骤7:利用步骤6.2构建的二维Gabor滤波器对步骤5反置后的图像进行滤波;
步骤8:将步骤7获得的滤波后的图像进行方向和尺度的最值处理;
所述步骤8的具体步骤为:
步骤8.1:取步骤7中u为[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17],v为[4,5,6]的滤波图像;
步骤8.2:将步骤8.1所得的图像进行最大值化处理,计算公式如下:
其中,I(x,y)为输入图像,P(x,y)为输出图像;
步骤9:获取步骤1获得的彩色眼底样本图像对应的手工血管分割图像;
步骤10.1:将步骤8.2和步骤9获得的图像进行相同的裁剪,将图像裁剪成48×48大小的图片;
步骤10.2:在步骤10.1裁剪后图片中随机抽取100000张图片制成数据集;
步骤11:将步骤10.2制作好的数据集按4:1的比例随机分为训练集和测试集,即训练集为80000张图片,测试集为20000张图片;
步骤12:建立深度卷积神经网络;
所述步骤12的具体步骤为:
步骤12.1:搭建深度神经网络,其结构包括八层,其中第一层为输入层,第二层至第层七为隐藏层,第八层为输出层,各层结构如下
第一层:输入层:输入训练集的图像数据和每张图像的真实标签;
第二层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第三层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第四层:隐藏层:包含两个卷积层和一个Dropout层;
第五层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第六层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第七层:隐藏层:包含一个卷积层,一个Reshape层和一个Permute层;
第八层:输出层:一个激活函数层;
步骤12.2:设置深度神经网络参数:
第二层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的keep_prob(元素保留率)设置为0.8;
第三层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的keep_prob(元素保留率)设置为0.8;
第四层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为128,激活函数为Relu激活函数,Dropout层的keep_prob(元素保留率)设置为0.8;
第五层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,Dropout层的keep_prob(元素保留率)设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第六层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,Dropout层的keep_prob(元素保留率)设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第七层:卷积层的卷积核大小为1×1,步长stride为1,卷积核数量为2,激活函数为Relu激活函数;
第八层:激活函数为softmax激活函数;步骤13:将步骤11的训练集和测试集输入到步骤12建立的深度卷积神经网络进行彩色眼底图像血管识别模型的训练,训练完成后保存模型参数;
步骤13.1:将步骤11的训练集样本图像输入到步骤12建立的深度卷积神经网络中,计算训练集交叉熵损失train-loss.
步骤13.2:使用SGD优化器对步骤13.1的交叉熵损失train-loss进行优化,本发明中优化器的momentum(动量参数)为0.3,learning rate(学习率)为0.01,学习率衰减为0.000001;
步骤13.3:每隔1000训练步长,便将测试集样本图像也输入到步骤12建立的神经网络中,同时计算训练集交叉熵损失train-loss和测试集交叉熵损失test-loss;
步骤13.4:重复步骤13.1、13.2和13.3,当步骤13.3的train-loss小于0.001和步骤13.3的test-loss小于0.01时,训练停止,保存训练完成后的模型参数。
步骤14:将待测彩色眼底图像经过步骤2到步骤8,裁剪后送入到步骤13中训练好的彩色眼底图像血管识别模型中,得彩色眼底图像血管识别结果。

Claims (10)

1.一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,该方法包括以下步骤:
步骤1:人工获得彩色眼底样本图像;
步骤2:提取步骤1的彩色眼底样本图像中的绿色通道信息;
步骤3:对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理;
步骤4:利用伽马校正(Gamma Correction)对步骤3处理后的图像进行图像校正;
步骤5:对步骤4校正的后的图像进行反置;
步骤6:构建二维Gabor滤波器;
步骤7:利用步骤6构建的二维Gabor滤波器对步骤5反置后的图像进行滤波;
步骤8:将步骤7获得的滤波后的图像进行方向和尺度的最值处理;
步骤9:获取步骤1获得的彩色眼底样本图像对应的手工血管分割图像;
步骤10:对步骤8和步骤9获得的图片进行相同的裁剪操作,然后制成数据集;
步骤11:将步骤10制作好的数据集随机分为训练集和测试集;
步骤12:建立卷积神经网络;
步骤13:将步骤11的训练集和测试集输入到步骤12建立的深度卷积神经网络进行彩色眼底图像血管识别模型的训练,训练完成后保存模型参数;
步骤14:将待测彩色眼底图像经过步骤2到步骤8,裁剪后送入到步骤13中训练好的彩色眼底图像血管识别模型中,得彩色眼底图像血管识别结果。
2.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤3的具体步骤为:
步骤3.1:创建一个对比度受限的自适应直方图均衡对象,其clipLimit设置为5.0,tileGridSize设置为20×20;
步骤3.2:利用步骤3.1创建的自适应直方图均衡对象对步骤2提取到的绿色通道信息进行对比度受限的自适应直方图均衡处理。
3.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤4的具体步骤为:
步骤4.1:设置伽马校正(Gamma Correction)参数,计算公式如下所示:
T(x,y)=a*f(x,y)gamma
其中,T(x,y)是输出(x,y)的像素值,f(x,y)是输入(x,y)的像素值,a和gamma是可调参数;
步骤4.2:将步骤3.2得到的图像利用步骤4.1的公式计算伽马校正。
4.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤6的具体步骤为:
步骤6.1:选着合适的二维Gabor小波定义公式,二维Gabor小波核函数定义如下所示:
Gu,v(z)=||ku,v||2/sigma2*exp(-||ku,v||2*||z||2/2*sigma2)*[exp(i*ku,v*z)-exp(-sigma2/2)]
其中,Gu,v(z)为二维Gabor小波,u为方向,v为尺度,z=(x,y)为图像坐标,sigma是高斯函数半径,ku,v是滤波器的中心频率,i为虚数单位;
步骤6.2:提取步骤6.1的二维Gabor小波核函数的实部,其计算公式如下所示:
Gr(m+Hh+1,n+Hw+1)=(Kmax/fv)2*K1*K2/sigma2
K1=exp(-((Kmax/fv)4(m2+n2)/2*sigma2)
K2=cos((Kmax/fv)cos(π*u/18)*n+(Kmax/fv)*sin(π*u/18)*m)-exp(-sigma2/2)
其中,Gr(j+Hh+1,i+Hw+1)为二维Gabor小波核函数的实部,m,n的取值范围为-Hh≤m≤Hh,-Hw≤n≤Hw,Kmax为最大频率,f为空间因子,fv表示f的v次方,Hh为滤波器二分之一高度,Hw为滤波器二分之一宽度;为简化公式,所以将二维Gabor小波核函数的实部计算公式中的部分公式用K1和K2表示。
5.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤8的具体步骤为:
步骤8.1:取步骤7中u为[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17],v为[4,5,6]的滤波图像;
步骤8.2:将步骤8.1所得的图像进行最大值化处理,计算公式如下:
其中,I(x,y)为输入图像,P(x,y)为输出图像。
6.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤10的具体步骤为:
步骤10.1:将步骤8.2和步骤9获得的图像进行相同的裁剪,将图像裁剪成48×48大小的图片;
步骤10.2:在步骤10.1裁剪后图片中随机抽取100000张图片制成数据集。
7.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤12的具体步骤为:
步骤12.1:搭建深度神经网络,其结构包括八层,其中第一层为输入层,第二层至第层七为隐藏层,第八层为输出层,各层结构如下
第一层:输入层:输入训练集的图像数据和每张图像的真实标签;
第二层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第三层:隐藏层:包含两个卷积层,一个Dropout层和一个池化层;
第四层:隐藏层:包含两个卷积层和一个Dropout层;
第五层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第六层:隐藏层:包含两个卷积层,一个Dropout层,一个UpSampling层和一个Merge层;
第七层:隐藏层:包含一个卷积层,一个Reshape层和一个Permute层;
第八层:输出层:一个激活函数层;
步骤12.2:设置深度神经网络参数:
第二层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的元素保留率keep_prob设置为0.8;
第三层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,池化层为最大池化层,大小为2×2,步长stride为2,填充模式padding设置为SAME,Dropout层的元素保留率keep_prob设置为0.8;
第四层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为128,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;
第五层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为64,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第六层:卷积层的卷积核大小为3×3,步长stride为1,卷积核数量为32,激活函数为Relu激活函数,Dropout层的元素保留率keep_prob设置为0.8;UpSampling层的大小设置为2×2;Merge层轴号设置为1;
第七层:卷积层的卷积核大小为1×1,步长stride为1,卷积核数量为2,激活函数为Relu激活函数;
第八层:激活函数为softmax激活函数。
8.如权利要求1所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于所述步骤13的具体步骤为:
步骤13.1:将步骤11的训练集样本图像输入到步骤12建立的深度卷积神经网络中,计算训练集交叉熵损失train-loss.
步骤13.2:使用SGD优化器对步骤13.1的交叉熵损失train-loss进行优化;
步骤13.3:每隔1000训练步长,便将测试集样本图像也输入到步骤12建立的神经网络中,同时计算训练集交叉熵损失train-loss和测试集交叉熵损失test-loss;
步骤13.4:重复步骤13.1、13.2和13.3,当步骤13.3的train-loss小于0.001和步骤13.3的test-loss小于0.01时,训练停止,保存训练完成后的模型参数。
9.如权利要求3所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于a等于1,gamma为1/3。
10.如权利要求4所述的一种基于U-net卷积神经网络的彩色眼底图像血管分割方法,其特征在于Hh和Hw均等于17,sigma等于π/2,f为21/2,Kmax为1.5*π/2,u的取值范围为[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17],v的取值范围为[0,1,2,3,4,5,6,7]。
CN201910151413.2A 2019-02-28 2019-02-28 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法 Pending CN109859146A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910151413.2A CN109859146A (zh) 2019-02-28 2019-02-28 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910151413.2A CN109859146A (zh) 2019-02-28 2019-02-28 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法

Publications (1)

Publication Number Publication Date
CN109859146A true CN109859146A (zh) 2019-06-07

Family

ID=66899346

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910151413.2A Pending CN109859146A (zh) 2019-02-28 2019-02-28 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法

Country Status (1)

Country Link
CN (1) CN109859146A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472667A (zh) * 2019-07-19 2019-11-19 广东工业大学 基于反卷积神经网络的小目标分类方法
CN110706233A (zh) * 2019-09-30 2020-01-17 北京科技大学 一种视网膜眼底图像分割方法及装置
CN111161216A (zh) * 2019-12-09 2020-05-15 杭州脉流科技有限公司 基于深度学习的血管内超声图像处理方法、装置、设备和存储介质
CN111242949A (zh) * 2020-01-02 2020-06-05 浙江工业大学 一种基于全卷积神经网络多尺度特征的眼底图像血管分割方法
CN111815562A (zh) * 2020-06-10 2020-10-23 三峡大学 一种U-Net与自适应PCNN相结合的视网膜血管分割方法
CN112085745A (zh) * 2020-09-07 2020-12-15 福建农林大学 基于均衡采样拼接的多通道u型全卷积神经网络的视网膜血管图像分割方法
WO2021258835A1 (zh) * 2020-06-24 2021-12-30 博动医学影像科技(上海)有限公司 用于血管造影图像处理的训练方法和装置、自动处理方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517104A (zh) * 2015-01-09 2015-04-15 苏州科达科技股份有限公司 一种基于监控场景下的人脸识别方法及系统
CN105261015A (zh) * 2015-09-29 2016-01-20 北京工业大学 基于Gabor滤波器的眼底图像血管自动分割方法
CN105893916A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种对检测人脸的预处理、特征提取到降维描述的新方法
CN106127193A (zh) * 2016-07-12 2016-11-16 青岛大学 一种人脸图像识别方法
CN107256550A (zh) * 2017-06-06 2017-10-17 电子科技大学 一种基于高效cnn‑crf网络的视网膜图像分割方法
CN108932715A (zh) * 2018-07-13 2018-12-04 北京红云智胜科技有限公司 一种基于深度学习的冠状动脉造影图分割的优化方法
CN109003279A (zh) * 2018-07-06 2018-12-14 东北大学 一种基于K-Means聚类标注和朴素贝叶斯模型的眼底视网膜血管分割方法及系统
CN109118495A (zh) * 2018-08-01 2019-01-01 沈阳东软医疗系统有限公司 一种视网膜血管分割方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893916A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种对检测人脸的预处理、特征提取到降维描述的新方法
CN104517104A (zh) * 2015-01-09 2015-04-15 苏州科达科技股份有限公司 一种基于监控场景下的人脸识别方法及系统
CN105261015A (zh) * 2015-09-29 2016-01-20 北京工业大学 基于Gabor滤波器的眼底图像血管自动分割方法
CN106127193A (zh) * 2016-07-12 2016-11-16 青岛大学 一种人脸图像识别方法
CN107256550A (zh) * 2017-06-06 2017-10-17 电子科技大学 一种基于高效cnn‑crf网络的视网膜图像分割方法
CN109003279A (zh) * 2018-07-06 2018-12-14 东北大学 一种基于K-Means聚类标注和朴素贝叶斯模型的眼底视网膜血管分割方法及系统
CN108932715A (zh) * 2018-07-13 2018-12-04 北京红云智胜科技有限公司 一种基于深度学习的冠状动脉造影图分割的优化方法
CN109118495A (zh) * 2018-08-01 2019-01-01 沈阳东软医疗系统有限公司 一种视网膜血管分割方法和装置

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
DASH, J: "A method for blood vessel segmentation in retinal images using morphological reconstruction", 《2016 INTERNATIONAL CONFERENCE ON COMPUTER》 *
DASH, J: "A method for blood vessel segmentation in retinal images using morphological reconstruction", 《2016 INTERNATIONAL CONFERENCE ON COMPUTER》, 7 September 2017 (2017-09-07), pages 1 - 2 *
HUJINGSHUANG: "二维gabor特征及其实现", 《HTTPS://BLOG.CSDN.NET/HUJINGSHUANG/ARTICLE/DETAILS/51723010》 *
HUJINGSHUANG: "二维gabor特征及其实现", 《HTTPS://BLOG.CSDN.NET/HUJINGSHUANG/ARTICLE/DETAILS/51723010》, 20 June 2016 (2016-06-20), pages 1 *
京局京段蓝白猪: "基于U-Net的眼底图像血管分割实例", 《HTTPS://BLOG.CSDN.NET/U013063099/ARTICLE/DETAILS/79981097》 *
京局京段蓝白猪: "基于U-Net的眼底图像血管分割实例", 《HTTPS://BLOG.CSDN.NET/U013063099/ARTICLE/DETAILS/79981097》, 17 April 2018 (2018-04-17), pages 1 - 6 *
刘潇潇: "数字减影技术中的图像配准", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
刘潇潇: "数字减影技术中的图像配准", 《中国优秀硕士学位论文全文数据库信息科技辑》, 15 May 2006 (2006-05-15), pages 11 - 12 *
陈圆: "基于卷积神经网络的脑血管自动分割算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
陈圆: "基于卷积神经网络的脑血管自动分割算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, 15 March 2018 (2018-03-15), pages 27 - 36 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472667A (zh) * 2019-07-19 2019-11-19 广东工业大学 基于反卷积神经网络的小目标分类方法
CN110472667B (zh) * 2019-07-19 2024-01-09 广东工业大学 基于反卷积神经网络的小目标分类方法
CN110706233A (zh) * 2019-09-30 2020-01-17 北京科技大学 一种视网膜眼底图像分割方法及装置
CN111161216A (zh) * 2019-12-09 2020-05-15 杭州脉流科技有限公司 基于深度学习的血管内超声图像处理方法、装置、设备和存储介质
CN111242949A (zh) * 2020-01-02 2020-06-05 浙江工业大学 一种基于全卷积神经网络多尺度特征的眼底图像血管分割方法
CN111242949B (zh) * 2020-01-02 2021-06-18 浙江工业大学 基于全卷积神经网络多尺度特征的眼底图像血管分割方法
CN111815562A (zh) * 2020-06-10 2020-10-23 三峡大学 一种U-Net与自适应PCNN相结合的视网膜血管分割方法
CN111815562B (zh) * 2020-06-10 2024-04-09 重庆贝奥新视野医疗设备有限公司 一种U-Net与自适应PCNN相结合的视网膜血管分割方法
WO2021258835A1 (zh) * 2020-06-24 2021-12-30 博动医学影像科技(上海)有限公司 用于血管造影图像处理的训练方法和装置、自动处理方法和装置
CN112085745A (zh) * 2020-09-07 2020-12-15 福建农林大学 基于均衡采样拼接的多通道u型全卷积神经网络的视网膜血管图像分割方法

Similar Documents

Publication Publication Date Title
CN109859146A (zh) 一种基于U-net卷积神经网络的彩色眼底图像血管分割方法
CN110010219B (zh) 光学相干层析图像视网膜病变智能检测系统及检测方法
CN109493954A (zh) 一种基于类别判别定位的sd-oct图像视网膜病变检测系统
CN106682616A (zh) 基于双通道特征深度学习的新生儿疼痛表情识别方法
CN106408564A (zh) 一种基于深度学习的眼底图像处理方法、装置及系统
CN109767440A (zh) 一种面向深度学习模型训练和学习的影像图像数据扩充方法
CN107248161A (zh) 一种多特征融合的有监督视网膜血管提取方法
CN107680683A (zh) 一种ai眼部健康评估方法
CN106845327B (zh) 人脸对齐模型的训练方法、人脸对齐方法和装置
CN104809480A (zh) 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法
CN110169770A (zh) 情绪脑电的细粒度可视化系统和方法
CN106295661A (zh) 叶片图像多特征融合的植物种类识别方法及装置
CN110211087A (zh) 可分享的半自动糖尿病眼底病变标注方法
CN109063572A (zh) 一种基于多尺度和多卷积层特征融合的指纹活性检测方法
CN108765422A (zh) 一种视网膜图像血管自动分割方法
CN110516685A (zh) 基于卷积神经网络的晶状体浑浊程度检测方法
CN106886991A (zh) 一种基于彩色眼底图的模糊度自动分级方法
CN106447042B (zh) 基于绘画投射的心理分析方法及装置
CN110428887A (zh) 一种脑肿瘤医学影像三维重建显示交互方法及系统
CN104463216B (zh) 基于计算机视觉的眼动模式数据自动获取方法
CN109272487A (zh) 一种基于视频的公共区域内人群的数量统计方法
CN106768081A (zh) 一种判断果蔬生长状态的方法及系统
CN109961848A (zh) 黄斑图像分类方法和设备
CN110120055A (zh) 基于深度学习的眼底荧光造影图像无灌注区自动分割方法
CN107256398A (zh) 基于特征融合的奶牛个体识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190607