CN111612856A - 用于彩色眼底图像的视网膜新生血管检测方法及成像方法 - Google Patents

用于彩色眼底图像的视网膜新生血管检测方法及成像方法 Download PDF

Info

Publication number
CN111612856A
CN111612856A CN202010449814.9A CN202010449814A CN111612856A CN 111612856 A CN111612856 A CN 111612856A CN 202010449814 A CN202010449814 A CN 202010449814A CN 111612856 A CN111612856 A CN 111612856A
Authority
CN
China
Prior art keywords
fundus image
color fundus
image
retinal
neovascularization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010449814.9A
Other languages
English (en)
Other versions
CN111612856B (zh
Inventor
邹北骥
戴玉兰
朱承璋
欧阳平波
刘耕
许利群
陈庆勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202010449814.9A priority Critical patent/CN111612856B/zh
Publication of CN111612856A publication Critical patent/CN111612856A/zh
Application granted granted Critical
Publication of CN111612856B publication Critical patent/CN111612856B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于彩色眼底图像的视网膜新生血管检测方法,包括获取彩色眼底图像数据并预处理得到训练数据;构建用于视网膜新生血管检测的深度学习网络模型;采用训练数据对深度学习网络模型进行训练得到视网膜新生血管检测器;对待检测的彩色眼底图像数据进行预处理;采用视网膜新生血管检测器对预处理后的待检测的彩色眼底图像数据进行检测得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,并进行阈值化处理得到最终的待检测的彩色眼底图像中的视网膜新生血管的检测结果。本发明还公开了包括所述用于彩色眼底图片的视网膜新生血管检测方法的成像方法。本发明可靠性高、实用性好且检测效果好。

Description

用于彩色眼底图像的视网膜新生血管检测方法及成像方法
技术领域
本发明属于图像处理领域,具体涉及一种用于彩色眼底图像的视网膜新生血管检测方法及成像方法。
背景技术
随着经济技术的发展和人们生活水平的提高,人们对于眼部的健康也越来越关注。视网膜新生血管是眼部状态的重要反映,在临床上具有较高的应用价值。因此,对于视网膜新生血管的检测,一直是研究的重点。
目前,对于视网膜新生血管的检测,一般采用的是眼部荧光造影法或者彩色眼底图像检测法。眼部荧光造影法虽然能够清晰、准确的反映检查者的视网膜新生血管的相关信息,但是其是有创性检测,而且检测结果受时间因素影响较大,因此安全性和可靠性均相对较差。彩色眼底图像检测法的安全性较高,因此是现阶段的主流检测方法。
但是,视网膜新生血管在彩色眼底图像中表征相对较弱,因此需要经验丰富的专业人员进行仔细判别;费时费力,而且可靠性也不高。因此,随着现阶段人工智能算法的兴起,研究人员已经开始将人工智能算法应用于彩色眼底图像的检测中,从而能够更好的在彩色眼底图像中表征视网膜新生血管。
但是,由于视网膜新生血管较为细小,成像后的对比度较低,分布不规则,而且血管轮廓不明显,区域模糊,容易与其他背景部分混淆;因此,视网膜新生血管的成像和检测均相对困难。目前对于彩色眼底图像上的视网膜新生血管的检测,多采用传统机器学习的方法,通过手动提取相关特征,训练分类器实现目标。手动提取的特征包括:血管纹理、血管长度、血管亮度、血管曲折度等。但是,有效特征的提取是一个困难的过程,而且此类方法还需要先分割出视网膜血管,从而进一步增加了方法的复杂性。
发明内容
本发明的目的之一在于提供一种可靠性高、实用性好且检测效果好的用于彩色眼底图像的视网膜新生血管检测方法。
本发明的目的之二在于提供一种包括了上述用于彩色眼底图片的视网膜新生血管检测方法的成像方法。
本发明提供的这种用于彩色眼底图像的视网膜新生血管检测方法,包括如下步骤:
S1.获取彩色眼底图像数据,并对图像数据进行预处理,从而得到训练数据;
S2.构建用于视网膜新生血管检测的深度学习网络模型;
S3.采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器;
S4.对待检测的彩色眼底图像数据进行预处理;
S5.将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图;
S6.对步骤S5得到的待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,进行阈值化处理,从而得到最终的待检测的彩色眼底图像中的视网膜新生血管的检测结果。
步骤S1所述的对图像数据进行预处理,具体为采用如下步骤进行预处理:
A.针对图像数据,裁剪出视野区域;
B.统一步骤A得到的视野区域的分辨率大小;
C.在步骤B得到的图像数据基础上,进行数据增广操作;
D.对步骤C得到的所有图像数据进行对比度增强。
步骤A所述的针对图像数据,裁剪出视野区域,具体为:先将彩色眼底图像数据转换为灰度图像;然后对灰度图像进行阈值处理,从而将灰度图像转换为掩模图像;再裁剪出掩模图像中白色圆形区域的外接矩形,并用得到的外接矩形的位置坐标来裁剪眼底图像,从而得到眼底图像的视野矩形区域。
步骤B所述的统一步骤A得到的视野区域的分辨率大小,具体为:首先计算步骤A得到的所有视野区域的分辨率大小的平均值;然后采用插值法将所有视野矩阵区域的分辨率大小缩放为平均值。
所述的采用插值法将所有视野矩阵区域的分辨率大小缩放为平均值,具体为:若视野矩阵区域的分辨率小于平均值,则采用4x4像素邻域的3次插值法进行缩放;若视野矩阵区域的分辨率大于平均值,则采用基于局部像素的重采样插值法进行缩放。
步骤C所述的数据增广操作,具体包括水平镜像翻转图像、垂直镜像翻转图像、将图像旋转若干角度;调整图像的亮度、调整图像的对比度。
步骤D所述的对比度增强,具体包括归一化、限制对比度自适应直方图均衡化和gamma校正。
步骤S2所述的构建用于视网膜新生血管检测的深度学习网络模型,具体为采用如下模型作为用于视网膜新生血管检测的深度学习网络模型:
模型框架为全卷积神经网络,由ResNet特征提取模块、金字塔池化模块和特征融合模块构成;
ResNet特征提取模块:采用如下所示结构作为ResNet特征提取模块提取结构:
网络层名称:conv1;尺寸:3*3,64,stride 2;
网络层名称:conv2;尺寸:3*3,64,stride 2;
网络层名称:conv3;尺寸:3*3,128,stride 2;
网络层名称:pooling1;尺寸:3*3,max pool,stride 2;
网络层名称:conv_block1;尺寸:
Figure BDA0002507274790000041
网络层名称:conv_block2;尺寸:
Figure BDA0002507274790000042
网络层名称:conv_block3;尺寸:
Figure BDA0002507274790000043
网络层名称:conv_block4;尺寸:
Figure BDA0002507274790000044
其中conv代表卷积层,pooling代表池化层,conv_block代表卷积块,stride代表图像运算中卷积核或池化核的跨度;尺寸中第一个数为核的尺寸,第二个数为核的数量;每个卷积块由若干个三层的残差学习模块组成;
金字塔池化模块:采用4个不同大小的池化核,分别为1×1、2×2、3×3和6×6,构建级别为4的特征金字塔,从而将ResNet特征提取模块提取到的浅层特征进一步处理为不同尺度的特征图;具体包括如下步骤:
a.通过不同尺度的全局均值池化操作获取不同级别的特征,这些特征包含不同子区域之间的不同尺度信息;
b.采用一个卷积核数目为512、内核尺寸为1×1的卷积层将各特征的维度都缩减至原来的1/4;
c.对得到的金字塔特征进行双线性插值上采样操作,从而使得尺寸大小与输入特征相同;
特征融合模块:将ResNet特征提取模块和金字塔池化模块提取的特征进行融合,从而得到最终的特征图数据;
在每一个卷积层后面进行Batch Normalization和relu激活操作,并在网络结构的最优一个卷积层的后面增加Dropout层;
模型最后采用Softmax函数对各个像素的类别进行预测。
步骤S3所述的采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器,具体为采用如下步骤进行训练:
(1)对步骤S1得到的训练数据进行重采样;
(2)采用如下交叉熵损失函数作为模型损失函数loss:
Figure BDA0002507274790000051
式中n为样本数量;yi为像素类别金标准;y'i为像素类别的预测值,且计算公式为y'i=hw(xi),其中xi为输入样本的像素点,hw()为采用的模型函数;
(3)采用自适应矩阵估计优化器对损失函数进行优化,从而得到权重值;
(4)将步骤(3)得到的权重值带入步骤S2建立的用于视网膜新生血管检测的深度学习网络模型的各个神经元中,从而得到最终的视网膜新生血管检测器。
步骤S4所述的对待检测的彩色眼底图像数据进行预处理,具体为对待检测的彩色眼底图像数据,采用重叠策略进行图像块的分割:图像块间的幅度设定为X个像素,直至整张图像中的像素都被采用;然后,对于边缘剩余不足X个像素的地方,采用0像素进行填充。
步骤S5所述的将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,具体为采用视网膜新生血管检测器,对预处理后的待检测的彩色眼底图像的各个图像块中的像素类别进行判断,得到每个像素属于视网膜新生血管类的概率;然后根据图像块位置信息将各图像块还原为整张图像;同时,对于图像块的重叠部分,采用加权求和并取平均值的方式进行计算,并将计算结果作为最后的预测结果。
步骤S6所述的阈值化处理,具体为对预测概率图中灰度值大于或等于设定值的像素点,将对应的灰度值设置为1;并将预测概率图中灰度值小于设定值的像素点,将对应的灰度值设置为0;从而得到最终的结果。
本发明还提供了一种包括了上述用于彩色眼底图片的视网膜新生血管检测方法的成像方法,还包括如下步骤:
S7.根据步骤S6得到的视网膜新生血管的检测结果,对彩色眼底图像进行二次成像,从而得到最终的成像结果。
本发明提供的这种用于彩色眼底图像的视网膜新生血管检测方法及成像方法,采用基于深度学习的端到端的检测方式,通过卷积神经网络自动挖掘眼底图像的特征,且不需要依赖先验知识;因此本发明方法能够更加简便地实现视网膜新生血管的检测和成像,而且可靠性高、实用性好且检测效果好。
附图说明
图1为本发明的检测方法的方法流程示意图。
图2为本发明的检测方法的输入的原始眼底图像示意图。
图3为本发明的检测方法的图像预处理示意图。
图4为本发明的检测方法的眼底图像掩模示意图。
图5为本发明的检测方法的全卷积神经网络模型框架结构示意图。
图6为本发明的检测方法的视网膜新生血管位置的标注图像示意图。
图7为本发明的检测方法的网络模型训练准确度变化示意图。
图8为本发明的检测方法在测试集上的P-R指标结果示意图。
图9为本发明的检测方法在测试集上的实验结果示意图。.
图10为本发明的成像方法的方法流程示意图。
具体实施方式
如图1所示为本发明的检测方法的方法流程示意图:本发明提供的这种用于彩色眼底图像的视网膜新生血管检测方法,包括如下步骤:
S1.获取彩色眼底图像数据(如图2所示),并对图像数据进行预处理,从而得到训练数据;由于图像的分辨率和视野区域大小都不相同,影响模型检测过程中视网膜新生血管特征的挖掘,所以需要先对图像进行一系列的预处理操作;具体为采用如下步骤(如图3所示)进行预处理:
A.针对图像数据,裁剪出视野区域;具体为:先将彩色眼底图像数据转换为灰度图像;然后对灰度图像进行阈值处理,从而将灰度图像转换为掩模图像;再裁剪出掩模图像中白色圆形区域的外接矩形,并用得到的外接矩形的位置坐标来裁剪眼底图像,从而得到眼底图像的视野矩形区域;
在具体实施时,采用公式gray=r*0.299+g*0.587+b*0.114,将RGB彩色图像转换为灰度图,其中gray为灰度图的值,r、g和b分别表示RGB彩色图像的通道分量;然后在进行阈值处理时,对于图中灰度值大于或等于35的像素点的灰度值置为255(白色),灰度值小于35的像素点的灰度值置为0(黑色),从而得到掩模图(如图4所示);
B.统一步骤A得到的视野区域的分辨率大小;具体为:首先计算步骤A得到的所有视野区域的分辨率大小的平均值;然后采用插值法将所有视野矩阵区域的分辨率大小缩放为平均值;
在具体实施时,若视野矩阵区域的分辨率小于平均值,则采用4x4像素邻域的3次插值法进行缩放;若视野矩阵区域的分辨率大于平均值,则采用基于局部像素的重采样插值法进行缩放;
C.在步骤B得到的图像数据基础上,进行数据增广操作;具体包括水平镜像翻转图像、垂直镜像翻转图像、将图像旋转若干角度;调整图像的亮度、调整图像的对比度等,从而避免训练数据太少造成的过拟合问题,提高网络模型的泛化性能;
在具体实施时,可以对每一张训练图像获取10张增广图像,增加训练图像数量;
D.对步骤C得到的所有图像数据进行对比度增强;具体包括归一化、限制对比度自适应直方图均衡化和gamma校正等;
S2.构建用于视网膜新生血管检测的深度学习网络模型;具体为采用如下模型作为用于视网膜新生血管检测的深度学习网络模型:
模型框架为全卷积神经网络,如图5所示:由ResNet特征提取模块、金字塔池化模块和特征融合模块构成;
ResNet特征提取模块:采用如下所示结构作为ResNet特征提取模块提取结构:
Figure BDA0002507274790000091
其中conv代表卷积层,pooling代表池化层,conv_block代表卷积块,stride代表图像运算中卷积核或池化核的跨度;尺寸中第一个数为核的尺寸,第二个数为核的数量;每个卷积块由若干个三层的残差学习模块组成:卷积块1由3个残差学习模块组成,卷积块2由4个残差学习模块组成。另外模块中的卷积层为不同扩张率(1或2)的空洞卷积;ResNet通过多个卷积层和空洞卷积模块提取图像特征,此特征是金字塔池化模块的输入;
金字塔池化模块:采用4个不同大小的池化核,分别为1×1、2×2、3×3和6×6,构建级别为4的特征金字塔,从而将ResNet特征提取模块提取到的浅层特征进一步处理为不同尺度的特征图;具体包括如下步骤:
a.通过不同尺度的全局均值池化操作获取不同级别的特征,这些特征包含不同子区域之间的不同尺度信息;
在具体实施时,第一行是池化尺度为6×6的全局均值池化得到的最粗糙的特征,由上至下池化尺度依次递减;
b.采用一个卷积核数目为512、内核尺寸为1×1的卷积层将各特征的维度都缩减至原来的1/4;
c.对得到的金字塔特征进行双线性插值上采样操作,从而使得尺寸大小与输入特征相同;
特征融合模块:将ResNet特征提取模块和金字塔池化模块提取的特征进行融合,从而得到最终的特征图数据;也就是图5中的CONCAT操作;通过特征融合模块,融合了目标的细节特征和包含上下文信息的全局特征,利于更准确地判断新生血管特征信息;
在每一个卷积层后面进行Batch Normalization和relu激活操作,并在网络结构的最优一个卷积层的后面增加Dropout层;
Batch Normalization操作能对权重进行归一化,显著提高训练速度,加速收敛,解决训练过程中梯度消失的问题;Relu激活函数可使网络稍微稀疏,降低网络权重间的相互依赖;同时,这两种操作在一定程度上都能缓解训练过程中的过拟合问题;
模型最后采用Softmax函数对各个像素的类别进行预测;
S3.采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器;具体为采用如下步骤进行训练:
在彩色眼底图中,视网膜新生血管多分布在某一区域,如视盘视杯区域,不像视网膜血管那般分布在整个眼球;为了更好地挖掘新生血管特征,本发明在图像输入网络模型之前先按一定比例从训练图像中提取一定数量的统一分辨率大小的图像块用于网络训练;
(1)对步骤S1得到的训练数据进行重采样;
具体实施时,在整个图像内以像素点为中心,按新生血管块:背景区域块=1×1的类型比例进行重采样,直到对每张图都采集了4000个图像块为止;其中每个图像块分辨率大小为128×128像素;
(2)模型训练的目标是最小化模型对输入样本的预测值与金标准之间的差异,即损失,金标准图像如图6所示;在网络模型架构确定的情况下,要使损失小,则需确定网络模型各神经元之间的权重;通过对数据的不断学习训练,最终得到损失最小的最优权重集合,即得到了最优的训练好的视网膜新生血管检测模型;
权重的学习过程,即网络模型的训练过程具体如下:确定损失函数用于模型训练,本发明使用交叉熵损失函数loss:
Figure BDA0002507274790000111
式中n为样本数量;yi为像素类别金标准;y'i为像素类别的预测值,且计算公式为y'i=hw(xi),其中xi为输入样本的像素点,hw()为采用的模型函数;
(3)采用自适应矩阵估计优化器对损失函数进行优化,从而得到权重值;
(4)将步骤(3)得到的权重值带入步骤S2建立的用于视网膜新生血管检测的深度学习网络模型的各个神经元中,从而得到最终的视网膜新生血管检测器;
在网络训练中,除权重外,还需确定超参数;优化函数的初始学习率为1×10-4,初始衰减率为5×10-4;为了有效的有依据的调整网络超参数,本发明在对训练图像块随机排序后,选取10%的训练数据作为验证集;在多次微调后发现,本发明提出的深度神经网络在迭代训练20次后得到收敛,其中每一次迭代由20个小批次组成;Dropout层的丢弃概率设置为0.1;在确定了输入数据块、损失函数和超参数后,网络模型在NVIDIA Titan X GPU上训练,最终得到预训练好的模型后即可用于新生血管检测;模型训练过程中准确度随迭代次数的变化如图7所示;
S4.对待检测的彩色眼底图像数据进行预处理;具体为对待检测的彩色眼底图像数据,采用重叠策略进行图像块的分割:图像块间的幅度设定为X个像素,直至整张图像中的像素都被采用;然后,对于边缘剩余不足X个像素的地方,采用0像素进行填充;
S5.将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图;具体为采用视网膜新生血管检测器,对预处理后的待检测的彩色眼底图像的各个图像块中的像素类别进行判断,得到每个像素属于视网膜新生血管类的概率;然后根据图像块位置信息将各图像块还原为整张图像;同时,对于图像块的重叠部分,采用加权求和并取平均值的方式进行计算,并将计算结果作为最后的预测结果;
S6.对步骤S5得到的待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,进行阈值化处理,从而得到最终的待检测的彩色眼底图像中的视网膜新生血管的检测结果;具体为对预测概率图中灰度值大于或等于设定值的像素点,将对应的灰度值设置为1;并将预测概率图中灰度值小于设定值的像素点,将对应的灰度值设置为0;从而得到最终的结果。
对最终图中各像素的分类结果评估的P-R曲线如图8所示,展示了该模型能高精度地检测出彩色眼底图像中的新生血管。最终的新生血管检测结果如图9所示,可以从视觉上直接评估结果,与金标准对比。其中第一行为输入的测试图像,第二行为人工标注的新生血管位置金标准,第三行为本发明的模型检测到的新生血管位置。从图可以看出,本发明可对眼底图中的新生血管进行准确的检测和分割,预测位置基本处于金标准标注区域内,轮廓基本吻合。
如图10所示为本发明的成像方法的方法流程示意图:
本发明提供的这种包括了上述用于彩色眼底图片的视网膜新生血管检测方法的成像方法,包括如下步骤:
S1.获取彩色眼底图像数据,并对图像数据进行预处理,从而得到训练数据;
S2.构建用于视网膜新生血管检测的深度学习网络模型;
S3.采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器;
S4.对待检测的彩色眼底图像数据进行预处理;
S5.将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图;
S6.对步骤S5得到的待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,进行阈值化处理,从而得到最终的待检测的彩色眼底图像中的视网膜新生血管的检测结果;
S7.根据步骤S6得到的视网膜新生血管的检测结果,对彩色眼底图像进行二次成像,从而得到最终的成像结果。
本发明方法可以用于彩色眼底图像中新生血管的检测:输入一张彩色眼底图像,采用本发明方法判断该图像中是否存在新生血管,及对应的新生血管的位置。
同时,本发明方法也可以用于彩色眼底图的成像:将本发明方法集成到现有的彩色眼底图像获取设备中,采用检测设备获取原始的彩色眼底图像,采用本发明方法进行新生血管的判断,再根据本发明的判断结果,利用检测设备在原始的彩色眼底图像上,对判断出的新生血管进行再一次的成像体现,从而提高检测设备的成像效果。

Claims (10)

1.一种用于彩色眼底图像的视网膜新生血管检测方法,包括如下步骤:
S1.获取彩色眼底图像数据,并对图像数据进行预处理,从而得到训练数据;
S2.构建用于视网膜新生血管检测的深度学习网络模型;
S3.采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器;
S4.对待检测的彩色眼底图像数据进行预处理;
S5.将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图;
S6.对步骤S5得到的待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,进行阈值化处理,从而得到最终的待检测的彩色眼底图像中的视网膜新生血管的检测结果。
2.根据权利要求1所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤S1所述的对图像数据进行预处理,具体为采用如下步骤进行预处理:
A.针对图像数据,裁剪出视野区域;
B.统一步骤A得到的视野区域的分辨率大小;
C.在步骤B得到的图像数据基础上,进行数据增广操作;
D.对步骤C得到的所有图像数据进行对比度增强。
3.根据权利要求2所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤A所述的针对图像数据,裁剪出视野区域,具体为:先将彩色眼底图像数据转换为灰度图像;然后对灰度图像进行阈值处理,从而将灰度图像转换为掩模图像;再裁剪出掩模图像中白色圆形区域的外接矩形,并用得到的外接矩形的位置坐标来裁剪眼底图像,从而得到眼底图像的视野矩形区域。
4.根据权利要求3所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤B所述的统一步骤A得到的视野区域的分辨率大小,具体为:首先计算步骤A得到的所有视野区域的分辨率大小的平均值;然后采用插值法将所有视野矩阵区域的分辨率大小缩放为平均值。
5.根据权利要求4所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于所述的采用插值法将所有视野矩阵区域的分辨率大小缩放为平均值,具体为:若视野矩阵区域的分辨率小于平均值,则采用4x4像素邻域的3次插值法进行缩放;若视野矩阵区域的分辨率大于平均值,则采用基于局部像素的重采样插值法进行缩放。
6.根据权利要求5所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤S2所述的构建用于视网膜新生血管检测的深度学习网络模型,具体为采用如下模型作为用于视网膜新生血管检测的深度学习网络模型:
模型框架为全卷积神经网络,由ResNet特征提取模块、金字塔池化模块和特征融合模块构成;
ResNet特征提取模块:采用如下所示结构作为ResNet特征提取模块提取结构:
网络层名称:conv1;尺寸:3*3,64,stride 2;
网络层名称:conv2;尺寸:3*3,64,stride 2;
网络层名称:conv3;尺寸:3*3,128,stride 2;
网络层名称:pooling1;尺寸:3*3,max pool,stride 2;
网络层名称:conv_block1;尺寸:
Figure FDA0002507274780000031
网络层名称:conv_block2;尺寸:
Figure FDA0002507274780000032
网络层名称:conv_block3;尺寸:
Figure FDA0002507274780000033
网络层名称:conv_block4;尺寸:
Figure FDA0002507274780000034
其中conv代表卷积层,pooling代表池化层,conv_block代表卷积块,stride代表图像运算中卷积核或池化核的跨度;尺寸中第一个数为核的尺寸,第二个数为核的数量;每个卷积块由若干个三层的残差学习模块组成;
金字塔池化模块:采用4个不同大小的池化核,分别为1×1、2×2、3×3和6×6,构建级别为4的特征金字塔,从而将ResNet特征提取模块提取到的浅层特征进一步处理为不同尺度的特征图;具体包括如下步骤:
a.通过不同尺度的全局均值池化操作获取不同级别的特征,这些特征包含不同子区域之间的不同尺度信息;
b.采用一个卷积核数目为512、内核尺寸为1×1的卷积层将各特征的维度都缩减至原来的1/4;
c.对得到的金字塔特征进行双线性插值上采样操作,从而使得尺寸大小与输入特征相同;
特征融合模块:将ResNet特征提取模块和金字塔池化模块提取的特征进行融合,从而得到最终的特征图数据;
在每一个卷积层后面进行Batch Normalization和relu激活操作,并在网络结构的最优一个卷积层的后面增加Dropout层;
模型最后采用Softmax函数对各个像素的类别进行预测。
7.根据权利要求6所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤S3所述的采用步骤S1获取的训练数据,对步骤S2构建的深度学习网络模型进行训练,从而得到视网膜新生血管检测器,具体为采用如下步骤进行训练:
(1)对步骤S1得到的训练数据进行重采样;
(2)采用如下交叉熵损失函数作为模型损失函数loss:
Figure FDA0002507274780000041
式中n为样本数量;yi为像素类别金标准;y′i为像素类别的预测值,且计算公式为y′i=hw(xi),其中xi为输入样本的像素点,hw()为采用的模型函数;
(3)采用自适应矩阵估计优化器对损失函数进行优化,从而得到权重值;
(4)将步骤(3)得到的权重值带入步骤S2建立的用于视网膜新生血管检测的深度学习网络模型的各个神经元中,从而得到最终的视网膜新生血管检测器。
8.根据权利要求7所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤S4所述的对待检测的彩色眼底图像数据进行预处理,具体为对待检测的彩色眼底图像数据,采用重叠策略进行图像块的分割:图像块间的幅度设定为X个像素,直至整张图像中的像素都被采用;然后,对于边缘剩余不足X个像素的地方,采用0像素进行填充。
9.根据权利要求8所述的用于彩色眼底图像的视网膜新生血管检测方法,其特征在于步骤S5所述的将步骤S4得到的预处理后的待检测的彩色眼底图像数据,输入到步骤S3得到的视网膜新生血管检测器,从而得到待检测的彩色眼底图像中判定为视网膜新生血管的像素的预测概率图,具体为采用视网膜新生血管检测器,对预处理后的待检测的彩色眼底图像的各个图像块中的像素类别进行判断,得到每个像素属于视网膜新生血管类的概率;然后根据图像块位置信息将各图像块还原为整张图像;同时,对于图像块的重叠部分,采用加权求和并取平均值的方式进行计算,并将计算结果作为最后的预测结果。
10.一种包括权利要求1~9之一所述的用于彩色眼底图像的视网膜新生血管检测方法的成像方法,其特征在于还包括如下步骤:
S7.根据步骤S6得到的视网膜新生血管的检测结果,对彩色眼底图像进行二次成像,从而得到最终的成像结果。
CN202010449814.9A 2020-05-25 2020-05-25 用于彩色眼底图像的视网膜新生血管检测方法及成像方法 Active CN111612856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010449814.9A CN111612856B (zh) 2020-05-25 2020-05-25 用于彩色眼底图像的视网膜新生血管检测方法及成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010449814.9A CN111612856B (zh) 2020-05-25 2020-05-25 用于彩色眼底图像的视网膜新生血管检测方法及成像方法

Publications (2)

Publication Number Publication Date
CN111612856A true CN111612856A (zh) 2020-09-01
CN111612856B CN111612856B (zh) 2023-04-18

Family

ID=72200591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010449814.9A Active CN111612856B (zh) 2020-05-25 2020-05-25 用于彩色眼底图像的视网膜新生血管检测方法及成像方法

Country Status (1)

Country Link
CN (1) CN111612856B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581448A (zh) * 2020-12-17 2021-03-30 中南大学 视网膜图像硬性渗出物识别方法及成像方法
CN113269794A (zh) * 2021-05-27 2021-08-17 中山大学孙逸仙纪念医院 一种图像区域分割方法、装置、终端设备及存储介质
CN114897678A (zh) * 2022-03-29 2022-08-12 中山大学中山眼科中心 婴幼儿眼底视网膜全景影像生成采集反馈方法及系统
CN117038088A (zh) * 2023-10-09 2023-11-10 北京鹰瞳科技发展股份有限公司 糖尿病视网膜病变的发病确定方法、装置、设备及介质
CN117153407A (zh) * 2023-11-01 2023-12-01 福建瞳视力科技有限公司 一种用于视力矫正的青少年近视预测方法及系统
CN117372284A (zh) * 2023-12-04 2024-01-09 江苏富翰医疗产业发展有限公司 眼底图像处理方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408562A (zh) * 2016-09-22 2017-02-15 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统
CN108986124A (zh) * 2018-06-20 2018-12-11 天津大学 结合多尺度特征卷积神经网络视网膜血管图像分割方法
CN109087302A (zh) * 2018-08-06 2018-12-25 北京大恒普信医疗技术有限公司 一种眼底图像血管分割方法及设备
CN109859139A (zh) * 2019-02-15 2019-06-07 中南大学 彩色眼底图像的血管增强方法
US20200027208A1 (en) * 2018-07-18 2020-01-23 Case Western Reserve University Hough transform-based vascular network disorder features on baseline fluorescein angiography scans predict response to anti-vegf therapy in diabetic macular edema
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法
CN111161287A (zh) * 2019-12-05 2020-05-15 山东科技大学 基于对称双向级联网络深度学习的视网膜血管分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106408562A (zh) * 2016-09-22 2017-02-15 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统
CN108986124A (zh) * 2018-06-20 2018-12-11 天津大学 结合多尺度特征卷积神经网络视网膜血管图像分割方法
US20200027208A1 (en) * 2018-07-18 2020-01-23 Case Western Reserve University Hough transform-based vascular network disorder features on baseline fluorescein angiography scans predict response to anti-vegf therapy in diabetic macular edema
CN109087302A (zh) * 2018-08-06 2018-12-25 北京大恒普信医疗技术有限公司 一种眼底图像血管分割方法及设备
CN109859139A (zh) * 2019-02-15 2019-06-07 中南大学 彩色眼底图像的血管增强方法
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法
CN111161287A (zh) * 2019-12-05 2020-05-15 山东科技大学 基于对称双向级联网络深度学习的视网膜血管分割方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581448A (zh) * 2020-12-17 2021-03-30 中南大学 视网膜图像硬性渗出物识别方法及成像方法
CN113269794A (zh) * 2021-05-27 2021-08-17 中山大学孙逸仙纪念医院 一种图像区域分割方法、装置、终端设备及存储介质
CN114897678A (zh) * 2022-03-29 2022-08-12 中山大学中山眼科中心 婴幼儿眼底视网膜全景影像生成采集反馈方法及系统
CN114897678B (zh) * 2022-03-29 2023-05-16 中山大学中山眼科中心 婴幼儿眼底视网膜全景影像生成采集反馈方法及系统
CN117038088A (zh) * 2023-10-09 2023-11-10 北京鹰瞳科技发展股份有限公司 糖尿病视网膜病变的发病确定方法、装置、设备及介质
CN117038088B (zh) * 2023-10-09 2024-02-02 北京鹰瞳科技发展股份有限公司 糖尿病视网膜病变的发病确定方法、装置、设备及介质
CN117153407A (zh) * 2023-11-01 2023-12-01 福建瞳视力科技有限公司 一种用于视力矫正的青少年近视预测方法及系统
CN117153407B (zh) * 2023-11-01 2023-12-26 福建瞳视力科技有限公司 一种用于视力矫正的青少年近视预测方法及系统
CN117372284A (zh) * 2023-12-04 2024-01-09 江苏富翰医疗产业发展有限公司 眼底图像处理方法及系统
CN117372284B (zh) * 2023-12-04 2024-02-23 江苏富翰医疗产业发展有限公司 眼底图像处理方法及系统

Also Published As

Publication number Publication date
CN111612856B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111612856B (zh) 用于彩色眼底图像的视网膜新生血管检测方法及成像方法
CN106920227B (zh) 基于深度学习与传统方法相结合的视网膜血管分割方法
CN109493954B (zh) 一种基于类别判别定位的sd-oct图像视网膜病变检测系统
Rezaoana et al. Detection and classification of skin cancer by using a parallel CNN model
CN108492271B (zh) 一种融合多尺度信息的自动图像增强系统及方法
CN108648191B (zh) 基于贝叶斯宽度残差神经网络的害虫图像识别方法
CN109829877A (zh) 一种视网膜眼底图像杯盘比自动评估方法
CN111476283A (zh) 基于迁移学习的青光眼眼底图像识别方法
CN107610087B (zh) 一种基于深度学习的舌苔自动分割方法
CN111259982A (zh) 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN109345508A (zh) 一种基于两阶段神经网络的骨龄评价方法
CN111507932B (zh) 高特异性的糖尿病性视网膜病变特征检测方法及存储设备
CN111784628A (zh) 基于有效学习的端到端的结直肠息肉图像分割方法
CN107563996B (zh) 一种新型视神经盘分割方法及系统
CN110232389A (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN112016626A (zh) 基于不确定度的糖尿病视网膜病变分类系统
CN111127431A (zh) 一种基于区域自适应多任务神经网络的干眼症分级评估系统
CN114881962A (zh) 一种基于改进U-Net网络的视网膜图像血管分割方法
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN112465905A (zh) 基于深度学习的磁共振成像数据的特征脑区定位方法
CN113724203B (zh) 应用于oct图像中目标特征分割的模型训练方法及装置
CN114998651A (zh) 基于迁移学习的皮肤病变图像分类识别方法、系统及介质
Yang et al. Classification of diabetic retinopathy severity based on GCA attention mechanism
CN112365973A (zh) 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统
CN111626379B (zh) 肺炎x光图像检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant