CN109658423B - 一种彩色眼底图的视盘视杯自动分割方法 - Google Patents

一种彩色眼底图的视盘视杯自动分割方法 Download PDF

Info

Publication number
CN109658423B
CN109658423B CN201811496827.0A CN201811496827A CN109658423B CN 109658423 B CN109658423 B CN 109658423B CN 201811496827 A CN201811496827 A CN 201811496827A CN 109658423 B CN109658423 B CN 109658423B
Authority
CN
China
Prior art keywords
segmentation
optic
cup
polar coordinate
disc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811496827.0A
Other languages
English (en)
Other versions
CN109658423A (zh
Inventor
赵荣昌
廖望旻
黎红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201811496827.0A priority Critical patent/CN109658423B/zh
Publication of CN109658423A publication Critical patent/CN109658423A/zh
Application granted granted Critical
Publication of CN109658423B publication Critical patent/CN109658423B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种彩色眼底图的视盘视杯自动分割方法,包括获取已知的彩色眼底图像和对应的眼底图数据集;构造并得到视盘分割模型;对数据集进行分割、截取并得到截图;构建并得到欧几里得坐标下的视盘视杯分割模型;对截图进行极坐标变换得到极坐标截图;构建并得到极坐标下的视盘视杯分割模型;对待分析数据,利用两类模型进行分割得到欧几里得坐标视盘视杯分割结果和极坐标视盘视杯分割结果;将两类分割结果进行融合,得到最终的眼底图的视盘视杯分割结果。本发明方法能够更加准确地对彩色眼底图进行视盘视杯自动分割,而且方法简单可靠,适用性好。

Description

一种彩色眼底图的视盘视杯自动分割方法
技术领域
本发明具体涉及一种彩色眼底图的视盘视杯自动分割方法。
背景技术
随着经济技术的发展,人们对于身体健康的要求越来越突出。
青光眼是全球第二大致盲性眼科疾病。它会让患者产生从外往内的不可逆性失明,当病人察觉时已是晚期。目前青光眼还没有有效的治疗手段,只能通过早期发现和干预来延缓失明的进程。因此,青光眼对社会和人们的生活有着难以估量的危害。
临床实践中,医生判别病人是否患有青光眼的方法有眼内压检测、视野检测、眼底图像分析诊断等方法。在彩色眼底图像分析诊断中,临床实践证明,通过计算视盘视杯的相关参数所获得的结果是最准确的。但是,受医生主观因素如经验和视觉差异的影响,不同的医生有不同的诊断结果;另一方面,因为青光眼的特殊性,它需要广泛的筛查和长期的跟踪,这使医生的工作量远超负荷。
因此为了统一诊断模型,减轻医生负担,实现大规模筛查,基于计算机辅助的视盘视杯分割应运而生。视盘是彩色眼底图中的橘色明亮类椭圆区域,血管从中向外辐射;视杯是视盘中的一部分呈现黄色明亮类椭圆区域。有学者基于此,通过颜色特征、纹理特征、空间变换的方法进行视盘视杯的自动分割。
但是这些算法大都只是关注局部特征进行的分析,对样本数据要求很高,准确性很差。其次这些算法集中在单一数据集上,对环境的要求很高,鲁棒性很差。
发明内容
本发明的目的在于提供一种分割准确性高、可靠性好且相对简单可行的一种彩色眼底图的视盘视杯自动分割方法。
本发明提供的这种彩色眼底图的视盘视杯自动分割方法,包括如下步骤:
S1.获取已知的彩色眼底图像和对应的眼底图数据集,并将彩色眼底图像中青光眼的眼底图像所对应的眼底图数据集分为测试数据集和训练数据集;
S2.构造视盘初步分割深度学习网络,利用步骤S1得到的训练数据集对视盘初步分割深度学习网络进行训练,并利用步骤S1得到的测试数据集对训练后的视盘初步分割深度学习网络进行测试和修正,从而得到视盘分割模型;
S3.利用步骤S2得到的视盘分割模型对步骤S1获取的测试数据集和训练数据集进行分割,并将分割得到的图谱进行截取,从而得到以视盘的质心为中心,边长为视盘直径N倍的截图;N为正数;
S4.构建视盘视杯初步分割网络,利用步骤S3得到的截图对视盘视杯初步分割网络进行训练和修正,从而得到欧几里得坐标下的视盘视杯分割模型;
S5.对步骤S3得到的截图进行极坐标变换,得到极坐标截图;
S6.构建极坐标视盘视杯初步分割网络,利用步骤S5得到的极坐标截图对极坐标视盘视杯初步分割网络进行训练和修正,从而得到极坐标下的视盘视杯分割模型;
S7.对于待分析的彩色眼底图像截图和对应的眼底图数据,利用步骤S4得到的欧几里得坐标下的视盘视杯分割模型进行分割,得到欧几里得坐标视盘视杯分割结果;
S8.对于待分析的彩色眼底图像截图和对应的眼底图数据进行极坐标变换,并利用步骤S6得到的极坐标下的视盘视杯分割模型进行分割,得到极坐标下的视盘视杯分割结果;
S9.对步骤S8得到的极坐标下的视盘视杯分割结果进行极坐标反变换,从而得到极坐标视盘视杯分割结果;
S10.将步骤S7得到的欧几里得坐标视盘视杯分割结果和步骤S9得到的极坐标视盘视杯分割结果进行融合,从而得到最终的眼底图的视盘视杯分割结果。
所述的彩色眼底图的视盘视杯自动分割方法,还包括如下步骤:
采用双立方插值算法对原始图像进行处理,从而使得原始图像的分辨率统一。
所述的采用双立方插值算法对原始图像进行处理,具体为采用如下算式进行处理:
Figure BDA0001897097830000031
式中
Figure BDA0001897097830000032
为处理后的像素点的坐标,f(i,j)为原始的像素点的坐标,m和n为平移量,R(x)为插值表达式。
步骤S2所述的视盘初步分割深度学习网络分为编码器和解码器,且视盘初步分割深度学习网络的输入为彩色眼底图像和对应的眼底图数据,视盘初步分割深度学习网络的输出为二值分割图谱。
步骤S3所述的质心,具体为采用如下算式计算质心的坐标(xc,yc):
Figure BDA0001897097830000033
式中f(x,y)为分割得到的0-1二值图谱。
步骤S3所述的视盘直径,具体为采用如下算式计算视盘直径r:
Figure BDA0001897097830000041
式中f(x,y)为分割得到的0-1二值图谱。
步骤S5所述的极坐标变换,具体为采用如下算式进行极坐标变换:
g(r,θ)=f(r·cosθ+x0,r·sinθ+y0)
式中g(r,θ)为变换后的极坐标,f(i,j)为原始图像坐标,(x0,y0)为图像中心的坐标。
步骤S9所述的极坐标反变换,具体为采用如下算式进行极坐标反变换:
Figure BDA0001897097830000042
式中f(x,y)为极坐标反变换后的坐标,g(r,θ)为极坐标,(x0,y0)为图像中心的坐标。
步骤S10所述的融合,具体为采用加权求和算法进行融合。
本发明提供的这种彩色眼底图的视盘视杯自动分割方法,将彩色眼底图进行关注区域的提取,通过深度学习分割网络对待分析的彩色眼底图像和对应的眼底图数据进行欧几里得坐标视盘视杯分割和极坐标下的视盘视杯分割,并将两类分割结果进行融合从而得到最终的彩色眼底图的视盘视杯分割结果,因此本发明方法能够更加准确地进行彩色眼底图的视盘视杯自动分割,而且方法简单可靠,适用性好。
附图说明
图1为本发明方法的方法流程图。
图2为本发明方法的深度学习模型结构示意图。
图3为原始彩色眼底示意图。
图4为初步分割结果示意图。
图5为截图示意图。
图6为欧几里得坐标视盘视杯分割结果示意图。
图7为极坐标转换和处理流程示意图。
图8为最终的彩色眼底图的视盘视杯分割结果示意图。
具体实施方式
如图1所示为本发明方法的方法流程图:本发明提供的这种彩色眼底图的视盘视杯自动分割方法,包括如下步骤:
S1.获取已知的彩色眼底图像和对应的眼底图数据集,并将彩色眼底图像中青光眼的眼底图像所对应的眼底图数据集分为测试数据集和训练数据集;
为了使得原始图像的分辨率统一,采用双立方插值算法对原始图像进行处理,具体为采用如下算式进行处理:
Figure BDA0001897097830000051
式中
Figure BDA0001897097830000052
为处理后的像素点的坐标,f(i,j)为原始的像素点的坐标,m和n为平移量,R(x)为插值表达式;
S2.构造视盘初步分割深度学习网络,利用步骤S1得到的训练数据集对视盘初步分割深度学习网络进行训练,并利用步骤S1得到的测试数据集对训练后的视盘初步分割深度学习网络进行测试和修正,从而得到视盘分割模型;
视盘初步分割深度学习网络分为编码器和解码器,且视盘初步分割深度学习网络的输入为彩色眼底图像和对应的眼底图数据,视盘初步分割深度学习网络的输出为二值分割图谱;
S3.利用步骤S3得到的视盘分割模型对步骤S1获取的测试数据集和训练数据集进行分割,并将分割得到的图谱进行截取,从而得到以视盘的质心为中心,边长为视盘直径N倍的截图;N为正数;
采用如下算式计算质心的坐标(xc,yc):
Figure BDA0001897097830000061
式中f(x,y)为分割得到的0-1二值图谱;
采用如下算式计算视盘直径r:
Figure BDA0001897097830000062
式中f(x,y)为分割得到的0-1二值图谱;
S4.构建视盘视杯初步分割网络,利用步骤S3得到的截图对视盘视杯初步分割网络进行训练和修正,从而得到欧几里得坐标下的视盘视杯分割模型;
S5.对步骤S3得到的截图进行极坐标变换,得到极坐标截图;
采用如下算式进行极坐标变换:
g(r,θ)=f(r·cosθ+x0,r·sinθ+y0)
式中g(r,θ)为变换后的极坐标,f(i,j)为原始图像坐标,(x0,y0)为图像中心的坐标;
S6.构建极坐标视盘视杯初步分割网络,利用步骤S5得到的极坐标截图对极坐标视盘视杯初步分割网络进行训练和修正,从而得到极坐标下的视盘视杯分割模型;
S7.对于待分析的彩色眼底图像截图和对应的眼底图数据,利用步骤S4得到的欧几里得坐标下的视盘视杯分割模型进行分割,得到欧几里得坐标视盘视杯分割结果;
S8.对于待分析的彩色眼底图像截图和对应的眼底图数据进行极坐标变换,并利用步骤S6得到的极坐标下的视盘视杯分割模型进行分割,得到极坐标下的视盘视杯分割结果;
S9.对步骤S8得到的极坐标下的视盘视杯分割结果进行极坐标反变换,从而得到极坐标视盘视杯分割结果;
采用如下算式进行极坐标反变换:
Figure BDA0001897097830000071
式中f(x,y)为极坐标反变换后的坐标,g(r,θ)为极坐标,(x0,y0)为图像中心的坐标;
S10.将步骤S7得到的欧几里得坐标视盘视杯分割结果和步骤S9得到的极坐标视盘视杯分割结果进行融合,从而得到最终的眼底图的视盘视杯分割结果;
在具体实施时,融合可以采用加权求和算法进行融合,比如如下式所示:
Result(x,y)=ω0f0(x,y)+ω1f1(x,y)
式中Result(x,y)为融合后的坐标,f0(x,y)为欧几里得坐标视盘视杯分割结果的坐标,f1(x,y)为极坐标视盘视杯分割结果的坐标,ω0和ω1为加权权重且ω01=1。
以下结合实施例对本发明方法进行进一步说明:
实验设置了800个样本,每个样本都是1634×1634分辨率的RGB彩色眼底图像,每个样本都有同样分辨率的视盘和视杯的二值分割标签(如图3所示)。
构建网络结构,如图2所示,网络分为解码器和编码器部分;对网络输入1634×1634分辨率的RGB图像,输出一张1634×1634分辨率的黑白图像;利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的欧几里得坐标系下视杯视盘的分割网络模型。使用模型对样本进行处理。
图2中的空洞卷积网络是三层空洞卷积网络,包括对空洞卷积网络输出结果的多种卷积操作,分别是1×1卷积,rate为6、12,、18的3×3卷积和最大池化操作。作为一种优选方案,网络将使用ImageNet预训练的参数。
模型对图3的测试结果如图4所示。
对初步分割的图像进行求质心和求连通域直径的操作,并以质心为中心,以连通域直径的两倍对眼底图和标签进行截图,同时将尺寸归一化到224×224的分辨率。
同时,在分辨率的统一化时,使用的是双立方插值算法,而且插值表达式的一种优选算式为:
Figure BDA0001897097830000081
对图3进行实验的结果如图5所示。
构建网络与初始参数与网络架构相同。输入调整为对224×224分辨率的RGB图像,输出两个224×224分辨率的黑白图像,分别代表视盘和视杯的分割结果。利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的初步分割网络模型。使用模型对样本进行处理。
对图3的测试结果如图6所示。
对得到的样本和标签进行极坐标转换,并进行相同的尺寸归一化操作。可以使得视盘和视杯在图像中的比例变得更大,同时椭圆边缘会形变成类似直线的边缘,使得分割精度更准确。
构建网络与初始参数与网络架构与之前的网络参数、架构相同。利用训练样本进行训练,对网络参数权重进行调整,得到训练网络后的极坐标系下视杯视盘的分割网络模型。使用模型对样本进行处理。
对图3的测试结果如图7所示。
为了将两种模型有效的结合起来,对两次处理得到的结果进行加权求和的处理,再使用二值化操作得到最终的视杯视盘的分割结果,如图8所示。

Claims (9)

1.一种彩色眼底图的视盘视杯自动分割方法,包括如下步骤:
S1.获取已知的彩色眼底图像和对应的眼底图数据集,并将彩色眼底图像中青光眼的眼底图像所对应的眼底图数据集分为测试数据集和训练数据集;
S2.构造视盘初步分割深度学习网络,利用步骤S1得到的训练数据集对视盘初步分割深度学习网络进行训练,并利用步骤S1得到的测试数据集对训练后的视盘初步分割深度学习网络进行测试和修正,从而得到视盘分割模型;
S3.利用步骤S2得到的视盘分割模型对步骤S1获取的测试数据集和训练数据集进行分割,并将分割得到的图谱进行截取,从而得到以视盘的质心为中心,边长为视盘直径N倍的截图;N为正数;
S4.构建视盘视杯初步分割网络,利用步骤S3得到的截图对视盘视杯初步分割网络进行训练和修正,从而得到欧几里得坐标下的视盘视杯分割模型;
S5.对步骤S3得到的截图进行极坐标变换,得到极坐标截图;
S6.构建极坐标视盘视杯初步分割网络,利用步骤S5得到的极坐标截图对极坐标视盘视杯初步分割网络进行训练和修正,从而得到极坐标下的视盘视杯分割模型;
S7.对于待分析的彩色眼底图像和对应的眼底图数据,利用步骤S4得到的欧几里得坐标下的视盘视杯分割模型进行分割,得到欧几里得坐标视盘视杯分割结果;
S8.对于待分析的彩色眼底图像和对应的眼底图数据进行极坐标变换,并利用步骤S6得到的极坐标下的视盘视杯分割模型进行分割,得到极坐标下的视盘视杯分割结果;
S9.对步骤S8得到的极坐标下的视盘视杯分割结果进行极坐标反变换,从而得到极坐标视盘视杯分割结果;
S10.将步骤S7得到的欧几里得坐标视盘视杯分割结果和步骤S9得到的极坐标视盘视杯分割结果进行融合,从而得到最终的眼底图的视盘视杯分割结果。
2.根据权利要求1所述的彩色眼底图的视盘视杯自动分割方法,其特征在于还包括如下步骤:采用双立方插值算法对原始图像进行处理,从而使得原始图像的分辨率统一。
3.根据权利要求2所述的彩色眼底图的视盘视杯自动分割方法,其特征在于所述的采用双立方插值算法对原始图像进行处理,具体为采用如下算式进行处理:
Figure FDA0001897097820000021
式中
Figure FDA0001897097820000022
为处理后的像素点的坐标,f(i,j)为原始的像素点的坐标,m和n为平移量,R(x)为插值表达式。
4.根据权利要求1~3之一所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S2所述的视盘初步分割深度学习网络分为编码器和解码器,且视盘初步分割深度学习网络的输入为彩色眼底图像和对应的眼底图数据,视盘初步分割深度学习网络的输出为二值分割图谱。
5.根据权利要求1~3之一所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S3所述的质心,具体为采用如下算式计算质心的坐标(xc,yc):
Figure FDA0001897097820000023
式中f(x,y)为分割得到的0-1二值图谱。
6.根据权利要求1~3之一所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S3所述的视盘直径,具体为采用如下算式计算视盘直径r:
Figure FDA0001897097820000031
式中f(x,y)为分割得到的0-1二值图谱。
7.根据权利要求1~3之一所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S5所述的极坐标变换,具体为采用如下算式进行极坐标变换:
g(r,θ)=f(r·cosθ+x0,r·sinθ+y0)
式中g(r,θ)为变换后的极坐标,f(i,j)为原始图像坐标,(x0,y0)为图像中心的坐标。
8.根据权利要求7所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S9所述的极坐标反变换,具体为采用如下算式进行极坐标反变换:
Figure FDA0001897097820000032
式中f(x,y)为极坐标反变换后的坐标,g(r,θ)为极坐标,(x0,y0)为图像中心的坐标。
9.根据权利要求1~3之一所述的彩色眼底图的视盘视杯自动分割方法,其特征在于步骤S10所述的融合,具体为采用加权求和算法进行融合。
CN201811496827.0A 2018-12-07 2018-12-07 一种彩色眼底图的视盘视杯自动分割方法 Active CN109658423B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811496827.0A CN109658423B (zh) 2018-12-07 2018-12-07 一种彩色眼底图的视盘视杯自动分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811496827.0A CN109658423B (zh) 2018-12-07 2018-12-07 一种彩色眼底图的视盘视杯自动分割方法

Publications (2)

Publication Number Publication Date
CN109658423A CN109658423A (zh) 2019-04-19
CN109658423B true CN109658423B (zh) 2022-12-09

Family

ID=66113634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811496827.0A Active CN109658423B (zh) 2018-12-07 2018-12-07 一种彩色眼底图的视盘视杯自动分割方法

Country Status (1)

Country Link
CN (1) CN109658423B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829877A (zh) * 2018-09-20 2019-05-31 中南大学 一种视网膜眼底图像杯盘比自动评估方法
CN110599491B (zh) * 2019-09-04 2024-04-12 腾讯医疗健康(深圳)有限公司 基于先验信息的眼部图像分割方法、装置、设备及介质
CN116343008A (zh) * 2019-12-04 2023-06-27 深圳硅基智能科技有限公司 基于多个特征的青光眼识别的训练方法及训练装置
CN110969617B (zh) * 2019-12-17 2024-03-15 腾讯医疗健康(深圳)有限公司 视杯视盘图像识别方法、装置、设备及存储介质
CN112288720A (zh) * 2020-10-29 2021-01-29 苏州体素信息科技有限公司 一种基于深度学习的彩色眼底图像青光眼筛查方法及系统
CN113362346B (zh) * 2021-07-08 2023-08-11 辽宁师范大学 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014031086A1 (en) * 2012-08-24 2014-02-27 Agency For Science, Technology And Research Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
WO2018215855A1 (en) * 2017-05-23 2018-11-29 Indian Institute Of Science Automated fundus image processing techniques for glaucoma prescreening

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014031086A1 (en) * 2012-08-24 2014-02-27 Agency For Science, Technology And Research Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
WO2018215855A1 (en) * 2017-05-23 2018-11-29 Indian Institute Of Science Automated fundus image processing techniques for glaucoma prescreening
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法

Also Published As

Publication number Publication date
CN109658423A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN109658423B (zh) 一种彩色眼底图的视盘视杯自动分割方法
CN110120047B (zh) 图像分割模型训练方法、图像分割方法、装置、设备及介质
CN110400289B (zh) 眼底图像识别方法、装置、设备和存储介质
CN106920227B (zh) 基于深度学习与传统方法相结合的视网膜血管分割方法
CN108764342B (zh) 一种对于眼底图中视盘和视杯的语义分割方法
CN109919938B (zh) 青光眼的视盘分割图谱获取方法
CN111667490B (zh) 一种眼底图片视杯视盘分割方法
Almazroa et al. Optic disc segmentation for glaucoma screening system using fundus images
JP2019192215A (ja) 深層学習を用いた網膜層の3d定量解析
CN109671049B (zh) 一种医学图像处理方法、系统、设备、存储介质
WO2020125318A1 (zh) 青光眼图像识别方法、设备和诊断系统
CN113012093B (zh) 青光眼图像特征提取的训练方法及训练系统
CN111524144A (zh) 一种基于GAN和Unet网络的肺结节智能诊断方法
CN102567734A (zh) 基于比值的视网膜细小血管分割方法
Suero et al. Locating the Optic Disc in Retinal Images Using Morphological Techniques.
CN113870270A (zh) 一种统一框架下的眼底影像视杯、视盘分割方法
CN113610842A (zh) 基于CAS-Net的OCT图像视网膜脱离和劈裂自动分割方法
Güven Automatic detection of age-related macular degeneration pathologies in retinal fundus images
Noyel et al. Superimposition of eye fundus images for longitudinal analysis from large public health databases
CN111028230A (zh) 一种基于yolo-v3的眼底图像视盘及黄斑定位检测算法
Diaz-Pinto et al. Retinal image synthesis for glaucoma assessment using DCGAN and VAE models
Akram et al. Retinal image blood vessel segmentation
CN114219814A (zh) 一种基于深度水平集学习的视杯视盘分割方法
CN115456974A (zh) 基于人脸关键点的斜视检测系统、方法、设备及介质
Alazawee et al. Analyzing and detecting hemorrhagic and ischemic strokebased on bit plane slicing and edge detection algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant