CN111667490A - 一种眼底图片视杯视盘分割方法 - Google Patents

一种眼底图片视杯视盘分割方法 Download PDF

Info

Publication number
CN111667490A
CN111667490A CN202010378842.6A CN202010378842A CN111667490A CN 111667490 A CN111667490 A CN 111667490A CN 202010378842 A CN202010378842 A CN 202010378842A CN 111667490 A CN111667490 A CN 111667490A
Authority
CN
China
Prior art keywords
network
segmentation
multiplied
cup
optic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010378842.6A
Other languages
English (en)
Other versions
CN111667490B (zh
Inventor
董宇涵
雷洁
张凯
高瞻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Haoyisheng Cloud Hospital Management Technology Co ltd
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Beijing Haoyisheng Cloud Hospital Management Technology Co ltd
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Haoyisheng Cloud Hospital Management Technology Co ltd, Shenzhen International Graduate School of Tsinghua University filed Critical Beijing Haoyisheng Cloud Hospital Management Technology Co ltd
Priority to CN202010378842.6A priority Critical patent/CN111667490B/zh
Publication of CN111667490A publication Critical patent/CN111667490A/zh
Application granted granted Critical
Publication of CN111667490B publication Critical patent/CN111667490B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

一种眼底图片视杯视盘分割方法,包括:训练阶段:训练定位网络和分割网络,所述分割网络包括生成网络与判别网络,所述定位网络单独训练,所述分割网络训练由所述生成网络与所述判别网络轮流迭代进行训练;预测阶段:通过所述定位网络得到视盘分割图;根据视盘分割图进行感兴趣区域裁剪,感兴趣区域经过对齐变换后通过所述分割网络中的生成网络得到视杯视盘分割结果图和视杯视盘边界分割结果图,将所述分割结果图还原到原来裁剪的位置和尺寸后得到最终结果图。通过生成网络与判别网络迭代共同训练来源不同的数据,能够适应多域并且端到端分割视杯视盘,有效解决数据差异的问题。

Description

一种眼底图片视杯视盘分割方法
技术领域
本发明涉及眼底图像处理领域,特别是涉及一种眼底图片视杯视盘分割方法。
背景技术
眼睛是人类视觉感知的重要器官,外界光线通过人眼神经细胞形成视觉信号并传输至大脑。眼球主要包括巩膜(眼白)、虹膜、角膜、晶状体、脉络膜、视网膜和视神经、瞳孔、等部分[1]。眼底图像辅助诊断由于其操作简单、花费低、对人体伤害小等优点己经成为大规模视网膜疾病筛查方式的首选。眼底视网膜是形成视觉的重要部分,眼科医生常通过非创伤且便捷的眼底图像方式检查眼底视网膜进行眼部疾病的诊断。眼底图像主要由血管、视盘、黄斑等部分组成,其中可能存在多种病灶特征。在眼底图像辅助诊断中,眼底图像中杯盘比即视杯与视盘的垂直直径比或面积比、视杯与盘沿的相对位置关系等参数的测量对青光眼等眼底疾病的诊断有着重要的意义。此外,通过有关部门对遗传指数的测算,杯盘比的遗传因素为61%,环境因素为39%。这些数字说明杯盘面积比在医学遗传领域中也有研究的空间和价值[2-3]。所以在对眼底图像进行视盘定位的基础上,采用有效的方法来对视杯盘进行分割已成为眼底图像处理中非常重要的一项工作。
迁移学习一直是计算机视觉的经典问题,利用一个或多个相关源域中的标记数据在目标域中执行任务。域适应是一种特殊的迁移学习,其设定在一个或多个源域中含有标签数据,目标域中数据标签数据稀少或不含标签信息[4]。通过在不同阶段进行领域自适应可将现有的方法大致分为样本适应,特征层面适应和模型层面适应。生成式对抗网络(GAN)是由Goodfellow等[5]于2014年首次提出,它是通过对抗网来估计生成模型的新框架。同时训练两个模型:生成模型G用来捕获数据样本分布,判别模型D用于判断样本是来自训练数据还是来自G生成的一种概率。该框架训练采用一种最大最小化博弈。Xue Yuan等[6]提出了一种新的端到端的对抗生成网络SeGAN,用于医学图像分割任务。该方法使用多尺度L1损失函数旨在最大限度地缩短像素之间的短距离空间,分割结果比最先进的U-Net分割方法具有更好的性能。
目前,由于拍摄相机型号和角度的不同导致眼底图片存在差异,上述数据来源不同的眼底图片数据无法使用统一模型及参数对视杯视盘进行分割。
参考文献
[1]曾杰.视网膜图像的分析与研究[D].电子科技大学,2016.
[2]陈锦礼.视乳头杯盘比遗传方式的探讨[J].眼科研究,1990(01):58-59.
[3]视乳头杯盘比的遗传及其临床意义[J].同济医科大学学报,1987(03):163.
[4]Shai Ben-David,John Blitzer,Koby Crammer,Alex Kulesza,FernandoPereira,Jennifer Wortman Vaughan.A theory of learning from different domains[J].Machine Learning,2010,79(1-2).
[5]Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarialnets[C]//Advances in neural information processing systems.2014:2672-2680.
[6]Xue Y,Xu T,Zhang H,et al.SegAN:Adversarial Network with Multi-scale L 1,Loss for Medical Image Segmentation[J].Neuroinformatics,2018,16(3-4):383-392.
发明内容
为了克服现有技术的不足,本发明提供一种眼底图片视杯视盘分割方法。
为实现上述目的,本发明采用以下技术方案:
一种眼底图片视杯视盘分割方法,包括:
训练阶段:训练用于提取感兴趣区域的定位网络;并训练用于进行视杯视盘分割的分割网络,所述分割网络包括生成网络与判别网络,训练过程中所述生成网络与所述判别网络轮流迭代进行训练;
预测阶段:通过所述定位网络得到视盘分割图,根据视盘分割图进行感兴趣区域裁剪,感兴趣区域经过对齐变换后通过所述分割网络中的生成网络得到视杯视盘分割结果图和视杯视盘边界分割结果图;将所述分割结果图还原到原来裁剪的位置和尺寸后得到最终结果图。
进一步地:
所述定位网络采用U型网络,所述定位网络被实现为:输入尺寸为H×W×1的眼底单通道图像,经过一个掩膜层,掩膜层输出经过卷积网络得到视盘的分割结果图和视盘边界的分割结果图,用sigmoid激活函数得到数值范围在0~1,尺寸为H×W×1的概率图;掩膜层的输入为h×w×c,掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出。
定位网络Loc(·)的损失函数为三个部分加权组合而成:
LLoc=LH+LD+L1
其中,多类交叉熵项LH
LH(y,y',yedge,y'edge=-(ylny'+(1-y)ln(1-y'))-(yedgelny'edge+(1-yedge)ln(1-y'edge))
其中,y表示图像x的真实视盘标注概率图的概率,yedge表示图像x视盘边界的真实标注概率图的概率,y′表示图像x经Loc(·)视盘输出,y′edge表示图像x经Loc(.)视盘边界的输出;
其中,LD是衡量两个样本的重叠部分的项,该指标范围从0到1,其中“1”表示完整的重叠:
Figure BDA0002481105920000031
其中,
Figure BDA0002481105920000033
表示一个不为0的极小数;
其中,L1为正则化的项:
Figure BDA0002481105920000032
所述生成网络为语义分割网络S(·),采用U型网络,被实现为:输入尺寸为H×W×3的眼底彩色图像,经过一个掩膜层,掩膜层输出经视杯视盘分割网络得到视杯视盘分割输出,用tanh激活函数,得到数值范围在-1~1,尺寸为H×W×2的概率图;掩膜层输出经视杯视盘边界分割网络得到视杯视盘边界分割输出,也用tanh激活函数,得到数值范围在-1~1,尺寸为H×W×2的概率图。
所述判别网络为辅助对抗网络A(·),被实现为:输入通过视杯视盘边界分割网络和视杯视盘分割网络的中间特征层输出进行拼接得到的拼接特征,作为二分类网络,将输出送入到激活函数sigmoid函数的输出层,得到数值范围在0~1的置信图,来描述输入图像判为真伪的概率。
分割网络Seg(·)的损失函数为四个部分加权组合而成:
LLoc=LH+LD+L1+LAdv
其中,多类交叉熵项LH
LH(y,y',yedge,y'edge=-(ylny'+(1-y)ln(1-y'))-(yedgelny'edge+(1-yedge)ln(1-y'edge))
其中,y表示图像x的真实视杯视盘标注概率图的概率,yedge表示图像x视杯视盘边界的真实标注概率图的概率,y′表示图像x经S(·)视杯视盘输出,y′edge表示图像x经S(·)视杯视盘边界的输出;
其中,LD是衡量两个样本的重叠部分的项,该指标范围从0到1,其中“1”表示完整的重叠:
Figure BDA0002481105920000041
其中,
Figure BDA0002481105920000043
表示一个不为0的极小数;
其中,L1为正则化的项:
Figure BDA0002481105920000042
其中,LAdv为对抗网络损失项LAdv(S,A),LAdv(S,A)分为语义分割网络和对抗性判别网络两个部分,训练分割网络时,模型的训练目标为最小化如下二元分类损失:
LS(S,A)=-A(S(x1))(1-A(S(x1)))-A(S(x2))(A(S(x2)))
在对抗性判别网络训练时:
LA(S,A)=-logA(S(x1))+log(1-A(S(x2)))
x1、x2为对应于来自两个不同数据库的数据。
所述定位网络和所述生成网络均采用U型网络,具有下采样过程与上采样过程,且在相同层之间具有一个连接模块,卷积层之间的连接用残差模块制造恒等映射,使网络结构朝着恒等映射的方向去收敛;采用多层级输入和多尺度特征结合的多层级特征结合,且引入空洞卷积层;在下采样过程中,采用跨步为2的卷积操作;在上采样过程中使用反卷积操作;经过一个自注意力模型的掩膜层,掩膜的输入为h×w×c掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出,将输入和掩膜输出相乘得到输出;掩膜输入与输出相乘分别经过卷积网络得到视杯视盘的分割结果图和视杯视盘边界的分割结果图。
图像数据对齐过程使用直方图匹配方法;
其中,对于原始图像灰度分布的概率密度函数pr(r)和希望得到的概率密度函数pz(z),对两个直方图都做均衡化,变成相同的归一化的均匀直方图,以均匀直方图为媒介,再对参考图像做均衡化的逆运算;其中,均衡化处理:
Figure BDA0002481105920000051
Figure BDA0002481105920000052
均衡化处理后pr(r)和pz(z)具有同样的均匀密度:
z=G-1(u)≈G-1(s)。
所述判别网络共包含六层,其训练过程包括:
使用生成网络中的视杯视盘边界分割网络的中间特征层和和视杯视盘分割网络的中间特征层进行拼接;
将得到的拼接特征作为判别网络的输入,经过卷积层,然后经过空洞卷积构成的残差模块;
将得到的输出经过反卷积下采样,然后进行整平操作,连接下一个结点为1的全连接网络;
经过一个sigmoid激活函数,得到数值范围在0~1的置信图来描述输入图像判为的真伪的概率;
计算损失函数,并通过优化器通过多次迭代更新分割模型参数直到其收敛到最优值。
还包括:训练前先使用图像数据增广方法对原始眼底图像公开数据集进行增广处理,包括翻转、镜像和旋转。
本发明的有益效果:
本发明提出了一种视杯视盘分割方法,此方法基于生成对抗网络,通过生成网络与判别网络迭代共同训练来源不同的数据,是一种能够适应多域并且端到端分割视杯视盘的方法。本发明可以通过生成对抗算法实现多域端到端的眼底视杯视盘分割,有效解决了数据差异的问题。
附图说明
图1为本发明实施例的数据集1描述,其中(a)原始彩色眼底图像(b)标注分割图。
图2为本发明实施例的数据集2描述,其中(b)原始彩色眼底图像(b)标注分割图。
图3为本发明实施例的定位网络结构图。
图4为本发明实施例的分割网络结构图。
图5为本发明实施例的掩膜部分结构图。
图6为本发明实施例的标识。
图7为本发明实施例的定位网络可视图。
图8为本发明实施例的分割网络可视图。
图9为本发明实施例的预测阶段流程图。
图10为本发明实施例的数据集1实验结果。
图11为本发明实施例的数据集2实验结果。
图12为本发明实施例的对齐参考图片。
具体实施方式
以下对本发明的实施方式作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
本发明实施例提供一种眼底图片视杯视盘分割方法,包括:
训练阶段:训练用于提取感兴趣区域的定位网络;并训练用于进行视杯视盘分割的分割网络,所述分割网络包括生成网络与判别网络,训练过程中所述生成网络与所述判别网络轮流迭代进行训练;
预测阶段:通过所述定位网络得到视盘分割图,根据视盘分割图进行感兴趣区域裁剪,感兴趣区域经过对齐变换后通过所述分割网络中的生成网络得到视杯视盘分割结果图和视杯视盘边界分割结果图;将所述分割结果图还原到原来裁剪的位置和尺寸后得到最终结果图。
本发明实施例的视杯视盘分割方法基于生成对抗网络,通过生成网络与判别网络迭代共同训练来源不同的数据,是一种能够适应多域并且端到端分割视杯视盘的方法。本发明可以通过生成对抗算法实现多域端到端的眼底视杯视盘分割,有效解决了数据差异的问题。
由于人工标注费用高昂,标注过程复杂及拍摄设备不同,可用于训练的图像数量较少,在本发明优选实施例中,为了更好地训练网络,先给定网络所需的输入大小,进行数据增广。具体操作包括反转,镜像和旋转等。此外,考虑到视杯视盘只占据整张图片的部分,为了减少无关部分的干扰和计算量,分割过程可分为两部分:提取兴趣区域和分割视杯视盘。
定位网络:
提取兴趣区域只需要提取包含视杯视盘区域大致确定目标区域,舍弃其他区域以减少干扰和计算量。视盘中央高亮区域为视杯,视盘包含视杯。视杯和视盘的分界不是很明显,相对来说分割视盘比分割视杯难度小。所以在第一阶段以分割视盘为目标确定感兴趣区域,为了提高精度也将视盘边界也作为分割目标。为了减少数据之间的差距和定位网络具有一般性。输入图像的尺寸大小为256×256,如图3所示。定位网络:即输入一张尺寸为H×W×1的眼底单通道图像,经U型网络经过一个掩膜层,掩膜层输出经视盘分割网络得到视盘分割输出,选用sigmoid激活函数可以得到数值范围在0~1,尺寸为H×W×1的概率图。
这里以Loc(·)表示定位网络,y表示图像x的真实视盘标注概率图的概率,yedge表示图像x视盘边界的真实标注概率图的概率,y′表示图像x经Loc(·)视盘输出,y′edge表示图像x经Loc(.)视盘边界的输出,则网络的损失函数可以表示为三个部分加权组合而成
LLoc=LH+LD+L1
1.多类交叉熵项LH:它鼓励分割模型独立预测每个像素正确的分类。考虑到眼底血管分割的实际为二值分割,故定义损失函数为:
LH(y,y',yedge,y'edge=-(y ln y'+(1-y)ln(1-y'))-(yedge ln y'edge+(1-yedge)ln(1-y'edge))
2.Dice LD:源于二分类,本质上是衡量两个样本的重叠部分。该指标范围从0到1,其中“1”表示完整的重叠,
Figure BDA0002481105920000072
表示一个不为0的极小数。故定义损失函数为:
Figure BDA0002481105920000071
3.L1正则化:在经验风险最小化(训练误差最小化)的基础上,尽可能采用简单的模型,以提高模型泛化预测精度:
Figure BDA0002481105920000081
分割网络:
得到视盘的大致分割结果过后,进行感兴趣区域粗剪,完成感兴趣区域定位任务。然后到第二阶段进行视杯视盘分割任务。将第一步粗剪的图片缩放到384×384,此时为了精确分割输入三通道的彩色图片。如图4所示。
数据对齐过程中使用的是风格迁移中经常使用的直方图匹配方法(HistogramMatching)。直方图匹配,又称直方图规定化,即变换原图的直方图为规定的某种形式的直方图,从而使两幅图像具有类似的色调和反差。直方图匹配属于非线性点运算。假设pr(r)是原始图像灰度分布的概率密度函数,pz(z)是希望得到的概率密度函数,对两个直方图都做均衡化,变成相同的归一化的均匀直方图,以此均匀直方图为媒介,再对参考图像做均衡化的逆运算。第一步就是对两个图像都做均衡化处理:
Figure BDA0002481105920000082
Figure BDA0002481105920000083
由于两幅图像都做了均衡化处理,所以,pr(r)和pz(z)具有同样的均匀密度
z=G-1(u)≈G-1(s)
此时为了减少图片差异带来的影响,引入生成对抗网络。在这一阶段的参考图像取已有单数据库平均值如图11所示。
分割网络Seg(·)主要包含语义分割网络S(·)(生成网络)和辅助对抗网络A(·)(判别网络)两部分:
语义分割网络S(·):即输入一张尺寸为H×W×3的眼底彩色图像,经U型网络经过一个掩膜层,掩膜层输出经视杯视盘分割网络得到视杯视盘分割输出,这里选用tanh激活函数,最终可以得到数值范围在-1~1,尺寸为H×W×2的概率图;掩膜层输出经视杯视盘边界分割网络得到视杯视盘边界分割输出,这里也选用tanh激活函数,最终可以得到数值范围在-1~1,尺寸为H×W×2的概率图。
辅助对抗网络A(·):将通过视杯视盘边界分割网络和视杯视盘分割网络的中间特征层输出进行拼接得到一个拼接特征,然后将其输入辅助对抗网络。网络本质上是一个二分类网络,将其输出送入到激活函数sigmoid函数的输出层,最终得到数值范围在0~1的置信图来描述输入图像判为真伪的概率。
本发明基于生成对抗网络的思想进行眼底图像血管分割,这里以Seg(·)表示分割网络,y表示图像x的真实视杯视盘标注概率图的概率,yedge表示图像x视杯视盘边界的真实标注概率图的概率,y′表示图像x经S(·)视杯视盘输出,y′edge表示图像x经S(·)视杯视盘边界的输出,则网络的损失函数可以表示为四个部分加权组合而成
LLoc=LH+LD+L1+LAdv
多类交叉熵项LH:它鼓励分割模型独立预测每个像素正确的分类。考虑到眼底血管分割的实际为二值分割,故定义损失函数为:
LH(y,y',yedge,y'edge=-(ylny'+(1-y)ln(1-y'))-(yedgelny'edge+(1-yedge)ln(1-y'edge))
DiceLD:源于二分类,本质上是衡量两个样本的重叠部分。该指标范围从0到1,其中“1”表示完整的重叠,
Figure BDA0002481105920000093
表示一个不为0的极小数。故定义损失函数为:
Figure BDA0002481105920000091
L1正则化:在经验风险最小化(训练误差最小化)的基础上,尽可能采用简单的模型,以提高模型泛化预测精度:
Figure BDA0002481105920000092
对抗网络损失项LAdv(S,A)
在判别网络进行判别时,其实是对来自不同数据库的数据的判别,促使不同数据库的输出相似。生成对抗网络框架的实际为最大最小的优化问题,因此LAdv(S,A)实际分为分割网络和对抗性判别网络两个部分。考虑到两个都由S(.)输出,所以设定两者都接近0.5。假设x1来自数据库1,x2来自数据库2。训练分割网络时,模型的训练目标为最小化下面的二元分类损失:
LS(S,A)=-A(S(x1))(1-A(S(x1)))-A(S(x2))(A(S(x2)))
对抗性判别网络在训练时有:
LA(S,A)=-logA(S(x1))+log(1-A(S(x2)))
一些具体实施例中,本发明眼底图片视杯视盘分割方法包括如下步骤:
一、获取数据集
本发明中所使用的眼底图像数据集为公开比赛REFUGE数据集,其中训练集和测试集各400幅,训练集来自Zeiss Visucam 500如图所示,像素为2124x2056,测试集来自CanonCR-2如图所示,像素为1634x1634,两者存在明显差异。
二、数据增广
由于眼底图像的人工标注复杂费时费力,因此已有的公开数据集图像数量较少,在本发明中,由于使用了深度学习方法,为了减少网络的过拟合现象,同时给定网络所需的图像输入大小,先使用相应的图像数据增广方法对原始眼底图像公开数据集进行增广处理,翻转,镜像和旋转。
三、训练阶段
使用生成对抗网络算法对眼底血管图像进行分割,首先需要分别对定位网络进行训练,然后是分割网络与判别网络进行训练,其训练过程为分割网络与判别网络轮流迭代进行训练,具体如下:
定位网络及其训练
定位网络采用了U型网络(U-Net),网络结构包含了一个下采样过程与一个上采样过程,同时在相同层之间具有一个连接模块能够保留输入和输出的低维特征。卷积层之间的连接用到了残差模块,残差结构人为制造了恒等映射,就能让整个结构朝着恒等映射的方向去收敛,确保最终的错误率不会因为深度的变大而越来越差。另外对U型网络采用有助于在不同尺度上提取特征的多层级输入和多尺度特征结合的多层级特征结合和为了增大感受野引入空洞卷积层。在下采样过程中,为了减少信息在传递过程中丢失的问题采用跨步为2的卷积操作而不是简单的池化操作。在上采样过程中使用的是反卷积操作相对上池化层能够更好的提取特征。掩膜层其实是一个自注意力模型。假设输入的特征尺寸大小为h×w×c,输入经一个核为c的反卷积操作后取均值最后得到一个为c×1的c通道特征,通过一个sigmoid激活函数,掩膜的输入为h×w×c,掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出。将输入和掩膜相乘得到输出。掩膜流程图如图5所示。整体网络结构如图7所示。一种具体计算过程如下:
1、使用公开的眼底图像数据集,按照本发明提出的数据增广方法得到训练模型的输入图像数据。
2、训练集的灰度眼底图像和标注分割图像输入U型网,首先计算4层下采样过程,每层有一个残差模块操作进行和层级输入。每组卷积操作后进行一次最跨步为2的卷积操作进行下采样。
3、接下来计算4层上采样过程,上采样过程使用的是4组反卷积,每次上采样将图片扩展为原来的2倍,然后将对应层提取的特征图concat到卷积的结果上,再输入后面的掩膜模块中。
4、将经掩膜层输入到视盘分割网络,得到视盘输出,这里选用sigmoid激活函数,最终可以得到数值范围在0~1,尺寸为256×256×1的分割输出图将经掩膜层输入到视盘边界分割网络,得到视盘边界输出,这里选用sigmoid激活函数,最终可以得到数值范围在0~1,尺寸为256×256×1的分割输出图。
5、计算损失函数,并选用相应的优化器通过多次迭代更新分割模型参数直到其收敛到最优值,本发明选用的优化器为Adam优化器。
具有如下优点:
1.支持少量的数据训练模型
2.通过对每个像素点进行分类,获得更高的分割准确率
3.用训练好的模型分割图像,速度快。
分割网络及其训练
本发明借助生成对抗网络对眼底血管图像进行分割,在构造好网络框架后还需要明确生成网络(语义分割网络)与判别网络的具体模型。具体结构图如图8所示。
生成网络
语义分割网络也采用了U型网络(U-Net),网络结构包含了一个下采样过程与一个上采样过程,同时在相同层之间具有一个连接模块能够保留输入和输出的低维特征。卷积层之间的连接用到了残差模块,残差结构人为制造了恒等映射,就能让整个结构朝着恒等映射的方向去收敛,确保最终的错误率不会因为深度的变大而越来越差。另外对U型网络采用有助于在不同尺度上提取特征的多层级输入和多尺度特征结合的多层级特征结合和为了增大感受野引入空洞卷积层。在下采样过程中,为了减少信息在传递过程中丢失的问题采用跨步为2的卷积操作而不是简单的池化操作。在上采样过程中使用的是反卷积操作相对上池化层能够更好的提取特征。掩膜层其实是一个自注意力模型。掩膜的输入为h×w×c,掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出。将输入和掩膜相乘得到输出。掩膜流程图如图5所示。一种具体计算过程如下:
1、使用公开的眼底图像数据集经过定位网络得到视盘的分割图;
2、根据第一步得到的分割结果对眼底图片和标注分割图进行裁剪感兴趣区域,并缩放到尺寸384×384;
3、把上一步得到的眼底图片进行数据对齐;
4、经数据对齐的彩色眼底图像和标注分割图像输入U型网络,首先计算4层下采样过程,每层有一个残差模块操作进行和层级输入。每组卷积操作后进行一次最跨步为2的卷积操作进行下采样
5、接下来计算4层上采样过程,上采样过程使用的是4组反卷积,每次上采样将图片扩展为原来的2倍,然后将对应层提取的特征图concat到卷积的结果上,再输入后面的掩膜模块中。
6、将经掩膜层输入到视盘分割网络,得到视盘输出,这里选用tanh激活函数,最终可以得到数值范围在-1~1,尺寸为384×384×2的分割输出图将经掩膜层输入到视盘边界分割网络,得到视盘边界输出,这里选用tanh激活函数,最终可以得到数值范围在-1~1,尺寸为384×384×2的分割输出图。
7、计算损失函数,并选用相应的优化器通过多次迭代更新模型参数直到其收敛到最优值,本发明选用的优化器为Adam优化器。
具有如下优点:
1.支持少量的数据训练模型
2.通过对每个像素点进行分类,获得更高的分割准确率
3.用训练好的模型分割图像,速度快。
判别网络及其训练
判别网络要处理的是一个二分类问题,即判别输入特征到底来自数据库1还是来自数据库2。对于经典的二分类问题,利用sigmoid函数能根据输入数据的特征得到输入数据所属类别的概率值,从而描述输入图像判为的真伪的概率。本发明使用的判别网络共包含六层,详细步骤描述如下:
1、使用生成网络中边界分割网络的中间特征层和分割网络的中间特征层进行拼接;
2、第一步得到的拼接特征作为判别网络的输入,经过一个卷积层,然后一个空洞卷积构成的残差模块;
3、上一步得到的输出经过反卷积下采样,然后进行flatten操作,连接下一个结点为1的全连接网络。
4、最终到一个激活函数为sigmoid函数,最终得到数值范围在0~1的置信图来描述输入图像判为的真伪的概率。这里选用sigmoid激活函数,最终可以得到数值范围在0~1,来描述输入图像判为的真伪的概率。
5、计算损失函数LA(S,A),并选用相应的优化器通过多次迭代更新分割模型参数直到其收敛到最优值,本发明选用的优化器为Adam优化器。
四、预测阶段
在预测过程中需要先进行定位对感兴趣区域裁剪,然后将分割,最后将得到的结果根据裁剪的位置还原。本发明使用生成对抗网络作为眼底图视杯视盘分割算法,该算法预测阶段流程如图9所示。参考前述定位网络和分割网络的具体说明,简要描述预测流程如下:
1、进行缩放到所需尺寸大小;
2、经过定位网络,得到视盘分割图;
3、根据第二步得到的是粗分割图,在原图上进行感兴趣区域定位和裁剪;
4、把有第三步得到的图经数据对齐输入到分割网络,得到分割结果图;
5、把分割结果图还原到原来位置和尺寸,得到最终结果图。
性能分析
性能指标
计算交并率(Intersection over Union,IoU)作为衡量分割结果标准,模型预测产生的分割结果和标签标记的分割的交叠率。
Figure BDA0002481105920000141
如果指标都比较高说明模型效果比较好,如果指标比较低说明模型性能欠佳。
性能分析
在下面的分析中,经过图片增广处理后,数据集1有9600张,数据集2有9600张。将其中75%的数据作为训练集,25%的数据作为测试集。
定性分析
数据集1与数据集2的分割结果如图6与图7所示。其中,第一行为原始眼底图像,第二行为标注图像,第三行为网络分割结果。从图6和图7可以看出,分割结果较为精确,尤其在边界分割上,结果有明显的提升。
定量分析
将所提算法的分割结果与目前几种达到先进分割水平的方法进行定量比较,结果如表1所示,其中NightOwl队的方法为基于C-Net与F-Net及SDSAIRC队等人的方法为使用神经网络进行分割的方法。由表1可知,使用生成对抗网络的眼底血管分割算法精度比有所提升。无法得到其在数据1上的具体数值。对于数据集2来说,视盘交并率IoU提高0.005,视杯提高0.031。
表1两个数据集的分割结果与其他方法的结果比较
Figure BDA0002481105920000142
Figure BDA0002481105920000151
本发明的背景部分可以包含关于本发明的问题或环境的背景信息,而不一定是描述现有技术。因此,在背景技术部分中包含的内容并不是申请人对现有技术的承认。
以上内容是结合具体/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。在本说明书的描述中,参考术语“一种实施例”、“一些实施例”、“优选实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。尽管已经详细描述了本发明的实施例及其优点,但应当理解,在不脱离专利申请的保护范围的情况下,可以在本文中进行各种改变、替换和变更。

Claims (10)

1.一种眼底图片视杯视盘分割方法,其特征在于,包括:
训练阶段:训练用于进行感兴趣区域提取的定位网络;并训练用于进行视杯视盘分割的分割网络,所述分割网络包括生成网络与判别网络,训练过程中所述生成网络与所述判别网络轮流迭代进行训练;
预测阶段:通过所述定位网络得到视盘分割图;通过视盘分割图进行裁剪提取感兴趣区域,感兴趣区域经过对齐变换后通过所述分割网络中的所述生成网络得到视杯视盘分割结果图和视杯视盘边界分割结果图,将所述分割结果图还原到原来裁剪的位置和尺寸后得到最终结果图。
2.如权利要求1所述的眼底图片视杯视盘分割方法,其特征在于,所述定位网络采用U型网络,所述定位网络被实现为:输入尺寸为H×W×1的眼底单通道图像,经过一个掩膜层,掩膜层输出分别经过卷积网络得到视盘的分割结果图和视盘边界的分割结果图,用sigmoid激活函数得到数值范围在0~1,尺寸为H×W×1的概率图;掩膜层的输入为h×w×c,掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出。
3.如权利要求2所述的眼底图片视杯视盘分割方法,其特征在于,
定位网络Loc(·)的损失函数为三个部分加权组合而成:
LLoc=LH+LD+L1
其中,多类交叉熵项LH
LH(y,y′,yedge,y′edge)=-(y ln y′+(1-y)ln(1-y′))-(yedge ln y′edge+(1-yedge)ln(1-y′edge))
其中,y表示图像x的真实视盘标注概率图的概率,yedge表示图像x视盘边界的真实标注概率图的概率,y′表示图像x经Loc(·)视盘输出,y′edge表示图像x经Loc(.)视盘边界的输出;
其中,LD是衡量两个样本的重叠部分的项,该指标范围从0到1,其中“1”表示完整的重叠:
Figure FDA0002481105910000021
其中,
Figure FDA0002481105910000024
表示一个不为0的极小数;
其中,L1为正则化的项:
Figure FDA0002481105910000022
4.如权利要求1所述的眼底图片视杯视盘分割方法,其特征在于,所述生成网络为语义分割网络S(·),采用U型网络,被实现为:输入尺寸为H×W×3的眼底彩色图像,经过一个掩膜层,掩膜层输出经视杯视盘分割网络得到视杯视盘分割输出,用tanh激活函数,得到数值范围在-1~1,尺寸为H×W×2的概率图。
5.如权利要求1或4所述的眼底图片视杯视盘分割方法,其特征在于,所述判别网络为辅助对抗网络A(·),被实现为:输入通过视杯视盘边界分割网络和视杯视盘分割网络的中间特征层输出进行拼接得到的拼接特征,作为二分类网络,将输出送入到激活函数sigmoid函数的输出层,得到数值范围在0~1的置信图,来描述输入图像判为真伪的概率。
6.如权利要求1或4或5所述的眼底图片视杯视盘分割方法,其特征在于,
分割网络Seg(·)的损失函数为四个部分加权组合而成:
LLoc=LH+LD+L1+LAdv
其中,多类交叉熵项LH
LH(y,y′,yedge,y′edge=-(y ln y′+(1-y)ln(1-y′))-(yedge ln y′edge+(1-yedge)ln(1-y′edge))
其中,y表示图像x的真实视杯视盘标注概率图的概率,yedge表示图像x视杯视盘边界的真实标注概率图的概率,y′表示图像x经S(·)视杯视盘输出,y′edge表示图像x经S(·)视杯视盘边界的输出;
其中,LD是衡量两个样本的重叠部分的项,该指标范围从0到1,其中“1”表示完整的重叠:
Figure FDA0002481105910000023
其中,
Figure FDA0002481105910000033
表示一个不为0的极小数;
其中,L1为正则化的项:
Figure FDA0002481105910000031
其中,LAdv为对抗网络损失项LAdv(S,A),LAdv(S,A)分为语义分割网络和对抗性判别网络两个部分,训练分割网络时,模型的训练目标为最小化如下二元分类损失:
LS(S,A)=-A(S(x1))(1-A(S(x1)))-A(S(x2))(A(S(x2)))
在对抗性判别网络训练时:
LA(S,A)=-log A(S(x1))+log(1-A(S(x2)))
x1、x2为对应于来自两个不同数据库的数据。
7.如权利要求1所述的眼底图片视杯视盘分割方法,其特征在于,所述定位网络与所述生成网络均采用U型网络,具有下采样过程与上采样过程,且在相同层之间具有一个连接模块,卷积层之间的连接用残差模块制造恒等映射,使网络结构朝着恒等映射的方向去收敛;采用多层级输入和多尺度特征结合的多层级特征结合,且引入空洞卷积层;在下采样过程中,采用跨步为2的卷积操作;在上采样过程中使用反卷积操作;经过一个自注意力模型的掩膜层,掩膜的输入为h×w×c掩膜层分别在通道方向c和其垂直的平面h×w进行卷积操作,都使用sigmoid激活函数并两者相乘,得到数值范围在0~1,尺寸为h×w×c的概率输出,将输入和掩膜输出相乘得到输出;掩膜输入与输出相乘分别经过卷积网络得到视杯视盘的分割结果图和视杯视盘边界的分割结果图。
8.如权利要求1至7任一项所述的眼底图片视杯视盘分割方法,其特征在于,图像数据对齐过程使用直方图匹配方法;
其中,对于原始图像灰度分布的概率密度函数pr(r)和希望得到的概率密度函数pz(z),对两个直方图都做均衡化,变成相同的归一化的均匀直方图,以均匀直方图为媒介,再对参考图像做均衡化的逆运算;其中,均衡化处理:
Figure FDA0002481105910000032
Figure FDA0002481105910000041
均衡化处理后pr(r)和pz(z)具有同样的均匀密度:
z=G-1(u)≈G-1(s)。
9.如权利要求1至8任一项所述的眼底图片视杯视盘分割方法,其特征在于,所述判别网络共包含六层,其训练过程包括:
使用生成网络中的视杯视盘边界分割网络的中间特征层和和视杯视盘分割网络的中间特征层进行拼接;
将得到的拼接特征作为判别网络的输入,经过卷积层,然后经过空洞卷积构成的残差模块;
将得到的输出经过反卷积下采样,然后进行整平操作,连接下一个结点为1的全连接网络;
经过一个sigmoid激活函数,得到数值范围在0~1的置信图来描述输入图像判为的真伪的概率;
计算损失函数,并通过优化器通过多次迭代更新分割模型参数直到其收敛到最优值。
10.如权利要求1至9任一项所述的眼底图片视杯视盘分割方法,其特征在于,还包括:训练前先使用图像数据增广方法对原始眼底图像公开数据集进行增广处理,包括翻转、镜像和旋转。
CN202010378842.6A 2020-05-07 2020-05-07 一种眼底图片视杯视盘分割方法 Active CN111667490B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010378842.6A CN111667490B (zh) 2020-05-07 2020-05-07 一种眼底图片视杯视盘分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010378842.6A CN111667490B (zh) 2020-05-07 2020-05-07 一种眼底图片视杯视盘分割方法

Publications (2)

Publication Number Publication Date
CN111667490A true CN111667490A (zh) 2020-09-15
CN111667490B CN111667490B (zh) 2023-06-30

Family

ID=72383414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010378842.6A Active CN111667490B (zh) 2020-05-07 2020-05-07 一种眼底图片视杯视盘分割方法

Country Status (1)

Country Link
CN (1) CN111667490B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986202A (zh) * 2020-10-26 2020-11-24 平安科技(深圳)有限公司 青光眼辅助诊断装置、方法及存储介质
CN112541923A (zh) * 2020-12-03 2021-03-23 南开大学 一种基于眼底图数据集迁移学习的视杯视盘分割方法
CN114612389A (zh) * 2022-02-21 2022-06-10 浙江大学 基于多源多尺度特征融合的眼底图像质量评价方法和装置
CN114694236A (zh) * 2022-03-08 2022-07-01 浙江大学 一种基于循环残差卷积神经网络的眼球运动分割定位方法
CN115359073A (zh) * 2022-10-17 2022-11-18 湖南自兴智慧医疗科技有限公司 基于对抗生成网络的染色体拓扑结构分割方法及装置
CN116110574A (zh) * 2023-04-14 2023-05-12 武汉大学人民医院(湖北省人民医院) 一种基于神经网络实现的眼科智能问诊方法和装置
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN117541791A (zh) * 2023-11-23 2024-02-09 北京师范大学 基于多域可变形卷积的眼部结构分割方法、系统及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108921227A (zh) * 2018-07-11 2018-11-30 广东技术师范学院 一种基于capsule理论的青光眼医学影像分类方法
CN110110782A (zh) * 2019-04-30 2019-08-09 南京星程智能科技有限公司 基于深度学习的视网膜眼底图像视盘定位方法
CN110197493A (zh) * 2019-05-24 2019-09-03 清华大学深圳研究生院 眼底图像血管分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108921227A (zh) * 2018-07-11 2018-11-30 广东技术师范学院 一种基于capsule理论的青光眼医学影像分类方法
CN110110782A (zh) * 2019-04-30 2019-08-09 南京星程智能科技有限公司 基于深度学习的视网膜眼底图像视盘定位方法
CN110197493A (zh) * 2019-05-24 2019-09-03 清华大学深圳研究生院 眼底图像血管分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHUANG YU ETL: "Robust optic disc and cup segmentation with deep learning forglaucoma detection" *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986202A (zh) * 2020-10-26 2020-11-24 平安科技(深圳)有限公司 青光眼辅助诊断装置、方法及存储介质
CN112541923A (zh) * 2020-12-03 2021-03-23 南开大学 一种基于眼底图数据集迁移学习的视杯视盘分割方法
US11842490B2 (en) 2022-02-21 2023-12-12 Zhejiang University Fundus image quality evaluation method and device based on multi-source and multi-scale feature fusion
CN114612389A (zh) * 2022-02-21 2022-06-10 浙江大学 基于多源多尺度特征融合的眼底图像质量评价方法和装置
CN114612389B (zh) * 2022-02-21 2022-09-06 浙江大学 基于多源多尺度特征融合的眼底图像质量评价方法和装置
CN114694236A (zh) * 2022-03-08 2022-07-01 浙江大学 一种基于循环残差卷积神经网络的眼球运动分割定位方法
CN115359073A (zh) * 2022-10-17 2022-11-18 湖南自兴智慧医疗科技有限公司 基于对抗生成网络的染色体拓扑结构分割方法及装置
CN116110574A (zh) * 2023-04-14 2023-05-12 武汉大学人民医院(湖北省人民医院) 一种基于神经网络实现的眼科智能问诊方法和装置
CN116110574B (zh) * 2023-04-14 2023-06-20 武汉大学人民医院(湖北省人民医院) 一种基于神经网络实现的眼科智能问诊方法和装置
US11955240B1 (en) 2023-04-14 2024-04-09 Renmin Hospital Of Wuhan University (hubei General Hospital) Neural-network-based-implemented ophthalmologic intelligent consultation method and apparatus
CN116385725A (zh) * 2023-06-02 2023-07-04 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN116385725B (zh) * 2023-06-02 2023-09-08 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN117541791A (zh) * 2023-11-23 2024-02-09 北京师范大学 基于多域可变形卷积的眼部结构分割方法、系统及设备

Also Published As

Publication number Publication date
CN111667490B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN111667490B (zh) 一种眼底图片视杯视盘分割方法
US11295178B2 (en) Image classification method, server, and computer-readable storage medium
Elangovan et al. Glaucoma assessment from color fundus images using convolutional neural network
Asiri et al. Deep learning based computer-aided diagnosis systems for diabetic retinopathy: A survey
Tayal et al. DL-CNN-based approach with image processing techniques for diagnosis of retinal diseases
Seeböck et al. Unsupervised identification of disease marker candidates in retinal OCT imaging data
Vega et al. Retinal vessel extraction using lattice neural networks with dendritic processing
Uysal et al. Computer-aided retinal vessel segmentation in retinal images: convolutional neural networks
CN112132817A (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN113177916B (zh) 一种基于少样本学习方法的轻微高血压眼底辨别模型
Ghoshal et al. An improved vessel extraction scheme from retinal fundus images
CN114821189A (zh) 一种基于眼底图像的病灶图像分类与识别方法
Jerith et al. Recognition of Glaucoma by means of gray wolf optimized neural network
US20210407096A1 (en) System for estimating primary open-angle glaucoma likelihood
Yang et al. Retinal vessel segmentation based on an improved deep forest
Sharma et al. Automatic glaucoma diagnosis in digital fundus images using deep CNNs
Kumar et al. A multi-thresholding-based discriminative neural classifier for detection of retinoblastoma using CNN models
CN117237711A (zh) 一种基于对抗学习的双模态眼底图像分类方法
Zou et al. Deep learning and its application in diabetic retinopathy screening
CN113011340B (zh) 一种基于视网膜图像的心血管手术指标风险分类方法及系统
CN113378794A (zh) 一种眼象与症状信息的信息关联方法
Gualsaqui et al. Multi-class classification approach for retinal diseases
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
CN111489353A (zh) 一种眼底图像中央凹定位方法
Bian et al. Automatic optic disc/cup segmentation and glaucoma classification and fovea localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant