CN110992382B - 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统 - Google Patents

用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统 Download PDF

Info

Publication number
CN110992382B
CN110992382B CN201911405334.6A CN201911405334A CN110992382B CN 110992382 B CN110992382 B CN 110992382B CN 201911405334 A CN201911405334 A CN 201911405334A CN 110992382 B CN110992382 B CN 110992382B
Authority
CN
China
Prior art keywords
net
image
network
convolution
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911405334.6A
Other languages
English (en)
Other versions
CN110992382A (zh
Inventor
郑秀娟
袁鑫
李淼
吉彬
于舒扬
李彬
刘凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201911405334.6A priority Critical patent/CN110992382B/zh
Publication of CN110992382A publication Critical patent/CN110992382A/zh
Application granted granted Critical
Publication of CN110992382B publication Critical patent/CN110992382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明公开了一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统,涉及图像信息处理技术领域,本发明包括采集若干幅眼底图像,对眼底图像进行预处理,得到训练图像样本集和验证图像样本集;利用训练图像样本集对构造的W‑Net‑Mcon全卷积神经网络进行训练,得到最佳W‑Net‑Mcon全卷积神经网络;将待分割眼底图像预处理后输入最佳W‑Net‑Mcon全卷积神经网络,得到预测目标结果图;利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,进而得到杯盘比,最后得出青光眼初步筛查结果,本发明可以有效的多尺寸提取图像语义信息,并将不同层次的特征进行融合,全局特征与细节特征相融合,鼓励特征复用,提升了梯度的反向传播,提高了图像的分割精度。

Description

用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
技术领域
本发明涉及图像信息处理技术领域,更具体的是涉及一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统。
背景技术
青光眼是全世界第二大致盲原因(仅次于白内障),也是造成不可逆失明的首要原因。由于青光眼造成的视力损伤是不可逆的,所以早期对于青光眼的筛查与诊断是至关重要的。眼底图像由于其成本较低并容易获得等优点,已经成为医生进行青光眼诊断的重要参考信息,在记录青光眼病变过程、诊断青光眼疾病、评估治疗效果、预防某些潜在青光眼病变等方面发挥着巨大作用。当下一种主流的青光眼筛查技术是用眼底图像中的视神经头来评估,采用一个二分类来判断是否患有青光眼疾病。在临床上,医生主要采用杯盘比(CDR)来评估视神经头。在彩色眼底图像中,视盘呈现亮黄色且形状接近椭圆,可分为两个明显的区域:中间明亮区(视杯)和外围区(视神经网膜边缘)。杯盘比CDR是指垂直杯径与垂直盘径的比。通常情况下,CDR值越大,则患青光眼的几率越大。因此,准确的分割出视杯视盘是评估CDR的关键。
医生需阅览大量眼底图像并做出诊断,是一个耗时繁琐的过程,容易受到主观经验和疲劳程度的影响。医生在疲倦时遗漏眼底图像中的某些细节信息的风险会增加,从而造成漏诊、误诊的情况发生,且仅仅依靠医生来进行判断不适用于大规模的青光眼筛查。
随着医学图像数量的快速增长,基于计算机的自动医学图像分割成为现代医学影像学的主要研究方向之一。青光眼筛查计算机辅助诊断系统首先会给出医学图像中可能的病变位置,医生可以根据系统提醒,有针对性的对较大概率病变的组织结构进行更加全面与细致的分析,有助于提高诊断的准确性。因此,青光眼计算机辅助诊断系统有助于降低医生阅片负担、提高诊断准确率以及降低漏诊和误诊的比例。与此同时,眼底图像分割算法是青光眼筛查计算机辅助诊断系统进行青光眼诊断的核心功能。
传统的眼底图像分割算法在复杂场景中的分割效果并不理想,对于对比度较低和图像质量较差的眼底图像无法获得较高分割精度以实现计算机辅助系统做出准确判断。主要是由于传统图像分割方法看待问题和应对的分割场景并不十分全面。随着计算机技术的发展和“大数据时代”的到来,以数据驱动、自动提取强区分度特征的全卷积深度神经网络在眼底图像分割中取得了不错的分割效果,有利于实现青光眼计算机辅助诊断系统的建立和推广到大规模的青光眼筛查中。
现有的医学图像分割方法主要分为两大类:传统的图像分割方法和基于深度学习的图像分割方法。传统的图像分割方法主要包括了基于边缘的图像分割、基于阈值的图像分割、基于区域的图像分割、基于图论的图像分割以及基于主动轮廓模型的图像分割。传统的图像分割方法很受被分割图像的浅层视觉特征的影响,如边缘、条纹、亮度、对比度等。而忽视许多图像内部的深层次特征。此外,传统的方法一般需要利用手工来构造特征从而获得分割结果,这就导致很难为不同的应用程序设计具有代表性的特征和对某一种类型图像效果很好的手工构造特征在另一类型的图像中效果很差,从而缺乏通用的特征构造方法,其泛化性能不高。
随着卷积神经网络(CNN)在图像领域的发展,基于深度学习的自动特征提取算法已经成为了医学图像分割的可行方法。基于深度学习的医学图像分割方法是基于像素分类的学习方法,与传统手工构造特征的像素或超像素分类方法不同,深度学习自动学习特征,克服手工特征的局限性。早期的深度学习方法大多是基于图像块的,它的主要缺点是基于图像块的滑动窗口会导致冗余计算和网络无法学习到全局特征。为了解决这些问题,一种端到端的全卷积神经网络出现了Ronneberger等人提出了用于生物医学图像分割的U型网络(U-Net),它在许多种类的医学图像分割中取得了较高的分割精度,已经成为生物医学图像分割任务中一种流行的神经网络体系结构。对于不同的医学图像分割任务,U-Net已经有了不同程度的变形。Fu等人提出了一个M型网络(M-Net)来用于医学图像中的眼底图像的视杯视盘联合分割。但是U-Net及其改进网络的一个共同的限制是对于语义信息的层次不足,深、浅层次特征融合的不足,导致视杯视盘分割效果不佳。
发明内容
本发明的目的在于:为了解决现有的网络结构对于眼底图像语义信息的层次不足,深浅层次特征融合不足,导致视杯视盘分割效果不理想的问题,本发明提供一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统,能够提高眼底图像视杯视盘分割的精度以得到准确的杯盘比,进而为青光眼自动筛查提供有利辅助。
本发明为了实现上述目的具体采用以下技术方案:
用于辅助青光眼筛查的眼底图像视杯视盘分割方法,包括如下步骤:
S1:采集若干幅眼底图像,对每幅眼底图像进行预处理,分别得到训练图像样本集和验证图像样本集;
S2:利用训练图像样本集对构造的W-Net-Mcon全卷积神经网络进行训练,并且每一训练周期利用验证图像样本集对W-Net-Mcon全卷积神经网络进行评估,当达到预设的训练周期,输出最佳W-Net-Mcon全卷积神经网络;
S3:将待分割眼底图像进行预处理后,输入最佳W-Net-Mcon全卷积神经网络,得到预测目标结果图;
S4:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值作比较得出青光眼初步筛查结果。
进一步的,所述S1中对眼底图像进行预处理,具体为:
S1.1:在每幅眼底图像中对视盘和视杯两个目标结构进行标示,得到对应的目标结果图;
S1.2:利用视盘定位法确定眼底图像中的视盘中心,以视盘中心为截取中心,分别在眼底图像和其对应的目标结果图中截取相同范围的感兴趣区域图像;
S1.3:分别对两感兴趣区域图像进行极坐标变换;
S1.4:由眼底图像截取的感兴趣区域图像与其对应的目标结果图截取的感兴趣区域图像构成一对训练图像样本,由多对训练图像样本构成训练图像样本集;
S1.5:由眼底图像截取的感兴趣区域图像构成验证图像样本集。
进一步的,所述S3中对待分割眼底图像进行预处理,步骤为:
S3.1:利用视盘定位法确定待分割眼底图像的视盘中心,以视盘中心为截取中心,在待分割眼底图像中截取相应的感兴趣区域图像;
S3.2:对S3.1截取的感兴趣区域图像进行极坐标变换。
进一步的,由于眼底图像中,存在一个有效的几何约束,即视杯包含于视盘之中,但是这种包含关系很难在笛卡尔坐标系中体现出来,因此所述S1.3中,对感兴趣区域图像进行极坐标变换,具体是:在极坐标系统下,将视杯和视盘的几何约束转换为空间关系,使得视杯、视盘和背景呈现有序层结构,方便引入其先验知识。具体来说,在分割预测图生成阶段的视杯分割结果中,视杯像素不可能存在于预测标注图像的下方1/2处,因此可直接将其设置为背景部分,同理,在视盘分割的预测标注图像的下方1/3处可以直接将其设置为背景部分。
进一步的,所述W-Net-Mcon全卷积神经网络包括多尺度输入层、W型编解码卷积网络和侧输出层,其中多尺度输入层用于构造图像金字塔输入,实现不同尺度和光学性质的原始语义信息输入,极大丰富语义信息;W型编解码卷积网络用于学习图像中所包含的不同层次特征中的强区分度特征;侧输出层作用早期分类器以生成局部预测输出并实现不同网络深度层次的输出监控,通过侧输出层使得梯度信息反向回传到前层,有效抑制神经网络的梯度消失和有利于网络的训练学习。
进一步的,所述W型编解码卷积网络包括级联的前U-Net网络和后U-Net网络,其中前U-Net网络与多尺度输入层连接,为后U-Net网络提供浅层语义表达,后U-Net网络与侧输出层连接,对前U-Net网络提供的浅层语义表达进行进一步的语义抽象与增强,前U-Net网络和后U-Net网络之间跳跃连接,实现深浅层次特征融合;所述前U-Net网络和后U-Net网络均包括编码路径、解码路径和卷积核,所述编码路径与卷积核执行卷积层产生编码器特征映射,解码路径利用卷积层输出解码器特征图。将解码器特征图输入到侧输出层中,通过分类器结合Sigmoid激活函数生成预测概率图,实现像素级分类,本发明中,输出视杯、视盘和背景三个通道的概率预测图,预测的概率映射对应于在每个像素处具有最大概率的类别。通过两个U-Net网络的级联,可以加深神经网络的深度,从而使得网络能在训练过程中学习到更多深层结构信息和更加抽象的语义信息,再加之网络中的跳跃连接,可以实现网络中同一尺度深、浅不同层次之间的语义信息融合和减少不同语义之间的语义鸿沟,来指导网络提取深层的可分性语义表示。浅层特征可以最大程度保留图像原始的结构信息,而深层特征则包含更多抽象结构信息,两者进行融合是有利于在最后的卷积通道中恢复目标中的空间维数和结构细节,进而提高分割精度。采用这种结构设计,网络可以提取更加丰富的语义特征,并通过跳跃连接,鼓励特征复用,丰富语义信息,实现多层次的特征融合,增强梯度的反向传播,可以缓解梯度消失问题。
进一步的,所述W型编解码卷积网络还包括残差多尺度卷积模块,所述残差多尺度卷积模块与前U-Net网络和后U-Net网络的编码路径和解码路径相结合,用于提取高层次的语义特征映射,在通常情况下,具有大感受野的卷积核可以对大目标提取和产生丰富的抽象特征,而小的感受野卷积核则更适合于小目标和细节的特征提取,因此,所述残差多尺度卷积模块的结构为:输入层分别连接1×1卷积单元、第一3×3卷积单元、第二3×3卷积单元和1×7卷积单元,其中第二3×3卷积单元连接第三3×3卷积单元,1×7卷积单元连接7×1卷积单元,然后1×1卷积单元、第一3×3卷积单元、第三3×3卷积单元和7×1卷积单元的输出连接跳跃连接模块,跳跃连接模块的输出连接第四3×3卷积单元,第四3×3卷积单元的输出与输入层进行残差连接。通过1×1卷积单元、第一3×3卷积单元、第二3×3卷积单元和1×7卷积单元四条卷积通道进行特征映射后,再通过跳跃连接和经过第四3×3卷积单元来进行降维和非线性激励,能够提升网络的表达能力,在编解码路径使用残差多尺度卷积,是由于其可以生成多个不同大小的感受野,并把这些多尺度的特征映射组合起来进行特征融合,尽可能保留图像的空间特征,细化分割结果和边缘信息,提取丰富的特征并高效利用。此外,残差连接结构可以帮助模块更好的学习映射函数,提升网络性能。
进一步的,所述侧输出层包括多标签分类卷积层以及总体损失函数,所述多标签分类卷积层的输入为前U-Net网络的两个输出、后U-Net网络的两个输出以及前U-Net网络和后U-Net网络的四个输出的平均值,每一多标签分类卷积层分别对应有层损失函数,总体损失函数由层损失函数以及对应的权重系数构成。
进一步的,所述层损失函数为Dice损失函数Dloss和Focal loss损失函数Floss的和,计算式为:
Ls=Dloss+Floss (1)
Figure BDA0002348461850000051
Figure BDA0002348461850000052
其中,Ls表示层损失函数,gi表示专家标记的金标准,pi表示分割预测图,ε,α,γ为常值系数,K表示总类别数,N表示侧输出层的数量。
进一步的,所述总体损失函数计算式为:
Figure BDA0002348461850000053
其中,
Figure BDA0002348461850000054
表示第n层的层损失函数,αn表示第n层的权重系数。
进一步的,所述S2中,利用训练图像样本集对构造的W-Net-Mcon全卷积神经网络进行训练,具体为:
S2.1:初始化W-Net-Mcon全卷积神经网络;
S2.2:将训练图像样本集中的训练图像样本输入S2.1中初始化的W-Net-Mcon全卷积神经网络,利用式(1)、式(2)和式(3)计算层损失函数,然后再代入式(4)计算总体损失函数;
S2.3:按照随机梯度递减的方式极小化总体损失函数,然后计算梯度并反向传播来更新W-Net-Mcon全卷积神经网络的网络参数,每一训练周期利用验证图像样本集的验证图像样本对W-Net-Mcon全卷积神经网络进行测试;
S2.4:反复执行S2.2-S2.3,直至达到预设的训练周期,保存训练周期中验证图像样本集总体损失函数最小的网络模型作为最佳W-Net-Mcon全卷积神经网络。
基于上述分割方法,本发明还提供一种用于辅助青光眼筛查的眼底图像视杯视盘分割系统,包括预处理模块、W-Net-Mcon全卷积神经网络和比较输出模块,
预处理模块:对采集的若干幅眼底图像进行预处理,得到训练图像样本集和验证图像样本集;
W-Net-Mcon全卷积神经网络:利用训练图像样本集对W-Net-Mcon全卷积神经网络进行训练,输出最佳W-Net-Mcon全卷积神经网络,利用最佳W-Net-Mcon全卷积神经网络对待分割眼底图像进行分割,得到预测目标结果图;
比较输出模块:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值作比较得出青光眼初步筛查结果。
本发明的有益效果如下:
1、本发明可以有效的多尺寸提取图像语义信息,并将其不同层次的特征进行融合,将全局特征与细节特征相融合,鼓励特征复用,提升了梯度的反向传播,在不增加网络参数的前提下更多的提取出有用特征,从而有效提高了眼底图像视杯视盘的分割精度。
2、本发明的W-Net-Mcon全卷积神经网络的多尺度输入层相较于U-Net加深了网络宽度以提供丰富的原始语义信息,同时相较于M-Net又减少了原始语义信息中的重复、冗余信息;同时不同网络深度的侧输出层实现网络的各层的深度监督,指导网络学习特征信息;通过引入跳跃连接,将同一尺度不同深、浅层次的特征信息融合,有利于减少网络参数和网络梯度反向传播,可避免梯度消失问题。
3、本发明的W型编解码卷积网络还包括残差多尺度卷积模块,残差多尺度卷积具有不同尺度的感受野来提取网络中不同层次的特征,丰富语义信息,同时本发明将不同尺度的特征映射连接起来进行特征融合,再加之跳跃连接构成残差学习进而使得网络更加容易训练、有效抑制梯度消失问题和网络退化问题。
附图说明
图1是本发明具体实施方式的方法流程示意图。
图2是本发明具体实施方式的W-Net-Mcon全卷积神经网络的结构示意图。
图3是本发明具体实施方式的残差多尺度卷积模块的结构示意图。
图4是本发明具体实施方式的各网络分割效果比较图。
具体实施方式
为了本技术领域的人员更好的理解本发明,下面结合附图和以下实施例对本发明作进一步详细描述。
实施例1
如图1和图2所示,本实施例提供一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,包括如下步骤:
S1:采集若干幅眼底图像,对每幅眼底图像进行预处理,分别得到训练图像样本集和验证图像样本集,具体的:
S1.1:在每幅眼底图像中对视盘和视杯两个目标结构进行标示,得到对应的目标结果图;
S1.2:利用视盘定位法确定眼底图像中的视盘中心,以视盘中心为截取中心,分别在眼底图像和其对应的目标结果图中截取相同范围的感兴趣区域图像;
S1.3:分别对两感兴趣区域图像进行极坐标变换;
S1.4:由眼底图像截取的感兴趣区域图像与其对应的目标结果图截取的感兴趣区域图像构成一对训练图像样本,由多对训练图像样本构成训练图像样本集;
S1.5:由眼底图像截取的感兴趣区域图像构成验证图像样本集;
由于眼底图像中,存在一个有效的几何约束,即视杯包含于视盘之中,但是这种包含关系很难在笛卡尔坐标系中体现出来,因此所述S1.3中,对感兴趣区域图像进行极坐标变换,具体是:在极坐标系统下,将视杯和视盘的几何约束转换为空间关系,使得视杯、视盘和背景呈现有序层结构,方便引入其先验知识。具体来说,在分割预测图生成阶段的视杯分割结果中,视杯像素不可能存在于预测标注图像的下方1/2处,因此可直接将其设置为背景部分,同理,在视盘分割的预测标注图像的下方1/3处可以直接将其设置为背景部分;同时极坐标变换还能够平衡杯盘比,在原始的眼底图像中,视杯视盘与背景的像素分布有很大的偏差,即使截取到的感兴趣区域图形中,视杯区域仅占4%左右,这种极不平衡的结构区域极容易造成神经网络在训练过程中的偏差与过拟合,大大影响视杯、视盘的分割精度;极坐标变换是基于视盘中心的图像平坦化,可以通过插值来扩大视杯在图像中的比例。经过极坐标变换的视杯区域比率比感兴趣区域部分高23.4%,能有效提高杯盘比,平衡数据集,可有效防止过拟合和提高分割精度;
S2:利用训练图像样本集对构造的W-Net-Mcon全卷积神经网络进行训练,并且每一训练周期利用验证图像样本集对W-Net-Mcon全卷积神经网络进行评估,当达到预设的训练周期,输出最佳W-Net-Mcon全卷积神经网络;
如图2所示,分割网络即为所述W-Net-Mcon全卷积神经网络,包括多尺度输入层、W型编解码卷积网络和侧输出层,其中多尺度输入层用于构造图像金字塔输入,实现不同尺度和光学性质的原始语义信息输入,极大丰富语义信息;W型编解码卷积网络为网络主体结构,用于学习图像中所包含的不同层次特征中的强区分度特征;侧输出层作用早期分类器以生成局部预测输出并实现不同网络深度层次的输出监控,通过侧输出层使得梯度信息反向回传到前层,有效抑制神经网络的梯度消失和有利于网络的训练学习;
具体的,所述W型编解码卷积网络包括级联的前U-Net网络和后U-Net网络,其中前U-Net网络与多尺度输入层连接,为后U-Net网络提供浅层语义表达,后U-Net网络与侧输出层连接,对前U-Net网络提供的浅层语义表达进行进一步的语义抽象与增强,前U-Net网络和后U-Net网络之间跳跃连接,实现深浅层次特征融合;所述前U-Net网络和后U-Net网络均包括编码路径、解码路径和卷积核,所述编码路径与卷积核执行卷积层产生编码器特征映射,解码路径利用卷积层输出解码器特征图。将解码器特征图输入到侧输出层中,通过分类器结合Sigmoid激活函数生成预测概率图,实现像素级分类,本实施例中,输出视杯、视盘和背景三个通道的概率预测图,预测的概率映射对应于在每个像素处具有最大概率的类别。通过两个U-Net网络的级联,可以加深神经网络的深度,从而使得网络能在训练过程中学习到更多深层结构信息和更加抽象的语义信息,再加之网络中的跳跃连接,可以实现网络中同一尺度深、浅不同层次之间的语义信息融合和减少不同语义之间的语义鸿沟,来指导网络提取深层的可分性语义表示。浅层特征可以最大程度保留图像原始的结构信息,而深层特征则包含更多抽象结构信息,两者进行融合是有利于在最后的卷积通道中恢复目标中的空间维数和结构细节,进而提高分割精度。采用这种结构设计,网络可以提取更加丰富的语义特征,并通过跳跃连接,鼓励特征复用,丰富语义信息,实现多层次的特征融合,增强梯度的反向传播,可以缓解梯度消失问题;
同时,本实施例的W型编解码卷积网络还包括如图3所示的残差多尺度卷积模块,所述残差多尺度卷积模块与前U-Net网络和后U-Net网络的编码路径和解码路径相结合,用于提取高层次的语义特征映射,在通常情况下,具有大感受野的卷积核可以对大目标提取和产生丰富的抽象特征,而小的感受野卷积核则更适合于小目标和细节的特征提取,因此,所述残差多尺度卷积模块的结构为:输入层分别连接1×1卷积单元、第一3×3卷积单元、第二3×3卷积单元和1×7卷积单元,其中第二3×3卷积单元连接第三3×3卷积单元,1×7卷积单元连接7×1卷积单元,然后1×1卷积单元、第一3×3卷积单元、第三3×3卷积单元和7×1卷积单元的输出连接跳跃连接模块,跳跃连接模块的输出连接第四3×3卷积单元,第四3×3卷积单元的输出与输入层进行残差连接。通过1×1卷积单元、第一3×3卷积单元、第二3×3卷积单元和1×7卷积单元四条卷积通道进行特征映射后,再通过跳跃连接和经过第四3×3卷积单元来进行降维和非线性激励,能够提升网络的表达能力,在编解码路径使用残差多尺度卷积,是由于其可以生成多个不同大小的感受野,并把这些多尺度的特征映射组合起来进行特征融合,尽可能保留图像的空间特征,细化分割结果和边缘信息,提取丰富的特征并高效利用。此外,残差连接结构可以帮助模块更好的学习映射函数,提升网络性能;
所述侧输出层包括多标签分类卷积层以及总体损失函数,所述多标签分类卷积层的输入为前U-Net网络的两个输出、后U-Net网络的两个输出以及前U-Net网络和后U-Net网络的四个输出的平均值,如图2所示,前U-Net网络的两个输出为第一层和第三层,后U-Net网络的两个输出为第二层和第四层,每一多标签分类卷积层分别对应有层损失函数,总体损失函数由层损失函数以及对应的权重系数构成,具体的:
所述层损失函数为Dice损失函数Dloss和Focal loss损失函数Floss的和,计算式为:
Ls=Dloss+Floss (1)
Figure BDA0002348461850000081
Figure BDA0002348461850000091
其中,Ls表示层损失函数,gi表示专家标记的金标准,pi表示分割预测图,K表示总类别数,N表示侧输出层的数量,ε,α,γ为常值系数,本实施例中设置ε=0.9,α=0.5,γ=2;
所述总体损失函数计算式为:
Figure BDA0002348461850000092
其中,
Figure BDA0002348461850000093
表示第n层的层损失函数,αn表示第n层的权重系数;
利用训练图像样本集对构造的W-Net-Mcon全卷积神经网络进行训练,具体为:
S2.1:初始化W-Net-Mcon全卷积神经网络;
S2.2:将训练图像样本集中的训练图像样本输入S2.1中初始化的W-Net-Mcon全卷积神经网络,利用式(1)、式(2)和式(3)计算层损失函数,然后再代入式(4)计算总体损失函数;
S2.3:按照随机梯度递减的方式极小化总体损失函数,然后计算梯度并反向传播来更新W-Net-Mcon全卷积神经网络的网络参数,每一训练周期利用验证图像样本集的验证图像样本对W-Net-Mcon全卷积神经网络进行测试;
S2.4:反复执行S2.2-S2.3,直至达到预设的训练周期,保存训练周期中验证图像样本集总体损失函数最小的网络模型即训练精度最好的网络模型作为最佳W-Net-Mcon全卷积神经网络;
本实施例中,训练阶段W-Net-Mcon全卷积神经网络输出的是优化参数的网络模型,测试阶段W-Net-Mcon全卷积神经网络输出的是分割预测图;
S3:然后将待分割眼底图像进行预处理后,输入最佳W-Net-Mcon全卷积神经网络,得到对应的分割预测图即预测目标结果图;
对待分割眼底图像进行预处理的步骤与S1中的预处理步骤相似,具体是:
S3.1:利用视盘定位法确定待分割眼底图像的视盘中心,以视盘中心为截取中心,在待分割眼底图像中截取相应的感兴趣区域图像;
S3.2:对S3.1截取的感兴趣区域图像进行极坐标变换;
S4:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值作比较得出青光眼初步筛查结果,根据医学常识,一般来讲,杯盘比大于0.65,就可能被认定为患有青光眼,因此本实施例中将预设的阈值设定为0.65。
基于上述分割方法,本实施例还提供一种用于辅助青光眼筛查的眼底图像视杯视盘分割系统,包括预处理模块、W-Net-Mcon全卷积神经网络和比较输出模块,
预处理模块:对采集的若干幅眼底图像进行预处理,得到训练图像样本集和验证图像样本集;
W-Net-Mcon全卷积神经网络:利用训练图像样本集对W-Net-Mcon全卷积神经网络进行训练,输出最佳W-Net-Mcon全卷积神经网络,利用最佳W-Net-Mcon全卷积神经网络对待分割眼底图像进行分割,得到预测目标结果图;
比较输出模块:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值0.65作比较得出青光眼初步筛查结果。
为了验证本实施例对于医学图像分割的优越性能,我们通过一组彩色眼底图像进行了相关实验,进行视杯视盘结构的分割,以计算杯盘比来进行青光眼筛查,视杯视盘标注区域由6位临床专家进行标记;为了验证分割预测图与金标准的相似程度,引入如下几个评价标准来进行预测分割的优劣,评价标准分别为精确度(PA)、平均精确度(MA)、平均交并比(MIoU)、加权交并比(FWIoU),以及重叠误差(OE),其中:
Figure BDA0002348461850000101
Figure BDA0002348461850000102
Figure BDA0002348461850000103
Figure BDA0002348461850000104
Figure BDA0002348461850000105
其中,ncl表示类别数目,t=∑iti表示所有像素的数目,ti=∑inij表示属于第i类的像素数目;nji表示实际类别为第i类却错分为第j类的像素数目。
本实施例与当前最先进的方法进行了对比,包括了U-Net、M-Net以及基于它们的一些改进模型,为了验证所提出的残差多尺度卷积模块相较于标准卷积模块的优越性能,使用U-Net,M-Net作为主体框架,将其中的普通卷积单元替换为残差多尺度卷积单元,分别称之为U-Net-Mcon和M-Net-Mcon,再与本实施例所提出的W-Net为主体框架的模型分别以普通卷积单元(W-Net)和残差多尺度卷积单元(W-Net-Mcon)进行比较,如图4所示为各网络的分割效果比较图,其中(a)为眼底图像原图,(b)为标签,(c)为U-Net分割结果,(d)为M-Net分割结果,(e)为U-Net-Mcon分割结果,(f)为M-Net-Mcon分割结果,(g)为W-Net分割结果,(h)为W-Net-Mcon分割结果。通过定量分析ACC、MA、MIoU、FWIoU以及OE等五个评价指标,分别评估提出的W-Net-Mcon全卷积神经网络在视杯、视盘的分割性能,评价结果如表一所示:
表一
Figure BDA0002348461850000111
由表一可以看出,U-Net、M-Net和W-Net进行比较,W-Net各项指标均高于另外两组数据,尤其是在视盘OD和视杯OC的OE指标表现优异,这表明本实施例提出的W-Net网络结构表现优于其他网络。主要原因有三点:(1)W-Net的多尺度输入层相较于U-Net加深了网络宽度以提供丰富的原始语义信息,同时相较于M-Net又减少了原始语义信息中的重复、冗余信息;(2)W-Net中不同网络深度的侧输出层实现网络的各层的深度监督,指导网络学习特征信息;(3)引入跳跃连接,将同一尺度不同深、浅层次的特征信息融合,有利于减少网络参数和网络梯度反向传播,可避免梯度消失问题;
将U-Net、U-Net-Mcon,M-Net、M-Net-Mcon和W-Net、W-Net-Mcon两两分别对比。在U-Net框架中,除了OD中MA指标略低,U-Net-Mcon的各项指标均高于原始U-Net;在M-Net中,除OD中ACC指标略低,M-Net-Mcon的其他指标均比M-Net好;对于W-Net结构,使用残差多尺度卷积模块的W-Net-Mcon所有指标均比W-Net的结果好。通过实验结果的比较,在相同的网络框架下,使用带残差多尺度卷积模块的网络性能明显优于普通卷积单元,这是因为残差多尺度卷积具有不同尺度的感受野来提取网络中不同层次的特征,丰富的语义信息。同时,将不同尺度的特征映射连接起来进行特征融合,再加之外面的跳跃连接构成残差学习进而使得网络更加容易训练、有效抑制梯度消失问题和网络退化问题,故W-Net虽加深了网络,但其性能并未退化,使得分割效果有所提高;
最后,将残差多尺度卷积模块和W-Net深度神经网络框架进行结合,即得到W-Net-Mcon全卷积神经网络。该组相较于其他组实验,在所有评价指标均最好。这是因为W-Net通过了易于实现的级联方式,拓展了网络的深度使得网络提取到更深层次的语义信息。同时为了解决网络加深可能导致的网络退化和梯度消失问题,引入了跳跃连接和深度监督。一方面,可以使网络在梯度反向传播时更容易到达浅层的神经层。另一方面,可以鼓励特征复用,加强特征传播,实现不同深浅层次的特征融合,进而能抑制梯度消失并减少训练参数的数量。
经过上述的分析,我们可以得出W-Net-Mcon全卷积神经网络的结构是明显优于原始的U-Net和M-Net的,重叠误差OE在OD、OC分别降至0.0665和0.1780,实现了最精准的分割效果。
以上所述,仅为本发明的较佳实施例,并不用以限制本发明,本发明的专利保护范围以权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。

Claims (7)

1.用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,包括如下步骤:
S1:采集若干幅眼底图像,对每幅眼底图像进行预处理,分别得到训练图像样本集和验证图像样本集;
S2:利用训练图像样本集对构造的W-Net-Mcon全卷积神经网络进行训练,并且每一训练周期利用验证图像样本集对W-Net-Mcon全卷积神经网络进行评估,当达到预设的训练周期,输出最佳W-Net-Mcon全卷积神经网络;
S3:将待分割眼底图像进行预处理后,输入最佳W-Net-Mcon全卷积神经网络,得到预测目标结果图;
S4:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值作比较得出青光眼初步筛查结果;
所述W-Net-Mcon全卷积神经网络包括多尺度输入层、W型编解码卷积网络和侧输出层,其中多尺度输入层用于构造图像金字塔输入以丰富原始语义信息;W型编解码卷积网络用于学习图像中所包含的不同层次特征中的强区分度特征中的强区分度特征;侧输出层作为早期分类器以生成局部预测输出并实现不同网络深度层次的输出监控;
所述W型编解码卷积网络包括级联的前U-Net网络和后U-Net网络,其中前U-Net网络与多尺度输入层连接,为后U-Net网络提供浅层语义表达,后U-Net网络与侧输出层连接,对前U-Net网络提供的浅层语义表达进行语义抽象与增强,前U-Net网络和后U-Net网络之间跳跃连接,实现深浅层次特征融合;所述前U-Net网络和后U-Net网络均包括编码路径、解码路径和卷积核,所述编码路径与卷积核执行卷积层产生编码器特征映射,解码路径利用卷积层输出解码器特征图;
所述W型编解码卷积网络还包括残差多尺度卷积模块,所述残差多尺度卷积模块与前U-Net网络和后U-Net网络的编码路径和解码路径相结合,用于提取高层次的语义特征映射,所述残差多尺度卷积模块的结构为:输入层分别连接1×1卷积单元、第一3×3卷积单元、第二3×3卷积单元和1×7卷积单元,其中第二3×3卷积单元连接第三3×3卷积单元,1×7卷积单元连接7×1卷积单元,然后1×1卷积单元、第一3×3卷积单元、第三3×3卷积单元和7×1卷积单元的输出连接跳跃连接模块,跳跃连接模块的输出连接第四3×3卷积单元,第四3×3卷积单元的输出与输入层进行残差连接。
2.根据权利要求1所述的一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,所述S1中对眼底图像进行预处理,具体为:
S1.1:在每幅眼底图像中对视盘和视杯两个目标结构进行标示,得到对应的目标结果图;
S1.2:利用视盘定位法确定眼底图像中的视盘中心,以视盘中心为截取中心,分别在眼底图像和其对应的目标结果图中截取相同范围的感兴趣区域图像;
S1.3:分别对两感兴趣区域图像进行极坐标变换;
S1.4:由眼底图像截取的感兴趣区域图像与其对应的目标结果图截取的感兴趣区域图像构成一对训练图像样本,由多对训练图像样本构成训练图像样本集;
S1.5:由眼底图像截取的感兴趣区域图像构成验证图像样本集。
3.根据权利要求2所述的一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,所述S1.3中,对感兴趣区域图像进行极坐标变换,具体是:在极坐标系统下,将视杯和视盘的几何约束转换为空间关系,使得视杯、视盘和背景呈现有序层结构。
4.根据权利要求1所述的一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,所述侧输出层包括多标签分类卷积层以及总体损失函数,所述多标签分类卷积层的输入为前U-Net网络的两个输出、后U-Net网络的两个输出以及前U-Net网络和后U-Net网络的四个输出的平均值,每一多标签分类卷积层分别对应有层损失函数,总体损失函数由层损失函数以及对应的权重系数构成。
5.根据权利要求4所述的一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,所述层损失函数为Dice损失函数
Figure 40631DEST_PATH_IMAGE002
和Focal loss损失函数
Figure 957771DEST_PATH_IMAGE004
的和,计算式为:
Figure 737508DEST_PATH_IMAGE006
(1)
Figure 132717DEST_PATH_IMAGE008
(2)
Figure 884773DEST_PATH_IMAGE010
(3)
其中,
Figure 707235DEST_PATH_IMAGE012
表示层损失函数,
Figure 974268DEST_PATH_IMAGE014
表示专家标记的金标准,
Figure 173169DEST_PATH_IMAGE016
表示分割预测图,
Figure 779730DEST_PATH_IMAGE018
为常值系数,
Figure 773094DEST_PATH_IMAGE020
表示总类别数,
Figure 527424DEST_PATH_IMAGE022
表示侧输出层的数量。
6.根据权利要求5所述的一种用于辅助青光眼筛查的眼底图像视杯视盘分割方法,其特征在于,所述总体损失函数计算式为:
Figure 264436DEST_PATH_IMAGE024
(4)
其中,
Figure 224039DEST_PATH_IMAGE026
表示第
Figure 653883DEST_PATH_IMAGE028
层的层损失函数,
Figure 895509DEST_PATH_IMAGE030
表示第
Figure 170632DEST_PATH_IMAGE028
层的权重系数。
7.一种如权利要求1-6中任一项所述的用于辅助青光眼筛查的眼底图像视杯视盘分割方法的分割系统,其特征在于:包括预处理模块、W-Net-Mcon全卷积神经网络和比较输出模块,
预处理模块:对采集的若干幅眼底图像进行预处理,得到训练图像样本集和验证图像样本集;
W-Net-Mcon全卷积神经网络:利用训练图像样本集对W-Net-Mcon全卷积神经网络进行训练,输出最佳W-Net-Mcon全卷积神经网络,利用最佳W-Net-Mcon全卷积神经网络对预处理后的待分割眼底图像进行分割,得到预测目标结果图;
比较输出模块:利用极坐标反变换和椭圆拟合对预测目标结果图进行处理,得到最终分割结果,基于最终分割结果计算得到杯盘比,将杯盘比与预设的阈值作比较得出青光眼初步筛查结果。
CN201911405334.6A 2019-12-30 2019-12-30 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统 Active CN110992382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911405334.6A CN110992382B (zh) 2019-12-30 2019-12-30 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911405334.6A CN110992382B (zh) 2019-12-30 2019-12-30 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统

Publications (2)

Publication Number Publication Date
CN110992382A CN110992382A (zh) 2020-04-10
CN110992382B true CN110992382B (zh) 2022-07-15

Family

ID=70079419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911405334.6A Active CN110992382B (zh) 2019-12-30 2019-12-30 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统

Country Status (1)

Country Link
CN (1) CN110992382B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667486B (zh) * 2020-04-29 2023-11-17 杭州深睿博联科技有限公司 一种基于深度学习的多模态融合胰腺分割方法和系统
CN111785354A (zh) * 2020-06-03 2020-10-16 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 一种面向慢性病辅助诊断的眼科ai生物特征参数提取算法
CN111986099B (zh) * 2020-06-30 2022-05-13 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN111863241B (zh) * 2020-07-10 2023-06-30 北京化工大学 一种基于集成深度学习的眼底照分类系统
CN111985409B (zh) * 2020-08-21 2021-03-16 四川省人工智能研究院(宜宾) 一种用于实时街道场景分割的方法
CN112070772B (zh) * 2020-08-27 2024-01-12 闽江学院 基于UNet++和ResNet的血液白细胞图像分割方法
CN111862187B (zh) * 2020-09-21 2021-01-01 平安科技(深圳)有限公司 基于神经网络的杯盘比确定方法、装置、设备及存储介质
CN112132265B (zh) * 2020-09-22 2024-05-07 平安科技(深圳)有限公司 模型训练方法、杯盘比确定方法、装置、设备及存储介质
TWI756852B (zh) * 2020-09-29 2022-03-01 臺北榮民總醫院 跨院所眼底影像資料深度學習交流彙整裝置及交流彙整方法
CN111968137A (zh) * 2020-10-22 2020-11-20 平安科技(深圳)有限公司 头部ct图像分割方法、装置、电子设备及存储介质
CN111986202B (zh) * 2020-10-26 2021-02-05 平安科技(深圳)有限公司 青光眼辅助诊断装置、方法及存储介质
CN112288720A (zh) * 2020-10-29 2021-01-29 苏州体素信息科技有限公司 一种基于深度学习的彩色眼底图像青光眼筛查方法及系统
TWI746287B (zh) * 2020-11-26 2021-11-11 宏碁股份有限公司 影像處理系統及影像處理方法
CN112541923B (zh) * 2020-12-03 2022-04-08 南开大学 一种基于眼底图数据集迁移学习的视杯视盘分割方法
CN112598650A (zh) * 2020-12-24 2021-04-02 苏州大学 眼底医学影像中视杯视盘的联合分割方法
CN112712531B (zh) * 2020-12-29 2022-05-31 中国科学院宁波材料技术与工程研究所慈溪生物医学工程研究所 一种基于卷积循环神经网络的as-oct图像的房角分类方法
CN112802137B (zh) * 2021-01-28 2022-06-21 四川大学 一种基于卷积自编码器的颜色恒常性方法
CN112869705A (zh) * 2021-02-05 2021-06-01 佛山科学技术学院 一种基于U-Net神经网络的眼底视盘分割方法
CN112967294A (zh) * 2021-03-11 2021-06-15 西安智诊智能科技有限公司 一种肝脏ct图像分割方法及系统
CN113052558B (zh) * 2021-03-30 2023-05-30 浙江畅尔智能装备股份有限公司 输电铁塔零件加工自动计件系统及其自动计件方法
CN113591608A (zh) * 2021-07-12 2021-11-02 浙江大学 一种基于深度学习的高分辨率遥感影像不透水面提取方法
CN113781410B (zh) * 2021-08-25 2023-10-13 南京邮电大学 一种基于MEDU-Net+网络的医学图像分割方法和系统
CN114648806A (zh) * 2022-05-19 2022-06-21 山东科技大学 一种多机制自适应的眼底图像分割方法
CN115205300B (zh) * 2022-09-19 2022-12-09 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN115601751B (zh) * 2022-10-31 2023-04-28 中国人民解放军国防科技大学 一种基于领域泛化的眼底图像语义分割方法
CN116385725B (zh) * 2023-06-02 2023-09-08 杭州聚秀科技有限公司 眼底图像视盘视杯分割方法及装置、电子设备
CN116934747B (zh) * 2023-09-15 2023-11-28 江西师范大学 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166095B (zh) * 2018-07-11 2021-06-25 广东技术师范学院 一种基于生成对抗机制的眼底影像杯盘分割方法
CN109615632B (zh) * 2018-11-09 2023-07-21 广东技术师范学院 一种基于半监督条件生成式对抗网络的眼底图视盘和视杯分割方法
CN109684981B (zh) * 2018-12-19 2020-10-09 上海鹰瞳医疗科技有限公司 青光眼图像识别方法、设备和筛查系统

Also Published As

Publication number Publication date
CN110992382A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110992382B (zh) 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
WO2021184817A1 (zh) 一种医学图像中肝脏及其病灶分割的方法
CN110428432B (zh) 结肠腺体图像自动分割的深度神经网络算法
CN110930418B (zh) 融合W-net和条件生成对抗网络的视网膜血管分割方法
CN110276356A (zh) 基于r-cnn的眼底图像微动脉瘤识别方法
CN110930416A (zh) 一种基于u型网络的mri图像前列腺分割方法
CN112529839B (zh) 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
CN110490242B (zh) 图像分类网络的训练方法、眼底图像分类方法及相关设备
CN115018824B (zh) 一种基于CNN和Transformer融合的结肠镜息肉图像分割方法
CN113298830B (zh) 一种基于自监督的急性颅内ich区域图像分割方法
Xu et al. Dual-channel asymmetric convolutional neural network for an efficient retinal blood vessel segmentation in eye fundus images
CN112288749A (zh) 一种基于深度迭代融合深度学习模型的颅骨图像分割方法
Yang et al. RADCU-Net: Residual attention and dual-supervision cascaded U-Net for retinal blood vessel segmentation
CN113643297B (zh) 一种基于神经网络的计算机辅助牙龄分析方法
Zheng et al. Deep learning-based fetal corpus callosum segmentation in ultrasonic images
Kong et al. Data enhancement based on M2-Unet for liver segmentation in Computed Tomography
CN117036288A (zh) 一种面向全切片病理图像的肿瘤亚型诊断方法
Kanse et al. HG-SVNN: harmonic genetic-based support vector neural network classifier for the glaucoma detection
CN115187982B (zh) 藻类检测方法、装置及终端设备
CN116228731A (zh) 一种多对比学习冠状动脉高危斑块检测方法、系统及终端
Zheng et al. Image segmentation of intestinal polyps using attention mechanism based on convolutional neural network
CN115409857A (zh) 一种基于深度学习的三维脑积水ct图像分割方法
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
Li et al. Glaucoma detection: Joint segmentation and classification framework via deep ensemble network
CN114565617A (zh) 基于剪枝U-Net++的乳腺肿块图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant