CN111047613B - 基于分支注意力及多模型融合的眼底血管分割方法 - Google Patents

基于分支注意力及多模型融合的眼底血管分割方法 Download PDF

Info

Publication number
CN111047613B
CN111047613B CN201911394768.0A CN201911394768A CN111047613B CN 111047613 B CN111047613 B CN 111047613B CN 201911394768 A CN201911394768 A CN 201911394768A CN 111047613 B CN111047613 B CN 111047613B
Authority
CN
China
Prior art keywords
segmentation
pixel
training
blood vessel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911394768.0A
Other languages
English (en)
Other versions
CN111047613A (zh
Inventor
杜强
陈相儒
郭雨晨
聂方兴
张兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xbentury Network Technology Co ltd
Original Assignee
Beijing Xbentury Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xbentury Network Technology Co ltd filed Critical Beijing Xbentury Network Technology Co ltd
Priority to CN201911394768.0A priority Critical patent/CN111047613B/zh
Publication of CN111047613A publication Critical patent/CN111047613A/zh
Application granted granted Critical
Publication of CN111047613B publication Critical patent/CN111047613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明涉及一种基于卷积神经网络多维度融合的CT图像器官分割方法。该方法包括:S1:利用注意力损失函数、根据分割标签的联通程度通过标签计算得到分割标签在图像不同位置处的权重、训练数据和标签数据来训练Unet++模型;S2:利用训练数据、标签通过二元交叉熵损失函数训练Unet++模型;S3:利用所得到的两个训练后的Unet++模型和待分割的眼底图像数据分别得到两个不同的分割结果;以及S4:将所述两个不同的分割结果进行融合。本发明解决了在眼底图像血管分割问题中,一些细小的血管无法被很好分割的问题,使得提高了分割的准确性。

Description

基于分支注意力及多模型融合的眼底血管分割方法
技术领域
本发明涉及医疗图像处理技术领域,具体地涉及一种基于分支注意力及多模型融合的眼底血管分割方法。
背景技术
目前,图像前背景分割技术在诸多现实场景中有着广泛的应用,如何构建准确、高效的图像前背景分割模型是图像分类技术中的最重要的一步。现有的分割方法主要是基于有监督学习,即先由人工收集大量的目标类别的有标注的训练数据,再用这些训练数据为目标类别构建分割模型。
眼底图像中的视网膜血管分割和视网膜血管形态特征的描述,例如长度,宽度,曲折度,分支模式和角度,可用于诊断,筛查,治疗和评估各种心血管和眼科疾病,例如糖尿病,高血压,动脉硬化和脉络膜新生血管形成。
脉管系统的自动检测和分析可以帮助实施糖尿病性视网膜病变的筛查程序,可以帮助研究血管曲折和高血压性视网膜病变之间的关系,与高血压的诊断有关的血管直径测量以及计算机辅助激光手术。此外,发现视网膜血管树对于每个人来说都是唯一的,并且可以用于生物识别。
视网膜脉管系统结构牵涉重要信息,并帮助眼科医生检测和诊断各种视网膜病理学,例如早产儿视网膜病变,糖尿病性视网膜病变,青光眼,高血压和与年龄相关的黄斑变性(AMD)失明的原因。视网膜血管的分割对于视网膜疾病的诊断辅助,治疗和手术计划特别重要。血管形态的变化(例如形状,曲折度,分支模式和宽度)可对许多视网膜疾病进行准确的早期检测。
在过去的二十年中,研究人员已经进行了大量的研究来从视网膜眼底图像中分割血管,并取得了一定的成果,这些方法在实现分割精度方面与训练后的人类标注人员的分割结果相当。尽管如此,由于血管结构的复杂性质带来的各种挑战的存在,原来的方法仍然有改进的余地,这些挑战包括存在异常时的分割,细血管结构的分割以及分叉和交叉区域附近的分割。
目前基于深度学习的分割方法主要是基于U-NET的分割方法及其改进方案,尽管已经提出了许多基于深度学习的方法,但是现有方法往往会错过精细的血管结构或在末端分支处出现误报。Mosinska等人发现像素级损失不适合视网膜血管分割,因为它们无法在最终预测中反映错误的拓扑影响,于是他们发明了一种新的损失函数,也就是为交叉熵损失增加了一个系数,根据聚焦像素和最近像素之间的欧式距离来设计一种估计连通性的方法,但由于其中使用的VGG网络特征图并非十分的理想,也有误差,因此效果并不能达到理想。最近由于生成对抗神经网络思想和效果都较好,Son Jaemin等人使用生成对抗神经网络生成视网膜血管分割图,但由于训练数据首先,生成器比判别器难训练,也较难达到很好地训练效果。目前也有基于重要性采样的方法和增加注意力的方式让训练过程中对有断点的预测结果给予惩罚,达到对断点区域的注意力,但是由于重要性采样的注意力方式最终是经验近似值,无法精确地反应更加广泛的数据分布,因此在效果上可能有一定差距。
发明内容
本发明所要解决的技术问题是提供一种基于卷积神经网络多模型融合的CT图像器官分割方法。本发明解决了在眼底图像血管分割问题中,一些细小的血管无法被很好分割的问题,使得在眼底细小血管较多的情况下,设计分割模型和注意力损失函数,从而保证在分割过程中,眼底血管分割模型能够注意到细小血管部分,提高了分割准确率。
通过本发明可以实现的技术目的不限于上文已经特别描述的内容,并且本领域技术人员将从下面的详细描述中更加清楚地理解本文中未描述的其他技术目的。
本发明解决上述技术问题的技术方案如下:
根据本公开的一方面,本发明提供一种分支注意力及多模型融合的眼底血管分割方法,所述方法包括:利用注意力损失函数、通过标签计算得到的权重、训练数据和标签数据来训练Unet++模型;利用训练数据、标签和二元交叉熵损失函数训练Unet++模型;利用所得到的两个训练后的Unet++模型和待分割的眼底图像数据分别得到两个不同的分割结果;以及将所述两个不同的分割结果进行融合。
可选地,在如上所述的方法中,对于眼底血管分割图像,为了更好地让图像中血管像素与其他的像素对比度更高,需要使用CLAHE将图像进行增强预处理,同时在训练时,需要对眼底图像进行旋转和随机裁剪操作,用于对训练数据的扩充。
可选地,在如上所述的方法中,为了提高神经网络对眼底血管分支以及其连通区域的分割准确性,需要在训练过程中给不同的像素的损失值以不同的权重。
可选地,在如上所述的方法中,对于每一个像素p,以其为中心构建一个大小
Figure DEST_PATH_IMAGE001
的滤波器,通过该滤波器计算所述像素p的连通程度。
可选地,在如上所述的方法中,首先,选取所述滤波器左上角的像素作为遍历起始点,记录其像素值,然后控制指针逐步绕着所述滤波器边缘移动,设置记录变色次数的整数,其初始值为0,在移动过程中,如果当前像素值与前一个像素值不相同,则将该整数加1然后继续移动,否则不加1并继续移动,直到移动到初始位置为止,其中该整数代表了该像素周围具有的连通分支的数量,分支越多越代表该像素处于血管分支位置,然后计算当前像素的密度权重,最后得到每个像素的最终权重。
可选地,在如上所述的方法中,通过二元交叉熵损失函数训练Unet++模型采用四次降采样和四次上采样的形式进行训练。
可选地,在如上所述的方法中,训练后的Unet++模型使用边缘微调训练策略来对分割网络进行进一步优化。
可选地,在如上所述的方法中,在得到训练后的两个模型后,利用两个模型对测试集分别生成不同的血管分割结果,其中该结果为图像每一个像素是否为血管的概率。
可选地,在如上所述的方法中,以将所述两个不同的分割结果求平均的方式对于所述两个不同的分割结果进行融合。
上述技术方案仅为本发明实施例的一些部分,本领域技术人员从以下本发明的详细描述中可以导出和理解包含了本发明的技术特征的各种实施例。
从上述的技术方案中可以看出,本发明的创新之处在于设计出连通性注意力损失函数以及结果融合的方式得到分割最终的结果,通过不同的损失函数所注意的地方不同的特点,将神经网络的分割重点进行划分,让不同的网络分别负责不同重点分割区域,提高分割效果,从实验的结果来看,本发明所提出的基于连通性注意力的损失函数和多分割模型分割结果融合方法具有分割精度高、适用范围广等优点,具有较强的实际应用前景。
本领域技术人员将会理解,通过本发明可以实现的效果不限于上文已经具体描述的内容,并且从以下详细说明中将更清楚地理解本发明的其他优点。
附图说明
被包括以提供对本发明的进一步理解的附图示出本发明的实施例,并且与说明书一起用于解释本发明的原理。
图1为本发明实施例提供的一种基于分支注意力及多模型融合的眼底血管分割方法的示意图。
图2为本发明实施例提供的一种基于分支注意力及多模型融合的眼底血管分割方法的逐像素权重算法计算结果的可视化图。
图3为本发明实施例提供的一种基于分支注意力及多模型融合的眼底血管分割方法的边缘分割网络结构的示意图。
具体实施方式
现在将详细参考本发明的示例性实施例,其示例在附图中示出。下面将参考附图给出的详细描述旨在解释本发明的示例性实施例,而不是示出可以根据本发明实现的唯一实施例。以下详细描述包括具体细节以便提供对本发明的透彻理解。然而,对于本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下实践本发明。
在一些情况下,已知的结构和设备被省略或以框图形式示出,集中于结构和设备的重要特征,以免模糊本发明的概念。在整个说明书中将使用相同的附图标记来表示相同或相似的部分。
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
在本发明的描述中,需要理解的是,术语 “上”、“下”、“中心”、“内”、“外”、“顶”、“底”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
图1示出了本发明实施例提供的一种基于分支注意力及多模型融合的眼底血管分割方法的示意图。其具体实施方式如下:
1眼底图像增强
对于眼底血管分割图像,为了更好地让图像中血管像素与其他的像素对比度更高,需要将图像进行增强预处理,在本发明中使用CLAHE进行预处理,同时在训练时,需要对眼底图像进行旋转,随机裁剪等操作,用于对训练数据的扩充。具体操作如下,首先,记眼底图像为I,记旋转操作为
Figure 683150DEST_PATH_IMAGE002
,记范围为[
Figure DEST_PATH_IMAGE003
的随机数为
Figure 331300DEST_PATH_IMAGE004
,CLAHE操作为
Figure DEST_PATH_IMAGE005
,I为一张眼底图像,随机裁剪为
Figure 544106DEST_PATH_IMAGE006
它表示对图像I进行大小为range的随机裁剪。那么用于模型训练的训练图像可以表示为
Figure DEST_PATH_IMAGE007
,用于模型测试的测试图像可以表示为
Figure 390840DEST_PATH_IMAGE008
同时,训练的数据和标签的裁剪和旋转方式务必要一致,因此标签也需要进行相同角度的旋转和相同范围的裁剪。本发明在训练的过程中,这样的增强方式能够保证增强的过程中大概率不重复的取采样到不同的区域,但由于本发明旋转所用的方式为三次样条插值法,会导致值为
Figure DEST_PATH_IMAGE009
的像素值会轻微的改变,即可能出现小于1和大于0的情况,因此不应该使用向下或向上取整的方式,来将插值旋转后的像素重新分配到
Figure 929268DEST_PATH_IMAGE009
的取值空间,因此本发明中,被旋转后的图像将做一次取值变换,变换函数为
Figure 392611DEST_PATH_IMAGE010
2计算连通性注意力的像素权重
为了提高神经网络对眼底血管分支以及其连通区域的分割准确性,需要使神经网络对这一部分区域有较多的注意力,因此需要在训练过程中给不同的像素的损失值以不同的权重,如何构建这样的一个权重是本发明解决的一个重要问题。具体来说,对于每一个像素p,以其为中心构建一个大小
Figure 937337DEST_PATH_IMAGE001
的滤波器,通过该滤波器计算这一个像素的连通程度,其计算过程如下,首先,选取滤波器左上角的像素作为遍历起始点,记录其像素值(0或255),然后控制指针逐步绕着滤波器边缘移动,设置一个记录变色次数的整数
Figure DEST_PATH_IMAGE011
,并记录一个,其初始为0,在移动过程中,若当前像素值与前一个像素值不相同,则将
Figure 638577DEST_PATH_IMAGE011
加1,继续移动,否侧不加1并继续移动,直到移动到初始位置为止。其中
Figure 144645DEST_PATH_IMAGE011
则代表了这个像素周围会有多少个连通分支,分支越多越能代表改像素处于血管分支位置,模型需对其有一定的注意力。得到Difference后,需计算当前的密度权重,通过公式
Figure 564125DEST_PATH_IMAGE012
得到像素的密度权重,其中
Figure DEST_PATH_IMAGE013
Figure 853155DEST_PATH_IMAGE014
为滤波器的边长。最后得到每一个像素的最终权重
Figure DEST_PATH_IMAGE015
。在本专利中,r的大小为5,由于像素密度和连通数目的存在,最终每个像素会在分支和细小血管上有较大的权重,在大血管周围权重较小,最后得到的权重图的可以可视化,如图2所示,其中,灰度值越高的地方代表损失注意力权重越大,可以看到权重较大的像素主要集中在分支处。
3使用两种损失函数训练Unet++模型
本发明的第二个创新点在于使用两种不同的损失函数训练Unet++模型,并将两个模型的测试结果进行融合,这样做的前提是基于两个模型分别会对不同的血管有着不同的分割效果,利用带分支注意力权重的损失函数训练出来的模型对分支的分割效果更好,利用二元交叉熵训练得到的模型对主干的分割效果更好,基于这样的假设,本发明应用Unet++模型进行不同损失函数的训练得到不同注意力的模型,其具体步骤如下,首先通过二元交叉熵损失函数训练Unet++模型,本发明中采用四次降采样和四次上采样的形式,并利用“深监督”的训练方法进行训练,得到训练后的模型
Figure 877742DEST_PATH_IMAGE016
其中
Figure DEST_PATH_IMAGE017
是模型的参数,然后,利用步骤二中的方法得到损失函数中每一个像素的权重,在训练中将像素的权重其乘上每一个像素的损失值,最后将所有的损失值求平均得到最终的损失值,通过SGD算法进行模型的优化得到模型
Figure DEST_PATH_IMAGE019
,其中
Figure 226815DEST_PATH_IMAGE020
为模型参数。
4边缘微调训练策略
在步骤(3)得到训练好的Unet++模型
Figure DEST_PATH_IMAGE021
Figure 868012DEST_PATH_IMAGE022
,为
Figure 23050DEST_PATH_IMAGE021
参数集合)后,本发明使用边缘微调训练策略来对分割网络进行进一步优化,其具体做法如下,首先,定义血管边缘像素为其周围八个像素的均值小于1且自身像素值为1的像素,通过该定义从血管标签中得到血管的边缘图,训练一个小型的网络,用于对标签进行边缘分割,网络具体如图3所示。通过血管标签以及根据血管标签得到的边缘图对边缘分割网络进行训练,训练使用的损失函数为二元交叉熵损失函数,优化方式为随机梯度下降(SGD),训练后得到边缘分割模型
Figure DEST_PATH_IMAGE023
,其中
Figure 698882DEST_PATH_IMAGE024
Figure 278243DEST_PATH_IMAGE023
的参数集合。
训练好边缘分割网络之后,则将该边缘分割网络和本身的
Figure 672316DEST_PATH_IMAGE021
一起进行训练,具体训练过程是,通过
Figure 631044DEST_PATH_IMAGE021
对原始图像进行分割,得到分割后的图像,将分割后的图像输入到边缘分割网络得到分割后的边缘图,利用
Figure 426962DEST_PATH_IMAGE021
输出的图像和血管标签图像求二元交叉熵损失值
Figure DEST_PATH_IMAGE025
,利用边缘分割网络输出的边缘图和血管标签得到的真实边缘求二元交叉熵损失
Figure 586679DEST_PATH_IMAGE026
。在优化
Figure 733627DEST_PATH_IMAGE021
时,反向传播的损失值为
Figure DEST_PATH_IMAGE027
,最后通过该损失值训练
Figure 964888DEST_PATH_IMAGE021
得到血管分割模型,其中
Figure 349733DEST_PATH_IMAGE028
在本发明中设置为0.25,在优化训练中,学习率设置为0.0001,优化方法为随机梯度下降法(SGD),在反向传播过程中,固定
Figure 273826DEST_PATH_IMAGE023
的参数不被改变,只优化
Figure 908070DEST_PATH_IMAGE021
网络。该方法使得网络在正常分割的过程中,对边缘像素有一个附加惩罚,并通过小网络反向传播到大网络进行优化。
5多模型的测试结果融合
在得到上述训练后的两个模型
Figure 943022DEST_PATH_IMAGE030
Figure 713532DEST_PATH_IMAGE032
后,本发明利用两个模型对测试集分别生成不同的血管分割结果
Figure DEST_PATH_IMAGE033
Figure 277369DEST_PATH_IMAGE034
,其中
Figure DEST_PATH_IMAGE035
为图像每一个像素是否为血管的概率,最后得到
Figure 867750DEST_PATH_IMAGE036
,其中
Figure DEST_PATH_IMAGE037
表示相同大小的分割图中的逐像素值相加。
Figure 172305DEST_PATH_IMAGE038
即为本发明的最终血管分割结果,其中
Figure DEST_PATH_IMAGE039
通过在眼底血管分割公开数据集DRIVE上的实验,本发明所提出的基于血管分支注意力损失函数以及多模型融合的眼底血管分割模型训练方式表现出了有效性。具体来说,DRIVE数据集的照片来自荷兰的糖尿病视网膜病变筛查计划。筛查人群由年龄在25-90岁之间的400位糖尿病患者组成。随机选择了40张照片,其中33张未显示任何糖尿病性视网膜病变的征兆,而7张显示了轻度早期糖尿病性视网膜病变的征兆。在DRIVE数据集中,以20张照片作为训练集,20张照片作为测试集,最终评价标准为20张测试图片的平均DICE系数。对于DRIVE数据集,本发明所提出的方法在分割任务上取得了0.8313的DICE系数成绩,效果优异。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本申请可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现。基于这样的理解,本申请的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
如上所述,已经给出了本发明的优选实施例的详细描述,以使本领域技术人员能够实施和实践本发明。虽然已经参照示例性实施例描述了本发明,但是本领域技术人员将会理解,在不脱离所附权利要求书中描述的本发明的精神或范围的情况下,可以在本发明中进行各种修改和改变。因此,本发明不应限于在此描述的特定实施例,而应被赋予与本文公开的原理和新颖特征一致的最宽范围。

Claims (9)

1.一种基于分支注意力及多模型融合的眼底血管分割方法,其特征在于,所述方法包括:
S1:利用注意力损失函数、通过标签计算得到的权重、训练数据和标签数据来训练Unet++模型;
S2:利用训练数据、标签通过二元交叉熵损失函数训练Unet++模型;
S3:利用所得到的两个训练后的Unet++模型和待分割的眼底图像数据分别得到两个不同的分割结果;以及
S4:将所述两个不同的分割结果进行融合。
2.根据权利要求1所述的方法,其特征在于,
在S1中,对于眼底血管分割图像,为了更好地让图像中血管像素与其他的像素对比度更高,需要使用CLAHE将图像进行增强预处理,同时在训练时,需要对眼底图像进行旋转和随机裁剪操作,用于对训练数据的扩充。
3.根据权利要求1所述的方法,其特征在于,
在S1中,为了提高神经网络对眼底血管分支以及其连通区域的分割准确性,需要在训练过程中为不同的像素的损失值设置不同的权重。
4.根据权利要求3所述的方法,其特征在于,
对于每一个像素p,以其为中心构建一个大小
Figure 207668DEST_PATH_IMAGE001
的滤波器,通过该滤波器计算所述像素p的连通程度。
5.根据权利要求4所述的方法,其特征在于,
首先,选取所述滤波器左上角的像素作为遍历起始点,记录其像素值,然后控制指针逐步绕着所述滤波器边缘移动,设置记录变色次数的整数,其初始值为0,在移动过程中,如果当前像素值与前一个像素值不相同,则将该整数加1然后继续移动,否则不加1并继续移动,直到移动到初始位置为止,其中该整数代表了该像素周围具有的连通分支的数量,分支越多越代表该像素处于血管分支位置,然后计算当前像素的密度权重,最后得到每个像素的最终权重。
6.根据权利要求5所述的方法,其特征在于,
在S2中,通过二元交叉熵损失函数训练Unet++模型采用四次降采样和四次上采样的形式进行训练。
7.根据权利要求6所述的方法,其特征在于,
训练后的Unet++模型使用边缘微调训练策略来对分割网络进行进一步优化。
8.根据权利要求1所述的方法,其特征在于,
在S3中,在得到训练后的两个模型后,利用两个模型对测试集分别生成不同的血管分割结果,其中该结果为图像每一个像素是否为血管的概率。
9.根据权利要求1所述的方法,其特征在于,
在S4中,以将所述两个不同的分割结果求平均的方式对于所述两个不同的分割结果进行融合。
CN201911394768.0A 2019-12-30 2019-12-30 基于分支注意力及多模型融合的眼底血管分割方法 Active CN111047613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911394768.0A CN111047613B (zh) 2019-12-30 2019-12-30 基于分支注意力及多模型融合的眼底血管分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911394768.0A CN111047613B (zh) 2019-12-30 2019-12-30 基于分支注意力及多模型融合的眼底血管分割方法

Publications (2)

Publication Number Publication Date
CN111047613A CN111047613A (zh) 2020-04-21
CN111047613B true CN111047613B (zh) 2021-04-27

Family

ID=70241915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911394768.0A Active CN111047613B (zh) 2019-12-30 2019-12-30 基于分支注意力及多模型融合的眼底血管分割方法

Country Status (1)

Country Link
CN (1) CN111047613B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553436B (zh) * 2020-04-30 2024-03-22 上海鹰瞳医疗科技有限公司 训练数据生成方法、模型训练方法及设备
CN111652887B (zh) * 2020-05-13 2023-04-07 腾讯科技(深圳)有限公司 图像分割模型训练方法、装置、计算机设备及存储介质
CN111860840B (zh) * 2020-07-28 2023-10-17 上海联影医疗科技股份有限公司 深度学习模型训练方法、装置、计算机设备及存储介质
CN111882548A (zh) * 2020-07-31 2020-11-03 北京小白世纪网络科技有限公司 基于深度学习的病理图像中细胞计数方法及装置
CN112716446B (zh) * 2020-12-28 2023-03-24 深圳硅基智能科技有限公司 高血压性视网膜病变的病变特征的测量方法及测量系统
CN112819831B (zh) * 2021-01-29 2024-04-19 北京小白世纪网络科技有限公司 基于卷积Lstm及多模型融合的分割模型生成方法及装置
CN113269783A (zh) * 2021-04-30 2021-08-17 北京小白世纪网络科技有限公司 一种基于三维注意力机制的肺结节分割方法及装置
CN115409764B (zh) * 2021-05-28 2024-01-09 南京博视医疗科技有限公司 一种基于域自适应的多模态眼底血管分割方法及装置
CN113362332A (zh) * 2021-06-08 2021-09-07 南京信息工程大学 Oct影像下冠状动脉管腔轮廓的深度网络分割方法
CN113313722B (zh) * 2021-06-10 2023-09-12 浙江传媒学院 一种牙根图像交互标注方法
CN113807355B (zh) * 2021-07-29 2023-08-25 北京工商大学 一种基于编解码结构的图像语义分割方法
CN113379741B (zh) * 2021-08-10 2021-11-16 湖南师范大学 基于血管特征的视网膜血管分割方法、设备和存储介质
CN114565620B (zh) * 2022-03-01 2023-04-18 电子科技大学 一种基于骨架先验和对比损失的眼底图像血管分割方法
CN114549520B (zh) * 2022-04-08 2024-05-07 北京端点医药研究开发有限公司 基于全卷积注意力增强网络的视网膜病理切片分析系统
CN115579143B (zh) * 2022-11-01 2023-04-18 北京建筑大学 一种结合全卷积神经网络与ppg信号的低血压预测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109448006A (zh) * 2018-11-01 2019-03-08 江西理工大学 一种注意力机制u型密集连接视网膜血管分割方法
CN109948575A (zh) * 2019-03-27 2019-06-28 中国科学技术大学 超声图像中眼球区域分割方法
CN110348541A (zh) * 2019-05-10 2019-10-18 腾讯医疗健康(深圳)有限公司 眼底血管图像分类方法、装置、设备及存储介质
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
CN110473188A (zh) * 2019-08-08 2019-11-19 福州大学 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766293A (zh) * 2014-01-07 2015-07-08 北京三星通信技术研究有限公司 从图像中检测血管的方法和设备
CN106408562B (zh) * 2016-09-22 2019-04-09 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统
CN109087302A (zh) * 2018-08-06 2018-12-25 北京大恒普信医疗技术有限公司 一种眼底图像血管分割方法及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10468142B1 (en) * 2018-07-27 2019-11-05 University Of Miami Artificial intelligence-based system and methods for corneal diagnosis
CN109448006A (zh) * 2018-11-01 2019-03-08 江西理工大学 一种注意力机制u型密集连接视网膜血管分割方法
CN109948575A (zh) * 2019-03-27 2019-06-28 中国科学技术大学 超声图像中眼球区域分割方法
CN110348541A (zh) * 2019-05-10 2019-10-18 腾讯医疗健康(深圳)有限公司 眼底血管图像分类方法、装置、设备及存储介质
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
CN110473188A (zh) * 2019-08-08 2019-11-19 福州大学 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
UNet++: A Nested U-Net Architecture;Zongwei Zhou 等;《https://arxiv.org/abs/1807.10165》;20180718;全文 *
基于改进U型网络的眼底图像血管分割;高宏杰 等;《中国生物医学工程学报》;20190228;第38卷(第1期);全文 *

Also Published As

Publication number Publication date
CN111047613A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111047613B (zh) 基于分支注意力及多模型融合的眼底血管分割方法
CN110197493B (zh) 眼底图像血管分割方法
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US20210158525A1 (en) Medical image processing apparatus, medical image processing method, computer-readable medium, and learned model
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
Mitra et al. The region of interest localization for glaucoma analysis from retinal fundus image using deep learning
Antal et al. An ensemble-based system for microaneurysm detection and diabetic retinopathy grading
KR20200005404A (ko) 진단 보조 시스템
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP2022103221A (ja) 医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラム
CN108764342B (zh) 一种对于眼底图中视盘和视杯的语义分割方法
JP2008521461A (ja) 知識構造のマッピングを使用した管状器官を測定する方法
JP2021184169A (ja) 画像処理装置、画像処理方法、及びプログラム
Surendiran et al. Segmentation of optic disc and cup using modified recurrent neural network
CN114821189A (zh) 一种基于眼底图像的病灶图像分类与识别方法
CN111833334A (zh) 一种基于孪生网络架构的眼底影像特征处理分析方法
CN109785399B (zh) 合成病变图像的生成方法、装置、设备及可读存储介质
David et al. Retinal blood vessels and optic disc segmentation using U-net
CN116363081A (zh) 基于深度神经网络的胎盘植入mri征象检测分类方法及装置
CN115018756A (zh) 一种眼底视网膜动静脉的分类方法、装置和存储介质
CN113870270A (zh) 一种统一框架下的眼底影像视杯、视盘分割方法
CN115409764A (zh) 一种基于域自适应的多模态眼底血管分割方法及装置
Zhang et al. Boundary-aware semi-supervised deep learning for breast ultrasound computer-aided diagnosis
CN116452571A (zh) 一种基于深度神经网络的图像识别方法
Gunasinghe et al. Comparison of pretrained feature extractors for glaucoma detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant