CN110197493B - 眼底图像血管分割方法 - Google Patents

眼底图像血管分割方法 Download PDF

Info

Publication number
CN110197493B
CN110197493B CN201910440134.8A CN201910440134A CN110197493B CN 110197493 B CN110197493 B CN 110197493B CN 201910440134 A CN201910440134 A CN 201910440134A CN 110197493 B CN110197493 B CN 110197493B
Authority
CN
China
Prior art keywords
network
segmentation
image
fundus
blood vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910440134.8A
Other languages
English (en)
Other versions
CN110197493A (zh
Inventor
董宇涵
任文婷
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201910440134.8A priority Critical patent/CN110197493B/zh
Publication of CN110197493A publication Critical patent/CN110197493A/zh
Application granted granted Critical
Publication of CN110197493B publication Critical patent/CN110197493B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明提供一种眼底图像血管分割方法,包括如下步骤:S1、对眼底图像数据集进行增广操作,即按一定规则对原始图像进行裁剪,得到增广的数据集,并将数据集划分为训练集与测试集;S2、利用分割网络对增广处理后的训练数据集中每一个眼底图像样本进行血管分割,得到黑白概率图,同时通过图像处理得到训练数据集中分割图像的概率图;S3、利用判别网络区分该概率图是由分割网络所得还是数据集内的分割图像所得,得到数值范围在0~1的置信图来描述输入图像判为真伪的概率;S4、将测试集中的彩色眼底图像输入训练好后的网络中,对得到的结果图进行拼接即可得到眼底血管的完整分割图像。其中步骤S2与S3基于生成对抗网络进行眼底图像血管分割。在步骤S4之前,依次对S2中的分割网络与S3中的判别网络按照所设计的损失函数进行迭代训练,以博弈的方式分别提高两个网络的性能。本方法基于生成对抗思想在生成数据上的优越性,不依赖初始特征的选取且减少了繁复的计算步骤,有效提升了眼底图像血管的分割精度,尤其在细小血管上表现优异。

Description

眼底图像血管分割方法
技术领域
本发明涉及一种非医学目的的眼底图像血管分割方法。
背景技术
视网膜作为眼球结构中的重要组成部分,与全身各系统有着非常重要的联系。视网膜由视盘、黄斑和视网膜血管组成。而视网膜血管作为人身体内唯一可通过无损伤手段直接观察到的较深层次微血管系统,其结构状态变化能为眼科专家提供重要的信息,如动脉硬化、高血压、糖尿病、心血管疾病和老年性黄斑变性等都会对眼底血管产生影响,使其动静脉宽度及弯曲程度发生变动等等。这些信息为眼部相关科学研究提供了重点素材。
目前,临床上普遍使用眼底图像对视网膜血管的状况进行观察。眼底图像通常由一种专门用于视网膜眼底成像的低倍率显微镜,也称为眼底照相机的光学仪器成像获取,具有成本低、操作简单、无创伤等优点[3]。而在目前的临床实践中,由于视网膜血管结构复杂,且受到光照变化和主体差异的影响,医生手工获取血管信息较为困难,且诊断结果较为主观。为此,眼底血管的自动化分割技术在临床上具有十分重要的意义。而设计能够精确提取血管、运算速度快且抗干扰性好的眼底血管自动化分割技术也具有较高的科学研究价值。
Goodfellow等人提出了一种对抗的方法来学习深层生成模型,他们用一个生成对抗网络(Generative Adversarial Networks,GAN)从一个固定的分布p(z)中提取样本z,然后通过一个固定的判别网络g(·)然后来近似模拟训练样本x的分布。生成模型与判别模型同时进行训练,通过最小化对抗性误差,可驱动生成的数据分布近似于输入训练数据。Luc等人第一个提出将对抗生成网络框架应用到图像分割中,以分割网络为生成网络,通过引入多类交叉熵使分类结果与真实分类结果更加接近。Zhu等人利用对抗生成思想来提高小规模数据下模型的健壮性,防止过拟合,其生成网络使用全卷积网络(FullyConvolutional Networks,FCN)对图像做像素级分类,用条件随机场(Conditional RandomField,CRF)捕获高阶信息实现结构学习,最后将网络应用在医学图像分割中。然而,上述工作实现步骤较为复杂且依赖复杂的参数估计过程,应用于眼底血管分割的精度尤其是细小血管处的分割精度有待提升。
发明内容
本发明的目的是为了提出一种眼底图像血管分割方法,减少计算步骤,提升眼底图像血管的分割精度。
为解决上述技术问题,本发明提出的眼底图像血管分割方法包括如下步骤:S1、对眼底图像数据集进行增广操作,即按一定规则对原始图像进行裁剪,得到增广的数据集,并将数据集划分为训练集与测试集;S2、利用分割网络对增广处理后的训练数据集中每一个眼底图像样本进行血管分割:将输入的尺寸为h×w×3的输入图像分割得到数值范围在0~1,尺寸为h×w×1的黑白概率图;其中h和w代表输入的眼底图像的高度与宽度;并通过图像处理得到训练数据集中分割图像的概率图;S3、利用判别网络区分该概率图是由分割网络所得还是数据集内的分割图像所得,最终得到数值范围在[0,1]的置信图来描述输入图像判为真伪的概率;S4、将测试集中的彩色眼底图像输入训练好后的网络中,对得到的结果图进行拼接即可得到眼底血管的完整分割图像;其中,步骤S2与步骤S3中,基于生成对抗网络进行眼底图像血管分割。
在一些实施例中,还包括如下特征:
在步骤S1中,对眼底图像数据集进行数据增广操作包括:将数据集内每幅图像裁剪成高度为h像素和宽度为w像素的矩形子图,即大小为h×w,按从左往右、从上往下的顺序进行裁剪,则在宽度上的裁剪次数为nW=W/w,在高度上的裁剪次数为nH=H/h;在裁剪过程中最右方和最下方存在的重叠区域,在测试完成后的拼接时取均值处理;裁剪完毕后,对每张图像进行水平和竖直方向上的翻转,最终得到原始数据集nWnH倍的扩展样本集合,同时对得到的数据样本进行直方图均衡化和数据标准化,使其符合标准正态分布;
在步骤S2、S3中,将经过数据集增广处理后的输入数据Din中测试集的数据输入训练好后保存的模型中,得到hS=S(Din),hout=fout(hS),其中S表示分割网络对输入图像Din进行的分割操作,fout表示输出层的激活函数,hout即为得到的血管分割图;对得到的hout进行图像拼接,即按照从左往右、从上到下的方式进行拼接,其中重叠部分按取均值处理,最终得到原始输入尺寸的眼底血管分割图。
在步骤S2中,将图像输入网络后经过多层下采样与上采样得到中间结果hS,将其输入到激活函数用fSout表示的一个输出层,得到分割网络的输出Sout=fSout(hS)。
在步骤S4之前,依次按照步骤S2与S3对分割网络与判别网络迭代训练,以博弈的方式分别提高两个网络的性能:通过依次迭代训练分割网络与判别网络,分别提高两个网络的性能,生成网络的目标是尽量生成接近真实的分割图像去欺骗判别网络,而判别网络的目标是尽量辨别出生成的假图像和真实的图像,最终达到平衡点时,两个网络的性能达到最佳。
使用带约束的条件生成式对抗网络,在判别网络中引入原始图像信息作为额外信息对模型增加条件,指导数据生成过程。
生成对抗网络算法中的损失函数表示为三个部分加权组合而成:
L(S,A)=α1LH(S(x),y)+α2·argminmaxLadv(S,A)+α3LL1(S)
其中,α123为权重系数,y表示图像x的真实标注概率图的概率,具体损失项如下:
多类交叉熵项LH:它鼓励分割模型独立预测每个像素正确的分类;
定义损失函数为:
LH(S(x),y)=-S(x)lny+(1-S(x)ln(1-y))
L1损失项:使得鉴别网络工作目标不变的情况下,既能分割出能够欺骗鉴别器的概率图,同时能在L1距离的意义上更加接近真实分割概率图;L1距离是两向量对应元素差值绝对值之和。
生成对抗网络损失项Ladv(S,A),生成对抗网络框架转化为Ladv(S,A)最大最小的优化问题。
Ladv(S,A)分为分割网络和判别网络两个部分,在训练分割网络时,模型的训练目标为最小化下面的二元分类损失:
Figure GDA0002141126130000021
分割网络采用U型网络。
在训练判别网络时有:
LA(S,A)=-α2logA(x,y)+α2log(1-A(x,S(x)))。
本发明还涉及一种眼底图像血管分割装置,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现如权利要求1-9所述的方法。
与现有技术相比,本发明的有益效果有:本发明的端到端眼底血管分割算法,基于生成对抗思想在生成数据上的优越性,不依赖初始特征的选取且减少了繁复的计算步骤,有效提升了眼底图像血管的分割精度,尤其在细小血管上表现优异。
附图说明
图1是本发明实施例中所用的DRIVE数据集描述示意图。
图2是本发明实施例中所用的STARE数据集描述示意图。
图3是本发明实施例图像裁剪示意图。
图4是本发明实施例整体网络结构图。
图5是本发明实施例基于生成对抗网络的分割流程示意图。
图6是本发明实施例预测阶段流程示意图。
图7是本发明实施例DRIVE数据集实验结果输出图。
图8是本发明实施例STARE数据集实验结果输出图。
图9本发明实施例DRIVE数据集实验结果与U-net分割结果对比示意图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接即可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
本实施例采用的数据集为公开的眼底图像数据集,通常由专业眼底照相机成像获取。由于常用的公开数据集血管标注过程复杂,图像数量较少,为了减少算法的过拟合现象,明确算法输入图像尺寸的固定大小,在本实施例中进行了数据增广操作,具体过程为:将数据集内每幅图像裁剪成高度为h像素和宽度为w像素的矩形子图,即大小为h×w,如图3所示。按从左往右、从上往下的顺序进行裁剪,则在宽度上的裁剪次数为nW=W/w,在高度上的裁剪次数为nH=H/h。在裁剪过程中最右方和最下方存在的重叠区域,在测试完成后的拼接时取均值处理。裁剪完毕后,对每张图像进行水平和竖直方向上的翻转,最终得到原始数据集nWnH倍的扩展样本集合,同时对得到的数据样本进行直方图均衡化和数据标准化,使其符合标准正态分布。
在数据处理之后,本实施例提出了基于生成对抗网络框架的眼底图像血管分割方法。初始数据通过训练能够模拟实际的视网膜血管分割图像的基本分布,即使初始数据是由随机初始化得到的,亦能通过不断迭代训练而接近分割图像的基本分布。本实施例提出的算法框架提供了一种有效的端到端视网膜图像分割工具,其结构如图4所示,算法框架主要包含分割网络和判别网络两部分:
分割网络S(·):主要负责对经过数据增广处理后的每一个眼底图像小样本进行血管分割。由于彩色视网膜眼底图像为RGB三通道图像,因此分割网络的输入图像的尺寸为h×w×3,此处h和w代表原始眼底图像裁剪后的高度与宽度,3表示RGB图像通道数量,将图像输入网络后经过多层下采样与上采样(随后在5.3.1中详细介绍)可得到中间结果hS,将其输入到激活函数用fSout表示的一个输出层,得到分割网络的输出Sout=fSout(hS)。这里需要选择合适的激活函数,最终可以得到数值范围在[0,1],尺寸为h×w×1的黑白概率图,其中有血管的位置数值接近1,无血管处数值接近0。
判别网络A(·):判别网络本质是一个二分类网络,其输入为h×w×1的黑白概率图,用以区分该概率图是由分割网络所得还是数据集内的分割图像所得。这里对数据集提供的真实分割标注图像也进行了上述概率图的提取,以便判别网络区分两者数据分布的差异。判别网络最后一层为激活函数用fAout表示的一个输出层,其输入是二分类中间结果hA,则判别网络的输出为Aout=fAout(hA),最终得到数值范围在[0,1]的置信图来描述输入图像判为真伪的概率。
所提算法对眼底血管图像进行分割的训练过程可看作是一个动态的博弈过程,通过依次迭代训练分割网络与判别网络,分别提高两个网络的性能,生成网络的目标是尽量生成接近真实的分割图像去欺骗判别网络,而判别网络的目标是尽量辨别出生成的假图像和真实的图像,最终达到平衡点时,两个网络的性能达到最佳。.
本实施例基于生成对抗网络的思想进行眼底图像血管分割,这里以y表示图像x的真实标注概率图的概率,则算法的损失函数可以表示为三个部分加权组合而成:
L(S,A)=α1LH(S(x),y)+α2·argminmaxLadv(S,A)+α3LL1(S) (1)
其中,α123为权重系数。具体损失项如下:
多类交叉熵项LH:它鼓励分割模型独立预测每个像素正确的分类。考虑到眼底血管分割的实际为二值分割,故定义损失函数为:
LH(S(x),y)=-S(x)lny+(1-S(x)ln(1-y)) (2)
L1损失项:使得鉴别网络工作目标不变的情况下,生成网络的任务不仅仅是分割出能够欺骗鉴别器的概率图,同时能在L1距离的意义上更加接近真实分割概率图。L1距离是两向量对应元素差值绝对值之和。这里选用L1距离而不是L2是因为L1能鼓励生成更清晰的图:
Figure GDA0002141126130000041
生成对抗网络损失项Ladv(S,A)。在判别网络进行判别时,不是对生成的整个图像进行判断,而是对生成的概率图进行区分,同时模型使用了带约束的条件生成式对抗网络(Generative Adversarial Networks,GAN),及在判别网络中引入原始图像信息作为额外信息y对模型增加条件,可以指导数据生成过程。生成对抗网络框架的实际为最大最小的优化问题,因此Ladv(S,A)实际分为分割网络和判别网络两个部分。在训练分割网络时,模型的训练目标为最小化下面的二元分类损失:
Figure GDA0002141126130000042
判别网络在训练时有:
LA(S,A)=-α2logA(x,y)+α2log(1-A(x,S(x))) (5)
五、实施方案
5.1数据集介绍
本实施例中所使用的眼底图像数据集为公开数据DRIVE和STARE,其中DRIVE包含40幅彩色眼底视网膜血管图像与40张专家分割图,训练集和测试集各20幅,分辨率为565x584。每一幅图像分别对应两位专家手动分割的结果,如图1所示,其中,(a)为原始彩色眼底图像,(b)为第一位专家手工分割图,(c)为第二位专家手工分割图,目前大多分割算法采用第二位专家手工分割图进行对比实验;STARE包含20幅彩色眼底视网膜血管图像与20张专家分割图,分辨率为605x700,每一幅图像都对应两个专家手动分割的结果,如图2所示,其中(a)为原始彩色眼底图像,(b)为第一位专家手工分割图,(c)为第二位专家手工分割图,目前大多分割算法采用第一位专家手工分割图进行对比实验。
5.2数据增广
由于眼底图像的血管标注过程复杂,因此已有的公开数据集图像数量较少。为了解决算法易出现的过拟合问题,同时满足输入网络所需的图像尺寸要求,本实施例首先采用相应的图像增广方法对眼底图像公开数据集进行增广处理。此时的增广处理为网络训练前的数据预处理步骤。
以DRIVE数据集为例,数据集初始数量包含训练集和测试集共40张,初始大小为H=565,W=584,为了得到数量较大的数据集以及网络所需的输入尺寸,具体处理步骤如下:
按照从左往右,从上到下的顺序对图像进行裁剪,每次裁剪的尺寸为256x256,则在宽度上的裁剪次数为nW=W/256=3,在高度上的裁剪次数为nH=H/256=3,当在水平方向上裁剪到第3张时,会与第2张存在重叠区域,如图3虚线框所示,重叠区域高度为nH,宽度为nW·256-W,当在垂直方向上裁剪到第3张时,也存在如虚线框所示重叠区域,高度为nH·256-H,宽度为nW。经过此轮裁剪后,每张原始图像可以裁剪为9张图像,得到40*9=360张子图,其中训练集和测试集各180张。
将得到的训练集中每张子图进行上下、左右翻转操作,最后得到训练集数据量为180*4=720张。
对得到的数据样本进行直方图均衡化和数据标准化,使其符合标准正态分布。
并将通过上述方式处理之后的输入数据在后文中统一表示为Din
5.3训练阶段
得到经过增广处理的图像数据集后,本实施例对眼底血管图像进行分割时需要依次对分割网络与判别网络迭代训练,以博弈的方式分别提高两个网络的性能,训练流程如图5所示,具体如下:
5.3.1分割网络
本实施例借助生成对抗网络对眼底血管图像进行分割,在构造好网络框架后还需要明确生成网络(分割网络)与判别网络的具体模型。
在本实施例中,分割网络采用了U型网络(U-Net),U-Net具有的优点如下:1.支持少量的数据训练模型;2.通过对每个像素点进行分类,获得更高的分割准确率;3.可以使用训练好的模型分割图像,速度快。网络结构包含了一个下采样过程与一个上采样过程,同时在相同层之间具有一个连接模块能够保留输入和输出的低维特征。整体的生成网络结构及网络参数如表1所示:
表1生成网络参数设置
表1生成网络参数设置
Figure GDA0002141126130000061
Figure GDA0002141126130000071
Figure GDA0002141126130000081
具体计算过程如下:
使用公开的眼底图像数据集,按照本实施例提出的数据增广方法得到网络训练所需的输入图像数据Din
将Din中训练集的彩色眼底图像和专家标注分割图像输入分割网络,首先计算6层下采样过程,每层需要进行两组卷积操作。每组卷积操作后需通过最大池化层,将图片进一步缩小为原来的1/2。经过6层后将输入的大小为256×256×3大小的眼底彩色输入图像计算为8×8×1024大小的特征图。
接下来计算上采样过程,上采样过程使用的是反卷积操作,将每次上采样将图片扩展为原来的2倍,然后将对应层提取的特征图与卷积的结果合并在一起,输入后面的两组卷积中。上采样过程结束后,最终得到256×256×64大小的特征图hsout
将U-Net网络的输出hS输入到激活层,得到网络的最终输出Sout=fSout(hS),此处选用sigmoid函数作为激活函数,即
Figure GDA0002141126130000082
最终可以得到数值范围在[0,1],尺寸为256×256×2的分割输出图,每个通道代表分割图上的黑、白两种颜色。
计算损失函数LS(S,A),并选用相应的优化器通过多次迭代更新分割模型参数直到其收敛到最优值,本实施例选用的优化器为Adam优化器。
5.3.2判别网络
判别网络要处理的是一个二分类问题,即判别输入图片到底来自训练集中的标注图像(真)还是来自分割网络(假)。对于经典的二分类问题,使用相应的激活函数能根据输入数据的特征得到所属类别的概率值,从而描述输入图像判为的真伪的概率。
本实施例使用的判别网络共包含五层,具体结构及参数设置如表2所示:
表2判别网络结构图
Figure GDA0002141126130000083
Figure GDA0002141126130000091
详细步骤描述如下:
对训练数据集Din中专家分割的图像(Ground Truth)进行二值化处理,得到大小为256×256×2的概率图输入Ain
将Ain与分割网络的输出Sout同时输入判别网络,经过五层网络(其中每一层由一个填充层、卷积层和激活层组成)计算后,可以得到判别网络的输出hA,之后将hA输入到一个激活函数为fAout的激活层后,得到网络的输出为Aout=fAout(hA),最终得到数值范围在0~1,尺寸为8×8×1的置信图来描述输入图像判为的真伪的概率。这里选用sigmoid函数作为激活函数,即
Figure GDA0002141126130000092
计算损失函数LA(S,A),并选用相应的优化器通过多次迭代更新判别网络的参数直至其收敛到最优值,本实施例选用的优化器为Adam优化器。
5.4预测阶段
将裁剪后得到的测试数据中的彩色眼底图像输入训练好后的网络中进行计算,即可得到对应的血管分割图,接下来将子图按照裁剪过程进行拼接得到最终的眼底血管分割图像。
本实施例设计的算法预测阶段流程如图6所示,具体描述如下:
将经过数据集增广处理后的输入数据Din中测试集的数据输入训练好后保存的模型中,得到hS=S(Din),hout=fout(hS),其中S表示分割网络对输入图像Din进行的分割操作,fout表示输出层的激活函数,hout即为得到的血管分割图,大小为256×256;
对得到的hout进行图像拼接,即按照从左往右、从上到下的方式进行拼接,其中重叠部分按取均值处理,最终得到原始输入尺寸的眼底血管分割图。
六、性能分析
6.1性能指标
分割模型的评估的标准采用分类准确率(Accuracy,AC)、灵敏度(Sensitivity,SE)和特异性(Specificity,SP)来进行评估。各个指标的计算公式如下:
Figure GDA0002141126130000101
Figure GDA0002141126130000102
Figure GDA0002141126130000103
其中,TP表示真正例率,FN表示假反例率,FP表示假正例率,TN表示真反例率。
同时,还选用F1分数(F1Score)作为模型指标,F1Score是统计学中用来衡量二分类模型精确度的一种指标。它同时兼顾了分类模型的精确率和召回率
Figure GDA0002141126130000104
其中,
Figure GDA0002141126130000105
Figure GDA0002141126130000106
如果四个指标都比较高说明模型效果比较好,如果其中一个指标比较低说明模型性能欠佳。
6.2性能分析
在下面的分析中,本实施例将DRIVE数据集中的40张图片划分为训练集和测试集各20张,经过图片切割及训练集增广处理后,训练集有540张,测试集有180张。SRARE数据集共20张划分为训练集和测试集各10张,经切割及训练集增广处理后,训练集有270张,测试集有90张。
6.2.1定性分析
DRIVE数据集与STARE数据集的分割结果如图7与图8所示,其中,第一行为原始眼底图像,第二行为医生标注图像,第三行为网络分割结果)。从图7和图8可以看出,分割结果较为精确,主干网络全部能区分出来,大部分的血管末梢也能分割出来。图9为所提出的基于生成对抗网络算法的分割结果与使用U-Net网络进行分割的结果比较,其中(a)为专家手工分割图,(b)为网络输出分割图,(c)为U-Net分割图,可以看出,与单一U-Net分割结果对比可知,基于生成对抗网络框架的分割算法能够得到的血管分割图更加清晰,尤其在细小血管分割上,结果有明显的提升。
6.2.2定量分析
将所提算法的分割结果与目前几种达到先进分割水平的方法进行定量比较,结果如表1所示,其中Fathi等人的方法为基于传统的图像处理的分割算法,Feng和Qiao等人的方法为使用神经网络进行分割的方法,同时也对单一使用U-Net作为分割网络的分割结果进行了定量比较。由表3可知,使用生成对抗网络的眼底血管分割算法精度比前人的方法有所提升。对于DRIVE数据集,F1提高2%、SE提高8%、AC提高2%;对于STARE数据集F1提高3%、SE提高2%、SP和AC提高1%。其中DRIVE数据集的性能提升优于STARE数据集的结果,主要原因可能是STARE数据集数量较小,容易出现过拟合现象。综上,在各个评价指标上,本实施例提出的基于生成对抗网络的眼底血管分割算法分割的准确性明显优于单一U-Net分割网络的分割结果,也优于目前公开方法的分割水平。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (5)

1.一种眼底图像血管分割方法,其特征在于包括如下步骤:
S1、对眼底图像数据集进行增广操作,即按一定规则对原始图像进行裁剪,得到增广的数据集,并将数据集划分为训练集与测试集;
S2、利用分割网络对增广处理后的训练数据集中每一个眼底图像样本进行血管分割:将输入的尺寸为h×w×3的输入图像分割得到数值范围在0~1,尺寸为h×w×1的黑白概率图;其中h和w代表输入的眼底图像的高度与宽度;并通过图像处理得到训练数据集中分割图像的概率图;
S3、利用判别网络区分该概率图是由分割网络所得还是数据集内的分割图像所得,最终得到数值范围在[0,1]的置信图来描述输入图像判为真伪的概率;
S4、将测试集中的彩色眼底图像输入训练好后的网络中,对得到的结果图进行拼接即可得到眼底血管的完整分割图像;
其中,步骤S2与步骤S3中,基于生成对抗网络进行眼底图像血管分割;
在步骤S1中,对眼底图像数据集进行数据增广操作包括:将数据集内每幅图像裁剪成高度为h像素和宽度为w像素的矩形子图,即大小为h×w,按从左往右、从上往下的顺序进行裁剪,则在宽度上的裁剪次数为nW=W/w,在高度上的裁剪次数为nH=H/h;在裁剪过程中最右方和最下方存在的重叠区域,在测试完成后的拼接时取均值处理;裁剪完毕后,对每张图像进行水平和竖直方向上的翻转,最终得到原始数据集nWnH倍的扩展样本集合,同时对得到的数据样本进行直方图均衡化和数据标准化,使其符合标准正态分布;
在步骤S2、S3中,将经过数据集增广处理后的输入数据Din中测试集的数据输入训练好后保存的模型中,得到hS=S(Din),hout=fout(hS),其中S表示分割网络对输入图像Din进行的分割操作,fout表示输出层的激活函数,hout即为得到的血管分割图;对得到的hout进行图像拼接,即按照从左往右、从上到下的方式进行拼接,其中重叠部分按取均值处理,最终得到原始输入尺寸的眼底血管分割图;
使用带约束的条件生成式对抗网络,在判别网络中引入原始图像信息作为额外信息对模型增加条件,指导数据生成过程;
生成对抗网络算法中的损失函数表示为三个部分加权组合而成:
L(S,A)=α1LH(S(x),y)+α2·arg min max Ladv(S,A)+α3LL1(S),
其中,α123为权重系数,y表示图像x的真实标注概率图的概率,具体损失项如下:
多类交叉熵项LH:它鼓励分割模型独立预测每个像素正确的分类;
定义损失函数为:
LH(S(x),y)=-S(x)ln y+(1-S(x)ln(1-y)),
L1损失项:使得鉴别网络工作目标不变的情况下,既能分割出能够欺骗鉴别器的概率图,同时能在L1距离的意义上更加接近真实分割概率图;L1距离是两向量对应元素差值绝对值之和;
生成对抗网络损失项Ladv(S,A),生成对抗网络框架转化为Ladv(S,A)最大最小的优化问题;Ladv(S,A)分为分割网络和判别网络两个部分,在训练分割网络时,模型的训练目标为最小化下面的二元分类损失:
Figure FDA0002793359450000021
分割网络采用U型网络。
2.如权利要求1所述的眼底图像血管分割方法,其特征在于,在步骤S2中,将图像输入网络后经过多层下采样与上采样得到中间结果hS,将其输入到激活函数用fSout表示的一个输出层,得到分割网络的输出Sout=fSout(hS)。
3.如权利要求1所述的眼底图像血管分割方法,其特征在于,在步骤S4之前,依次按照步骤S2与S3对分割网络与判别网络迭代训练,以博弈的方式分别提高两个网络的性能:通过依次迭代训练分割网络与判别网络,分别提高两个网络的性能,生成网络的目标是尽量生成接近真实的分割图像去欺骗判别网络,而判别网络的目标是尽量辨别出生成的假图像和真实的图像,最终达到平衡点时,两个网络的性能达到最佳。
4.在如权利要求1所述的眼底图像血管分割方法,其特征在于,在训练判别网络时有:
LA(S,A)=-α2log A(x,y)+α2log(1-A(x,S(x)))。
5.一种眼底图像血管分割装置,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现如权利要求1-4任一项所述的方法。
CN201910440134.8A 2019-05-24 2019-05-24 眼底图像血管分割方法 Active CN110197493B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910440134.8A CN110197493B (zh) 2019-05-24 2019-05-24 眼底图像血管分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910440134.8A CN110197493B (zh) 2019-05-24 2019-05-24 眼底图像血管分割方法

Publications (2)

Publication Number Publication Date
CN110197493A CN110197493A (zh) 2019-09-03
CN110197493B true CN110197493B (zh) 2021-04-23

Family

ID=67753087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910440134.8A Active CN110197493B (zh) 2019-05-24 2019-05-24 眼底图像血管分割方法

Country Status (1)

Country Link
CN (1) CN110197493B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689080B (zh) * 2019-09-30 2023-04-18 天津工业大学 一种血管结构影像的平面图谱构建方法
CN110796670B (zh) * 2019-10-30 2022-07-26 北京理工大学 一种夹层动脉分割方法及装置
CN110889859A (zh) * 2019-11-11 2020-03-17 珠海上工医信科技有限公司 一种用于眼底图像血管分割的u型网络
CN111783814A (zh) * 2019-11-27 2020-10-16 北京沃东天骏信息技术有限公司 数据扩增方法、装置、设备和计算机可读介质
CN111127447B (zh) * 2019-12-26 2023-03-31 河南工业大学 基于生成式对抗网络的血管分割网络及方法
CN111429464B (zh) * 2020-03-11 2023-04-25 深圳先进技术研究院 医学图像分割方法、医学图像分割装置及终端设备
WO2021179205A1 (zh) * 2020-03-11 2021-09-16 深圳先进技术研究院 医学图像分割方法、医学图像分割装置及终端设备
CN111507993B (zh) * 2020-03-18 2023-05-19 南方电网科学研究院有限责任公司 一种基于生成对抗网络的图像分割方法、装置及存储介质
CN111650738A (zh) * 2020-05-07 2020-09-11 清华大学深圳国际研究生院 一种基于深度学习的傅里叶叠层显微图像重构方法及装置
CN111667490B (zh) * 2020-05-07 2023-06-30 清华大学深圳国际研究生院 一种眼底图片视杯视盘分割方法
CN111489353B (zh) * 2020-05-07 2023-06-23 清华大学深圳国际研究生院 一种眼底图像中央凹定位方法
CN111815562B (zh) * 2020-06-10 2024-04-09 重庆贝奥新视野医疗设备有限公司 一种U-Net与自适应PCNN相结合的视网膜血管分割方法
CN112001928B (zh) * 2020-07-16 2023-12-15 北京化工大学 一种视网膜血管分割方法及系统
CN112288794B (zh) * 2020-09-04 2021-09-07 深圳硅基智能科技有限公司 眼底图像的血管管径的测量方法及测量装置
CN112233135A (zh) * 2020-11-11 2021-01-15 清华大学深圳国际研究生院 眼底图像中视网膜血管分割方法及计算机可读存储介质
CN112716446B (zh) * 2020-12-28 2023-03-24 深圳硅基智能科技有限公司 高血压性视网膜病变的病变特征的测量方法及测量系统
CN112767404A (zh) * 2021-01-11 2021-05-07 山东师范大学 基于分布式生成对抗网络的医学图像分割方法及系统
CN113516678B (zh) * 2021-03-31 2024-04-05 杭州电子科技大学 一种基于多任务的眼底图像检测方法
CN113177916B (zh) * 2021-04-21 2023-04-07 清华大学深圳国际研究生院 一种基于少样本学习方法的轻微高血压眼底辨别模型
CN113723418B (zh) * 2021-09-03 2023-08-04 乐普(北京)医疗器械股份有限公司 一种对造影图像进行优选的处理方法和装置
CN114037663A (zh) * 2021-10-27 2022-02-11 北京医准智能科技有限公司 一种血管分割方法、装置及计算机可读介质
CN114155195B (zh) * 2021-11-01 2023-04-07 中南大学湘雅医院 基于深度学习的脑肿瘤分割质量评估方法、设备及介质
CN114066884B (zh) * 2022-01-11 2022-09-27 南京医科大学眼科医院 视网膜血管分割方法及装置、电子设备和存储介质
CN114565620B (zh) * 2022-03-01 2023-04-18 电子科技大学 一种基于骨架先验和对比损失的眼底图像血管分割方法
CN115170912B (zh) * 2022-09-08 2023-01-17 北京鹰瞳科技发展股份有限公司 图像处理模型训练的方法、生成图像的方法及相关产品

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10115194B2 (en) * 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
US10600185B2 (en) * 2017-03-08 2020-03-24 Siemens Healthcare Gmbh Automatic liver segmentation using adversarial image-to-image network
CN108230323B (zh) * 2018-01-30 2021-03-23 浙江大学 一种基于卷积神经网络的肺结节假阳性筛选方法
CN108537743B (zh) * 2018-03-13 2022-05-20 杭州电子科技大学 一种基于生成对抗网络的面部图像增强方法
CN108537801A (zh) * 2018-03-29 2018-09-14 山东大学 基于生成对抗网络的视网膜血管瘤图像分割方法
CN108898595B (zh) * 2018-06-27 2021-02-19 慧影医疗科技(北京)有限公司 一种胸部图像中病灶区域的定位模型的构建方法及应用
CN109493346B (zh) * 2018-10-31 2021-09-07 浙江大学 一种基于多损失的胃癌病理切片图像分割方法和装置

Also Published As

Publication number Publication date
CN110197493A (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
CN110197493B (zh) 眼底图像血管分割方法
CN111784671B (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
Chakrabarty A deep learning method for the detection of diabetic retinopathy
CN110930416B (zh) 一种基于u型网络的mri图像前列腺分割方法
CN111259982A (zh) 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN110807762B (zh) 一种基于gan的视网膜血管图像智能分割方法
WO2018120942A1 (zh) 一种多模型融合自动检测医学图像中病变的系统及方法
Akbar et al. Automated techniques for blood vessels segmentation through fundus retinal images: A review
CN112102266B (zh) 基于注意力机制的脑梗死医学影像分类模型的训练方法
CN107563434B (zh) 一种基于三维卷积神经网络的脑部mri图像分类方法、装置
CN113298830B (zh) 一种基于自监督的急性颅内ich区域图像分割方法
KR102316557B1 (ko) 자궁경부암 자동 진단 시스템
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
CN114821189A (zh) 一种基于眼底图像的病灶图像分类与识别方法
CN112991315A (zh) 一种血管病变的识别方法、系统、存储介质及电子设备
CN110991254A (zh) 超声图像视频分类预测方法及系统
JP6345332B1 (ja) 分類装置、分類方法、プログラム、ならびに、情報記録媒体
CN111833321A (zh) 一种调窗优化增强的颅内出血检测模型及其构建方法
CN117058676B (zh) 一种基于眼底检查影像的血管分割方法、装置和系统
Miao et al. Classification of Diabetic Retinopathy Based on Multiscale Hybrid Attention Mechanism and Residual Algorithm
CN113011340B (zh) 一种基于视网膜图像的心血管手术指标风险分类方法及系统
Khan et al. A Computer-Aided Diagnostic System to Identify Diabetic Retinopathy, Utilizing a Modified Compact Convolutional Transformer and Low-Resolution Images to Reduce Computation Time. Biomedicines. 2023. No. 11. Art. 1566
CN112734707A (zh) 一种3d内窥镜辅助检测方法、系统、装置及存储介质
CN117058467B (zh) 一种胃肠道病变类型识别方法及系统
US20220012882A1 (en) Device for the qualitative evaluation of human organs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant