CN115205315A - 一种眼科体征保持的眼底图像增强方法 - Google Patents
一种眼科体征保持的眼底图像增强方法 Download PDFInfo
- Publication number
- CN115205315A CN115205315A CN202210708020.9A CN202210708020A CN115205315A CN 115205315 A CN115205315 A CN 115205315A CN 202210708020 A CN202210708020 A CN 202210708020A CN 115205315 A CN115205315 A CN 115205315A
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- generator
- domain
- fundus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 46
- 238000006243 chemical reaction Methods 0.000 claims abstract description 40
- 238000011156 evaluation Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 25
- 238000005070 sampling Methods 0.000 claims description 16
- 125000004122 cyclic group Chemical group 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 230000014759 maintenance of location Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004321 preservation Methods 0.000 claims description 4
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 2
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 230000001105 regulatory effect Effects 0.000 claims 1
- 230000000717 retained effect Effects 0.000 claims 1
- 238000003745 diagnosis Methods 0.000 abstract description 13
- 230000001575 pathological effect Effects 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000000877 morphologic effect Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 20
- 230000003902 lesion Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 210000000720 eyelash Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007850 degeneration Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010012667 Diabetic glaucoma Diseases 0.000 description 1
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000873 fovea centralis Anatomy 0.000 description 1
- 210000004220 fundus oculi Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000002189 macula lutea Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医学图像处理技术领域,具体为一种眼科体征保持的眼底图像增强方法。本发明方法采用基于CycleGAN的图像增强网络模型,该模型包括一个血管分割网络和由两个生成器、两个判别器组成的转换增强网络;考虑到眼底图像的特殊性,本发明模型除使用转换损失外,引入血管分割损失和结构损伤作为约束,使得增强后的眼底图像能够更好地保留眼底血管细节和病理形态结构。实验结果表明,本方法可以有效增强眼底图像,保留眼底体征,提高图像质量,使增强后的眼底图像更有利于临床医疗诊断;SSGAN模型在客观评价指标和眼科医生的主观评价结果表明优于现有模型,能有效地实现眼底图像增强,具有广泛的应用前景。
Description
技术领域
本发明属于医学图像处理技术领域,具体涉及眼底图中眼科体征保持的眼底图像增强方法。
背景技术
眼底图像是由眼底相机拍摄生成的图像,能够观察到黄斑、视盘等重要的眼底组织,是各类眼科疾病检查和诊断中常用且重要的依据。当前眼科检查广泛采用的眼底图成像设备具有成像速度快且成本低等优点,但成像的眼底图存在整体光照分布不均匀、眼睑睫毛遮挡、边缘伪影、眼科体征对比度较差等问题,影响了临床医师的诊断效率和精度,也进一步阻碍了下游的眼底血管分割、中心凹定位等眼底图像分析任务的发展。而新型高端眼底成像设备虽然存在价格高昂、普及率低、拍摄时间长等问题,但眼科体征可以得到高保真度成像,图像质量非常适合眼科医师诊断。在这种情况下,将传统设备拍摄的普通眼底图像转换增强为真彩高清的高质量的眼底图像,进而实现两种成像方式优点的有效融合,具有重要的研究意义和现实应用价值。
现阶段用于增强眼底图像的方法主要分为两类,一类是基于传统数字图像处理的增强方法,另一类是基于深度学习的增强方法。
基于传统数字图像处理技术的增强方法,主要包括基于直方图的方法,如直方图均衡化[1],动态直方图均衡化[2]和对比度受限的自适应直方图均衡化[3][4];基于变换分析的方法,如小波变换[5],非下采样轮廓波变换[6][7];以及基于Retinex理论的方法[8][9]。早期的眼底图像增强任务大多是对传统的数字图像增强技术的直接应用,如Jintasuttisak等人[4]提出使用对比度受限的自适应直方图均衡化方法[3]对彩色眼底图像进行增强,E.Daniel等人[5]则使用小波变换的方法对眼底图像进行了增强。同时,也有一些研究针对医学图像的特点在传统方法的基础上进行了改进,如Hsu等人[1]提出了基于色彩保留的直方图医学图像直方图均衡化方法,在增强图像的同时更好地保留图像的原始色彩。
然而,这些方法都只是基于图像的统计学特征上对图像进行改变,只能直接对图像整体进行处理,没有考虑到医学图像中特征保留的重要性,容易出现色彩失真、局部噪声放大和特征丢失等问题。
基于深度学习的方法大多是有监督的,需要配对的图像作为训练集,但是收集并构造配对的原始图像/增强图像数据集是非常困难的,尤其是对于医学图像而言。Zhu J Y等人提出的循环生成对抗网络(Cycle-GAN)[10]为非配对图像之间的转换增强提供了一种有效的解决办法,该网络能够在非配对数据集上学习到原始图像域的特征并将其转换至目标图像域,因此出现了很多基于循环生成对抗网络的眼底图像增强方法。Yoo等人[11]收集网络上公开的眼底图像并邀请眼科专家将图像分为带有伪影和不带伪影的两类,通过使用循环生成对抗网络在该非配对数据集上训练,基本实现了去除眼底图像伪影的工作。但是由于循环生成网络对图像内部的细节特征约束不足,只能学习到两个域之间的风格差异及图像的全局特征,所以转换得到的图像中局部细节特征保留得并不充分。注意到这个问题,Wan C等人[12]将注意力机制引入到循环生成对抗网络中,使得网络能够关注到更多的图像细节特征。马煜辉等人[13]提出的StillGAN网络在循环生成对抗网络中引入了亮度和结构两个损失约束,能够转换生成亮度更均匀的医学图像。但是这些方法都没有考虑到眼底图像的特殊性,并未关注到眼底图像的具体体征,在对视盘和存在病变的区域进行增强时容易出现病灶变形等问题。
然而,在以上的工作中都没有考虑到眼底图像的特殊性,在增强过程中通常只关注于人眼主观效果而非有利于眼科医生诊断的眼底体征,导致增强后的图片会出现病灶变形的问题,影响到临床的医疗诊断的准确性。而眼底体征是眼科医生做出诊断的重要依据,比如眼底血管的长度、宽度和弯曲程度能为医生对糖尿病视网膜病变、青光眼做出诊断提供关键信息,尽可能准确地保留血管形态等关键体征是眼底图像增强模型的基本要求。
因此,为克服以上缺陷,本发明提出了一种血管分割一致性和结构相似性约束的循环生成对抗网络模型SSGAN(Segmentation and Structure constrained GAN)作为一种新的特征保留的眼底图像增强方法,引入分割损失和结构损失两个新的约束函数,使得增强得到的眼底图像能够更准确地保留眼底血管形态和结构细节特征,更好地保留原始图像的病灶形态。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种能有效保留眼底体征的眼底图像增强方法。
本发明提供的眼科体征保持的眼底图像增强方法,采用基于CycleGAN的图像增强网络模型SSGAN;所述SSGAN模型包括一个血管分割网络和由两个生成器(GA,GB)、两个判别器(DA,DB)组成的转换增强网络;其中:
所述生成器(GA,GB),用于将输入图像转换到与生成器下标对应的图像域,生成器GA将输入图像转换到图像域A,生成器GB将输入图像转换到图像域B;每个生成器使用带有残差块的编码器-解码器架构,所述编码器对输入图像进行特征提取,得到特征图,特征图输入到所述残差快中进行转换,获取新的特征表示,最后所述解码器将这些特征重建为新的图像,作为生成器输出;
其中,所述编码器由三层卷积组成,第一层使用7×7的卷积核对图像进行步长为1的卷积操作,剩余两层则接连使用3×3的卷积核,对图像进行步长为2的卷积操作。每一个卷积层后都紧跟着一个实例归一化层和一个ReLU激活函数,分别起到对单个图像进行归一化和引入非线性因素的作用;最后的输出是通道数为256的特征图。
其中,所述解码器与编码器的结构对称,同样由三层卷积组成,前两层使用3×3的卷积核,对特征图进行步长为2的转置卷积操作,每一次转置卷积之后都连接一个实例归一化层和一个ReLU激活函数,最后一层使用7×7的卷积核,进行步长为1的卷积,将特征还原为带有RGB三个通道的图像,并使用tanh激活函数放大特征效果,加快收敛速度。
其中,所述残差快使用带有9个卷积层的残差网络,用于对特征进行整理。
所述判别器(DA,DB),用于对输入图像是否属于判别器对应的图像域做出判断,以判别器DA为例,DA需要能够分辨出输入图像是图像域A中的真实图像还是生成器GA生成的伪造图像,同样,DB需要能够分辨出输入图像是图像域B中的真实图像还是生成器GB生成的伪造图像;
所述判别器使用PatchGANs[14]结构,通过卷积操作可以将图像缩小为70×70大小的矩阵块,使用该矩阵作为最后的评价标准来判断输入图像是否为对应域中的真实图像,这种方式与将整个图像作为评价标准相比所需的参数量更小,而且能够使转换生成的图像具有更好的效果。
所述血管分割网络,是在带有分割标注的眼底血管图像上预先训练好的一个U-Net模型,用于从输入的图像中分割出眼底的血管体征;分割的结果可用于计算血管分割损失,对原始图像和增强图像之间的血管分布差异进行量化;
血管分割网络模型可以分为下采样和上采样两个对称的过程,每个过程都具有五层;在下采样过程中的每一层进行两次卷积和非线性变换,得到的结果一方面需要再使用最大池化进行下采样,另一方面还进行裁剪复制后直接通过跳跃连接输送到上采样过程中;在上采样过程中的每一层都需要对输入的特征图进行反卷积,将反卷积的结果与从跳跃连接得到的图像进行拼接,拼接后的结果再进行两次卷积来提取特征;最后使用2个1×1大小的卷积核将图像的特征通道变为2个,即分割的目标和背景,得到最终输出的分割图像。使用该输出计算出的分割损失用于优化转换增强图像的生成,使得环形转换网络中的生成器能够更多地关注眼底图像的血管细节,保证增强后图像较好地保有原始图像的眼底血管纹路细节。
所述的转换网络由两个所述生成器和所述判别器组成;训练中,除了基础的转换损失,模型还使用分割损失和结构损失两项新的约束函数来解决循环生成对抗网络约束不足的问题,实现眼底图像增强过程中眼底血管分布和其他病理体征形态的保持。
所述转换损失,是在转换网络生成、判别图像的过程中使用的损失函数,由对抗损失、循环一致性损失和全等映射损失三部分组成。转换损失定义如下:
其中,λ1和λ2为循环一致性损失和全等映射损失的权重。
下面以生成器GA和判别器DA为例对上述对抗损失进行阐述:给定域B中的图像b,生成器GA需要生成与域A中图像相似的图像GA(b),而判别器DA则需要分辨出生成器伪造的图像GA(b)图像域A中真实图像样本之间的区别,并对此作出判断。同样,给定域A中的图像a,生成器GB需要生成与域B中图像相似的图像GB(a),而判别器DB则需要分辨出生成器伪造的图像GB(a)图像域a中真实图像样本之间的区别,并对此作出判断。E表示期望值。
在训练过程中,判别器需要最大化这个损失函数,而生成器则需要最小化该损失函数,两者在对抗的过程中彼此优化,即:
可以将其分为域A中的循环一致性和域B中的循环一致性,对于域A来说,每个域A中的图像a,在经过生成器GB转换为域B中的图像GB(a)后,再经过生成器GA转换回域A得到GA(GB(a))时,该图像应该和图像a保持一致。同理,对于域B来说,每个域B中的图像b,在经过生成器GA转换为域A中的图像GA(b)后,再经过生成器GB转换回域B得到GB(GA(b))时,该图像应该和图像b保持一致。
全等映射损失约束生成器在接收到输入图片已经是对应图像域的真实样本时,生成的图像应该和输入图像尽可能相似。如对于生成器GA来说,当输入图像为域A中的图像a时,经过的图像GA(a)应该和图像a尽可能保持一致。
为了解决现有技术不能维持原始图像中眼底体征的原有形态,会出现病灶变性、视盘区域模糊,甚至血管信息丢失等问题,本发明中,还使用结构损失和分割损失来加强对生成器的约束。
(1)结构损失
理想情况下,增强后的眼底图像应该具有和原始图像一致的病理体征且比原图更清晰,有利于眼科医生观察诊断,因此应当对生成器添加与图像结构相关的约束。结构相似性(SSIM)[15]是目前常用的图像评价指标,能够从亮度、对比度和全局结构三个角度来合理地评估两张图像的相似性。与均方误差(MSE)相比,结构相似性能够更好地反应两个图像在结构上的区别,更接近人类视觉系统对两幅图像之间差距的衡量。因此,本发明基于结构相似性提出结构损失,用于量化原始图像和增强图像之间结构的差距,保证原图像的整体结构细节能够更好地保留到增强后的图像中。结构损失的定义如下:
上式中,SSIM表示结构相似性的计算,其计算公式如下:
其中,μx与μy分别是图像x和y的均值,σxy为图像x和y的协方差,和分别是图像x和y的方差。其中常数项C1=(K1L)2,C2=(K2L)2,K1,K2为调控参数,L为灰度的动态范围,对于归一化后的图像取L=1。
(2)分割损失
分割损失是使用血管分割网络(VSN)输出的分割结果定义的损失函数,用于约束增强/降质前后眼底图像血管分割结果的一致性,分割损失的定义如下:
血管分割网络(VSN)是预先训练好的参数固定的网络,类似于血管特征提取器,该网络可以用于在转换网络训练过程中对原始图像和转换后图像进行血管特征提取并输出对应的血管分割结果图。分割损失中的SSIM使用滑动窗口的计算方式(具体为:将整幅眼底图像均匀地划分为H’*W’大小的块,计算原始图像和转换后图像中对应块之间的SSIM值,最后计算这些SSIM的平均值,从而得到原始图像和转换后图像之间的最终SSIM值。注意将眼底图划分为多个H’*W’大小的块时,块与块之间横向和纵向重叠的像素分别为M和N。具体实现中,H’*W’为448*448,M=16,N=16),通过计算原始图像和转换后图像血管分割结果的结构相似性来量化生成器对血管特征的保持程度,可以促使生成器生成的图像含有与原图像一致的血管特征。
因此,本发明中所采用的模型最终的目标函数为:
其中,α和β为结构损失和分割损失的权重。
所述眼科体征保持的眼底图像增强方法,具体流程为:
(1)制作训练集;
(2)使用上述训练集训练SSGAN网络模型;
(3)导出训练好的最优模型;
(4)制作测试集;
(5)调用网络模型对测试集进行转换增强,得到相应结果。
其中,用于训练的数据集为眼底图像数据集,既可以为窄角眼底图像,也可以为广角眼底图像。
与现有技术相比,本发明的技术方案所带来的有益效果是:
(1)本发明可以使用包括广角眼底图在内的各类非配对的低质量和高质量眼底图像数据集训练模型,解决了目前暂无方法针对广角眼底图像进行增强和眼底图像收集低质量和高质量的配对数据集困难的问题;
(2)本发明在训练转换网络中生成器和判别器部分引入的血管分割损失和结构损失能使增强得到的眼底图像更准确地保留眼底血管形态和结构细节特征,解决了现有技术忽略眼底血管和病变区域结构特征的问题,能更好地保留原始图像的病灶形态,增强原始眼底图像,辅助临床医疗诊断;
(3)本发明模型结构清晰简洁,能在增强眼底图像的同时实现更好的眼底特征保留效果,通过训练,SSGAN模型在客观评价指标和眼科医生的主观评价结果上都优于现有,能有效地实现眼底图像增强,具有广泛应用前景。
附图说明
图1为本发明采用的SSGAN模型整体结构图。
图2为本发明具体实施时所构造的数据集中低质和高质眼底图对比展示图。其中,第一行为低质量眼底图,第二行为高质量眼底图。
图3为本发明与Cycle-GAN对正常眼底图像的增强效果对比图。其中,A为原始图像,B为Cycle-GAN增强后图像,C为本技术方案结果。
图4为本发明与Cycle-GAN对存在病变的眼底图像的增强效果对比图。其中,A为原始图像,B为Cycle-GAN增强后图像,C为本技术方案结果。
图5为本发明与Cycle-GAN对眼底图像视盘区域的增强效果对比图。其中,A为原始图像,B为Cycle-GAN增强后图像,C为本技术方案结果。
具体实施方式
以下结合附图和实例对本发明中的技术方案进行清楚完整地描述,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1展示了本发明采用的SSGAN模型整体结构图,一种眼科体征保持的眼底图像增强方法,采用基于CycleGAN的眼底图像增强网络模型SSGAN。所述SSGAN模型包括两个生成器(GA,GB),两个判别器(DA,DB)组成的转换网络和一个血管分割网络。
1.所述生成器用于实现将输入图像转换到与生成器下标对应的图像域,如GA将输入图像转换到图像域A。所述生成器使用带有残差块的编码器-解码器架构,所述编码器对输入图像进行特征提取得到特征图,特征图输入到所述残差网络中进行转换获取新的特征表示,最后所述解码器将这些特征重建为新的图像作为生成器输出;所述编码器由三层卷积组成,第一层使用7×7的卷积核对图像进行步长为1的卷积操作,剩余两层则接连使用3×3的卷积核对图像进行步长为2的卷积操作。每一个卷积层后都紧跟着一个实例归一化层和一个ReLU激活函数,分别起到对单个图像进行归一化和引入非线性因素的作用,最后的输出是通道数为256的特征图。解码器与编码器的结构对称,同样由三层卷积组成,前两层使用3×3的卷积核对特征图进行步长为2的转置卷积操作,每一次转置卷积之后都连接着一个实例归一化层和一个ReLU激活函数,最后一层使用7×7的卷积核进行步长为1的卷积将特征还原为带有RGB三个通道的图像,并使用tanh激活函数放大特征效果,加快收敛速度。所述残差网络部分使用的是带有9个卷积层的残差网络,用于对特征进行整理。
2.所述判别器用于对输入图像是否属于判别器对应的图像域做出判断,以DA为例,DA需要能够分辨出输入图像是图像域A中的真实图像还是生成器GA生成的伪造图像,其特征在于,使用PatchGANs[14]结构,通过卷积操作可以将图像缩小为70×70大小的矩阵块,使用该矩阵作为最后的评价标准来判断输入图像是否为对应域中的真实图像,这种方式与将整个图像作为评价标准相比所需的参数量更小,而且能够使转换生成的图像具有更好的效果。
3.所述血管分割网络是在带有分割标注的眼底血管图像上预先训练好的一个U-Net模型,用于从输入的图像中分割出眼底的血管体征,分割的结果可用于计算血管分割损失,对原始图像和增强图像之间的血管分布差异进行量化;血管分割网络模型可以分为下采样和上采样两个对称的过程,每个过程都具有五层。在下采样过程中的每一层进行两次卷积和非线性变换,得到的结果一方面需要再使用最大池化进行下采样,另一方面还会进行裁剪复制后直接通过跳跃连接输送到上采样过程中。上采样过程中的每一层都需要对输入的特征图进行反卷积,将反卷积的结果与从跳跃连接得到的图像进行拼接,拼接后的结果再进行两次卷积来提取特征。最后使用2个1×1大小的卷积核将图像的特征通道变为2个,即分割的目标和背景,得到最终输出的分割图像。使用该输出计算出的分割损失将用于优化转换增强图像的生成,使得环形转换网络中的生成器能够更多地关注眼底图像的血管细节,保证增强后图像较好地保有原始图像的眼底血管纹路细节。
具体的,本发明采用的SSGAN模型中的转换网络由两个所述生成器和所述判别器组成,除了基础的转换损失,模型还使用了分割损失和结构损失两项新的约束函数来解决循环生成对抗网络约束不足的问题,实现眼底图像增强过程中眼底血管分布和其他病理体征形态的保持。
转换损失是在转换网络生成、判别图像的过程中使用的损失函数,由对抗损失、循环一致性损失和全等映射损失三部分组成。转换损失的公式定义如下:
其中,λ1和λ2为循环一致性损失和全等映射损失的权重,通常取λ1=10,λ2=5。
下面以生成器GA和判别器DA为例对上述对抗损失进行阐述:给定域B中的图像b,生成器GA需要生成与域A中图像相似的图像GA(b),而判别器DA则需要分辨出生成器伪造的图像GA(b)图像域A中真实图像样本之间的区别,并对此作出判断。在训练过程中,判别器需要最大化这个损失函数,而生成器则需要最小化该损失函数,两者在对抗的过程中彼此优化,即:
可以将其分为域A中的循环一致性和域B中的循环一致性,对于域A来说,每个域A中的图像a,在经过生成器GB转换为域B中的图像GB(a)后,再经过生成器GA转换回域A得到GA(GB(a))时,该图像应该和图像a保持一致。同理,对于域B来说,每个域B中的图像b,在经过生成器GA转换为域A中的图像GA(b)后,再经过生成器GB转换回域B得到GB(GA(b))时,该图像应该和图像b保持一致。
全等映射损失约束了生成器在接收到输入图片已经是对应图像域的真实样本时,生成的图像应该和输入图像尽可能相似。如对于生成器GA来说,当输入图像为域A中的图像a时,经过的图像GA(a)应该和图像a尽可能保持一致。
为了解决现有技术不能维持原始图像中眼底体征的原有形态,会出现病灶变性、视盘区域模糊,甚至血管信息丢失等问题,本发明还使用结构损失和分割损失来加强对生成器的约束。
(1)结构损失
理想情况下,增强后的眼底图像应该具有和原始图像一致的病理体征且比原图更清晰,有利于眼科医生观察诊断,因此应当对生成器添加与图像结构相关的约束。结构相似性(SSIM)[15]是目前常用的图像评价指标,能够从亮度、对比度和全局结构三个角度来合理地评估两张图像的相似性。与均方误差(MSE)相比,结构相似性能够更好地反应两个图像在结构上的区别,更接近人类视觉系统对两幅图像之间差距的衡量。因此,本发明基于结构相似性提出了结构损失,用于量化原始图像和增强图像之间结构的差距,保证原图像的整体结构细节能够更好地保留到增强后的图像中。结构损失的公式定义如下:
上式中,SSIM表示结构相似性的计算,其计算公式如下:
其中,μx与μy分别是图像x和y的均值,σxy为图像x和y的协方差,和分别是图像x和y的方差。其中常数项C1=(K1L)2,C2=(K2L)2,取K1=0.01,K2=0.03,L为灰度的动态范围,对于归一化后的图像取L=1。
(2)分割损失
分割损失是使用血管分割网络(VSN)输出的分割结果定义的损失函数,用于约束增强/降质前后眼底图像血管分割结果的一致性,分割损失的公式定义如下:
血管分割网络(VSN)是预先训练好的参数固定的网络,类似于血管特征提取器,该网络可以用于在转换网络训练过程中对原始图像和转换后图像进行血管特征提取并输出对应的血管分割结果图。分割损失中的SSIM使用滑动窗口的计算方式,通过计算原始图像和转换后图像血管分割结果的结构相似性来量化生成器对血管特征的保持程度,可以促使生成器生成的图像含有与原图像一致的血管特征。
因此,本发明中所采用的模型最终的目标函数为:
其中,α和β为结构损失和分割损失的权重。通常取α=5,β=100。
图2为本发明所构造的数据集中低质和高质眼底图对比,图3-5为使用本发明训练得到的模型对测试集中眼底图像进行增强后的图片与使用Cycle-GAN进行增强的效果对比展示图,分别对正常眼底图像、带有病变的眼底图像和眼底图像中视盘区域增强效果的展示。
如图3所示,Cycle-GAN能去除部分遮挡的眼睑睫毛伪影,但是视盘左侧出现了黑色空洞,视盘区域也出现了形态改变和血管纹路不清晰的问题,整体色彩偏红,本技术方案所提SSGAN模型增强的图像有效地去除了拍摄仪器的伪影并弱化了眼睑睫毛的遮挡,增强了视盘中心及周围的血管纹路细节,图像边缘的细小血管也能得到清晰显示,较好地保持了原图的病理体征,整体颜色均匀;
如图4所示,该图像在视盘区域存在玻璃条索状病变。Cycle-GAN增强的图像不能有效地保持视盘和周围区域的形态,存在视盘边界不清晰的问题,本发明所提SSGAN模型增强的图像视盘边界清晰,能观察到明显的玻璃条索状病变,且视盘内部及周围的血管交叉细节都得到了清晰显示,更有利于临床诊断;
如图5所示,视盘是眼底相当重要的结构,视网膜上所有视神经都需要通过视盘从穿出才能连接到大脑中的视觉中枢,眼底的血管也主要由视盘发出,是医疗诊断时重要的观察对象,Cycle-GAN增强的图像视盘区域存在过度曝光、视盘中心血管模糊不清的情况,本技术方案所提SSGAN模型增强的图像整体平滑,视盘边界清晰且视盘中心和周围的血管都得到了一定增强,视盘中心血管的可见度比原始图像高,视盘以外的其他眼底特征也没有太多变形,从临床诊断的角度来看视觉效果最佳。
本发明针对一些传统方法和基于深度学习的眼底图像增强方法中出现的忽略眼底病例体征和血管形态细节等问题,提出了基于循环生成对抗网络的眼底图像增强方法,通过引入分割损失和结构损失两项新的约束函数来解决循环生成对抗网络约束不足的问题,实现了眼底图像增强过程中眼底血管分布和其他病理体征形态的保持,使得增强后的眼底图像眼科体征保持良好,更适合临床医学诊断。
以上所述均为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
参考文献:
[1]Hsu,Wei-Yen,and Ching-Yao Chou."Medical image enhancement usingmodified color histogram equalization."Journal of Medical and BiologicalEngineering 35.5(2015):580-584.
[2]M.Abdullah-Al-Wadud,M.H.Kabir,M.A.A.Dewan,and O.Chae,“A dynamichistogram equalization for image contrast enhancement,”IEEETrans.Consum.Electron.,vol.53,no.2,pp.593–600,May 2007.
[3]K.Zuiderveld,“Contrast limited adaptive histogram equalization,”inGraphics Gems IV.New York,NY,USA:Academic,1994,pp.474–485.
[4]Jintasuttisak,Thani,and SathitIntajag."Color retinal imageenhancement by Rayleigh contrast-limited adaptive histogram equalization."2014 14th International Conference on Control,Automation and Systems(ICCAS2014).IEEE,2014.
[5]E.Daniel and J.Anitha,"Retinal image enhancement using waveletdomain edge filtering and scaling,"2014 International Conference onElectronics and Communication Systems(ICECS),2014,pp.1-6,doi:10.1109/ECS.2014.6892670.
[6]Swaminathan,Anand,et al."Contourlet transform-based sharpeningenhancement of retinal images and vessel extraction application."Biomedizinische Technik/Biomedical Engineering 58.1(2013):87-96.
[7]Lee,Chien-Cheng,et al."Enhancement of blood vessels in retinalimaging using the nonsubsampled contourlet transform."MultidimensionalSystems and Signal Processing 23.4(2012):423-436.
[8]D.J.Jobson,Z.-U.Rahman,and G.A.Woodell,“A multiscale retinex forbridging the gap between color images and the human observation of scenes,”IEEE Trans.Image Process.,vol.6,no.7,pp.965–976,Jul.1997.
[9]Vázquez,S.G.,et al."Using retinex image enhancement to improve theartery/vein classification in retinal images."International Conference ImageAnalysis and Recognition.Springer,Berlin,Heidelberg,2010.
[10]Zhu J Y,Park T,Isola P,et al.Unpaired Image-to-Image Translationusing Cycle-Consistent Adversarial Networks[J].IEEE,2017.
[11]Yoo,Tae Keun,Joon Yul Choi,and Hong Kyu Kim."CycleGAN-based deeplearning technique for artifact reduction in fundus photography."Graefe'sArchive for Clinical and Experimental Ophthalmology 258.8(2020):1631-1637.
[12]Wan C,Zhou X,You Q,Sun J,Shen J,Zhu S,Jiang Q,Yang W.RetinalImage Enhancement Using Cycle-Constraint Adversarial Network.Front Med(Lausanne).2022 Jan 12;8:793726.doi:10.3389/fmed.2021.793726.PMID:35096883;PMCID:PMC8789669.
[13]Ma Y,Liu J,Liu Y,et al.Structure and Illumination Constrained GANfor Medical Image Enhancement[J].IEEE Transactions on Medical Imaging,2021,PP.
[14]Li C,Wand M.Precomputed real-time texture synthesis withmarkovian generative adversarial networks.In:Leibe B,Matas J,Sebe N,WellingM,editors.Computer Vision-ECCV 2016.Amsterdam:Springer InternationalPublishing(2016).p.702–716.
[15]Z.Wang,A.C.Bovik,H.R.Sheikh,and E.P.Simoncelli,“Image qualityassessment:From error visibility to structural similarity,”IEEE Trans.ImageProcess.,vol.13,no.4,pp.600–612,Apr.2004。
Claims (7)
1.一种眼科体征保持的眼底图像增强的方法,其特征在于,采用基于CycleGAN的图像增强网络模型,记为SSGAN;SSGAN模型包括一个血管分割网络和由两个生成器(GA,GB)、两个判别器(DA,DB)组成的转换增强网络;其中:
所述生成器(GA,GB),用于将输入图像转换到与生成器下标对应的图像域,生成器GA将输入图像转换到图像域A,生成器GB将输入图像转换到图像域B;每个生成器使用带有残差块的编码器-解码器架构,所述编码器对输入图像进行特征提取,得到特征图,特征图输入到所述残差快中进行转换,获取新的特征表示,最后所述解码器将这些特征重建为新的图像,作为生成器输出;
所述判别器(DA,DB),用于对输入图像是否属于判别器对应的图像域做出判断,以判别器DA为例,DA需要能够分辨出输入图像是图像域A中的真实图像还是生成器GA生成的伪造图像,同样,DB需要能够分辨出输入图像是图像域B中的真实图像还是生成器GB生成的伪造图像;
所述血管分割网络,是在带有分割标注的眼底血管图像上预先训练好的一个U-Net模型,用于从输入的图像中分割出眼底的血管体征;分割的结果可用于计算血管分割损失,对原始图像和增强图像之间的血管分布差异进行量化。
2.根据权利要求1所述的眼科体征保持的眼底图像增强的方法,其特征在于,所述判别器(DA,DB)中:
所述编码器由三层卷积组成,第一层使用7×7的卷积核对图像进行步长为1的卷积操作,剩余两层则接连使用3×3的卷积核,对图像进行步长为2的卷积操作;每一个卷积层后都紧跟着一个实例归一化层和一个ReLU激活函数,分别起到对单个图像进行归一化和引入非线性因素的作用;最后的输出是通道数为256的特征图;
所述解码器与编码器的结构对称,同样由三层卷积组成,前两层使用3×3的卷积核,对特征图进行步长为2的转置卷积操作,每一次转置卷积之后都连接一个实例归一化层和一个ReLU激活函数,最后一层使用7×7的卷积核,进行步长为1的卷积,将特征还原为带有RGB三个通道的图像,并使用tanh激活函数放大特征效果,加快收敛速度;
所述残差快使用带有9个卷积层的残差网络,用于对特征进行整理。
3.根据权利要求2所述的眼科体征保持的眼底图像增强的方法,其特征在于,所述判别器使用PatchGANs结构,通过卷积操作将图像缩小为70×70大小的矩阵块,使用该矩阵作为最后的评价标准来判断输入图像是否为对应域中的真实图像。
4.根据权利要求3所述的眼科体征保持的眼底图像增强的方法,其特征在于,所述血管分割网络模型分为下采样和上采样两个对称的过程;每个过程都具有五层;
在下采样过程中的每一层进行两次卷积和非线性变换,得到的结果一方面再使用最大池化进行下采样,另一方面还进行裁剪复制后直接通过跳跃连接输送到上采样过程中;
在上采样过程中的每一层都要对输入的特征图进行反卷积,将反卷积的结果与从跳跃连接得到的图像进行拼接,拼接后的结果再进行两次卷积来提取特征;最后使用2个1×1大小的卷积核将图像的特征通道变为2个,即分割的目标和背景,得到最终输出的分割图像;使用该输出计算出的分割损失用于优化转换增强图像的生成,使得环形转换网络中的生成器能够更多地关注眼底图像的血管细节,保证增强后图像较好地保有原始图像的眼底血管纹路细节。
5.根据权利要求4所述的眼科体征保持的眼底图像增强的方法,其特征在于,所述转换网络由两个所述生成器和所述判别器组成;训练中,使用的损失包括:转换损失、分割损失和结构损失;其中:
(1)所述转换损失,是在转换网络生成、判别图像的过程中使用的损失函数,由对抗损失、循环一致性损失和全等映射损失三部分组成;转换损失定义如下:
其中,λ1和λ2为循环一致性损失和全等映射损失的权重;其中;
其含义为:给定域B中的图像b,生成器GA需要生成与域A中图像相似的图像GA(b),而判别器DA则需要分辨出生成器伪造的图像GA(b)图像域A中真实图像样本之间的区别,并对此作出判断;同样,给定域A中的图像a,生成器GB需要生成与域B中图像相似的图像GB(a),而判别器DB则需要分辨出生成器伪造的图像GB(a)图像域a中真实图像样本之间的区别,并对此作出判断,E表示期望值;
在训练过程中,判别器需要最大化这个损失函数,而生成器则需要最小化该损失函数,两者在对抗的过程中彼此优化,即:
将其分为域A中的循环一致性和域B中的循环一致性,对于域A来说,每个域A中的图像a,在经过生成器GB转换为域B中的图像GB(a)后,再经过生成器GA转换回域A得到GA(GB(a))时,该图像应该和图像a保持一致;同理,对于域B来说,每个域B中的图像b,在经过生成器GA转换为域A中的图像GA(b)后,再经过生成器GB转换回域B得到GB(GA(b))时,该图像应该和图像b保持一致;
全等映射损失约束生成器在接收到输入图片已经是对应图像域的真实样本时,生成的图像应该和输入图像尽可能相似;
(2)所述结构损失,是对生成器添加与图像结构相关的约束,基于结构相似性(SSIM)给出结构损失,用于量化原始图像和增强图像之间结构的差距,保证原图像的整体结构细节能够更好地保留到增强后的图像中,结构损失的定义如下:
上式中,SSIM表示结构相似性的计算,其计算公式如下:
其中,μx与μy分别是图像x和y的均值,σxy为图像x和y的协方差,和分别是图像x和y的方差;其中常数项C1=(K1L)2,C2=(K2L)2,K1,K2为调控参数,L为灰度的动态范围,对于归一化后的图像取L=1;
(3)所述分割损失,是使用血管分割网络(VSN)输出的分割结果定义的损失函数,用于约束增强/降质前后眼底图像血管分割结果的一致性,分割损失的定义如下:
血管分割网络(VSN)是预先训练好的参数固定的网络,类似于血管特征提取器,该网络用于在转换网络训练过程中对原始图像和转换后图像进行血管特征提取并输出对应的血管分割结果图;分割损失中的SSIM使用滑动窗口的计算方式,通过计算原始图像和转换后图像血管分割结果的结构相似性来量化生成器对血管特征的保持程度,可以促使生成器生成的图像含有与原图像一致的血管特征;
于是,所采用的模型最终的目标函数为:
其中,α和β为结构损失和分割损失的权重。
6.根据权利要求5所述的眼科体征保持的眼底图像增强的方法,其特征在于,具体流程为:
(1)制作训练集;
(2)使用上述训练集训练SSGAN网络模型;
(3)导出训练好的最优模型;
(4)制作测试集;
(5)调用网络模型对测试集进行转换增强,得到相应结果。
7.根据权利要求6所述的所述的眼科体征保持的眼底图像增强的方法,其特征在于,用于训练的数据集为眼底图像数据集,包括窄角眼底图像或广角眼底图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210708020.9A CN115205315A (zh) | 2022-06-21 | 2022-06-21 | 一种眼科体征保持的眼底图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210708020.9A CN115205315A (zh) | 2022-06-21 | 2022-06-21 | 一种眼科体征保持的眼底图像增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115205315A true CN115205315A (zh) | 2022-10-18 |
Family
ID=83576693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210708020.9A Pending CN115205315A (zh) | 2022-06-21 | 2022-06-21 | 一种眼科体征保持的眼底图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205315A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909470A (zh) * | 2022-11-24 | 2023-04-04 | 浙江大学 | 基于深度学习的全自动眼睑疾病术后外观预测系统和方法 |
CN117726642A (zh) * | 2024-02-07 | 2024-03-19 | 中国科学院宁波材料技术与工程研究所 | 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置 |
CN117726642B (zh) * | 2024-02-07 | 2024-05-31 | 中国科学院宁波材料技术与工程研究所 | 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置 |
-
2022
- 2022-06-21 CN CN202210708020.9A patent/CN115205315A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909470A (zh) * | 2022-11-24 | 2023-04-04 | 浙江大学 | 基于深度学习的全自动眼睑疾病术后外观预测系统和方法 |
CN117726642A (zh) * | 2024-02-07 | 2024-03-19 | 中国科学院宁波材料技术与工程研究所 | 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置 |
CN117726642B (zh) * | 2024-02-07 | 2024-05-31 | 中国科学院宁波材料技术与工程研究所 | 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Automatic whole heart segmentation using a two-stage u-net framework and an adaptive threshold window | |
Luo et al. | Dehaze of cataractous retinal images using an unpaired generative adversarial network | |
Qureshi et al. | Detection of glaucoma based on cup-to-disc ratio using fundus images | |
Wan et al. | Retinal image enhancement using cycle-constraint adversarial network | |
Li et al. | Vessel recognition of retinal fundus images based on fully convolutional network | |
Alimanov et al. | Retinal image restoration and vessel segmentation using modified cycle-cbam and cbam-unet | |
Bhardwaj et al. | Appraisal of pre-processing techniques for automated detection of diabetic retinopathy | |
HaoQi et al. | CGAN-based synthetic medical image augmentation between retinal fundus images and vessel segmented images | |
CN115205315A (zh) | 一种眼科体征保持的眼底图像增强方法 | |
Yang et al. | Retinal image enhancement with artifact reduction and structure retention | |
Dikkala et al. | A comprehensive analysis of morphological process dependent retinal blood vessel segmentation | |
CN114332910A (zh) | 一种面向远红外图像的相似特征计算的人体部位分割方法 | |
Mehidi et al. | A high accuracy segmentation method for retinal blood vessel detection based on hybrid filters and an adaptive thresholding | |
Bansal et al. | Utilization of big data classification models in digitally enhanced optical coherence tomography for medical diagnostics | |
CN111292285A (zh) | 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法 | |
Prabha et al. | Diabetic Retinopathy Detection Using Automated Segmentation Techniques | |
Gandhi et al. | Investigation of severity of diabetic retinopathy by detecting exudates with respect to macula | |
Wahid et al. | A dual step strategy for retinal thin vessel enhancement/extraction | |
EP4364090A1 (en) | Classification and improvement of quality of vascular images | |
CN109377461A (zh) | 一种基于nsct的乳腺x射线图像自适应增强方法 | |
CN108154512A (zh) | 一种基于多重去趋势分析的视网膜图像血管分割系统 | |
CN114972148A (zh) | 一种眼底图像质量评估方法、系统及其装置 | |
Naik et al. | Classification of Eye Diseases Using Optic Cup Segmentation and Optic Disc Ratio | |
Zulfahmi et al. | Techniques for exudate detection for diabetic retinopathy | |
Khattar et al. | Investigation of Denoising Techniques for Removal of Hair and Noise from Dermoscopic Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |