CN110428385A - 一种基于无监督对抗神经网络的sd-oct去噪方法 - Google Patents

一种基于无监督对抗神经网络的sd-oct去噪方法 Download PDF

Info

Publication number
CN110428385A
CN110428385A CN201910732921.XA CN201910732921A CN110428385A CN 110428385 A CN110428385 A CN 110428385A CN 201910732921 A CN201910732921 A CN 201910732921A CN 110428385 A CN110428385 A CN 110428385A
Authority
CN
China
Prior art keywords
oct
image
edi
pixel
denoising
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910732921.XA
Other languages
English (en)
Inventor
吴梦麟
蔡鑫鑫
徐晓瑀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tech University
Original Assignee
Nanjing Tech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tech University filed Critical Nanjing Tech University
Priority to CN201910732921.XA priority Critical patent/CN110428385A/zh
Publication of CN110428385A publication Critical patent/CN110428385A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于无监督对抗神经网络的SD‑OCT去噪方法,通过无监督地学习从SD‑OCT到EDI‑OCT图像域迁移,实现从SD‑OCT生成具有EDI‑OCT质量的图像,从而达到去噪目的。模型中添加了全局结构损失和局部结构损失,可以有效保持图像的结构信息和局部细节。通过与已有的图像降噪算法比较,本发明模型的处理图像不但有效去除了图像噪声和条形伪影,而且很好地保留了图像的局部细节,更加接近原始图像。同时,模型预测图像的参数指标要高于其他算法处理结果。因此,无论从主观的视觉效果还是从客观的质量评价来看,本发明模型的处理结果都优于其他算法的处理结果,说明本文提出的模型在SD‑OCT图像去噪方面是可行且有效的。

Description

一种基于无监督对抗神经网络的SD-OCT去噪方法
技术领域
本发明属于SD-OCT去噪处理技术领域,具体涉及一种基于无监督对抗神经网络的SD-OCT去噪方法。
背景技术
频域光学相干断层是一种非侵入、非电离的光学成像模式,具有高分辨率、非接触、无损伤以及扫描速度快等优点,已广泛应用于临床眼科的诊断和测量。但由于低相干干涉测量法和成像设备的限制,SD-OCT成像质量往往受到散斑噪声的影响,散斑噪声会掩盖细微的图像特征,影响SD-OCT的后续处理以及疾病的诊断,因此如何抑制散斑噪声是OCT成像领域中的一个关键问题。
目前针对SD-OCT图像的传统去噪方法可以分为两类:基于空间域的方法和基于变换域的方法,如NLM,BM3D等。然而,这些传统的SD-OCT处理方法都存在过度模糊图像或去除噪声不完全的缺点,难以在去除噪声和保留图像细节之间找到很好的平衡。近年来,基于卷积神经网络的方法使图像的降噪与修复有了很大改进。Ma等将SD-OCT图像降噪作为图像到图像的转换问题来处理,提出一种基于条件生成对抗网络的SD-OCT降噪方法,能够减小OCT图像的散斑噪声并提高峰值信噪比,同时极大程度地保持图像的边缘信息。但由于实施过程中难以获取SD-OCT噪声图像对应的无噪声标签图像,训练时输入和标签存在结构差异,因此去噪后图像容易出现伪影。
循环生成对抗网络模型在非配对的数据集上,利用两个生成器模型和两个判别器模型构成的一种双向环状结构,可以无监督地学习到两种不同图像域之间的映射关系。因此,该方法可以解决现有SD-OCT去噪效果不佳,需要大量配对数据等问题。
发明内容
本发明的目的在于提供一种基于无监督生成对抗网络的SD-OCT去噪方法,主要解决现有SD-OCT去噪效果不佳,且需要大量标签样本的问题。
实现上述目的的技术方案是:
一种基于无监督对抗神经网络的SD-OCT去噪方法,包括如下步骤:
步骤1:采集N张SD-OCT图像和M张EDI-OCT图像,M张EDI-OCT图像分别是N张SD-OCT图像中M张SD-OCT图像的去噪图像,N>M;分别提取N张SD-OCT图像中视网膜解剖结构区域,将EDI-OCT图像与其对应的SD-OCT图像进行配准,找到EDI-OCT图像中的视网膜解剖结构区域;
步骤2:以N张SD-OCT图像中的视网膜解剖结构区域为图像数据样本,M张EDI-OCT图像的视网膜解剖结构区域为样本标签,构建图像数据样本集;
步骤3:设计加入全局结构和局部结构约束项的循环生成对抗网络;
步骤4:利用图像数据样本集对循环生成对抗网络进行训练,得到对结构信息敏感的SD-OCT去噪模型;
步骤5:提取待去噪的SD-OCT图像的视网膜解剖结构区域,将视网膜解剖结构区域输入训练好的SD-OCT去噪模型,得到其对应的EDI-OCT图像的视网膜解剖结构区域。
优选的,步骤3中,循环生成对抗网络的目标函数为:
L(GXY,GYX,DX,DY)=LGAN(GXY,DY)+LGAN(GYX,DX)+λ1Lcyc(GXY,GYX)+λ2Lglobal3Llocal
其中,LGAN(GXY,DY)和LGAN(GYX,DX)是双边映射中的对抗损失,Lcyc(GXY,GYX)为循环一致损失,Lglobal为全局结构损失,Llocal为局部结构约束损失,λ1、λ1和λ3分别为权重,GXY和GYX为生成器,DX和DY为判别器。
优选的,其中GXY(xk)表示xk经生成器GXY处理后得到的图像,xk为三维SD-OCT第k张B-scan图像。
优选的,其中N1和N2分别表示输入图像的像素数量,||·||2表示L2正则化;
对于B-scan图像x中的像素i,MIND特征值Fi是一个|Rnl|长的向量,其中Rnl表示像素i的非局部区域;对一个来自于i+α∈Rnl的像素来说,像素i+α表示在像素i周围但是在区域Rnl内的像素,其中α表示像素i+α相对于像素i的偏离量,指示i+α离像素i的距离,每个元素Fi (α)被定义为:
其中Z是一个归一化常数,使Fi的最大分量为1;DP(x,i,i+α)表示以像素i和像素i+α为中心的两个图像块P之间的L2距离,定义为:
分母V(x,i)定义为:
其中N是像素i的四邻域。
优选的,λ1、λ2和λ3分别取值10、0.05、5。
有益效果:
本发明通过无监督地学习从SD-OCT到EDI-OCT图像域迁移,实现从SD-OCT生成具有EDI-OCT质量的图像,从而达到去噪目的。模型中添加了全局结构损失和局部结构损失,可以有效保持图像的结构信息和局部细节。通过与已有的图像降噪算法比较,本发明模型的处理图像不但有效去除了图像噪声和条形伪影,而且很好地保留了图像的局部细节,更加接近原始图像。同时,模型预测图像的参数指标要高于其他算法处理结果。因此,无论从主观的视觉效果还是从客观的质量评价来看,本发明模型的处理结果都优于其他算法的处理结果,说明本文提出的模型在SD-OCT图像去噪方面是可行且有效的。
附图说明
图1为结构保持Cycle-GAN网络架构图;
图2为全局结构损失示意图;
图3为不同方法去噪后的SD-OCT图像。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
本发明包括如下步骤:
步骤1:采集N张SD-OCT图像和M张EDI-OCT图像,M张EDI-OCT图像分别是M张SD-OCT图像的去噪图像,N>M;分别提取N张SD-OCT图像中视网膜解剖结构区域,将EDI-OCT图像与其对应的SD-OCT图像进行配准,找到EDI-OCT图像中的视网膜解剖结构区域;
步骤2:以N张SD-OCT图像中的视网膜解剖结构区域为图像数据样本,M张EDI-OCT图像为样本标签,构建图像数据样本集;
步骤3:设计加入全局结构和局部结构约束项的循环生成对抗网络;
步骤4:利用图像数据样本集对循环生成对抗网络进行训练,得到对结构信息敏感的SD-OCT去噪模型;
步骤5:提取待去噪的SD-OCT图像的视网膜解剖结构区域,将视网膜解剖结构区域输入训练好的SD-OCT去噪模型,得到其对应的EDI-OCT图像。
步骤1的具体步骤包括:
步骤1.1:利用SD-OCT的层分割结果提取图像中512×512大小的视网膜解剖结构区域。
步骤1.2:使用人工配准方法将对应的EDI-OCT与SD-OCT图像进行配准,即对SD-OCT及对应的EDI-OCT图像手动选取特征点,利用特征点求出变换矩阵,然后利用变换矩阵对EDI-OCT进行仿射变换。
步骤1.3:将OCT数据整合为SD-OCT和EDI-OCT两个图像域。
步骤3包括:
步骤3.1:目标函数设计
循环生成对抗网络可以无监督的地学习两种图像域之间的映射关系,包括两个生成器模型和两个判别器模型,生成器负责生成图像,判别器则不断提升分辨能力,判断输入图像是来自生成模型分布还是真实样本分布,模型的训练过程就是生成器和判别器之间的对抗过程。
循环生成对抗网络的目标函数为:
L(GXY,GYX,DX,DY)=LGAN(GXY,DY,X,Y)+LGAN(GYX,DX)+λLcyc(GXY,GYX)
其中LGAN(GXY,DY)和LGAN(GYX,DX)是双边映射中的对抗损失,控制生成图像的风格近似目标域图像,Lcyc(GXY,GYX)为循环一致损失,可以保证模型学习到的映射函数的循环一致性。
使用该模型训练出的生成器GXY去噪后的图像存在细节结构的丢失,从而影响图像的分析以及疾病的诊断。
本发明提出结构保持生成对抗网络模型,目的是无监督地学习SD-OCT图像域到EDI-OCT图像域之间的映射,通过生成器从SD-OCT B-scan图像生成高质量EDI-OCT图像,从而实现图像去噪。由于合成图像和输入图像之间缺乏直接的约束,所以循环生成对抗方法不能保证这两幅图像的结构一致性。针对Cycle-GAN的结构性差异,本发明设计了结构保持生成对抗网络用于SD-OCT去噪,在无监督地循环对抗学习中,同时考虑图像的全局与局部结构的保持,利用SD-OCT相邻帧之间的相关性保持图像的全局结构,同时采用模态无关邻域描述符定义局部结构损失,保持图像的局部结构。本发明网络架构如图1所示。
下面对全局结构约束损失和局部结构约束损失分别进行说明。
1)全局结构约束损失
为了保持图像的全局结构,定义全局结构损失Lglobal。令三维SD-OCT第k张B-scan记为xk,xk-1和xk+1分别表示为xk的上一帧和下一帧,设定邻域大小为4。在SD-OCT图像成像过程中,相邻B-scan结构相近,因此在合成EDI-OCT图像相邻帧之间也应保持较小的结构差异。本发明通过向GXY添加正则化项Lglobal,限制相邻B-scan经GXY生成的图像的像素间差异,以此保持图像的全局结构。
可以定义为:
其中GXY(xk)表示xk经生成器GXY处理后得到的图像。
2)局部结构约束损失
为了保持SD-OCT的局部结构信息,引入模态无关邻域描述符(MIND)来描述局部结构特征。
对于B-scan图像x中的像素i,MIND特征值Fi是一个|Rnl|长的向量,其中Rnl表示像素i的非局部区域。对一个来自于i+α∈Rnl的像素来说,每个元素Fi (α)被定义为:
其中Z是一个归一化常数,使Fi的最大分量为1。DP(x,i,i+α)表示以像素i和像素i+α为中心的两个图像块P之间的L2距离,可以定义为:
分母V(x,i)可以定义为:
其中N是像素i的四邻域。
基于上面所述的MIND特征,局部结构损失可以通过优化GXY(x)或GYX(y)和相应的y和x的MIND特征的差异来定义。
其中N1和N2分别表示输入图像的像素数量,||·||2表示L2正则化。
加入全局结构和局部结构约束项的循环生成对抗网络的最终优化目标函数为:
L(GXY,GYX,DX,DY)=LGAN(GXY,DY)+LGAN(GYX,DX)+λ1Lcyc(GXY,GYX)+λ2Lglobal3Llocal
其中λ1和λ3分别设为10和5来定义循环一致性损失和局部结构损失的权重。本发明将λ2设为0.05保证结构损失和对抗损失的大小大致相同。经过测试,如果全局结构损失权重过大,网络的训练会很难收敛。
步骤3.2:网络结构设计
循环生成网络由两个生成器和对应的判别器构成,生成器GXY和GYX、判别器DX和DY具有相同的结构。
1)生成器结构
为了更好的学习SD-OCT的噪声分布,生成器设计成一种基于Encoder-Decoder结构的网络,在此基础上,增加了跳跃连接,将Encoder的特征图输入到Decoder的对应层。跳跃连接在网络浅层和深层之间增加了通路,让每一层的特征图得到更充分的利用。生成器由8个卷积层和8个反卷积层构成。生成模型的输入与输出均为512×512像素的单通道OCT图像,卷积核大小均为4*4,卷积操作步长均为2,每个卷积层和反卷积层后都使用批归一化层和激活层。
2)判别器结构
判别器的输入是一张512×512的OCT图像。判别器是由5个卷积层构成的全卷积网络,均采用4*4大小的卷积核,前4个卷积层后使用斜率为0.2的Leaky ReLU激活层。
步骤4包括:
训练模型过程中,将准备好的5280幅SD-OCT和相应的1164幅EDI-OCT B-scan图像作为训练集,为了增加训练样本的数量,在训练时每张图像被随机裁剪成256×256大小。所有网络都使用Adam算法进行优化,学习率在前50个epoch为0.0002并在后50个epoch线性衰减成0。
实验结果与分析
为了验证本发明提出的基于无监督对抗神经网络的SD-OCT去噪算法的有效性,我们通过作对比实验来验证算法去噪结果。
本实施例采用BM3D模型,Bilateral Filter模型,Tikhonov模型,Cycle-GAN模型,CGAN-Edge模型和本文提出的模型对测试数据进行处理,处理结果分别显示在图3中。如图所示,经BM3D和Bilateral Filter模型处理过的图像在视网膜层内部和边界处存在条形伪影,视觉效果较差;Tikhonov模型的去噪结果能有效地抑制了块状伪影,增强图像的对比度,但是存在明显的边缘模糊和细节丢失的现象;Cycle-GAN的方法处理结果存在明显的伪影,丢失了一些细节信息和边缘特征;CGAN-Edge与本文方法视觉效果近似,但该方法是监督模型,需要SD-OCT和与之配对的EDI-OCT,而本文提出的方法是无监督模型,能够充分利用训练样本,在定量指标上优于该方法。采用本文提出的去噪方法后,经过处理的图像保留了更多的图像边缘信息和细节信息,并且结果图与EDI-OCT图最为相似且具有更加理想的视觉效果。
本实施例采用峰值信噪比(Peak signal-to-noise ratio),结构相似性(Structural similarity index,SSIM)和边缘保持系数(Edge preservation index,EPI)这3个客观评价指标来对不同算法的去噪效果进行衡量,得到的结果显示在表1中。可以看出,本文模型PSNR、SSIM和EPI值这3个指标均值优于其他5种方法,这与上述实验的视觉效果对比图是吻合的,说明本文模型处理的结果降噪效果最优且与对应的EDI-OCT图的相似度最高。
表1 不同方法去噪结果的评价指标比较

Claims (5)

1.一种基于无监督对抗神经网络的SD-OCT去噪方法,其特征在于,包括如下步骤:
步骤1:采集N张SD-OCT图像和M张EDI-OCT图像,M张EDI-OCT图像分别是N张SD-OCT图像中M张SD-OCT图像的去噪图像,N>M;分别提取N张SD-OCT图像中视网膜解剖结构区域,将EDI-OCT图像与其对应的SD-OCT图像进行配准,找到EDI-OCT图像中的视网膜解剖结构区域;
步骤2:以N张SD-OCT图像中的视网膜解剖结构区域为图像数据样本,M张EDI-OCT图像的视网膜解剖结构区域为样本标签,构建图像数据样本集;
步骤3:设计加入全局结构和局部结构约束项的循环生成对抗网络;
步骤4:利用图像数据样本集对循环生成对抗网络进行训练,得到对结构信息敏感的SD-OCT去噪模型;
步骤5:提取待去噪的SD-OCT图像的视网膜解剖结构区域,将视网膜解剖结构区域输入训练好的SD-OCT去噪模型,得到其对应的EDI-OCT图像的视网膜解剖结构区域。
2.根据权利要求1所述的一种基于无监督对抗神经网络的SD-OCT去噪方法,其特征在于,步骤3中,循环生成对抗网络的目标函数为:
L(GXY,GYX,DX,DY)=LGAN(GXY,DY)+LGAN(GYX,DX)+λ1Lcyc(GXY,GYX)+λ2Lglobal3Llocal
其中,LGAN(GXY,DY)和LGAN(GYX,DX)是双边映射中的对抗损失,Lcyc(GXY,GYX)为循环一致损失,Lglobal为全局结构损失,Llocal为局部结构约束损失,λ1、λ2和λ3为权重,GXY和GYX为生成器,DX和DY为判别器。
3.根据权利要求2所述的一种基于无监督对抗神经网络的SD-OCT去噪方法,其特征在于,其中GXY(xk)表示xk经生成器GXY处理后得到的图像,xk为三维SD-OCT第k张B-scan图像。
4.根据权利要求2所述的一种基于无监督对抗神经网络的SD-OCT去噪方法,其特征在于,其中N1和N2分别表示输入图像的像素数量,||·||2表示L2正则化;
对于B-scan图像x中的像素i,MIND特征值Fi是一个|Rnl|长的向量,其中Rnl表示像素i的非局部区域;对一个来自于i+α∈Rnl的像素来说,α表示像素i+α相对于像素i的偏离量,每个元素Fi (α)被定义为:
其中Z是一个归一化常数,使Fi的最大分量为1;DP(x,i,i+α)表示以像素i和像素i+α为中心的两个图像块P之间的L2距离,定义为:
分母V(x,i)定义为:
其中N是像素i的四邻域。
5.根据权利要求2-4任一所述的一种基于无监督对抗神经网络的SD-OCT去噪方法,其特征在于,λ1、λ2和λ3分别取值10、0.05、5。
CN201910732921.XA 2019-08-09 2019-08-09 一种基于无监督对抗神经网络的sd-oct去噪方法 Pending CN110428385A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910732921.XA CN110428385A (zh) 2019-08-09 2019-08-09 一种基于无监督对抗神经网络的sd-oct去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910732921.XA CN110428385A (zh) 2019-08-09 2019-08-09 一种基于无监督对抗神经网络的sd-oct去噪方法

Publications (1)

Publication Number Publication Date
CN110428385A true CN110428385A (zh) 2019-11-08

Family

ID=68413521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910732921.XA Pending CN110428385A (zh) 2019-08-09 2019-08-09 一种基于无监督对抗神经网络的sd-oct去噪方法

Country Status (1)

Country Link
CN (1) CN110428385A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667424A (zh) * 2020-05-28 2020-09-15 武汉大学 一种基于无监督的真实图像去噪方法
CN113034393A (zh) * 2021-03-25 2021-06-25 北京百度网讯科技有限公司 照片修复方法、装置、设备以及存储介质
CN113362258A (zh) * 2021-07-08 2021-09-07 南方科技大学 白内障患者眼底彩照图像去噪方法、装置、设备及介质
CN113763288A (zh) * 2021-09-28 2021-12-07 宁波慈溪生物医学工程研究所 一种医学图像增强方法
CN113781366A (zh) * 2021-11-03 2021-12-10 四川大学 一种基于深度学习的眼部oct图像清晰化方法
CN117726642A (zh) * 2024-02-07 2024-03-19 中国科学院宁波材料技术与工程研究所 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置
CN117726642B (zh) * 2024-02-07 2024-05-31 中国科学院宁波材料技术与工程研究所 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170270653A1 (en) * 2016-03-15 2017-09-21 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
CN107644424A (zh) * 2017-10-09 2018-01-30 南京医科大学第附属医院 通过合并edi‑oct图像来分割sd‑oct图像脉络膜的方法
CN109360156A (zh) * 2018-08-17 2019-02-19 上海交通大学 基于生成对抗网络的图像分块的单张图像去雨方法
CN110390647A (zh) * 2019-06-14 2019-10-29 平安科技(深圳)有限公司 基于环形对抗生成网络的oct图像去噪方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170270653A1 (en) * 2016-03-15 2017-09-21 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
CN107644424A (zh) * 2017-10-09 2018-01-30 南京医科大学第附属医院 通过合并edi‑oct图像来分割sd‑oct图像脉络膜的方法
CN109360156A (zh) * 2018-08-17 2019-02-19 上海交通大学 基于生成对抗网络的图像分块的单张图像去雨方法
CN110390647A (zh) * 2019-06-14 2019-10-29 平安科技(深圳)有限公司 基于环形对抗生成网络的oct图像去噪方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HERAN YANG: "Unpaired Brain MR-to-CT Synthesis using a Structure-Constrained CycleGAN", 《ARXIV:1809.04536V1》 *
吴从中等: "结合深度残差学习和感知损失的图像去噪", 《中国图象图形学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667424A (zh) * 2020-05-28 2020-09-15 武汉大学 一种基于无监督的真实图像去噪方法
CN111667424B (zh) * 2020-05-28 2022-04-01 武汉大学 一种基于无监督的真实图像去噪方法
CN113034393A (zh) * 2021-03-25 2021-06-25 北京百度网讯科技有限公司 照片修复方法、装置、设备以及存储介质
CN113362258A (zh) * 2021-07-08 2021-09-07 南方科技大学 白内障患者眼底彩照图像去噪方法、装置、设备及介质
CN113362258B (zh) * 2021-07-08 2022-10-21 南方科技大学 白内障患者眼底彩照图像去噪方法、装置、设备及介质
CN113763288A (zh) * 2021-09-28 2021-12-07 宁波慈溪生物医学工程研究所 一种医学图像增强方法
CN113781366A (zh) * 2021-11-03 2021-12-10 四川大学 一种基于深度学习的眼部oct图像清晰化方法
CN117726642A (zh) * 2024-02-07 2024-03-19 中国科学院宁波材料技术与工程研究所 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置
CN117726642B (zh) * 2024-02-07 2024-05-31 中国科学院宁波材料技术与工程研究所 一种用于光学相干断层扫描图像的高反射病灶分割方法和装置

Similar Documents

Publication Publication Date Title
CN110428385A (zh) 一种基于无监督对抗神经网络的sd-oct去噪方法
Zhang et al. Reducing uncertainty in undersampled MRI reconstruction with active acquisition
Singh et al. Multimodal medical image sensor fusion model using sparse K-SVD dictionary learning in nonsubsampled shearlet domain
Morel et al. A PDE formalization of Retinex theory
Lingala et al. Blind compressive sensing dynamic MRI
CN109345469A (zh) 一种基于条件生成对抗网络的oct成像中散斑去噪方法
CN113344799A (zh) 用于使用深度神经网络减少医学图像中的有色噪声的系统和方法
Gramfort et al. Denoising and fast diffusion imaging with physically constrained sparse dictionary learning
You et al. Fundus image enhancement method based on CycleGAN
Xu et al. Deformed2self: Self-supervised denoising for dynamic medical imaging
Wang et al. Spectral-image decomposition with energy-fusion sensing for spectral CT reconstruction
CN107845065A (zh) 超分辨率图像重建方法和装置
Kanimozhi et al. Brain MR image segmentation using self organizing map
Rathi et al. Detection and characterization of brain tumor using segmentation based on HSOM, wavelet packet feature spaces and ANN
CN103810712B (zh) 一种能谱ct图像质量的评价方法
Li et al. Speckle noise removal based on structural convolutional neural networks with feature fusion for medical image
CN109064402A (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
Cao et al. Research for face image super-resolution reconstruction based on wavelet transform and SRGAN
Xu et al. STRESS: Super-resolution for dynamic fetal MRI using self-supervised learning
Sander et al. Autoencoding low-resolution MRI for semantically smooth interpolation of anisotropic MRI
Zuo et al. Synthesizing realistic brain MR images with noise control
Hou et al. PNCS: Pixel-level non-local method based compressed sensing undersampled MRI image reconstruction
Mardani et al. Recurrent generative adversarial neural networks for compressive imaging
CN116894783A (zh) 基于时变约束的对抗生成网络模型的金属伪影去除方法
Mardani et al. Deep generative adversarial networks for compressed sensing (GANCS) automates MRI

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination