CN112862831A - 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法 - Google Patents

对抗网络生成方法和眼底荧光造影图像无灌注区分割方法 Download PDF

Info

Publication number
CN112862831A
CN112862831A CN202110161077.7A CN202110161077A CN112862831A CN 112862831 A CN112862831 A CN 112862831A CN 202110161077 A CN202110161077 A CN 202110161077A CN 112862831 A CN112862831 A CN 112862831A
Authority
CN
China
Prior art keywords
discriminator
generator
loss function
image
segmentation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110161077.7A
Other languages
English (en)
Inventor
向德辉
蔡木林
田蓓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou University
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN202110161077.7A priority Critical patent/CN112862831A/zh
Publication of CN112862831A publication Critical patent/CN112862831A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请公开了一种对抗网络生成方法和眼底荧光造影图像无灌注区分割方法,涉及图像处理技术领域,所述方法包括:获取样本眼底荧光造影图像;将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。达到了可以通过神经网络对眼底荧光造影图像无灌注区进行快速准确的分割的效果。

Description

对抗网络生成方法和眼底荧光造影图像无灌注区分割方法
技术领域
本发明涉及对抗网络生成方法和眼底荧光造影图像无灌注区分割方法,属于图像处理技术领域。
背景技术
视网膜毛细血管无灌注(Capillary Non-Perfusion,CNP)是糖尿病视网膜血管病变之一,由于毛细血管完全性闭塞,血液停止流向视网膜的某些区域,导致无灌注区的生成。视网膜无灌注区会出现眼底黄斑处于缺血性、氧气不足的情况,无灌注区附近易产生新生血管,由于新生血管的管壁的通透性极其不稳定,容易出现渗出、出血,导致整个玻璃体腔积血,严重者可导致失明。CNP还存在于脑型疟疾中,由于视网膜血管中寄生红细胞的被隔离,引起视网膜灌注受损。疟疾性视网膜病变是儿童脑型疟疾的最佳临床诊断指标,在发展中国家脑型疟疾是导致死亡和残疾的常见原因。除此之外,视网膜无灌注区还多见于眼底黄斑静脉堵塞,眼底黄斑静脉周边炎,表层渗出性视网膜病变等眼底黄斑血管性病症以及其炎症性疾病,包括中央和分支视网膜静脉阻塞,镰状视网膜病变等。因此,视网膜病变在糖尿病和脑型疟疾中具有高度的临床意义。
发明内容
本发明的目的在于提供一种对抗网络生成方法和眼底荧光造影图像无灌注区分割方法,用于解决现有技术中存在的问题。
为达到上述目的,本发明提供如下技术方案:
根据第一方面,本发明实施例提供了一种对抗网络生成方法,包括以下步骤:
获取样本眼底荧光造影图像;
将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;
将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;
根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。
可选的,所述根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,包括:
获取所述生成器的损失函数;
获取所述判别器的损失函数;
根据所述输出分割结果、所述真实分割结果、所述判别结果、所述生成器的损失函数和所述判别器的损失函数训练所述生成器和所述判别器。
可选的,所述获取所述生成器的损失函数,包括:
LG=Lbce(G(XG),YG);
其中,LG为所述生成器的损失函数,XG为所述生成器的输入图像,YG为分割金标准,G(XG)为输入通过所述生成器后的输出分割结果,Lbce表示二值交叉熵损失函数。
可选的,所述获取所述判别器的损失函数,包括:
所述判别器的分类损失函数LDC为:
LDC=Lmse(De(XD),YDC);
所述判别器的逐像素损失函数LDP为:
LDP=Lmse(Dd(XD),YDP);
其中,XD表示为所述判别器的输入,De(XD)表示所述判别器编码路径的输出,Dd(XD)表示所述判别器解码路径的输出,YDC表示为所述判别器编码路径上分类器的真实分割结果,YDP表示为判别器解码路径的逐像素判别人工标注图像,Lmse表示均方差损失函数。
可选的,所述根据所述输出分割结果、所述真实分割结果、所述判别结果、所述生成器的损失函数和所述判别器的损失函数训练所述生成器和所述判别器,包括:
根据所述生成器的损失函数和所述判别器的损失函数确定所述对抗网络的总损失函数;
根据所述输出分割结果、所述真实分割结果、所述判别结果以及所述对抗网络的总损失函数训练所述生成器和所述判别器。
可选的,所述根据所述生成器的损失函数和所述判别器的损失函数确定所述对抗网络的总损失函数,包括:
所述总损失函数为:
L=αLG+βLDC+γLDP
其中,LG为生成器的损失函数,LDC和LDP分别表示判别器的二分类损失函数和逐像素判别损失函数,α,β,γ为超参数。
可选的,所述将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果,包括:
将所述样本眼底荧光造影图像的灰度图输入至所述生成器,通过卷积和最大池化得到深层信息,通过上采样和卷积恢复到所述灰度图的大小,通过卷积和sigmoid激活函数输出概率图,对输出的所述概率图进行二值化得到所述输出分割结果。
可选的,所述将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,包括:
将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至所述判别器,通过卷积和最大池化得到深层信息,再通过上采样和卷积,输出和所述判别器的输入图大小相同的特征图,实现对所述判别器的输入图像每个像素进行判别。
第二方面,提供了一种眼底荧光造影图像无灌注区分割方法,所述方法包括:
获取目标眼底荧光造影图像;
将所述目标眼底荧光造影图像输入至训练后的生成器中,通过训练后的所述生成器对所述目标眼底荧光造影图像进行无灌注区分割,所述生成器为通过第一方面所述的方法训练得到。
通过获取样本眼底荧光造影图像;将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。达到了可以通过神经网络对眼底荧光造影图像无灌注区进行快速准确的分割的效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
图1为本发明一个实施例提供的对抗神经网络生成方法的方法流程图;
图2为本发明一个实施例提供的对抗神经网络的网络结构图;
图3为本发明一个实施例提供的判别器的网络结构图;
图4为本发明一个实施例提供的眼底荧光造影图像无灌注区分割方法的方法流程图;
图5为本发明一个实施例提供的本申请提供的分割方法的分割结果与现有方法的对比图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
请参考图1,其示出了本申请一个实施例提供的对抗网络生成方法的方法流程图,如图1所示,所述方法包括:
步骤101,获取样本眼底荧光造影图像;
本步骤中的样本眼底荧光造影图像可以为来自医院临床采集的眼底荧光造影图像。比如,共有43个病人的138张768×868的图像,并有医生的人工标注,为本发明提供了实验样本和临床知识基础。所有图像输入网络之前被预处理为512×512的灰度图。实际实现时,138张图像划分为107张训练集和31张测试集,训练集和测试集病人没有重叠。由于实验数据有限,在训练过程中水平翻转进行数据增强,防止神经网络出现过拟合的现象。
本发明的模型基于Keras深度学习框架,GPU配置的是12G内存的NVIDIA TeslaK40m,总共训练100个周期。训练过程中学习速率设置为0.0002,批大小为2,并使用Adam算法优化网络的权值。
步骤102,将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;
请参考图2,对抗神经网络包括生成器G和判别器D两个模块,生成器是一个基于UNet设计的一个全卷积神经网络,目的是输入图像经过下采样-上采样等特征提取,最后输出一张概率图,经过二值化之后得到分割结果。
实际实现时,本步骤包括:将所述样本眼底荧光造影图像的灰度图输入至所述生成器,通过卷积(conv)和最大池化(maxpooling)得到深层信息,通过上采样(upsample)和卷积(conv)恢复到所述灰度图的大小,通过卷积和sigmoid激活函数输出概率图,对输出的所述概率图进行二值化得到所述输出分割结果。其中,每一次上采样之后都与最大池化的特征图进行通道合并来融合特征图。
步骤103,将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;
判别器实际上为一个二分类器,当输入为生成器生成的分割结果时称之为“假”图像,当输入为人工标注时称之为“真”图像。通过对生成器和判别器的交替训练,使判别器鉴别“真”、“假”图像能力提高的同时,生成器生成越来越“真”的图像。
实际实现时,本步骤包括:将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至所述判别器,通过卷积和最大池化得到深层信息,再通过上采样和卷积,输出和所述判别器的输入图大小相同的特征图,实现对所述判别器的输入图像每个像素进行判别。
判别器也可以U型网络。判别器是二分类器,对输入的图像判别“真”、“假”两类。具体的,将生成器sigmoid激活函数输出的概率图(称为生成图像)、人工标注图像作为判别器的输入图,输入到判别器网络,通过卷积(conv)和最大池化(maxpooling)得到深层信息,再通过上采样(upsample)和卷积(conv),输出和判别器的输入图大小相同的特征图,实现对判别器的输入图像每个像素进行判别。当判别器输入图像为人工标注图像(真图像)时,以一张全“1“的图像作为逐像素判别的约束,表示这张图像每一个像素都为真;当判别器输入图像为生成器生成的图像时,将生成图像与人工标注图像之间异或的结果作为判别器的约束,表示预测对的像素为真、预测错的像素为假。其中,以上所述的人工标注图像为样本眼底荧光造影图像所对应的真实分割结果。请参考图3,其示出了本申请一种可能的判别器的网络结构示意图。
步骤104,根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。
实际实现时,本步骤包括:
第一,获取所述生成器的损失函数;
LG=Lbce(G(XG),YG);
其中,LG为所述生成器的损失函数,XG为所述生成器的输入图像,YG为分割金标准,G(XG)为输入通过所述生成器后的输出分割结果,Lbce表示二值交叉熵损失函数。
第二,获取所述判别器的损失函数;
所述判别器的分类损失函数LDC为:
LDC=Lmse(De(XD),YDC);
所述判别器的逐像素损失函数LDP为:
LDP=Lmse(Dd(XD),YDP);
其中,XD表示为所述判别器的输入,De(XD)表示所述判别器编码路径的输出,Dd(XD)表示所述判别器解码路径的输出,YDC表示为所述判别器编码路径上分类器的真实分割结果,YDP表示为判别器解码路径的逐像素判别人工标注图像,Lmse表示均方差损失函数。
当判别器输入图像为真图像,即人工标注图像时,YDP内值全为1,表示输入图像的每一个像素都为真;当判别器输入为假图,即生成器生成的图像时,YDP为生成器其生成图像与人工标注图像异或得到的结果,表示输入图像和人工标注图像相同的像素为真,与人工标注图像不同的像素为假。
其中,
Figure BDA0002936679910000091
Figure BDA0002936679910000092
Figure BDA0002936679910000093
其中n表示训练图像总的像素数,yi表示图像像素预测结果,
Figure BDA0002936679910000094
表示图像像素人工标注。
第三,根据所述输出分割结果、所述真实分割结果、所述判别结果、所述生成器的损失函数和所述判别器的损失函数训练所述生成器和所述判别器。
(1)、根据所述生成器的损失函数和所述判别器的损失函数确定所述对抗网络的总损失函数;
所述总损失函数为:
L=αLG+βLDC+γLDP
其中,LG为生成器的损失函数,LDC和LDP分别表示判别器的二分类损失函数和逐像素判别损失函数,α,β,γ为超参数。
(2)、根据所述输出分割结果、所述真实分割结果、所述判别结果以及所述对抗网络的总损失函数训练所述生成器和所述判别器。
经过上述训练之后,即可得到训练后的生成器和判别器。训练后的生成器用于对目标眼底荧光造影图像进行分割。
综上所述,通过获取样本眼底荧光造影图像;将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。达到了可以通过神经网络对眼底荧光造影图像无灌注区进行快速准确的分割的效果。
请参考图4,其示出了本申请一个实施例提供的眼底荧光造影图像无灌注区分割方法的方法流程图,如图4所示,所述方法包括:
步骤401,获取目标眼底荧光造影图像;
步骤402,将所述目标眼底荧光造影图像输入至训练后的生成器中,通过训练后的所述生成器对所述目标眼底荧光造影图像进行无灌注区分割。
所述生成器为通过图1所述的方法训练得到。
为了定量评估本发明提出的方法,使用下面四个医学图像分割中常用的评价指标作为实验结果评估标准:Dice系数(DSC)、灵敏度(Sensitivity)、特异度(Specificity)和精确度(Accuracy)。
DSC是评估预测结果与人工标注之间相似度的函数,其利用预测结果与人工标注的交集与并集的比值得到,定义为:
Figure BDA0002936679910000101
其中TP(True Positive)为真阳性像素数,FP(False Positive)为假阳性像素数,FN(False Negative)为假阴性像素数。灵敏度表示识别出的所有正例占所有正例的比例,特异度表示识别出的负例占所有负例的比例,敏感度和特异度计算如下:
Figure BDA0002936679910000111
在本申请中将本申请提供的方法与UNet、FCN-8、cGAN、cGAN加入ASPP模块进行比较。不同的方法实验结果如表1所示。本发明的方法明显优于其他方法,在DSC、Sensitivity、和Accuracy都取得最高。通过图5(图中各列分别对应于原图、金标准、FCN、Unet、CGAN、cGAN+ASPP和本申请)也能发现,本发明的方法假阳性低于其他方法,且边缘更加清晰。
表1不同方法分割精度对比
DSC(%) SEN(%) SPE(%) ACC(%)
FCN[3] 70.55±14.65 63.71±19.25 98.60±1.40 94.82±3.02
Unet[4] 68.73±13.93 74.99±11.78 95.62±3.59 93.42±2.79
cGAN[5] 72.16±11.86 75.83±11.25 96.43±2.97 94.23±2.79
cGAN+ASPP[6] 69.27±16.19 77.95±11.73 93.16±3.95 94.81±4.44
Our method 75.38±11.15 79.60±9.94 96.72±2.78 94.89±2.40
综上所述,通过获取目标眼底荧光造影图像;将所述目标眼底荧光造影图像输入至训练后的生成器中,通过训练后的所述生成器对所述目标眼底荧光造影图像进行无灌注区分割;达到了可以通过神经网络对眼底荧光造影图像无灌注区进行快速准确的分割的效果。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种对抗网络生成方法,其特征在于,包括以下步骤:
获取样本眼底荧光造影图像;
将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果;
将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,所述生成器和所述判别器组成对抗网络;
根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,训练后的所述生成器用于对目标眼底荧光造影图像进行分割。
2.根据权利要求1所述的方法,其特征在于,所述根据所述输出分割结果、所述真实分割结果以及所述判别结果训练所述生成器和所述判别器,包括:
获取所述生成器的损失函数;
获取所述判别器的损失函数;
根据所述输出分割结果、所述真实分割结果、所述判别结果、所述生成器的损失函数和所述判别器的损失函数训练所述生成器和所述判别器。
3.根据权利要求2所述的方法,其特征在于,所述获取所述生成器的损失函数,包括:
LG=Lbce(G(XG),YG);
其中,LG为所述生成器的损失函数,XG为所述生成器的输入图像,YG为分割金标准,G(XG)为输入通过所述生成器后的输出分割结果,Lbce表示二值交叉熵损失函数。
4.根据权利要求2所述的方法,其特征在于,所述获取所述判别器的损失函数,包括:
所述判别器的分类损失函数LDC为:
LDC=Lmse(De(XD),YDC);
所述判别器的逐像素损失函数LDP为:
LDP=Lmse(Dd(XD),YDP);
其中,XD表示为所述判别器的输入,De(XD)表示所述判别器编码路径的输出,Dd(XD)表示所述判别器解码路径的输出,YDC表示为所述判别器编码路径上分类器的真实分割结果,YDP表示为判别器解码路径的逐像素判别人工标注图像,Lmse表示均方差损失函数。
5.根据权利要求2所述的方法,其特征在于,所述根据所述输出分割结果、所述真实分割结果、所述判别结果、所述生成器的损失函数和所述判别器的损失函数训练所述生成器和所述判别器,包括:
根据所述生成器的损失函数和所述判别器的损失函数确定所述对抗网络的总损失函数;
根据所述输出分割结果、所述真实分割结果、所述判别结果以及所述对抗网络的总损失函数训练所述生成器和所述判别器。
6.根据权利要求5所述的方法,其特征在于,所述根据所述生成器的损失函数和所述判别器的损失函数确定所述对抗网络的总损失函数,包括:
所述总损失函数为:
L=αLG+βLDC+γLDP
其中,LG为生成器的损失函数,LDC和LDP分别表示判别器的二分类损失函数和逐像素判别损失函数,α,β,γ为超参数。
7.根据权利要求1至6任一所述的方法,其特征在于,所述将所述样本眼底荧光造影图像输入至生成器中,得到输出分割结果,包括:
将所述样本眼底荧光造影图像的灰度图输入至所述生成器,通过卷积和最大池化得到深层信息,通过上采样和卷积恢复到所述灰度图的大小,通过卷积和sigmoid激活函数输出概率图,对输出的所述概率图进行二值化得到所述输出分割结果。
8.根据权利要求1至6任一所述的方法,其特征在于,所述将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至判别器中,得到判别结果,包括:
将所述输出分割结果以及所述样本眼底荧光造影图像所对应的真实分割结果输入至所述判别器,通过卷积和最大池化得到深层信息,再通过上采样和卷积,输出和所述判别器的输入图大小相同的特征图,实现对所述判别器的输入图像每个像素进行判别。
9.一种眼底荧光造影图像无灌注区分割方法,其特征在于,所述方法包括:
获取目标眼底荧光造影图像;
将所述目标眼底荧光造影图像输入至训练后的生成器中,通过训练后的所述生成器对所述目标眼底荧光造影图像进行无灌注区分割,所述生成器为通过权利要求1至8任一所述的方法训练得到。
CN202110161077.7A 2021-02-05 2021-02-05 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法 Pending CN112862831A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110161077.7A CN112862831A (zh) 2021-02-05 2021-02-05 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110161077.7A CN112862831A (zh) 2021-02-05 2021-02-05 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法

Publications (1)

Publication Number Publication Date
CN112862831A true CN112862831A (zh) 2021-05-28

Family

ID=75988514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110161077.7A Pending CN112862831A (zh) 2021-02-05 2021-02-05 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法

Country Status (1)

Country Link
CN (1) CN112862831A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782452A (zh) * 2022-06-23 2022-07-22 中山大学中山眼科中心 一种荧光素眼底血管造影图像的处理系统及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308450A (zh) * 2018-08-08 2019-02-05 杰创智能科技股份有限公司 一种基于生成对抗网络的脸部变化预测方法
CN110021037A (zh) * 2019-04-17 2019-07-16 南昌航空大学 一种基于生成对抗网络的图像非刚性配准方法及系统
CN111259906A (zh) * 2020-01-17 2020-06-09 陕西师范大学 含多级通道注意力的条件生成对抗遥感图像目标分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308450A (zh) * 2018-08-08 2019-02-05 杰创智能科技股份有限公司 一种基于生成对抗网络的脸部变化预测方法
CN110021037A (zh) * 2019-04-17 2019-07-16 南昌航空大学 一种基于生成对抗网络的图像非刚性配准方法及系统
CN111259906A (zh) * 2020-01-17 2020-06-09 陕西师范大学 含多级通道注意力的条件生成对抗遥感图像目标分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EDGAR SCH¨ONFELD ET AL.: "A U-Net Based Discriminator for Generative Adversarial Networks", IEEE *
田伟倩: "基于卷积神经网络的医学图像分割算法研究", 中国优秀硕士学位论文全文数据库 医药卫生科技辑 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782452A (zh) * 2022-06-23 2022-07-22 中山大学中山眼科中心 一种荧光素眼底血管造影图像的处理系统及装置
CN114782452B (zh) * 2022-06-23 2022-11-01 中山大学中山眼科中心 一种荧光素眼底血管造影图像的处理系统及装置

Similar Documents

Publication Publication Date Title
CN108771530B (zh) 基于深度神经网络的眼底病变筛查系统
EP3659067B1 (en) Method of modifying a retina fundus image for a deep learning model
CN108764286B (zh) 一种基于迁移学习的血管图像中特征点的分类识别方法
CN110827242B (zh) 一种基于卷积神经网络的颅内动脉瘤检测方法及系统
CN112016626B (zh) 基于不确定度的糖尿病视网膜病变分类系统
CN112750117B (zh) 一种基于卷积神经网络的血液细胞图像检测与计数方法
Yao et al. Automated hematoma segmentation and outcome prediction for patients with traumatic brain injury
CN112883962A (zh) 眼底图像识别方法、装置、设备、存储介质以及程序产品
Rachmatullah et al. Convolutional neural network for semantic segmentation of fetal echocardiography based on four-chamber view
CN111161287A (zh) 基于对称双向级联网络深度学习的视网膜血管分割方法
CN110991254B (zh) 超声图像视频分类预测方法及系统
Zhao et al. A nested U-shape network with multi-scale upsample attention for robust retinal vascular segmentation
CN114926477A (zh) 一种基于深度学习的脑肿瘤多模态mri影像分割方法
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
CN112884788A (zh) 基于丰富上下文网络的视杯视盘分割方法及成像方法
CN112862831A (zh) 对抗网络生成方法和眼底荧光造影图像无灌注区分割方法
Dhalla et al. Semantic segmentation of palpebral conjunctiva using predefined deep neural architectures for anemia detection
Kaya et al. A CNN transfer learning‐based approach for segmentation and classification of brain stroke from noncontrast CT images
Soundrapandiyan et al. AI-based wavelet and stacked deep learning architecture for detecting coronavirus (COVID-19) from chest X-ray images
Sengupta et al. An Empirical Analysis on Detection and Recognition of Intra-Cranial Hemorrhage (ICH) using 3D Computed Tomography (CT) images
Roels et al. A machine learning pipeline for predicting bone marrow oedema along the sacroiliac joints on magnetic resonance imaging
Mustafa et al. Malaria parasite diagnosis using computational techniques: a comprehensive review
Pu et al. Automated detection and segmentation of pulmonary embolisms on computed tomography pulmonary angiography (CTPA) using deep learning but without manual outlining
US11842492B2 (en) Cerebral hematoma volume analysis
CN115040128A (zh) 一种基于眼动数据的自闭症谱系障碍检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination