CN111242953A - 一种基于条件生成对抗网络的mr图像分割方法及装置 - Google Patents
一种基于条件生成对抗网络的mr图像分割方法及装置 Download PDFInfo
- Publication number
- CN111242953A CN111242953A CN202010055252.XA CN202010055252A CN111242953A CN 111242953 A CN111242953 A CN 111242953A CN 202010055252 A CN202010055252 A CN 202010055252A CN 111242953 A CN111242953 A CN 111242953A
- Authority
- CN
- China
- Prior art keywords
- image
- segmentation
- network
- net
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种基于条件生成对抗网络的MR图像分割方法及装置,分割方法包括通过低级MR图像y和分割掩膜x训练cGAN网络,得到训练好的cGAN模型;根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工图像y’;利用人工图像y’和分割掩膜x预训练U‑net网络;通过低级MR图像y和分割掩膜x继续训练U‑net网络,得到训练好的U‑net模型;利用训练好的U‑net模型进行MR图像分割。本发明同时提供了一种实现上述方法的装置、终端设备以及计算机可读存储介质,本发明扩充和丰富了原始数据集的数据多样性,图像分割结果更接近真实图像,在分割网络训练过程中的收敛速度更快、损失更小且分割精度更高。
Description
技术领域
本发明属于图像处理领域,涉及一种基于条件生成对抗网络的MR图像分割方法及装置。
背景技术
近年来,图像分割技术在医学影像领域得到了越来越多的应用。例如,弥漫性低级胶质瘤(Lower-Grade Gliomas,LGG)是最常见的中枢神经系统肿瘤。LGG是世界卫生组织(World Health Organization,WHO)规定的II级和III级胶质瘤,包括星形胶质细胞瘤、少突胶质细胞瘤、少突星形胶质细胞瘤。由于II级和III级胶质瘤具有高度的侵袭性,因此,想要通过外科手术完全切除是不可能的,切除后残余的肿瘤通常导致复发并恶化为胶质母细胞瘤(Glioblastoma,GBM)。众所周知,肿瘤发现的越早,病人的生存机率就越高。现有技术针对临床通常使用磁共振成像(Magnetic Resonance Imaging,MRI)来评估脑肿瘤,并且医生在评估脑肿瘤时通常采用人工分割的方法,这种方式既耗时又需要专业知识。目前,深度学习算法在医学图像分析中取得了极大的成功,但是仍普遍存在标记数据不足的问题。介于临床上医生通常使用粗略测量来评估肿瘤,故而实现对肿瘤进行自动分割和定量分析十分必要。
目前,该领域相关的研究主要有:Goodfellow等人[1]首先以对抗性方式训练生成模型,生成对抗网络(Generative Adversarial Networks,GANs)由生成器和判别器两部分组成,它们在训练过程中相互竞争以提高各自的性能。为了保证生成图像的真实性,GANs学习真实数据的潜在分布,并从相同的分布中生成新的样本。但是,最初的GANs生成的结果十分不稳定,特别是对大型图像的生成。为了提高生成结果的可控性,条件生成对抗网络(conditional Generative Adversarial Networks,cGAN)在生成器和判别器中同时加入了条件信息。
现有技术利用GANs生成的医学图像来扩充原始训练集,可以缓解分类任务中由于数据量小而造成的问题。然而,生成的医学图像很少用于分割任务,这主要是因为生成的图像没有相应的精确病变分割掩膜。在大部分已有文献中,生成的样本通常来自一个与原始数据相同的特别稀疏的类,分类标签比分割掩膜更容易获得,因此,人工生成的医学图像一般用于扩充数据集以提高后续的检测和分类结果,不能够解决图像分割中标记数据不足的问题。
发明内容
本发明的目的在于针对上述现有技术中图像分割标记数据不足的问题,提供一种基于条件生成对抗网络的MR图像分割方法及装置,使人工生成的图像分割结果更接近真实图像。
为了实现上述目的,本发明有如下的技术方案:
一种基于条件生成对抗网络的MR图像分割方法,包括以下步骤:
通过低级MR图像y和分割掩膜x训练cGAN网络,得到训练好的cGAN模型;
根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工图像y’;
利用人工图像y’和分割掩膜x预训练U-net网络;
通过低级MR图像y和分割掩膜x继续训练U-net网络,得到训练好的U-net模型;
利用训练好的U-net模型进行MR图像分割。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,所述的cGAN网络由生成器和判别器两部分组成,生成器采用U-net架构,判别器采用CNN架构。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,所述的U-Net架构由编码器和解码器组成,在编码器和解码器堆栈中的镜像层之间设置跳跃连接;所述的跳跃连接用于在输入和输出之间直接通过网络传输低级的图像信息。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,所述的cGAN网络的损失函数为:
LcGAN(G,D)=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))]
式中,x为分割掩膜,y为低级MR图像,z为随机噪声,D(x,y)表示输入的图像来自于真实图像的概率,D(x,G(x,z))表示输入图像来自生成图像的概率;
G(x,z)为分割掩膜x对应的人工生成图像。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,所述的随机噪声z为Dropout的形式,应用于生成器的d1-d4层;
生成器和判别器的损失函数通过将GAN的目标函数与L1距离函数相结合得到;
所述的L1距离计算式为LL1(G)=Ex,y[||y-G(x,z)||1];
生成器和判别器的损失函数计算式如下:
上式中,λ为超参数,设定为100;G为生成器,D为判别器。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,设ytrue为手工分割掩膜,ypred为U-net网络的分割结果,U-net网络的Dice损失函数为:
训练过程使用敏感性、特异性、总体准确性、Dice相似系数、雅尔卡指数和马修斯相关系数来评估分割性能;所有定量测量均在手工分割掩膜和预测分割结果之间按像素计算;
上述度量指标分别表示如下:
良好的分割效果具有较高的敏感性和特异性;利用Dice和Jaccard指标来衡量预测结果和金标准之间的相似性,这些指标代表了精度和灵敏度的调和平均值,最大值为1表示最优结果,0表示最差结果;MCC用来衡量分类质量,包括真阳性和假阳性以及真阴性和假阴性。
作为优选,本发明基于条件生成对抗网络的MR图像分割方法一种实施例中,判别器中使用PatchGAN,图像分割的U-net模型采用改进的U-net架构,改进的U-net架构有以下特点:(1)在卷积过程中填充所有图层以保持图像大小不变,获得一个与输入图像大小相同的分割映射;(2)解码路径中的每一步都包含与编码路径对应的特征映射的拼接;(3)将最后一层的softmax函数替换为sigmoid函数来处理每个像素是黑色还是白色的二分类问题。
本发明还提供了一种基于条件生成对抗网络的MR图像分割装置,包括生成系统和分割系统,生成系统通过低级MR图像y和分割掩膜x训练cGAN网络,得到训练好的cGAN模型,根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工图像y’;分割系统利用人工图像y’和分割掩膜x预训练U-net网络,通过低级MR图像y和分割掩膜x继续训练U-net网络,得到训练好的U-net模型,利用训练好的U-net模型进行MR图像分割。
本发明还提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述的处理器在执行所述计算机程序时实现本发明上述基于条件生成对抗网络的MR图像分割方法的步骤。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现所述基于条件生成对抗网络的MR图像分割方法的步骤。
相较于现有技术,本发明具有如下的有益效果:针对强度不均匀、不同序列强度范围不同以及来自不同采集协议的低级MR图像,本发明生成的图像更接近于真实图像,生成的图像与输入分割掩膜具有相似的形状特征,与真实的MR图像具有相似的纹理特征。输入手工分割掩膜与输出人工图像虽然外观不同,但它们具有相同的底层结构和形状。本发明利用cGAN网络能够从输入的各种掩膜上学习一个给定数据集的分布,利用手工分割掩膜的形状特征生成的图像,扩充和丰富了原始数据集的数据多样性,进而在分割中取得了更好的性能。与常规数据扩充方式相比,生成图像扩充方法在提高数据多样性方面表现的更好。与此同时,本发明提出的图像分割方法在训练过程中收敛速度更快、损失更小且分割精度更高。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1本发明的MR图像分割方法针对低级胶质瘤分割的整体框架图;
图2(a)本发明条件生成对抗网络的生成器架构示意图;
图2(b)本发明条件生成对抗网络的判别器架构示意图;
图3本发明用于生成图像的U-net网络针对低级胶质瘤分割的框架图;
图4TCGA数据集的低级胶质瘤MR图像和分割掩膜示意图:
(a)pre-contrast;(b)FLAIR;(c)post-contrast;(d)ground truth;
图5cGAN生成的人工低级胶质瘤图像:
(a)pre-contrast;(b)FLAIR;(c)post-contrast;(d)ground truth;
图6(a)在real datasets与real+generated datasets数据集上的训练过程损失函数变化图;
图6(b)在real+augmented datasets与all datasets数据集上的训练过程损失函数变化图;
图7在测试集上的局部分割结果图:
(a)real dataset;(b)real+generated datasets;(c)real+augmenteddatasets;(d)all datasets。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。
基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提还可以进行若干简单的修改和润饰,所获得的所有其他实施例,都属于本发明保护的范围。
在本发明中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施方案中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本发明所描述的实施例还可以与其它的实施例相结合。
本发明期望得到的生成图像需满足两个要求:(1)人工生成的低级胶质瘤图像尽可能地接近真实的低级胶质瘤图像;(2)生成的低级胶质瘤图像与对应的分割掩膜一一对应。为了解决低级胶质瘤分割中标记数据不足的问题,提出在扩充后的小数据集上分割低级胶质瘤的框架,如图1所示,用cGAN生成标记胶质瘤图像,以扩充标记数据集,提高低级胶质瘤分割结果。提出的框架由生成系统和分割系统两部分组成,如图1所示。生成系统分为条件生成对抗网络训练阶段和人工胶质瘤图像生成阶段。cGAN网络结构如图2(a)和图2(b)所示,由生成器(Generator network,G)和判别器(Discriminator network,D)两部分组成。
本发明提出的基于条件生成对抗网络的MR图像分割装置框架由生成系统和分割系统两部分组成,如图1所示。在生成模型训练阶段,用低级胶质瘤MR图像y和分割掩膜x训练生成模型;在人工胶质瘤图像生成阶段,根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工胶质瘤图像y’。分割系统基于改进的U-net网络,分为预训练阶段和训练阶段。在预训练阶段,利用人工生成胶质瘤图像y’和分割掩膜x U-net预训练网络;在训练阶段,在预训练模型的基础上,用低级胶质瘤MR图像y和分割掩膜x继续训练U-net网络。
实验使用的影像数据来自美国国家癌症研究所赞助的癌症影像档案(The CancerImaging Archive,TCIA),其中包含癌症基因组图谱(The Cancer Genome Atlas,TCGA)患者对应的MR影像。从TCGA-LGG集合中选取110例患者,其影像数据分别来以下自5个机构:Thomas Jefferson University(TCGA-CS,16例),Henry Ford Hospital(TCGA-DU,45例),UNC(TCGA-EZ,1例),Case Western(TCGA-FG,14例),Case Western St.Joseph’s(TCGA-HT,34例)。所选100例患者包括51例II级胶质瘤,58例III级胶质瘤,1例肿瘤的分级未知。所选数据包括前对比(pre-contrast)、FLAIR和后对比(post-contrast)三个序列,如图4所示,(d)为手工分割掩膜。随机选取10例患者作为测试集,100例患者作为训练集,每例患者的术前影像切片数量在20~88之间不等,包含含瘤切片和不含瘤切片。在同一个病人MR图像集中,含瘤切片数明显低于仅存在背景类的切片。所有切片裁剪到256×256大小,灰度归一化预处理。
cGAN学习从输入x(条件)到随机噪声z再到输出y的映射的模型。条件信息的添加使cGAN能够根据输入的分割掩膜(条件)生成满足第二个要求的低级胶质瘤图像(输出)。
cGAN的损失函数表示为:
LcGAN(G,D)=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))] (1)
其中x为分割掩膜,y为低级胶质瘤MR图像,z为随机噪声,D(x,y)表示输入的图像来自于真实图像的概率,D(x,G(x,z))表示输入图像来自生成图像的概率。假设x为分割掩膜,y为对应的低级胶质瘤MR图像,则G(x,z)为x对应的人工生成胶质瘤图像,随机噪声z为Dropout的形式,在训练和测试时应用于生成器的d1-d4层,如图2(a)所示。仅使用对抗性损失可能无法将梯度表达为期望的胶质瘤形状,因此,增加L1距离损失以促进学习过程。
L1距离可以表示为:
LL1(G)=Ex,y[||y-G(x,z)||1] (2)
通过将GAN的目标函数与L1距离函数相结合,生成器和判别器的损失函数分别定义为:
λ为超参数,设定为100。
生成器网络结构:选择U-net架构作为cGAN的生成器网络,U-net网络已经在不同的生物医学图像分割应用中取得了良好的效果。从图2(a)中可以观察到生成器网络的结构设置。可以发现,U-Net架构一般由编码器和解码器组成,编码器和解码器堆栈中的镜像层之间有跳跃连接(skip connection)。跳跃连接的主要作用是在输入和输出之间直接通过网络传输一些低级的图像信息。输入分割掩膜与输出人工胶质瘤图像的虽然外观不同,但它们具有相同的底层结构和形状,若所有信息都经过普通的编码器-解码器网络流通则很容易丢失底层结构和形状。此外,为了使人工生成的图像具有多样性,在解码器的d1-d4层使用了Dropout。
判别器网络结构:判别器网络是典型的CNN结构,图2(b)为详细网络结构。它根据输入的真实胶质瘤MR图像和人工胶质瘤图像,然后输出一个判断:当前输入图像是真还是假?在判别器中使用文献[36]中提出的PatchGAN,判别器只需分辨每个70×70的patch是真还是假,因此,网络运行速度更快,参数更少,可以应用于任意大的图像。patch大小为70×70。
最终形成的用于图像分割的U-net模型引入一个改进的U-net,它和原始U-net网络有三个主要差异:(1)在卷积过程中填充所有图层以保持图像大小不变,这样我们获得一个与输入图像大小相同的分割映射。(2)在解码路径中的每一步都包含与编码路径对应的特征映射的拼接。裁剪被移除,因为每一个填充卷积的边界像素丢失了。(3)将最后一层的softmax函数替换为sigmoid函数,因为低级胶质瘤分割输出结果的每个像素(黑色或白色)是一个二分类问题。
设ytrue为手工分割掩膜,ypred为U-net网络的分割结果,分割网络的Dice损失函数为:
对低级胶质瘤图像的分割可以看作是对每个像素的二分类。因此,将TP、TN、FP、FN等二分类问题中的常用概念作为计算评价指标,每个像素的评价指标分别表示真阳性、真阴性、假阳性和假阴性检测的个数。使用敏感性、特异性、总体准确性、Dice相似系数、雅尔卡指数(Jaccard index)和马修斯相关系数(Mattews correlation coefficient,MCC)来评估分割性能。所有定量测量都是在手工分割掩膜和预测分割结果之间按像素计算的。度量指标表示如下:
良好的分割效果具有较高的敏感性和特异性。利用Dice和Jaccard指标来衡量预测结果和金标准之间的相似性,指标代表了精度和灵敏度的调和平均值,最大值为1表示最优结果,0表示最差结果。MCC用来衡量分类的质量,包括真阳性和假阳性以及真阴性和假阴性。
用低级胶质瘤训练集训练cGAN网络,利用训练好的网络生成人工胶质瘤图像,如图5所示。脑MR图像存在强度不均匀、不同序列强度范围不同和来自不同的采集协议等问题。结果表明,该生成器生成的图像在L1感觉上接近于真实图像。生成的胶质瘤图像与输入分割掩膜具有相似的形状特征,与真实的胶质瘤MR图像具有相似的纹理特征。输入手工分割掩膜与输出人工胶质瘤图像的虽然外观不同,但它们具有相同的底层结构和形状。生成结果验证了在图像到图像转换环境下cGAN生成各种胶质瘤图像的有效性。
比较本发明方法与常规数据扩充方式对低级胶质瘤分割的影响,将图3所示的U-net分割网络分别在四种数据集上训练:(1)原始数据集(real datasets),只包含真实数据集,不使用任何数据扩充方式;(2)原始数据集+生成数据集(real+generated datasets),包含人工生成的胶质瘤图像和原始数据集;(3)原始数据集+常规扩充数据集(real+augmented datasets),在原始数据集的基础上采用常规扩充后的数据集;(4)原始数据集+常规扩充数据集+生成数据集(real+augmented+generated dataset,all datsets),人工生成的胶质瘤图像和在原始数据集的基础上采用常规扩充后的数据集。四种训练数据集上的损失函数变化如图6(a)和图6(b)所示,可以看出本发明提出的方法在训练过程中收敛速度更快、损失更小,且分割精度更高。
脑肿瘤在空间位置和结构上具有高度可变性,上述四种训练模型在测试集上的定量评估结果如表1所示。从表中的实验结果可看出,经过人工生成胶质瘤图像预训练的模型表现出更好的分割性能,而常规数据扩充方式对提高网络分割性能作用有限。
在相同的训练参数和测试集下,本发明提出的方法在测试集上明显得到了更好的结果。与原始数据集上训练的分割模型相比,本发明提出的人工生成图像扩充方法在测试集上分割结果的Dice系数提高了5.37%,Jac.提高了5.42%;与常规数据扩充方法相比,本发明提出的人工生成图像扩充方法在测试集上分割结果的Dice系数提高了4.39%,Jac.提高了4.42%;在两个数据集都存在常规数据扩充的情况下,含有本发明提出的人工生成图像扩充的数据集在测试集上分割结果的Dice系数提高了4.01%,Jac.提高了3.89%。
表1四种训练模型在测试集上的评估结果
四种训练模型在测试集上的部分分割结果如图7所示。从分割结果中可以看到,在原始数据集和经过传统扩充的数据集上的分割结果存在一些离群点,经过人工生成图像扩充的数据集上的分割结果则消除了这些离群点,使得分割结果更加接近于真实的肿瘤形态。
实验结果表明,本发明所提出的低级胶质瘤分割框架能够利用cGAN从输入的各种掩膜上学习一个给定数据集的分布,利用手工分割掩膜的形状特征生成的胶质瘤图像扩充和丰富了原始数据集的数据多样性,进而在胶质瘤分割中取得了更好的性能。与常规数据扩充方式相比,生成图像扩充方法在提高数据多样性方面表现的更好。
低级胶质瘤的自动分割对临床诊断和治疗计划的制定有着重要的意义。本发明通过对抗性学习生成具有精确掩膜的胶质瘤图像,用于扩充数据集以提高低级胶质瘤分割网络的性能。评估如何通过对抗性学习来提高特定操作在医学图像分析中的表现。结果表明,所生成的带精确掩膜的低级胶质瘤图像可以成功地应用于计算机辅助诊断的算法中。本发明所提出的方法为低级胶质瘤在医学影像分析中提供了应用于更鲁棒的电脑辅助诊断系统的参考。
以上结合具体特征及其实施例对本发明进行了描述,显而易见的,在不脱离本发明的精神和范围的情况下,还可以对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本发明的示例性说明,且视为已覆盖本发明范围内的任意和所有修改、变化、组合或等同物。显然,本领域技术人员可以对本发明进行各种改动和变型,这些不脱离本发明的精神和范围的修改和变型也属于本发明权利要求及其等同技术的范围之内。
Claims (10)
1.一种基于条件生成对抗网络的MR图像分割方法,其特征在于,包括以下步骤:
通过低级MR图像y和分割掩膜x训练cGAN网络,得到训练好的cGAN模型;
根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工图像y’;
利用人工图像y’和分割掩膜x预训练U-net网络;
通过低级MR图像y和分割掩膜x继续训练U-net网络,得到训练好的U-net模型;
利用训练好的U-net模型进行MR图像分割。
2.根据权利要求1所述基于条件生成对抗网络的MR图像分割方法,其特征在于:cGAN网络由生成器和判别器两部分组成,生成器采用U-net架构,判别器采用CNN架构。
3.根据权利要求2所述基于条件生成对抗网络的MR图像分割方法,其特征在于:所述的U-net架构由编码器和解码器组成,在编码器和解码器堆栈中的镜像层之间设置跳跃连接;所述的跳跃连接用于在输入和输出之间直接通过网络传输低级的图像信息。
4.根据权利要求2所述基于条件生成对抗网络的MR图像分割方法,其特征在于:
所述的cGAN网络的损失函数为:
LcGAN(G,D)=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))]
式中,x为分割掩膜,y为低级MR图像,z为随机噪声,D(x,y)表示输入的图像来自于真实图像的概率,D(x,G(x,z))表示输入图像来自生成图像的概率;
G(x,z)为分割掩膜x对应的人工生成图像。
6.根据权利要求1所述基于条件生成对抗网络的MR图像分割方法,其特征在于:
设ytrue为手工分割掩膜,ypred为U-net网络的分割结果,U-net网络的Dice损失函数为:
训练过程使用敏感性、特异性、总体准确性、Dice相似系数、雅尔卡指数和马修斯相关系数来评估分割性能;所有定量测量均在手工分割掩膜和预测分割结果之间按像素计算;
上述度量指标分别表示如下:
良好的分割效果具有较高的敏感性和特异性;利用Dice和Jaccard指标来衡量预测结果和金标准之间的相似性,这些指标代表了精度和灵敏度的调和平均值,最大值为1表示最优结果,0表示最差结果;MCC用来衡量分类质量,包括真阳性和假阳性以及真阴性和假阴性。
7.根据权利要求1所述基于条件生成对抗网络的MR图像分割方法,其特征在于:判别器中使用PatchGAN,图像分割的U-net模型采用改进的U-net架构,改进的U-net架构有以下特点:(1)在卷积过程中填充所有图层以保持图像大小不变,获得一个与输入图像大小相同的分割映射;(2)解码路径中的每一步都包含与编码路径对应的特征映射的拼接;(3)将最后一层的softmax函数替换为sigmoid函数来处理每个像素是黑色还是白色的二分类问题。
8.一种基于条件生成对抗网络的MR图像分割装置,其特征在于,包括生成系统和分割系统,生成系统通过低级MR图像y和分割掩膜x训练cGAN网络,得到训练好的cGAN模型,根据输入的分割掩膜x,使用训练好的cGAN模型自动生成人工图像y’;分割系统利用人工图像y’和分割掩膜x预训练U-net网络,通过低级MR图像y和分割掩膜x继续训练U-net网络,得到训练好的U-net模型,利用训练好的U-net模型进行MR图像分割。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述的处理器在执行所述计算机程序时实现如权利要求1至7中任一项所述基于条件生成对抗网络的MR图像分割方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述的计算机程序被处理器执行时实现如权利要求1至7中任一项所述基于条件生成对抗网络的MR图像分割方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010055252.XA CN111242953B (zh) | 2020-01-17 | 2020-01-17 | 一种基于条件生成对抗网络的mr图像分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010055252.XA CN111242953B (zh) | 2020-01-17 | 2020-01-17 | 一种基于条件生成对抗网络的mr图像分割方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242953A true CN111242953A (zh) | 2020-06-05 |
CN111242953B CN111242953B (zh) | 2023-02-28 |
Family
ID=70864956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010055252.XA Active CN111242953B (zh) | 2020-01-17 | 2020-01-17 | 一种基于条件生成对抗网络的mr图像分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242953B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102323A (zh) * | 2020-09-17 | 2020-12-18 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
CN112270686A (zh) * | 2020-12-24 | 2021-01-26 | 北京达佳互联信息技术有限公司 | 图像分割模型训练、图像分割方法、装置及电子设备 |
CN113222811A (zh) * | 2021-05-24 | 2021-08-06 | 北京理工大学 | 一种基于图像掩膜的人脸属性迁移方法 |
CN114519719A (zh) * | 2022-01-07 | 2022-05-20 | 宁波大学 | 一种脑肿瘤mr图像分割方法 |
CN115359073A (zh) * | 2022-10-17 | 2022-11-18 | 湖南自兴智慧医疗科技有限公司 | 基于对抗生成网络的染色体拓扑结构分割方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN107909621A (zh) * | 2017-11-16 | 2018-04-13 | 深圳市唯特视科技有限公司 | 一种基于双生成对抗网络的医学图像合成方法 |
CN109166126A (zh) * | 2018-08-13 | 2019-01-08 | 苏州比格威医疗科技有限公司 | 一种基于条件生成式对抗网络在icga图像上分割漆裂纹的方法 |
-
2020
- 2020-01-17 CN CN202010055252.XA patent/CN111242953B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101166A4 (en) * | 2017-08-25 | 2017-11-02 | Lai, Haodong MR | A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks |
CN107909621A (zh) * | 2017-11-16 | 2018-04-13 | 深圳市唯特视科技有限公司 | 一种基于双生成对抗网络的医学图像合成方法 |
CN109166126A (zh) * | 2018-08-13 | 2019-01-08 | 苏州比格威医疗科技有限公司 | 一种基于条件生成式对抗网络在icga图像上分割漆裂纹的方法 |
Non-Patent Citations (1)
Title |
---|
梁毓明等: "基于条件生成对抗网络的图像去雾算法", 《光子学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102323A (zh) * | 2020-09-17 | 2020-12-18 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
CN112102323B (zh) * | 2020-09-17 | 2023-07-07 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
CN112270686A (zh) * | 2020-12-24 | 2021-01-26 | 北京达佳互联信息技术有限公司 | 图像分割模型训练、图像分割方法、装置及电子设备 |
CN113222811A (zh) * | 2021-05-24 | 2021-08-06 | 北京理工大学 | 一种基于图像掩膜的人脸属性迁移方法 |
CN113222811B (zh) * | 2021-05-24 | 2022-08-09 | 北京理工大学 | 一种基于图像掩膜的人脸属性迁移方法 |
CN114519719A (zh) * | 2022-01-07 | 2022-05-20 | 宁波大学 | 一种脑肿瘤mr图像分割方法 |
CN114519719B (zh) * | 2022-01-07 | 2024-10-01 | 宁波大学 | 一种脑肿瘤mr图像分割方法 |
CN115359073A (zh) * | 2022-10-17 | 2022-11-18 | 湖南自兴智慧医疗科技有限公司 | 基于对抗生成网络的染色体拓扑结构分割方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111242953B (zh) | 2023-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242953B (zh) | 一种基于条件生成对抗网络的mr图像分割方法及装置 | |
Zhang et al. | Deep‐learning detection of cancer metastases to the brain on MRI | |
CN108596882B (zh) | 病理图片的识别方法及装置 | |
Sainju et al. | Automated bleeding detection in capsule endoscopy videos using statistical features and region growing | |
Putra et al. | Enhanced skin condition prediction through machine learning using dynamic training and testing augmentation | |
US11935213B2 (en) | Laparoscopic image smoke removal method based on generative adversarial network | |
Kabir | Automatic brain tumor detection and feature extraction from mriimage | |
CN111932512B (zh) | 一种基于cnn和nlstm神经网络应用于ct影像的颅内出血检测方法 | |
Yang et al. | Learning COVID-19 pneumonia lesion segmentation from imperfect annotations via divergence-aware selective training | |
Bharathi et al. | Combination of hand-crafted and unsupervised learned features for ischemic stroke lesion detection from Magnetic Resonance Images | |
CN114093507A (zh) | 边缘计算网络中基于对比学习的皮肤病智能分类方法 | |
Kang et al. | Deep Learning Based on ResNet-18 for Classification of Prostate Imaging-Reporting and Data System Category 3 Lesions | |
Lu et al. | Data enhancement and deep learning for bone age assessment using the standards of skeletal maturity of hand and wrist for chinese | |
Jin et al. | Automatic primary gross tumor volume segmentation for nasopharyngeal carcinoma using ResSE-UNet | |
CN116153530A (zh) | 基于口腔扫描视频的正畸治疗监测方法及装置 | |
Li et al. | A Multi-Category Brain Tumor Classification Method Bases on Improved ResNet50. | |
Winata et al. | Implementation of a faster R-CNN algorithm for identification of metastatic tissue using lymphoma histopathological images | |
Fan et al. | Mammography Data Augmentation Using ACGAN | |
Bumpenje et al. | Chest Cancer Classification from Chest CT-Scan Images using Deep Learning | |
Xia et al. | Expanded Mask R-CNN's Retinal Edema Detection Network | |
Chen et al. | LLASN: Lung Lobes Segmentation that Uses Adversarial Network | |
CN117893450B (zh) | 一种数字病理图像增强的方法、装置和设备 | |
Liu et al. | Few-shot learning for auromatic intracranial hematoma segmentation | |
CN118154963B (zh) | 多任务乳腺密度分类方法、系统、计算机装置及存储介质 | |
CN117788812A (zh) | 一种基于小样本元学习的医学影像语义分割方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |