CN111047594B - 肿瘤mri弱监督学习分析建模方法及其模型 - Google Patents

肿瘤mri弱监督学习分析建模方法及其模型 Download PDF

Info

Publication number
CN111047594B
CN111047594B CN201911077952.2A CN201911077952A CN111047594B CN 111047594 B CN111047594 B CN 111047594B CN 201911077952 A CN201911077952 A CN 201911077952A CN 111047594 B CN111047594 B CN 111047594B
Authority
CN
China
Prior art keywords
tumor
mri
segmentation
model
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911077952.2A
Other languages
English (en)
Other versions
CN111047594A (zh
Inventor
吴茜
胡孝朋
王长青
谢俊松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Medical University
Original Assignee
Anhui Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Medical University filed Critical Anhui Medical University
Priority to CN201911077952.2A priority Critical patent/CN111047594B/zh
Publication of CN111047594A publication Critical patent/CN111047594A/zh
Application granted granted Critical
Publication of CN111047594B publication Critical patent/CN111047594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种肿瘤MRI弱监督学习分析建模方法,包括以下步骤:S1:构建以全卷积神经网络为基础的肿瘤MRI分割网络,实现肿瘤MRI初步分割;S2:将肿瘤MRI分割网络作为生成器,分类模型作为判别器,提出肿瘤MRI分割网络的生成对抗训练算法;S3:将医学图像中的未标注图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,增强分割‑生成对抗网络稳定性。还公开了一种利用所述肿瘤MRI弱监督学习分析建模方法建立的模型。本发明方法能够在较少训练样本情况下,更加精确地自动分割出肿瘤靶区和危及器官,应用于肿瘤放射治疗的靶区和危及器官勾画。

Description

肿瘤MRI弱监督学习分析建模方法及其模型
技术领域
本发明涉及机器学习及肿瘤放射技术领域,特别是涉及一种肿瘤MRI弱监督学习分析建模方法及其模型。
背景技术
放射治疗是现代肿瘤治疗的主要手段,其基本目标是实现放射治疗增益比的最大化,即最大限度地将放射线剂量集中到计划靶区(Planning Target Volume,PTV)内,在杀灭肿瘤细胞的同时,保护周围正常组织和危及器官(Organs at Risk,OARs)少受或免受不必要的照射。为实现这一目标,首先在患者断层图像中勾画肿瘤病灶,称为大体肿瘤体积(Gross Tumor Volume,GTV),在此基础上扩大一定区域,以包括病灶周边的亚临床灶,称为临床靶区,最后在基础上进一步扩大范围,以适应放射治疗过程中误差,生成计划靶区。因此,GTV的分割关系到后续靶区的精度,精准勾画PTV和OARs是精确制定放射治疗计划的基本保证,是肿瘤放射治疗的关键问题之一。临床上主要依靠临床放疗医生手工勾画肿瘤GTV,不仅效率低,而且主观性强,导致勾画结果不精确,影响放射治疗计划的精确性和治疗的疗效。因此,有必要提供肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法,为精确制定放疗计划、实现精准放疗提供基础保障。
深度学习(Deep learning,DL)的概念由Hinton等人于2006年提出,是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据。深度学习在以自然图像为分析处理对象的计算机视觉任务中展示了卓越的性能,已远超传统机器学习方法,尤其随着训练数据集的不断扩展,其预测精度仍在不断提升。但将深度学习方法成功应用到肿瘤放射治疗靶区和危及器官智能化、自动化勾画中仍具有很大挑战性,主要体现在以下几个方面:(1)医学图像只有强度值,而且通常信噪比较低,各组织器官解剖结构、病灶区域之间的分界线并不清晰,纹理差异也不大,因此,医学图像分析比自然图像分析更困难;(2)目前计算机视觉中的很多分类任务是图像级,而放疗中的医学图像需要做像素、体素级。例如肿瘤调强放射治疗计划要求从医学图像中高精度地分割出肿瘤放疗靶区及其周围正常组织器官。而且异常病灶区域(肿瘤)非常复杂,其出现的位置、大小、形状个体差异很大,因而异常病灶区检测、识别和分割比正常组织器官更具挑战性;(3)深度学习的成功很大程度上依赖于有监督深度学习,依赖于带有人工标注的超大规模的学习训练样本数据集。然而,医学图像数据集的标注需要大量的专业知识和时间,不同机构和机器的图像采集差异也导致数据分辨率、图像噪声和组织外观等方面存在很大的差异,获取大规模的有效数据集十分困难,特别对病灶样本数据集,因为其变化很大,且需要临床专家标注,可用的标注数据规模要小很多。目前主流的深度学习方法大多是基于卷积神经网络的有监督学习。然而,获取用于监督学习的标注数据是深度学习方法应用于医学数据分析的一大挑战。因此,研究医学图像弱监督学习方法,在目前已标记训练数据有限的情况下,充分利用医学图像中的非标注图像,解决小训练数据集的挑战是实现肿瘤放射治疗靶区和危及器官智能化、自动化勾画的难点。
磁共振成像(Magnetic Resonance Imaging,MRI)是人体组织器官和病灶中的氢原子核在外部强磁场作用下产生的磁共振信号大小的度量,并通过计算机对体外核磁共振信号探测器接收到的信息数据进行3D图像重建。MRI技术可以高质量地绘制人体内部组织结构的立体图像,对人体没有电离辐射损伤,现在被广泛的应用到临床医学中。因此,以肿瘤MRI为研究对象,运用深度学习理论和方法,充分利用MRI多模态非标注图像,建立肿瘤MRI弱监督学习分析模型,以实现精准放射治疗计划系统的多器官自动勾画能力。
发明内容
本发明所要解决的技术问题是提供一种肿瘤MRI弱监督学习分析建模方法及其模型,能够实现基于弱监督学习分析建模方法的肿瘤靶区和危及器官的自动勾画。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种肿瘤MRI弱监督学习分析建模方法,包括以下步骤:
S1:构建以全卷积神经网络为基础的肿瘤MRI分割网络,实现肿瘤MRI初步分割;
S2:将肿瘤MRI分割网络作为生成器,分类模型作为判别器,提出肿瘤MRI分割网络的生成对抗训练算法;
S3:将医学图像中的未标注图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,增强分割-生成对抗网络稳定性。
在本发明一个较佳实施例中,步骤S1的具体步骤包括:
S101:对MRI原始数据进行图像预处理;
S102:对肿瘤MRI分割网络的卷积层采用带步长卷积以提取肿瘤MRI特征,并允许空间下采样;
S103:采用基于反卷积的上采样操作,找到每个体素对应的类别,实现分割效果。
进一步的,所述肿瘤MRI分割网络由两个部分构成,即处理输入MRI图像的编码器部分及用于产生标签输出的解码器部分;输入的是3D肿瘤MRI体数据,输出每一个体素点属于正常组织与肿瘤的概率。
在本发明一个较佳实施例中,针对肿瘤MRI分割网络中,MRI肿瘤、不同正常组织的体素点不平衡性的问题,采用加权损失函数,定义如下:
Figure BDA0002263066630000031
其中,pi表示体素点i预测概率值,gi表示体素点i真实类别。
在本发明一个较佳实施例中,在步骤S2中,通过肿瘤MRI分割网络的生成对抗训练算法生成的对抗模型中,分割-生成式对抗网络损失函数L由两部分组成,第一部分是用于训练分割模型的改进Dice损失函数,第二部分为均方误差损失函数:
Figure BDA0002263066630000032
其中s表示分割模型的参数,d表示判别模型的参数,s(xn)是分割模型的输出概率图,Ld选用均方误差作为判别器的损失函数。
在本发明一个较佳实施例中,所述医学图像中的未标注图像数据包括多模态MRI数据、电子病历、医生专家的文本报告中的临床诊疗信息。
在本发明一个较佳实施例中,在步骤S3中,假设额外输入条件信息为y,通过肿瘤MRI分割网络的生成对抗训练算法生成的对抗模型中,分割-生成式对抗网络的目标函数表示为基于条件概率的极小极大值博弈,如下式:
Figure BDA0002263066630000033
其中,G表示生成器模型,D是判别器模型,z表示随机噪声。
进一步的,所述判别器与生成器的更新次数为1:2。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种所述肿瘤MRI弱监督学习分析建模方法建立的模型,主要包括:
图像导入和显示模块,用于导入病人的三维体数据,显示参考图像与浮动图像的横断面、冠状面、矢状面图像;
预处理模块,用于对医学图像进行图像处理、增强图像质量;
感兴趣区域模块,用于采用基于掩模的方法以提取感兴趣区域;
分割模块,用于通过构建以全卷积神经网络为基础的肿瘤MRI分割网络,并将其作为生成器,分类模型作为判别器,在已标记训练数据有限情况下,利用医学图像中的非标注图像,实现肿瘤放射治疗靶区和危及器官智能化、自动化勾画;
数据输出模块,用于显示分割后靶区和危及器官。
本发明的有益效果是:本发明方法能够在较少训练样本情况下,更加精确地自动分割出肿瘤靶区和危及器官,应用于肿瘤放射治疗的靶区和危及器官勾画:
(1)考虑正常组织、肿瘤的体素点不平衡性,提出加权损失函数,采用改进的带步长卷积技术提取肿瘤MRI特征,MRI图像增强方法扩展数据集,构建以全卷积神经网络为基础的肿瘤MRI分割网络,实现肿瘤MRI初步分割;
(2)将肿瘤MRI分割网络作为生成器,分类模型作为判别器,提出肿瘤MRI分割网络的生成对抗训练算法,使得肿瘤MRI分割网络通过对抗训练生成更加精确的分割结果;
(3)充分利用医学图像中的未标注图像,使得分割-生成对抗网络更适应小样本数据集,同时将未标注图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,增强分割-生成对抗网络的稳定性,实现基于弱监督学习分析建模方法的肿瘤自动分割。
附图说明
图1是本发明肿瘤MRI弱监督学习分析建模方法的流程图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
请参阅图1,本发明实施例包括:
一种肿瘤MRI弱监督学习分析建模方法,包括以下步骤:
S1:构建以全卷积神经网络为基础的肿瘤MRI分割网络,实现肿瘤MRI初步分割;具体步骤包括:
S101:对MRI原始数据进行图像预处理,包括图像处理、增强图像质量等;
S102:对肿瘤MRI分割网络的卷积层采用带步长卷积以提取肿瘤MRI特征,并允许空间下采样;
S103:采用基于反卷积的上采样操作,找到每个体素对应的类别,实现分割效果。
与传统的卷积神经网络相比,肿瘤MRI分割网络应满足以下几个特点:
1)肿瘤MRI分割网络输入为3D MRI体数据;
2)肿瘤MRI分割网络能够处理数量相对较少的已标注的有效MRI数据集;
3)肿瘤MRI分割网络具有调节不同正常组织、肿瘤体素点不平衡性的能力。
因此,肿瘤MRI分割模型一方面采用卷积神经网络中的卷积操作,利用MRI局部相关性,并且大大减少了参数数量。正因为卷积在图像处理方面的优势,有必要利用卷积神经网络处理肿瘤MRI。另一方面,传统卷积神经网络中的池化过程会导致图像部分细节丢失,这使得卷积神经网络不能直接应用于肿瘤MRI分割,因此,采用基于反卷积的上采样操作,找到每个体素对应的类别,实现分割效果。
肿瘤MRI分割网络由两个部分构成,即处理输入MRI图像的编码器部分及用于产生标签输出的解码器部分。输入的是3D肿瘤MRI体数据,输出每一个体素点属于正常组织与肿瘤的概率。3D数据量大将增大网络测试的时间开销,同时训练网络的性能受到图像块大小影响,因此采用端到端的全卷积神经网络,将3D MRI体数据作为网络的输入并生成相应大小的输出,其本质上是一种编码器-解码器网络。编码器和解码器各网络层采用高速连接通道,进一步加速肿瘤MRI模型的训练和优化,确保在训练集较小的情况下,也能得到较好结果。
卷积层采用带步长卷积以提取肿瘤MRI特征,并允许空间下采样;解码器部分采用上采样将缩小的特征放大到原始大小,并采用卷积操作丰富特征信息,以保证肿瘤MRI端到端输出。假设分割类别为C,那么解码后是一个C通道的卷积分类层,拟采用Softmax激活函数,输出所有体素点归属于某类别的概率。
在肿瘤MRI分割中,不同正常组织、肿瘤的体素点并不平衡,如肿瘤在MRI图像中像素点相对较少。因此肿瘤MRI分割模型应考虑MRI肿瘤、不同正常组织的体素点不平衡性,提出加权损失函数,定义如下:
Figure BDA0002263066630000061
其中,pi表示体素点i预测概率值,gi表示体素点i真实类别。从公式(1)可以看出,函数的分子部分表示的是预测体素点和真实体素点的交集,分母表示的是两个区域各自的面积平方。如果在模型的训练过程中忽略了不平衡类别,pi的值小,分子部分值就很小,Ls值接近1,那么不平衡类别上的损失函数相对于其他类别较大,将具有更强的反向传播梯度。
S2:将肿瘤MRI分割网络作为生成器,分类模型作为判别器,提出肿瘤MRI分割网络的生成对抗训练算法;
生成对抗网络由一个生成器(Generator)和一个判别器(Discriminator)组成,生成器与判别器之间是一种对抗的关系,生成器的目的是尽量去学习真实的数据分布,而判别器的目的是尽量正确判别输入数据是来自真实数据还是来自生成器;为了取胜,两者需要不断优化,各自提高自己的生成能力和判别能力,最终达到纳什均衡。
分割模型在本质上就是生成对抗网络中的一种生成模型,即从原始输入的MRI数据生成体素级的类别分割图。以这个思路出发,提出分割-生成式对抗网络,采用上述肿瘤MRI分割网络作为生成器,采用分类模型作为判别器;让分类判别模型去捕捉高阶的分割信息,辅助分割模型训练;在肿瘤MRI分割模型的基础上通过对抗训练生成更加精确的分割结果。
在生成对抗模型中,分割-生成式对抗网络损失函数L由两部分组成,即生成器损失函数Ls与判别器损失函数Ld
L=Ls+Ld   (2)
判别器辅助生成器生成更加精确的分割结果,但生成器生成的图像与真实图像不可能完全一致,因此在设计判别器损失函数时,生成器结果对应的标签必然为零,而分割标签必然为真。拟选用均方误差作为判别器的损失函数,定义如下:
Figure BDA0002263066630000062
分割-生成式对抗网络损失函数由两部分组成,第一部分是用于训练分割模型的改进Dice损失函数,第二部分为均方误差损失函数。混合损失函数的公式(2)可如下所示:
Figure BDA0002263066630000071
其中s表示分割模型的参数,d表示判别模型的参数,s(xn)是分割模型的输出概率图,Ld选用均方误差作为判别器的损失函数。通过公式(1)计算分割模型的性能,保证生成模型学习到的分割结果是和输入的图像相关的,解决了原始的生成对抗模型中不能控制生成内容的问题。判别模型通过分类判定模型的输入来获取高阶的信息,因为分类模型的感受野具有对图像整体和部分区域的感知,可以发现高阶上的分割错误。使用d(x,y)作为判别模型的输出,如果x是来自人工标记的分割标签,则分类结果为1,如果是来自生成模型生成的分割结果,则分类结果为0。使用生成对抗模型的交替训练的模式,最小化分割生成模型的损失值,最大化判别模型的损失值。
S3:将医学图像中的未标注图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,增强分割-生成对抗网络稳定性。
生成器和判别器两个模块的优化过程是一个相互竞争、对抗的过程,在迭代对抗中两者的性能都在不断改善,这一过程即为极小极大值博弈建模,可如下表示:
Figure BDA0002263066630000072
其中,G表示生成器模型,D是判别器模型,z表示随机噪声。
上述分割-生成对抗网络基础上,充分利用医学图像中的未标注图像,包括多模态MRI数据、电子病历和医生专家的文本报告中的临床诊疗信息等数据。一方面,可以补充已标记训练数据的不足,使所述分割-生成对抗网络更适应小样本数据集;另一方面,生成对抗网络存在不可控现象,如果将训练图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,将使得生成对抗网络更加可控、稳定。假设额外输入条件信息为y,分割-生成对抗网络的目标函数可表示为基于条件概率的极小极大值博弈,如下所示:
Figure BDA0002263066630000073
实际训练过程中,判别器会很容易在与生成器的对抗训练中取得胜利,导致生成器梯度消失。因此在训练中,更新一次判别器应更新若干次生成器,以使得判别器在训练过程中不会快速达到(近似)最优,以此保持生成器与判别器的对抗平衡。生成器更新次数根据不同规模的数据集选定,为了保持对抗平衡,本实施例中将判别器与生成器的更新次数为1:2。
其次,与原始的判别器有所不同,判别器不需要在输入时连接标签数据,同样也不需要生成器在每一层连接标签数据。这样修改原始模型的原因是由于本文的目的是要将训练好的判别器提取出来用于分类。所以在预训练时,判别器的结构中要避免出现标签数据的影响;另外,在后面训练分类器时也方便整体提取;在生成器每一层输入条件信息,相比只在输入层加入条件信息更能引导生成器的输出结果。
本发明还公开了一种利用所述肿瘤MRI弱监督学习分析建模方法建立的模型,主要包括:
图像导入和显示模块,用于导入病人的三维体数据,显示参考图像与浮动图像的横断面、冠状面、矢状面图像;
预处理模块,用于对医学图像进行图像处理、增强图像质量;
感兴趣区域模块,用于采用基于掩模的方法以提取感兴趣区域;
分割模块,用于通过构建以全卷积神经网络为基础的肿瘤MRI分割网络,并将其作为生成器,分类模型作为判别器,在已标记训练数据有限情况下,利用医学图像中的非标注图像,实现肿瘤放射治疗靶区和危及器官智能化、自动化勾画;
数据输出模块,用于显示分割后靶区和危及器官。
本发明方法及模型能够在较少训练样本情况下,更加精确地自动分割出肿瘤靶区和危及器官,应用于肿瘤放射治疗的靶区和危及器官勾画。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种肿瘤MRI弱监督学习分析建模方法,包括以下步骤:
S1:构建以全卷积神经网络为基础的肿瘤MRI分割网络,实现肿瘤MRI初步分割;具体步骤包括:
S101:对MRI原始数据进行图像预处理;
S102:对肿瘤MRI分割网络的卷积层采用带步长卷积以提取肿瘤MRI特征,并允许空间下采样;
S103:采用基于反卷积的上采样操作,找到每个体素对应的类别,实现分割效果;
S2:将肿瘤MRI分割网络作为生成器,分类模型作为判别器,提出肿瘤MRI分割网络的生成对抗训练算法;
S3:将医学图像中的未标注图像数据作为生成器模型和判别器模型的额外输入条件信息,指导数据生成过程,增强分割-生成对抗网络稳定性;
所述肿瘤MRI分割网络由两个部分构成,即处理输入MRI图像的编码器部分及用于产生标签输出的解码器部分;输入的是3D肿瘤MRI体数据,输出每一个体素点属于正常组织与肿瘤的概率;
针对肿瘤MRI分割网络中,MRI肿瘤、不同正常组织的体素点不平衡性的问题,采用加权损失函数,定义如下:
Figure FDA0004060060050000011
其中,pi表示体素点i预测概率值,gi表示体素点i真实类别。
2.根据权利要求1所述的肿瘤MRI弱监督学习分析建模方法,其特征在于,在步骤S2中,通过肿瘤MRI分割网络的生成对抗训练算法生成的对抗模型中,分割-生成式对抗网络损失函数L由两部分组成,第一部分是用于训练分割模型的改进Dice损失函数,第二部分为均方误差损失函数:
Figure FDA0004060060050000012
其中s表示分割模型的参数,d表示判别模型的参数,s(xn)是分割模型的输出概率图,Ld选用均方误差作为判别器的损失函数。
3.根据权利要求1所述的肿瘤MRI弱监督学习分析建模方法,其特征在于,所述医学图像中的未标注图像数据包括多模态MRI数据、电子病历、医生专家的文本报告中的临床诊疗信息。
4.根据权利要求1所述的肿瘤MRI弱监督学习分析建模方法,其特征在于,在步骤S3中,假设额外输入条件信息为y,通过肿瘤MRI分割网络的生成对抗训练算法生成的对抗模型中,分割-生成式对抗网络的目标函数表示为基于条件概率的极小极大值博弈,如下式:
Figure FDA0004060060050000021
其中,G表示生成器模型,D是判别器模型,z表示随机噪声。
5.根据权利要求4所述的肿瘤MRI弱监督学习分析建模方法,其特征在于,所述判别器与生成器的更新次数为1∶2。
6.基于权利要求1所述的肿瘤MRI弱监督学习分析建模方法建立的模型,其特征在于,主要包括:
图像导入和显示模块,用于导入病人的三维体数据,显示参考图像与浮动图像的横断面、冠状面、矢状面图像;
预处理模块,用于对医学图像进行图像处理、增强图像质量;
感兴趣区域模块,用于采用基于掩模的方法以提取感兴趣区域;
分割模块,用于通过构建以全卷积神经网络为基础的肿瘤MRI分割网络,并将其作为生成器,分类模型作为判别器,在已标记训练数据有限情况下,利用医学图像中的非标注图像,实现肿瘤放射治疗靶区和危及器官智能化、自动化勾画;
数据输出模块,用于显示分割后靶区和危及器官。
CN201911077952.2A 2019-11-06 2019-11-06 肿瘤mri弱监督学习分析建模方法及其模型 Active CN111047594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911077952.2A CN111047594B (zh) 2019-11-06 2019-11-06 肿瘤mri弱监督学习分析建模方法及其模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911077952.2A CN111047594B (zh) 2019-11-06 2019-11-06 肿瘤mri弱监督学习分析建模方法及其模型

Publications (2)

Publication Number Publication Date
CN111047594A CN111047594A (zh) 2020-04-21
CN111047594B true CN111047594B (zh) 2023-04-07

Family

ID=70232648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911077952.2A Active CN111047594B (zh) 2019-11-06 2019-11-06 肿瘤mri弱监督学习分析建模方法及其模型

Country Status (1)

Country Link
CN (1) CN111047594B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444507B (zh) * 2020-06-15 2020-11-03 鹏城实验室 加壳软件是否误报的判定方法、装置、设备及存储介质
CN112150478B (zh) * 2020-08-31 2021-06-22 温州医科大学 一种构建半监督图像分割框架的方法及系统
CN112348786B (zh) * 2020-10-29 2022-09-13 厦门大学 一种基于双向相关性的one-shot脑图像分割方法
CN112308833B (zh) * 2020-10-29 2022-09-13 厦门大学 一种基于循环一致相关性的one-shot脑图像分割方法
CN112365464B (zh) * 2020-11-09 2021-08-10 成都信息工程大学 一种基于gan的医学图像病变区域弱监督定位方法
CN112446332A (zh) * 2020-11-30 2021-03-05 山东大学 一种太阳射电频谱图像识别方法及系统
CN112890766A (zh) * 2020-12-31 2021-06-04 山东省千佛山医院 一种乳腺癌辅助治疗设备
CN112950569B (zh) * 2021-02-25 2023-07-25 平安科技(深圳)有限公司 黑色素瘤图像识别方法、装置、计算机设备及存储介质
CN113112454B (zh) * 2021-03-22 2024-03-19 西北工业大学 一种基于任务动态学习部分标记的医学图像分割方法
CN113012041B (zh) * 2021-04-06 2023-12-12 重庆大学 一种ct/mri模拟超声的新方法、系统
CN113139974B (zh) * 2021-04-13 2023-08-22 广东工业大学 基于半监督学习的病灶分割模型训练、应用方法
CN113298065A (zh) * 2021-05-13 2021-08-24 杭州电子科技大学 基于自监督学习的眼部黑色素肿瘤识别方法
CN113269747B (zh) * 2021-05-24 2023-06-13 浙江大学医学院附属第一医院 一种基于深度学习的病理图片肝癌扩散检测方法及系统
CN113902752B (zh) * 2021-12-06 2022-02-22 湖南大学 一种医学图像分割方法、装置及计算机可读存储介质
CN114332135B (zh) * 2022-03-10 2022-06-10 之江实验室 一种基于双模型交互学习的半监督医学图像分割方法及装置
CN114926396B (zh) * 2022-04-13 2023-06-20 四川大学华西医院 一种精神障碍类磁共振图像初步筛查模型构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10751548B2 (en) * 2017-07-28 2020-08-25 Elekta, Inc. Automated image segmentation using DCNN such as for radiation therapy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107403201A (zh) * 2017-08-11 2017-11-28 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
邢波涛 ; 李锵 ; 关欣 ; .改进的全卷积神经网络的脑肿瘤图像分割.信号处理.2018,(08),全文. *
黄奕晖 ; 冯前进 ; .基于三维全卷积DenseNet的脑胶质瘤MRI分割.南方医科大学学报.2018,(06),全文. *

Also Published As

Publication number Publication date
CN111047594A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN111047594B (zh) 肿瘤mri弱监督学习分析建模方法及其模型
Weng et al. INet: convolutional networks for biomedical image segmentation
CN108364006B (zh) 基于多模式深度学习的医学图像分类装置及其构建方法
CN109493308A (zh) 基于条件多判别生成对抗网络的医疗图像合成与分类方法
Tong et al. 3D deeply-supervised U-net based whole heart segmentation
CN110415234A (zh) 基于多参数磁共振成像的脑部肿瘤分割方法
Rezaei et al. Whole heart and great vessel segmentation with context-aware of generative adversarial networks
CN114693933A (zh) 基于生成对抗网络和多尺度特征融合的医学影像分割装置
Bicakci et al. Metabolic imaging based sub-classification of lung cancer
Wu et al. A supervoxel classification based method for multi-organ segmentation from abdominal ct images
Yonekura et al. Improving the generalization of disease stage classification with deep CNN for glioma histopathological images
Ye et al. Medical image diagnosis of prostate tumor based on PSP-Net+ VGG16 deep learning network
CN115082493A (zh) 基于形状引导对偶一致性的3d心房图像分割方法及系统
Li et al. Brain tumor segmentation using 3D generative adversarial networks
Liu et al. TSSK-Net: Weakly supervised biomarker localization and segmentation with image-level annotation in retinal OCT images
Rejusha et al. Artificial MRI image generation using deep convolutional gan and its comparison with other augmentation methods
Wu et al. Automatic symmetry detection from brain MRI based on a 2-channel convolutional neural network
Micallef et al. A nested U-net approach for brain tumour segmentation
CN111462082A (zh) 一种病灶图片识别装置、方法、设备及可读存储介质
Qian et al. 3D automatic segmentation of brain tumor based on deep neural network and multimodal MRI images
Chen Medical Image Segmentation Based on U-Net
Kong et al. Data enhancement based on M2-Unet for liver segmentation in Computed Tomography
Xiao et al. PET and CT image fusion of lung cancer with siamese pyramid fusion network
Asma-Ull et al. Data efficient segmentation of various 3d medical images using guided generative adversarial networks
CN116958094A (zh) 一种动态增强磁共振影像特征生成病理图像特征的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant