CN115439492A - 图像分割模型的训练方法、装置、计算机设备及存储介质 - Google Patents
图像分割模型的训练方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN115439492A CN115439492A CN202211077497.8A CN202211077497A CN115439492A CN 115439492 A CN115439492 A CN 115439492A CN 202211077497 A CN202211077497 A CN 202211077497A CN 115439492 A CN115439492 A CN 115439492A
- Authority
- CN
- China
- Prior art keywords
- loss function
- image
- segmentation
- network
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种图像分割模型的训练方法、装置、计算机设备及存储介质。所述方法包括:获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;根据所述生成损失函数和所述分割损失函数,确定目标损失函数;利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。由于生成网络和分割网络是基于同一个损失函数同时训练的,基于此生成的图像分割模型可以同时保障生成效果和分割效果,提高了图像的勾画质量。
Description
技术领域
本申请涉及医疗技术领域,特别是涉及一种图像分割模型的训练方法、装置、计算机设备及存储介质。
背景技术
在癌症的放疗流程中,为了能够清晰的显示肿瘤原发病灶,区域淋巴结以及其周围的血管或其他危及器官,不仅需要平扫计算机断层扫描(Computed Tomography,CT),而且还需要不同期(例如动脉期和静脉期)的增强CT或者磁共振检查(Magnetic ResonanceImaging,MR)序列(例如T1,T1增强和T2等)。因此,在放疗的靶区与危及器官的勾画中,医生往往需要借助不同期的增强CT或者多种MR序列的信息,在平扫CT上勾画肿瘤原发灶及其周围区域淋巴结。
传统技术中,为了实现肿瘤原发灶及其周围区域淋巴结的勾画,通常需要使用一个训练好的生成网络,实现将平扫CT生成对应的增强CT;再使用训练好的分割网络,对生成的增强CT进行分割,得到勾画结果。该传统方式无法同时保障生成效果和分割效果,因此勾画质量较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高勾画质量的图像分割模型的训练方法、装置、计算机设备及存储介质。
第一方面,本申请提供了一种图像分割模型的训练方法。所述方法包括:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。
在其中一个实施例中,所述生成网络的数量有多个,所述生成损失函数包括与各生成网络对应的损失函数,所述根据所述生成损失函数和所述分割损失函数,确定目标损失函数,包括:
将所述与各生成网络对应损失函数和所述分割损失函数加权求和,得到所述目标损失函数。
在其中一个实施例中,所述利用所述目标损失函数和所述数据对,对初始模型进行训练,包括:
利用所述目标损失函数和所述数据对,对所述生成网络进行训练,得到目标增强图像;
获取与所述目标增强图像对应的人工勾画图像;
利用所述目标损失函数、所述目标增强图像和所述人工勾画图像,对所述分割网络进行训练。
在其中一个实施例中,所述第二模式图像样本包括不同血管期的增强图像样本,所述数据对包括与不同血管期的增强图像样本对应的数据对,所述利用所述目标损失函数和所述数据对,对所述生成网络进行训练,包括:
利用所述目标损失函数和所述与各血管期的增强图像样本对应的数据对,对所述生成网络进行训练。
在其中一个实施例中,图像分割模型的训练方法还包括:
获取所述分割网络输出的勾画结果;
根据所述第二模式图像样本、所述目标增强图像、所述人工勾画图像和所述分割网络输出的勾画结果确定所述目标损失函数的值。
在其中一个实施例中,所述第一模式图像样本包括平扫图像样本,所述第二模式图像样本包括增强图像样本。
第二方面,本申请还提供了一种图像分割的方法,所述方法包括:
获取待分割的非增强图像;
将非增强图像输入至图像分割模型,得到与非增强图像对应的勾画结果;图像分割模型为机器学习模型,机器学习模型的初始模型包括包括生成网络和分割网络。
第三方面,本申请还提供了一种图像分割模型的训练装置。所述装置包括:
数据获取模块,用于获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
损失函数确定模块,用于根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
模型训练模块,用于利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。
第四方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像的数据对;
根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。
第五方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像的数据对;
根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。
上述图像分割模型的训练方法、装置、计算机设备和存储介质,通过获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;根据所述生成损失函数和所述分割损失函数,确定目标损失函数;利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。由于生成网络和分割网络是基于同一个损失函数同时训练的,基于此生成的图像分割模型可以同时保障生成效果和分割效果,提高了图像的勾画质量。
附图说明
图1为一个实施例中图像分割模型的训练方法的流程示意图;
图2为一个实施例中图像分割模型的训练过程示意图;
图3为另一个实施例中图像分割模型的训练方法的流程示意图;
图4为另一个实施例中图像分割模型的训练方法的流程示意图;
图5为一个实施例中图像分割的方法的流程示意图;
图6为一个实施例中图像分割模型的应用示意图;
图7为一个实施例中图像分割模型的训练装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种图像分割模型的训练方法,本实施例以该方法应用于终端进行举例说明,可以理解的是,该方法也可以应用于服务器,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。本实施例中,该方法包括以下步骤:
步骤102,获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对。
其中,损失函数是用来估量模型的预测值与真实值的不一致程度的函数,通常损失函数越小,模型的性能就越好。生成损失函数是预先设定的生成网络的损失函数,分割损失函数是预先设定的分割网络的损失函数。
数据对包含同一部位的第一模式图像样本和第二模式图像样本,数据对可以是在不同时刻对同一部位扫描得到的平扫图像样本和增强图像样本,也可以是在同一时刻对同一部位扫描得到的平扫图像样本和增强图像样本。平扫图像可以是平扫CT;增强图像可以是不同血管期的CT图像或MR序列,例如动脉期早期、动脉期晚期、门脉期、静脉期、延迟期的图像等。以第一模式图像样本是平扫CT为例,第二模式图像样本是增强CT为例,数据对可以是同一部位的平扫CT和动脉期的增强CT,也可以是同一部位的平扫CT和静脉期的增强CT。
具体地,终端可以从服务器获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对,也可以从其存储器中获取生成损失函数、分割损失函数和数据对,本实施例对此不加以限制。
步骤104,根据生成损失函数和分割损失函数,确定目标损失函数。
具体地,终端可以采用多种方式确定目标损失函数,在一个示例中,终端可以为生成损失函数和分割损失函数赋予不同的权重,例如根据经验赋予权重,再将生成损失函数的权重乘以生成损失函数,分割损失函数的权重乘以分割损失函数,再将得到的两个乘积相加,得到目标损失函数。
在另一个示例中,生成损失函数与分割损失函数的权重可以根据实际需求进行分配,从而可以获得不同效果偏重的图像分割模型。例如,可以根据第一模式图像样本和第二模式图像样本的图像差异大小进行权重分配;若第一模式图像样本和第二模式图像样本的图像差异较大,则生成损失函数的权重大于分割损失函数的权重;若第一模式图像样本和第二模式图像样本的图像差异较小,则生成损失函数的权重小于分割损失函数的权重。例如,还可以根据图像中的器官进行权重分配;比如,若器官为血管、心脏等,则生成损失函数的权重大于分割损失函数的权重;若为非血管、非骨头的器官和CT值较小的器官,则生成损失函数的权重小于分割损失函数的权重。
步骤106,利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络。
其中,生成网络可以用于根据输入的第一模式图像样本,输出与第一模式图像样本对应的目标增强图像;比如,输入生成网络的第一模式图像样本为平扫CT,生成网络可以输出该平扫CT对应的增强CT。或者,生成网络可以用于根据输入的第一模式图像样本,输出与第一模式图像样本对应的MR序列,其中,MR序列包括T1增强序列、T2序列、T2-FLAIR序列以及DWI序列等;比如,输入生成网络的第一模式图像样本为平扫CT,生成网络可以输出该平扫CT对应的图像序列。
生成网络可以是生成式对抗网络,例如pix2pix模型,也可以是U-Net等其他网络,分割网络用于根据输入的目标增强图像,输出勾画结果,分割网络可以是U-Net网络等网络,本实施例对此不加以限制。
应当理解的是,生成式对抗网络是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一,该模型通过框架中生成模型和判别模型的互相博弈学习产生相当好的输出。
需要说明的是,经过实际验证,在生成网络是生成式对抗网络的情况下,模型训练时对数据对的要求较低,既可以是在不同时刻对同一部位扫描得到的数据对,也可以是同一时刻对同一部位扫描得到的数据对。同时,模型训练时生成的增强图像的质量和细节更好。
具体地,将目标损失函数作为初始模型的总损失函数,生成网络和分割网络通过不断地迭代训练,使得生成网络生成的目标增强图像越来越接近真实的增强图像,分割网络输出的勾画结果也越来越接近人工勾画结果。将目标损失函数的值达到预设终止条件时的模型确定为图像分割模型。
其中,预设终止条件可以根据经验设置,例如预设终止条件是目标损失函数的值最小,或者目标损失函数的值达到预先设定的范围、目标损失函数的值的变化量小于预设值、循环次数达到预设值、训练时间达到预设值等。
应当理解的是,当目标损失函数的值足够小时,模型的训练损失区域收敛,模型训练结束,将此时的模型确定为图像分割模型。如此只需要将平扫图像作为图像分割模型的输入,就可以输出对应的目标增强图像以及勾画结果。
本实施例通过获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;根据生成损失函数和分割损失函数,确定目标损失函数;利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络;将目标损失函数的值达到预设终止条件时的模型确定为图像分割模型。由于生成网络和分割网络是基于同一个损失函数同时训练的,基于此生成的图像分割模型可以同时保障生成效果和分割效果,提高了图像的勾画质量。
在一个实施例中,生成网络的数量有多个,生成损失函数包括与各生成网络对应的损失函数,根据生成损失函数和分割损失函数,确定目标损失函数的步骤,包括:将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
具体地,终端可以为每个生成网络对应的损失函数赋予权重,再将各生成损失函数与对应的权重相乘,分割损失函数与对应的权重相乘,最后将乘积相加,得到目标损失函数。
以生成网络的数量是1个,生成损失函数是L1、分割损失函数是L2、生成损失函数的权重是a,分割损失函数的权重是b为例,目标损失函数L0=a*L1+b*L2。
以生成网络的数量是2个,生成损失函数是L1和L2、分割损失函数是L3、生成损失函数的权重对应是a和b,分割损失函数的权重是c为例,目标损失函数L0=a*L1+b*L2+c*L3。
本实施例通过将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数,提高了目标损失函数的准确性,进而提高了网络分割模型的准确性。
在一个实施例中,利用目标损失函数和数据对,对初始模型进行训练的步骤,包括:利用目标损失函数和数据对,对生成网络进行训练,得到目标增强图像;获取与目标增强图像对应的人工勾画图像;利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
具体地,当生成网络的数量是1个时,得到1个目标增强图像,再根据该目标增强图像、对应的人工勾画图像和目标损失函数对分割网络进行训练;当生成网络的数量是2个时,得到2个目标增强图像,再根据该目标增强图像、对应的人工勾画图像、目标损失函数和第一模式图像样本对分割网络进行训练,依次类推。
应当理解的是,目前本领域的图像转换技术中,可以通过将CT图像降噪及对比度增强,在一定程度上提升CT图像的质量,但CT图像中关键部位的对比度增强效果依然无法与增强CT相比;也可以通过生成网络实现图像之间的整体风格变换,例如CT与MR之间的转换,该方法是图像整体风格的变化,无法做到仅对图像局部进行针对性的对比度增强。
本实施例通过利用生成网络和平扫图像样本,得到目标增强图像,提升了平扫图像样本内血管和脏器的对比度,避免了患者因对造影剂过敏导致无法扫描增强图像,也避免了因医疗中心专业设备缺乏而导致的无法扫描增强图像;通过利用目标损失函数、人工勾画图像和生成网络生成的目标增强图像,对分割网络进行训练,使得分割网络可以实现自动勾画,不仅提高了勾画效率,也避免了医生手动勾画导致的勾画错误,通过利用目标损失函数同时训练分割网络和生成网络,保证了生成的目标增强图像的质量和勾画结果的一致性。即既保证了好的目标增强图像质量输出好的自动勾画结果,也同时用勾画结果约束生所的目标增强图像的质量。
在一个实施例中,第二模式图像样本可以包括不同血管期的增强图像样本,数据对包括与不同血管期的增强图像样本对应的数据对,利用目标损失函数和数据对,对生成网络进行训练的步骤,包括:利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练。
其中,不同血管期是指进行CT检查或者血管造影检查时所观察到的血管不同时期,可以分为动脉期早期、动脉期晚期、门脉期、静脉期、延迟期等。动脉期是动脉血管充盈显影期,在这个时期看动脉血管比较清晰;静脉期是静脉血管充盈显影期,在这个时期看静脉比较清晰;延迟期是随时间推移血管内造影剂减少的时期。
图2为一个实施例中图像分割模型的训练过程示意图,参照图2,以第一模式图像样本是平扫CT、第二模式图像样本分别是静脉期的增强CT1和动脉期的增强CT2、生成网络是生成式对抗网络为例,本实施例中终端可以利用平扫CT和增强CT1组成的数据对,以及目标损失函数,对生成网络1进行训练,生成网络1的生成器1生成目标增强CT1,生成网络1的判别器1判断目标增强CT1的真假。利用平扫CT和增强CT2组成的数据对,以及目标损失函数,对生成网络2进行训练,生成网络2的生成器2生成目标增强CT2,生成网络2的判别器2判断目标增强CT2的真假。终端再获取与目标增强CT1和目标增强CT2对应的人工勾画图像;利用目标损失函数、目标增强CT1、目标增强CT2和人工勾画图像,对分割网络进行训练。在训练过程中,生成器生成的目标增强CT越来越接近于样本中的增强CT,判别器判断生成结果的真假能力也随之越来越强,最终在不断博弈的过程中,生成器与判别器达到一种“纳什均衡”,并且分割网络输出的勾画结果也越来越与人工勾画图像相似。
需要说明的是,在本实施例中,先对生成网络进行训练,得到生成网络的训练结果,再根据生成网络的训练结果完成分割网络的训练,从而得到最终的图像分割模型;当然,也可以是先对分割网络进行训练,得到分割网络的训练结果,再根据分割网络的训练结果完成生成网络的训练,从而得到最终的图像分割模型。
本实施例通过利用不同血管期的增强图像样本对初始模型进行训练,提高了模型训练时样本的多样性,进而提高了图像分割模型的准确性。
在得到勾画结果后,图像分割模型的训练方法还可以包括以下步骤:获取分割网络输出的勾画结果;根据第二模式图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值。
其中,勾画结果可以是对肿瘤原发灶区、区域淋巴结以及其危及器官等的勾画。
具体地,终端可以根据第二模式图像样本与目标增强图像的差异、人工勾画图像与勾画结果的差异共同确定目标损失函数的值,当目标损失函数的值达到预设终止条件时的得到图像分割模型。
本实施例通过根据第二模式图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值,提高了目标损失函数的值的准确性,进而提高了图像分割模型的准确性。
在一个实施例中,第一模式图像样本包括平扫图像样本或非增强图像样本,非增强图像样本包括非增强MR,第二模式图像样本包括增强图像样本。
具体地,第一模式图像样本和第二模式图像样本中图像的成像方式可以相同,也可以不同;比如,第一模式图像样本和第二模式图像样本可以为平扫CT、增强CT或MR序列;其中,增强CT包括动脉期、静脉期和延迟期的增强CT。
图3为另一个实施例中图像分割模型的训练方法的流程示意图,参照图3,图像分割模型的训练方法还可以包括以下步骤:
步骤302,获取待分割的平扫图像;
具体地,在图像分割模型确定以后,终端可以从服务器获取待分割的平扫图像,也可以从终端的存储器获取待分割的平扫图像,本实施例对此不加以限制。
步骤304,将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果。
应当理解的是,在靶区与危及器官的勾画中,医生往往需要借助不同血管期的增强图像(例如增强CT或MR序列),在平扫图像(例如平扫CT)上勾画肿瘤原发灶及其周围区域淋巴结。而考虑到由于部分患者会对造影剂过敏,无法扫描增强CT,以及注射造影剂属于有创方式,对于部分患者并不适用;以及由于医疗中心的设备等其他原因,无法扫描MR序列,医生可能无法得到增强图像,进而难以准确地勾画出靶区与危及器官。
本实施例通过将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果,仅需要输入平扫图像便可以实现自动勾画,不需要输入平扫图像对应的增强图像,不仅避免了造影剂使用和医疗设备的局限性,还提高了勾画的准确性和效率。
图4为另一个实施例中图像分割模型的训练方法的流程示意图,参照图4,图像分割模型的训练方法包括以下步骤:
步骤401,获取分割网络的分割损失函数、包含平扫图像样本和增强图像样本的数据对和多个生成网络的生成损失函数。
步骤402,将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
步骤403,利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练,得到目标增强图像。
步骤404,获取与目标增强图像对应的人工勾画图像。
步骤405,利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
步骤406,将目标损失函数的值达到预设终止条件时的模型确定为图像分割模型。
步骤407,获取待分割的平扫图像。
步骤408,将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果。
图5为另一个实施例中图像分割的方法的流程示意图,参照图5,图像分割的方法还可以包括以下步骤:
步骤502、获取待分割的非增强图像;
步骤504、将非增强图像输入至图像分割模型,得到与非增强图像对应的勾画结果;图像分割模型为机器学习模型,机器学习模型的初始模型包括包括生成网络和分割网络。
其中,待分割的非增强图像可以为平扫CT或非增强MR;图像分割模型指的是对上述步骤106中的初始模型训练后得到的训练好的图像分割模型,该图像分割模型包括生成网络和分割网络。勾画结果可以是对肿瘤原发灶区、区域淋巴结以及其危急器官等的勾画。
在一个示例中,将非增强图像输入至图像分割模型后,非增强图像先经过生成网络,得到非增强图像对应的增强图像(例如增强CT或MR序列);然后增强图像经过分割网络,得到增强图像的勾画结果,从而得到非增强图像对应的勾画结果。以非增强图像为平扫CT为例,将平扫CT输入至生成网络后,输出平扫CT的增强图像为增强CT;然后将增强CT输入至分割网络,输出增强CT的勾画结果。
图6为一个实施例中图像分割模型的应用示意图,一并参照图3和图6,图像分割模型由两个生成网络和一个分割网络训练而成,待分割的非增强图像为平扫CT时,将平扫CT输入至其中一个生成网络,可以得到静脉期的目标增强CT1,将平扫CT输入至另一个生成网络,可以得到动脉期的目标增强CT2,将增强CT1和增强CT2再输入至分割网络,可以得到平扫CT对应的勾画结果。当然,在得到目标增强CT1和增强CT2之后,还可以将目标增强CT1和增强CT2进行可视化显示,以为医生诊断病情提供依据。在一个示例中,图像分割模型包括一个生成网络和一个分割网络。
具体地,在图像分割模型确定以后,终端可以从服务器获取待分割的非增强图像,也可以从终端的存储器获取待分割的非增强图像,本实施例对此不加以限制。
应当理解的是,在靶区与危及器官的勾画中,医生往往需要借助不同血管期的增强图像(例如增强CT或MR序列),在平扫图像(例如平扫CT)上勾画肿瘤原发灶及其周围区域淋巴结。而考虑到由于部分患者会对造影剂过敏,无法扫描增强CT,以及注射造影剂属于有创方式,对于部分患者并不适用;以及由于医疗中心的设备等其他原因,无法扫描MR序列,医生可能无法得到增强图像,进而难以准确地勾画出靶区与危及器官。
本实施例通过生成网络,得到增强图像,提升了平扫图像内血管和脏器的对比度,避免了患者因对造影剂过敏导致无法扫描增强图像,也避免了因医疗中心专业设备缺乏而导致的无法扫描增强图像;通过分割网络,得到自动勾画结果,不仅提高了勾画效率,也避免了医生手动勾画导致的勾画错误。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的图像分割模型的训练方法的图像分割模型的训练装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个图像分割模型的训练装置实施例中的具体限定可以参见上文中对于图像分割模型的训练方法的限定,在此不再赘述。
在一个实施例中,如图7所示,提供了一种图像分割模型的训练装置,包括:数据获取模块702、损失函数确定模块704和模型训练模块706,其中:
数据获取模块702,用于获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
损失函数确定模块704,用于根据生成损失函数和分割损失函数,确定目标损失函数;
模型训练模块706,用于利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络。
在一个实施例中,生成网络的数量有多个,损失函数确定模块704,还用于将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
在一个实施例中,模型训练模块706,还用于利用目标损失函数和数据对,对生成网络进行训练,得到目标增强图像;获取与目标增强图像对应的人工勾画图像;利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
在一个实施例中,第二模式图像样本包括不同血管期的增强图像样本,数据对包括与不同血管期的增强图像样本对应的数据对,模型训练模块706,还用于利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练。
在一个实施例中,模型训练模块706,还用于获取分割网络输出的勾画结果;根据增强图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值。
在一个实施例中,第一模式图像样本包括平扫图像样本,第二模式图像样本包括增强图像样本。
在一个实施例中,图像分割模型的训练装置还包括模型应用模块(图未示),用于获取待分割的平扫图像;将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的图像分割的方法的图像分割的装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个图像分割的装置实施例中的具体限定可以参见上文中对于图像分割的方法的限定,在此不再赘述。
在一个实施例中,提供了一种图像分割的装置,包括:数据勾画模块,用于获取待分割的非增强图像;将非增强图像输入至图像分割模型,得到与非增强图像对应的勾画结果;图像分割模型为机器学习模型,机器学习模型的初始模型包括包括生成网络和分割网络。
上述图像分割模型的训练装置、图像分割的装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种图像分割模型的训练方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
根据生成损失函数和分割损失函数,确定目标损失函数;
利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
利用目标损失函数和数据对,对生成网络进行训练,得到目标增强图像;获取与目标增强图像对应的人工勾画图像;利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取分割网络输出的勾画结果;根据第二模式图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
第一模式图像样本包括平扫图像样本,第二模式图像样本包括增强图像样本。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取待分割的平扫图像;将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果;其中,勾画结果为基于增强图像的勾画结果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
根据生成损失函数和分割损失函数,确定目标损失函数;
利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
利用目标损失函数和数据对,对生成网络进行训练,得到目标增强图像;获取与目标增强图像对应的人工勾画图像;利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取分割网络输出的勾画结果;根据第二模式图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
第一模式图像样本包括平扫图像样本,第二模式图像样本包括增强图像样本。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取待分割的平扫图像;将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果;其中,勾画结果为基于增强图像的勾画结果。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
根据生成损失函数和分割损失函数,确定目标损失函数;
利用目标损失函数和数据对,对初始模型进行训练,得到图像分割模型;其中,初始模型包括生成网络和分割网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将与各生成网络对应损失函数和分割损失函数加权求和,得到目标损失函数。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
利用目标损失函数和数据对,对生成网络进行训练,得到目标增强图像;获取与目标增强图像对应的人工勾画图像;利用目标损失函数、目标增强图像和人工勾画图像,对分割网络进行训练。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
利用目标损失函数和与各血管期的增强图像样本对应的数据对,对生成网络进行训练。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取分割网络输出的勾画结果;根据第二模式图像样本、目标增强图像、人工勾画图像和分割网络输出的勾画结果确定目标损失函数的值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
第一模式图像样本包括平扫图像样本,第二模式图像样本包括增强图像样本。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取待分割的平扫图像;将平扫图像输入至图像分割模型,得到与平扫图像对应的勾画结果;其中,勾画结果为基于增强图像的勾画结果。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像分割模型的训练方法,其特征在于,所述方法包括:
获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络。
2.根据权利要求1所述的方法,其特征在于,所述生成网络的数量有多个,所述生成损失函数包括与各生成网络对应的损失函数,所述根据所述生成损失函数和所述分割损失函数,确定目标损失函数,包括:
将所述与各生成网络对应损失函数和所述分割损失函数加权求和,得到所述目标损失函数。
3.根据权利要求1所述的方法,其特征在于,所述利用所述目标损失函数和所述数据对,对初始模型进行训练,包括:
利用所述目标损失函数和所述数据对,对所述生成网络进行训练,得到目标增强图像;
获取与所述目标增强图像对应的人工勾画图像;
利用所述目标损失函数、所述目标增强图像和所述人工勾画图像,对所述分割网络进行训练。
4.根据权利要求3所述的方法,其特征在于,所述第二模式图像样本包括不同血管期的增强图像样本,所述数据对包括与不同血管期的增强图像样本对应的数据对,所述利用所述目标损失函数和所述数据对,对所述生成网络进行训练,包括:
利用所述目标损失函数和所述与各血管期的增强图像样本对应的数据对,对所述生成网络进行训练。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取所述分割网络输出的勾画结果;
根据所述第二模式图像样本、所述目标增强图像、所述人工勾画图像和所述分割网络输出的勾画结果确定所述目标损失函数的值。
6.根据权利要求1所述的方法,其特征在于,所述第一模式图像样本包括平扫图像样本,所述第二模式图像样本包括增强图像样本。
7.一种图像分割的方法,其特征在于,所述方法包括:
获取待分割的非增强图像;
将所述非增强图像输入至图像分割模型,得到与所述非增强图像对应的勾画结果;所述图像分割模型为机器学习模型,所述机器学习模型的初始模型包括包括生成网络和分割网络。
8.一种图像分割模型的训练装置,其特征在于,所述装置包括:
数据获取模块,用于获取生成网络的生成损失函数、分割网络的分割损失函数和包含第一模式图像样本和第二模式图像样本的数据对;
损失函数确定模块,用于根据所述生成损失函数和所述分割损失函数,确定目标损失函数;
模型训练模块,用于利用所述目标损失函数和所述数据对,对初始模型进行训练,得到图像分割模型;其中,所述初始模型包括所述生成网络和所述分割网络;
模型确定模块,用于将所述目标损失函数的值达到预设终止条件时的模型确定为图像分割模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211077497.8A CN115439492A (zh) | 2022-09-05 | 2022-09-05 | 图像分割模型的训练方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211077497.8A CN115439492A (zh) | 2022-09-05 | 2022-09-05 | 图像分割模型的训练方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115439492A true CN115439492A (zh) | 2022-12-06 |
Family
ID=84247920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211077497.8A Pending CN115439492A (zh) | 2022-09-05 | 2022-09-05 | 图像分割模型的训练方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115439492A (zh) |
-
2022
- 2022-09-05 CN CN202211077497.8A patent/CN115439492A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210358634A1 (en) | Systems and methods for image processing to determine blood flow | |
JP6993334B2 (ja) | 自動化された心臓ボリュームセグメンテーション | |
CN109409503B (zh) | 神经网络的训练方法、图像转换方法、装置、设备及介质 | |
CN107145756A (zh) | 一种脑卒中类型预测方法以及装置 | |
CN111462020A (zh) | 心脏图像的运动伪影校正方法、系统、存储介质和设备 | |
CN108171709A (zh) | 肝占位性病灶区域的检测方法、装置和实现装置 | |
CN108846829A (zh) | 病变部位识别方法及装置、计算机装置及可读存储介质 | |
CN111754534A (zh) | 基于深度神经网络的ct左心室短轴图像分割方法、装置、计算机设备和存储介质 | |
CN113724203B (zh) | 应用于oct图像中目标特征分割的模型训练方法及装置 | |
Tiago et al. | A data augmentation pipeline to generate synthetic labeled datasets of 3D echocardiography images using a GAN | |
CN110751187A (zh) | 异常区域图像生成网络的训练方法和相关产品 | |
Seetharam et al. | Clinical inference from cardiovascular imaging: paradigm shift towards machine-based intelligent platform | |
Luo et al. | Ultra-dense denoising network: application to cardiac catheter-based X-ray procedures | |
CN112330640A (zh) | 医学图像中结节区域的分割方法、装置及设备 | |
CN112750110A (zh) | 基于神经网络对肺部病灶区进行评估的评估系统和相关产品 | |
Manzanera et al. | Patient-specific 3d cellular automata nodule growth synthesis in lung cancer without the need of external data | |
Arega et al. | Using polynomial loss and uncertainty information for robust left atrial and scar quantification and segmentation | |
CN115829979A (zh) | 破口检测方法、装置、设备、存储介质和程序产品 | |
CN115439492A (zh) | 图像分割模型的训练方法、装置、计算机设备及存储介质 | |
CN115272674A (zh) | 图像分割模型的训练方法、图像分割的方法及装置 | |
JP2019207511A (ja) | 三次元データの評価モデル構築および評価方法、三次元データの評価モデル構築装置、三次元データの評価装置、ならびにコンピュータプログラム | |
CN114299010A (zh) | 脑部肿瘤图像的分割方法、装置、计算机设备和存储介质 | |
Stephens et al. | MRI to CTA translation for pulmonary artery evaluation using CycleGANs trained with unpaired data | |
Cai et al. | [Retracted] Detection of 3D Arterial Centerline Extraction in Spiral CT Coronary Angiography | |
CN118134824A (zh) | 特征点选取方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |