CN116109605B - 医学影像肿瘤分割系统、训练集构建方法和模型训练方法 - Google Patents

医学影像肿瘤分割系统、训练集构建方法和模型训练方法 Download PDF

Info

Publication number
CN116109605B
CN116109605B CN202310149664.3A CN202310149664A CN116109605B CN 116109605 B CN116109605 B CN 116109605B CN 202310149664 A CN202310149664 A CN 202310149664A CN 116109605 B CN116109605 B CN 116109605B
Authority
CN
China
Prior art keywords
layer
output
data
segmentation
unet3d
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310149664.3A
Other languages
English (en)
Other versions
CN116109605A (zh
Inventor
陈颀
张倚萌
白璐
王少彬
陈宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yizhiying Technology Co ltd
Original Assignee
Beijing Yizhiying Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yizhiying Technology Co ltd filed Critical Beijing Yizhiying Technology Co ltd
Priority to CN202310149664.3A priority Critical patent/CN116109605B/zh
Publication of CN116109605A publication Critical patent/CN116109605A/zh
Application granted granted Critical
Publication of CN116109605B publication Critical patent/CN116109605B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及医学影像分割技术领域,具体涉及一种医学影像肿瘤分割系统、训练集构建方法和模型训练方法,旨在提高分割精度。本发明的医学影像肿瘤分割系统包括:粗分割模型,用于根据输入的医学影像对目标肿瘤进行粗分割;定位模块,用于根据粗分割的结果计算目标肿瘤的位置,得到第一位置数据;重采样模块,用于对医学影像进行重采样得到三维数据,并基于三维数据对第一位置数据进行更新,得到第二位置数据;裁剪模块,用于根据第二位置数据对三维数据进行裁剪;精分割模型,用于根据剪裁后的数据对目标肿瘤进行精分割;尺寸还原模块,用于对精分割后的结果进行尺寸还原。其中的精分割模型采用改进后的Unet3D。本发明有效地提高了分割精度。

Description

医学影像肿瘤分割系统、训练集构建方法和模型训练方法
技术领域
本发明涉及医学影像分割技术领域,具体涉及一种医学影像肿瘤分割系统、训练集构建方法和模型训练方法。
背景技术
肿瘤分割是将患有肿瘤的病人所拍摄的三维医学影像中的肿瘤区域与其他健康的组织分离开来的一种技术手段,为医生进行诊断、手术和放疗等提供重要的参考。常用的医学影像分割方法是采用Unet 2D(一种具有U型结构的二维语义分割模型)或Unet 3D(一种具有U型结构的三维语义分割模型)进行分割。
针对上述相关技术,发明人认为Unet 2D的优点是输入尺寸大、网络深度足够深、特征层数多,数据量也大,缺点是主要注重单张图像的信息,忽略了每一套影像数据中图像与图像之间的关系。Unet 3D的可以更好地利用空间上的信息,能够保证隔层图像之间的一个连续性变化,但是因为目标肿瘤尺寸过小,在原始图像中占用的比例很小,难以进行有效的分割。因此,上述两种方法都无法达到理想的分割精度。
发明内容
为了解决现有技术中的上述问题,本发明提出了一种医学影像肿瘤分割系统、训练集构建方法和模型训练方法,有效提高了分割精度。
本发明的第一方面,提出一种医学影像肿瘤分割系统,所述系统包括:
粗分割模型,用于根据输入的医学影像对目标肿瘤进行粗分割;
定位模块,用于根据粗分割的结果计算所述目标肿瘤的位置,得到第一位置数据;
重采样模块,用于对所述医学影像进行重采样得到三维数据,并基于所述三维数据对所述第一位置数据进行更新,得到第二位置数据;
裁剪模块,用于根据所述第二位置数据对所述三维数据进行裁剪;
精分割模型,用于根据剪裁后的数据对所述目标肿瘤进行精分割;
尺寸还原模块,用于对精分割后的结果进行尺寸还原。
优选地,所述精分割模型为Unet 3D网络的改进结构;
对所述Unet 3D网络的改进包括:
所述Unet 3D网络中的Batch Norm(批归一化)被替换为Instance Norm(在通道内做归一化)。
优选地,对所述Unet 3D网络的改进还包括:
所述Unet 3D网络中3*3*3的卷积被替换为3*3*1、1*1*3和1*3*3三个卷积依次串联或残差连接。
优选地,对所述Unet 3D网络的改进还包括:在所述Unet 3D网络中增加辅助输出单元;
所述辅助输出单元配置为:对第1层的ReLU(一种激活函数)输出依次进行卷积、Dropout(一种针对神经网络模型的正则化方法)和上采样,得到该层的辅助输出;对第2层至第4层中每一层的ReLU输出依次进行卷积、Dropout、与下一层的所述辅助输出按1:1进行Add拼接,以及上采样,得到当前层的所述辅助输出;
其中,
所述第1层为所述Unet 3D网络的解码路径中的最底层;
所述解码路径中沿着输出方向,在所述第1层之后依次为第2层、第3层、第3层、第4层和第5层。
优选地,所述Unet 3D网络的损失函数被替换为下式:
Loss=(1-α)×Loutput+α×Lo4
其中,Loutput表示根据第5层的ReLU输出经1*1*1卷积后的结果,计算出的损失;Lo4表示根据第4层的所述辅助输出计算的损失;α为权重;α的初始值为0.5,随着训练次数的增加,每次迭代后减小0.02,直到减小为0;或者,α的初始值为0.8,随着训练次数的增加,每次迭代后减小0.02,直到减小为0.5;
Loutput和Lo4均根据下式计算:
L=0.5×BCELoss+0.5×DiceLoss。
其中,BCELoss和DiceLoss分别表示BCE(Binary Cross Entropy)损失函数和Dice(Dice coefficient)损失函数。
优选地,所述精分割模型的输出为:第一输出、第二输出或第三输出;
其中,
所述第一输出为:第5层的ReLU输出经1*1*1卷积和Sigmoid激活后的结果;
所述第二输出为:第4层的所述辅助输出经Sigmoid激活后的结果;
所述第三输出为:第5层的ReLU输出经1*1*1卷积的结果与第4层的所述辅助输出,按位相加后经Sigmoid激活后得到的结果。
优选地,所述粗分割模型为Unet 2D网络;
所述第一位置数据和所述第二位置数据均包括:所述目标肿瘤的中心位置、含有所述目标肿瘤的图像数量,以及含有所述目标肿瘤的图像中间张的位置。
本发明的第二方面,提出一种训练集构建方法,所述训练集包括:预设数量的第一训练样本,以及与每个所述第一训练样本一一对应的第一真实值;
所述方法包括:
将原始影像数据输入训练好的粗分割模型对目标肿瘤进行粗分割;
根据粗分割的结果计算所述目标肿瘤的位置,得到第一位置数据;
根据所述原始影像数据的采样点间隔,对所述原始影像数据进行重采样得到三维的第一重采样数据,并基于所述第一重采样数据对所述第一位置数据进行更新,得到第二位置数据;
根据所述第二位置数据确定所述目标肿瘤所在的区域,并进行区域扩充,并根据扩充后的区域对所述第一重采样数据进行裁剪,得到第一训练样本;
根据所述原始影像数据的采样点间隔,对所述原始影像数据及其对应的标注数据进行重采样得到三维的第二重采样数据;
根据所述第二位置数据对所述第二重采样数据进行裁剪,得到第一真实值;
其中,
所述粗分割模型为Unet 2D网络;
所述第一位置数据和所述第二位置数据均包括:所述目标肿瘤的中心位置、含有所述目标肿瘤的图像数量,以及含有所述目标肿瘤的图像中间张的位置。
优选地,所述训练集还包括:所述预设数量的第二训练样本,以及与每个所述第二训练样本一一对应的第二真实值;
所述方法还包括:
根据所述标注数据获取所述目标肿瘤的CTV位置信息;
根据所述CTV位置信息对所述第一重采样数据进行裁剪,得到第二训练样本;
根据所述CTV位置信息对所述第二重采样数据进行裁剪,得到第二真实值。
本发明的第三方面,提出一种模型训练方法,所述方法基于上面所述的医学影像肿瘤分割系统;
所述方法包括:
对所述粗分割模型进行训练,得到训练好的粗分割模型;
根据上面所述的训练集构建方法对原始影像数据进行预处理,得到所述训练集;
利用所述训练集对所述精分割模型进行训练,得到训练好的精分割模型。
与最接近的现有技术相比,本发明具有如下有益效果:
本发明采用2D的粗分割模型对目标肿瘤进行粗分割,然后进行数据裁剪,最后用裁剪后的数据输入到3D的精分割模型进行精分割,使得输入到精分割模型中的数据中,目标肿瘤所占比例大幅度提升;在精分割模型的归一化方法上,本发明采用IN替换BN,更有利于小BatchSize(批的大小)的训练和精度的提升;本发明对3D卷积进行拆分,让一部分卷积专注于平面特征的提取,另一部分卷积则专注于空间特征的提取,可以更好地获取空间上的信息,而且残差连接可以帮助网络更好的注重不同数据的变化和特殊的表达,让网络更容易进行训练;另外,本发明在精分割模型的解码部分增加辅助输出单元,并采用层级连接指导损失,进一步提升了分割精度。
附图说明
图1是本发明的医学影像肿瘤分割系统实施例的主要结构示意图;
图2是经典的Unet 3D结构示意图;
图3(a)和图3(b)分别是Batch Norm和Instance Norm的方法示意图;
图4是3*3*3卷积核的示意图;
图5是本发明中改进后的3D卷积示意图;
图6(a)和图6(b)是分拆后的3D卷积分别采用普通的串联和残差连接的示意图;
图7是本发明中在Unet 3D基础上增加的辅助输出单元的结构示意图;
图8是本发明的训练集构建方法实施例一的主要步骤示意图;
图9是本发明的训练集构建方法实施例二的主要步骤示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本申请的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明的描述中,术语“第一”、“第二”仅仅是为了便于描述,而不是指示或暗示所述装置、元件或参数的相对重要性,因此不能理解为对本发明的限制。另外,本发明中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
图1是本发明的医学影像肿瘤分割系统实施例的主要结构示意图。如图1所示,本实施例的分割系统包括:粗分割模型10、定位模块20、重采样模块30、裁剪模块40、精分割模型50,以及尺寸还原模块60。
本实施例中,由于目标肿瘤尺寸约为60*40像素,在原尺寸图像512*512像素中仅占比0.9%。目标尺寸过小,难以进行有效的分割,因此首先使用粗分割模型10(本实施例中为Unet 2D网络)根据输入的医学影像对目标肿瘤进行粗分割;定位模块20用于根据粗分割的结果计算目标肿瘤的位置,得到第一位置数据(目标肿瘤的中心位置、含有目标肿瘤的图像数量,以及含有目标肿瘤的图像中间张的位置)。因为影像数据是立体的,在采集数据时通常进行切片处理,按一定间隔进行采样,而在使用3D数据时,需要对其进行重采样来还原立体数据,使得每张图像之间变得更加连续。因此,使用重采样模块30对医学影像进行重采样得到三维数据,并基于三维数据对第一位置数据进行更新,得到第二位置数据;裁剪模块40用于根据第二位置数据对重采样得到的三维数据进行裁剪;精分割模型50用于根据剪裁后的数据对目标肿瘤进行精分割;尺寸还原模块60用于对精分割后的结果进行尺寸还原。
本实施例中,裁剪模块40包括:扩充单元和裁剪单元(图中未画出)。其中,扩充单元用于根据第二位置数据确定目标肿瘤所在的第一目标区域,由于粗分割的精度不高,因此为了防止有用数据被裁剪掉,要对第一目标区域进行扩充,本实施例中扩充后得到第二目标区域,尺寸为192*192*128;裁剪单元用于根据第二目标区域对三维数据进行裁剪。另外,因为每一套医学影像中目标肿瘤位置信息均不相同,通过设置固定大小的长方体框192*192*128,可以切割出统一尺寸的数据。
本实施例中,精分割模型50为Unet 3D网络的改进结构;第一位置数据和第二位置数据均包括:目标肿瘤的中心位置、含有目标肿瘤的图像数量,以及含有目标肿瘤的图像中间张的位置。
图2是经典的Unet 3D结构示意图。如图2所示,左侧为编码部分,右侧为解码部分。在编码通道和解码通道中,每个小长方体均代表一个特征图,每个小长方体上方标出的16、32、64等数字代表特征图的通道数,向右的黑色双线箭头表示3*3*3Conv+BN+ReLU(即3*3*3卷积后使用BN归一化和ReLU激活函数),向下的黑色双线箭头表示maxpooling2*2*2(即2*2*2最大池化),向上的黑色双线箭头表示upsampling2*2*2(即2*2*2上采样),向右的灰色双线箭头表示Skip Connection(即将编码层的输出与对应的解码层的输入进行拼接),最后输出部分中向右的空心双线箭头表示1*1*1Conv+Sigmoid(即1*1*1卷积和Sigmoid激活函数),N表示要分割的类别个数。
与Unet 2D相比,Unet 3D模型可以更好地利用要分割数据的三维连通性,尤其是大多数医学图像都是3D的,因此3D模型可以更好地利用空间上的信息,能够保证隔层图像之间的一个连续性变化。但是因为参数量和显存占用问题,3D模型的输入尺寸通常较小,数据整合后其数据量也大幅度降低,但是采用本实施例的方法进行裁剪后,目标所占比例会增加,因此更适用于如肿瘤一类的小目标的分割。
本实施例中,采用了2种不同的方案对Unet 3D网络进行了改进:在第一种改进方案中,将Unet 3D网络中的Batch Norm替换为Instance Norm,并且将Unet 3D网络中所有的3*3*3的卷积替换为3*3*1、1*1*3和1*3*3三个卷积依次串联或残差连接;在第二种改进方案中,将Unet 3D网络中的Batch Norm替换为Instance Norm,并且在Unet 3D网络中增加辅助输出单元。考虑到计算量的问题,本实施例中没有将上述两种方案进一步合并进行测试,但是不排除可以合并上述两种方案得到第三种方案。下面分别对上述两种改进方案进行详细说明。
第一种改进方案:
(1)将Unet 3D网络中的Batch Norm替换为Instance Norm。
图3(a)和图3(b)分别是Batch Norm和Instance Norm的方法示意图。如图3(a)和图3(b)所示,N代表批(Batch),C代表通道数(Channel),H和W代表特征图的长和宽。对一个形状为(N,C,H,W)的张量应用Instance Norm操作,其实等价于先把该张量reshape(重构)为(1,N*C,H,W)的张量,然后应用Batch Norm操作。
Instance Norm与Batch Norm不同的地方在于:Instance Norm在训练阶段与预测阶段行为一致,都是利用当前batch的均值和方差计算;Batch Norm在训练阶段利用当前batch的均值和方差,在测试阶段则利用训练阶段通过移动平均统计的均值和方差。由于3D模型需要占用的显存非常大,且每一例数据之间具有明显的差异,因此通常只能使用小Batch进行训练,而BN注重对每一个Batch的归一化,当Batch较小时,当前批数据的均值和方差没有办法代表整体输入数据的分布,此时效果就会变差。而IN在一个通道内做归一化,在数据不充足且Batch较小时,更注重每个数据自身的归一化和调整,在加速模型收敛的同时,保持了每一例数据自身的独立性。
(2)将Unet 3D网络中3*3*3的卷积替换为3*3*1、1*1*3和1*3*3三个卷积依次串联或残差连接。
图4是3*3*3卷积核的示意图。如图4所示,K=3*3*3表示卷积核的尺寸,xy为二维平面,z为第三维空间维度。3D卷积就是在2D卷积的基础上增加一维,使用尺寸为3*3*3的卷积核在特征图上进行滑动计算,其卷积核参数也增加了3倍。空间维度可以让模型更好的学习连续图像中的空间位置信息,完成上下层之间的信息交互和特征提取。但是对于医学图像上来说,通过采样获得的CT等影像数据的每层之间会有不同的间距,即使使用插值也无法做到完全连续,导致模型会在3D卷积后获得一些错误的空间信息,可能会出现3D模型预测结果反而不如2D模型的现象。因此,本发明从结构上对3D卷积进行分解,强化空间维度的特征提取,让一部分卷积专注于平面特征的提取,另一部分卷积则专注于空间特征的提取。
图5是本发明中改进后的3D卷积示意图。如图5所示,将图4中的3*3*3卷积用(a)、(b)、(c)三个卷积来替换,这个三个卷积核的尺寸分别为K=3*3*1、K=1*1*3和K=1*3*3,分别代表从xy二维平面、z空间维度和yz二维平面进行的卷积计算。虽然卷积核的数量从1个增加到了3个,但是其参数量反而从27减少到21。
图6(a)和图6(b)是分拆后的3D卷积分别采用普通的串联和残差连接的示意图。其中,图6(a)为最普通的串联模式,每一个卷积后面都要跟一个Instance Norm和ReLU;图6(b)为残差连接方式,在3次卷积计算后,需要与输入进行Add(相加)计算,得到最后的输出。
第二种改进方案:
(1)将Unet 3D网络中的Batch Norm替换为Instance Norm。
(2)在Unet 3D网络中增加辅助输出单元。
经典的Unet 3D模型在计算损失时,只使用第5层的输出与真实值进行损失计算,第5层的输出虽然看似融合了五层的特征信息,但是在模型训练初期,由于参数的不确定性,会提取到大量的无用特征和关注到无用信息。以每层通道数为16、32、64、128、256为例,最底层的输出会有256层特征,而最顶层(第5层)的特征仅有16层,虽然尺寸不同,但是底层会具有更多的细节特征。因此,本发明中将下面四层的特征通过特定的方式进行组合,可以获得更加丰富和准确的信息,借此来优化输出的计算过程,给一些困难点和特殊点加大学习难度,从而提升模型的分割效果。
图7是本发明中在Unet 3D基础上增加的辅助输出单元的结构示意图。如图7所示,f表示层的序号,内部写有f=1、f=2、…、f=5的灰色矩形框分别表示解码部分的第1层、第2层、…、第5层的ReLU输出(第1层为Unet 3D网络的解码路径中的最底层;解码路径中沿着输出方向,在第1层之后依次为第2层、第3层、第3层、第4层和第5层);内部没有文字的灰色矩形框表示Conv3d(in_channels,num_class)+Drop3d(0.f),即3D卷积加Dropout;其中,in_channels表示输入特征图的通道数,num_class表示输出类别数,0.f表示dropout的概率,f=1时取值0.1(表示神经元失活的概率为0.1),f=2时取值0.2,依此类推,f=5时取值0.5;内部写有“Up”的灰色矩形框表示Upsampling(scale_factor=2,mode=’trilinear’),即上采样;其中,scale_factor表示步长,mode表示模式,trilinear表示三线性插值;add(0.5,0.5)表示两组特征值按1:1相加(分别乘以0.5再按位相加)。
本实施例中增加的辅助输出单元配置为:对第1层的ReLU输出依次进行1*1*1卷积、Dropout和上采样,得到该层的辅助输出;对第2层至第4层中每一层的ReLU输出依次进行1*1*1卷积、Dropout、与下一层的辅助输出按1:1进行Add拼接,以及上采样,得到当前层的辅助输出。
基于第二种改进方案,改进后的Unet 3D网络(即精分割模型)的损失函数被替换为公式(1):
Loss=(1-α)×Loutput+α×Lo4(1)
其中,Loutput表示根据第5层的ReLU输出经1*1*1卷积后的结果,计算出的损失;Lo4表示根据第4层的辅助输出计算的损失;α为权重;α的初始值为0.5,随着训练次数的增加,每次迭代后减小0.02,直到减小为0;或者,α的初始值为0.8,随着训练次数的增加,每次迭代后减小0.02,直到减小为0.5。
本实施例中Loutput和Lo4均可以根据公式(2)计算得到:
L=0.5×BCELoss+0.5×DiceLoss(2)
其中,当L=Loutput时,BCELoss和DiceLoss分别为根据第5层的ReLU输出经1*1*1卷积后的结果计算出的BCE损失和DICE损失;当L=Lo4时,BCELoss和DiceLoss分别为根据第4层的辅助输出计算出的BCE损失和DICE损失。
基于第二种改进方案,精分割模型的输出为:第一输出、第二输出或第三输出中的一种。其中,第一输出为:第5层的ReLU输出经1*1*1卷积和Sigmoid激活后的结果;第二输出为:第4层的辅助输出经Sigmoid激活后的结果;第三输出为:第5层的ReLU输出经1*1*1卷积的结果与第4层的辅助输出结果,按位相加后经Sigmoid激活得到的结果。实际使用中,可以根据实验数据,择优选取。
图8是本发明的训练集构建方法实施例一的主要步骤示意图。本实施例中的训练集包括:预设数量的第一训练样本,以及与每个所述第一训练样本一一对应的第一真实值。如图8所示,本实施例的构建方法包括步骤A10-A60:
步骤A10,将原始影像数据输入训练好的粗分割模型对目标肿瘤进行粗分割。
步骤A20,根据粗分割的结果计算目标肿瘤的位置,得到第一位置数据。
步骤A30,根据原始影像数据的采样点间隔(spacing),对原始影像数据进行重采样得到三维的第一重采样数据,并基于第一重采样数据对第一位置数据进行更新,得到第二位置数据。
步骤A40,根据第二位置数据确定目标肿瘤所在的区域,并进行区域扩充,并根据扩充后的区域对第一重采样数据进行裁剪,得到第一训练样本。
步骤A50,根据原始影像数据的采样点间隔(spacing),对原始影像数据及其对应的标注数据进行重采样得到三维的第二重采样数据。
步骤A60,根据第二位置数据对第二重采样数据进行裁剪,得到第一真实值。
其中,粗分割模型为Unet 2D网络;第一位置数据和第二位置数据均包括:目标肿瘤的中心位置、含有目标肿瘤的图像数量,以及含有目标肿瘤的图像中间张的位置。
图9是本发明的训练集构建方法实施例二的主要步骤示意图。
本实施例中,为了弥补训练数据的不足,因此对数据集进行扩充。训练集除了包括如实施例一中所述的预设数量的第一训练样本和第一真实值,还可以包括:预设数量的第二训练样本,以及与每个第二训练样本一一对应的第二真实值。如图9所示,本实施例的构建方法除了包括与上面实施例一相同的步骤A10-A60之外,还可以包括步骤A70-A90:
步骤A70,根据标注数据获取目标肿瘤的CTV位置信息。
CTV即临床靶区,包括肿瘤靶区、亚临床病灶及肿瘤可能侵犯的区域;GTV即肿瘤靶区,指肿瘤的临床病灶,即通过一般检查手段能确定的具有一定大小的肿瘤病变区域,包括肿瘤原发病灶和转移灶。根据先验知识可知,CTV的范围包含GTV的范围。因此,下面的步骤中可以根据CTV进行裁剪。
步骤A80,根据CTV位置信息对步骤A30中得到的第一重采样数据进行裁剪,得到第二训练样本。
步骤A90,根据CTV位置信息对步骤A50中得到的第二重采样数据进行裁剪,得到第二真实值。
基于上述医学影像肿瘤分割系统和训练数据构建方法,本发明还提供了一种模型训练方法的实施例。本实施例的模型训练方法包括步骤B10-B30:
步骤B10,对粗分割模型进行训练,得到训练好的粗分割模型。
步骤B20,根据上面的训练集构建方法对原始影像数据进行预处理,得到训练集。
步骤B30,利用训练集对精分割模型进行训练,得到训练好的精分割模型。
上述实施例中虽然将各个步骤按照上述先后次序的方式进行了描述,但是本领域技术人员可以理解,为了实现本实施例的效果,不同的步骤之间不必按照这样的次序执行,其可以同时(并行)执行或以颠倒的次序执行,这些简单的变化都在本发明的保护范围之内。
为了验证不同模型的分割效果,发明人进行了大量的实验,下面就验证结果进行简要说明。
实验环境:显卡使用TITAN RTX 24G,pytorch版本为0.4.1,Ubuntu操作系统。学习率为0.0003,batch size为2(训练中,每次输入两套CT影像),epochs为100轮。实验数据由105套肿瘤患者CT图像和标注信息组成,分为训练集92套,测试集13套,单张图像尺寸为512*512。
(1)分别用原始数据、重采样数据和裁剪后的数据作为Unet3D的输入,比较分割效果:
利用原始尺寸的数据,直接输入到Unet2D、级联Unet2D和Unet3D中进行训练和测试。Unet3D-Resampling表示重采样后再输入到Unet 3D中,Unet3D-Crop表示对数据裁剪以后再输入到Unet 3D中。测试结果如下面的表1所示:
表1不同模型的测试结果
其中,Z代表一个病例影像的张数,n代表根据该套数据的Z轴Spacing(采样点间隔),dice(dice similarity coefficient)是分割网络中最常用的评价指标。从上表可以看出,利用原始尺寸(512×512)的数据进行测试的话,2D模型的分割效果要远好于3D模型,究其原因有两点,其一是2D模型只需要考虑该张图片上的肿瘤信息,而不需要考虑前后空间的问题,而3D模型需要计算前后张的空间位置关系,而数据的空间位置并不具有较好的连续性,因此反而导致本该能学习到空间信息的3D模型学习到了错误的信息,导致了更差的结果;其二是数据中的前景和背景比例悬殊,为0.0014:0.9986,给学习带来了巨大的困难和挑战。
Unet2D已经可以达到一定的准确性,但是还远远不够。考虑到实际情况中肿瘤在空间上是连续的,因此可以利用2D模型学习到一些位置信息和粗分割结果用于对3D模型的指导,从而对数据进行裁剪,减少无效的背景干扰。经过裁剪的数据,通过Unet 3D的训练,已经可以达到超越2D的结果。
(2)分别采用BN和IN两种归一化方法的分割效果对比:
测试结果如表2所示:
表2BN和IN的对比结果
其中,Unet3D-Crop-BN表示向Unet 3D输入裁剪后的数据,且采用BN(BatchMormalize)做归一化;Unet3D-Crop-IN表示向Unet 3D输入裁剪后的数据,且采用IN做归一化(Instance Normalize)。根据表2的结果可以看出,由于受到算力限制,无法使用较大的BatchSize,且数据之间差异较大,因此使用IN替代BN可以获得更好的结果,BN更强调不同数据相同通道之间的正则化,而IN则是进行单个数据的单通道正则化,更有利于小BatchSize的训练。
经过前面(1)、(2)两个实验的测试,确定了要使用裁剪后的数据,并且使用Unet3D+IN的结构,后续的实验(3)、(4)也皆以此为基准。
(3)拆分3D卷积前后效果对比:
测试结果如表3所示:
表3拆分3D卷积的对比结果
其中,Unet3D-Crop-IN表示输入裁剪后的数据且使用IN归一化,但未做3D卷积分拆;Unet3D-Crop-pseudo-IN表示输入裁剪后的数据且使用IN归一化,3D卷积分拆后采用普通串联方法;Unet3D-Crop-pseudo-Res-IN表示输入裁剪后的数据且使用IN归一化,3D卷积分拆后采用残差连接。从表3可以看出,拆解后的3D卷积可以更好地获取空间上的信息,而残差结构可以帮助网络更好的注重不同数据的变化和特殊的表达,让网络更容易进行训练。
拆分3D卷积虽然可以达到较好的效果,但是其带来了较大的内存开销和计算量。所以,在接下来的实验(4)中未做3D卷积分拆,但是增加辅助输出单元。
(4)层级连接的指导损失实验:
下面表4中分别列举了增加如图7所示的辅助输出单元前后的分割效果:
表4层级连接的损失对比结果
其中,Unet3D-Crop-IN表示输入裁剪后的数据且使用IN归一化,未增加辅助输出单元,后面3种均是在增加了辅助输出单元以后测试的。Unet3D-Crop-IN-multiloss-auxiliary(output)表示输入裁剪后的数据且使用IN归一化,并采用公式(1)中的第一种α取值方法计算损失,使用output作为输出的结果;Unet3D-Crop-IN-multiloss-auxiliary(o4)表示表示输入裁剪后的数据且使用IN归一化,并采用公式(1)中的第一种α取值方法计算损失,使用o4作为输出的结果;Unet3D-Crop-IN-multiloss-auxiliary(output+o4)表示表示输入裁剪后的数据且使用IN归一化,并采用(1)中的第一种α取值方法计算损失,使用output+o4作为输出的结果;output为第5层的输出结果,o4为下面四层融合后的输出结果。通过表4中的实验结果可以看出,针对此数据,采用(1)中的第一种α取值方法计算损失后,无论是output还是o4的Dice评价都有提升,其中output对CTV的分割结果更好,output+o4对GTV的分割结果更好。。
在表4中,output层在损失函数中所占的比例一直是最大的,而o4在损失中所占的比例是逐渐缩减的(初始比例为0.5,随着训练次数的增加每次迭代后减小0.02,直到减小为0),也就是说o4对output的指导能力一直在减弱直到消失。而下面四层融合的信息是要远大于单层所包含的信息的(甚至是信息冗余),因此为了强化o4的指导能力,尝试将o4的权重增大(初始比例为0.8,随着训练次数的增加,每次迭代后减小0.02,直到减小为0.5),来对output进行更好的引导,结果如表5所示:
表5层级连接的指导损失结果
从表5可以看出,在训练前期提高了o4损失所占有的比例,可以更好的指导模型的推理,甚至在本数据集中o4的输出结果要略优于第5层output的输出结果。
最后,将这种层级连接的指导损失与每一层都进行损失计算的方法进行对比,如表6所示:
表6不同损失的测试结果
从表6可以看出,层级联合的指导损失对CTV和GTV的分割结果都有着较大的提升,对比Unet3D分别提升了7.4%和11.2%。
本模型针对不同的数据集,可以使用该数据集中的测试集输出三种结果(output、o4、output+o4)并分别进行Dice评估,综合选用结果最好的一项作为模型的最终输出结果。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案。但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (11)

1.一种医学影像肿瘤分割系统,其特征在于,所述系统包括:
粗分割模型,用于根据输入的医学影像对目标肿瘤进行粗分割;
定位模块,用于根据粗分割的结果计算所述目标肿瘤的位置,得到第一位置数据;
重采样模块,用于对所述医学影像进行重采样得到三维数据,并基于所述三维数据对所述第一位置数据进行更新,得到第二位置数据;
裁剪模块,用于根据所述第二位置数据对所述三维数据进行裁剪;
精分割模型,用于根据剪裁后的数据对所述目标肿瘤进行精分割;
尺寸还原模块,用于对精分割后的结果进行尺寸还原;
所述精分割模型为Unet 3D网络的改进结构;
对所述Unet 3D网络的改进包括:
所述Unet 3D网络中的Batch Norm被替换为Instance Norm;
对所述Unet 3D网络的改进还包括:
所述Unet 3D网络中3*3*3的卷积被替换为3*3*1、1*1*3和1*3*3三个卷积依次串联或残差连接。
2.根据权利要求1所述的医学影像肿瘤分割系统,其特征在于,对所述Unet 3D网络的改进还包括:在所述Unet 3D网络中增加辅助输出单元;
所述辅助输出单元配置为:对第1层的ReLU输出依次进行卷积、Dropout和上采样,得到该层的辅助输出;对第2层至第4层中每一层的ReLU输出依次进行卷积、Dropout、与下一层的所述辅助输出按1:1进行Add拼接,以及上采样,得到当前层的所述辅助输出;
其中,
所述第1层为所述Unet 3D网络的解码路径中的最底层;
所述解码路径中沿着输出方向,在所述第1层之后依次为第2层、第3层、第3层、第4层和第5层。
3.根据权利要求2所述的医学影像肿瘤分割系统,其特征在于,
所述Unet 3D网络的损失函数被替换为下式:
Loss=(1-α)×Loutput+α×Lo4
其中,Loutput表示根据第5层的ReLU输出经1*1*1卷积后的结果,计算出的损失;Lo4表示根据第4层的所述辅助输出计算的损失;α为权重;α的初始值为0.5,随着训练次数的增加,每次迭代后减小0.02,直到减小为0;或者,α的初始值为0.8,随着训练次数的增加,每次迭代后减小0.02,直到减小为0.5;
Loutput和Lo4均根据下式计算:
L=0.5×BCE Loss+0.5×Dice Loss。
4.根据权利要求2所述的医学影像肿瘤分割系统,其特征在于,所述精分割模型的输出为:第一输出、第二输出或第三输出;
其中,
所述第一输出为:第5层的ReLU输出经1*1*1卷积和Sigmoid激活后的结果;
所述第二输出为:第4层的所述辅助输出经Sigmoid激活后的结果;
所述第三输出为:第5层的ReLU输出经1*1*1卷积的结果与第4层的所述辅助输出,按位相加后经Sigmoid激活后得到的结果。
5.根据权利要求1-4中任一项所述的医学影像肿瘤分割系统,其特征在于,
所述粗分割模型为Unet 2D网络;
所述第一位置数据和所述第二位置数据均包括:所述目标肿瘤的中心位置、含有所述目标肿瘤的图像数量,以及含有所述目标肿瘤的图像中间张的位置。
6.一种医学影像肿瘤分割系统,其特征在于,所述系统包括:
粗分割模型,用于根据输入的医学影像对目标肿瘤进行粗分割;
定位模块,用于根据粗分割的结果计算所述目标肿瘤的位置,得到第一位置数据;
重采样模块,用于对所述医学影像进行重采样得到三维数据,并基于所述三维数据对所述第一位置数据进行更新,得到第二位置数据;
裁剪模块,用于根据所述第二位置数据对所述三维数据进行裁剪;
精分割模型,用于根据剪裁后的数据对所述目标肿瘤进行精分割;
尺寸还原模块,用于对精分割后的结果进行尺寸还原;
所述精分割模型为Unet 3D网络的改进结构;
对所述Unet 3D网络的改进包括:
所述Unet 3D网络中的Batch Norm被替换为Instance Norm;
对所述Unet 3D网络的改进还包括:在所述Unet 3D网络中增加辅助输出单元;
所述辅助输出单元配置为:对第1层的ReLU输出依次进行卷积、Dropout和上采样,得到该层的辅助输出;对第2层至第4层中每一层的ReLU输出依次进行卷积、Dropout、与下一层的所述辅助输出按1:1进行Add拼接,以及上采样,得到当前层的所述辅助输出;
其中,
所述第1层为所述Unet 3D网络的解码路径中的最底层;
所述解码路径中沿着输出方向,在所述第1层之后依次为第2层、第3层、第3层、第4层和第5层。
7.根据权利要求6所述的医学影像肿瘤分割系统,其特征在于,
对所述Unet 3D网络的改进还包括:
所述Unet 3D网络中3*3*3的卷积被替换为3*3*1、1*1*3和1*3*3三个卷积依次串联或残差连接。
8.根据权利要求6所述的医学影像肿瘤分割系统,其特征在于,
所述Unet 3D网络的损失函数被替换为下式:
Loss=(1-α)×Loutput+α×Lo4
其中,Loutput表示根据第5层的ReLU输出经1*1*1卷积后的结果,计算出的损失;Lo4表示根据第4层的所述辅助输出计算的损失;α为权重;α的初始值为0.5,随着训练次数的增加,每次迭代后减小0.02,直到减小为0;或者,α的初始值为0.8,随着训练次数的增加,每次迭代后减小0.02,直到减小为0.5;
Loutput和Lo4均根据下式计算:
L=0.5×BCE Loss+0.5×Dice Loss。
9.根据权利要求6所述的医学影像肿瘤分割系统,其特征在于,所述精分割模型的输出为:第一输出、第二输出或第三输出;
其中,
所述第一输出为:第5层的ReLU输出经1*1*1卷积和Sigmoid激活后的结果;
所述第二输出为:第4层的所述辅助输出经Sigmoid激活后的结果;
所述第三输出为:第5层的ReLU输出经1*1*1卷积的结果与第4层的所述辅助输出,按位相加后经Sigmoid激活后得到的结果。
10.根据权利要求6-9中任一项所述的医学影像肿瘤分割系统,其特征在于,
所述粗分割模型为Unet 2D网络;
所述第一位置数据和所述第二位置数据均包括:所述目标肿瘤的中心位置、含有所述目标肿瘤的图像数量,以及含有所述目标肿瘤的图像中间张的位置。
11.一种模型训练方法,其特征在于,
所述方法基于权利要求1-10中任一项所述的医学影像肿瘤分割系统;
所述方法包括:
对所述粗分割模型进行训练,得到训练好的粗分割模型;
对原始影像数据进行预处理,得到训练集;
利用所述训练集对所述精分割模型进行训练,得到训练好的精分割模型;
所述训练集包括:预设数量的第一训练样本,以及与每个所述第一训练样本一一对应的第一真实值;
所述对原始影像数据进行预处理,得到训练集,包括:
将原始影像数据输入训练好的粗分割模型对目标肿瘤进行粗分割;
根据粗分割的结果计算所述目标肿瘤的位置,得到第一位置数据;
根据所述原始影像数据的采样点间隔,对所述原始影像数据进行重采样得到三维的第一重采样数据,并基于所述第一重采样数据对所述第一位置数据进行更新,得到第二位置数据;
根据所述第二位置数据确定所述目标肿瘤所在的区域,并进行区域扩充,并根据扩充后的区域对所述第一重采样数据进行裁剪,得到第一训练样本;
根据所述原始影像数据的采样点间隔,对所述原始影像数据及其对应的标注数据进行重采样得到三维的第二重采样数据;
根据所述第二位置数据对所述第二重采样数据进行裁剪,得到第一真实值;
其中,
所述粗分割模型为Unet 2D网络;
所述第一位置数据和所述第二位置数据均包括:所述目标肿瘤的中心位置、含有所述目标肿瘤的图像数量,以及含有所述目标肿瘤的图像中间张的位置。
CN202310149664.3A 2023-02-13 2023-02-13 医学影像肿瘤分割系统、训练集构建方法和模型训练方法 Active CN116109605B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310149664.3A CN116109605B (zh) 2023-02-13 2023-02-13 医学影像肿瘤分割系统、训练集构建方法和模型训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310149664.3A CN116109605B (zh) 2023-02-13 2023-02-13 医学影像肿瘤分割系统、训练集构建方法和模型训练方法

Publications (2)

Publication Number Publication Date
CN116109605A CN116109605A (zh) 2023-05-12
CN116109605B true CN116109605B (zh) 2024-04-02

Family

ID=86254161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310149664.3A Active CN116109605B (zh) 2023-02-13 2023-02-13 医学影像肿瘤分割系统、训练集构建方法和模型训练方法

Country Status (1)

Country Link
CN (1) CN116109605B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111296A (zh) * 2019-01-30 2019-08-09 北京慧脑云计算有限公司 深度学习的新发皮层下小梗死病灶自动分割系统及其方法
CN110874842A (zh) * 2019-10-10 2020-03-10 浙江大学 一种基于级联残差全卷积网络的胸腔多器官分割方法
CN111192245A (zh) * 2019-12-26 2020-05-22 河南工业大学 一种基于U-Net网络的脑肿瘤分割网络及分割方法
WO2020238044A1 (zh) * 2019-05-31 2020-12-03 深圳市前海安测信息技术有限公司 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质
KR20210020629A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법
WO2022037696A1 (zh) * 2020-08-21 2022-02-24 张逸凌 基于深度学习的骨骼分割方法和系统
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111296A (zh) * 2019-01-30 2019-08-09 北京慧脑云计算有限公司 深度学习的新发皮层下小梗死病灶自动分割系统及其方法
WO2020238044A1 (zh) * 2019-05-31 2020-12-03 深圳市前海安测信息技术有限公司 用于检测肿瘤的3D UNet网络模型构建方法、装置及存储介质
KR20210020629A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법
CN110874842A (zh) * 2019-10-10 2020-03-10 浙江大学 一种基于级联残差全卷积网络的胸腔多器官分割方法
CN111192245A (zh) * 2019-12-26 2020-05-22 河南工业大学 一种基于U-Net网络的脑肿瘤分割网络及分割方法
WO2022037696A1 (zh) * 2020-08-21 2022-02-24 张逸凌 基于深度学习的骨骼分割方法和系统
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jiaosong Long,et al.Cascaded hybrid residual U-Net for glioma segmentation.《Multimedia Tools and Applications》.2020,第79卷第24929–24947页. *
Xingyan Chen,et al.Whole brain segmentation method from 2.5D brain MRI slice image based on Triple U-Net.《The visual computer》.2021,第39卷第255-266页. *
彭开毅.基于级联卷积神经网络CCNN的CT医学图像分割.《中国博士学位论文全文数据库 医药卫 生科技辑》.2022,第2022年卷(第09期),E060-11. *

Also Published As

Publication number Publication date
CN116109605A (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN111798462B (zh) 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法
CN111627019B (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及系统
CN111179237B (zh) 一种肝脏以及肝脏肿瘤的图像分割方法和装置
CN113808146B (zh) 一种医学图像多器官分割方法及系统
JP2023550844A (ja) 深層形状学習に基づく肝臓ct自動分割方法
CN115578404B (zh) 一种基于深度学习的肝脏肿瘤图像增强和分割的方法
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
CN111369574B (zh) 一种胸腔器官的分割方法及装置
CN112529909A (zh) 一种基于图像补全的肿瘤图像脑区分割方法及系统
CN111696126B (zh) 一种基于多视角的多任务肝脏肿瘤图像分割方法
CN114723669A (zh) 一种基于上下文信息感知的肝脏肿瘤二点五维深度学习分割算法
CN112465754B (zh) 基于分层感知融合的3d医疗图像分割方法、装置及存储介质
CN114913327A (zh) 一种基于改进U-Net的下肢骨骼CT图像分割算法
CN113421240A (zh) 一种基于超声自动乳腺全容积成像的乳腺分类方法及装置
CN116188452A (zh) 医学图像层间插值及三维重建方法
WO2024104035A1 (zh) 基于长短期记忆自注意力模型的三维医学图像分割方法及系统
CN114066883A (zh) 一种基于特征选择与残差融合的肝肿瘤分割方法
Ferreira et al. GAN-based generation of realistic 3D volumetric data: A systematic review and taxonomy
CN116109605B (zh) 医学影像肿瘤分割系统、训练集构建方法和模型训练方法
Wei et al. AKFNET: an anatomical knowledge embedded few-shot network for medical image segmentation
EP3896649A1 (en) Medical image synthesis of abnormality patterns associated with covid-19
Yagasaki et al. Estimating 3-dimensional liver motion using deep learning and 2-dimensional ultrasound images
Teng et al. Blind face restoration via multi-prior collaboration and adaptive feature fusion
CN110570417B (zh) 肺结节分类装置及图像处理设备
CN113538348A (zh) 一种颅脑磁共振弥散加权图像的处理方法及相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant