CN109146899A - Ct图像的危及器官分割方法及装置 - Google Patents
Ct图像的危及器官分割方法及装置 Download PDFInfo
- Publication number
- CN109146899A CN109146899A CN201810989142.3A CN201810989142A CN109146899A CN 109146899 A CN109146899 A CN 109146899A CN 201810989142 A CN201810989142 A CN 201810989142A CN 109146899 A CN109146899 A CN 109146899A
- Authority
- CN
- China
- Prior art keywords
- image
- organ
- segmentation
- organ segmentation
- jeopardize
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开了一种CT图像的危及器官分割方法及装置,属于数字图像处理技术领域,方法包括步骤:S1、构建图像集,其中,图像集包括预处理后的多个CT图像;S2、对多个CT图像分别进行危及器官标注,以建立训练集;S3、构建危及器官分割网络,并对危及器官分割网络进行预训练;S4、在训练集上融合图像空间坐标信息对预训练后的危及器官分割网络进行训练,生成危及器官分割模型;S5、基于危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤危及器官分割结果,得到最终的危及器官分割结果。本发明实施例能够实现对患者在精准放疗时的危及器官进行实体分割,避免放疗照射时对危及器官造成损伤。
Description
技术领域
本发明涉及数字图像处理技术领域,特别涉及一种CT图像的危及器官分割方法及装置。
背景技术
肿瘤患者进行放疗之前,需要由放疗医生、物理师以及剂量师们共同仔细研究,为患者定制出一套精准、安全、有效的粒子放疗计划。该放疗计划需要考量多种指标,规避重要脏器,挑选最优照射路径与角度,以不同颜色勾画接受不同照射剂量的肿瘤病灶区。
在制定放疗计划的过程中,需要涉及到放疗切片的解读。对于中国每十万人中只有不到两位的病理医生现状而言,每位患者能够得到的医生资源非常匮乏。在病理医生读片的过程中,需要把病人的影像数据切片为几十片,从中观察病变情况。之后需要针对病变区域勾画靶区,并对危及器官进行保护。此类工作费时费力,由于医生工作经验的差异、医生当天的状态等情况会导致危及器官的勾画效果不同,导致后续制定放疗计划时无法良好保护危机器官,对患者产生较大影响。
随着科技力量的兴起,人工智能赋能医疗领域已有较多应用场景。患者的医疗影像数据以及检验数据已达到PB数量级,对于人工分析而言是巨大负担,却符合数据挖掘、机器学习等技术对于数据量的需求。
发明内容
有鉴于此,本发明实施例提供了一种CT图像的危及器官分割方法及装置,可以实现对患者在精准放疗时的危及器官进行实体分割,避免放疗照射时对危及器官进行照射。
本发明实施例提供的技术方案如下:
第一方面,提供了一种CT图像的危及器官分割方法,包括步骤:
S1、构建图像集,其中,所述图像集包括预处理后的多个CT图像;
S2、对多个所述CT图像分别进行危及器官标注,以建立训练集;
S3、构建危及器官分割网络,并对所述危及器官分割网络进行预训练;
S4、在所述训练集上融合图像空间坐标信息对预训练后的所述危及器官分割网络进行训练,生成危及器官分割模型;
S5、基于所述危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤所述危及器官分割结果,得到最终的危及器官分割结果。
在一些实施例中,所述步骤S2进一步包括:
S21、对所述CT图像进行勾画,得到危及器官的勾画区域;
S22、对所述危及器官的勾画区域打上所述危及器官对应的标签;
S23、将所述危及器官的勾画区域的原始坐标转换成图像像素位置;
S24、根据所述图像像素位置,对所述危及器官进行连点成线处理及区域填充处理,生成与所述CT图像对应的标注图像;
S25、根据所述CT图像和对应的所述标注图像,建立所述训练集。
在一些实施例中,所述步骤S2进一步还包括:
S26、在所述训练集中,对所述CT图像和对应的所述标注图像同步进行图像变换操作;
其中,所述图像变换操作包括轻微旋转、放大、缩小、平移、拉伸中的任意一项或多项组合。
在一些实施例中,所述步骤S3中构建危及器官分割网络包括:
S31、对符合第一预设图像尺寸的所述CT图像进行多次卷积操作、多次非线性激活操作以及图像降采样;
S32、重复执行步骤S31,直至提取到符合第二预设图像尺寸的特征图;
S33、基于滑窗扫描方法,从所述特征图中提取出目标区域;
S34、基于全卷积网络对所述目标区域进行分类、定位,得到目标分类结果和目标定位结果;
S35、基于反卷积网络对所述特征图进行二值分割,得到二值分割结果;
S36、基于所述目标分类结果和所述目标定位结果,在所述二值分割结果中确定目标分割结果。
在一些实施例中,所述步骤S3中对所述危及器官分割网络进行预训练进一步包括:
S31'、设置所述危及器官分割网络的网络训练参数;
S32'、在预先获取的图像分割数据集上,采用所述网络训练参数对所述危及器官分割网络进行预训练,得到预训练后的所述危及器官分割网络。
在一些实施例中,所述步骤S4进一步包括:
S41、对所述训练集中的CT图像的图像信息与图像空间坐标信息按通道进行拼接,以作为预训练后的危及器官分割网络的输入;
S42、以所述拼接后的CT图像作为输入,对预训练后的所述危及器官分割网络进行训练,得到所述危及器官分割模型。
在一些实施例中,所述预设规则包括以下中的至少一个:
仅当出现肺器官分割时才允许出现心脏器官的分割;
当心脏器官的高度小于阈值时,则认定心脏器官不存在;
若针对所述目标CT图像所预测出的器官的坐标范围在预设范围内时,则认定所述目标CT图像内存在所述器官。
在一些实施例中,所述步骤S4进一步包括:
S43、采用不同的训练方式重复执行步骤S42,得到多个危及器官分割模型;
所述步骤S5进一步包括:
S51、基于所述多个危及器官分割模型得到所述目标CT图像的多个危及器官分割结果,并按照所述预设规则分别过滤所述多个危及器官分割结果;
S52、对过滤后的所述多个危及器官分割结果进行融合,得到最终的危及器官分割结果。
在一些实施例中,所述步骤S5之后,所述方法还包括:
若所述最终的危及器官分割结果为错误分割结果,则对所述最终的危及器官分割结果通过插值方式或区域生成方式进行修正。
第二方面,提供了一种应用于如第一方面任一项所述的CT图像的危及器官分割方法的分割装置,其特征在于,所述装置包括:
第一构建模块,用于构建图像集,其中,所述图像集包括预处理后的多个CT图像;
第二构建模块,用于对多个所述CT图像分别进行危及器官标注,以建立训练集;
第一训练模块,用于构建危及器官分割网络,并对所述危及器官分割网络进行预训练;
第二训练模块,用于在所述训练集上融合图像空间坐标信息对预训练后的所述危及器官分割网络进行训练,生成危及器官分割模型;
分割模块,用于基于所述危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤所述危及器官分割结果,得到最终的危及器官分割结果。
第三方面,提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面任一项所述的CT图像的危及器官分割方法。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如第一方面任一项所述的CT图像的危及器官分割方法。
本发明实施例与现有技术相比存在的有益效果是:
1、构建训练集并在训练集上训练生成危及器官分割模型,通过危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤该结果,得到最终的危及器官分割结果。从而可以有效做到危及器官标注,使得提升危及器官分割精度的同时提升效率;
2、避免了传统针对CT图像危及器官勾画过程中,因人为因素导致的标注错误、精度不高等情形发生;实现了在制定放疗计划的过程中大幅降低人工勾画成本,减轻医师工作强度,且提高了危及器官勾画的精准性,因此能够确保放疗计划方案的可靠性,确保放疗疗效。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的CT图像的危及器官分割方法的流程图;
图2为本发明一实施例提供的构建图像集的流程图;
图3为本发明一实施例提供的对多个CT图像分别进行危及器官标注,以建立训练集的的流程图;
图4为本发明一实施例提供的CT图像与对应的标注图像的示意图;
图5为本发明一实施例提供的构建危及器官分割网络的流程图;
图6为本发明一实施例提供的对危及器官分割网络进行预训练的流程图;
图7为本发明一实施例提供的生成危及器官分割模型的流程图;
图8为本发明一实施例提供的生成多个危及器官分割模型的流程图;
图9为本发明一实施例提供的基于危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤危及器官分割结果,得到最终的危及器官分割结果的流程图;
图10为本发明一实施例提供的通过插值方式将区域补充完整的示意图;
图11为本发明一实施例提供的通过插值方式补充漏分割区域的示意图;
图12为本发明一实施例提供的CT图像危及器官的分割训练装置的框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例提供的CT图像的危及器官分割方法的流程图。如图1所示,该方法具体包括:
S1、构建图像集,其中,图像集包括预处理后的多个CT图像。
S2、对多个CT图像分别进行危及器官标注,以建立训练集。
其中,训练集包括CT图像和CT图像对应的标注图像。
S3、构建危及器官分割网络,并对危及器官分割网络进行预训练。
S4、在训练集上融合图像空间坐标信息对预训练后的危及器官分割网络进行训练,生成危及器官分割模型。
S5、基于危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤危及器官分割结果,得到最终的危及器官分割结果。
本发明提供的CT图像的危及器官分割方法,首先,通过对图像集中的CT图像分别进行危及器官标注,以建立训练集;然后,通过构建危及器官分割网络,对危及器官分割网络进行预训练;接着,在训练集上融合图像空间坐标信息对预训练后的危及器官分割网络进行训练,生成危及器官分割模型;最后,基于危及器官分割模型得到目标CT图像的危及器官分割结果,进一步过滤危及器官分割结果,由此通过采用深度学习方式,可以实现对于患者在精准放疗时的危及器官进行精确分割,进而保护危及器官,避免患者受到放疗伤害。
为便于本领域技术人员更清楚本发明技术方案,下面对前述方法中各个步骤的具体实现进行详细的描述。
前述步骤S1中构建图像集的具体实现可如图2所示,包括:
S11、从DICOM文件中提取CT图像。
具体的,从医院处得到的原始数据均为DICOM格式,其中包含了患者的影像资料、拍摄设备、窗宽窗位等信息。为方便训练,首先将原始DICOM文件,采用DICOM中记录的窗宽、窗位信息,将患者图像存储为TIFF格式图像。
S12、对提取到的CT图像进行图像缩放、图像增强处理。
关于图像缩放:由于拍摄CT图像的设备以及拍摄参数设置存在差异,生成CT图像的尺寸以及成像效果也存在差异,而对于绝大多数深度学习算法而言,都要求输入的图像有统一的尺寸,因此在危及器官标注前需要进行图像缩放到统一尺寸,其中,该统一尺寸为(512,512,3)。其中,可以采用现有技术中的图像缩放方法对CT图像进行图像缩放。
关于图像增强。为了增强医疗图像特征,使用限制对比度自适应直方图均衡方法,将图像变得更为自然,目标特征更为明显,便于模型训练。
此外,对提取到的CT图像进行预处理还可以包括图像去噪声处理。比如,可通过图像滤波、膨胀腐蚀等操作去除图像中可能存在的噪音,如图像中可能会存在的文字。
前述步骤S2中对多个CT图像分别进行危及器官标注,以建立训练集的具体实现可如图3所示,包括:
S21、对CT图像进行勾画,得到危及器官的勾画区域。
其中,针对CT图像可以采用专用的勾画软件,对于危及器官进行描点勾画,形成勾画金标准。所勾画的危及器官包括:食道、心脏、左肺、右肺、脊髓,共计五种危及器官。
S22、对危及器官的勾画区域打上危及器官对应的标签。
在本实施中,对于勾画的区域,打上与以上五种器官对应的标签。其中,可以采用标签“1”表示食道,标签“2”表示心脏,标签“3”表示左肺,标签“4”表示右肺,标签“5”表示脊髓。可以理解的是,还可以采用其他的标签标注方式对勾画区域进行标注,本发明实施例对此不加以限定。
S23、将危及器官的勾画区域的原始坐标转换成图像像素位置。
本实施例中,勾画区域的原始信息采用与扫描器械相对应的坐标表示,通过如下坐标轴转换公式,将原始坐标转化为图像像素位置:
其中,(Xin,Yin)表示标注点坐标矩阵,(x0,y0)表示DICOM中记录的坐标轴原点,即图像的左上角在空间坐标系中的横坐标、纵坐标。P表示DICOM中记录的像素间距离。(X,Y)表示经过转换后对应到像素点的像素位置。
S24、根据图像像素位置,对危及器官进行连点成线处理及区域填充处理,生成与CT图像对应的标注图像。
由于在前述步骤S21中勾画的金标准为离散的数据,实际应用时需要用连续区域。在本实施例中可以通过Bresenham算法将离散的点连成平滑曲线。
由于仅有连线的边框可能无法满足训练需求,因此需要将连线边框进行填充。在本实施例中通过漫水填充法,将不同器官的连线区域填充为不同颜色。
此外,为进一步方便训练,可以将不同分类情况采用不同的灰度值表示。比如,采用灰度值0表示背景,灰度值1表示食道,灰度值2表示心脏,灰度值3表示左肺,灰度值4表示右肺,灰度值5表示脊髓。本发明实施例对此不加以限定。
此外,为进一步方便观测,可以将不同分类情况采用三通道进行表示,比如,白色表示背景,红色表示食道,玫红色表示脊椎,黄色表示心脏,蓝色表示左肺,绿色表示右肺。本发明实施例对此不加以限定。
S25、根据CT图像和对应的标注图像,建立训练集。
将CT图像和标注图像构建一一对应的关系,并构建数据集;其中,标注数据包含五类器官分类,即:食道、心脏、左肺、右肺、脊髓。
对构建的数据集进行划分为:训练集、验证集与测试集。本实施例中采用60%的数据用以训练,20%的数据用于验证,其余20%的数据用于测试。
示例性的,采用上述步骤S2的方式,可以得到图4所示的CT图像与对应的标注图像的示意图;其中,图4中的(a)为预处理后的CT图像,图4中的(b)为对该预处理后CT图像进行标注,得到的标注图像。
进一步地,在步骤S25之后,还可以包括:
S26、在训练集中,对CT图像和对应的标注图像同步进行图像变换操作。
其中,图像变换操作包括轻微旋转、放大、缩小、平移、拉伸中的任意一项或多项组合。
由于对于危及器官进行勾画的人工标注成本较高,而深度学习对于训练集的样本需求量大,因而需要对于训练集中的CT图像和CT图像对应的标注图像进行同步增广。本实施例中,可以针对CT图像和CT图像对应的标注图像进行图像变换操作,其中图像变换操作包括轻微旋转、放大、缩小、平移、拉伸中的任意一项或任意组合,但不限于此,由此得到扩充后的训练集。
示例性的,假如,已有标注图像为100个,对每一个标注图像经过图像变换处理(如缩放、平移等)得到10个图像变换处理后的标注图像,此时,100个标注图像就变成了1000个标注图像,从而扩充了标注图像的数量,进而提高后续模型训练效果。
此外,考虑到不同的CT图像的对比度值有较大差异,通过局部对比度归一化的方式对其进行对比度变化,使得后续的模型更具有鲁棒性。
前述步骤S3中构建危及器官分割网络的具体实现可如图5所示,其中,危及器官分割网络主要包括四个部分,分别为:目标区域选取、目标定位、目标分类、目标分割。危及器官分割网络要求的输入图像尺寸为I(512,512,3)的三通道,其中,(512,512,3)分别表示图像的长、宽以及通道数。
本实施例中,步骤S3构建危及器官分割网络的过程具体可以包括:
S31、对符合第一预设图像尺寸的CT图像进行多次卷积操作、多次非线性激活操作以及图像降采样。
具体的,步骤S31的过程可以包括:
a、将尺寸为(512,512,3)的CT图像的灰度图像I送入卷积层C(K,P1num)进行P1次卷积操作。图像I经过P1次卷积,得到深度网络的第P1个卷积层的特征图Fconv(x,y,P1num)。其中,K表示x,y表示经过卷积的卷积核大小,P1num表示第P1个卷积层输出的卷积核个数;
b、对第P1个卷积层的特征图Fconv(x,y,P1num)进行第T1次非线性激活,得到经过激活后的特征图Fa(x,y,T1num)。其中,非线性激活方法可以采用Relu或Sigmoid方法。
c、将第T1次非线性激活操作后的特征图Fa(x,y,T1num)送入池化层Lpool(Kpool,S)进行图像降采样,得到第O1阶段的特征图Fo(x,y,O1num)。其中,Kpool,S分别表示下采样的核大小以及滑动步长,O1num表示第O1阶段特征图的数量。
S32、重复执行步骤S31,直至提取到符合第二预设图像尺寸的特征图。
具体的,重复执行步骤S31中的a~c,直到特征图F1的尺寸为(Z1,Z2,Znum)。其中,Z1,Z2分别为特征图的长、宽,Znum为特征提取网络中特征图数量。
S33、基于滑窗扫描方法,从特征图中提取出目标区域。
具体的,该过程可以包括:
对提取到的特征图F1进行滑窗扫描,其中,扫描的窗格大小可以分为五种(S1,S2,S3,S4,S5),扫描窗格的比例为(R1,R2,R3),共计15种尺寸。窗格的尺寸表示为Wi,i=0,1,…15,窗格的总数量为5*3*Z1*Z2。
将在F1特征图上的每个点对应的扫描窗格映射到原始(512,512)的图像上。可以使用Region Proposal Network算法,得到前景区域与背景区域。
S34、基于全卷积网络对目标区域进行分类、定位,得到目标分类结果和目标定位结果。
具体的,在特征提取的基础上,增加全卷积网络。优选地,增加两层全卷积网络Lconv(Ksize,T1num),利用两层的全卷积网络对步骤S33中得到的前景区域进行计算,得到六分类的输出,以作为目标分类结果,该六分类包括五类器官及一类背景。
对于步骤S33中得到的前景定位框,通过网络计算出其与真实定位框的偏移量,调整定位框位置得到最终的定位结果。
S35、基于反卷积网络对特征图进行二值分割,得到二值分割结果。
具体的,在特征图F1的基础上,增加反卷积网络,直到输出特征图尺寸为(512,512,N)的二值分割结果。其中,二值分割结果具有N层数据层,每层数据层对应一个分类,N取值等于分类标签的数量,N为大于1的自然数。在本实施例中,N取值为6,分类包括六类,即:食道、心脏、左肺、右肺、脊髓和背景。
S36、基于目标分类结果和目标定位结果,在二值分割结果中确定目标分割结果。
具体的,基于目标分类结果和目标定位结果,在二值分割结果中确定目标分类结果对应的数据层,并将该数据层作为目标器官分割结果。该目标分割结果的大小为P(512,512,1)。
此外,若单张CT图像中有多个器官时,比如,该CT图像中包括食道、左肺、脊髓三个器官,每个器官分割出来的都是512*512*1的二值图像,那么最终需要对该多个器官进行分割结果融合。利用如下计算公式进行融合:
其中,C表示单张CT图像的最终分割结果,Pi为该单张CT图像上第i个器官的目标分割结果,Li为对应第i个器官对应的分类标签灰度值,N为单张CT图像中的器官类别数量。
前述步骤S3中对危及器官分割网络进行预训练的具体实现可如图6所示,包括:
S31'、设置危及器官分割网络的网络训练参数。
具体的,该过程可以包括:
网络超参数设置:依次设置危及器官分割网络的超参数Batch_size,Epochs,Learning_rate。
损失函数选择:采用交叉熵计算训练精度,计算公式为:
其中y为真实标签,a为经过神经网络预测的输出。在优化神经网络参数时的目标即最小化交叉熵代价函数。
优化器选择:选择带有Nesterov项的SGD作为优化器
mt=μ*mt-1+gt
θt=θt-1-η*mt
其中,gt表示当前梯度,mt表示当前动量,表示求导,θt表示第t步的模型参数,μ是动量因子,η是学习速率。
S32'、在预先获取的图像分割数据集上,采用网络训练参数对危及器官分割网络进行预训练,得到预训练后的危及器官分割网络。
其中,预先获取的图像分割数据集可以为从公共数据库中预先获取到的已公开的图像分割数据集。其中,获取的图像分割数据集包括危及器官分割图像和器官分割图像对应的原始图像。本发明实施例对具体的获取过程不作限定。
以危及器官分割图像对应的原始图像为输入图像,以危及器官分割图像为标注图像,输入至危及器官分割网络中,通过正向传播过程得到输入图像与标注图像间的损失函数,更新损失函数最小化时危及器官分割网络的网络超参数。
此外,如果以单层切片作为网络的输入,会损失上下层相关联的信息。因此为了减少此种损失,将图像在空间中的X、Y、Z坐标信息融入其中。因此在步骤S32'进一步包括:
将CT图像的图像信息及坐标信息按通道进行拼接,形成(512,512,3)的拼接图像,将拼接图像作为危及器官分割网络的输入,对危及器官分割网络进行预训练,得到预训练后的危及器官分割网络。
本实施例中,通过在预先获取的图像分割数据集上,采用网络训练参数对危及器官分割网络进行预训练,能够进一步提升后续模型输出的危及器官的分割效果。
前述步骤S4中在训练集上融合图像空间坐标信息对预训练后的危及器官分割网络进行训练,生成危及器官分割模型的具体实现可如图7所示,包括:
S41、对训练集中的CT图像的图像信息与图像空间坐标信息按通道进行拼接,以作为预训练后的危及器官分割网络的输入。
S42、以拼接后的CT图像作为输入,对预训练后的危及器官分割网络进行训练,得到危及器官分割模型。
此外,为了使训练的结果更为精准,可以通过测试集测试该训练出的危及器官分割模型是否准确,进而根据测试结果决定使用该危及器官分割模型还是对该危及器官分割模型进行优化网络参数再训练,以得到符合条件的危及器官分割模型,由此可以进一步提高危及器官分割模型的训练准确性。
前述步骤S5的预设规则包括以下中的至少一个:
i,仅当出现肺器官分割时才允许出现心脏器官的分割。
由于肺部在人体中存在的范围较大,而心脏通常位处两肺间,即心脏被肺包围,没有肺的位置则没有心脏。从CT切片上观察,如果单张CT切片时仅出现了心脏,但是不存在肺,说明出现了错误预测,需将此部分结果过滤。
ii,当心脏器官的高度小于阈值时,则认定心脏器官不存在。
通常医生标记危及器官时,心脏切片的高度都大于阈值。若不满足此条件,则认为出现了误分割,需要将此部分分割结果去除。
iii,若针对目标CT图像所预测出的器官的坐标范围在预设范围内时,则认定目标CT图像内存在器官。
利用Z轴空间信息,目标CT图像所预测出的器官,在坐标范围在(μ1,μ2)阈值内,认为目标CT图像存在该器官。对于单个病人而言,每个脏器在垂直地面方向的坐标范围都是相对固定的,如果超过了某个阈值,说明出现错误预测,需过滤。
本实施例中,由于通过危及器官分割模型得到的分割结果可能存在一定误差,因此在水平面上(也称横切面)对CT图像,通过上述预设规则对基于危及器官分割模型得到目标CT图像的危及器官分割结果进行过滤,可以进一步提升危及器官的分割效果。
此外,在一些实施例中,前述步骤S4中除了包括图7中描述的步骤之外,还包括步骤S43,为了描述简洁起见,省略了图7中描述的步骤。如图8所示,步骤S4进一步包括:
S43、采用不同的训练方式重复执行步骤S42,得到多个危及器官分割模型。
其中,可以采用不同的网络训练参数和/或训练次数,训练得到不同的多个危及器官分割模型。
基于步骤S4中的步骤S41至步骤S43,前述步骤S5中基于危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤危及器官分割结果,得到最终的危及器官分割结果的具体实现可如图9所示包括:
S51、基于多个危及器官分割模型得到目标CT图像的多个危及器官分割结果,并按照预设规则分别过滤多个危及器官分割结果。
具体的,通过得到的多个危及器官分割模型对于目标CT图像进行预测,得到多个预测结果,包括:Prediction1,Prediction2,Prediction3,……每个预测的结果均为(512,512,1)的大小。
对每个预测结果均采用预设规则进行过滤,得到过滤后的多个预测结果。其中,预设规则可以参照前文内容,此处不再赘述。
S52、对过滤后的多个危及器官分割结果进行融合,得到最终的危及器官分割结果。
具体的,对于预测出的所有结果,在每个像素点上采用投票法,得到最终单个像素点所属类别的预测值。
本实施例中,通过基于多个危及器官分割模型得到目标CT图像的多个危及器官分割结果,并按照预设规则分别过滤多个危及器官分割结果,能够进一步提高分割准确性,从而进一步提升危及器官的分割效果,此外,通过在对过滤后的多个危及器官分割结果进行融合,得到最终的危及器官分割结果,能够更进一步地提升危及器官的分割效果。
进一步的,本发明实施例提供的CT图像的危及器官分割方法,在步骤S5中之后,该方法还可以包括:
若最终的危及器官分割结果为错误分割结果,则对最终的危及器官分割结果通过插值方式或区域生成方式进行修正。
其中,错误分割结果包括分割边缘不完整、漏分割以及局部未分割。
具体的,对于分割边缘不完整的情况,人为选取分割边缘正确的危及器官切片,并基于分割边缘正确的危及器官切片,通过插值方式将分割边缘不完整的区域补充完整。
对于存在较多漏分割的情况,人为选取分割正确的两张危及器官切片,在两张危及器官切片之间的漏分割区域,通过插值方式补充漏分割区域。
对于局部未分割出的CT图像,通过区域生长方式,修正分割结果。
示例性的,参照图10所示,图10为本发明一实施例提供的通过插值方式将区域补充完整的示意图。其中图10中a所指的是分割边缘正确的三张危及器官切片,图10中b对应的是分割边缘不完整的两张危及器官切片,即错误的分割结果,通过插值方式将图10中b对应的分割结果中分割边缘不完整的区域补充完整,即得到图10中c所指的修正后的分割结果。
示例性的,参照图11所示,图11为本发明一实施例提供的通过插值方式补充漏分割区域的示意图。其中图11中a所指的正确分割的两张危及器官切片,在该两张危及器官切片之间通过插值方式进行补充漏分割区域,即得到图11中b所指区域。
本实施例中,由于医疗图像成像仪器不统一、病人个体差异等情况,训练生成的危及器官分割模型难免出现漏分割、分割边缘不完整等情况,通过对这些情况进行修正,可以进一步提升危及器官的分割效果。
作为对前述实施例中的CT图像的危及器官分割方法的实现,本发明另一实施例还提供一种CT图像危及器官的分割训练装置,参照图12所示,该装置包括:
第一构建模块121,用于构建图像集,其中,图像集包括预处理后的多个CT图像;
第二构建模块122,用于对多个CT图像分别进行危及器官标注,以建立训练集;
第一训练模块123,用于构建危及器官分割网络,并对危及器官分割网络进行预训练;
第二训练模块124,用于在训练集上融合图像空间坐标信息对预训练后的危及器官分割网络进行训练,生成危及器官分割模型;
分割模块125,用于基于危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤危及器官分割结果,得到最终的危及器官分割结果。
本实施例提供的CT图像危及器官的分割装置,与本发明实施例所提供的CT图像的危及器官分割方法属于同一发明构思,可执行本发明任意实施例所提供的CT图像的危及器官分割方法,具备执行CT图像的危及器官分割方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例提供的CT图像的危及器官分割方法,此处不再加以赘述。
此外,本发明另一实施例还提供一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述实施例的CT图像的危及器官分割方法。
此外,本发明另一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,程序被处理器执行时实现如上述实施例的CT图像的危及器官分割方法。
本领域内的技术人员应明白,本发明实施例中的实施例可提供为方法、系统、或计算机程序产品。因此,本发明实施例中可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例中可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例中是参照根据本发明实施例中实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例中的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例中范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (12)
1.一种CT图像的危及器官分割方法,其特征在于,包括步骤:
S1、构建图像集,其中,所述图像集包括预处理后的多个CT图像;
S2、对多个所述CT图像分别进行危及器官标注,以建立训练集;
S3、构建危及器官分割网络,并对所述危及器官分割网络进行预训练;
S4、在所述训练集上融合图像空间坐标信息对预训练后的所述危及器官分割网络进行训练,生成危及器官分割模型;
S5、基于所述危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤所述危及器官分割结果,得到最终的危及器官分割结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2进一步包括:
S21、对所述CT图像进行勾画,得到危及器官的勾画区域;
S22、对所述危及器官的勾画区域打上所述危及器官对应的标签;
S23、将所述危及器官的勾画区域的原始坐标转换成图像像素位置;
S24、根据所述图像像素位置,对所述危及器官进行连点成线处理及区域填充处理,生成与所述CT图像对应的标注图像;
S25、根据所述CT图像和对应的所述标注图像,建立所述训练集。
3.根据权利要求2所述的方法,其特征在于,所述步骤S2进一步还包括:
S26、在所述训练集中,对所述CT图像和对应的所述标注图像同步进行图像变换操作;
其中,所述图像变换操作包括轻微旋转、放大、缩小、平移、拉伸中的任意一项或多项组合。
4.根据权利要求1所述的方法,其特征在于,所述步骤S3中构建危及器官分割网络包括:
S31、对符合第一预设图像尺寸的所述CT图像进行多次卷积操作、多次非线性激活操作以及图像降采样;
S32、重复执行步骤S31,直至提取到符合第二预设图像尺寸的特征图;
S33、基于滑窗扫描方法,从所述特征图中提取出目标区域;
S34、基于全卷积网络对所述目标区域进行分类、定位,得到目标分类结果和目标定位结果;
S35、基于反卷积网络对所述特征图进行二值分割,得到二值分割结果;
S36、基于所述目标分类结果和所述目标定位结果,在所述二值分割结果中确定目标分割结果。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3中对所述危及器官分割网络进行预训练进一步包括:
S31'、设置所述危及器官分割网络的网络训练参数;
S32'、在预先获取的图像分割数据集上,采用所述网络训练参数对所述危及器官分割网络进行预训练,得到预训练后的所述危及器官分割网络。
6.根据权利要求1所述的方法,其特征在于,所述步骤S4进一步包括:
S41、对所述训练集中的CT图像的图像信息与图像空间坐标信息按通道进行拼接,以作为预训练后的危及器官分割网络的输入;
S42、以拼接后的CT图像作为输入,对预训练后的所述危及器官分割网络进行训练,得到所述危及器官分割模型。
7.根据权利要求1所述的方法,其特征在于,所述预设规则包括以下中的至少一个:
仅当出现肺器官分割时才允许出现心脏器官的分割;
当心脏器官的高度小于阈值时,则认定心脏器官不存在;
若针对所述目标CT图像所预测出的器官的坐标范围在预设范围内时,则认定所述目标CT图像内存在所述器官。
8.根据权利要求1~7任一项所述的方法,其特征在于,
所述步骤S4进一步包括:
S43、采用不同的训练方式重复执行步骤S42,得到多个危及器官分割模型;
所述步骤S5进一步包括:
S51、基于所述多个危及器官分割模型得到所述目标CT图像的多个危及器官分割结果,并按照所述预设规则分别过滤所述多个危及器官分割结果;
S52、对过滤后的所述多个危及器官分割结果进行融合,得到最终的危及器官分割结果。
9.根据权利要求1~7任一项所述的方法,其特征在于,所述步骤S5之后,所述方法还包括:
若所述最终的危及器官分割结果为错误分割结果,则对所述最终的危及器官分割结果通过插值方式或区域生成方式进行修正。
10.一种应用于如权利要求1~9任一项所述的CT图像的危及器官分割方法的分割装置,其特征在于,所述装置包括:
第一构建模块,用于构建图像集,其中,所述图像集包括预处理后的多个CT图像;
第二构建模块,用于对多个所述CT图像分别进行危及器官标注,以建立训练集;
第一训练模块,用于构建危及器官分割网络,并对所述危及器官分割网络进行预训练;
第二训练模块,用于在所述训练集上融合图像空间坐标信息对预训练后的所述危及器官分割网络进行训练,生成危及器官分割模型;
分割模块,用于基于所述危及器官分割模型得到目标CT图像的危及器官分割结果,并按照预设规则过滤所述危及器官分割结果,得到最终的危及器官分割结果。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1~9任意一项所述的CT图像的危及器官分割方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~9任意一项所述的CT图像的危及器官分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810989142.3A CN109146899A (zh) | 2018-08-28 | 2018-08-28 | Ct图像的危及器官分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810989142.3A CN109146899A (zh) | 2018-08-28 | 2018-08-28 | Ct图像的危及器官分割方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109146899A true CN109146899A (zh) | 2019-01-04 |
Family
ID=64828678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810989142.3A Pending CN109146899A (zh) | 2018-08-28 | 2018-08-28 | Ct图像的危及器官分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109146899A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110033417A (zh) * | 2019-04-12 | 2019-07-19 | 江西财经大学 | 一种基于深度学习的图像增强方法 |
CN110148112A (zh) * | 2019-04-02 | 2019-08-20 | 成都真实维度科技有限公司 | 一种采集并标注断层扫描图数据进行数据集建立的方法 |
CN110148113A (zh) * | 2019-04-02 | 2019-08-20 | 成都真实维度科技有限公司 | 一种基于断层扫描图数据的病灶靶区信息标注方法 |
CN110211139A (zh) * | 2019-06-12 | 2019-09-06 | 安徽大学 | 自动分割食管癌放疗靶区和危及器官的方法及系统 |
CN110223300A (zh) * | 2019-06-13 | 2019-09-10 | 北京理工大学 | Ct图像腹部多器官分割方法及装置 |
CN110232721A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的训练方法及装置 |
CN110232663A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的修正方法及装置 |
CN110517257A (zh) * | 2019-08-30 | 2019-11-29 | 北京推想科技有限公司 | 危及器官标注信息处理方法及相关装置 |
CN111127444A (zh) * | 2019-12-26 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度语义网络的ct影像中自动识别放疗危及器官的方法 |
CN111275720A (zh) * | 2020-01-20 | 2020-06-12 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN111368827A (zh) * | 2020-02-27 | 2020-07-03 | 北京推想科技有限公司 | 医学图像处理方法、装置、计算机设备及存储介质 |
WO2020164493A1 (zh) * | 2019-02-14 | 2020-08-20 | 腾讯科技(深圳)有限公司 | 一种医学图像区域过滤方法、装置及存储介质 |
CN111784700A (zh) * | 2019-04-04 | 2020-10-16 | 阿里巴巴集团控股有限公司 | 肺叶分割、模型训练、模型构建与分割方法、系统及设备 |
CN112750530A (zh) * | 2021-01-05 | 2021-05-04 | 上海梅斯医药科技有限公司 | 一种模型的训练方法、终端设备和存储介质 |
WO2021151275A1 (zh) * | 2020-05-20 | 2021-08-05 | 平安科技(深圳)有限公司 | 图像分割方法、装置、设备及存储介质 |
CN116681717A (zh) * | 2023-08-04 | 2023-09-01 | 经智信息科技(山东)有限公司 | 一种ct图像的分割处理方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372390A (zh) * | 2016-08-25 | 2017-02-01 | 姹ゅ钩 | 一种基于深度卷积神经网络的预防肺癌自助健康云服务系统 |
CN107123123A (zh) * | 2017-05-02 | 2017-09-01 | 电子科技大学 | 基于卷积神经网络的图像分割质量评价方法 |
CN107358600A (zh) * | 2017-06-14 | 2017-11-17 | 北京全域医疗技术有限公司 | 放疗计划中的自动勾靶方法、装置和电子设备 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
CN107424152A (zh) * | 2017-08-11 | 2017-12-01 | 联想(北京)有限公司 | 器官病变的检测方法和电子设备、以及训练神经元网络的方法和电子设备 |
CN107545579A (zh) * | 2017-08-30 | 2018-01-05 | 上海联影医疗科技有限公司 | 一种心脏分割方法、设备和存储介质 |
US20180061059A1 (en) * | 2016-08-26 | 2018-03-01 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
CN108090904A (zh) * | 2018-01-03 | 2018-05-29 | 深圳北航新兴产业技术研究院 | 一种医学图像实例分割方法和装置 |
CN108288496A (zh) * | 2018-01-26 | 2018-07-17 | 中国人民解放军总医院 | 肿瘤容积智能勾画方法和装置 |
CN108447551A (zh) * | 2018-02-09 | 2018-08-24 | 北京连心医疗科技有限公司 | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 |
-
2018
- 2018-08-28 CN CN201810989142.3A patent/CN109146899A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372390A (zh) * | 2016-08-25 | 2017-02-01 | 姹ゅ钩 | 一种基于深度卷积神经网络的预防肺癌自助健康云服务系统 |
US20180061059A1 (en) * | 2016-08-26 | 2018-03-01 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
CN107123123A (zh) * | 2017-05-02 | 2017-09-01 | 电子科技大学 | 基于卷积神经网络的图像分割质量评价方法 |
CN107358600A (zh) * | 2017-06-14 | 2017-11-17 | 北京全域医疗技术有限公司 | 放疗计划中的自动勾靶方法、装置和电子设备 |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
CN107424152A (zh) * | 2017-08-11 | 2017-12-01 | 联想(北京)有限公司 | 器官病变的检测方法和电子设备、以及训练神经元网络的方法和电子设备 |
CN107545579A (zh) * | 2017-08-30 | 2018-01-05 | 上海联影医疗科技有限公司 | 一种心脏分割方法、设备和存储介质 |
CN108090904A (zh) * | 2018-01-03 | 2018-05-29 | 深圳北航新兴产业技术研究院 | 一种医学图像实例分割方法和装置 |
CN108288496A (zh) * | 2018-01-26 | 2018-07-17 | 中国人民解放军总医院 | 肿瘤容积智能勾画方法和装置 |
CN108447551A (zh) * | 2018-02-09 | 2018-08-24 | 北京连心医疗科技有限公司 | 一种基于深度学习的靶区自动勾画方法、设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
MEN K 等: "Deep Deconvolutional Neural Network for Target Segmentation of Nasopharyngeal Cancer in Planning Computed Tomography Images", 《FRONT ONCOL》 * |
门阔 等: "《利用深度反卷积神经网络自动勾画放疗危及器官》", 《中国医学物理学杂志》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020164493A1 (zh) * | 2019-02-14 | 2020-08-20 | 腾讯科技(深圳)有限公司 | 一种医学图像区域过滤方法、装置及存储介质 |
CN110148112A (zh) * | 2019-04-02 | 2019-08-20 | 成都真实维度科技有限公司 | 一种采集并标注断层扫描图数据进行数据集建立的方法 |
CN110148113A (zh) * | 2019-04-02 | 2019-08-20 | 成都真实维度科技有限公司 | 一种基于断层扫描图数据的病灶靶区信息标注方法 |
CN111784700B (zh) * | 2019-04-04 | 2022-07-22 | 阿里巴巴集团控股有限公司 | 肺叶分割、模型训练、模型构建与分割方法、系统及设备 |
CN111784700A (zh) * | 2019-04-04 | 2020-10-16 | 阿里巴巴集团控股有限公司 | 肺叶分割、模型训练、模型构建与分割方法、系统及设备 |
CN110033417A (zh) * | 2019-04-12 | 2019-07-19 | 江西财经大学 | 一种基于深度学习的图像增强方法 |
CN110033417B (zh) * | 2019-04-12 | 2023-06-13 | 江西财经大学 | 一种基于深度学习的图像增强方法 |
CN110232721A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的训练方法及装置 |
CN110232663A (zh) * | 2019-05-16 | 2019-09-13 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 一种危机器官自动勾画模型的修正方法及装置 |
CN110211139A (zh) * | 2019-06-12 | 2019-09-06 | 安徽大学 | 自动分割食管癌放疗靶区和危及器官的方法及系统 |
CN110223300A (zh) * | 2019-06-13 | 2019-09-10 | 北京理工大学 | Ct图像腹部多器官分割方法及装置 |
CN110517257A (zh) * | 2019-08-30 | 2019-11-29 | 北京推想科技有限公司 | 危及器官标注信息处理方法及相关装置 |
CN111127444A (zh) * | 2019-12-26 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度语义网络的ct影像中自动识别放疗危及器官的方法 |
CN111127444B (zh) * | 2019-12-26 | 2021-06-04 | 广州柏视医疗科技有限公司 | 基于深度语义网络的ct影像中自动识别放疗危及器官的方法 |
CN111275720A (zh) * | 2020-01-20 | 2020-06-12 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN111275720B (zh) * | 2020-01-20 | 2022-05-17 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN111368827A (zh) * | 2020-02-27 | 2020-07-03 | 北京推想科技有限公司 | 医学图像处理方法、装置、计算机设备及存储介质 |
CN111368827B (zh) * | 2020-02-27 | 2023-08-29 | 推想医疗科技股份有限公司 | 医学图像处理方法、装置、计算机设备及存储介质 |
WO2021151275A1 (zh) * | 2020-05-20 | 2021-08-05 | 平安科技(深圳)有限公司 | 图像分割方法、装置、设备及存储介质 |
CN112750530A (zh) * | 2021-01-05 | 2021-05-04 | 上海梅斯医药科技有限公司 | 一种模型的训练方法、终端设备和存储介质 |
CN116681717A (zh) * | 2023-08-04 | 2023-09-01 | 经智信息科技(山东)有限公司 | 一种ct图像的分割处理方法及装置 |
CN116681717B (zh) * | 2023-08-04 | 2023-11-28 | 经智信息科技(山东)有限公司 | 一种ct图像的分割处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109146899A (zh) | Ct图像的危及器官分割方法及装置 | |
US11887311B2 (en) | Method and apparatus for segmenting a medical image, and storage medium | |
CN112150428B (zh) | 一种基于深度学习的医学图像分割方法 | |
US20180174311A1 (en) | Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation | |
CN109584251A (zh) | 一种基于单目标区域分割的舌体图像分割方法 | |
CN105069746A (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
CN108428229A (zh) | 一种基于深度神经网络提取表观和几何特征的肺部纹理识别方法 | |
CN109859233A (zh) | 图像处理、图像处理模型的训练方法及系统 | |
CN107203989A (zh) | 基于全卷积神经网络的端对端胸部ct图像分割方法 | |
CN107730507A (zh) | 一种基于深度学习的病变区域自动分割方法 | |
CN104484886B (zh) | 一种mr图像的分割方法及装置 | |
CN112546463B (zh) | 基于深度神经网络的放疗剂量自动预测方法 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN107169475A (zh) | 一种基于kinect相机的人脸三维点云优化处理方法 | |
CN109978037A (zh) | 图像处理方法、模型训练方法、装置、和存储介质 | |
WO2023045231A1 (zh) | 一种解耦分治的面神经分割方法和装置 | |
Wang et al. | Automated segmentation of CBCT image using spiral CT atlases and convex optimization | |
Khan et al. | UAV’s agricultural image segmentation predicated by clifford geometric algebra | |
US11636695B2 (en) | Method for synthesizing image based on conditional generative adversarial network and related device | |
CN103020933A (zh) | 一种基于仿生视觉机理的多源图像融合方法 | |
CN110110808A (zh) | 一种对图像进行目标标注的方法、装置及计算机记录介质 | |
CN107767362A (zh) | 一种基于深度学习的肺癌早筛装置 | |
CN105741289A (zh) | 一种面向虚拟人超大规模切片图像的序列化自动分割方法 | |
CN116152500A (zh) | 一种基于深度学习的全自动牙齿cbct图像分割方法 | |
DE112022001343T5 (de) | Vorschlag für einen Rand mittels neuronalem Netzwerkwerk |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190104 |