CN111524141A - 图像分割方法、装置、ct设备及ct系统 - Google Patents
图像分割方法、装置、ct设备及ct系统 Download PDFInfo
- Publication number
- CN111524141A CN111524141A CN202010367860.4A CN202010367860A CN111524141A CN 111524141 A CN111524141 A CN 111524141A CN 202010367860 A CN202010367860 A CN 202010367860A CN 111524141 A CN111524141 A CN 111524141A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- network model
- deep neural
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000003709 image segmentation Methods 0.000 title claims abstract description 30
- 238000002591 computed tomography Methods 0.000 title description 74
- 238000003062 neural network model Methods 0.000 claims abstract description 255
- 230000011218 segmentation Effects 0.000 claims abstract description 97
- 238000005070 sampling Methods 0.000 claims abstract description 62
- 210000000056 organ Anatomy 0.000 claims abstract description 38
- 210000004072 lung Anatomy 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 33
- 238000010586 diagram Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000000586 desensitisation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000004224 pleura Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- High Energy & Nuclear Physics (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供一种图像分割方法、装置、CT设备及CT系统。本发明实施例通过对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像,将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像,对所述第一分割图像进行上采样,得到第二分割图像,将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块,将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像,通过网络级联的形式,实现网络同时感知CT图像全局上下文的信息和局部细节信息,在避免增加网络内存负担的情况下,提高了网络对目标器官例如肺叶的分割性能。
Description
技术领域
本发明涉及医学图像处理技术领域,尤其涉及一种图像分割方法、装置、CT设备及CT系统。
背景技术
当前,CT(Computed Tomography,电子计算机断层扫描)技术在医学领域应用十分广泛。对于不同器官或组织,通过CT扫描获得CT图像后,还需要根据该器官或组织的结构进一步进行图像分割,例如对肺部图像进行肺叶分割,以便为临床应用提供参考。
发明内容
为克服相关技术中存在的问题,本发明提供了一种图像分割方法、装置、CT设备及CT系统,提高分割性能。
根据本发明实施例的第一方面,提供一种图像分割方法,包括:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
根据本发明实施例的第二方面,提供一种图像分割装置,包括:
降采样模块,用于对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
第一分割模块,用于将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
上采样模块,用于对所述第一分割图像进行上采样,得到第二分割图像;
剪切模块,用于将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
第二分割模块,用于将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
根据本发明实施例的第三方面,提供一种CT设备,包括:内部总线,以及通过内部总线连接的存储器、处理器和外部接口;其中,所述外部接口,用于连接CT系统的探测器,所述探测器包括多个探测器室及相应的处理电路;
所述存储器,用于存储图像分割逻辑对应的机器可读指令;
所述处理器,用于读取所述存储器上的所述机器可读指令,并执行如下操作:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
根据本发明实施例的第四方面,提供一种CT系统,包括探测器、扫描床和CT设备,所述探测器包括多个探测器室及相应的处理电路;其中:
所述探测器室,用于在所述CT系统扫描过程中,探测穿过扫描对象的X射线并转换为电信号;
所述处理电路,用于将所述电信号转换成脉冲信号,采集脉冲信号的能量信息;
所述CT设备,用于:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
本发明实施例提供的技术方案可以包括以下有益效果:
本发明实施例,通过对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像,将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像,对所述第一分割图像进行上采样,得到第二分割图像,将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块,将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像,通过网络级联的形式,实现网络同时感知CT图像全局上下文的信息和局部细节信息,在避免增加网络内存负担的情况下,最大程度提高了网络对目标器官例如肺叶的分割性能。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本说明书的实施例,并与说明书一起用于解释本说明书的原理。
图1是本发明实施例提供的图像分割方法的流程示例图。
图2是本发明实施例提供的图像分割方法的应用场景示例图。
图3是本发明实施例提供的图像分割装置的功能方块图。
图4是本发明实施例提供的CT设备的一个硬件结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明实施例的一些方面相一致的装置和方法的例子。
在本发明实施例使用的术语是仅仅出于描述特定本发明实施例的目的,而非旨在限制本发明实施例。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本发明实施例提供的图像分割方法可以应用于对人体的各个器官或组织进行分割处理,特别是可以应用于对肺部CT图像进行肺叶分割。
在解剖学上,每侧肺由胸膜包绕分割为肺叶,右肺分三叶,即右上叶、右中叶和右下叶,由一个小裂隙和一个大裂隙隔开;左肺分两叶,即左上叶和左下叶,由一个大裂隙隔开。每个肺叶有其独立的支气管和血管系统,使他们在解剖学上具有相对独立的功能。在临床实践中,肺叶分割对于患者肺部病变区域精确评估,制定合理的手术方案具有重要价值。
本实施例中,采用两个深度神经网络级联而成的网络进行图像分割,提高分割性能和分割速度。
下面通过实施例对图像分割方法进行详细说明。
图1是本发明实施例提供的图像分割方法的流程示例图。如图1所示,本实施例中,图像分割方法可以包括:
S101,对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像。
S102,将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像。
S103,对所述第一分割图像进行上采样,得到第二分割图像。
S104,将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块。
S105,将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
其中,目标器官可以是肺。不同的目标器官,第一深度神经网络和第二深度神经网络是不同的。
本实施例中,原始三维CT图像是高分辨率图像,降采样图像是低分辨率图像。高分辨率图像数据量大,处理速度慢。低分辨率图像数据量小,处理速度快。
本实施例中,第一深度神经网络模型是在低分辨率的降采样图像上所作的分割,本文中称为粗分割,通过粗分割,可以避免直接对高分辨率的原始三维CT图像进行分割而可能导致的内存不足、运行速度慢等问题,能够加快分割速度。
并且,第一深度神经网络模型是对整体图像进行分割,能够增大感受野,获得CT图像的全局信息,这些全局信息能够为后续第二深度神经网络模型的分割提供指导。
本实施例中,通过将高分辨率的原始三维CT图像转换为降采样图像,大大减少了数据量,从而能够提高分割速度。
本实施例中,第一分割图像是与降采样图像分辨率相同的低分辨率图像,对第一分割图像进行上采样,能够得到与原始三维CT图像分辨率相同的第二分割图像。
步骤S103~S105为基于数据块(patch)的分割,本文中称为细分割。本实施例中,第二深度神经网络模型的分割不是单独对原始三维CT图像进行细分割,而是结合前述粗分割的结果和原始三维CT图像进行细分割,可以获得像素级的分割结果,增强图像的局部信息,从而提高分割性能。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程可以包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
其中,通过构建第一深度神经网络模型和第二深度神经网络模型,可以确定第一深度神经网络模型的结构和第二深度神经网络模型的结构。
其中,第一初始参数值是第一深度神经网络模型的参数的初始值,第二初始参数值是第二深度神经网络模型的参数的初始值。
本文中,将第一深度神经网络模型的参数值称为第一参数值,将第二深度神经网络模型的参数值称为第二参数值。
将级联的两个深度神经网络模型(例如3D Unet网络模型)进行联合训练(总的损失函数是两个深度神经网络模型的损失函数的和),实现端到端的训练模式,这种端到端的联合训练比单独训练两个深度神经网络模型效果更好,它能同时使网络在提取全局上下文的信息和局部细节信息上进行优化,提升网络模型的分割性能。
在一个示例性的实现过程中,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,可以包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
在一个示例性的实现过程中,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,可以包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
本实施例中,所述训练停止条件可以为达到预设的迭代次数;或者,所述训练停止条件可以为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
其中,所述损失函数的函数值可以通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
本实施例中,所述第一深度神经网络模型和所述第二深度神经网络模型可以均为FCNs(Fully Connected Networks,全卷积网络)模型。
FCNs的优点是自动、分层地从数据中学习特征,以端到端的方式优化目标函数,在许多分割任务中都获得了很好的性能。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型可以均为三维(3D)Unet网络模型或三维(3D)Unet的变体。
3D Unet网络中的卷积核为3D卷积核,3D Unet网络可以以整张三维医学影像作为输入网络进行训练,而不是以切片的形式,因此能够很好地保持医学影像的空间信息。
当然,第一深度神经网络模型和第二深度神经网络模型也可以采用除3D Unet网络以外的其他深度神经网络,本发明对第一深度神经网络模型和第二深度神经网络模型所采用的具体深度神经网络不作限制。
下面以肺为例,对本发明实施例提供的图像分割方法进行示例性说明。
图2是本发明实施例提供的图像分割方法的应用场景示例图。其中,第一阶段是粗分割过程,第二阶段是细分割过程,两个阶段的3D Unet网络级联,形成整体的分割模型。如图2所示,利用本发明实施例提供的图像分割方法从肺部图像分割出肺叶的过程可以是:
对肺部的原始高分辨率CT图像进行降采样,得到低分辨率CT图像;
将低分辨率CT图像输入第一阶段的3D Unet网络模型,该3D Unet网络模型输出低分辨率的粗分割图像;
对低分辨率的粗分割图像进行上采样,得到高分辨率的粗分割图像;
将原始高分辨率CT图像剪切为多个三维数据块,将高分辨率的粗分割图像剪切为多个三维数据块;
将剪切所得的所有三维数据块输入第二阶段的3D Unet网络模型,该3D Unet网络模型用于进行细分割,该3D Unet网络模型输出的图像为最终分割图像。
本实施例中,原始三维CT图像可以是对目标器官进行CT扫描所得的图像进行清洗、脱敏和分割轮廓标注、以及目标器官提取、数据归一化得到的。例如,当目标器官是肺时,可以将CT肺部图像进行清洗、脱敏和肺叶轮廓标注,得到初步标注图像,然后对初步标注图像进行预处理,包括肺实质提取、数据归一化等,得到肺部的原始三维CT图像。
本发明实施例提供的图像分割方法,通过对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像,将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像,对所述第一分割图像进行上采样,得到第二分割图像,将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块,将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像,通过网络级联的形式,实现网络同时感知CT图像全局上下文的信息和局部细节信息,在避免增加网络内存负担的情况下,最大程度提高了网络对目标器官例如肺叶的分割性能。
基于上述的方法实施例,本发明实施例还提供了相应的装置、设备及存储介质实施例。
图3是本发明实施例提供的图像分割装置的功能方块图。如图3所示,本实施例中,图像分割装置可以包括:
降采样模块310,用于对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
第一分割模块320,用于将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
上采样模块330,用于对所述第一分割图像进行上采样,得到第二分割图像;
剪切模块340,用于将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
第二分割模块350,用于将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
在一个示例性的实现过程中,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
在一个示例性的实现过程中,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
在一个示例性的实现过程中,所述训练停止条件为达到预设迭代次数;或者,所述训练停止条件为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
在一个示例性的实现过程中,所述损失函数的函数值通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为全卷积网络模型。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为三维Unet网络模型。
在一个示例性的实现过程中,所述目标器官为肺。
本发明实施例还提供了一种CT设备。图4是本发明实施例提供的CT设备的一个硬件结构图。如图4所示,CT设备包括:内部总线401,以及通过内部总线连接的存储器402,处理器403和外部接口404,其中,所述外部接口,用于连接CT系统的探测器,所述探测器包括多个探测器室及相应的处理电路;
所述存储器402,用于存储图像分割逻辑对应的机器可读指令;
所述处理器403,用于读取存储器402上的机器可读指令,并执行所述指令以实现如下操作:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
在一个示例性的实现过程中,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
在一个示例性的实现过程中,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
在一个示例性的实现过程中,所述训练停止条件为达到预设迭代次数;或者,所述训练停止条件为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
在一个示例性的实现过程中,所述损失函数的函数值通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为全卷积网络模型。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为三维Unet网络模型。
在一个示例性的实现过程中,所述目标器官为肺。
本发明实施例还提供一种CT系统,包括探测器、扫描床和CT设备,所述探测器包括多个探测器室及相应的处理电路;其中:
所述探测器室,用于在所述CT系统扫描过程中,探测穿过扫描对象的X射线并转换为电信号;
所述处理电路,用于将所述电信号转换成脉冲信号,采集脉冲信号的能量信息;
所述CT设备,用于:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
在一个示例性的实现过程中,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
在一个示例性的实现过程中,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
在一个示例性的实现过程中,所述训练停止条件为达到预设迭代次数;或者,所述训练停止条件为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
在一个示例性的实现过程中,所述损失函数的函数值通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为全卷积网络模型。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为三维Unet网络模型。
在一个示例性的实现过程中,所述目标器官为肺。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如下操作:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
在一个示例性的实现过程中,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
在一个示例性的实现过程中,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
在一个示例性的实现过程中,所述训练停止条件为达到预设迭代次数;或者,所述训练停止条件为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
在一个示例性的实现过程中,所述损失函数的函数值通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为全卷积网络模型。
在一个示例性的实现过程中,所述第一深度神经网络模型和所述第二深度神经网络模型均为三维Unet网络模型。
在一个示例性的实现过程中,所述目标器官为肺。
对于装置和设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本领域技术人员在考虑说明书及实践这里申请的发明后,将容易想到本说明书的其它实施方案。本说明书旨在涵盖本说明书的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本说明书的一般性原理并包括本说明书未申请的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本说明书的真正范围和精神由下面的权利要求指出。
应当理解的是,本说明书并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本说明书的范围仅由所附的权利要求来限制。
以上所述仅为本说明书的较佳实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。
Claims (12)
1.一种图像分割方法,其特征在于,包括:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
2.根据权利要求1所述的方法,其特征在于,所述第一深度神经网络模型和所述第二深度神经网络模型的训练过程包括:
构建第一深度神经网络模型和第二深度神经网络模型,并设置所述第一深度神经网络模型的第一初始参数值和所述第二深度神经网络模型的第二初始参数值;
获取若干组样本图像,每组样本图像包括输入图像和标签图像,所述输入图像为所述目标器官的原始三维CT图像,所述标签图像为所述输入图像对应的已分割图像;
利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型。
3.根据权利要求2所述的方法,其特征在于,利用所述若干组样本图像,对所述第一深度神经网络模型和所述第二深度神经网络模型进行端到端的联合训练,得到训练好的第一深度神经网络模型和第二深度神经网络模型,包括:
在训练过程中,第1组样本图像对应的第一深度神经网络模型的参数值和第二深度神经网络模型的参数值分别为所述第一初始参数值和所述第二初始参数值;
第j组样本图像对应的第一深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第一参数值,第j组样本图像对应的第二深度神经网络模型的参数值为经第j-1组样本图像训练后调整的第二参数值,j为自然数,且j≥2;
对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作。
4.根据权利要求3所述的方法,其特征在于,对于每组样本图像,对该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型执行端到端的联合训练操作,包括:
对该组样本图像中的输入图像进行降采样,得到降采样输入图像;
将所述降采样输入图像输入该组样本图像对应的第一深度神经网络模型,得到第一输出图像;
对所述第一输出图像进行上采样,得到上采样图像;
将所述输入图像剪切为多个第一输入三维数据块,将所述上采样图像剪切为多个第二输入三维数据块;
将所述多个第一输入三维数据块和所述多个第二输入三维数据块输入该组样本图像对应的第二深度神经网络模型,得到第二输出图像;
若满足预设的训练停止条件,停止训练,将该组样本图像对应的第一深度神经网络模型和第二深度神经网络模型确定为训练好的第一深度神经网络模型和第二深度神经网络模型;否则调整所述第一深度神经网络模型的第一参数值和第二深度神经网络模型的第二参数值,执行下一组样本图像的训练。
5.根据权利要求4所述的方法,其特征在于,所述训练停止条件为达到预设迭代次数;或者,所述训练停止条件为该组样本图像对应的损失函数的函数值在预设迭代次数内不再下降。
6.根据权利要求5所述的方法,其特征在于,所述损失函数的函数值通过如下方式获取:
预先构建损失函数,所述损失函数包括与标签图像对应的第一变量和与第二输出图像对应的第二变量;
以该组样本图像中的标签图像作为所述损失函数中第一变量的值,以该组样本图像对应的第二输出图像作为所述损失函数中第二变量的值,计算得到损失函数的函数值。
7.根据权利要求1所述的方法,其特征在于,所述第一深度神经网络模型和所述第二深度神经网络模型均为全卷积网络模型。
8.根据权利要求7所述的方法,其特征在于,所述第一深度神经网络模型和所述第二深度神经网络模型均为三维Unet网络模型。
9.根据权利要求1所述的方法,其特征在于,所述目标器官为肺。
10.一种图像分割装置,其特征在于,包括:
降采样模块,用于对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
第一分割模块,用于将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
上采样模块,用于对所述第一分割图像进行上采样,得到第二分割图像;
剪切模块,用于将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
第二分割模块,用于将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
11.一种CT设备,其特征在于,包括:内部总线,以及通过内部总线连接的存储器、处理器和外部接口;其中,所述外部接口,用于连接CT系统的探测器,所述探测器包括多个探测器室及相应的处理电路;
所述存储器,用于存储图像分割逻辑对应的机器可读指令;
所述处理器,用于读取所述存储器上的所述机器可读指令,并执行如下操作:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
12.一种CT系统,其特征在于,包括探测器、扫描床和CT设备,所述探测器包括多个探测器室及相应的处理电路;其中:
所述探测器室,用于在所述CT系统扫描过程中,探测穿过扫描对象的X射线并转换为电信号;
所述处理电路,用于将所述电信号转换成脉冲信号,采集脉冲信号的能量信息;
所述CT设备,用于:
对待分割的目标器官的原始三维CT图像进行降采样,得到降采样图像;
将所述降采样图像输入预先训练好的第一深度神经网络模型,得到第一分割图像;
对所述第一分割图像进行上采样,得到第二分割图像;
将所述原始三维CT图像剪切为多个第一三维数据块,将所述第二分割图像剪切为多个第二三维数据块;
将所述多个第一三维数据块和所述多个第二三维数据块输入预先训练好的第二深度神经网络模型,得到最终分割图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010367860.4A CN111524141B (zh) | 2020-04-30 | 2020-04-30 | 图像分割方法、装置、ct设备及ct系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010367860.4A CN111524141B (zh) | 2020-04-30 | 2020-04-30 | 图像分割方法、装置、ct设备及ct系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111524141A true CN111524141A (zh) | 2020-08-11 |
CN111524141B CN111524141B (zh) | 2024-05-24 |
Family
ID=71907601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010367860.4A Active CN111524141B (zh) | 2020-04-30 | 2020-04-30 | 图像分割方法、装置、ct设备及ct系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111524141B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493317A (zh) * | 2018-09-25 | 2019-03-19 | 哈尔滨理工大学 | 基于级联卷积神经网络的3d多椎骨分割方法 |
CN109583576A (zh) * | 2018-12-17 | 2019-04-05 | 上海联影智能医疗科技有限公司 | 一种医学图像处理装置及方法 |
CN110880001A (zh) * | 2018-09-06 | 2020-03-13 | 银河水滴科技(北京)有限公司 | 一种语义分割神经网络的训练方法、设备和存储介质 |
-
2020
- 2020-04-30 CN CN202010367860.4A patent/CN111524141B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110880001A (zh) * | 2018-09-06 | 2020-03-13 | 银河水滴科技(北京)有限公司 | 一种语义分割神经网络的训练方法、设备和存储介质 |
CN109493317A (zh) * | 2018-09-25 | 2019-03-19 | 哈尔滨理工大学 | 基于级联卷积神经网络的3d多椎骨分割方法 |
CN109583576A (zh) * | 2018-12-17 | 2019-04-05 | 上海联影智能医疗科技有限公司 | 一种医学图像处理装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111524141B (zh) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598722B (zh) | 基于递归神经网络的图像分析方法 | |
CN111354002A (zh) | 一种基于深度神经网络的肾脏及肾脏肿瘤分割方法 | |
CN110008971B (zh) | 图像处理方法、装置、计算机可读存储介质及计算机设备 | |
CN110956635A (zh) | 一种肺段分割方法、装置、设备及存储介质 | |
CN107563434B (zh) | 一种基于三维卷积神经网络的脑部mri图像分类方法、装置 | |
JP2023550844A (ja) | 深層形状学習に基づく肝臓ct自動分割方法 | |
CN111815766B (zh) | 基于2d-dsa图像重建血管三维模型处理方法及系统 | |
CN111696126B (zh) | 一种基于多视角的多任务肝脏肿瘤图像分割方法 | |
CN109166104A (zh) | 一种病变检测方法、装置及设备 | |
CN109801268B (zh) | 一种基于三维卷积神经网络的ct造影图像肾动脉分割方法 | |
CN112991365B (zh) | 一种冠状动脉分割方法、系统及存储介质 | |
CN112215291A (zh) | 级联神经网络下医学图像特征提取和分类方法 | |
CN110570394B (zh) | 医学图像分割方法、装置、设备及存储介质 | |
CN110288611A (zh) | 基于注意力机制和全卷积神经网络的冠状血管分割方法 | |
CN110533029A (zh) | 确定影像中目标区域的方法及装置 | |
CN111260670B (zh) | 基于深度学习网络的三维影像的管状结构分割图断裂修复方法及系统 | |
CN116612174A (zh) | 软组织的三维重建方法、系统及计算机存储介质 | |
Ilesanmi et al. | Organ segmentation from computed tomography images using the 3D convolutional neural network: a systematic review | |
CN114663445A (zh) | 一种基于多尺度边缘感知的三维心脏图像分割方法 | |
CN111951219B (zh) | 基于眼眶ct图像的甲状腺眼病筛查方法、系统及设备 | |
CN110738633A (zh) | 一种机体组织的三维图像处理方法及相关设备 | |
CN116883341A (zh) | 一种基于深度学习的肝脏肿瘤ct图像自动分割方法 | |
CN111524141B (zh) | 图像分割方法、装置、ct设备及ct系统 | |
CN113379770B (zh) | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 | |
Sha et al. | A robust segmentation method based on improved U-Net |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |