CN112767411A - 一种肺部多器官同步分割方法 - Google Patents
一种肺部多器官同步分割方法 Download PDFInfo
- Publication number
- CN112767411A CN112767411A CN202011627996.0A CN202011627996A CN112767411A CN 112767411 A CN112767411 A CN 112767411A CN 202011627996 A CN202011627996 A CN 202011627996A CN 112767411 A CN112767411 A CN 112767411A
- Authority
- CN
- China
- Prior art keywords
- data
- lung
- data set
- segmentation
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 108
- 230000011218 segmentation Effects 0.000 title claims abstract description 89
- 210000004072 lung Anatomy 0.000 title claims abstract description 64
- 210000000056 organ Anatomy 0.000 title claims abstract description 25
- 230000001360 synchronised effect Effects 0.000 title abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 65
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 45
- 210000000621 bronchi Anatomy 0.000 claims abstract description 44
- 230000002452 interceptive effect Effects 0.000 claims abstract description 34
- 206010056342 Pulmonary mass Diseases 0.000 claims abstract description 27
- 238000007781 pre-processing Methods 0.000 claims abstract description 24
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims abstract description 7
- 230000003190 augmentative effect Effects 0.000 claims abstract description 4
- 238000001914 filtration Methods 0.000 claims description 36
- 238000002372 labelling Methods 0.000 claims description 18
- 230000002685 pulmonary effect Effects 0.000 claims description 17
- 238000012360 testing method Methods 0.000 claims description 14
- 230000012010 growth Effects 0.000 claims description 13
- 238000004088 simulation Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 230000009646 cyclic growth Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 27
- 239000002904 solvent Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000521257 Hydrops Species 0.000 description 1
- 206010030113 Oedema Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000001147 pulmonary artery Anatomy 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种一种肺部多器官同步分割方法,所述方法包括步骤a:对肺部多器官进行交互式数据标注;步骤b:对所述数据标注进行数据预处理;步骤c:对所述数据预处理结果构造数据集;步骤d:增强扩充所述数据集;步骤e:对所述数据集进行DC‑U‑Net网络模型训练,得到DC‑U‑Net训练模型;步骤f:基于所述DC‑U‑Net训练模型的肺部多器官进行自动分割。本发明基于深度学习技术能够实现自动提取肺实质、血管、支气管与肺结节区域,实现同步分割。
Description
技术领域
本发明属于医学图像处理分析领域,特别涉及一种肺部多器官同步分割方法。
背景技术
现有的肺部肺实质、血管、支气管与肺结节分割方法主要是使用各种自适应区域生长方法以及阈值分割方法提取,这种方法的缺点有:1)速度慢、泛化能力差,需要反复调整多个参数,由于图像存在噪声,对每一个体素进行判断的方法可以精确地分类,但是对噪声敏感,导致需要反复调节生长阈值等参数才能达到最好的分割效果;2)无法同步分割,需要按照一定的顺序分割三种器官;3)人工交互频繁,分割流程繁琐。同时还有部分使用深度学习神经网络方法获取分割结果,分为三维网络和二维网络两种,存在以下几个缺点:使用三维网络需要占用大量的显存和内存资源;以及使用二维网络获得的分割结果误分割情况严重。
现有的肺部器官传统分割方法主要分为以下几类:阈值分割、种子点自适应增长、滤波获取候选区和机器学习分类。阈值分割就是根据需要提取的目标的CT值,通过设定某一阈值快速分割图像前景和背景的一种方法。种子点自适应增长则是通过自动或手动选取初始生长点,设定生长条件,通过判断种子点的周围像素点是否能够成为新的种子点达到分割的目的。滤波获取候选区是利用器官在二维层片上的一些信息,将疑似区域选取出来,通过种子点生长等方法提取的一种分割方法。该方法计算步骤较为繁琐,如需要提前计算矩阵的二阶导数,即hessian矩阵,以此获得像素的变换规律,从而确定图像中的环状区域,通过提取环状区域或者增强环状区域的对比度达到滤波的目的。最后一种是机器学习分类方法,主要是利用不同的机器学习算法,如支持向量机,K最邻近等方法,计算某点是否属于某器官的概率,一般用于粗分割后的完善分割结果阶段。而不论使用那种方法,都无法达到多器官同步分割的效果。
因此,肺部器官同步分割问题越来越成为亟待解决的技术问题。
发明内容
针对上述问题,本发明提供一种肺部多器官同步分割方法,所述方法包括:
步骤a:对肺部多器官进行交互式数据标注;
步骤b:对所述数据标注进行数据预处理;
步骤c:对所述数据预处理结果构造数据集;
步骤d:增强扩充所述数据集;
步骤e:对所述数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型;
步骤f:基于所述DC-U-Net训练模型的肺部多器官进行自动分割。
进一步地,
所述步骤a中对肺部多器官进行交互式数据标注包括对肺实质、支气管、血管、肺结节区域进行交互式数据标注。
进一步地,
对所述肺实质进行交互式数据标注主要包括以下步骤:
使用循环判断方法对所述肺实质区域进行阈值分割;
采用直方图分析方法选出需要滤波预处理的肺实质图像,优化所述阈值分割结果;
根据CT序列的上下图层相关性,优化所述阈值分割结果的边缘;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺实质交互式数据标注。
进一步地,
对所述支气管进行交互式数据标注主要包括以下步骤:
采用边缘保留滤波方法预处理支气管图像,提高支气管边缘区域与邻域的差值;
采用双阈值生长的方法提取支气管区域,采用循环生长方法自适应获取最适合当前生长的阈值;
使用阈值分割的方法拼接获取因为断续而无法生长的支气管区域;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的支气管交互式数据标注。
进一步地,
对所述血管进行交互式数据标注主要包括以下步骤:
对血管采用阈值分割的方法实现快速分割;
根据直方图分析方法找出适合血管区域分割的阈值,减少误分割;
使用循环检测以及体积约束方法,找出最适合血管区域分割的阈值;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的血管交互式数据标注。
进一步地,
对所述肺结节进行交互式数据标注主要包括以下步骤:
采用块状结构增强滤波,初步提取肺结节的区域;
引入基于快速行进算法的前向表面传播方法,对所述初步提取的肺结节区域进行精确分割,获得肺结节分割结果;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺结节交互式数据标注。
进一步地,
所述步骤b中对所述数据标注进行数据预处理包括统一灰度值阈值和基于医学影像局部结构灰度值分析增强滤波。
进一步地,
所述基于医学影像局部结构灰度值分析增强滤波包括对肺实质、血管、支气管、肺结节进行增强滤波。
进一步地,
所述肺实质采用以目标点邻域最小值代替原CT值的方法,突出肺实质区域信息进而增强滤波;
所述血管采用以目标点邻域最大值代替原CT值的方法,增强血管信息进而增强滤波,对血管线性结构进行增强;
所述支气管采用边缘保留混合增强滤波方法,增强支气管壁边缘信息,抑制支气管内噪声,对支气管平面结构进行增强;
所述肺结节采用边缘保留混合增强滤波方法,对块状的肺结节进行边缘增强。
进一步地,
步骤c中对所述数据预处理结果构造数据集采用类似彩色图像三通道的方法,将三层二维切片作为输入,输出三层标签或中间一层标签。
进一步地,
步骤d中增强扩充所述数据集采用随机扰动与随机镜像的混合数据增强扩充方法。
进一步地,
步骤e中对所述数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成训练数据集;
将所述训练数据集输入二维数据与标签进行DC-U-Net网络模拟训练;
判断所述DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若满足,则得到最终DC-U-Net训练模型;
判断所述DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若不满足,则将所述DC-U-Net网络模拟训练的数据集进行网络学习得到预测分割结果;
将所述预测分割结果与标签对比获得损失,反馈训练损失,进而自动调节网络参数,直到所述数据集满足训练结束条件为止。
进一步地,
步骤f中基于所述DC-U-Net训练模型的肺部多器官进行自动分割的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成测试数据集;
将所述测试数据集导入网络模型并输入二维数据进行DC-U-Net网络测试;
将所述DC-U-Net网络测试的数据集进行网络学习得到预测数据集;
将所述预测数据集进行组合得到三维CT标签,即完成分割任务。
本发明具有以下有益效果:
(1)本发明基于深度学习技术能够实现自动提取肺实质、血管、支气管与肺结节区域,实现同步分割;
(2)在完成网络模型训练后,仅需要将后续需要分割的CT图像按照要求处理后送入网络学习,就可以自动得到分割结果,不需要再调整参数,也无需预先标注种子点,减少人工交互过程;
(3)根据网络测试情况,使用该方法可以减少误分割率,且可以整体提高分割速度,并且显存占用率不高;
(4)引入基于医学影像局部结构灰度值分析的可选择性增强滤波方法,进一步增强肺部支气管等平面结构管壁的边缘信息。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的肺部多器官同步分割的方法流程图;
图2示出了根据本发明实施例的DC-U-Net网络模型结构示意图;
图3示出了根据本发明实施例的DC-U-Net网络模型训练流程图;
图4示出了根据本发明实施例的基于DC-U-Net网络模型分割流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,图1示出了根据本发明实施例的肺部多器官同步分割的方法流程图,一种肺部多器官同步分割方法包括:
步骤a:对肺部多器官进行交互式数据标注;
步骤b:对数据标注进行数据预处理;
步骤c:对数据预处理结果构造数据集;
步骤d:增强扩充数据集;
步骤e:对数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型;
步骤f:基于DC-U-Net训练模型的肺部多器官进行自动分割。
具体地,
步骤a中对肺部多器官进行交互式数据标注包括对肺实质、支气管、血管、肺结节区域进行交互式数据标注。
具体地,
对肺实质进行交互式数据标注主要包括以下步骤:
使用循环判断方法对肺实质区域进行阈值分割;
采用直方图分析方法选出需要滤波预处理的肺实质图像,优化阈值分割结果;
根据CT序列的上下图层相关性,优化阈值分割结果的边缘;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺实质交互式数据标注。
具体地,
对支气管进行交互式数据标注主要包括以下步骤:
采用边缘保留滤波方法预处理支气管图像,提高支气管边缘区域与邻域的差值;
采用双阈值生长的方法提取支气管区域,并且为了尽可能多地提取支气管区域,采用循环生长方法自适应获取最适合当前生长的阈值;
使用阈值分割的方法拼接获取因为断续而无法生长的支气管区域;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的支气管交互式数据标注。
具体地,
对血管进行交互式数据标注主要包括以下步骤:
对血管采用阈值分割的方法实现快速分割,为提高分割准确度,减少误分割,提出基于感兴趣区域生长的阈值分割方法;
根据直方图分析方法找出适合血管区域分割的阈值,减少误分割;
使用循环检测以及体积约束方法,找出最适合血管区域分割的阈值;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的血管交互式数据标注。
具体地,
对肺结节进行交互式数据标注主要包括以下步骤:
采用块状结构增强滤波,初步提取肺结节的区域;
引入基于快速行进算法的前向表面传播方法,对初步提取的肺结节区域进行精确分割,获得肺结节分割结果;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺结节交互式数据标注。
具体地,
步骤b中对数据标注进行数据预处理包括统一灰度值阈值和基于医学影像局部结构灰度值分析增强滤波。
由于不同的医学成像扫描机器生产的影像灰度值最大最小值不同,需要统一阈值。由于肺部器官分割对具体医学影像数值不敏感,以CT图像为例,仅依据各器官的CT值区间信息及各器官边界差异信息,因此根据以下公式进行阈值统一不影响甚至提升最终分割结果:
其中,node为体素CT值。
具体地,
基于医学影像局部结构灰度值分析增强滤波包括对肺实质、血管、支气管、肺结节进行增强滤波。
采用一些线性或非线性操作算子对医学影像进行预处理,得到不同信息侧重的处理图,例如侧重肺实质、血管、支气管、肺结节等信息。根据四种信息不同侧重点,采用四种不同的增强滤波方法。
具体地,
肺实质采用以目标点邻域最小值代替原CT值的方法,突出肺实质区域信息进而增强滤波;
肺实质在CT中CT值较低,与血管对比度高,在分割时,针对肺部区域分割容易受到肺实质区域中的血管及离群值影响,导致分割出的肺区离散或不完整。采用以目标点邻域最小值代替原CT值的方法,可以有效抑制血管和异常点的信息,突出肺部区域信息。
血管采用以目标点邻域最大值代替原CT值的方法,增强血管信息进而增强滤波,对血管线性结构进行增强;
血管在密度较高,在CT中属于高亮区域,采用以目标点邻域最大值代替原CT值的方法,可以增加血管在肺实质中的体素占比,增强血管信息。这种预处理后的图像,可以明显看到血管的位置及走势,减少由于肺部积液等原因带来的肺部白化干扰,提供更明确的血管信息。
支气管采用边缘保留混合增强滤波方法,增强支气管壁边缘信息,抑制支气管内噪声,对支气管平面结构进行增强;
肺部器官中支气管信息是最难增强的。由于支气管的管状结构,使得单一信息增强无法达到预期的效果,支气管信息与边缘信息及局部差值有关。本发明引入边缘保留混合滤波方法,增强支气管壁边缘信息,抑制支气管内噪声。
肺结节采用边缘保留混合增强滤波方法,对块状的肺结节进行边缘增强。
具体地,
步骤c中对数据预处理结果构造数据集采用类似彩色图像三通道的方法,将三层二维切片作为输入,输出三层标签或中间一层标签。考虑到三层切片存在的信息量有限,一般仅输出中间层的标签,进行有针对的训练,其余两层提供空间信息。针对另外两层还能有其他的选择,比如输入隔层而非相邻层,或构造区域灰度值最大、最小值图,取出对应层作为输入。
根据步骤c中的数据预处理结果构造数据集,有针对性地增加输入网络的相关信息,构造四种不同的数据集。以肺部血管数据构造为例:设目标图层序号为x,则将该图层作为中间层切片,取在CT中高亮区域最大值的x-1与x+1层切片作为对应上下层切片,若不存在x-1或x+1层,则使用空层代替,得到的三层切片作为血管数据,对应的x层标签为真实标签。
具体地,
步骤d中增强扩充数据集采用随机扰动与随机镜像的混合数据增强扩充方法。
深度学习卷积神经网络训练时,为了增强网络的泛化能力、减少过拟合的情况,以及加快网络收敛效率,需要实施数据集增强扩充操作。对于自然图像数据集扩充,传统数据增强方法有:旋转、翻转及裁剪等。由于肺部CT图像数据集与自然图像数据集的差异,归一化、标准化、镜像等数据增强方法可能并没有那么明显的学习优化效果。
本发明提出使用增加噪声的方法增加局部干扰,扩充训练数据集合,加强语义分割的全局特征学习,尤其是本发明提出一种基于随机扰动+随机镜像的数据增强扩充方案。随机扰动就是在影像中增加噪声从而增加局部干扰信息,随机镜像是指混合水平与垂直镜像操作。随机扰动与随机镜像是一种全新混合数据增强扩充方法。
具体地,
使用的网络模型为改进后的U-Net网络,亦即空洞卷积U-Net网络,网络具体结构如图2所示,图2示出了根据本发明实施例的DC-U-Net网络模型结构示意图。网络整体框架类似于U-Net结构,编码过程与解码过程对称,且用拼接操作连接。基于医学图像自身特征简单的特点,相较于传统U-Net网络,本专利使用网络减少了高维特征的生成数量,减少了模型所需参数。同时,由于医学图像分割更依赖图像邻域信息,更大的感受野有助于提高分割准确率,又因为支气管与血管在层片上的分布离散且细微,因此加入空洞卷积层,将空洞卷积结果与一般卷积结果相加,使得网络能够感受细微目标特征以及获得更多的邻域特征。下卷过程使用5*5卷积缩小尺度,进一步扩大网络感受野。
DC-U-Net模型训练过程需要考虑数据构造、数据扩充以及损失函数设置。本发明包含一个数据集构造函数,能够自动读取文件夹内的CT数据,自动生成二维数据集。包含设计好的数据扩充方法,该方法作用于网络训练过程中。在肺实质、血管与支气管分割任务中,该数据扩充方法为随机扰动与随机镜像复合方法,可以保证网络能学习得到一个泛化能力好、准确度高的模型。将自动生成的训练集输入网络中训练,得到训练模型。
如图3所示,图3示出了根据本发明实施例的DC-U-Net网络模型训练流程图,步骤e中对数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成训练数据集;
将训练数据集输入二维数据与标签进行DC-U-Net网络模拟训练;
判断DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若满足,则得到最终DC-U-Net训练模型;
判断DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若不满足,则将DC-U-Net网络模拟训练的数据集进行网络学习得到预测分割结果;
将预测分割结果与标签对比获得损失,反馈训练损失,进而自动调节网络参数,直到数据集满足训练结束条件为止。
具体地,
DC-U-Net模型自动分割过程仅需要利用数据集构造函数构造测试数据集,将CT图像切割为一张张层片输入网络,再将网络得到的分割结果按照次序组合成完整的CT标注即可完成分割任务。
如图4所示,图4示出了根据本发明实施例的基于DC-U-Net网络模型分割流程图,步骤f中基于DC-U-Net训练模型的肺部多器官进行自动分割的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成测试数据集;
将测试数据集导入网络模型并输入二维数据进行DC-U-Net网络测试;
将DC-U-Net网络测试的数据集进行网络学习得到预测数据集;
将预测数据集进行组合得到三维CT标签,即完成分割任务。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (13)
1.一种肺部多器官同步分割方法,其特征在于,所述方法包括:
步骤a:对肺部多器官进行交互式数据标注;
步骤b:对所述数据标注进行数据预处理;
步骤c:对所述数据预处理结果构造数据集;
步骤d:增强扩充所述数据集;
步骤e:对所述数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型;
步骤f:基于所述DC-U-Net训练模型的肺部多器官进行自动分割。
2.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
所述步骤a中对肺部多器官进行交互式数据标注包括对肺实质、支气管、血管、肺结节区域进行交互式数据标注。
3.根据权利要求2所述的肺部多器官同步分割方法,其特征在于,
对所述肺实质进行交互式数据标注主要包括以下步骤:
使用循环判断方法对所述肺实质区域进行阈值分割;
采用直方图分析方法选出需要滤波预处理的肺实质图像,优化所述阈值分割结果;
根据CT序列的上下图层相关性,优化所述阈值分割结果的边缘;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺实质交互式数据标注。
4.根据权利要求2所述的肺部多器官同步分割方法,其特征在于,
对所述支气管进行交互式数据标注主要包括以下步骤:
采用边缘保留滤波方法预处理支气管图像,提高支气管边缘区域与邻域的差值;
采用双阈值生长的方法提取支气管区域,采用循环生长方法自适应获取最适合当前生长的阈值;
使用阈值分割的方法拼接获取因为断续而无法生长的支气管区域;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的支气管交互式数据标注。
5.根据权利要求2所述的肺部多器官同步分割方法,其特征在于,
对所述血管进行交互式数据标注主要包括以下步骤:
对血管采用阈值分割的方法实现快速分割;
根据直方图分析方法找出适合血管区域分割的阈值,减少误分割;
使用循环检测以及体积约束方法,找出最适合血管区域分割的阈值;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的血管交互式数据标注。
6.根据权利要求2所述的肺部多器官同步分割方法,其特征在于,
对所述肺结节进行交互式数据标注主要包括以下步骤:
采用块状结构增强滤波,初步提取肺结节的区域;
引入基于快速行进算法的前向表面传播方法,对所述初步提取的肺结节区域进行精确分割,获得肺结节分割结果;
对误分割区域进行手动交互式调整,剔除误分割区域,形成精确的肺结节交互式数据标注。
7.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
所述步骤b中对所述数据标注进行数据预处理包括统一灰度值阈值和基于医学影像局部结构灰度值分析增强滤波。
8.根据权利要求7所述的肺部多器官同步分割方法,其特征在于,
所述基于医学影像局部结构灰度值分析增强滤波包括对肺实质、血管、支气管、肺结节进行增强滤波。
9.根据权利要求8所述的肺部多器官同步分割方法,其特征在于,
所述肺实质采用以目标点邻域最小值代替原CT值的方法,突出肺实质区域信息进而增强滤波;
所述血管采用以目标点邻域最大值代替原CT值的方法,增强血管信息进而增强滤波,对血管线性结构进行增强;
所述支气管采用边缘保留混合增强滤波方法,增强支气管壁边缘信息,抑制支气管内噪声,对支气管平面结构进行增强;
所述肺结节采用边缘保留混合增强滤波方法,对块状的肺结节进行边缘增强。
10.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
步骤c中对所述数据预处理结果构造数据集采用类似彩色图像三通道的方法,将三层二维切片作为输入,输出三层标签或中间一层标签。
11.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
步骤d中增强扩充所述数据集采用随机扰动与随机镜像的混合数据增强扩充方法。
12.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
步骤e中对所述数据集进行DC-U-Net网络模型训练,得到DC-U-Net训练模型的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成训练数据集;
将所述训练数据集输入二维数据与标签进行DC-U-Net网络模拟训练;
判断所述DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若满足,则得到最终DC-U-Net训练模型;
判断所述DC-U-Net网络模拟训练的数据集是否满足训练结束条件,若不满足,则将所述DC-U-Net网络模拟训练的数据集进行网络学习得到预测分割结果;
将所述预测分割结果与标签对比获得损失,反馈训练损失,进而自动调节网络参数,直到所述数据集满足训练结束条件为止。
13.根据权利要求1所述的肺部多器官同步分割方法,其特征在于,
步骤f中基于所述DC-U-Net训练模型的肺部多器官进行自动分割的具体步骤包括:
对原始三维CT数据进行连续三层切片组合为二维数据形成测试数据集;
将所述测试数据集导入网络模型并输入二维数据进行DC-U-Net网络测试;
将所述DC-U-Net网络测试的数据集进行网络学习得到预测数据集;
将所述预测数据集进行组合得到三维CT标签,即完成分割任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011627996.0A CN112767411A (zh) | 2020-12-31 | 2020-12-31 | 一种肺部多器官同步分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011627996.0A CN112767411A (zh) | 2020-12-31 | 2020-12-31 | 一种肺部多器官同步分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112767411A true CN112767411A (zh) | 2021-05-07 |
Family
ID=75699358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011627996.0A Pending CN112767411A (zh) | 2020-12-31 | 2020-12-31 | 一种肺部多器官同步分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767411A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554640A (zh) * | 2021-07-30 | 2021-10-26 | 四川大学华西医院 | Ai模型的训练方法、使用方法、计算机设备及存储介质 |
CN114708203A (zh) * | 2022-03-22 | 2022-07-05 | 上海联影智能医疗科技有限公司 | 图像分割模型的训练方法、图像处理方法及装置、设备 |
CN114926439A (zh) * | 2022-05-24 | 2022-08-19 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 骨骼生长点的勾画方法和装置、存储介质及处理器 |
CN114926439B (zh) * | 2022-05-24 | 2024-06-11 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 骨骼生长点的勾画方法和装置、存储介质及处理器 |
-
2020
- 2020-12-31 CN CN202011627996.0A patent/CN112767411A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554640A (zh) * | 2021-07-30 | 2021-10-26 | 四川大学华西医院 | Ai模型的训练方法、使用方法、计算机设备及存储介质 |
CN114708203A (zh) * | 2022-03-22 | 2022-07-05 | 上海联影智能医疗科技有限公司 | 图像分割模型的训练方法、图像处理方法及装置、设备 |
CN114926439A (zh) * | 2022-05-24 | 2022-08-19 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 骨骼生长点的勾画方法和装置、存储介质及处理器 |
CN114926439B (zh) * | 2022-05-24 | 2024-06-11 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | 骨骼生长点的勾画方法和装置、存储介质及处理器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107833220B (zh) | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 | |
CN109961049B (zh) | 一种复杂场景下香烟品牌识别方法 | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN108830326B (zh) | 一种mri图像的自动分割方法及装置 | |
CN112036335B (zh) | 一种反卷积引导的半监督植物叶部病害识别与分割方法 | |
CN112101451B (zh) | 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法 | |
US8787642B2 (en) | Method, device and computer-readable recording medium containing program for extracting object region of interest | |
CN109102506B (zh) | 一种基于三级级联网络进行腹部ct肝脏病变图像的自动分割方法 | |
CN112036231B (zh) | 一种基于车载视频的车道线和路面指示标志检测与识别方法 | |
CN112287941B (zh) | 一种基于自动字符区域感知的车牌识别方法 | |
CN108305253A (zh) | 一种基于多倍率深度学习的病理全切片诊断方法 | |
CN112767411A (zh) | 一种肺部多器官同步分割方法 | |
CN117253154B (zh) | 一种基于深度学习的集装箱弱小序列号目标检测识别方法 | |
CN112734755A (zh) | 基于3d全卷积神经网络与多任务学习的肺叶分割方法 | |
CN112819747A (zh) | 一种基于肺部断层扫描图片自动诊断结节良恶性的方法 | |
CN113160185A (zh) | 一种利用生成边界位置指导宫颈细胞分割的方法 | |
CN110458812A (zh) | 一种基于颜色描述及稀疏表达的类圆形水果缺陷检测方法 | |
CN112949378A (zh) | 一种基于深度学习网络的细菌显微图像分割方法 | |
CN112862783A (zh) | 一种基于神经网络的甲状腺ct图像结节自动诊断系统 | |
CN104268845A (zh) | 极值温差短波红外图像的自适应双局部增强方法 | |
CN112801970A (zh) | 一种乳腺超声图像肿瘤分割方法 | |
CN115294151A (zh) | 基于多任务卷积模型的肺部ct感兴趣区域自动检测方法 | |
CN114708591A (zh) | 基于单字连接的文档图像中文字符检测方法 | |
CN114418949A (zh) | 基于三维u型网络与通道注意力的肺结节检测方法 | |
CN114708274A (zh) | 基于实时选择机制的T-CutMix数据增强与三维卷积神经网络的图像分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |