CN109087296A - 一种提取ct图像中人体区域的方法 - Google Patents
一种提取ct图像中人体区域的方法 Download PDFInfo
- Publication number
- CN109087296A CN109087296A CN201810889991.1A CN201810889991A CN109087296A CN 109087296 A CN109087296 A CN 109087296A CN 201810889991 A CN201810889991 A CN 201810889991A CN 109087296 A CN109087296 A CN 109087296A
- Authority
- CN
- China
- Prior art keywords
- region
- image
- hospital bed
- human
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种提取CT图像中人体区域的方法,涉及医学图像处理领域,本发明通过聚类算法以及一系列图像形态学方法将患者CT图像划分为人体区域和背景区域,达到自动生成训练卷积神经网络模型所需的训练子集、验证集和单像素测试集小块;通过卷积神经网络模型,对人体区域和背景区域两类小块进行分类,涉及最优参数化的卷积神经网络模型,达到准确率高的人体区域分类效果;实现了对患者CT图像进行全自动的人体所占区域的提取功能,高效且准确,并对下一阶段的人体体内的全肺分析具有价值与帮助,有助于更高效、准确的定位肺部内的肺实质、肺癌等区域的提取、分类。
Description
技术领域
本发明属于医学图像处理领域,特别涉及一种提取CT图像中人体区域的方法。
背景技术
医学图像在采集过程中,由于患者需要躺在病床或支撑物上进行采集,因此,医疗器械采集到的医学图像都带有人体下方的病床和人体身上的衣物等背景区域,而这些特殊的图像区域并不具备有价值的医学信息,同时由于其特征可能与人体内部肺实质区域的特征相似,往往会干扰对靶向目标的分割和提取。因此,在对医学靶向目标进行提取时,研究人员会先对图像进行一个预处理来去除背景的干扰。但是,由于患者进行医学扫查时,并不确定身体周围会携带的衣物情况,以及病床的多样性,往往需要对于不同的设备所采集的图像进行不同的去除背景的预处理操作。
阈值分割是最常用且最简单的方法,在简单的情况下,病床与人体距离较远,且身体周围的衣物密度较低,阈值分割方便快捷。但当病床与患者紧贴或衣物密度高时,往往会难以去除。
基于模型的方法是一种高效且准确的方法,首先单独采集医疗器械的病床图像,直接获得病床在图像中的影像,然后对病床进行建模,在患者图像采集完成后,用患者图像减去已有的病床模型从而获得患者在图像中的人体所占区域,这种方法高效且直接。但实际情况中,由于研究人员所获得的医学图像是经过信息保密的,所获得的图像往往没有病床的模型,且不同厂家的医疗器械的病床又有所不同,因此基于模型的方法成本高且不易获得。
基于神经网络的分割方法的基本思想是通过训练多层感知机来得到线性决策函数,然后用决策函数对像素进行分类来达到分割的目的。这种方法需要大量的训练数据。神经网络存在巨量的连接,容易引入空间信息,能较好地解决图像中的噪声和不均匀问题。选择何种网络结构是这种方法要解决的主要问题。
发明内容
针对上述现有技术的不足本发明提供一种提取CT图像中人体区域的方法,该方法实现了对患者CT图像进行全自动的人体所占区域的提取功能,高效且准确,并对下一阶段的人体体内的全肺分析具有价值与帮助,有助于更高效、准确的定位肺部内的肺实质、肺癌等区域的提取、分类。
为解决上述技术问题,本发明是采取以下技术方案来实现的:一种提取CT图像中人体区域的方法;步骤如下:
步骤1:依据CT图像的先验知识对图像进行钳制操作,得到钳制CT图像,然后依据脂肪组织的先验知识对钳制CT图像进行二值化操作,得到二值化图像,将二值化图像进行最大连通体操作,根据最大连通体的结果检测病床是否被去除;病床被去除则执行步骤3,病床未被去除则执行步骤2;
步骤1.1:依据CT值的先验知识,对每张CT图像的CT值小于-1024HU的区域设定为-1024HU,对每张CT图像的CT值大于1024HU的区域设定为1024HU,将所有图像的CT值钳制在[-1024HU,1024HU]之间,获得钳制CT图像;
步骤1.2:对钳制CT图像进行二值化操作,将CT值小于-120HU的区域设定为0,将CT值大于等于-120HU的区域设定为1,以完成二值化操作,获得初步确定的人体和病床区域的二值化图像;
步骤1.3:对二值化图像进行最大连通体操作,然后基于图像尺寸为512×512像素,设置病床探测线为每张图像的第477行,判断该行数据是否存在1的区域,如果存在,认定为未去除病床或人体相对于整张图像过低,则执行步骤2;如果不存在,认定为病床已去除,则执行步骤3;
步骤2:针对未去除病床或人体相对于整张图像过低的患者CT图像数据进行相应的一系列形态学操作A,以获得完整的人体区域和背景区域;
步骤2.1:针对步骤1.3所述的未去除病床或人体相对于整张图像过低的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,留下病床和离散的小噪声区域;
步骤2.2:对步骤2.1中获得的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域,同时提取病床区域中体积第二大的连通体,该连通体代表病床的枕头区域,对枕头区域进行先膨胀后腐蚀的闭操作,闭操作选择的卷积核为半径100像素的圆,获得的初步确定的病床区域;
步骤2.3:对未去除病床或人体相对于整张图像过低的患者CT图像的原始钳制CT图像进行聚类,采用k-means聚类算法将图像像素点聚类为高像素类和低像素类,其中,高像素类包括人体的高密度组织和病床区域,而低密度类包括人体外面的背景区域和人体内的肺部区域;然后,将高像素类区域减去步骤2.2中获得的初步确定的病床区域,得到初步的人体高密度区域;
步骤2.4:对步骤2.3中获得的低像素类进行最大连通体操作,该最大连通体为人体体外的背景区域,将低像素区域减去该最大连通体,获得人体体内的肺部区域;
步骤2.5:将步骤2.3中获得的初步的人体高密度区域和步骤2.4中获得的人体体内的肺部区域相加获得初步的人体区域,对初步的人体区域进行卷积核为半径5像素的圆形卷积核的闭操作,使得人体高像素区域与人体体内的肺部区域相结合成为一体;
步骤2.6:将步骤2.5中获得的初步的人体区域图像按每张CT图像进行如下6个步骤的形态学操作,顺序如下:
步骤2.6.1:进行迭代次数为10的细化操作;
步骤2.6.2:进行卷积核为半径11像素的圆形卷积核的腐蚀操作;
步骤2.6.3:运用最大连通体检测获得最大连通体;
步骤2.6.4:对最大连通体进行卷积核为半径8像素的圆形卷积核的膨胀操作;
步骤2.6.5:进行迭代次数为10的粗化操作;
步骤2.6.6:进行填洞操作,至此获得完整的人体区域,人体区域外为背景区域;
步骤3:针对病床已去除的患者CT图像数据进行对应的一系列形态学操作B,以获得完整的人体区域和背景区域;
步骤3.1:针对步骤1.3所述的病床已去除的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,对余下的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域;
步骤3.2:对步骤1中获得的标记0的区域进行最大连通体操作,该最大连通体为人体体外的背景区域,将标记0的区域减去该最大连通体,获得人体体内的肺部区域;
步骤3.3:将步骤1中获得的标记1的区域减去步骤3.1中获得的初步的病床区域,然后加上步骤3.2中获得的人体体内的肺部区域,最后按每张CT图像进行填洞操作,从而获得完整的人体区域,人体区域外为背景区域。
步骤4:将步骤2和步骤3所获得的人体区域和背景区域进行无重叠裁剪成尺寸为64*64像素的小块,获得训练集和单像素测试集,其中训练集包括训练子集和验证集,建立卷积神经网络模型,采用训练子集和验证集数据对卷积神经网络模型进行训练和验证,同时使用贝叶斯最优化算法对卷积神经网络的超参数进行最优化,从而完成卷积神经网络模型的训练;
步骤4.1:将步骤2和步骤3所得到CT图像中的人体区域和背景图像进行无重叠的裁剪,裁剪尺寸为64*64像素,得到标记为1的人体区域和标记为0的背景区域的数据集,数据集包括训练集和单像素测试集;训练集按9:1的比例分为训练子集和验证集;
步骤4.2:建立卷积神经网络模型,将图像小块输入卷积神经网络模型,训练卷积神经网络模型的各层的权重和偏差;在每遍训练完成整套训练子集数据时,将验证集输入卷积神经网络模型进行分类,获得当前验证集分类准确率,当连续5次验证集准确率均低于连续5次中的第1次验证集准确率时,完成并停止训练;
步骤4.3:使用贝叶斯最优化算法,对卷积神经网络模型的超参数进行最优化,使得最终完成训练的卷积神经网络模型的分类准确率在验证集上达到最高;
步骤5:对单像素测试集的CT图像进行k-means聚类,将高像素类区域进行裁剪为64*64像素尺寸的小块,形成高像素类区域的单像素测试集,使用步骤4中训练完成最优化超参数的卷积神经网络模型对高像素区域的单像素测试集进行分类,然后依据分类结果映射到原始CT图像,完成单像素的人体区域分割。
所述训练子集和验证集中人体区域的图像小块与背景区域的图像小块的数量各占50%。
所述卷积神经网络模型结构为:第一层为图像小块输入层,第二层为卷积层组,第三层为最大值池化层,第四层为全连接层组;其中,所述卷积层组包括卷积层、Leaky ReLU激活层和Batch Normalization层,所述全连接层组包括全连接层、ReLU激活层、Dropout层、全连接分类层和Softmax函数层。
所述的贝叶斯最优化的超参数包括:初始化学习速率、卷积核尺寸、卷积核数目、Leaky Relu激活层系数、全连接层输出数目、Dropout层遗忘率、Batch size的尺寸。
采用上述技术方案所产生的有益效果在于:本发明提出了一种提取CT图像中人体区域的方法,本发明通过无监督学习算法,即聚类算法,以及一系列图像形态学方法将患者CT图像划分为人体区域和背景区域,达到自动生成训练卷积神经网络模型所需的训练集、验证集和测试集小块;通过有监督算法,即卷积神经网络模型,对人体区域和背景区域两类小块进行分类,涉及最优参数化的卷积神经网络模型,达到准确率高的人体区域分类效果;实现了对患者CT图像进行全自动的人体所占区域的提取功能,高效且准确,并对下一阶段的人体体内的全肺分析具有价值与帮助,有助于更高效、准确的定位肺部内的肺实质、肺癌等区域的提取、分类。
附图说明
图1为本发明实施例提供的方法流程图;
图2为本发明实施例提供的对CT图像进行钳制操作和去除病床的流程图;
图3为本发明实施例提供的对未完全去除病床的患者CT图像进行进一步分割人体区域和背景区域的流程图;
图4为本发明实施例提供的对去除病床的患者CT图像进行分割人体区域和背景区域的流程图;
图5为本发明实施例提供的将CT图像中已自动分割的人体区域和背景区域进行小块裁剪、卷积神经网络训练和测试的流程图;
图6为本发明实施例提供的卷积神经网络模型示意图:
其中,(a)为图像小块输入层;(b)为卷积层组;(c)为最大值池化层;(d)为全连接层组;
图7为本发明实施例提供的人体所占区域分割前的包含人体和病床区域的示意图。
图8为本发明实施例提供的人体所占区域分割后的仅含人体区域的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本实施例的方法如下所述:
一种提取CT图像中人体区域的方法,如图1所示,包括以下步骤:
步骤1:依据CT图像的先验知识对图像进行钳制操作,得到钳制CT图像,然后依据脂肪组织的先验知识对钳制CT图像进行二值化操作,得到二值化图像,将二值化图像进行最大连通体操作,根据最大连通体的结果检测病床是否被去除;病床被去除则执行步骤3,病床未被去除则执行步骤2;
本实施例中,所述步骤1的具体流程,如图2所示:
步骤1.1:依据CT值的先验知识,对每张CT图像的CT值小于-1024HU的区域设定为-1024HU,对每张CT图像的CT值大于1024HU的区域设定为1024HU,将所有图像的CT值钳制在[-1024HU,1024HU]之间,获得钳制CT图像;
本实施例中,由于CT图像的体素范围在[-1024HU,1024HU]之间,可以通过选取-1024HU和1024HU的双阈值,对图像进行钳制操作,达到归一化效果。
步骤1.2:对钳制CT图像进行二值化操作,将CT值小于-120HU的区域设定为0,将CT值大于等于-120HU的区域设定为1,以完成二值化操作,获得初步确定的人体和病床区域的二值化图像;
本实施例中,由于空气等低密度区域CT值较低,可以通过选取-120HU的阈值,粗略地去除背景部分。
步骤1.3:对二值化图像进行最大连通体操作,然后基于图像尺寸为512×512像素,设置病床探测线为每张图像的第477行,判断该行数据是否存在1的区域,如果存在,认定为未去除病床或人体相对于整张图像过低,则执行步骤2;如果不存在,认定为病床已去除,则执行步骤3;
本实施例中,基于所使用的CT图像尺寸均为512×512像素,故将探测线设置为477行,用于对病床未去除或者人体相对床位过低的图像进行筛选去除。
步骤2:针对未去除病床或人体相对于整张图像过低的患者CT图像数据进行相应的一系列形态学操作A,以获得完整的人体区域和背景区域;
本实施方式中,所述步骤2的具体流程如图3所示。
步骤2.1:针对步骤1.3所述的未去除病床或人体相对于整张图像过低的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,留下病床和离散的小噪声区域;
本实施例中,由于病床密度较高,可以通过选取100HU的阈值,快速获得病床的主体部分。
步骤2.2:对步骤2.1中获得的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域,同时提取病床区域中体积第二大的连通体,该连通体代表病床的枕头区域,对枕头区域进行先膨胀后腐蚀的闭操作,闭操作选择的卷积核为半径100像素的圆,获得的初步确定的病床区域;
本实施例中,由于骨头密度与病床密度都较高,人体体内存在离散的骨头标记点,设定7500阀值个点作为连通体个体点数,去除离散的骨头区域部分,从而获得病床的主体部分。此外,选择病床区域的第二大连通体,并对其进行闭操作,目标是获得一个完整的枕头区域。
步骤2.3:对未去除病床或人体相对于整张图像过低的患者CT图像的原始钳制CT图像进行聚类,采用k-means聚类算法将图像像素点聚类为高像素类和低像素类,其中,高像素类包括人体的高密度组织和病床区域,而低密度类包括人体外面的背景区域和人体内的肺部区域;然后,将高像素类区域减去步骤2.2中获得的初步确定的病床区域得到初步的人体高密度区域;
本实施例中,聚类结果的两类分别为,高像素类包括人体的高密度组织和病床区域,而低密度类包括人体外面的背景区域和人体内的肺部区域。
步骤2.4:对步骤2.3中获得的低像素类进行最大连通体操作,该最大连通体为人体体外的背景区域,将低像素区域减去该最大连通体,获得人体体内的肺部区域;
步骤2.5:将步骤2.3中获得的初步的人体高密度区域和步骤2.4中获得的人体体内的肺部区域相加获得初步的人体区域,对初步的人体区域进行卷积核为半径5像素的圆形卷积核的闭操作,使得人体高像素区域与人体体内的肺部区域相结合成为一体;
步骤2.6:将步骤2.5中获得的初步的人体区域图像按每张CT图像进行如下6个步骤的形态学操作,顺序如下:
步骤2.6.1:进行迭代次数为10的细化操作;
步骤2.6.2:进行卷积核为半径11像素的圆形卷积核的腐蚀操作;
步骤2.6.3:运用最大连通体检测获得最大连通体;
步骤2.6.4:对最大连通体进行卷积核为半径8像素的圆形卷积核的膨胀操作;
步骤2.6.5:进行迭代次数为10的粗化操作;
步骤2.6.6:进行填洞操作,至此获得完整的人体区域,人体区域外为背景区域;
步骤3:针对病床已去除的患者CT图像数据进行对应的一系列形态学操作B,以获得完整的人体区域和背景区域;
本实施例中,所述步骤3的具体流程如图4所示。
步骤3.1:针对步骤1.3所述的病床已去除的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,对余下的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域;
步骤3.2:对步骤1中获得的标记0的区域进行最大连通体操作,该最大连通体为人体体外的背景区域,将标记0的区域减去该最大连通体,获得人体体内的肺部区域;
步骤3.3:将步骤1中获得的标记1的区域减去步骤3.1中获得的初步的病床区域,然后加上步骤3.2中获得的人体体内的肺部区域,最后按每张CT图像进行填洞操作,从而获得完整的人体区域,人体区域外为背景区域。
步骤4:将步骤2和步骤3所获得的人体区域和背景区域进行无重叠裁剪成尺寸为64*64像素的小块,获得训练集和单像素测试集,其中训练集包括训练子集和验证集,建立卷积神经网络模型,采用训练子集和验证集数据对卷积神经网络模型进行训练和验证,同时使用贝叶斯最优化算法对卷积神经网络的超参数进行最优化,从而完成卷积神经网络模型的训练;
本实施例中,所述步骤4的具体流程如图5所示。
步骤4.1:将步骤2和步骤3所得到CT图像中的人体区域和背景图像进行无重叠的裁剪,裁剪尺寸为64*64像素,得到标记为1的人体区域和标记为0的背景区域的数据集,数据集包括训练集和单像素测试集;训练集按9:1的比例分为训练子集和验证集;
本实施方式中,所述训练集和验证集中人体区域的尺寸为64*64像素的图像小块与背景区域的尺寸为64*64像素的图像小块的数量各占50%。将已知的肺部CT图像的数据集划分为训练集和验证集的比例设置为9:1;
步骤4.2:建立卷积神经网络模型,将图像小块输入卷积神经网络模型,训练卷积神经网络模型的各层的权重和偏差。在每遍训练完成整套训练子集数据时,将验证集输入卷积神经网络模型进行分类,获得当前验证集分类准确率,当连续5次验证集准确率均低于连续5次中的第1次验证集准确率时,完成并停止训练;
本实施例中,所述卷积神经网络模型结构为:第一层为图像小块输入层,第二层为卷积层组,第三层为最大值池化层,第四层为全连接层组;如图6所示。
其中,所述卷积层组包括卷积层、Leaky ReLU激活层和Batch Normalization层;
所述全连接层组包括全连接层、ReLU激活层、Dropout层、全连接分类层和Softmax函数层。
本实施例中,分类类别数量只包括2类,因此该卷积神经网络模型在仅保留了一层卷积层,并且添加Leaky ReLU激活层和Batch Normalization标准化层,可加快随机梯度下降并防止过拟合;池化层选择了最大值池化而非平均值池化,可以降低网络复杂度;全连接层紧接着加入ReLU激活层和Dropout遗忘层,可以加速随机梯度收敛,并防止过拟合;全连接层的第二层是个2分类分类器,作用为分类人体区域和背景区域;最后使用Softmax函数作为输出层,其输出的概率分布近似代表输出分布;
步骤4.3:使用贝叶斯最优化算法,对卷积神经网络模型的超参数进行最优化,使得最终完成训练的卷积神经网络模型的分类准确率在验证集上达到最高。
本实施例中,所述的贝说叶斯最优化的超参数包括:初始化学习速率、卷积核尺寸、卷积核数目、Leaky Relu激活层系数、全连接层输出数目、Dropout层遗忘率、Batchsize的尺寸。
步骤5:对单像素测试集的CT图像进行k-means聚类,将高像素类区域进行裁剪为64*64像素尺寸的小块,形成高像素类区域的单像素测试集,使用步骤4中训练完成最优化超参数的卷积神经网络模对高像素区域的单像素测试集进行分类,然后依据分类结果映射到原始CT图像,完成单像素的人体区域分割。
本实施例中,本实验的人体所占区域分割结果如图7、图8所示。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (8)
1.一种提取CT图像中人体区域的方法,其特征在于:包括如下步骤:
步骤1:依据CT图像的先验知识对图像进行钳制操作,得到钳制CT图像,然后依据脂肪组织的先验知识对钳制CT图像进行二值化操作,得到二值化图像,将二值化图像进行最大连通体操作,根据最大连通体的结果检测病床是否被去除;病床被去除则执行步骤3,病床未被去除则执行步骤2;
步骤2:针对未去除病床或人体相对于整张图像过低的患者CT图像数据进行相应的一系列形态学操作A,以获得完整的人体区域和背景区域;
步骤3:针对病床已去除的患者CT图像数据进行对应的一系列形态学操作B,以获得完整的人体区域和背景区域;
步骤4:将步骤2和步骤3所获得的人体区域和背景区域进行无重叠裁剪成尺寸为64*64像素的小块,获得训练集和单像素测试集,其中训练集包括训练子集和验证集,建立卷积神经网络模型,采用训练子集和验证集数据对卷积神经网络模型进行训练和验证,同时使用贝叶斯最优化算法对卷积神经网络的超参数进行最优化,从而完成卷积神经网络模型的训练;
步骤5:对单像素测试集的CT图像进行k-means聚类,将高像素类区域进行裁剪为64*64像素尺寸的小块,形成高像素类区域的单像素测试集,使用步骤4中训练完成最优化超参数的卷积神经网络模型对高像素区域的单像素测试集进行分类,然后依据分类结果映射到原始CT图像,完成单像素的人体区域分割。
2.根据权利要求1所述的一种提取CT图像中人体区域的方法,其特征在于:所述步骤1包括以下步骤:
步骤1.1:依据CT值的先验知识,对每张CT图像的CT值小于-1024HU的区域设定为-1024HU,对每张CT图像的CT值大于1024HU的区域设定为1024HU,将所有图像的CT值钳制在[-1024HU,1024HU]之间,获得钳制CT图像;
步骤1.2:对钳制CT图像进行二值化操作,将CT值小于-120HU的区域设定为0,将CT值大于等于-120HU的区域设定为1,以完成二值化操作,获得初步确定的人体和病床区域的二值化图像;
步骤1.3:对二值化图像进行最大连通体操作,然后基于图像尺寸为512×512像素,设置病床探测线为每张图像的第477行,判断该行数据是否存在1的区域,如果存在,认定为未去除病床或人体相对于整张图像过低,则执行步骤2;如果不存在,认定为病床已去除,则执行步骤3。
3.根据权利要求1所述的一种提取CT图像中人体区域的方法,其特征在于:所述步骤2中的一系列形态学操作A包括以下步骤:
步骤2.1:针对步骤1.3所述的未去除病床或人体相对于整张图像过低的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,留下病床和离散的小噪声区域;
步骤2.2:对步骤2.1中获得的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域,同时提取病床区域中体积第二大的连通体,该连通体代表病床的枕头区域,对枕头区域进行先膨胀后腐蚀的闭操作,闭操作选择的卷积核为半径100像素的圆,获得的初步确定的病床区域;
步骤2.3:对未去除病床或人体相对于整张图像过低的患者CT图像的原始钳制CT图像进行聚类,采用k-means聚类算法将图像像素点聚类为高像素类和低像素类,其中,高像素类包括人体的高密度组织和病床区域,而低密度类包括人体外面的背景区域和人体内的肺部区域;然后,将高像素类区域减去步骤2.2中获得的初步确定的病床区域,得到初步的人体高密度区域;
步骤2.4:对步骤2.3中获得的低像素类进行最大连通体操作,该最大连通体为人体体外的背景区域,将低像素区域减去该最大连通体,获得人体体内的肺部区域;
步骤2.5:将步骤2.3中获得的初步的人体高密度区域和步骤2.4中获得的人体体内的肺部区域相加获得初步的人体区域,对初步的人体区域进行卷积核为半径5像素的圆形卷积核的闭操作,使得人体高像素区域与人体体内的肺部区域相结合成为一体;
步骤2.6:将步骤2.5中获得的初步的人体区域图像按每张CT图像进行如下6个步骤的形态学操作,顺序如下:
步骤2.6.1:进行迭代次数为10的细化操作;
步骤2.6.2:进行卷积核为半径11像素的圆形卷积核的腐蚀操作;
步骤2.6.3:运用最大连通体检测获得最大连通体;
步骤2.6.4:对最大连通体进行卷积核为半径8像素的圆形卷积核的膨胀操作;
步骤2.6.5:进行迭代次数为10的粗化操作;
步骤2.6.6:进行填洞操作,至此获得完整的人体区域,人体区域外为背景区域。
4.根据权利要求1所述的一种提取CT图像中人体区域的方法,其特征在于:所述步骤3中的一系列形态学操作B包括以下步骤:
步骤3.1:针对步骤1.3所述的病床已去除的患者CT图像数据进行阈值100HU的二值化操作,设定CT值大于等于100HU的区域设定为1,设定CT值小于100HU的区域设定为0,以标记为1的区域获得病床、骨头以及离散的小噪声区域进行最大连通体操作,获得骨头区域,将骨头区域去除,对余下的病床和离散的小噪声区域进行逐个连通体的体积判断,保留连通体个数大于7500阀值个点的所有连通体,从而去除离散的小噪声区域,获得初步的病床区域;
步骤3.2:对步骤1中获得的标记0的区域进行最大连通体操作,该最大连通体为人体体外的背景区域,将标记0的区域减去该最大连通体,获得人体体内的肺部区域;
步骤3.3:将步骤1中获得的标记1的区域减去步骤3.1中获得的初步的病床区域,然后加上步骤3.2中获得的人体体内的肺部区域,最后按每张CT图像进行填洞操作,从而获得完整的人体区域,人体区域外为背景区域。
5.根据权利要求1所述的一种提取CT图像中人体区域的方法,其特征在于:所述步骤4包括以下步骤:
步骤4.1:将步骤2和步骤3所得到CT图像中的人体区域和背景图像进行无重叠的裁剪,裁剪尺寸为64*64像素,得到标记为1的人体区域和标记为0的背景区域的数据集,数据集包括训练集和单像素测试集;训练集按9:1的比例分为训练子集和验证集;
步骤4.2:建立卷积神经网络模型,将图像小块输入卷积神经网络模型,训练卷积神经网络模型的各层的权重和偏差;在每遍训练完成整套训练子集数据时,将验证集输入卷积神经网络模型进行分类,获得当前验证集分类准确率,当连续5次验证集准确率均低于连续5次中的第1次验证集准确率时,完成并停止训练;
步骤4.3:使用贝叶斯最优化算法,对卷积神经网络模型的超参数进行最优化,使得最终完成训练的卷积神经网络模型的分类准确率在验证集上达到最高。
6.根据权利要求1或5所述的一种提取CT图像中人体区域的方法,其特征在于:所述训练子集和验证集中人体区域的图像小块与背景区域的图像小块的数量各占50%。
7.根据权利要求1或5所述的一种提取CT图像中人体区域的方法,其特征在于,所述卷积神经网络模型结构为:第一层为图像小块输入层,第二层为卷积层组,第三层为最大值池化层,第四层为全连接层组;其中,所述卷积层组包括卷积层、Leaky ReLU激活层和BatchNormalization层,所述全连接层组包括全连接层、ReLU激活层、Dropout层、全连接分类层和Softmax函数层。
8.根据权利要求1或5所述的一种提取CT图像中人体区域的方法,其特征在于,所述的贝叶斯最优化的超参数包括:初始化学习速率、卷积核尺寸、卷积核数目、Leaky Relu激活层系数、全连接层输出数目、Dropout层遗忘率、Batch size的尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810889991.1A CN109087296B (zh) | 2018-08-07 | 2018-08-07 | 一种提取ct图像中人体区域的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810889991.1A CN109087296B (zh) | 2018-08-07 | 2018-08-07 | 一种提取ct图像中人体区域的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109087296A true CN109087296A (zh) | 2018-12-25 |
CN109087296B CN109087296B (zh) | 2021-08-10 |
Family
ID=64834028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810889991.1A Active CN109087296B (zh) | 2018-08-07 | 2018-08-07 | 一种提取ct图像中人体区域的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109087296B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060300A (zh) * | 2019-04-28 | 2019-07-26 | 中国科学技术大学 | 一种ct图像相对位置预测方法及系统 |
CN110517264A (zh) * | 2019-09-03 | 2019-11-29 | 武汉市中心医院 | 一种基于血管分割的病灶提取方法及装置 |
CN110766713A (zh) * | 2019-10-30 | 2020-02-07 | 上海微创医疗器械(集团)有限公司 | 肺部图像分割方法、装置和肺部病变区域识别设备 |
CN111127495A (zh) * | 2019-12-04 | 2020-05-08 | 深圳市图郅创新科技有限公司 | 一种关于图像关键点检测的神经网络模型建立方法 |
CN111914698A (zh) * | 2020-07-16 | 2020-11-10 | 北京紫光展锐通信技术有限公司 | 图像中人体的分割方法、分割系统、电子设备及存储介质 |
CN112370078A (zh) * | 2020-11-10 | 2021-02-19 | 安徽理工大学 | 一种基于超声成像和贝叶斯优化的图像检测方法 |
CN113269765A (zh) * | 2021-06-04 | 2021-08-17 | 重庆大学 | 可扩张卷积神经网络训练方法及ct影像分割模型构建方法 |
WO2022088064A1 (zh) * | 2020-10-30 | 2022-05-05 | 威盛电子股份有限公司 | 神经网络模型的超参数设定方法及建立平台 |
CN113077474B (zh) * | 2021-03-02 | 2024-05-17 | 心医国际数字医疗系统(大连)有限公司 | 基于ct影像的床板去除方法、系统、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886621A (zh) * | 2012-11-14 | 2014-06-25 | 上海联影医疗科技有限公司 | 一种自动提取床板的方法 |
US20150161466A1 (en) * | 2013-12-10 | 2015-06-11 | Dropbox, Inc. | Systems and methods for automated image cropping |
CN105488796A (zh) * | 2015-11-27 | 2016-04-13 | 上海联影医疗科技有限公司 | 肺分割方法 |
CN106600609A (zh) * | 2016-11-30 | 2017-04-26 | 上海联影医疗科技有限公司 | 一种医学图像中脊柱的分割方法及系统 |
US20170262979A1 (en) * | 2016-03-14 | 2017-09-14 | Sensors Unlimited, Inc. | Image correction and metrology for object quantification |
CN107507197A (zh) * | 2017-08-18 | 2017-12-22 | 东北大学 | 一种基于聚类算法和卷积神经网络的肺实质提取方法 |
CN107766802A (zh) * | 2017-09-29 | 2018-03-06 | 广州大学 | 一种机动车前排驾乘人员未扣安全带的自适应检测方法 |
CN108198179A (zh) * | 2018-01-03 | 2018-06-22 | 华南理工大学 | 一种生成对抗网络改进的ct医学图像肺结节检测方法 |
WO2018119808A1 (zh) * | 2016-12-29 | 2018-07-05 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
-
2018
- 2018-08-07 CN CN201810889991.1A patent/CN109087296B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886621A (zh) * | 2012-11-14 | 2014-06-25 | 上海联影医疗科技有限公司 | 一种自动提取床板的方法 |
US20150161466A1 (en) * | 2013-12-10 | 2015-06-11 | Dropbox, Inc. | Systems and methods for automated image cropping |
CN105488796A (zh) * | 2015-11-27 | 2016-04-13 | 上海联影医疗科技有限公司 | 肺分割方法 |
US20170262979A1 (en) * | 2016-03-14 | 2017-09-14 | Sensors Unlimited, Inc. | Image correction and metrology for object quantification |
CN106600609A (zh) * | 2016-11-30 | 2017-04-26 | 上海联影医疗科技有限公司 | 一种医学图像中脊柱的分割方法及系统 |
WO2018119808A1 (zh) * | 2016-12-29 | 2018-07-05 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
CN107507197A (zh) * | 2017-08-18 | 2017-12-22 | 东北大学 | 一种基于聚类算法和卷积神经网络的肺实质提取方法 |
CN107766802A (zh) * | 2017-09-29 | 2018-03-06 | 广州大学 | 一种机动车前排驾乘人员未扣安全带的自适应检测方法 |
CN108198179A (zh) * | 2018-01-03 | 2018-06-22 | 华南理工大学 | 一种生成对抗网络改进的ct医学图像肺结节检测方法 |
Non-Patent Citations (3)
Title |
---|
HUI YU,ET AL: "《The segmentation of bones in pelvic CT images based on extraction of key frames》", 《BMC MEDICAL IMAGING》 * |
ISABELLA NOGUES,ET AL: "《Automatic Lymph Node Cluster Segmentation Using Holistically-Nested Neural Networks and Structured Optimization in CT Images》", 《MICCAI 2016》 * |
杨金鑫,等: "《结合卷积神经网络和超像素聚类的细胞图像分割方法》", 《计算机应用研究》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060300A (zh) * | 2019-04-28 | 2019-07-26 | 中国科学技术大学 | 一种ct图像相对位置预测方法及系统 |
CN110517264A (zh) * | 2019-09-03 | 2019-11-29 | 武汉市中心医院 | 一种基于血管分割的病灶提取方法及装置 |
CN110517264B (zh) * | 2019-09-03 | 2022-03-08 | 武汉市中心医院 | 一种基于血管分割的病灶提取方法及装置 |
CN110766713A (zh) * | 2019-10-30 | 2020-02-07 | 上海微创医疗器械(集团)有限公司 | 肺部图像分割方法、装置和肺部病变区域识别设备 |
CN111127495A (zh) * | 2019-12-04 | 2020-05-08 | 深圳市图郅创新科技有限公司 | 一种关于图像关键点检测的神经网络模型建立方法 |
CN111914698A (zh) * | 2020-07-16 | 2020-11-10 | 北京紫光展锐通信技术有限公司 | 图像中人体的分割方法、分割系统、电子设备及存储介质 |
WO2022088064A1 (zh) * | 2020-10-30 | 2022-05-05 | 威盛电子股份有限公司 | 神经网络模型的超参数设定方法及建立平台 |
CN112370078A (zh) * | 2020-11-10 | 2021-02-19 | 安徽理工大学 | 一种基于超声成像和贝叶斯优化的图像检测方法 |
CN112370078B (zh) * | 2020-11-10 | 2024-01-26 | 安徽理工大学 | 一种基于超声成像和贝叶斯优化的图像检测方法 |
CN113077474B (zh) * | 2021-03-02 | 2024-05-17 | 心医国际数字医疗系统(大连)有限公司 | 基于ct影像的床板去除方法、系统、电子设备及存储介质 |
CN113269765A (zh) * | 2021-06-04 | 2021-08-17 | 重庆大学 | 可扩张卷积神经网络训练方法及ct影像分割模型构建方法 |
CN113269765B (zh) * | 2021-06-04 | 2022-10-28 | 重庆大学 | 可扩张卷积神经网络训练方法及ct影像分割模型构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109087296B (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109087296A (zh) | 一种提取ct图像中人体区域的方法 | |
Ari et al. | Deep learning based brain tumor classification and detection system | |
Ahmmed et al. | Classification of tumors and it stages in brain MRI using support vector machine and artificial neural network | |
Kowal et al. | Computer-aided diagnosis of breast cancer based on fine needle biopsy microscopic images | |
Telrandhe et al. | Detection of brain tumor from MRI images by using segmentation & SVM | |
Laosai et al. | Classification of acute leukemia using medical-knowledge-based morphology and CD marker | |
CN109034045A (zh) | 一种基于卷积神经网络的白细胞自动识别方法 | |
CN109376636A (zh) | 基于胶囊网络的眼底视网膜图像分类方法 | |
Dimililer et al. | Effect of image enhancement on MRI brain images with neural networks | |
CN109635846A (zh) | 一种多类医学图像判断方法和系统 | |
Jabber et al. | SVM model based computerized bone cancer detection | |
CN112150477B (zh) | 脑影像动脉全自动分割方法及装置 | |
Gonbadi et al. | Glioma brain tumors diagnosis and classification in mr images based on convolutional neural networks | |
Al-Hadidi et al. | Glioblastomas brain tumour segmentation based on convolutional neural networks. | |
Katiyar et al. | A Comparative study of Lung Cancer Detection and Classification approaches in CT images | |
Nayan et al. | A deep learning approach for brain tumor detection using magnetic resonance imaging | |
Nagtode et al. | Two dimensional discrete Wavelet transform and Probabilistic neural network used for brain tumor detection and classification | |
Srilatha et al. | A comparative study on tumour classification | |
Poornam et al. | Detection of Brain Tumor in MRI Images using Deep Learning Method | |
Shanthi et al. | Computer aided system for detection and classification of breast cancer | |
Sun et al. | Automatic symmetry-integrated brain injury detection in MRI sequences | |
Zabihi et al. | Vessel extraction of conjunctival images using LBPs and ANFIS | |
CN114140830A (zh) | 一种基于循环肿瘤细胞图像的重复识别抑制方法 | |
Aibinu et al. | Retina fundus image mask generation using pseudo parametric modeling technique | |
Chidadala et al. | Automatic seeded selection region growing algorithm for effective MRI brain image segmentation and classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |