CN114648663A - 基于深度学习的肺癌ct图像亚型分类方法 - Google Patents
基于深度学习的肺癌ct图像亚型分类方法 Download PDFInfo
- Publication number
- CN114648663A CN114648663A CN202210271664.6A CN202210271664A CN114648663A CN 114648663 A CN114648663 A CN 114648663A CN 202210271664 A CN202210271664 A CN 202210271664A CN 114648663 A CN114648663 A CN 114648663A
- Authority
- CN
- China
- Prior art keywords
- image
- data
- classification
- model
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明提出了一种基于深度学习的肺癌CT图像亚型分类方法,包括以下步骤:S1,预处理:采集CT图像原始数据信息并进行预处理,得到增强后的数据集,并将预处理之后的CT图像数据划分为测试集和训练集;S2,构建模型:构建改进的3D‑LungNet网络模型,用于对预处理后的图像进行特征提取;S3,训练模型:将训练集输入到所述改进的3D‑LungNet网络模型中进行训练,得到训练好的CT图像分类模型;S4,测试集输入模型:将所述测试集输入到所述CT图像分类模型中,得到CT图像分类结果。本发明能够充分利用医学图像与自然图像之间的内在联系进行特征迁移,提高了网络层的特征提取效率和图像分类准确率,并减少了训练过程中的冗余计算量。还提高CT图像的分类准确率及分类精确率。
Description
技术领域
本发明涉及医学图像分类技术领域,特别是涉及一种基于深度学习的肺癌CT图像亚型分类方法。
背景技术
目前中国各类癌症的发病率和死亡率居各种疾病之首,其中又以肺癌的发病率和死亡率均居各种恶性肿瘤之首,主要分为小细胞肺癌和非小细胞肺癌,非小细胞肺癌(NSCLC)的两个主要亚型是肺鳞癌(SCC)和肺腺癌(ADC),分别占20%和40%。因此,肺癌的准确分类是个体化治疗和系统治疗决策的第一步,也是至关重要的一步。到目前为止,在常规临床实践中,术后活检和病理组织切片是确定肺癌亚型的主要方法。这两种方法都属于侵入性诊断方法,肺结节穿刺活检伴随的感染、出血和气胸等一系列风险、组织获取的有限性以及病理确诊的耗时性导致的治疗推迟是临床普遍存在的问题。总而言之,发展非侵入性方法来对肺癌亚型进行分类可以帮助医生更好地做出治疗决策。此外,他们还可以为那些无法获得足够组织进行组织病理学检查的患者提供其他方法来了解结果。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于深度学习的肺癌CT图像亚型分类方法。
为了实现本发明的上述目的,本发明提供了一种基于深度学习的肺癌CT图像亚型分类方法,包括以下步骤:
S1,预处理:采集CT图像原始数据信息并进行预处理,得到增强后的数据集,并将预处理之后的CT图像数据划分为测试集和训练集;
S2,构建模型:构建改进的3D-LungNet网络模型,用于对预处理后的图像进行特征提取;所述改进的3D-LungNet网络模型是基于三维卷积网络3D-LungNet,并借鉴了ResNet中的跳接方法。该网络能有效地从输入CT图像中提取信息,并能进行端到端的有效训练。
S3,训练模型:将训练集输入到所述改进的3D-LungNet网络模型中进行训练,得到训练好的CT图像分类模型;
S4,测试集输入模型:将所述测试集输入到所述CT图像分类模型中,得到CT图像分类结果。
进一步地,所述CT图像原始数据为在手术前或任何化疗前获得且包含结节位置信息。
进一步地,所述预处理包括:
将CT图像重采样为统一规格,3D图像块的线性尺寸调整为每像素1mm;然后归一化到[-1,1]的范围,并进行数据增广。
每张CT图像由多个3D图像块组成。
数据增广包括裁剪感兴趣的区域、旋转、平移等数据增广方式。
进一步地,所述改进的3D-LungNet网络模型包括:输入模块、特征提取模块以及分类模块,输入模块的数据输出端与特征提取模块的数据输入端相连,特征提取模块的数据输出端与分类模块的数据输入端相连;
输入模块:输入d×d×d像素的3D图像块;
特征提取模块:通过各个层级网络提取输入图像的特征;
分类模块:根据提取的特征对待测图像进行分类,得到预测分类结果;具体包括:通过全局平均池化GAP,从完全连接层Dense输出三个概率值,分别对应于肺鳞癌、肺腺癌和小细胞癌,概率最大的类别为分类结果。
进一步地,所述特征提取模块包括:
S-A,通过批量归一化层BN和一个卷积网络用于提取包含局部细节的特征;
卷积网络具有提升对局部细节的特征提取能力,使用四个卷积层代替普通卷积核,在降低退化现象的同时实现局部特征增强。
所述卷积网络有4层,卷积核分别为d×d×d、1×d×d、d×1×d和d×d×1,每个卷积核的滤波器数量为64。
S-B,进入积木模块,用于计算图像坐标、纹理等全局特征信息的核心结构;
S-C,通过批量归一化层BN和激活函数层RELU,RELU的作用是增加线性特征的非线性,避免过拟合。
进一步地,所述卷积网络使用d×d×d、1×d×d、d×1×d和d×d×1的卷积核来滑动提取特征,并在四个分支的卷积后进行Batch Normalization操作得到每各分支的输出,将各层输出相加得到丰富的特征空间:
其中Y为最后输出结果;
Y1、Y2、Y3、Y4分别为四个分支的卷积结果;
I为输入数据;
w1、w2、w3、w4分别表示各分支在融合计算时的权重;
η1、η2、η3、η4分别表示各分支归一化的标准差;
Kd×d×d表示尺寸为d×d×d的卷积核;
K1×d×d表示尺寸为1×d×d的卷积核;
Kd×1×d表示尺寸为d×1×d的卷积核;
Kd×d×1表示尺寸为d×d×1的卷积核;
c表示为各分支输出融合后的偏置量;
进一步地,所述积木模块由六个单独的构造块组成,数据从第一个构造块进入,然后依次通过之后的构造块;
第一个构造块的卷积步长为1,这是为了保持特征图,之后每个构造块结构的步长为2,这代表了可以减少特征图的下采样。最终输出的图像大小为2*2*2;
其中每个构造块中都有过滤器,前四个构造块的过滤器数量为32,其余构造块的过滤器数量设置为64。过滤器越多对图像特征的计算能力更强,但对算力要求也更高,因此在兼顾两者的情况下,将前四个设置为32。
进一步地,所述构造块由第一残差块与第二残差块模块构成;
第一残差块的输入端与卷积层相连,卷积层的输出端与第一残差块的输出端相连,再通过加运算,把经过第一残差块的数据与经过所述卷积层的数据进行整合;
将整合后的数据输入第二残差块,
第二残差块的输出端与第二残差块的输入端相连,再通过加运算,把经过第二残差块的数据与未经过第二残差块的数据进行整合,得到最终输出结果;
其中第一残差块由卷积层、归一化层、激活函数层、dropout层组成;
第二残差块由归一化层、激活函数层、卷积层组成。
构造块中的卷积是采用单一尺寸的卷积核。
进一步地,所述训练模型包括:如果某一类肺癌亚型超过另外两类肺癌亚型之和,则在每次迭代中以1:1:1的比例对三种肺癌亚型的数据进行采样,以保证训练的合理性。
进一步地,所述S3还包括使用交叉熵作为损失函数对模型优化,损失函数如下:
其中y为中间指示变量;
N为样本数量;
yj表示第j个样本的损失函数;
yji表示第j个样本与第i种类别比对的结果;
M为分类任务的类别数;
qji表示样本j属于类别i的概率。
综上所述,由于采用了上述技术方案,本发明能够充分利用医学图像与自然图像之间的内在联系进行特征迁移,提高了网络层的特征提取效率和图像分类准确率,并减少了训练过程中的冗余计算量。还提高CT图像的分类准确率及分类精确率,有效改善了CT图像的诊断效果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明改进的3D-LungNet网络模型结构示意图。
图2是本发明单个构造块的结构示意图。
图3是本发明使用图像标签及分类结果。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
计算机断层扫描(CT)是肺癌预后的主要诊断影像手段。近年来使用深度学习网络和CT图像的放射组学来分类和区分肺结节的研究迅速增长,本研究开发了一种自动和非侵入性分类模型(3D-LungNet),用于区分三种肺癌亚型(肺鳞癌SCC、肺腺癌ADC和小细胞肺癌SCLC),助力肺肿瘤病理类型的鉴别。
为了克服现有肺癌亚型分类技术数据集单一、多分类任务精度不足的问题,本发明提出了一种基于深度学习的肺癌亚型分类系统和方法,以三维卷积神经网络为骨干框架,结合深度学习网络跳接方法,来提取不同类型肺肿瘤之间的关系,通过这种相互关系加强单个结节的本质表征,使系统可以充分提取医学图像中包含的信息,可获得更高的分类精度。
分类系统包括:
预处理模块:用于对采集CT图像进行预处理,得到增强后的数据集;
训练模块:将增强后的数据集输入改进的3D-LungNet网络模型,得到训练后的改进的3D-LungNet网络模型;
优化模块:采用损失函数对所述网络模型进行优化;
分类模块:用于对待检测的肺癌CT图像进行分类。
为了实现上述目的,本发明提出一种基于深度学习的肺癌CT图像亚型分类方法,包括以下步骤:
S1,预处理:采集CT图像原始数据信息并进行预处理,得到增强后的数据集,并将预处理之后的CT图像数据划分为测试集和训练集;
S2,构建模型:构建改进的3D-LungNet网络模型,所述改进的3D-LungNet网络模型是基于三维卷积网络3D-LungNet,并借鉴了ResNet中的跳接方法。该网络能有效地从输入CT图像中提取信息,并能进行端到端的有效训练。
S3,训练模型:将训练集输入到所述改进的3D-LungNet网络模型中进行训练,得到训练好的CT图像分类模型;
S4,测试集输入模型:将所述测试集输入到所述CT图像分类模型中,得到CT图像分类结果。
本发明以已有的深度学习网络为基础,以三维卷积神经网络为骨干框架,结合深度学习网络跳接方法,来提取不同类型肺肿瘤之间的关系,实现了比传统深度卷积神经网络分类更优的分类系统。其中采用三维卷积神经网络因其符合CT图像的三维特点,且与二维网络相比,能提取到更多空间信息等图像特征。
本分类系统通过网络结构间相互关系加强单个结节的本质表征,使系统可以充分提取医学图像中包含的信息,可获得更高的分类精度。整个网络可以进行端到端的培训。在肺癌CT图像亚型分类任务中,我们提出的方法优于以往研究,兼顾数据多样性和分类精准度。以往研究多采用放射组学方法,分类对象多为非小细胞肺癌;另外一组基于三种肺肿瘤的研究,最后结果无法区分SCC和SCLC。而我们提出的方法包含了非小细胞肺癌(ADC、SCC)和小细胞肺癌(SCLC)两种类型。
因此本发明提出的基于深度学习的肺癌亚型分类方法可以为临床工作流程中指导三种肺癌的个体化和精准化治疗提供广阔的前景。
具体实施例如下:
S1,预处理步骤:采集CT图像原始数据信息并进行预处理,得到增强后的数据集,并将预处理之后的CT图像数据划分为测试集和训练集;
S1-1,从胸部CT数据中提取64mm×64mm×64mm的3D片,包含结节位置信息[x,y,z]。所有CT图像均在手术前或任何化疗前获得。CT图像是由一定数目由黑到白不同灰度的像素按矩阵排列所构成,本发明采用以矩阵形式表示的CT图像作为原始数据。
S1-2,从本发明对以矩阵形式表示的CT图像原始数据进行预处理,即将CT图像重采样为统一规格,3D图像块的线性尺寸调整为每像素1mm(64像素×64像素×64像素),然后归一化到[-1,1]的范围。并进行数据增广,得到增广后的数据集,所述数据增广包括裁剪感兴趣的区域、旋转、平移等数据增广方式,构成该数据集的每一个样本称为CT三维数据。
S1-3,将经过数据增加处理的多种类别的样本集合均拆分为训练集、验证集和测试集,并按照0.7:0.15:0.15的比例进行划分。
S2,构建模型:由于数据量有限,为了更有效地提取特征特征,网络模型的设计应该更深且相对狭窄。单层卷积的网络层数不足和卷积核数量过多可能会导致拟合结果不佳或无法拟合。对于普通的卷积神经网络CNN,随着网络的深入,梯度会不断衰减,可能导致分类失败。Res-Net中的构建块结构包含一个残差分支和一个快捷分支,其中添加了跳转连接操作以传输底层信息以充分训练网络。这种创新方法在多个二维图像分类项目中显示出强大的分类能力。改进的3D-LungNet就是受此启发,具体的网络结构如图1所示。
S2-1,输入一个64×64×64像素的3D图像块,通过由两个批量归一化层BN和一个具有64个卷积内核的卷积网络组成的模块。批量归一化具有消除梯度消失、加速收敛、避免过拟合的功能。
S2-2,批量归一化BN后,进入积木模块Building Block。模块由六个单独的构造块block组成。S表示卷积步长的数量,第一个构造块的卷积步长为1,这是为了保持特征图,之后每个构造块结构的步长为2,这代表了可以减少特征图的下采样。最终输出的图像大小为2*2*2。F表示过滤器的数量,每个构造块block中都有过滤器,前四个构造块的F设置为32,其余构造块的F设置为64。数据从第一个block进入,逐步计算。过滤器越多对图像特征的计算能力更强,但对算力要求也更高,因此在兼顾两者的情况下,将前四个设置为32。
S2-3,在这些步骤之后,模块由批量归一化层BN和激活函数层RELU组成。RELU的作用是增加线性特征的非线性,避免过拟合。
然后通过全局平均池化GAP,从完全连接层Dense输出三个概率值,分别对应于肺鳞癌(SCC)、肺腺癌(ADC)和小细胞癌。概率最大的类别为分类结果。
其中,单个构造块的结构如图2所示,包括2个残差块(residual block),从一系列BN层输入特征图后,batchnorm将Relu层和卷积层组合起来输出特征图。dropout层在单个构建块中的作用是通过将特征图中的元素随机设置为零来缓解过度拟合。即使图像中的某些像素是噪声值,也不会影响对图像内容的判断。此外,对于单个block,还应用了上面提到的跳转连接操作,可以添加特征图的特征值。
卷积网络采用四个平行层组成,分别使用d×d×d、1×d×d、d×1×d和d×d×1的卷积核来滑动提取特征,并在四个分支的卷积后进行Batch Normalization操作得到每各分支的输出,将各层输出相加得到丰富特征空间。由卷积的可加性可知:如果m个大小兼容的3D核K在同一输入L上以相同的步长操作,并产生相同分辨率的输出,假设这些输出相加的结果为Y,那么可以将相应位置上的核相加,得到一个可以产生相同输出Y的等价核K。
K1、K2...Km表示不同尺寸的卷积核。
以d取3为例,详细计算过程如下:
数据输入模型归一化处理后,卷积核各个分支输出为:
其中Y1为第一个卷积核分支的输出;
Y2为第一个卷积核分支的输出;
Y3为第一个卷积核分支的输出;
Y4为第一个卷积核分支的输出;
I为输入数据;
Y为各卷积核分支的输出;
μ表示归一化处理时各分支的均值;
η表示归一化处理时各分支的标准差;
w为各分支融合计算时的权重;
λ为各分支归一化处理中的偏置量;
根据卷积可加性得,输出之和为:
其中c表示为各分支输出融合后的偏置量,为常量;所述融合计算指将四个分支计算的结果合并,继续向后运算。
因此卷积核可等价为:
其中K表示卷集合,相当于把上述四个分支(K1 K2 K3 K4)用一个式子表示。
在优化过程中,采用“Adam”优化算法,学习率为0.01,衰减率为0.5,第一个构建块的dropout为0.5,其次为0.28,训练80个epoch后模型拟合。
最后,计算ROC的AUC、F1分数和准确度,以评估模型的性能。上述方法帮助深度网络从之前的网络中获取特征值,从而获得更好的分类结果。
模型的输出是三个亚型的概率,最终的预测是概率最高的类型。与深度学习中最常用的技术不同,我们采用了一种新的策略,只需要数据的坐标,而不是使用各种主流框架的内置数据增强功能。该方法的改进有效地提高了模型的性能,加快了模型的训练过程。
S3,训练步骤:
将所述训练集输入到改进的3D-LungNet网络模型中进行训练,得到训练好的CT图像分类模型;
根据对病变位置CT图像类别的研究,通过对传统3D-LungNet网络的主要节点进行特征可视化。通过特征可视化,设定在大多数通道中的特征出现无法正常识别出患病位置的纹理轮廓时,确定该层之后的网络层对CT图像低层次特征的提取敏感度低,通过该方法,最终确定迁移的网络深度,这为网络超参数的调整提供依据。
在实际训练过程中,如果某一类超过另外两类之和,则在每次迭代中以1:1:1的比例对三种亚型的数据进行采样,以保证训练的合理性。
在具体实施中由于腺癌ADC超过了肺鳞癌SCC小细胞肺癌和小细胞癌的数量之和,我们在每次迭代中以1:1:1的比例对三种亚型的数据进行采样。当SCC或小细胞癌中没有残留数据时,我们从之前的数据集中随机选择等量的数据进行训练,以减少数据集不平衡的影响。
本发明根据医学图像与自然图像在纹理、边缘等低层次特征具有的共通性,使用在样本数据集上预训练的网络进行低层次特征迁移学习,缓解带标签CT样本的不足。
损失函数及评价指标:
本文所构建模型使用交叉熵作为损失函数,其计算公式为:
其中M为分类任务的类别数;
y为中间指示变量;
如果当前分类样本的结果与y的类别相同,则给yji赋值为1;若不相同则赋为0,这样可以计算整体的损失函数。qji为当前样本预测j为类别i的概率。
实验的评价指标为准确率(Accuracy),即正确预测的样本个数所占的比例,计算公式为
测试/验证步骤:
经过训练和验证,所有的测试数据集将被送入3D-LungNet和全连接网络进行测试。我们使用准确度(ACC)来衡量和评估两种分类模型的性能。根据每个模型的测试数据集计算受试者操作特征曲线分析(ROC)以及相应的曲线下面积(AUC)。此外,采用“加权平均数F1”来减少不平衡数据。“加权平均数F1”是F1的变形,公式如下:
使用图像标签及分类结果,如图3所示,像标签即根据医生的诊断结果,对不同类型(正常或多种病变类别CT图像)分别存放在不同两个文件夹,通过python即可自动为图像打上对应标签,比对得到分类准确率,分类精度,敏感度,特异性。
最终结果3D-LungNet的准确度为0.716,ROC曲线下面积(AUC)达到0.840。
综上,本发明首先对CT原始图像数据进行数据增强、图像处理等一系列预处理,充分利用医学图像与自然图像之间的内在联系进行特征迁移,提高了网络层的特征提取效率和图像分类准确率,并减少了训练过程中的冗余计算量。最后用改进的网络进行调整和分类,得到了拟合较好的CT图像分类模型。本发明能够在有限的训练样本情况下提高CT图像的分类准确率及分类精确率,有效改善了CT图像的诊断效果。
在以往的肺癌计算机辅助亚型分类研究中,大多侧重于非小肺癌的分类、良恶性鉴别以及肺结节的分类和分类。我们在保证分类多样性的同时,使用75%的数据集来训练模型,15%作为独立的验证集,保留另外15%的全部数据来测试模型的性能。因此,验证集和测试集中的数据不参与训练过程,使分类模型的能力更加可行和可靠。总之,结果表明,无创分类方法可以为临床工作流程中指导三种肺癌的个体化和精准化治疗提供广阔的前景。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (10)
1.一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,包括以下步骤:
S1,预处理:采集CT图像原始数据信息并进行预处理,得到增强后的数据集,并将预处理之后的CT图像数据划分为测试集和训练集;
S2,构建模型:构建改进的3D-LungNet网络模型,用于对预处理后的图像进行特征提取;
S3,训练模型:将训练集输入到所述改进的3D-LungNet网络模型中进行训练,得到训练好的CT图像分类模型;
S4,测试集输入模型:将所述测试集输入到所述CT图像分类模型中,得到CT图像分类结果。
2.根据权利要求1所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述CT图像原始数据为在手术前或任何化疗前获得且包含结节位置信息。
3.根据权利要求1所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述预处理包括:
将CT图像重采样为统一规格,3D图像块的线性尺寸调整为每像素1mm;然后归一化到[-1,1]的范围,并进行数据增广。
4.根据权利要求1所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述改进的3D-LungNet网络模型包括:输入模块、特征提取模块以及分类模块,输入模块的数据输出端与特征提取模块的数据输入端相连,特征提取模块的数据输出端与分类模块的数据输入端相连;
输入模块:输入d×d×d像素的3D图像块;
特征提取模块:通过各个层级网络提取输入图像的特征;
分类模块:根据提取的特征对待测图像进行分类,得到预测分类结果;具体包括:通过全局平均池化GAP,从完全连接层Dense输出三个概率值,分别对应于肺鳞癌、肺腺癌和小细胞癌,概率最大的类别为分类结果。
5.根据权利要求4所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述特征提取模块包括:
S-A,通过批量归一化层BN和一个卷积网络用于提取包含局部细节的特征;
S-B,进入积木模块,用于计算全局特征信息的核心结构;
S-C,通过批量归一化层BN和激活函数层RELU。
6.根据权利要求5所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述卷积网络使用d×d×d、1×d×d、d×1×d和d×d×1的卷积核来滑动提取特征,并在四个分支的卷积后进行Batch Normalization操作得到每各分支的输出,将各层输出相加得到丰富的特征空间:
其中Y为最后输出结果;
Y1、Y2、Y3、Y4分别为四个分支的卷积结果;
I为输入数据;
w1、w2、w3、w4分别表示各分支在融合计算时的权重;
η1、η2、η3、η4分别表示各分支归一化的标准差;
Kd×d×d表示尺寸为d×d×d的卷积核;
K1×d×d表示尺寸为1×d×d的卷积核;
Kd×1×d表示尺寸为d×1×d的卷积核;
Kd×d×1表示尺寸为d×d×1的卷积核;
c表示为各分支输出融合后的偏置量;
7.根据权利要求5所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述积木模块由六个单独的构造块组成,数据从第一个构造块进入,然后依次通过之后的构造块;
第一个构造块的卷积步长为1,之后每个构造块结构的步长为2,最终输出的图像大小为2*2*2;
其中每个构造块中都有过滤器,前四个构造块的过滤器数量为32,其余构造块的过滤器数量设置为64。
8.根据权利要求7所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述构造块由第一残差块与第二残差块模块构成;
第一残差块的输入端与卷积层相连,卷积层的输出端与第一残差块的输出端相连,再通过加运算,把经过第一残差块的数据与经过所述卷积层的数据进行整合;
将整合后的数据输入第二残差块,
第二残差块的输出端与第二残差块的输入端相连,再通过加运算,把经过第二残差块的数据与未经过第二残差块的数据进行整合,得到最终输出结果;
其中第一残差块由卷积层、归一化层、激活函数层、dropout层组成;
第二残差块由归一化层、激活函数层、卷积层组成。
9.根据权利要求1所述的一种基于深度学习的肺癌CT图像亚型分类方法,其特征在于,所述训练模型包括:如果某一类肺癌亚型超过另外两类肺癌亚型之和,则在每次迭代中以1:1:1的比例对三种肺癌亚型的数据进行采样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210271664.6A CN114648663A (zh) | 2022-03-18 | 2022-03-18 | 基于深度学习的肺癌ct图像亚型分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210271664.6A CN114648663A (zh) | 2022-03-18 | 2022-03-18 | 基于深度学习的肺癌ct图像亚型分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114648663A true CN114648663A (zh) | 2022-06-21 |
Family
ID=81996485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210271664.6A Pending CN114648663A (zh) | 2022-03-18 | 2022-03-18 | 基于深度学习的肺癌ct图像亚型分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114648663A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116468690A (zh) * | 2023-04-17 | 2023-07-21 | 北京透彻未来科技有限公司 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
CN116825363A (zh) * | 2023-08-29 | 2023-09-29 | 济南市人民医院 | 基于融合深度学习网络的早期肺腺癌病理类型预测系统 |
CN116994032A (zh) * | 2023-06-28 | 2023-11-03 | 河北大学 | 一种基于深度学习的直肠息肉多分类方法 |
CN118262901A (zh) * | 2024-04-07 | 2024-06-28 | 中国人民解放军总医院第六医学中心 | 一种基于深度学习的肺癌癌性类别预测系统 |
CN118396988A (zh) * | 2024-06-25 | 2024-07-26 | 华侨大学 | 一种基于改进Alex网络的CT图像肾结石检测方法 |
-
2022
- 2022-03-18 CN CN202210271664.6A patent/CN114648663A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116468690A (zh) * | 2023-04-17 | 2023-07-21 | 北京透彻未来科技有限公司 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
CN116468690B (zh) * | 2023-04-17 | 2023-11-14 | 北京透彻未来科技有限公司 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
CN116994032A (zh) * | 2023-06-28 | 2023-11-03 | 河北大学 | 一种基于深度学习的直肠息肉多分类方法 |
CN116994032B (zh) * | 2023-06-28 | 2024-02-27 | 河北大学 | 一种基于深度学习的直肠息肉多分类方法 |
CN116825363A (zh) * | 2023-08-29 | 2023-09-29 | 济南市人民医院 | 基于融合深度学习网络的早期肺腺癌病理类型预测系统 |
CN116825363B (zh) * | 2023-08-29 | 2023-12-12 | 济南市人民医院 | 基于融合深度学习网络的早期肺腺癌病理类型预测系统 |
CN118262901A (zh) * | 2024-04-07 | 2024-06-28 | 中国人民解放军总医院第六医学中心 | 一种基于深度学习的肺癌癌性类别预测系统 |
CN118396988A (zh) * | 2024-06-25 | 2024-07-26 | 华侨大学 | 一种基于改进Alex网络的CT图像肾结石检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114648663A (zh) | 基于深度学习的肺癌ct图像亚型分类方法 | |
Murugesan et al. | A hybrid deep learning model for effective segmentation and classification of lung nodules from CT images | |
CN112184658B (zh) | 用于非小细胞肺癌预后生存预测的方法、介质及电子设备 | |
CN107590797B (zh) | 一种基于三维残差神经网络的ct影像肺结节检测方法 | |
CN112258530A (zh) | 基于神经网络的计算机辅助肺结节自动分割方法 | |
CN110766051A (zh) | 一种基于神经网络的肺结节形态学分类方法 | |
CN109614991A (zh) | 一种基于Attention的多尺度扩张性心肌的分割分类方法 | |
CN113208640B (zh) | 一种基于乳腺专用pet影像组学预测腋窝淋巴结转移的方法 | |
CN112700461B (zh) | 一种肺结节检测和表征类别识别的系统 | |
CN112364920B (zh) | 基于深度学习的甲状腺癌病理图像分类方法 | |
CN113889261B (zh) | 基于病理特征辅助的pet/ct自动肺癌诊断分类模型训练方法 | |
CN112329871A (zh) | 一种基于自校正卷积与通道注意力机制的肺结节检测方法 | |
CN111260639A (zh) | 多视角信息协作的乳腺良恶性肿瘤分类方法 | |
CN113850328A (zh) | 基于多视角深度学习的非小细胞肺癌亚型分类系统 | |
CN116645380A (zh) | 基于两阶段渐进式信息融合的食管癌ct图像肿瘤区自动分割方法 | |
CN113989551A (zh) | 一种基于改进ResNet网络的阿尔茨海默病分类方法 | |
CN116883341A (zh) | 一种基于深度学习的肝脏肿瘤ct图像自动分割方法 | |
CN117476232A (zh) | 一种基于卷积循环神经网络的预后预测方法 | |
Wang et al. | Evaluation of malignancy of lung nodules from CT image using recurrent neural network | |
AU2016201298A1 (en) | Computer analysis of mammograms | |
CN116958094A (zh) | 一种动态增强磁共振影像特征生成病理图像特征的方法 | |
CN111582330A (zh) | 基于肺部肿瘤影像划分样本空间下的集成ResNet-NRC方法 | |
CN116402756A (zh) | 一种融合多层次特征的x光片肺部疾病筛查系统 | |
CN113889235A (zh) | 一种三维医学影像无监督特征抽取系统 | |
Xie et al. | [Retracted] Analysis of the Diagnosis Model of Peripheral Non‐Small‐Cell Lung Cancer under Computed Tomography Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |