CN112700461A - 一种肺结节检测和表征类别识别的系统 - Google Patents
一种肺结节检测和表征类别识别的系统 Download PDFInfo
- Publication number
- CN112700461A CN112700461A CN202110293483.9A CN202110293483A CN112700461A CN 112700461 A CN112700461 A CN 112700461A CN 202110293483 A CN202110293483 A CN 202110293483A CN 112700461 A CN112700461 A CN 112700461A
- Authority
- CN
- China
- Prior art keywords
- image
- characterization
- lung nodule
- class
- nodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
- G06F18/2453—Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
- G06T2207/30064—Lung nodule
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Nonlinear Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种肺结节检测和表征类别识别的系统,包括第一图像识别模块;用于对多个DICOM图像进行处理,获取多个肺结节3d轮廓区域图像;第二图像识别模块;用于对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像;识别模型训练模块;用于获取训练好的表征类别识别模型;表征类别识别模块;用于使用训练好的表征类别识别模型,获取肺结节的最终表征和类别。优点是:能够有效的检测出一套CT图中所有可能的肺结节的3d轮廓坐标,能够有效地降低假阳性结节的检出。利用了不同的卷积神经网络提取不同的特征,并且加入了特征融合,能够让表征类别识别模型更好的学习到不同的特征信息,能够提高识别的准确度。
Description
技术领域
本发明涉及肺结节检测识别技术领域,尤其涉及一种肺结节检测和表征类别识别的系统。
背景技术
当前,肺癌已经成为我国发病率和死亡率最高的癌症,对人们的健康和生命构成了极大的威胁。根据国家癌症中心最新的一份统计报告显示,肺癌是我国恶性肿瘤发病第一位的癌症,而我国的肺癌病人五年生存率不到20%。肺癌的高死亡率的一个主要原因就是诊断偏晚,大部分病人在发现的时候已经是中晚期了。因此,尽早地发现肺癌,才能提高肺癌患者的生存率。
肺结节的筛查已经成为肺癌早筛的主要方法之一,医生通过诊断病人的肺部CT图中各种肺结节的性质,来筛查诊断是否患有肺癌。这就要求医生拥有精确的阅片判断力和丰富的临床经验,并且工作强度非常的大,使医生疲劳从而容易造成误诊或者漏诊的情况。
人工智能技术的出现,能够极大的为肺癌的筛查提供便利,可以一定程度上辅助并且代替医生来对CT图中的肺结节进行检测与诊断。现有的方法,有使用基于深度学习的目标检测方法,对CT图中的肺结节进行检测,主要使用Faster R-CNN模型来检测肺结节,产生多个候选框,之后通过卷积神经网络对候选区域进行假阳性识别。也有用U-Net网络对CT图中肺结节的进行分割,之后将分割的肺结节区域输入到卷积神经网络进行识别,并进行良恶性的判断。
上述的技术,都是利用2D的模型去检测CT图中的肺结节,然而CT图其实是3D的,因此利用2D的检测模型,并不能很好的检测出完整的肺结节,只能对一个切片的肺结节进行检测。对于良恶性的识别,大部分也是只是单独采用2D或者3D的卷积神经网络进行识别,这样总会忽略了一些2D或者3D的信息。并且现有的技术都没有对肺结节的表征和类别进行识别,而在在实际应用中医生通常需要这些肺结节的表征类别信息,用于诊断报告的书写,肺结节表征和类别的识别能给医生带来更多的便利。
发明内容
本发明的目的在于提供一种肺结节检测和表征类别识别的系统,从而解决现有技术中存在的前述问题。
为了实现上述目的,本发明采用的技术方案如下:
一种肺结节检测和表征类别识别的系统,包括,
第一图像识别模块;用于对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像;
第二图像识别模块;用于对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像;
识别模型训练模块;用于将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型;具体的,所述识别模型训练模块用于对尺寸为224*224的肺结节图像进行处理,并利用2d卷积神经网络提取肺结节图像的第一表征特征;对尺寸为112*112肺结节图像进行处理,并利用3d卷积神经网络提取肺结节图像的第二表征特征;利用第一表征特征和第二表征特征分别进行拼接、最大值操作和平均值操作,分别获取第一特征向量、第二特征向量和第三特征向量;利用第一特征向量、第二特征向量和第三特征向量进行拼接获取第四特征向量;将第四特征向量输入到表征类别识别模型中,利用表征分类器和类别分类器分别进行表征识别和分类识别,以分别获取肺结节的表征和肺结节的类别;利用表征识别和类别识别的损失函数获取总损失函数,并利用总损失函数训练表征类别识别模型,以获取训练好的表征类别识别模型;
表征类别识别模块;用于将使用V-Net图像分割模型分割出的肺结节3d轮廓区域图像输入到训练好的表征类别识别模型中,输出肺结节的最终表征和类别;
优选的,所述第一图像识别模块对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像的具体过程为,
S100、读取多个DICOM图像中的pixel_arr、Rescale_Intercept、Rescale_Slope、Window_Center和Window_Width字段信息;其中,pixel_arr为像素列阵;Rescale_Intercept为缩放截距; Rescale_Slope为斜率;Window_Center为窗位;Window_Width为窗宽;
S101、计算各个DICOM图像的CT值,计算公式如下,
Hu=pixel_arr* Rescale_Slope+Rescale_Intercept
其中,Hu为CT值;
S102、根据各个DICOM图像的Window_Center和Window_Width,截取CT值显示范围的最大值和最小值,所述CT值显示范围的最大值和最小值的计算公式分别为,
其中,max为CT值显示范围的最大值;min为CT值显示范围的最小值;
S103、对各个DICOM图像中的CT值进行调整,将其中小于CT值显示范围最小值的CT值调整为最小值;大于CT值显示范围最大值的CT值调整为最大值;
S104、将调整后的所有DICOM图像中的CT值归一化到0到1 之间,归一化的公式为,
S105、将所有完成归一化处理的DICOM图像进行拼接,获取一个三维立体的CT图像,并传入V-Net图像分割模型;
S106、所述V-Net图像分割模型通过3D-卷积神经网络对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像。
优选的,所述第二图像识别模块对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像的具体过程为,
S200、对各个肺结节3d轮廓区域图像进行预处理,获取各个肺结节3d轮廓区域图像的坐标;
S201、对每个肺结节3d轮廓区域图像的坐标,获取肺结节在该3d轮廓区域图像中处于最外侧的上下左右四个坐标点,并在这四个坐标点的基础上延伸至10个像素点,获取对应该肺结节3d轮廓区域图像的肺结节图像;
S202、将所有肺结节图像的尺寸分别统一固定为224*224和112*112;其中224*224是针对2d卷积神经网络的尺寸大小,112*112是针对3d卷积神经网络的尺寸大小。
优选的,所述识别模型训练模块将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型的具体过程为,
S300、将尺寸大小为224*224的肺结节图像进行平均化操作,转换为二维的图像I;并将图像I输入2d卷积神经网络提取肺结节图像的第一表征特征v1;转换公式为,
其中,t=1,2,…n;n为肺结节图像的切片总数,at为肺结节图像的第t张切片;
S301、判断尺寸大小为112*112的各个肺结节图像的切片数是否等于10张,若是,则输入到3d卷积神经网络中,若小于10,则对该肺结节图像进行填充,采用末尾补零的方式在该肺结节图像后追加填充0向量,补齐缺少的切片数后,输入到3d卷积神经网络中;若大于10,则保留该肺结节图像中部的8张切片,并对其余的切片进行平均操作,最终保留10张切片,输入到3d卷积神经网络中;提取肺结节图像的第二表征特征v2;
S302、对第一表征特征v1和第二表征特征v2进行拼接获取第一特征向量V1;拼接公式为,
其中,||表示特征的拼接;
S303、将第一表征特征v1和第二表征特征v2分别进行最大值和平均值操作,从而获得第二特征向量V2和第三特征向量V3;最大值和平均值操作的公式分别为,
S304、将第一特征向量V1、第二特征向量V2和第三特征向量V3,分别输入一个全连接层,使其调整为相同的尺寸,并将调整尺寸后的第一特征向量V1、第二特征向量V2和第三特征向量V3进行拼接后,通过一个全连接层后,最终得到一个第四特征向量V4;
S305、将第四特征向量V4输入到表征类别识别模型中,所述表征类别识别模型包括表征分类器和类别分类器,所述表征分类器的输出是6维的特征向量,对应6个表征,并使用sigmoid进行表征识别,获取肺结节的表征;所述类别分类器的输出是3维的特征向量,对应3个类别,并使用softmax进行分类识别,获取肺结节的类别;sigmoid和softmax的识别公式分别为,
其中,f为sigmoid;σ为softmax,x为表征分类器输出的6维特征向量;z为类别分类器输出的3维特征向量;j=1,2,3;
S306、表征识别为多标签分类任务,其损失函数为:
其中,yk表示第k个标签的标签值,ik表示表征类别识别模型预测第k个标签的概率值;
类别识别为多分类任务,其损失函数为:
其中,K为类别的个数,yi为第i个类别的标签值,pi为表征类别识别模型预测的第i个类别的概率值;
则总损失函数为
其中,α和β为模型训练的超参数;
S307、将训练样本以及对应的真实标签输入到表征类别识别模型中,并通过总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型。
优选的,肺结节的表征包括毛刺征、分叶征、钙化、空泡、胸膜凹陷和胸膜牵拉;肺结节的类别包括实性结节、磨玻璃结节和部分实性结节。
优选的,在对所述表征类别识别模型训练之前,对肺结节图像进行图像增强操作,具体为,将磨玻璃结节以及部分实性结节的肺结节图像在平面上进行随机左右上下翻转、随机对比度和锐度调整,并对每张肺结节图像进行随机的旋转;之后随机选取部分肺结节图像加入泊松噪声,以令该部分肺结节图像实现图像增强;并将这些图像增强后的肺结节图像与原本的所有肺结节图像集合成训练样本输入到表征类别识别模型中,并根据步骤S307训练表征类别识别模型。
优选的,所述2d卷积神经网络采用的是inceptionV3网络模型;所述3d卷积神经网络采用的是C3D网络模型。
本发明的有益效果是:能够有效的检测出一套CT图中所有可能的肺结节的3d轮廓坐标,并且能够有效地降低假阳性结节的检出。利用了不同的卷积神经网络提取不同的特征,并且加入了特征融合,能够让表征类别识别模型更好的学习到不同的特征信息,能够提高识别的准确度;并能够对肺结节的表征和类别进行准确识别。
附图说明
图1是本发明实施例中系统的结构示意图;
图2是本发明实施例中V-Net图像分割模型的结构图;
图3是本发明实施例中Inception模块的示意图;
图4是本发明实施例中C3D网络结构图;
图5是本发明实施例中图像特征提取以及特征融合示意图;
图6是本发明实施例中肺结节的表征分类器和类别分类器的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本实施例中,提供了一种肺结节检测和表征类别识别的系统,包括,
第一图像识别模块;用于对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像;
第二图像识别模块;用于对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像;
识别模型训练模块;用于将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型;具体的,所述识别模型训练模块用于对尺寸为224*224的肺结节图像进行处理,并利用2d卷积神经网络提取肺结节图像的第一表征特征;对尺寸为112*112肺结节图像进行处理,并利用3d卷积神经网络提取肺结节图像的第二表征特征;利用第一表征特征和第二表征特征分别进行拼接、最大值操作和平均值操作,分别获取第一特征向量、第二特征向量和第三特征向量;利用第一特征向量、第二特征向量和第三特征向量进行拼接获取第四特征向量;将第四特征向量输入到表征类别识别模型中,利用表征分类器和类别分类器分别进行表征识别和分类识别,以分别获取肺结节的表征和肺结节的类别;利用表征识别和类别识别的损失函数获取总损失函数,并利用总损失函数训练表征类别识别模型,以获取训练好的表征类别识别模型;
表征类别识别模块;用于将使用V-Net图像分割模型分割出的肺结节3d轮廓区域图像输入到训练好的表征类别识别模型中,输出肺结节的最终表征和类别。
本实施例中,所述系统实现肺结节检测人和表征类别识别,具体包括三部分内容,分别为,CT图像的预处理,通过V-Net图像分割模型,检测肺结节并返回其轮廓坐标;检测出的肺结节数据预处理;肺结节的表征识别和类别识别。下面对上述三个部分分别展开说明。
一、CT图像的预处理,通过V-Net图像分割模型,检测肺结节并返回其轮廓坐标
该部分内容由第一图像识别模块实现,所述第一图像识别模块对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像。该过程具体包括两步,第一步是CT图像的预处理,第二步是通过V-Net图像分割模型,检测肺结节并返回其轮廓坐标;第一步为步骤S100至S104;第二步为步骤S105至S106。
S100、读取多个DICOM图像中的pixel_arr、Rescale_Intercept、Rescale_Slope、Window_Center和Window_Width字段信息;其中,pixel_arr为像素列阵;Rescale_Intercept为缩放截距;Rescale_Slope为斜率;Window_Center为窗位;Window_Width为窗宽;
S101、计算各个DICOM图像的CT值,计算公式如下,
Hu=pixel_arr* Rescale_Slope+Rescale_Intercept
其中,Hu为CT值;
S102、根据各个DICOM图像的Window_Center和Window_Width,截取CT值显示范围的最大值和最小值,所述CT值显示范围的最大值和最小值的计算公式分别为,
其中,max为CT值显示范围的最大值;min为CT值显示范围的最小值;
S103、对各个DICOM图像中的CT值进行调整,将其中小于CT值显示范围最小值的CT值调整为最小值;大于CT值显示范围最大值的CT值调整为最大值;
S104、将调整后的所有DICOM图像中的CT值归一化到0到1 之间,归一化的公式为,
S105、将所有完成归一化处理的DICOM图像进行拼接,获取一个三维立体的CT图像,并传入V-Net图像分割模型;
S106、所述V-Net图像分割模型通过3D-卷积神经网络对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像。
V-Net图像分割模型(如图2所示)采用的是3D卷积神经网络,其由多个3D卷积核对三维立体的CT图像进行多次下采样和上采样,最后达到分割结节轮廓的效果。
V-Net图像分割模型中,第1层为输入层,在数据的最后一个维度上进行复制,此操作主要是为了改变输入数据的通道数,输出为一个16通道的三维数组;
第2层为卷积层,使用一个5x5的卷积核对数据进行卷积操作,采取周围补零操作,步长为1,通道数不变,这一层主要为了提取特征图,输出数据维度不变;
第3层—第9层为下采样层,这层卷积操作分为两次,首先使用一个5*5*5的卷积核做卷积操作,步长为1,卷积后数据 维度不变,然后,用一个2*2*2的卷积核做卷积操作,步长为2,卷积后数据的维度变为原先的一半,通道数变为32,同样的操作重复4次。最后得到的数据维度为原先的1/16。通道数为256;
第10层—第12层,使用3*3*3的卷积核进行三次卷积操作,通道数不变,主要作用是进行特征的提取;
第13层—第16层,上采样层,使用5*5*5的卷积核进行步长为2的转置卷积操作,最后得到一个与输入数据维度相同的输出数据,通道数为3。这一步的主要作用是将之前提取到的特征还原为输入数据的维度大小。三个通道分别代表[背景,肺部,结节];
将V-Net图像分割模型的输出结果和标签数据传入损失函数,由于肺结节占图像的位置很小,正负样本相差很大,多以损失函数采用Dice_loss,该损失函数可以在正负样本相差比较大的情况下使模型达到很好的收敛效果。公式如下:
其中y表示样本真实的标签值,y’表示模型预测的值。通过此损失函数,训练模型,通过大量数据的训练V-Net图像分割模型能够达到检测分割肺结节的效果。
二、检测出的肺结节数据预处理
本实施例中,该部分由第二图像识别模块完成;通过步骤S100-S106可以分割出整个CT图中的肺结节的3d轮廓区域图像,其实质就是有多个切片(帧)堆叠而成的图像;第二图像识别模块将对分割出的肺结节的3d轮廓区域图像进行图像处理;所述第二图像识别模块对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像的具体过程为,
S200、对各个肺结节3d轮廓区域图像进行预处理,获取各个肺结节3d轮廓区域图像的坐标;
S201、对每个肺结节3d轮廓区域图像的坐标,获取肺结节在该3d轮廓区域图像中处于最外侧的上下左右四个坐标点,并在这四个坐标点的基础上延伸至10个像素点(这样截取的肺结节图像一定会全部包含该肺结节),获取对应该肺结节3d轮廓区域图像的肺结节图像;
S202、将所有肺结节图像的尺寸分别统一固定为224*224和112*112;其中224*224是针对2d卷积神经网络的尺寸大小,112*112是针对3d卷积神经网络的尺寸大小。
本实施例中,无论是2d卷积网络还是3d卷积网络,都是需要固定输入图像的尺寸,步骤S201截取的各个肺结节图像区域大小会不太相同,因此对这些图像尺寸进行缩放;因此,针对2d卷积神经网络的输入,将每个切片的区域图像尺寸设为224*224,针对3d卷积网络,输入图像尺寸设为112*112。
三、肺结节的表征识别和类别识别
将肺结节图像进行预处理后,接下来就是对肺结节图像进行表征和类别的识别(如图5所示),首先利用2d和3d卷积神经网络提取肺结节的表征和空间的特征,通过特征融合网络,提取出两个特征中更加丰富且精细的肺结节图像特征,最后通过两个分类器分别进行表征和类别的识别。该部分内容由识别模型训练模块和表征类别识别模块实现。
本实施例中,所述识别模型训练模块将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型的具体过程为,
S300、将尺寸大小为224*224的肺结节图像进行平均化操作,转换为二维的图像I;并将图像I输入2d卷积神经网络提取肺结节图像的第一表征特征v1;转换公式为,
其中,t=1,2,…n;n为肺结节图像的切片总数,at为肺结节图像的第t张切片;
S301、判断尺寸大小为112*112的各个肺结节图像的切片数是否等于10张,若是,则输入到3d卷积神经网络中,若小于10,则对该肺结节图像进行填充,采用末尾补零的方式在该肺结节图像后追加填充0向量,补齐缺少的切片数后,输入到3d卷积神经网络中;若大于10,则保留该肺结节图像中部的8张切片,并对其余的切片进行平均操作,最终保留10张切片,输入到3d卷积神经网络中;提取肺结节图像的第二表征特征v2;
S302、对第一表征特征v1和第二表征特征v2进行拼接获取第一特征向量V1;拼接公式为,
其中,||表示特征的拼接;
S303、将第一表征特征v1和第二表征特征v2分别进行最大值和平均值操作,从而获得第二特征向量V2和第三特征向量V3;最大值和平均值操作的公式分别为,
S304、将第一特征向量V1、第二特征向量V2和第三特征向量V3,分别输入一个全连接层,使其调整为相同的尺寸,并将调整尺寸后的第一特征向量V1、第二特征向量V2和第三特征向量V3进行拼接后,通过一个全连接层后,最终得到一个第四特征向量V4;
其中,第一表征特征v1和第二表征特征v2均表示向量;将第一表征特征v1和第二表征特征v2进行最大值操作的具体实现过程为:取特征向量v1和v2两两对应的元素中的最大值,其中v1和v2的特征向量维度(长度)是相等的,最后得到一个与v1、v2向量维度相等的特征向量V1;将第一表征特征v1和第二表征特征v2进行平均值操作的具体实现过程为:将v1和v2两两对应像素算个平均,然后得到一个与v1、v2向量维度相等的特征向量V2。
S305、将第四特征向量V4输入到表征类别识别模型中,所述表征类别识别模型包括表征分类器和类别分类器,所述表征分类器的输出是6维的特征向量,对应6个表征,并使用sigmoid进行表征识别,获取肺结节的表征;所述类别分类器的输出是3维的特征向量,对应3个类别,并使用softmax进行分类识别,获取肺结节的类别;sigmoid和softmax的识别公式分别为,
其中,f为sigmoid;σ为softmax,x为表征分类器输出的6维特征向量;z为类别分类器输出的3维特征向量;j=1,2,3;
S306、表征识别为多标签分类任务,其损失函数为:
其中,yk表示第k个标签的标签值,ik表示表征类别识别模型预测第k个标签的概率值;
类别识别为多分类任务,其损失函数为:
其中,K为类别的个数,yi为第i个类别的标签值,pi为表征类别识别模型预测的第i个类别的概率值;
则总损失函数为
其中,α和β为模型训练的超参数;
S307、将训练样本以及对应的真实标签输入到表征类别识别模型中,并通过总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型。
最终,表征类别识别模块将使用V-Net图像分割模型分割出的肺结节3d轮廓区域图像输入到训练好的表征类别识别模型中,输出肺结节的最终表征和类别。
本实施例中,所述2d卷积神经网络采用的是inceptionV3网络模型(如图3所示);其与普通卷积神经网络最大的区别在于采用了inception模块,其原理为用不同大小的卷积核提取图像特征,最后拼接这些的特征,不同大小卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合。inceptionV3由多个inception模块以及池化层组成,这样就能很好地提取输入图像的2d表征特征,得到第一表征特征v1。
由于2d卷积神经网络的输入需要是一个二维的图像,而分割的肺结节图像为三维的图像,因此需要将固定尺寸后尺寸为224*224的图像做平均化操作,转换为二维的图像I,并且会一定程度上保留各个切片上的信息。
本实施例中,所述3d卷积神经网络采用的是C3D网络模型(如图4所示)。其与2d卷积神经网络的最大区别是,采用的卷积核为三维卷积核,这样能够同时在多张切片上做卷积,获取到更多的空间信息。其网络结构有8个卷积层,5个最大池化层和2个全连接层,最后网络的输出为输入图像的3d特征,得到第二表征特征v2。
C3D模型的输入需要为3D图像,输入的切片数(帧数)应为固定的数目,而不同的肺结节图像切片数不同,因此这里设置输入的切片数固定值为10张。对输入的三维图像进行填充或者删减。对于尺寸为112*112的肺结节图像,如果肺结节图像的切片数正好等于10张,则不做任何操作,直接输入到C3D模型中。如果肺结节图像的切片数小于10张,则需要对肺结节图像进行填充。这里采用末尾补零的方式进行填充,具体地,保留原来的图像,在其后面追加填充0向量,补齐缺少的切片数,最终图像的尺寸为112*112*16。如果肺结节图像的切片数大于10张,则需要对肺结节图像进行删减。具体地,保留输入图像中间的8张图像,然后分别对两边多余的切片进行平均操作,最终保留10张切片数。
本实施例中,sigmoid将表征分类器输出的6维特征向量处理为一个6维的概率向量,其中每个概率都在[0,1]区间,概率越大,表示表征类别识别模型识别所对应的表征的概率越大;设置概率阈值为0.7,则表征类别识别模型将大于概率阈值的概率向量所对应的表征识别为肺结节的表征。
本实施例中,softmax将类别分类器输出的三维特征向量处理为一个三维的概率向量,各概率之和为1,概率越大,表示表征类别识别模型识别所对应的类别的概率越大;则表征类别识别模型将最大的概率向量所在位置对应的类别识别为肺结节的类别。
本实施例中,肺结节的表征包括毛刺征、分叶征、钙化、空泡、胸膜凹陷和胸膜牵拉;肺结节的类别包括实性结节、磨玻璃结节和部分实性结节。
由于在实际情况中,肺结节图像的表征和类别分布并不是十分的平衡,比如大部分的结节都会是实性结节,而磨玻璃和部分实性结节却非常的少,那么如果就这样让表征类别识别模型训练的话,导致的后果会是表征类别识别模型将会无法很好的预测磨玻璃和部分实性结节。因此需要对这类图像进行数据增强,通过数据增强增加磨玻璃和部分实性结节的样本数量,让数据达到平衡同时增加了训练数据量。
本实施例中,在对所述表征类别识别模型训练之前,对肺结节图像进行图像增强操作,具体为,将磨玻璃结节以及部分实性结节的肺结节图像在平面上进行随机左右上下翻转、随机对比度和锐度调整,并对每张肺结节图像进行随机的旋转;之后随机选取部分肺结节图像加入泊松噪声,以令该部分肺结节图像实现图像增强;并将这些图像增强后的肺结节图像与原本的所有肺结节图像集合成训练样本输入到表征类别识别模型中,并根据步骤S307训练表征类别识别模型。
本实施例中,所述2d卷积神经网络采用的是inceptionV3网络模型;所述3d卷积神经网络采用的是C3D网络模型。
本实施例中,识别系统识别过程的关键点在于:1、利用V-Net模型对CT图像中的肺结节进行分割,此模型是分割的是3d的肺结节图像,能够有效地识别出哪些是血管哪些是结节,从而降低假阳性。2、利用了两个不同维度的卷积神经网络,分别提取了分割出的肺结节的不同的特征,并且将这两个特征进行了特征融合,最后将融合后的特征输入到两个不同的分类器中,分别对表征和类别进行识别。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明提供了一种肺结节检测和表征类别识别的系统,能够有效的检测出一套CT图中所有可能的肺结节的3d轮廓坐标,并且能够降低对假阳性结节的检出。利用了不同的卷积神经网络提取不同的特征,并且加入了特征融合,能够让表征类别识别模型更好的学习到不同的特征信息,能够提高识别的准确度;并能够对肺结节的表征和类别进行准确识别。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。
Claims (7)
1.一种肺结节检测和表征类别识别的系统,其特征在于:包括,
第一图像识别模块;用于对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像;
第二图像识别模块;用于对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像;
识别模型训练模块;用于将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型;具体的,所述识别模型训练模块用于对尺寸为224*224的肺结节图像进行处理,并利用2d卷积神经网络提取肺结节图像的第一表征特征;对尺寸为112*112肺结节图像进行处理,并利用3d卷积神经网络提取肺结节图像的第二表征特征;利用第一表征特征和第二表征特征分别进行拼接、最大值操作和平均值操作,分别获取第一特征向量、第二特征向量和第三特征向量;利用第一特征向量、第二特征向量和第三特征向量进行拼接获取第四特征向量;将第四特征向量输入到表征类别识别模型中,利用表征分类器和类别分类器分别进行表征识别和分类识别,以分别获取肺结节的表征和肺结节的类别;利用表征识别和类别识别的损失函数获取总损失函数,并利用总损失函数训练表征类别识别模型,以获取训练好的表征类别识别模型;
表征类别识别模块;用于将使用V-Net图像分割模型分割出的肺结节3d轮廓区域图像输入到训练好的表征类别识别模型中,输出肺结节的最终表征和类别。
2.根据权利要求1所述的肺结节检测和表征类别识别的系统,其特征在于:所述第一图像识别模块对多个DICOM图像进行处理,获取一个三维立体的CT图像,并通过V-Net图像分割模型对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像的具体过程为,
S100、读取多个DICOM图像中的pixel_arr、Rescale_Intercept、Rescale_Slope、Window_Center和Window_Width字段信息;其中,pixel_arr为像素列阵;Rescale_Intercept为缩放截距; Rescale_Slope为斜率;Window_Center为窗位;Window_Width为窗宽;
S101、计算各个DICOM图像的CT值,计算公式如下,
Hu=pixel_arr* Rescale_Slope+Rescale_Intercept
其中,Hu为CT值;
S102、根据各个DICOM图像的Window_Center和Window_Width,截取CT值显示范围的最大值和最小值,所述CT值显示范围的最大值和最小值的计算公式分别为,
其中,max为CT值显示范围的最大值;min为CT值显示范围的最小值;
S103、对各个DICOM图像中的CT值进行调整,将其中小于CT值显示范围最小值的CT值调整为最小值;大于CT值显示范围最大值的CT值调整为最大值;
S104、将调整后的所有DICOM图像中的CT值归一化到0到1 之间,归一化的公式为,
S105、将所有完成归一化处理的DICOM图像进行拼接,获取一个三维立体的CT图像,并传入V-Net图像分割模型;
S106、所述V-Net图像分割模型通过3D-卷积神经网络对三维立体的CT图像进行分割,获取多个肺结节3d轮廓区域图像。
3.根据权利要求2所述的肺结节检测和表征类别识别的系统,其特征在于:所述第二图像识别模块对各肺结节3d轮廓区域图像进行处理,获取对应各肺结节3d轮廓区域图像的肺结节图像的具体过程为,
S200、对各个肺结节3d轮廓区域图像进行预处理,获取各个肺结节3d轮廓区域图像的坐标;
S201、对每个肺结节3d轮廓区域图像的坐标,获取肺结节在该3d轮廓区域图像中处于最外侧的上下左右四个坐标点,并在这四个坐标点的基础上延伸至10个像素点,获取对应该肺结节3d轮廓区域图像的肺结节图像;
S202、将所有肺结节图像的尺寸分别统一固定为224*224和112*112;其中224*224是针对2d卷积神经网络的尺寸大小,112*112是针对3d卷积神经网络的尺寸大小。
4.根据权利要求3所述的肺结节检测和表征类别识别的系统,其特征在于:所述识别模型训练模块将肺结节图像输入到表征类别识别模型中进行表征识别和类别识别,获取肺结节的表征和类别;获取表征类别识别模型的总损失函数,并使用总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型的具体过程为,
S300、将尺寸大小为224*224的肺结节图像进行平均化操作,转换为二维的图像I;并将图像I输入2d卷积神经网络提取肺结节图像的第一表征特征v1;转换公式为,
其中,t=1,2,…n;n为肺结节图像的切片总数,at为肺结节图像的第t张切片;
S301、判断尺寸大小为112*112的各个肺结节图像的切片数是否等于10张,若是,则输入到3d卷积神经网络中,若小于10,则对该肺结节图像进行填充,采用末尾补零的方式在该肺结节图像后追加填充0向量,补齐缺少的切片数后,输入到3d卷积神经网络中;若大于10,则保留该肺结节图像中部的8张切片,并对其余的切片进行平均操作,最终保留10张切片,输入到3d卷积神经网络中;提取肺结节图像的第二表征特征v2;
S302、对第一表征特征v1和第二表征特征v2进行拼接获取第一特征向量V1;拼接公式为,
其中,||表示特征的拼接;
S303、将第一表征特征v1和第二表征特征v2分别进行最大值和平均值操作,从而获得第二特征向量V2和第三特征向量V3;最大值和平均值操作的公式分别为,
S304、将第一特征向量V1、第二特征向量V2和第三特征向量V3,分别输入一个全连接层,使其调整为相同的尺寸,并将调整尺寸后的第一特征向量V1、第二特征向量V2和第三特征向量V3进行拼接后,通过一个全连接层后,最终得到一个第四特征向量V4;
S305、将第四特征向量V4输入到表征类别识别模型中,所述表征类别识别模型包括表征分类器和类别分类器,所述表征分类器的输出是6维的特征向量,对应6个表征,并使用sigmoid进行分类识别,获取肺结节的表征;所述类别分类器的输出是3维的特征向量,对应3个类别,并使用softmax进行分类识别,获取肺结节的类别;sigmoid和softmax的识别公式分别为,
其中,f为sigmoid;σ为softmax,x为表征分类器输出的6维特征向量;z为类别分类器输出的3维特征向量;j=1,2,3;
S306、表征识别为多标签分类任务,其损失函数为:
其中,yk表示第k个标签的标签值,ik表示表征类别识别模型预测第k个标签的概率值;
类别识别为多分类任务,其损失函数为:
其中,K为类别的个数,yi为第i个类别的标签值,pi为表征类别识别模型预测的第i个类别的概率值;
则总损失函数为
其中,α和β为模型训练的超参数;
S307、将训练样本以及对应的真实标签输入到表征类别识别模型中,并通过总损失函数训练表征类别识别模型,获取训练好的表征类别识别模型。
5.根据权利要求4所述的肺结节检测和表征类别识别的系统,其特征在于:肺结节的表征包括毛刺征、分叶征、钙化、空泡、胸膜凹陷和胸膜牵拉;肺结节的类别包括实性结节、磨玻璃结节和部分实性结节。
6.根据权利要求5所述的肺结节检测和表征类别识别的系统,其特征在于:在对所述表征类别识别模型训练之前,对肺结节图像进行图像增强操作,具体为,将磨玻璃结节以及部分实性结节的肺结节图像在平面上进行随机左右上下翻转、随机对比度和锐度调整,并对每张肺结节图像进行随机的旋转;之后随机选取部分肺结节图像加入泊松噪声,以令该部分肺结节图像实现图像增强;并将这些图像增强后的肺结节图像与原本的所有肺结节图像集合成训练样本输入到表征类别识别模型中,并根据步骤S307训练表征类别识别模型。
7.根据权利要求6所述的肺结节检测和表征类别识别的系统,其特征在于:所述2d卷积神经网络采用的是inceptionV3网络模型;所述3d卷积神经网络采用的是C3D网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110293483.9A CN112700461B (zh) | 2021-03-19 | 2021-03-19 | 一种肺结节检测和表征类别识别的系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110293483.9A CN112700461B (zh) | 2021-03-19 | 2021-03-19 | 一种肺结节检测和表征类别识别的系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112700461A true CN112700461A (zh) | 2021-04-23 |
CN112700461B CN112700461B (zh) | 2021-07-27 |
Family
ID=75515266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110293483.9A Active CN112700461B (zh) | 2021-03-19 | 2021-03-19 | 一种肺结节检测和表征类别识别的系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112700461B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222946A (zh) * | 2021-05-19 | 2021-08-06 | 浙江卡易智慧医疗科技有限公司 | 一种肺结节尺寸计算的方法 |
CN115358976A (zh) * | 2022-08-10 | 2022-11-18 | 北京医准智能科技有限公司 | 一种图像识别方法、装置、设备及存储介质 |
CN115620899A (zh) * | 2022-12-01 | 2023-01-17 | 首都医科大学附属北京朝阳医院 | 基于多视野的3d卷积神经网络集成模型肺结节诊断系统 |
CN117058172A (zh) * | 2023-08-24 | 2023-11-14 | 吉林大学 | Ct图像多区域的分割方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035252A (zh) * | 2018-06-29 | 2018-12-18 | 山东财经大学 | 一种面向医学图像分割的超像素方法 |
US20190167222A1 (en) * | 2017-12-06 | 2019-06-06 | Chi Mei Medical Center | System and method for creating a three-dimensional bone image of a bone |
CN110110707A (zh) * | 2019-05-24 | 2019-08-09 | 苏州闪驰数控系统集成有限公司 | 人工智能cnn、lstm神经网络动态识别系统 |
-
2021
- 2021-03-19 CN CN202110293483.9A patent/CN112700461B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190167222A1 (en) * | 2017-12-06 | 2019-06-06 | Chi Mei Medical Center | System and method for creating a three-dimensional bone image of a bone |
CN109035252A (zh) * | 2018-06-29 | 2018-12-18 | 山东财经大学 | 一种面向医学图像分割的超像素方法 |
CN110110707A (zh) * | 2019-05-24 | 2019-08-09 | 苏州闪驰数控系统集成有限公司 | 人工智能cnn、lstm神经网络动态识别系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222946A (zh) * | 2021-05-19 | 2021-08-06 | 浙江卡易智慧医疗科技有限公司 | 一种肺结节尺寸计算的方法 |
CN115358976A (zh) * | 2022-08-10 | 2022-11-18 | 北京医准智能科技有限公司 | 一种图像识别方法、装置、设备及存储介质 |
CN115620899A (zh) * | 2022-12-01 | 2023-01-17 | 首都医科大学附属北京朝阳医院 | 基于多视野的3d卷积神经网络集成模型肺结节诊断系统 |
CN117058172A (zh) * | 2023-08-24 | 2023-11-14 | 吉林大学 | Ct图像多区域的分割方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112700461B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112700461B (zh) | 一种肺结节检测和表征类别识别的系统 | |
CN109685776B (zh) | 一种基于ct图像的肺结节检测方法及系统 | |
CN109447065B (zh) | 一种乳腺影像识别的方法及装置 | |
CN109523521B (zh) | 基于多切片ct图像的肺结节分类和病灶定位方法和系统 | |
CN110930416B (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
US6125194A (en) | Method and system for re-screening nodules in radiological images using multi-resolution processing, neural network, and image processing | |
Mahmood et al. | Breast lesions classifications of mammographic images using a deep convolutional neural network-based approach | |
CN110853011B (zh) | 用于肺结节检测的卷积神经网络模型的构建方法 | |
CN112150442A (zh) | 基于深度卷积神经网络及多实例学习的新冠诊断系统 | |
CN110766670A (zh) | 一种基于深度卷积神经网络的乳腺钼靶图像肿瘤定位算法 | |
JP7427080B2 (ja) | 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 | |
CN112991295B (zh) | 基于深度学习的淋巴结转移影像分析系统、方法及设备 | |
CN112132166A (zh) | 一种数字细胞病理图像智能分析方法、系统及装置 | |
CN112990214A (zh) | 一种医学图像特征识别预测模型 | |
CN116030325A (zh) | 基于深度混合学习框架的肺结节ct图像识别方法 | |
CN112053325A (zh) | 一种乳腺肿块图像处理和分类系统 | |
CN114332572B (zh) | 基于显著图引导分层密集特征融合网络用于提取乳腺病变超声图像多尺度融合特征参数方法 | |
CN117015796A (zh) | 处理组织图像的方法和用于处理组织图像的系统 | |
US20240054639A1 (en) | Quantification of conditions on biomedical images across staining modalities using a multi-task deep learning framework | |
Shankara et al. | Detection of lung cancer using convolution neural network | |
CN115423806B (zh) | 一种基于多尺度跨路径特征融合的乳腺肿块检测方法 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN113870194B (zh) | 深层特征和浅层lbp特征融合的乳腺肿瘤超声图像处理装置 | |
CN115880245A (zh) | 一种基于自监督的乳腺癌疾病分类方法 | |
Amit et al. | Automatic dual-view mass detection in full-field digital mammograms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |