CN113298782A - 具有可解释性的肾脏肿瘤识别方法及成像方法 - Google Patents
具有可解释性的肾脏肿瘤识别方法及成像方法 Download PDFInfo
- Publication number
- CN113298782A CN113298782A CN202110568856.9A CN202110568856A CN113298782A CN 113298782 A CN113298782 A CN 113298782A CN 202110568856 A CN202110568856 A CN 202110568856A CN 113298782 A CN113298782 A CN 113298782A
- Authority
- CN
- China
- Prior art keywords
- features
- image
- model
- kidney
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 208000008839 Kidney Neoplasms Diseases 0.000 title claims abstract description 62
- 238000003384 imaging method Methods 0.000 title claims abstract description 15
- 210000003734 kidney Anatomy 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000012216 screening Methods 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims description 44
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 239000000654 additive Substances 0.000 claims description 5
- 230000000996 additive effect Effects 0.000 claims description 5
- 238000013211 curve analysis Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 5
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30084—Kidney; Renal
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种具有可解释性的肾脏肿瘤识别方法,包括获取历史的肾脏CT图像并进行处理;在肾脏图像上标注感兴趣区域,提取感兴趣区域的多尺度分类特征并标识;筛选多尺度分类特征得到模型输入特征;构建初步肾脏肿瘤识别模型并采用模型输入特征训练得到肾脏肿瘤识别模型;采用肾脏肿瘤识别模型对实际肾脏CT图像进行识别和解释并完成具有可解释性的肾脏肿瘤识别。本发明还公开了一种包括所述具有可解释性的肾脏肿瘤识别方法的成像方法。本发明方法的训练速度快,稳定性强,而且具有可解释性,可靠性高,通用性好,准确率较高。
Description
技术领域
本发明属于图像处理领域,具体涉及一种具有可解释性的肾脏肿瘤识别方法及成像方法。
背景技术
随着经济技术的发展和人们生活水平的提高,人们对于健康的关注也越来越高。
CT检查在肾脏肿瘤筛查过程中,起着非常重要的辅助作用。目前,根据CT图像的肾脏肿瘤标记方法,主要依靠的还是医疗专业技术人员的人工识别和标记。但是,这种人工识别和标记的方法,不仅费时费力,而且极大地依赖于医疗专业技术人员的经验和技术,通用性不高。
随着技术的发展,机器学习方法和深度学习方法也已经开始逐步应用于肾脏肿瘤识别。1)传统的机器学习方法,如logistic回归、不同核的支持向量机、决策树和集成方法等,已经被用于识别肾脏肿瘤。(2)深度学习方法,如GoogLeNet和Inception,这些方法通常会在卷积神经网络(CNN)框架的最终输出上附加一个预测模块分支。
这些深度学习方法,由于从网络深层学习到丰富的语义信息,有助于目标识别从而提升了识别准确率。然而,现有的传统机器学习方法和深度学习方法这两类方法仍有局限性。第一,这些方法缺乏多尺度特征提取和融合以获得更好的性能:(1)传统的纹理特征不包含高级表示,这导致有限的分类特征表示和不准确的分类结果;(2)深度学习中浅层特征的空间细节通常被忽略,而深层中的高级特征处于低分辨率,这也通常导致较低的准确率。第二,这些方法仍然具有“黑匣子”本质,它们的工作原理对用户来说相当不透明,如何解释模型的输出仍然没有解决。
发明内容
本发明的目的之一在于提供一种具有可解释性,而且可靠性高、通用性好、准确率较高的具有可解释性的肾脏肿瘤识别方法。
本发明的目的之二在于提供一种包括了所述具有可解释性的肾脏肿瘤识别方法的成像方法。
本发明提供的这种具有可解释性的肾脏肿瘤识别方法,包括如下步骤:
S1.获取历史的肾脏CT图像并进行处理;
S2.在步骤S1处理后的肾脏图像上标注感兴趣区域,提取感兴趣区域的多尺度分类特征,并进行类别标识;
S3.对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征;
S4.构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型;
S5.采用步骤S4得到的肾脏肿瘤识别模型,对实际获取的肾脏CT图像进行识别和解释,从而完成具有可解释性的肾脏肿瘤识别。
步骤S1所述的获取历史的肾脏CT图像并进行处理,具体包括图像灰度范围选择、图像量化、像素位数设置和采样为设定大小的图像;图像灰度范围选择采用±3sigma法则,灰度范围为[μ-3σ,μ+3σ],μ为图像灰度平均值,σ为图像灰度标准差。
步骤S2所述的提取感兴趣区域的多尺度分类特征,并进行类别标识,具体包括提取传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征,然后以不同的标识符对图像进行标识,从而区分CT图像的类别;所述的传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征和CT图像的标识符构成原始样本数据。
所述的传统纹理特征包括73维的几何参数、9维的灰度直方图特征、220维的灰度共生矩阵特征、20维的灰度游程矩阵特征、5维的梯度模型参数特征、5维的自回归模型参数和20维的小波变换特征。
所述的深度学习浅层局部特征包括深度卷积ResNet-101网络的第171层res4b8_relu模块的1024维特征。
所述的深度学习深层全局特征包括深度卷积ResNet-101网络的第344层pool5模块的2048维特征。
步骤S3所述的对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征,具体包括采用最大相关最小冗余特征选择算法,对样本数据进行重要性权重排序,并将权重小于设定值的特征删除,从而得到模型输入特征。
步骤S4所述的构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型,具体包括采用极端随机树模型作为初步肾脏肿瘤识别模型,并融合SHapley Additive exPlanations(SHAP)方法来进行输出结果的解释;所述解释包括局部解释和全局解释;最后采用决策曲线分析(DCA)来评估模型的效用。
本发明还公开了一种成像方法,该成像方法采用上述具有可解释性的肾脏肿瘤识别方法,对CT图像的肾脏肿瘤进行识别,然后将识别结果在CT图像上进行二次标记和成像。
本发明提供的这种具有可解释性的肾脏肿瘤识别方法及成像方法,首先对CT图像进行标准化处理和采样处理,并标注肾脏肿瘤感兴趣区域(ROI);其次,提取感兴趣区域的多尺度分类特征,具体包括:传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征;而后,采用最大相关最小冗余算法分别对三类特征数据进行重要性权重排序,获得每类特征中最重要的模型输入特征并将其并联融合;再而,利用可解释的极端随机树(ET)对训练集中的每个样本进行训练,得到极端随机树肾脏肿瘤识别训练模型;最后,利用训练模型对实际待测的肾脏肿瘤进行检测和分类,并给出预测解释;因此,本发明方法的训练速度快,稳定性强,而且具有可解释性,可靠性高,通用性好,准确率较高。
附图说明
图1为本发明的识别方法的方法流程示意图。
图2为本发明的识别方法中的传统纹理特征的流程示意图。
图3为本发明的识别方法中的深度学习浅层局部特征和深度学习深层全局特征的流程示意图。
图4为本发明的识别方法的实施例中的提取的不同特征类型示意图。
图5为本发明的识别方法的实施例中的混淆矩阵的实验结果示意图。
图6为本发明的识别方法的实施例中的受试者工作特征曲线的实验结果示意图。
图7为本发明的识别方法的实施例中的可解性的模型预测实验结果示意图。
图8为本发明的识别方法的实施例中的临床效用实验结果示意图。
具体实施方式
如图1所示为本发明的识别方法的方法流程示意图:本发明提供的这种具有可解释性的肾脏肿瘤识别方法,包括如下步骤:
S1.获取历史的肾脏CT图像并进行处理;具体包括图像灰度范围选择、图像量化、像素位数设置和采样为设定大小的图像;图像灰度范围选择采用±3sigma法则,灰度范围为[μ-3σ,μ+3σ],μ为图像灰度平均值,σ为图像灰度标准差;
S2.在步骤S1处理后的肾脏图像上标注感兴趣区域,提取感兴趣区域的多尺度分类特征,并进行类别标识;具体包括提取传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征,然后以不同的标识符对图像进行标识,从而区分CT图像的类别;所述的传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征和CT图像的标识符构成原始样本数据;
具体实施时,传统纹理特征包括73维的几何参数、9维的灰度直方图特征、220维的灰度共生矩阵特征、20维的灰度游程矩阵特征、5维的梯度模型参数特征、5维的自回归模型参数和20维的小波变换特征;深度学习浅层局部特征包括深度卷积ResNet-101网络的第171层res4b8_relu模块的1024维特征;深度学习深层全局特征包括深度卷积ResNet-101网络的第344层pool5模块的2048维特征;
S3.对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征;具体包括采用最大相关最小冗余特征选择算法,对样本数据进行重要性权重排序,并将权重小于设定值的特征删除,从而得到模型输入特征;
S4.构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型;具体包括采用极端随机树模型作为初步肾脏肿瘤识别模型,并融合SHapley Additive exPlanations(SHAP)方法来进行输出结果的解释;所述解释包括局部解释和全局解释;最后采用决策曲线分析(DCA)来评估模型的效用;
S5.采用步骤S4得到的肾脏肿瘤识别模型,对实际获取的肾脏CT图像进行识别和解释,从而完成具有可解释性的肾脏肿瘤识别。
以下结合实施例,对本发明方法进行进一步说明:
步骤S1:对CT图像进行标准化处理和采样处理,具体包括:图像灰度范围选择、图像量化、像素位数设置和采样为512*512大小的图像。其中输入灰度范围采用±3sigma法则,其灰度范围为[μ-3σ,μ+3σ],μ代表图像灰度平均值,σ代表图像灰度标准差;
步骤S2:标注CT图像的肾脏肿瘤感兴趣区域(ROI)并提取感兴趣区域的多尺度分类特征,具体包括:传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征;
所述的传统纹理特征涉及7种不同类型共352维特征,具体包括:73维的几何参数、9维的灰度直方图特征、220维的灰度共生矩阵特征、20维的灰度游程矩阵特征、5维的梯度模型参数特征、5维的自回归模型参数和20维的小波变换特征。本发明提取传统纹理特征的流程示意图如图2所示。
所述的深度学习浅层局部特征为深度卷积ResNet-101网络的第171层res4b8_relu模块的1024维特征;所述的深度学习深层全局特征为深度卷积ResNet-101网络的第344层pool5模块的2048维特征;本发明提取深度学习浅层局部特征和深度学习深层全局特征的流程示意图如图3所示。
在本发明一实施例中,原始CT图像、传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征的图像对比如图4(a)~4(d)所示。
在本发明一实施例中,继而以不同的标识符对肾脏患病情况进行标识。比如标识为0、1、2等;该些传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征和类别标识符构成原始样本数据;
步骤S3:将所述传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征分别进行特征筛选,均采用最大相关最小冗余(mRMR)特征选择算法对三类样本数据进行重要性权重排序,权重小于预设阈值的特征将被移除,获得每类特征中最重要的模型输入特征;在本发明一实施例中,每种类型特征中选择重要性权重排序前10的特征;
步骤S4:将所述每类特征中最重要的模型输入特征进行并联融合得到新的样本数据,共计30维的特征作为模型的输入特征,并将这些新的样本数据随机分成训练集和测试集,利用可解释的极端随机树(ET)算法对训练集中的每个样本进行训练,得到极端随机树(ET)肾脏肿瘤识别训练模型;
步骤S5:利用所述极端随机树(ET)肾脏肿瘤识别训练模型,对实际待测的肾脏肿瘤进行识别和分类,并给出预测解释和临床效益。
在本发明一实施例中,21个病人共计1707张CT图像参与模型测试,模型的肾脏图像的识别精度为73.9%,曲线下面积(AUC)为0.803,测试结果的混淆矩阵如图5所示,测试结果的受试者工作特性曲线如图6所示。
在本发明一实施例中,所述可解释的极端随机树(ET)肾脏肿瘤识别训练模型融合SHapley Additive exPlanations(SHAP)方法来进行输出结果的解释,包括局部解释和全局解释。可解释的模型预测结果如图7所示,其中图7(a)为局部解释,局部解释只是检查一个输入变量,并说明为什么模型会做出某种决定。在图中输出值(本发明一实施例中模型输出值为0.7)的左侧的特征推动模型预测结果增大,而输出值右侧的特征促使模型预测结果较小,特征线段的长度代表该特征对模型预测结果的贡献大小。图7(b)为全局解释,全局解释意味着用户可以直接从模型的结构中理解整个模型,可以看到整个测试集的可解释预测输出。
所述可解释的极端随机树(ET)肾脏肿瘤识别训练模型采用决策曲线分析(DCA)来评估模型的临床效益。在本发明一实施例中,模型的临床效益结果图如图8所示,可以看到,本发明提出的方法具有很好的应用价值。
进一步的,在本实施例中,为了说明ResNet-101迁移学习在提取CT图像深度学习特征的优越性,对一些流行的预训练深度CNN模型的分类性能进行了研究。表1中比较了六种预训练深度CNN模型,从中可以明显看出,本发明采用的ResNet-101比先进的预训练CNN分类方法,如DenseNet-201、GoogLeNet、Inception-v3、ShuffleNet和Xception,取得更好的结果。
表1几种预训练深度CNN模型的性能比较示意表
进一步的,在本实施例中,为了进一步说明本发明提出的可解释方法的优越性,将可解释的极端随机树(ET)分类模型与决策树(DT)、随机森林(RF)、梯度增强分类器(GBC)、极端梯度提升分类器(XGBoost)和CatBoost分类器进行性能对比,实验结果如表2所示。
表2 ResNet-101融合最新集成树分类方法的性能比较示意表
显然,本发明提出的方法优于六种先进的深度CNN迁移学习方法和五种先进的集成树方法。此外,在公开COIL-100数据集上实现了所提出的模型,以评估本发明提出方法的泛化性能,获得了良好的准确率(99.81%)。
最后,本发明还公开了一种成像方法,该成像方法采用上述具有可解释性的肾脏肿瘤识别方法,对CT图像的肾脏肿瘤进行识别,然后将识别结果在CT图像上进行二次标记和成像。
具体实施时,该成像方法可以应用于针对肾脏进行检查并获取对应CT图像的检测设备;应用时,设备首先按照现有技术获取对应的肾脏CT图像,然后采用上述的具有可解释性的肾脏肿瘤识别方法对获取的肾脏CT图像进行检测和识别,然后将识别结果在获取的肾脏CT图像上进行标记和二次成像,然后输出最终的带有肾脏CT图像及标记和识别结果的CT图像。
所述成像方法包括如下步骤:
S1.获取历史的肾脏CT图像并进行处理;
S2.在步骤S1处理后的肾脏图像上标注感兴趣区域,提取感兴趣区域的多尺度分类特征,并进行类别标识;
S3.对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征;
S4.构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型;
S5.采用步骤S4得到的肾脏肿瘤识别模型,对实际获取的肾脏CT图像进行识别和解释,从而完成具有可解释性的肾脏肿瘤识别;
S6.采用步骤S5得到的识别结果,在获取的CT图像上,将识别结果进行标记和二次成像,从而完成对应的成像。
步骤S1所述的获取历史的肾脏CT图像并进行处理,具体包括图像灰度范围选择、图像量化、像素位数设置和采样为设定大小的图像;图像灰度范围选择采用±3sigma法则,灰度范围为[μ-3σ,μ+3σ],μ为图像灰度平均值,σ为图像灰度标准差。
步骤S2所述的提取感兴趣区域的多尺度分类特征,并进行类别标识,具体包括提取传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征,然后以不同的标识符对图像进行标识,从而区分CT图像的类别;所述的传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征和CT图像的标识符构成原始样本数据。
所述的传统纹理特征包括73维的几何参数、9维的灰度直方图特征、220维的灰度共生矩阵特征、20维的灰度游程矩阵特征、5维的梯度模型参数特征、5维的自回归模型参数和20维的小波变换特征。
所述的深度学习浅层局部特征包括深度卷积ResNet-101网络的第171层res4b8_relu模块的1024维特征。
所述的深度学习深层全局特征包括深度卷积ResNet-101网络的第344层pool5模块的2048维特征。
步骤S3所述的对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征,具体包括采用最大相关最小冗余特征选择算法,对样本数据进行重要性权重排序,并将权重小于设定值的特征删除,从而得到模型输入特征。
步骤S4所述的构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型,具体包括采用极端随机树模型作为初步肾脏肿瘤识别模型,并融合SHapley Additive exPlanations(SHAP)方法来进行输出结果的解释;所述解释包括局部解释和全局解释;最后采用决策曲线分析(DCA)来评估模型的效用。
Claims (9)
1.一种具有可解释性的肾脏肿瘤识别方法,包括如下步骤:
S1.获取历史的肾脏CT图像并进行处理;
S2.在步骤S1处理后的肾脏图像上标注感兴趣区域,提取感兴趣区域的多尺度分类特征,并进行类别标识;
S3.对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征;
S4.构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型;
S5.采用步骤S4得到的肾脏肿瘤识别模型,对实际获取的肾脏CT图像进行识别和解释,从而完成具有可解释性的肾脏肿瘤识别。
2.根据权利要求1所述的具有可解释性的肾脏肿瘤识别方法,其特征在于步骤S1所述的获取历史的肾脏CT图像并进行处理,具体包括图像灰度范围选择、图像量化、像素位数设置和采样为设定大小的图像;图像灰度范围选择采用±3sigma法则,灰度范围为[μ-3σ,μ+3σ],μ为图像灰度平均值,σ为图像灰度标准差。
3.根据权利要求2所述的具有可解释性的肾脏肿瘤识别方法,其特征在于步骤S2所述的提取感兴趣区域的多尺度分类特征,并进行类别标识,具体包括提取传统纹理特征、深度学习浅层局部特征和深度学习深层全局特征,然后以不同的标识符对图像进行标识,从而区分CT图像的类别;所述的传统纹理特征、深度学习浅层局部特征、深度学习深层全局特征和CT图像的标识符构成原始样本数据。
4.根据权利要求3所述的具有可解释性的肾脏肿瘤识别方法,其特征在于所述的传统纹理特征包括73维的几何参数、9维的灰度直方图特征、220维的灰度共生矩阵特征、20维的灰度游程矩阵特征、5维的梯度模型参数特征、5维的自回归模型参数和20维的小波变换特征。
5.根据权利要求3所述的具有可解释性的肾脏肿瘤识别方法,其特征在于所述的深度学习浅层局部特征包括深度卷积ResNet-101网络的第171层res4b8_relu模块的1024维特征。
6.根据权利要求3所述的具有可解释性的肾脏肿瘤识别方法,其特征在于所述的深度学习深层全局特征包括深度卷积ResNet-101网络的第344层pool5模块的2048维特征。
7.根据权利要求3所述的具有可解释性的肾脏肿瘤识别方法,其特征在于步骤S3所述的对步骤S2获取的多尺度分类特征进行筛选,从而得到模型输入特征,具体包括采用最大相关最小冗余特征选择算法,对样本数据进行重要性权重排序,并将权重小于设定值的特征删除,从而得到模型输入特征。
8.根据权利要求7所述的具有可解释性的肾脏肿瘤识别方法,其特征在于步骤S4所述的构建初步肾脏肿瘤识别模型,并采用步骤S3得到的模型输入特征对该模型进行训练,从而得到肾脏肿瘤识别模型,具体包括采用极端随机树模型作为初步肾脏肿瘤识别模型,并融合SHapley Additive exPlanations(SHAP)方法来进行输出结果的解释;所述解释包括局部解释和全局解释;最后采用决策曲线分析(DCA)来评估模型的效用。
9.一种成像方法,其特征在于采用权利要求1~8之一所述的具有可解释性的肾脏肿瘤识别方法,对CT图像的肾脏肿瘤进行识别,然后将识别结果在CT图像上进行二次标记和成像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110568856.9A CN113298782A (zh) | 2021-05-25 | 2021-05-25 | 具有可解释性的肾脏肿瘤识别方法及成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110568856.9A CN113298782A (zh) | 2021-05-25 | 2021-05-25 | 具有可解释性的肾脏肿瘤识别方法及成像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113298782A true CN113298782A (zh) | 2021-08-24 |
Family
ID=77324586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110568856.9A Pending CN113298782A (zh) | 2021-05-25 | 2021-05-25 | 具有可解释性的肾脏肿瘤识别方法及成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298782A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190058036A (ko) * | 2017-11-21 | 2019-05-29 | 서울여자대학교 산학협력단 | 컴퓨터 단층 촬영 영상에서 딥러닝 특징과 형상 특징을 이용한 혈관근지방종과 투명세포 신세포암 분류 장치 및 방법 |
US20200160997A1 (en) * | 2018-11-02 | 2020-05-21 | University Of Central Florida Research Foundation, Inc. | Method for detection and diagnosis of lung and pancreatic cancers from imaging scans |
CN111209916A (zh) * | 2019-12-31 | 2020-05-29 | 中国科学技术大学 | 病灶识别方法及系统、识别设备 |
US20200395123A1 (en) * | 2019-06-16 | 2020-12-17 | International Business Machines Corporation | Systems and methods for predicting likelihood of malignancy in a target tissue |
CN112598630A (zh) * | 2020-12-16 | 2021-04-02 | 深圳前海微众银行股份有限公司 | 肺结节检测方法、设备、介质及计算机程序产品 |
CN112800980A (zh) * | 2021-02-01 | 2021-05-14 | 南京航空航天大学 | 一种基于多层次特征的sar目标识别方法 |
-
2021
- 2021-05-25 CN CN202110568856.9A patent/CN113298782A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190058036A (ko) * | 2017-11-21 | 2019-05-29 | 서울여자대학교 산학협력단 | 컴퓨터 단층 촬영 영상에서 딥러닝 특징과 형상 특징을 이용한 혈관근지방종과 투명세포 신세포암 분류 장치 및 방법 |
US20200160997A1 (en) * | 2018-11-02 | 2020-05-21 | University Of Central Florida Research Foundation, Inc. | Method for detection and diagnosis of lung and pancreatic cancers from imaging scans |
US20200395123A1 (en) * | 2019-06-16 | 2020-12-17 | International Business Machines Corporation | Systems and methods for predicting likelihood of malignancy in a target tissue |
CN111209916A (zh) * | 2019-12-31 | 2020-05-29 | 中国科学技术大学 | 病灶识别方法及系统、识别设备 |
CN112598630A (zh) * | 2020-12-16 | 2021-04-02 | 深圳前海微众银行股份有限公司 | 肺结节检测方法、设备、介质及计算机程序产品 |
CN112800980A (zh) * | 2021-02-01 | 2021-05-14 | 南京航空航天大学 | 一种基于多层次特征的sar目标识别方法 |
Non-Patent Citations (6)
Title |
---|
GUOKAI ZHANG ET AL: "Multi-scale pulmonary nodule classification with deep feature fusion via residual network", 《JOURNAL OF AMBIENT INTELLIGENCE AND HUMANIZED COMPUTING》 * |
XIAOXI LIANG ET AL: "Facial feature extraction method based on shallow and deep fusion CNN", 《2017 13TH INTERNATIONAL CONFERENCE ON NATURAL COMPUTATION, FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY》 * |
梁翠霞: "乳腺肿瘤FFDM图像特征分析与良恶性鉴别研究", 《中国优秀博硕士学位论文全文数据库(硕士) 医药卫生科技辑》 * |
董梦艺等: "基于CT的影像组学术前预测胃癌Ki-67表达水平的研究", 《国际医学放射学杂志》 * |
金飞等: "《遥感影像纹理分析与应用》", 31 July 2019, 测绘出版社 * |
陈皓等: "基于CT征象量化分析的肺结节恶性度分级", 《电子与信息学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977671B (zh) | 一种基于多任务卷积神经网络的舌象分类方法 | |
CN110717534B (zh) | 一种基于网络监督的目标分类和定位方法 | |
Kromp et al. | Evaluation of deep learning architectures for complex immunofluorescence nuclear image segmentation | |
CN107133651B (zh) | 基于超网络判别子图的功能磁共振影像数据分类方法 | |
CN112101451A (zh) | 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法 | |
Ben-Ari et al. | Domain specific convolutional neural nets for detection of architectural distortion in mammograms | |
Pan et al. | Cell detection in pathology and microscopy images with multi-scale fully convolutional neural networks | |
CN113706434B (zh) | 基于深度学习对胸部增强ct图像的后处理方法 | |
CN108062749B (zh) | 肛提肌裂孔的识别方法、装置和电子设备 | |
CN110796661B (zh) | 基于卷积神经网络的真菌显微图像分割检测方法及系统 | |
CN108392213B (zh) | 基于绘画心理学的心理分析方法及装置 | |
CN113112498B (zh) | 一种基于细粒度对抗生成网络的葡萄叶片病斑识别方法 | |
CN114600155A (zh) | 用于细胞检测和分割的弱监督多任务学习 | |
CN112819747A (zh) | 一种基于肺部断层扫描图片自动诊断结节良恶性的方法 | |
CN111767952A (zh) | 一种可解释的肺结节良恶性分类方法 | |
CN110634118A (zh) | 基于人工智能的乳腺影像识别系统及方法 | |
CN114820555A (zh) | 基于SENet通道注意力和迁移学习的乳腺癌病理图像分类方法 | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN113298782A (zh) | 具有可解释性的肾脏肿瘤识别方法及成像方法 | |
Jadah et al. | Breast Cancer Image Classification Using Deep Convolutional Neural Networks | |
Patel et al. | Surface defect detection using SVM‐based machine vision system with optimized feature | |
CN113177499A (zh) | 基于计算机视觉的舌裂纹形状识别方法及识别系统 | |
CN112465821A (zh) | 一种基于边界关键点感知的多尺度害虫图像检测方法 | |
CN116958128B (zh) | 基于深度学习的医学图像自动定位方法 | |
Fadlil et al. | Butterfly Image Identification Using Multilevel Thresholding Segmentation and Convolutional Neural Network Classification with Alexnet Architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210824 |
|
RJ01 | Rejection of invention patent application after publication |