CN117315380A - 一种基于深度学习的肺炎ct图像分类方法及系统 - Google Patents

一种基于深度学习的肺炎ct图像分类方法及系统 Download PDF

Info

Publication number
CN117315380A
CN117315380A CN202311615618.4A CN202311615618A CN117315380A CN 117315380 A CN117315380 A CN 117315380A CN 202311615618 A CN202311615618 A CN 202311615618A CN 117315380 A CN117315380 A CN 117315380A
Authority
CN
China
Prior art keywords
pneumonia
image
classification
pev
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311615618.4A
Other languages
English (en)
Other versions
CN117315380B (zh
Inventor
王兴国
尹智星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jianyikang Medical Instrument Technology Co ltd
Original Assignee
Shenzhen Jianyikang Medical Instrument Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jianyikang Medical Instrument Technology Co ltd filed Critical Shenzhen Jianyikang Medical Instrument Technology Co ltd
Priority to CN202311615618.4A priority Critical patent/CN117315380B/zh
Publication of CN117315380A publication Critical patent/CN117315380A/zh
Application granted granted Critical
Publication of CN117315380B publication Critical patent/CN117315380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的肺炎CT图像分类方法及系统,涉及CT图像分类技术领域,该系统包括如何各个依次运行的模块:数据预处理模块、特征提取模块、分类训练模块、预测评估模块以及调整策略模块;其技术要点为:该图像分类系统利用深度学习的卷积神经网络,结合分类训练模块的使用,通过大规模的训练和优化,能够提高图像分类的准确性,且图像分类系统可对图像分类系统的实时预测处理,综合考了各个经过计算处理后的衡量参数后,能够确保生成性能评估值Pev的有效性和准确性,根据性能评估值Pev能够快速判定出图像分类系统的性能水平,并依据性能评估值Pev做出相应的调整策略,提高肺炎CT图像分类判断的效率。

Description

一种基于深度学习的肺炎CT图像分类方法及系统
技术领域
本发明涉及CT图像分类技术领域,具体为一种基于深度学习的肺炎CT图像分类方法及系统。
背景技术
CT图像分类技术是指利用计算机视觉和机器学习方法对CT图像进行分类的技术,CT图像分类的目标是根据CT图像中的特征和模式来判断图像所代表的目标或病变类型,具体针对肺炎CT图像进行分类的技术,其是可以应用于肺炎的自动诊断和筛查,辅助医生进行肺炎的检测和分类。
现有申请公布号为CN114549480A的专利中指出的技术方案包括:步骤一、预处理:在nnU-Net网络中输入原始肺部CT三维图像进行预处理;步骤二、三维采样:在肺部感兴趣的区域提取相互重叠的局部片块图像;步骤三、肺叶分割:采用DenseVNet网络对预处理后的图像进行肺叶分割,得到结果后利用分块的中间点为种子点进行区域生长;步骤四、肺炎病灶分割和鉴别:以左右肺叶为感兴趣区域,找出其最小包围盒,进行裁剪,对裁剪后的图像输入到3DUnet分割网络后通过分类网络自动进行鉴别诊断;步骤五、病灶量化:统计肺炎病灶在肺叶中的分布,得到肺炎在每个肺叶中的具体分布情况;
另有申请公布号为CN111681219A的专利中指出的技术方案包括:包括:从一个CT序列中选择n张图像输入到预先训练好的第一肺炎深度学习模型进行分类,得到是否患有肺炎的分类结果;将患有肺炎的图像输入到预先训练好的第二肺炎深度学习模型进行分类,得到病人是否患有肺炎的第一分类结果;将患有肺炎的图像对应的临床诊断特征数据输入到预先训练好的SVM模型进行分类,得到是否患有肺炎的第二分类结果;将第一分类结果和第二分类结果进行融合,根据融合结果得到病人是否患有肺炎的分类结果。
然而,上述的两项专利中所采取的方案均是为提高获取分类结果的效率及准确性,结合现有技术而言,在对肺炎CT图像进行分类和识别的过程中,往往是利用相关算法和网络搭建的模型进行自动识别,对于模型的维护并未提及,搭建完对应的模型后进行直接使用,从而能够实现对肺炎CT图像的高效分类,对于所搭建的模型性能水平无法做出准确、有效的判定,若是所搭建的模型性能水平较低,则会影响对肺炎CT图像分类判断的准确性,同时判断效率也得不到提升。
发明内容
针对现有技术的不足,本发明提供了一种基于深度学习的肺炎CT图像分类方法及系统,该图像分类系统利用深度学习的卷积神经网络,结合分类训练模块的使用,通过大规模的训练和优化,能够提高图像分类的准确性,利用相互配合的预测评估模块和调整策略模块,实现对图像分类系统的实时预测处理,综合考了各个经过计算处理后的衡量参数后,能够确保生成性能评估值Pev的有效性和准确性,根据性能评估值Pev能够快速判定出图像分类系统的性能水平,并依据性能评估值Pev做出相应的调整策略,提高肺炎CT图像分类判断的效率,解决了背景技术中提出的问题。
为实现以上目的,本发明通过以下技术方案予以实现:
一种基于深度学习的肺炎CT图像分类系统,包括:
数据预处理模块,对肺炎CT图像进行预处理,包括图像的缩放、裁剪和灰度化处理;
特征提取模块,采用深度学习的卷积神经网络来提取肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络学习并提取图像中的区域性和全局性特征,其特征在于:
分类训练模块,使用已经提取的特征作为输入,结合分类模型进行训练,且分类模型根据已有的标注数据学习到一个分类器,将肺炎CT图像分类为真肺炎或假肺炎;
预测评估模块,应用分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比,得到对比结果;
若是性能评估值Pev超过评估阈值Pol,则不做出响应动作;若是性能评估值Pev未超过评估阈值Pol,则触发调整策略模块,利用网络搜索的方式调整卷积神经网络的超参数,直至性能评估值Pev超过评估阈值Pol。
进一步的,在分类训练模块中,分类模型包括支持向量机、随机森林和多层感知机。
进一步的,将支持向量机作为分类模型时,分类训练模块的运行过程为:将提取的特征作为输入,使真肺炎CT图像和假肺炎CT图像分别标记为正例和负例,通过训练后,支持向量机调整自身的决策边界,使其区分正例和负例,在训练完成后,支持向量机通过输入一个新的CT图像,根据学到的决策边界,判断该图像是否属于真肺炎CT图像。
进一步的,对于分类模型的训练,需要有一组已经标注好的数据作为训练集,已有的标注数据是带有标签的肺炎CT图像,标签表示图像是否为肺炎。
进一步的,学习一个分类器的过程包括如下步骤:
S101、数据准备:将已有的标注数据划分为训练集和验证集;
S102、特征提取:对肺炎CT图像进行特征提取,获取图像的特征作为分类任务输入;
S103、数据标注转换:将真肺炎和假肺炎的标签转换为分类任务所需的标签;
S104、模型训练:使用训练集的特征和标签,结合分类模型,进行模型的训练,训练过程中,通过优化模型的损失函数,不断调整模型的参数;
S105、模型验证和调优:使用验证集评估训练得到的分类器性能,并根据评估结果进行模型调优,通过调整模型超参数或增加模型复杂度的方法改进分类器的泛化能力;
S106、模型应用:经过训练和调优后,得到一个能够将肺炎CT图像分类为真肺炎或假肺炎的分类器。
进一步的,在预测评估模块中,衡量参数包括准确率、召回率/>以及F1-score指标/>,分类模型进行相同预测操作的次数为F次,且F=1、2、…、n,n为正整数。
进一步的,准确率表示分类模型预测正确的样本比例,计算公式为:准确率=预测正确的样本数/总样本数;召回率/>表示分类模型正确预测为真肺炎的样本占真实肺炎样本的比例,计算公式为:召回率=真正例/ (真正例+假反例);F1-score指标/>表示综合考虑了准确率和召回率的综合评价指标,计算公式为:F1-score指标= 2*(准确率*召回率)/ (准确率+召回率)。
进一步的,获取性能评估值Pev的过程为:
S201、获取准确率平均值、召回率平均值/>以及F1-score指标平均值/>,其中,准确率平均值/>的计算公式为:准确率平均值/>=(/>)/F,召回率平均值/>和F1-score指标平均值/>的计算公式与准确率平均值/>的计算公式相同;
S202、获取性能评估值Pev所依据的公式如下:
式中,、/>、/>分别为准确率平均值/>、召回率平均值/>以及F1-score指标平均值的预设比例系数,且/>,G为常数修正系数。
进一步的,还包括触发调整策略模块内置的模型切换子模块,若是超出预定时间周期T,还是无法使性能评估值Pev超过评估阈值Pol,则切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止。
一种基于深度学习的肺炎CT图像分类方法,包括如下步骤:
步骤一、对肺炎CT图像进行预处理,包括图像的缩放、裁剪和灰度化处理;
步骤二、采用深度学习的卷积神经网络来提取肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络学习并提取图像中的区域性和全局性特征;
步骤三、使用已经提取的特征作为输入,结合分类模型进行训练,且分类模型根据已有的标注数据学习到一个分类器,将肺炎CT图像分类为真肺炎或假肺炎,分类模型包括支持向量机、随机森林和多层感知机中的任一种;
步骤四、应用分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比;
若是性能评估值Pev超过评估阈值Pol,则不做出响应动作;
若是性能评估值Pev未超过评估阈值Pol,则利用网络搜索的方式调整卷积神经网络的超参数,直至性能评估值Pev超过评估阈值Pol,若是超出预定时间周期T,还是无法使性能评估值Pev超过评估阈值Pol,则切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止。
本发明提供了一种基于深度学习的肺炎CT图像分类方法及系统,具备以下有益效果:
1、本发明利用深度学习的卷积神经网络,应对不同肺炎CT图像的变化,能够适应不同的数据质量和采集设备,结合分类训练模块的使用,通过大规模的训练和优化,能够提高图像分类的准确性,从而帮助后续对肺炎的诊断工作,提高医疗工作效率;
2、本发明在设计针对肺炎CT图像的图像分类系统时,利用相互配合的预测评估模块和调整策略模块,实现对图像分类系统的实时预测处理,综合考了各个经过计算处理后的衡量参数后,能够确保生成性能评估值Pev的有效性和准确性,在将性能评估值Pev与评估阈值Pol做出对比后,能够确定图像分类系统的性能是否达标,即使不达标也给出了相应的调整策略,在保证图像分类系统性能的基础上,实现高效的对肺炎CT图像进行分类。
附图说明
图1为本发明基于深度学习的肺炎CT图像分类系统的模块化原理结构示意图;
图2为本发明基于深度学习的肺炎CT图像分类方法的整体流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:请参阅图1,本实施例提供一种基于深度学习的肺炎CT图像分类系统,包括各个依次运行的模块:数据预处理模块、特征提取模块、分类训练模块、预测评估模块以及调整策略模块;
其中,数据预处理模块,对获取的肺炎CT图像进行预处理,包括但不限于图像的缩放、裁剪和灰度化处理,以便后续的特征提取和分类操作,该处的肺炎CT图像是待确认的图像信息,故,在后续区分时可分为真肺炎CT图像和假肺炎CT图像;
图像缩放:CT图像的分辨率可能会因设备的不同而有所差异,为了保持一致性,可以将图像进行缩放,常用的缩放方法是将图像的宽度和高度按比例缩小或放大,以达到想要的大小;图像裁剪:根据具体任务的需求,可以对图像进行裁剪,去除图像中无关的区域;例如,可以裁剪掉图像边缘的黑边或去掉与肺部无关的区域,提取出肺部感兴趣的区域;灰度化处理:将彩色CT图像转换为灰度图像,由于灰度图像只有一个通道,便于后续的处理和特征提取,可以使用通用的灰度化算法,如将RGB图像的红、绿、蓝三个通道的像素值按照一定比例加权求和;
举例说明:假设需要处理一张肺炎CT图像,宽度为1000像素,高度为800像素;
首先,可以将图像缩放为宽度为500像素、高度为400像素,以便于后续处理;接着,根据任务需求,裁剪掉图像四周的黑边,只保留中间的肺部区域;最后,将剩余的图像转换为灰度图像,得到一张500*400的灰度图像,用于后续的特征提取和分类操作。
特征提取模块,采用深度学习的卷积神经网络来提取经过预处理后的肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络可以自动学习并提取图像中的区域性和全局性特征;在特征提取模块中,使用深度学习的卷积神经网络(CNN)可以自动学习和提取肺炎CT图像的特征;具体内容如下:
卷积层:卷积层通过卷积操作应用一组过滤器(即卷积核)来提取图像的局部特征,每个卷积核在图像上滑动,并计算与过滤器对应位置的像素值和权重的乘积的总和,生成一个新的特征图,网络中的不同卷积核可以提取不同的特征,例如边缘、纹理以及形状;
激活函数:在卷积层后引入激活函数,如ReLU,可以引入非线性映射,增加网络的非线性建模能力,激活函数对特征图中的每个像素进行逐元素的非线性变换,增强特征的表达能力;
池化层:池化层对特征图进行下采样,减小特征图的尺寸并保留重要特征,常见的池化操作是最大池化,在每个池化区域内选择最大值作为输出值,池化操作能够提取图像的平移不变性和空间不变性,减少运算量和参数数量;
多层卷积和池化操作:通过叠加多层卷积和池化操作,网络可以逐渐提取出图像的高层次特征,从低级特征(如边缘和纹理)到高级特征(如结构和形状)。
举例说明:假设需要使用一个具有两层卷积层和池化层的CNN;
在第一层卷积层中,使用多个不同大小的卷积核来捕捉不同尺度的特征,如边缘和纹理;在第一个池化层中,使用最大池化操作来减小特征图的尺寸,并保留重要特征;接着,将得到的特征图输入到第二层卷积层,进一步提取更高级的特征,如图像的结构和形状;在第二个池化层后,得到的特征图可以用作后续任务(如分类或检测)的输入,通过不断叠加多层卷积和池化操作,网络能够学习到更抽象和有意义的特征,用于肺炎CT图像的分类和识别。
具体的,本发明利用深度学习的卷积神经网络,应对不同肺炎CT图像的变化,具有较好的鲁棒性,并能够适应不同的数据质量和采集设备,结合分类训练模块的使用,通过大规模的训练和优化,能够提高图像分类的准确性,从而帮助后续对肺炎的诊断工作,提高医疗工作效率。
分类训练模块,使用已经提取的特征作为输入,结合分类模型进行训练,该分类模型包括支持向量机(SVM)、随机森林(Random Forest)或者多层感知机(MLP),且分类模型根据已有的标注数据学习到一个分类器,将CT图像分类为肺炎或非肺炎;
例如,使用支持向量机(SVM)作为分类模型时;首先,将提取的特征作为输入,将真肺炎CT图像和假肺炎CT图像分别标记为正例和负例;然后,通过训练过程,SVM会调整自身的决策边界,使得其能够最好地区分这两个类别,在训练完成后,SVM可以通过输入一个新的肺炎CT图像,根据学到的决策边界,判断该图像是否属于真肺炎CT图像;这样的分类模型训练方法可以应用于肺炎CT图像分类任务,结合不同的分类模型和特征提取方法,选择适合的模型和特征,以获得较好的分类效果。
需要说明的是:随机森林(Random Forest)是一种集成学习方法,由多个决策树(Decision Tree)组成,每个决策树通过随机选择特征和样本子集进行训练,然后根据每个决策树的投票结果来进行最终分类,随机森林在处理分类和回归问题时表现良好,能够有效地处理大量的特征和样本,并具备一定的抗过拟合能力;多层感知机(MultilayerPerceptron,MLP)是一种基于人工神经网络的分类器,它由多个神经元层组成,每一层都与前一层的神经元相连接,MLP通过正向传播和反向传播算法进行训练,以学习特征的映射关系,并实现分类任务,MLP能够学习非线性关系,并且在大规模数据集上具有强大的表达能力。
对于分类模型的训练,需要有一组已经标注好的数据作为训练集,在该任务中,已有的标注数据是带有标签的肺炎CT图像,标签表示图像是否为肺炎;
学习一个分类器的过程主要分为以下几个步骤:
S101、数据准备:将已有的标注数据划分为训练集和验证集,训练集用于训练分类器,验证集用于评估分类器性能;
S102、特征提取:对肺炎CT图像进行特征提取操作,获取图像的特征表示作为分类任务的输入,该步骤已经在特征提取模块中进行了具体说明,由于原理相同,故在此不多做赘述;
S103、数据标注转换:将真肺炎和假肺炎的标签转换为分类任务所需的标签;例如,可以将肺炎标签设为1,非肺炎标签设为0;
S104、模型训练:使用训练集的特征和标签,结合分类模型,进行模型的训练;训练过程中,通过优化模型的损失函数,不断调整模型的参数,使其能够更好地拟合训练数据;
S105、模型验证和调优:使用验证集评估训练得到的分类器性能,并根据评估结果进行模型调优,通过调整模型超参数、增加模型复杂度的方法改进分类器的泛化能力;
S106、模型应用:经过训练和调优后,得到一个能够将肺炎CT图像分类为真肺炎或假肺炎的分类器,该处的真肺炎即为真肺炎CT图像,假肺炎为假肺炎CT图像。
需要注意的是,分类模型的训练需要足够的标注数据和适当的数据预处理、特征提取方法,以及合适的模型选择和调优策略,才能得到高性能的分类器,具体如何选择,可以根据实际需求和不断调试进行试验即可。
预测评估模块,应用训练好的分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比,得到对比结果;其中,衡量参数包括准确率、召回率/>以及F1-score指标/>
准确率:表示分类模型预测正确的样本比例;计算公式为:准确率=预测正确的样本数/总样本数;例如,如果有100个未知CT图像样本,分类模型正确的预测了80个样本,那么准确率就是80%;
召回率:表示分类模型正确预测为真肺炎的样本占真实肺炎样本的比例,计算公式如下: 召回率=真正例/ (真正例+假反例) ;例如,假设有60个真实肺炎样本,分类模型正确地预测出了55个样本,那么召回率就是55/60 = 91.67%;
F1-score指标:综合考虑了准确率和召回率,是一个综合评价指标;计算公式如下: F1-score指标= 2*(准确率*召回率) / (准确率+召回率); F1-score指标的取值范围在0到1之间,数值越接近1表示分类模型的性能越好;
计算衡量参数的过程为:分类模型进行相同预测操作的次数为F次,且F=1、2、…、n,n为正整数,获取准确率平均值、召回率平均值/>以及F1-score指标平均值/>
且准确率平均值的计算公式为:准确率平均值/>=(/>)/F;
召回率平均值和F1-score指标平均值/>的计算公式与准确率平均值/>的计算公式同理,故在此不多做赘述。
获取性能评估值Pev所依据的公式如下:
式中,、/>、/>分别为准确率平均值/>、召回率平均值/>以及F1-score指标平均值的预设比例系数,且/>,G为常数修正系数,其具体值可由用户调整设置,或者由分析函数拟合生成,且/>
需要说明的是,准确率、召回率/>以及F1-score指标/>越高,则对应的性能评估值Pev越好,各个衡量参数均与性能评估值Pev呈正相关,公式的原理是通过对各个衡量参数的均值进行加权平均计算后,利用常数修正系数G进行综合调整,从而得到最终所需,准确的性能评估值Pev;
本领域技术人员采集多组样本数据并对每一组样本数据设定对应的预设比例系数;将设定的预设比例系数,可以是预设比例系数和采集的样本数据代入公式,任意三个公式构成三元一次方程组,将计算得到的系数进行筛选并取均值,得到的取值;系数的大小是为了将各个参数进行量化得到的一个具体的数值,便于后续比较,关于系数的大小,取决于样本数据的多少及本领域技术人员对每一组样本数据初步设定对应的预设比例系数,也可说是根据实际进行预设规定的,只要不影响参数与量化后数值的比例关系即可,对于其他公式中说明的预设比例系数、常数修正系数中,也同样采取上述的说明。
将性能评估值Pev与预设的评估阈值Pol进行对比后,得到的结果为:
若是性能评估值Pev超过评估阈值Pol,则表示整个图像分类系统的性能达标,系统不做出响应动作;若是性能评估值Pev未超过评估阈值Pol,则表示整个图像分类系统的性能不达标,触发调整策略模块,直至将图像分类系统调整至性能达标为止;
调整策略模块,利用网络搜索的方式调整卷积神经网络的超参数,包括学习率、批处理大小、网络层数以及卷积核尺寸,直至性能评估值Pev超过评估阈值Pol为止;
具体的,在预定的超参数范围内进行遍历搜索,尝试不同的参数组合,对于每一组参数,使用交叉验证来评估模型性能,从而找到最佳的参数配置,可以使用scikit-learn库中的GridSearchCV函数来实现网格搜索;
在深度学习的肺炎CT图像分类任务中,可以调整以下超参数来优化卷积神经网络中的超参数选择,以提高模型性能,该处的模型指的是整个卷积神经网络以及其所配置的超参数的组合:
学习率:学习率控制模型参数的更新速度,若是学习率设置过高,可能会导致梯度爆炸,而设置过低则可能收敛缓慢,通过使用学习率调度策略,如学习率衰减或学习率自适应算法,例如Adam;批处理大小:批处理大小决定每次迭代时所用的样本数量,较大的批处理大小能够加速模型训练,但可能会消耗更多的内存,而较小的批处理大小可能导致不稳定的梯度估计,可以尝试不同的批处理大小,选择合适的值;网络层数:网络层数指的是卷积神经网络中卷积层和池化层的堆叠数量,增加网络层数可以提升模型的表达能力,但也会增加过拟合的风险,可以通过增加或减少网络层数来找到最佳的模型复杂度;卷积核尺寸:卷积操作中卷积核的尺寸会影响对输入图像的感受野大小,较大的卷积核可以捕获更大范围的特征,而较小的卷积核可以捕获更细粒度的特征,可以尝试不同的卷积核尺寸来找到最适合数据集的设置;
综上,这些超参数的调整通常是通过交叉验证或网格搜索等方法来进行,通过反复尝试不同的参数组合,结合在验证集上的性能表现,可以找到一个最佳的参数配置,以提高模型的性能和泛化能力。
具体的,在设计针对肺炎CT图像的图像分类系统时,利用相互配合的预测评估模块和调整策略模块,实现对图像分类系统的实时预测处理,综合考了各个经过计算处理后的衡量参数后,能够确保生成性能评估值Pev的有效性和准确性,在将性能评估值Pev与评估阈值Pol做出对比后,能够确定图像分类系统的性能是否达标,即使不达标也给出了相应的调整策略,在保证图像分类系统性能的基础上,实现高效的对肺炎CT图像进行分类。
若是超过预定时间周期T,还是无法使性能评估值Pev超过评估阈值Pol,则触发调整策略模块内置的模型切换子模块,在原本调整超参数的基础上切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止,该时间周期T可根据需要进行设定,例如:将时间周期T设为1min。
具体的,在调整策略模块中加设模型切换子模块,考虑到时间因素,在超过预定时间周期T后还未能够通过调整超参数的方式使得图像分类系统性能达标,则可在原本调整超参数的基础上,继续选择切换分类模型的方式完成调整,在一定程度上,能够加快图像分类系统输出结果的效率,通过调整得出图像分类系统的最佳性能。
实施例2:请参阅图2,以实施例1为基础,本实施例提供一种基于深度学习的肺炎CT图像分类方法,包括如下具体步骤:
步骤一、对肺炎CT图像进行预处理,包括图像的缩放、裁剪和灰度化处理;
步骤二、采用深度学习的卷积神经网络来提取肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络学习并提取图像中的区域性和全局性特征;
步骤三、使用已经提取的特征作为输入,结合分类模型进行训练,且分类模型根据已有的标注数据学习到一个分类器,将肺炎CT图像分类为真肺炎或假肺炎,分类模型包括支持向量机、随机森林和多层感知机中的任一种;
步骤四、应用分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比;
若是性能评估值Pev超过评估阈值Pol,则不做出响应动作;
若是性能评估值Pev未超过评估阈值Pol,则利用网络搜索的方式调整卷积神经网络的超参数,直至性能评估值Pev超过评估阈值Pol,若是超过预定时间周期T后,还是无法使性能评估值Pev超过评估阈值Pol,则切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止。
在申请中,所述涉及到的若干个公式均是去量纲后取其数值计算,而所述公式是由采集大量数据进行软件模拟得到最近真实情况的一个公式,公式中的由本领域的技术人员根据实际情况进行设置。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件,或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。

Claims (10)

1.一种基于深度学习的肺炎CT图像分类系统,包括:
数据预处理模块,对肺炎CT图像进行预处理,包括图像的缩放、裁剪和灰度化处理;
特征提取模块,采用深度学习的卷积神经网络来提取肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络学习并提取图像中的区域性和全局性特征,其特征在于:
分类训练模块,使用已经提取的特征作为输入,结合分类模型进行训练,且分类模型根据已有的标注数据学习到一个分类器,将肺炎CT图像分类为真肺炎或假肺炎;
预测评估模块,应用分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比,得到对比结果;
若是性能评估值Pev超过评估阈值Pol,则不做出响应动作;若是性能评估值Pev未超过评估阈值Pol,则触发调整策略模块,利用网络搜索的方式调整卷积神经网络的超参数,直至性能评估值Pev超过评估阈值Pol。
2.根据权利要求1所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:在分类训练模块中,分类模型包括支持向量机、随机森林和多层感知机。
3.根据权利要求2所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:将支持向量机作为分类模型时,分类训练模块的运行过程为:将提取的特征作为输入,使真肺炎CT图像和假肺炎CT图像分别标记为正例和负例,通过训练后,支持向量机调整自身的决策边界,使其区分正例和负例,在训练完成后,支持向量机通过输入一个新的CT图像,根据学到的决策边界,判断该图像是否属于真肺炎CT图像。
4.根据权利要求3所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:对于分类模型的训练,需要有一组已经标注好的数据作为训练集,已有的标注数据是带有标签的肺炎CT图像,标签表示图像是否为肺炎。
5.根据权利要求4所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:学习一个分类器的过程包括如下步骤:
S101、数据准备:将已有的标注数据划分为训练集和验证集;
S102、特征提取:对肺炎CT图像进行特征提取,获取图像的特征作为分类任务输入;
S103、数据标注转换:将真肺炎和假肺炎的标签转换为分类任务所需的标签;
S104、模型训练:使用训练集的特征和标签,结合分类模型,进行模型的训练,训练过程中,通过优化模型的损失函数,不断调整模型的参数;
S105、模型验证和调优:使用验证集评估训练得到的分类器性能,并根据评估结果进行模型调优,通过调整模型超参数或增加模型复杂度的方法改进分类器的泛化能力;
S106、模型应用:经过训练和调优后,得到一个能够将肺炎CT图像分类为真肺炎或假肺炎的分类器。
6.根据权利要求5所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:在预测评估模块中,衡量参数包括准确率、召回率/>以及F1-score指标/>,分类模型进行相同预测操作的次数为F次,且F=1、2、…、n,n为正整数。
7.根据权利要求6所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:准确率表示分类模型预测正确的样本比例,计算公式为:准确率=预测正确的样本数/总样本数;召回率/>表示分类模型正确预测为真肺炎的样本占真实肺炎样本的比例,计算公式为:召回率=真正例/ (真正例+假反例);F1-score指标/>表示综合考虑了准确率和召回率的综合评价指标,计算公式为:F1-score指标= 2*(准确率*召回率) / (准确率+召回率)。
8.根据权利要求7所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:获取性能评估值Pev的过程为:
S201、获取准确率平均值、召回率平均值/>以及F1-score指标平均值/>,其中,准确率平均值/>的计算公式为:准确率平均值/>=(/>)/F,召回率平均值/>和F1-score指标平均值/>的计算公式与准确率平均值/>的计算公式相同;
S202、获取性能评估值Pev所依据的公式如下:
式中,、/>、/>分别为准确率平均值/>、召回率平均值/>以及F1-score指标平均值/>的预设比例系数,且/>,G为常数修正系数。
9.根据权利要求8所述的一种基于深度学习的肺炎CT图像分类系统,其特征在于:还包括触发调整策略模块内置的模型切换子模块,若是超出预定时间周期T,还是无法使性能评估值Pev超过评估阈值Pol,则切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止。
10.一种基于深度学习的肺炎CT图像分类方法,使用权利要求1至9中的任一种所述系统,其特征在于:包括如下步骤:
步骤一、对肺炎CT图像进行预处理,包括图像的缩放、裁剪和灰度化处理;
步骤二、采用深度学习的卷积神经网络来提取肺炎CT图像的特征,通过多层卷积和池化操作,卷积神经网络学习并提取图像中的区域性和全局性特征;
步骤三、使用已经提取的特征作为输入,结合分类模型进行训练,且分类模型根据已有的标注数据学习到一个分类器,将肺炎CT图像分类为真肺炎或假肺炎,分类模型包括支持向量机、随机森林和多层感知机中的任一种;
步骤四、应用分类模型对新的未知肺炎CT图像进行预测,预测结果通过计算衡量参数进行评估,搭建数据分析模型,以获取用于衡量系统性能的性能评估值Pev,并将性能评估值Pev与预设的评估阈值Pol进行对比;
若是性能评估值Pev超过评估阈值Pol,则不做出响应动作;
若是性能评估值Pev未超过评估阈值Pol,则利用网络搜索的方式调整卷积神经网络的超参数,直至性能评估值Pev超过评估阈值Pol,若是超出预定时间周期T,还是无法使性能评估值Pev超过评估阈值Pol,则切换分类模型,直至使性能评估值Pev超过评估阈值Pol为止。
CN202311615618.4A 2023-11-30 2023-11-30 一种基于深度学习的肺炎ct图像分类方法及系统 Active CN117315380B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311615618.4A CN117315380B (zh) 2023-11-30 2023-11-30 一种基于深度学习的肺炎ct图像分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311615618.4A CN117315380B (zh) 2023-11-30 2023-11-30 一种基于深度学习的肺炎ct图像分类方法及系统

Publications (2)

Publication Number Publication Date
CN117315380A true CN117315380A (zh) 2023-12-29
CN117315380B CN117315380B (zh) 2024-02-02

Family

ID=89297669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311615618.4A Active CN117315380B (zh) 2023-11-30 2023-11-30 一种基于深度学习的肺炎ct图像分类方法及系统

Country Status (1)

Country Link
CN (1) CN117315380B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809140A (zh) * 2024-03-01 2024-04-02 榆林拓峰达岸网络科技有限公司 基于图像识别的图像预处理系统及其方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109614856A (zh) * 2018-10-31 2019-04-12 西安理工大学 基于卷积神经网络的真菌图像分类方法
CN111128298A (zh) * 2019-12-24 2020-05-08 大连海事大学 一种基于深度学习模型获取多基因风险评分的方法及系统
CN112215357A (zh) * 2020-09-29 2021-01-12 三一专用汽车有限责任公司 模型优化方法、装置、设备和计算机可读存储介质
CN112733965A (zh) * 2021-02-03 2021-04-30 西安理工大学 一种基于小样本学习的无标签图像分类方法
CN113449791A (zh) * 2021-06-28 2021-09-28 齐鲁工业大学 基于深度学习的肺炎图像分类方法及系统
WO2022047627A1 (zh) * 2020-09-01 2022-03-10 深圳高性能医疗器械国家研究院有限公司 一种深度学习预估方法及其应用
US20220222812A1 (en) * 2021-01-14 2022-07-14 Shenzhen Keya Medical Technology Corporation Device and method for pneumonia detection based on deep learning
CN116664953A (zh) * 2023-06-28 2023-08-29 北京大学第三医院(北京大学第三临床医学院) 2.5d肺炎医学ct影像分类装置及设备
CN116821753A (zh) * 2023-06-05 2023-09-29 福建医科大学附属第一医院 一种基于机器学习的社区获得性肺炎病原类型预测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109614856A (zh) * 2018-10-31 2019-04-12 西安理工大学 基于卷积神经网络的真菌图像分类方法
CN111128298A (zh) * 2019-12-24 2020-05-08 大连海事大学 一种基于深度学习模型获取多基因风险评分的方法及系统
WO2022047627A1 (zh) * 2020-09-01 2022-03-10 深圳高性能医疗器械国家研究院有限公司 一种深度学习预估方法及其应用
CN112215357A (zh) * 2020-09-29 2021-01-12 三一专用汽车有限责任公司 模型优化方法、装置、设备和计算机可读存储介质
US20220222812A1 (en) * 2021-01-14 2022-07-14 Shenzhen Keya Medical Technology Corporation Device and method for pneumonia detection based on deep learning
CN112733965A (zh) * 2021-02-03 2021-04-30 西安理工大学 一种基于小样本学习的无标签图像分类方法
CN113449791A (zh) * 2021-06-28 2021-09-28 齐鲁工业大学 基于深度学习的肺炎图像分类方法及系统
CN116821753A (zh) * 2023-06-05 2023-09-29 福建医科大学附属第一医院 一种基于机器学习的社区获得性肺炎病原类型预测方法
CN116664953A (zh) * 2023-06-28 2023-08-29 北京大学第三医院(北京大学第三临床医学院) 2.5d肺炎医学ct影像分类装置及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
N. DEEPIKA等: "Classification of Lobar Pneumonia by Two Different Classifiers in Lung CT Images", 《2018 INTERNATIONAL CONFERENCE ON COMMUNICATION AND SIGNAL PROCESSING (ICCSP)》, pages 0552 - 0556 *
TAUFIK RAMADHAN等: "Pneumonia Prediction System Using Classification and Regression Trees Algorithm", 《2022 8TH INTERNATIONAL CONFERENCE ON WIRELESS AND TELEMATICS (ICWT)》, pages 1 - 4 *
庄莎莎: "基于深度学习的乳腺肿瘤识别算法研究", 《中国优秀硕士学位论文全文数据库医药卫生科技辑》, pages 072 - 125 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809140A (zh) * 2024-03-01 2024-04-02 榆林拓峰达岸网络科技有限公司 基于图像识别的图像预处理系统及其方法
CN117809140B (zh) * 2024-03-01 2024-05-28 榆林拓峰达岸网络科技有限公司 基于图像识别的图像预处理系统及其方法

Also Published As

Publication number Publication date
CN117315380B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN110021425B (zh) 一种比较检测器及其构建方法与宫颈癌细胞检测方法
Das et al. Leaf disease detection using support vector machine
CN108830326B (zh) 一种mri图像的自动分割方法及装置
CN110717903A (zh) 一种利用计算机视觉技术进行农作物病害检测的方法
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN117315380B (zh) 一种基于深度学习的肺炎ct图像分类方法及系统
CN114663426A (zh) 一种基于关键骨区定位的骨龄评估方法
CN112749675A (zh) 一种基于卷积神经网络的马铃薯病害识别方法
CN112598031A (zh) 一种蔬菜病害检测方法及系统
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
CN114782761A (zh) 基于深度学习的智能仓储物料识别方法和系统
CN117010971B (zh) 一种基于人像识别的智能健康险提供方法及系统
Yang et al. Rapid image detection and recognition of rice false smut based on mobile smart devices with anti-light features from cloud database
CN114529730A (zh) 一种基于lbp特征的卷积神经网络地面材质图像分类方法
CN117253192A (zh) 用于桑蚕养殖的智能系统及方法
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN112270404A (zh) 一种基于ResNet64网络的紧固件产品鼓包缺陷的检测结构及其方法
CN116612386A (zh) 基于分级检测双任务模型的辣椒病虫害识别方法及系统
Wang et al. Strawberry ripeness classification method in facility environment based on red color ratio of fruit rind
CN115423091A (zh) 一种条件对抗神经网络训练方法、场景生成方法和系统
CN115144211A (zh) 基于离散小波变换和门控循环单元的故障检测方法及装置
CN113935413A (zh) 一种基于卷积神经网的配网录波文件波形识别方法
Lulio et al. Jseg algorithm and statistical ann image segmentation techniques for natural scenes
CN118072251B (zh) 一种烟草病虫害识别方法、介质及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant