CN113052236A - 一种基于NASNet的肺炎图像分类方法 - Google Patents

一种基于NASNet的肺炎图像分类方法 Download PDF

Info

Publication number
CN113052236A
CN113052236A CN202110316749.7A CN202110316749A CN113052236A CN 113052236 A CN113052236 A CN 113052236A CN 202110316749 A CN202110316749 A CN 202110316749A CN 113052236 A CN113052236 A CN 113052236A
Authority
CN
China
Prior art keywords
data
pneumonia
nasn
training
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110316749.7A
Other languages
English (en)
Inventor
潘晓光
张娜
令狐彬
陈智娇
姚珊珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi Sanyouhe Smart Information Technology Co Ltd
Original Assignee
Shanxi Sanyouhe Smart Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi Sanyouhe Smart Information Technology Co Ltd filed Critical Shanxi Sanyouhe Smart Information Technology Co Ltd
Priority to CN202110316749.7A priority Critical patent/CN113052236A/zh
Publication of CN113052236A publication Critical patent/CN113052236A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像分类技术领域,具体涉及一种基于NASNet的肺炎图像分类方法,包括获取Mendeley数据集,将Mendeley数据集中的肺炎图片缩放到预设大小,并将数据和数据标签读取保存为矩阵形式;对读取保存后的数据集进行预处理,得到标准化的数据集;将预处理后的数据集划分为训练集S、验证集V和测试集T;基于NASNet网络构建深度学习网络,并使用训练集S对该深度学习网络进行训练;采用训练完成的深度学习网络对待识别分类的肺炎图像进行分类。NASNet深度学习网络可以多尺度多模态特征提取,对肺炎图像特征进行了深入的分析与有效的智能化提取,网络的参数训练摆脱了人为干扰,避免了主观误差,并且可以高效率的进行肺炎X光图像的识别工作。

Description

一种基于NASNet的肺炎图像分类方法
技术领域
本发明属于图像分类技术领域,具体涉及一种基于NASNet的肺炎图像分类方法。
背景技术
在传统的肺炎诊断过程中,肺炎图像的判断主要取决于医生的经验,但由于人工经验的差异,无法保证准确率。在一些CAD系统中,使用了如SVM的一些机器学习算法,作为一种出色的机器学习方法,SVM算法通过使用高维映射解决了许多线性不可分的问题,并且在图像和文本信息分类中取得了很好的效果。但是,当数据量太大时,通常会导致模型计算量过多,效率低下,并且无法保证鲁棒性和准确性。
现有技术存在的问题或者缺陷:当前的肺炎图像诊断容易受到主观因素的干扰,影响病情的判别。而现有辅助诊断系统所应用的算法计算效率较低,且准确率难以达到现实要求。
发明内容
针对上述的技术问题,本发明提供了一种效率高、误差小、成本低的基于NASNet的肺炎图像分类方法。
为了解决上述技术问题,本发明采用的技术方案为:
一种基于NASNet的肺炎图像分类方法,包括下列步骤:
S1、获取Mendeley数据集,将Mendeley数据集中的肺炎图片缩放到预设大小,并将数据和数据标签读取保存为矩阵形式;
S2、对读取保存后的数据集进行预处理,得到标准化的数据集;将预处理后的数据集划分为训练集S、验证集V和测试集T;
S3、基于NASNet网络构建深度学习网络,所述深度学习网络包括CNN层、NASNet层与全连接层,并使用训练集S对该深度学习网络进行训练;
S4、采用训练完成的深度学习网络对待识别分类的肺炎图像进行分类。
所述S1中将数据和数据标签读取保存为矩阵形式的方法为:包括下列步骤:
S1.1、使用python的matplotlib包读取数据,并使用scipy将数据保存为矩阵形式,保存格式为npy,得到矩阵为(n,x,y)形式,其中,n为数据量,x为数据长度,y为数据宽度;
S1.2、将csv格式的标签文件读取并保存为矩阵,以npy格式保存,得到矩阵为(n,a),其中,n为数据量,a代表该条数据的类别,0代表正常,1代表肺炎。
所述S2中对读取保存后的数据集进行预处理的方法为:读取npy图像数据集,对数据进行标准化操作,标准化公式如下:
Figure BDA0002986845700000021
其中,xi′为标准化后的数据值,xi为待处理数据,μ代表样本均值,σ代表样本方差。
所述S2中将预处理后的数据集划分为训练集S、验证集V和测试集T的方法为
以hold-out方法对数据集进行划分,将数据集划分为是三个互斥的集合,包括训练集S、验证集V和测试集T;所述训练集S用于对深度学习网络模型进行训练,所述验证集V用于验证深度学习网络模型是否训练完全,所述测试集T用于评估测试深度学习网络模型的泛化误差。
所述S3中的CNN层用于数据特征的初步提取,所述CNN层将单通道X光数据提升为高维度数据特征;所述NASNet层由多个NASNet控制器模块构建,用于以不同的方式与感受野对数据特征进行进一步的提取;所述全连接层用于对数据特征进行最后的运算,完成分类任务。
所述S3中的CNN层包括三个CNN模块,每个CNN模块均包括一次卷积运算、一次池化和一次激活;第一个CNN模块的卷积核大小为5*5,步长为2,采用Max Pooling,池化范围为2*2,步长为1;第二个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1;第三个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1;第三个CNN模块还包括一个BN层,用于对数据进行一次批量标准化操作。
所述S3中的NASNet层包括1*1CNN部分和NASNet控制器,1*1CNN部分的输入为F(x-1),将feature map提升为8通道,输出F(x);NASNet控制器首先以F(x)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1,将2次运算得到的结果以ADD方式进行融合;之后分别以F(x)与F(x-1)为输入进行一次3*3卷积,二者步长都为1,之后将2次运算得到的结果以ADD方式进行融合;最后以F(x-1)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1;将2次运算得到的结果以ADD方式进行融合,将3次ADD所得的feature map以Concate方式进行结合,得到NASNet层的最终输出特征。
所述S3中的全连接层的计算方法为:将上一层的输出进行flatten,之后进行两次全连接运算,得到最终的分类结果,采用Sigmoid进行输出,表达式为:
Figure BDA0002986845700000022
其中,k为全连接输出,S(k)为最终输出,若输出值小于0.5,则认为正常,若大于等于0.5,则标记为肺炎图像。
所述S4中的深度学习网络的训练的方法为:采用Adam作为优化器,初始学习率为0.02,每100个epoch学习率衰减30%,batch size大小为32,损失函数使用指数损失函数,设定训练300个epoch,连续20个epoch模型损失值无下降则停止训练,保存模型。
所述S4中的深度学习网络的验证过程和评估的方法为:
验证过程:使用V集数据对训练的到的数据模型进行100个epoch的二次训练,若模型损失无下降,保存模型;若模型损失降低,将学习率设置为原来的0.5倍,使用训练集数据继续对模型进行训练,直到模型损失稳定;
评估过程:使用训练完成的模型对T集数据进行测试,根据模型识别结果与数据标签,对模型识别效果进行评估,评估方式为对每一个类别的数据进行准确率与召回率的计算;
准确率:Acc=(TP+TN)/(TP+TN+FN+FP)
召回率:R=TP/(TP+FN)
其中,TP为正类判定为正类数量;FP为负类判定为正类数量;FN为正类判定为负类数量;TN为负类判定为负类数量。
本发明与现有技术相比,具有的有益效果是:
本发明提供了一种基于NASNet的肺炎图像分类方法,采用深度学习的方法,对肺炎/正常图像进行二分类操作,本方案模型使用了可以进行多尺度多模态特征提取的NASNet网络,对肺炎X光图像的信息特征进行了深入的分析与有效的智能化提取,网络的参数训练摆脱了人为干扰,避免了主观误差,并且可以高效率的进行肺炎X光图像的识别工作。
附图说明
图1为本发明实施例中基于NASNet的肺炎图像分类方法的流程图;
图2为本发明实施例中NASNet网络的网络构架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
参照图1和图2,一种基于NASNet的肺炎图像分类方法,包括以下步骤:
获取Mendeley数据集,将Mendeley数据集中的肺炎图片缩放到预设大小,并将数据和数据标签读取保存为矩阵形式。
具体地,本方案所使用数据集为Mendeley肺炎X光影像数据集,数据集中数据全部由真实患者的临床检验X光图像构成,数据集中共包含5856张人体胸部X光jpeg照片,每张图片都有其对应肺炎/正常标签。其中肺炎图像4273张,正常图像1583张。将所有数据大小调整为400*400。
数据读取:使用python的matplotlib包读取数据,并使用scipy将数据保存为矩阵形式,保存格式为npy,便于数据后续的读取。所得矩阵为(n,x,y)形式,其中n为数据量,x为数据长度,y为数据宽度。由于X光图像数据为灰度图,因此该数据为单通道。
标签读取:将csv格式的标签文件读取并保存为矩阵,以npy格式保存。所得矩阵为(n,a),其中n为数据量,a代表该条数据的类别,0代表正常,1代表肺炎。
对读取保存后的数据集进行预处理,得到标准化的数据集;将预处理后的数据集划分为训练集S、验证集V和测试集T。
具体地,读取npy图像数据集,对数据进行标准化操作,标准化公式如下:
Figure BDA0002986845700000041
其中,x′i为标准化后的数据值,xi为待处理数据,μ代表样本均值,σ代表样本方差。数据经标准化后不会改变数据的原始排序,保证的数据间的线性关系,同时可以通过中心化避免异常值和极端值的影响,帮助模型更有效的进行特征提取。
数据集划分:以hold-out方法对数据集进行划分,直接将数据集划分为是三个互斥的集合,其中一个集合作为训练集S,一个集合作为验证集V,另一个作为测试集T。在S上训练出模型后,用V来验证模型是否训练完全,用T来评估其测试误差,作为对泛化误差的估计。在划分完毕后,观察数据集分布,保证S、V与T三个数据集的数据分布相近。
基于NASNet网络构建深度学习网络,所述深度学习网络包括CNN层、NASNet层与全连接层,并使用训练集S对该深度学习网络进行训练。
具体地,本申请深度网络模型基于NASNet构建,网络由3部分组成,分别为CNN层,NASNet层,全连接分类层。其中CNN层用于数据特征的初步提取,并将单通道X光数据提升为高维度数据特征。NASNet层由多个NASNet控制器模块构建,以不同的方式与感受野对数据特征进行进一步的提取,全连接层用于对数据特征进行最后的运算,完成分类任务。
CNN层:本模型CNN层采用3个CNN模块构成,每个CNN模块包括一次卷积运算、一次池化、一次激活。本层第一个CNN模块的卷积核大小为5*5,步长为2,采用Max Pooling,池化范围为2*2,步长为1。第二个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1。第三个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1,该CNN模块额外增加一个BN层,对数据进行一次批量标准化操作,规范数据分布,加大梯度,加速网络训练。
NASNet层:NASNet层由2部分构成,第一部分为1*1CNN,第二部分为NASNet控制器。1*1CNN部分的输入为F(x-1),将feature map提升为8通道,输出F(x)。NASNet控制器首先以F(x)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1,将2次运算得到的结果以ADD方式进行融合;之后分别以F(x)与F(x-1)为输入进行一次3*3卷积,二者步长都为1,之后将2次运算得到的结果以ADD方式进行融合;最后以F(x-1)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1,将2次运算得到的结果以ADD方式进行融合。将3次ADD所得的feature map以Concate方式进行结合,得到NASNet层的最终输出特征。
全连接层:将上一层的输出进行flatten,之后进行两次全连接运算,得到最终的分类结果,采用Sigmoid进行输出,表达式为:
Figure BDA0002986845700000051
其中,k为全连接输出,S(k)为最终输出,若输出值小于0.5,则认为正常,若大于等于0.5,则标记为肺炎图像。
采用训练完成的深度学习网络对待识别分类的肺炎图像进行分类。
上述基于NASNet的肺炎图像分类方法,首先对Mendeley肺炎数据集进行处理,得到可用于深度学习模型进行参数学习的标准化数据集,之后构建以NASNet为基础的深度神经网络对数据特征进行学习,网络首先利用CNN对数据进行升维与特征初步提取,之后使用NASNet控制器对数据特征进行多尺度的特征学习,最后使用全连接层对结果进行输出,得到图像的分类结果。
采用深度学习的方法,对肺炎/正常图像进行二分类操作,本方案模型使用了可以进行多尺度多模态特征提取的NASNet网络,对肺炎X光图像的信息特征进行了深入的分析与有效的智能化提取,网络的参数训练摆脱了人为干扰,避免了主观误差,并且可以高效率的进行肺炎X光图像的识别工作。
上述基于NASNet的肺炎图像分类方法,所述深度学习网络的训练过程包括:
采用Adam作为优化器,初始学习率为0.02,每100个epoch学习率衰减30%,batchsize大小为32,损失函数使用指数损失函数,设定训练300个epoch,连续20个epoch模型损失值无下降则停止训练,保存模型。
上述基于NASNet的肺炎图像分类方法,所述深度学习网络的验证过程包括:
验证过程:使用V集数据对训练的到的数据模型进行100个epoch的二次训练,若模型损失无下降,保存模型;若模型损失降低,将学习率设置为原来的0.5倍,使用训练集数据继续对模型进行训练,直到模型损失稳定。
上述基于NASNet的肺炎图像分类方法,所述深度学习网络的评估过程包括:
使用训练完成的模型对T集数据进行测试,根据模型识别结果与数据标签,对模型识别效果进行评估,评估方式为对每一个类别的数据进行准确率与召回率的计算;
准确率:Acc=(TP+TN)/(TP+TN+FN+FP)
召回率:R=TP/(TP+FN)
其中,TP为正类判定为正类数量;FP为负类判定为正类数量;FN为正类判定为负类数量;TN为负类判定为负类数量。
上面仅对本发明的较佳实施例作了详细说明,但是本发明并不限于上述实施例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化,各种变化均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于NASNet的肺炎图像分类方法,其特征在于:包括下列步骤:
S1、获取Mendeley数据集,将Mendeley数据集中的肺炎图片缩放到预设大小,并将数据和数据标签读取保存为矩阵形式;
S2、对读取保存后的数据集进行预处理,得到标准化的数据集;将预处理后的数据集划分为训练集S、验证集V和测试集T;
S3、基于NASNet网络构建深度学习网络,所述深度学习网络包括CNN层、NASNet层与全连接层,并使用训练集S对该深度学习网络进行训练;
S4、采用训练完成的深度学习网络对待识别分类的肺炎图像进行分类。
2.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S1中将数据和数据标签读取保存为矩阵形式的方法为:包括下列步骤:
S1.1、使用python的matplotlib包读取数据,并使用scipy将数据保存为矩阵形式,保存格式为npy,得到矩阵为(n,x,y)形式,其中,n为数据量,x为数据长度,y为数据宽度;
S1.2、将csv格式的标签文件读取并保存为矩阵,以npy格式保存,得到矩阵为(n,a),其中,n为数据量,a代表该条数据的类别,0代表正常,1代表肺炎。
3.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S2中对读取保存后的数据集进行预处理的方法为:读取npy图像数据集,对数据进行标准化操作,标准化公式如下:
Figure FDA0002986845690000011
其中,x′i为标准化后的数据值,xi为待处理数据,μ代表样本均值,σ代表样本方差。
4.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S2中将预处理后的数据集划分为训练集S、验证集V和测试集T的方法为
以hold-out方法对数据集进行划分,将数据集划分为是三个互斥的集合,包括训练集S、验证集V和测试集T;所述训练集S用于对深度学习网络模型进行训练,所述验证集V用于验证深度学习网络模型是否训练完全,所述测试集T用于评估测试深度学习网络模型的泛化误差。
5.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S3中的CNN层用于数据特征的初步提取,所述CNN层将单通道X光数据提升为高维度数据特征;所述NASNet层由多个NASNet控制器模块构建,用于以不同的方式与感受野对数据特征进行进一步的提取;所述全连接层用于对数据特征进行最后的运算,完成分类任务。
6.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S3中的CNN层包括三个CNN模块,每个CNN模块均包括一次卷积运算、一次池化和一次激活;第一个CNN模块的卷积核大小为5*5,步长为2,采用Max Pooling,池化范围为2*2,步长为1;第二个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1;第三个CNN模块的卷积核大小为3*3,步长为1,采用Max Pooling,池化范围为2*2,步长为1;第三个CNN模块还包括一个BN层,用于对数据进行一次批量标准化操作。
7.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S3中的NASNet层包括1*1CNN部分和NASNet控制器,1*1CNN部分的输入为F(x-1),将feature map提升为8通道,输出F(x);NASNet控制器首先以F(x)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1,将2次运算得到的结果以ADD方式进行融合;之后分别以F(x)与F(x-1)为输入进行一次3*3卷积,二者步长都为1,之后将2次运算得到的结果以ADD方式进行融合;最后以F(x-1)为输入进行一次3*3的卷积运算与一次3*3的最大池化,步长均为1;将2次运算得到的结果以ADD方式进行融合,将3次ADD所得的feature map以Concate方式进行结合,得到NASNet层的最终输出特征。
8.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S3中的全连接层的计算方法为:将上一层的输出进行flatten,之后进行两次全连接运算,得到最终的分类结果,采用Sigmoid进行输出,表达式为:
Figure FDA0002986845690000021
其中,k为全连接输出,S(k)为最终输出,若输出值小于0.5,则认为正常,若大于等于0.5,则标记为肺炎图像。
9.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S4中的深度学习网络的训练的方法为:采用Adam作为优化器,初始学习率为0.02,每100个epoch学习率衰减30%,batch size大小为32,损失函数使用指数损失函数,设定训练300个epoch,连续20个epoch模型损失值无下降则停止训练,保存模型。
10.根据权利要求1所述的一种基于NASNet的肺炎图像分类方法,其特征在于:所述S4中的深度学习网络的验证过程和评估的方法为:
验证过程:使用V集数据对训练的到的数据模型进行100个epoch的二次训练,若模型损失无下降,保存模型;若模型损失降低,将学习率设置为原来的0.5倍,使用训练集数据继续对模型进行训练,直到模型损失稳定;
评估过程:使用训练完成的模型对T集数据进行测试,根据模型识别结果与数据标签,对模型识别效果进行评估,评估方式为对每一个类别的数据进行准确率与召回率的计算;
准确率:Acc=(TP+TN)/(TP+TN+FN+FP)
召回率:R=TP/(TP+FN)
其中,TP为正类判定为正类数量;FP为负类判定为正类数量;FN为正类判定为负类数量;TN为负类判定为负类数量。
CN202110316749.7A 2021-03-22 2021-03-22 一种基于NASNet的肺炎图像分类方法 Pending CN113052236A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110316749.7A CN113052236A (zh) 2021-03-22 2021-03-22 一种基于NASNet的肺炎图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110316749.7A CN113052236A (zh) 2021-03-22 2021-03-22 一种基于NASNet的肺炎图像分类方法

Publications (1)

Publication Number Publication Date
CN113052236A true CN113052236A (zh) 2021-06-29

Family

ID=76515676

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110316749.7A Pending CN113052236A (zh) 2021-03-22 2021-03-22 一种基于NASNet的肺炎图像分类方法

Country Status (1)

Country Link
CN (1) CN113052236A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721088A (zh) * 2023-06-20 2023-09-08 北京积水潭医院 基于深度学习的骨肉瘤图像的人工智能识别方法及装置
CN116758479A (zh) * 2023-06-27 2023-09-15 汇鲲化鹏(海南)科技有限公司 一种基于编码深度学习的智能体活动识别方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598719A (zh) * 2018-12-06 2019-04-09 中山大学 一种基于深度学习的肺部疾病检测方法
CN111274986A (zh) * 2020-02-10 2020-06-12 青岛联合创智科技有限公司 一种基于图像分析的菜品识别分类方法
CN111833310A (zh) * 2020-06-17 2020-10-27 桂林理工大学 一种基于神经网络架构搜索的表面缺陷分类方法
WO2020247545A1 (en) * 2019-06-04 2020-12-10 Northeastern University Lightweight decompositional convolution neural network
US20200394441A1 (en) * 2019-06-13 2020-12-17 Expedia, Inc. Image classification system
CN112348792A (zh) * 2020-11-04 2021-02-09 广东工业大学 一种基于小样本学习和自监督学习的x光胸片图像分类方法
CN112364920A (zh) * 2020-11-12 2021-02-12 西安电子科技大学 基于深度学习的甲状腺癌病理图像分类方法
CN112464704A (zh) * 2020-10-12 2021-03-09 浙江理工大学 一种基于特征融合与旋转目标检测器的遥感图像识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598719A (zh) * 2018-12-06 2019-04-09 中山大学 一种基于深度学习的肺部疾病检测方法
WO2020247545A1 (en) * 2019-06-04 2020-12-10 Northeastern University Lightweight decompositional convolution neural network
US20200394441A1 (en) * 2019-06-13 2020-12-17 Expedia, Inc. Image classification system
CN111274986A (zh) * 2020-02-10 2020-06-12 青岛联合创智科技有限公司 一种基于图像分析的菜品识别分类方法
CN111833310A (zh) * 2020-06-17 2020-10-27 桂林理工大学 一种基于神经网络架构搜索的表面缺陷分类方法
CN112464704A (zh) * 2020-10-12 2021-03-09 浙江理工大学 一种基于特征融合与旋转目标检测器的遥感图像识别方法
CN112348792A (zh) * 2020-11-04 2021-02-09 广东工业大学 一种基于小样本学习和自监督学习的x光胸片图像分类方法
CN112364920A (zh) * 2020-11-12 2021-02-12 西安电子科技大学 基于深度学习的甲状腺癌病理图像分类方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AI科技大本营: "经典再读 | NASNet:神经架构搜索网络在图像分类中的表现", 《HTTPS://BLOG.CSDN.NET》 *
BARRET ZOPH 等: "Learning Transferable Architectures for Scalable Image Recognition", 《ARXIV》 *
DILBAG SINGH 等: "Classif ication of COVID-19 patients from chest CT images using multi-objective differential evolution– based convolutional neural networks", 《EUROPEAN JOURNAL OF CLINICAL MICROBIOLOGY & INFECTIOUS DISEASES》 *
大师兄: "PNASNet详解", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/52798148》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721088A (zh) * 2023-06-20 2023-09-08 北京积水潭医院 基于深度学习的骨肉瘤图像的人工智能识别方法及装置
CN116758479A (zh) * 2023-06-27 2023-09-15 汇鲲化鹏(海南)科技有限公司 一种基于编码深度学习的智能体活动识别方法及系统
CN116758479B (zh) * 2023-06-27 2024-02-02 汇鲲化鹏(海南)科技有限公司 一种基于编码深度学习的智能体活动识别方法及系统

Similar Documents

Publication Publication Date Title
US11842487B2 (en) Detection model training method and apparatus, computer device and storage medium
CN106803247B (zh) 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法
CN110197146B (zh) 基于深度学习的人脸图像分析方法、电子装置及存储介质
CN112598643B (zh) 深度伪造图像检测及模型训练方法、装置、设备、介质
CN112148916A (zh) 一种基于监督的跨模态检索方法、装置、设备及介质
CN111368672A (zh) 一种用于遗传病面部识别模型的构建方法及装置
WO2021189913A1 (zh) 图像中目标物的分割方法、装置、电子设备及存储介质
CN111476806B (zh) 图像处理方法、装置、计算机设备和存储介质
CN113240655B (zh) 一种自动检测眼底图像类型的方法、存储介质及装置
CN113052236A (zh) 一种基于NASNet的肺炎图像分类方法
US20220207862A1 (en) Image analysis method, image analysis apparatus, and image analysis system
CN113723513A (zh) 多标签图像分类方法、装置及相关设备
CN114419378B (zh) 图像分类的方法、装置、电子设备及介质
CN113781488A (zh) 舌象图像的分割方法、装置及介质
CN116129141A (zh) 医学数据处理方法、装置、设备、介质和计算机程序产品
CN114358279A (zh) 图像识别网络模型剪枝方法、装置、设备及存储介质
CN115909336A (zh) 文本识别方法、装置、计算机设备和计算机可读存储介质
CN111582449B (zh) 一种目标域检测网络的训练方法、装置、设备及存储介质
CN112016592A (zh) 基于交叉领域类别感知的领域适应语义分割方法及装置
Hao et al. Iris segmentation using feature channel optimization for noisy environments
CN111599444A (zh) 智能舌诊检测方法、装置、智能终端和存储介质
CN116805522A (zh) 诊断报告输出方法、装置、终端及存储介质
CN111582404B (zh) 内容分类方法、装置及可读存储介质
CN113536845B (zh) 人脸属性识别方法、装置、存储介质和智能设备
CN113192085A (zh) 三维器官图像分割方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210629

RJ01 Rejection of invention patent application after publication