CN112348800A - 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法 - Google Patents

融合多尺度特征的密集神经网络肺部肿瘤图像识别方法 Download PDF

Info

Publication number
CN112348800A
CN112348800A CN202011254411.5A CN202011254411A CN112348800A CN 112348800 A CN112348800 A CN 112348800A CN 202011254411 A CN202011254411 A CN 202011254411A CN 112348800 A CN112348800 A CN 112348800A
Authority
CN
China
Prior art keywords
neural network
dense neural
scale
lung tumor
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011254411.5A
Other languages
English (en)
Inventor
周涛
陆惠玲
霍兵强
丁红胜
田金琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North Minzu University
Original Assignee
North Minzu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North Minzu University filed Critical North Minzu University
Priority to CN202011254411.5A priority Critical patent/CN112348800A/zh
Publication of CN112348800A publication Critical patent/CN112348800A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,包括:通过收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域,构成多尺度数据集;所述不同尺度病灶ROI区域带有临床标记的良性或恶性肿瘤标签;将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;在NSCR分类器中得到肺部肿瘤分类结果。本发明构建的密集神经网络模型优于AlexNet模型,可有效地利用高层信息再次发掘底层新特征,增强了特征在网络间的传播,实现和加强了特征重用;网络深度深、网络泛化能力强,肺部肿瘤分类准确度高。

Description

融合多尺度特征的密集神经网络肺部肿瘤图像识别方法
技术领域
本发明属于神经网络图像识别技术领域,特别涉及一种融合多尺度特征的密集神经网络肺部肿瘤图像识别方法。
背景技术
肺部肿瘤是目前癌症中发病率和死亡率居高不下的恶性肿瘤之一,肺部肿瘤发病率逐年增长,严重威胁人类健康,根据2019年美国癌症统计报告,肺癌是最常见的癌症之一,占所有癌症病例的11.6%,肺癌也是导致癌症死亡的主要原因,占癌症死亡总人数的18.4%。据2019年国家癌症中心报告,肺癌的发病率、致死率在所有癌症中占据首位,医学影像学方法检查广泛应用于肺部肿瘤的诊断,其中包括超声、X线成像、电子计算机断层扫描(Computed Tomography,CT)、磁共振成像(Magnetic Resonance Imaging,MRI)和正电子发射型计算机断层显像(Positron Emission Computed Tomography,PET)等。其中CT属于解剖成像,对于病灶部分具有良好的密度分辨能力,在肺癌早期诊断中多层螺旋CT通过重建技术能够清晰显示出横断面、矢状面和冠状面的病灶特征,中期诊断中螺旋CT诊断联合表面遮蔽和多平面重建能够清晰显示肿瘤部位、内部结构、边缘特征、血液供应、侵犯周围组织程度以及周边组织的改变,具有较高的诊断准确率,因此,从CT图像中进行胸部疾病检测,能够对肺部疾病的诊断及治疗提供参考依据。计算机辅助诊断技术(CAD)已经广泛应用于各种疾病的诊疗过程中,肺癌检测是最常见的CAD技术应用之一,引入计算机辅助诊断技术对肺癌的早期发现与诊疗有着重要的积极作用。
近年来,CNN模型已成为计算机视觉领域的研究热点,CNN网络模型是一种基于感知器的模型结构,其优点在于可以直接输入原始图像,避免对图像的过度预处理,通过局部感受野、权值共享、池化功能,使得CNN能在较低的模型复杂度下充分利用图像局部和全局信息,在图像处理领域取得较好成绩。以密集神经网络为代表的CNN模型在医学图像领域应用日益广泛;在良恶性肿瘤、脑功能、心脑血管疾病等重大疾病的临床辅助分类、识别、检测、分割等方面取得良好效果。残差神经网络通过跨层参数共享和保留中间特征的方式降低特征冗余度,重复利用已有特征,但缺点是难以利用高层信息再发掘底层特征。
Guoting Luo在胸部X射线图像方面提出自动气胸分割算法:Multi-Scale ScSE-DenseNet模型,该算法包括完全卷积DenseNet(FC-DenseNet),空间和通道压缩和激励模块(SCSE)以及多个比例模块。利用多尺度模块捕获视点相关的对象可变性,并利用SCSE模块对特征图进行自适应重新校准,以增强有意义的特征以获得更好的结果。Zhang在U-Net模型、GoogLeNet的Inception-Res模块和Dense-Net模型的启发下,提出了一种新的Dense-Inception U-Net(DIU-Net)的网络结构用于医学图像分割任务,该网络将Inception模块和密集连接集成到U-Net体系结构中。Inception-Res块通过替换标准卷积层来增加网络的宽度,Dense-Inception块提取特征并使网络更深,该方法对脑肿瘤分割有较好效果。刘一璟提出端到端DenseNet-centercrop网络。通过在DenseNet结构中的稠密块间增加新的分支,引入了中心剪裁操作。将其稠密连接机制扩展到了稠密块水平,大大丰富了肺结节的多尺度特征并且参数量较少,在肺结节良恶性分类方法具有更高的AUC分值和分类精度。
但上述方法对于肺部肿瘤图像识别精确度还有待提高,并不能很好的识别肺部肿瘤良恶性分类。
发明内容
本发明的主要目的在于提供一种至少部分解决上述技术问题的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,可实现肺部肿瘤分类识别准确度高。
为实现上述目的,本发明采取的技术方案为:
融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,包括:
收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域,构成多尺度数据集;所述不同尺度病灶ROI区域带有临床标记的良性或恶性肿瘤标签;
将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;
在NSCR分类器中得到肺部肿瘤分类结果。
进一步地,收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域;包括:
将肺部CT模态的原始影像对应编号,去伪彩转化为灰度图像;
从全局灰度图像中根据临床标记截取对应的病灶区域作为ROI图像并将其归一化为同样大小的实验图像,获取多尺度的ROI病灶图像;所述多尺度的ROI病灶图像包括良性样本和肺部恶性肿瘤样本。
进一步地,将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;包括:
采用密集神经网络DenseNet-201模型在自然图像数据集ImageNet上预训练,将预训练网络中的参数作为网络中的初始化参数;其中密集神经网络DenseNet-201的网络生长率k=32,过渡层的压缩率θ=0.5;
将多尺度数据集及标签分别输入到预训练密集神经网络DenseNet-201,并构造基于DenseNet模型的单模态网络;
在密集神经网络中训练,在全连接层提取训练样本和测试样本特征向量,并进行特征串行融合。
进一步地,所述进行特征串行融合,包括:
将样本空间中的多组病灶的特征信息合并称为一组新的特征向量,综合特征向量作为分类器输入进行学习分类,得到多尺度融合特征。
进一步地,在NSCR分类器中得到肺部肿瘤分类结果,包括:
在密集神经网络DenseNet的全连接层提取不同尺度训练样本矩阵和测试样本矩阵的特征向量进行融合;
将融合后的特征矩阵作为NSCR分类器输入,将所有的训练样本矩阵和测试样本矩阵标准化为L_2范数,求解出系数矩阵;
通过系数矩阵求出每一类的重构误差,根据重构残差值相似度完成最终的肺部肿瘤分类识别。
与现有技术相比,本发明具有如下有益效果:
本发明提供的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,通过收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域,构成多尺度数据集;所述不同尺度病灶ROI区域带有临床标记的良性或恶性肿瘤标签;将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;在NSCR分类器中得到肺部肿瘤分类结果。本发明构建的密集神经网络模型优于AlexNet模型,可有效地利用高层信息再次发掘底层新特征,增强了特征在网络间的传播,实现和加强了特征重用;网络深度深、网络泛化能力强,肺部肿瘤分类准确度高。
附图说明
图1为深度密集神经网络的残差块结构示意图;
图2为DenseNet网络图;
图3为本发明提供的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法的流程图;
图4为原始肺部CT图像;
图5为不同尺度的ROI图像;
图6为基于融合多尺度特征的NSCR密集神经网络方法过程图;
图7a-7e为多尺度数据集下五种指标AlexNet折线图;
图8a-8e为多尺度数据集下五种指标DenseNet-201折线图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”“前端”、“后端”、“两端”、“一端”、“另一端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“设置有”、“连接”等,应做广义理解,例如“连接”,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在说明本发明的技术方案之前,首先对所涉及到的密集神经网络基本结构、NSCR算法、评价指标进行说明。
1.密集神经网络基本结构:
深度密集神经网络(DenseNet)由多个密集块(Dense Block)和过渡块(Transition Layer)结构重叠构成多层神经网络。其内部Dense Block结构采用残差神经网络的残差连接(Shortcut)结构,深度残差神经网络通常由多个残差块结构重叠构成,相邻卷积层通过Shortcut实现残差连接,形成残差块(Residual block),残差块结构如图1所示。其中Hi表示输入,Hi+1表示输出,Wi表示权重,F表示为残差映射。图1中残差块映射表示为:
Hi+1=Relu(Hi+F(Hi,Wi)) (1)
DenseNet结构在模型构建中使用密集连接,如图1所示,当前网络层连接到以后的每一层。各个Dense Block内的特征图大小一致,DenseNet网络所学习的特征都在网络内重用,DenseNet层之间的密集连接促进整个网络的信息流。其非线性函数如公式(2)所示。其中,xi表示第l层输出;[x0 x1 x2 … xl-1]表示将从输入层到l-1层的特征图拼接;Hi表示非线性函数,为公式(1)的输入;该函数是包含BN层、ReLU层以及卷积层的组合操作。因此,深度网络的训练变得更加有效,并且模型的性能得到提高。如图2所示。
xl=Hi([x0 x1 x2 … xl-1]) (2)
2.NSCR算法:
高维数据中存在着许多冗余或不相关的特征,从而面临着维数灾难问题。一方面需要较高的计算时间和空间;另一方面在分类任务中出现过拟合等问题。因此数据降维是机器学习中一项具有挑战性的任务。高维特征数据的稀疏表示是近年来机器学习领域的研究热点之一,SRC/CRC/NRC的核心思想是测试样本通过来自所有类的训练样本的线性组合来近似表示,然后将测试样本分配给具有最小距离或近似误差的对应类。但是在稀疏表示分类SRC/CRC的编码系数会出现负系数,这在实际应用中,使得正负系数相对应的权重抵消的问题,这一定程度上影响样本分类精度。非负表示分类NRC的分类思想编码系数限制为非负,非负表示可以增强同构样本的表示能力,同时限制异构样本的表示能力,尽管SRC/CRC/NRC三种分类器在图像识别任务中取得了成功,但它们也存在相应的局限性。一方面,当使用整个训练图像来重建测试图像y时,SRC和CRC都会在编码系数向量中产生偏差。原因是,从生成的角度来看,从具有复数负(减)和正(加)系数训练图像重建真实世界图像在物理上是不可行的。NRC将编码系数约束为非负,但由于缺乏合适的正则化,NRC分类不够灵活,无法处理现实实际问题。NSCR结合稀疏表示、协作表示和非负表示优势,在物理上比先前的稀疏表示、协同表示和非负表示具有较好的鲁棒性和泛化能力。
NSCR分类器可以被重构为一个线性等式约束的双变量问题,并且可以在乘子框架的交替方向方法下被解决。每个子问题都可以用封闭形式有效地求解,并且可以收敛到全局最优。NSCR在各种视觉分类数据集的大量实验验证了NSCR分类器的有效性,且NSCR分类效果优于SVM、SRC等先进分类算法。基于以上讨论,NSCR算法对于给定测试样本y∈RD和训练样本矩阵X,X由若干类的样本组成,即X=[X1,....,Xk]∈RD×N,其算法思想为:
表1 NSCR算法思想
Figure BDA0002772651270000071
3.评价指标
本发明实施例评价指标包括:精确度(Accuracy)、灵敏性(Sensitivity)、特异性(Specificity)、F值(F-score值)、马修斯相关性系数(Matthews correlationcoefficient,MCC),具体介绍如下:
精确度(Accuracy)、灵敏性(sensitive)和特异性(specificity)是通过真阳性(true positive,TP)、假阳性(false positive,FP)、真阴性(true negative,TN)和假阴性(false negative,FN)计算,TP表示良性肿瘤被预测正确,FP表示恶性肿瘤被预测错误,TN表示恶性肿瘤图像被预测正确,FN表示良性肿瘤被预测错误。其计算公式分别为:计算公式如下:
Figure BDA0002772651270000081
Figure BDA0002772651270000082
Figure BDA0002772651270000083
F值是查全率与查准率加权调和平均,用来权衡精确度和召回率,计算公式如下:
Figure BDA0002772651270000084
MCC是更全面的评价指标,体现算法的可靠性,在类别数不同时认为是平衡的措施,取值范围在[-1,+1],当预测错误的FP和FN均为0时,MCC取值为1,即分类完全正确,当预测正确的TP和TN均为0时,MCC取值为-1,即分类完全错误,其计算公式如下:
Figure BDA0002772651270000085
本发明针对CT模态医学图像采用卷积神经网络训练时的特征提取不充分问题,特征提取时维度较高,数据冗余等问题。结合基于密集神经网络特征提取方法和基于非负稀疏协同表示的分类识别方法,为从肺部肿瘤病灶及周边信息提取丰富特征,提出了基于融合多尺度特征的非负稀疏协同表示分类的密集神经网络的肺部肿瘤(Multi ScaleDenseNet-NSCR)良恶性分类方法,算法整体步骤分为:图像预处理、密集神经网络提取特征、特征融合、NSCR分类。
如图3所示,本发明提供的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,包括:
S10、收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域,构成多尺度数据集;所述不同尺度病灶ROI区域带有临床标记的良性或恶性肿瘤标签;
S20、将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;
S30、在NSCR分类器中得到肺部肿瘤分类结果。
下面分别对上述各个步骤进行详细的说明:
其中,步骤S10中数据收集:比如从宁夏某三甲医院收集2014年-2016年期间收集3000例原始肺部CT模态的原始图像,其中肺部肿瘤良性数和恶性数均为1500例。原始肺部CT图像如图4所示。
数据预处理:将肺部CT模态的原始影像对应编号,去伪彩转化为灰度图像。从全局灰度图像中根据临床标记截取对应的病灶区域作为ROI图像并将其归一化为同样大小的实验图像,获取多尺度的ROI病灶图像,如28px×28px,50px×50px。分为良性样本和肺部恶性肿瘤样本,良性样本和肺部恶性肿瘤样本各1500例,两类目标,将其按照一定比例划分为测试集和训练集,分别为1200例和300例,并构造与其相对应的二进制标签y,其中良性标记为1,肺部恶性肿瘤标记为2。这里给出两种尺度图像中具有代表性的阴性样本和阳性样本实例如图5所示。
步骤S20中,密集神经网络-DenseNet:
与ResNet网络相比,DenseNet用于网络训练的参数更少。此外,使用密集连接可缓解数据集较小的模型的过拟合问题。对于Transition层(过渡层),它主要连接两个DenseBlock,其中包含了一个1×1的卷积和2×2的平均池化,用以降低特征图大小。如果上一层的Dense Block输出m个特征映射,过渡层可以生成θm个特征映射,其中0≤θ≤1称为压缩因子,当θ=1时,特征映射保持不变;当θ<1时,过渡层能够进一步压缩模型。本发明实施例采用DenseNet的k=32,θ=0.5。
DenseNet具有以下特点:第一,DenseNet有效地缓解了网络过深带来的梯度消失问题,DenseNet每层都能获取前面各层的损失函数,有效加强了特征前向传播,因此可以训练更深的网络。第二,相比ResNet采用求和的方式传播特征,DenseNet采用Inception的concatenation通道合并方式,将前面所有层输出拼接在一起作为当前输入,显著提高特征传播效率,第三,DenseNet加强特征传递、有效利用特征,从特征重用的角度提升网络性能。残差神经网络通过跨层参数共享和保留中间特征的方式降低特征冗余度,重复利用已有特征,缺点是难以利用高层信息再发掘底层特征;DenseNet有效地利用高层信息再次发掘底层新特征,增强了特征在网络间的传播,实现和加强了特征重用。第四,相较于ResNet较大的参数量,DenseNet有效减少了参数数量。
(1)迁移学习:密集神经网络DenseNet-201模型首先在大型自然图像数据集ImageNet上预训练,将预训练网络中的参数作为网络中的初始化参数。其中密集神经网络的网络生长率k=32,Transition Layer的压缩率θ=0.5。
(2)密集神经网络部特征提取:将多尺度数据集及标签分别输入到预训练密集神经网络DenseNet-201,并构造基于DenseNet模型的单模态网络,即28px×28px的CT-DenseNet和50px×50px的CT-DenseNet;分别在密集神经网络中训练,在全连接层提取训练样本和测试样本特征向量,并将多尺度的特征融合。得到融合训练样本和测试样本特征向量。
目前,常用的多特征融合方法有简单叠加、串行融合法等,串行特征融合方法是将样本空间中的多组特征合并称为一组新的特征向量,本发明实施例采用串行融合法提取丰富病灶的特征信息以用于肺部肿瘤良恶性分类,综合特征向量作为分类器输入进行学习分类,能够打破采用单一特征进行分类识别的局限性,提高肺部肿瘤的分类识别效果,但该方法会导致特征维数过大,因此采用对高维特征有较好分类效果的NSRC分类器则较为合适。对于28px×28px的CT-DenseNet和50px×50px的CT-DenseNet;在全连接层提取1000维特征向量,
28px×28px训练样本和测试样本特征向量分别为;X28*28=[X1,X2,...X1000],y28*28=[y1,y2,...y1000],
50px×50px训练样本和测试样本特征向量分别为;X50*50=[X1,X2,...X1000],y50*50=[y1,y2,...y1000],
多尺度融合特征为X′=Serial fusion[X28×28,X50×50],y′=Serial fusion[y28×28,y50×50]
在步骤S30中,基于NSCR分类识别:
在密集神经网络的全连接层提取不同尺度训练样本矩阵和测试样本矩阵的特征向量进行融合,将融合后的特征矩阵作为NSCR分类器输入,将所有的训练样本矩阵和测试样本矩阵标准化为L_2范数,求解出系数矩阵,进而通过系数矩阵求出每一类的重构误差,最后根据重构残差值相似度完成最终的分类识别。具体如下:
(1)对于28*28px和50*50px的图像,通过五折交叉划分训练样本和测试样本,经密集神经网络DenseNet-201特征提取,将全连接特征进行串行融合,得到融合的特征空间的训练样本矩阵X′和测试样本矩阵y′。
(2)将矩阵X′和测试样本矩阵y′每一列标准化为单位L_2范数;
(3)对y′用特征空间的训练样本X′进行非负稀疏协同表示,其中αβ为正则化参数,c为优化前系数矩阵并约束为非负,
Figure BDA0002772651270000121
表示求解的最优系数矩阵:
Figure BDA0002772651270000122
(4)通过训练样本对测试样本的非负稀疏协同表示进行残差相似度分类rk:
Figure BDA0002772651270000123
(5)输出残差结果所对应的标签类别:
Label(y′)=arg min {rk}
(10)
基于融合多尺度特征的NSCR的密集神经网络模型DenseNet-NSCR如图6所示。
下面通过两组仿真实验,来说明本发明实施例提供的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法所具有的优势。
实验环境:
软件环境:Windows10操作系统,MatlabR2019a;
硬件环境:Intel(R)Core(TM)i5-7200U CPU@2.50GHz 2.70GHz,4.0GB内存,500GB硬盘.
实验结果及分析
为保证实验数据可靠性,本实验均采用五折交叉法进行训练,将所有样本等分为5份,每份包含相等比例的不同类别样本个数;每次将4份数据作为训练样本,剩余的1份作为测试样本,将每次结果进行平均得到最终的实验结果,即每次的训练样本数为2400幅,测试样本数为600幅,进行五次实验取平均值。实验在不同网络模型AlexNet、DenseNet-201两种网络模型,及三种分类算法:SVM、SRC和NSCR,两两组合的模型进行试验比较,结果如下:
实验一不同模型精确度与时间的比较
本实验主要讨论6个算法(AlexNet+SVM、AlexNet+SRC、AlexNet+NSCR、DenseNet+SVM、DenseNet+SRC、DenseNet+NSCR)在28px×28px尺度、50px×50px尺度和融合尺度的CT样本空间上进行训练和识别时的识别精度和训练时间,探究不同的网络模型、不同的分类算法和不同的尺度信息对密集神经网络识别率和训练时间的影响,具体结果如表2所示。
表2不同模型的精确度与训练时间结果比较
Figure BDA0002772651270000131
第一种情况,不同的网络模型,相同的分类算法。在实验中有三组对比实验,即:(AlexNet+SVM、DenseNet-201+SVM)、(AlexNet+SRC、DenseNet-201+SRC)、(AlexNet+NSCR、DenseNet-201+NSCR)。以第三组为例进行说明,在多尺度融合CT样本空间中,本发明实施例提出的DenseNet-201+NSCR模型比AlexNet+NSCR、模型的精确度提高0.17%,训练时间增加3528.54s。不难看出,密集神经网络DenseNet-201与其他CNN模型相比,网络层数深,提取的图像特征丰富,分类精确度高,但是付出的代价是训练时间大幅提高,其它两组结果类似,这里不再累述。
第二种情况,采用相同的网络,不同的分类算法。在实验一中有两组对比实验,即(AlexNet+SVM、AlexNet+SRC、AlexNet+NSCR)、(DenseNet-201+SVM、DenseNet-201+SRC、DenseNet-201+NSCR)。以第三组为例进行说明,在CT样本空间中,本发明实施例提出的DenseNet-201+NSCR模型的分类精确度比DenseNet-201+SVM高0.84%,比DenseNet-201+SRC高0.78%,从训练时间来看,比DenseNet-201+SVM模型多51.97s,比DenseNet-201+SRC模型低727.69s,与第一二种情况相比,整体训练时间都大幅提高,但在网络模型确定后,相较于SVM分类器训练时间复杂度增幅不大。且相较于SRC分类算法,其时间复杂福大幅降低,不难看出,在相同的网络模型下,非负稀疏协同表示分类算法NSCR与SVM和SRC相比,具有较好的分类精度,较好解决高维数据的优化问题,付出的时间代价与SRC相比,降低了很多。
第三种情况,采用相同的网络和分类算法,不同尺度对比实验,在实验中有六组对比实验,以DenseNet-201+NSCR为例,28px×28px图像分类精确度为97.97%,50px×50px图像分类精确度为98.90%,融合多尺度信息方法分类精确度为99.77%,相较于单一尺度的28px×28px图像和50px×50px图像分别提高1.8%和0.87%,通过以上实验分析对比,充分证明本发明实施例提出的Multiscale-DenseNet-NSCR有效性。
实验二不同网络与分类器算法组合的比较
实验主要讨论6个算法(AlexNet+SVM、AlexNet+SRC、AlexNet+NSCR、DenseNet-201+SVM、DenseNet-201+SRC、DenseNet-201+NSCR)在28×28、50×50和多尺度融合CT样本空间上进行训练,从精确度、灵敏度、特异度、F值、MCC共5个指标评价算法的优劣。结果如表3:
表3不同网络模型及分类算法的在多尺度数据集下的精确度结果比较
Figure BDA0002772651270000151
表4不同网络模型及分类算法的在多尺度数据集下的灵敏性结果比较
Figure BDA0002772651270000152
Figure BDA0002772651270000161
表5不同网络模型及分类算法的在多尺度数据集下的特异性结果比较
Figure BDA0002772651270000162
表6不同网络模型及分类算法的在多尺度数据集下的F-score结果比较
Figure BDA0002772651270000163
表7不同网络模型及分类算法的在多尺度数据集下的MCC结果比较
Figure BDA0002772651270000164
Figure BDA0002772651270000171
由表3-表5可见,Multisacle-DenseNet-201+NSCR算法指标都优于其它算法,精确度、灵敏性、特异性、F值、MCC在CT数据集上分别提高0.17%-3.24%、0.13%-3.24%、0.07%-3.93%、0.17%-3.21、0.33%-6.54%;为了更加清晰的表示不同算法在各个指标上的差异,将这5个指标的平均值绘制折线图,横坐标为3种网络模型,纵坐标分别为5种评价指标,分别见图7a-7e、图8a-8e所示。可以将图7a与图8a对比查看,其他附图也是同样安装顺序对比查看。
通过上述两个实验及相关分析不难看出,在网络模型相同的情况下,本发明实施例比较SVM、SRC和NSCR三种分类算法,实验结果表明NSCR分类效果优于SVM和SRC分类算法,NSRC算法具有较好鲁棒性;针对卷积神经网络在医学图像提取到的特征出现维度较高,数据冗余等问题,在分类算法相同的情况下,本发明实施例比较AlexNet、DenseNet-201两种网络模型,实验结果表明DenseNet优于AlexNet模型,DenseNet有效地利用高层信息再次发掘底层新特征,增强了特征在网络间的传播,实现和加强了特征重用。在多尺度对比实验中,融合多尺度特征的DenseNet模型的性能优于单一尺度28×28、50×50模型的性能,尤其是本发明实施例提出的Multisacle-DenseNet-201+NSCR模型网络深度深、网络泛化能力强,分类准确度高,其精确度,灵敏度、特异度、F值、MCC等评价指标优于其它模型。
本发明实施例提出了一种融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,基于融合多尺度特征的非负稀疏协同表示分类的密集神经网络的肺部肿瘤(DenseNet-NSCR)良恶性分类。第一,收集CT模态医学图像并预处理;提取不同尺度病灶ROI区域(28×28CT,50×50CT);第二,将分别将多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特行证融合;第三,在NSCR分类器中得到肺部肿瘤分类结果,通过AlexNet+SVM、AlexNet+SRC、AlexNet+NSCR、Multiscale-AlexNet+SVM、Multiscale-AlexNet+SRC、Multiscale-AlexNet+NSCR、DenseNet+SVM、DenseNet+SRC、DenseNet+NSCR、Multiscale-DenseNet+SVM、Multiscale-DenseNet+SRC、Multiscale-DenseNet+NSCR共18种模型对比,Multiscale-DenseNet+NSCR模型优于其他模型,具有较好的鲁棒性和泛化能力。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (5)

1.融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,其特征在于:包括:
收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域,构成多尺度数据集;所述不同尺度病灶ROI区域带有临床标记的良性或恶性肿瘤标签;
将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;
在NSCR分类器中得到肺部肿瘤分类结果。
2.根据权利要求1所述的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,其特征在于:收集CT模态医学图像并预处理,提取不同尺度病灶ROI区域;包括:
将肺部CT模态的原始影像对应编号,去伪彩转化为灰度图像;
从全局灰度图像中根据临床标记截取对应的病灶区域作为ROI图像并将其归一化为同样大小的实验图像,获取多尺度的ROI病灶图像;所述多尺度的ROI病灶图像包括良性样本和肺部恶性肿瘤样本。
3.根据权利要求1所述的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,其特征在于:将所述多尺度数据集在密集神经网络中训练,构建密集神经网络模型,提取全连接层特征向量并进行特征串行融合;包括:
采用密集神经网络DenseNet-201模型在自然图像数据集ImageNet上预训练,将预训练网络中的参数作为网络中的初始化参数;其中密集神经网络DenseNet-201的网络生长率k=32,过渡层的压缩率θ=0.5;
将多尺度数据集及标签分别输入到预训练密集神经网络DenseNet-201,并构造基于DenseNet模型的单模态网络;
在密集神经网络中训练,在全连接层提取训练样本和测试样本特征向量,并进行特征串行融合。
4.根据权利要求3所述的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,其特征在于:所述进行特征串行融合,包括:
将样本空间中的多组病灶的特征信息合并称为一组新的特征向量,综合特征向量作为分类器输入进行学习分类,得到多尺度融合特征。
5.根据权利要求3所述的融合多尺度特征的密集神经网络肺部肿瘤图像识别方法,其特征在于:在NSCR分类器中得到肺部肿瘤分类结果,包括:
在密集神经网络DenseNet的全连接层提取不同尺度训练样本矩阵和测试样本矩阵的特征向量进行融合;
将融合后的特征矩阵作为NSCR分类器输入,将所有的训练样本矩阵和测试样本矩阵标准化为L_2范数,求解出系数矩阵;
通过系数矩阵求出每一类的重构误差,根据重构残差值相似度完成最终的肺部肿瘤分类识别。
CN202011254411.5A 2020-11-11 2020-11-11 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法 Pending CN112348800A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011254411.5A CN112348800A (zh) 2020-11-11 2020-11-11 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011254411.5A CN112348800A (zh) 2020-11-11 2020-11-11 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法

Publications (1)

Publication Number Publication Date
CN112348800A true CN112348800A (zh) 2021-02-09

Family

ID=74363380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011254411.5A Pending CN112348800A (zh) 2020-11-11 2020-11-11 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法

Country Status (1)

Country Link
CN (1) CN112348800A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011556A (zh) * 2021-02-20 2021-06-22 安徽大学 基于INC-DenseUnet网络识别模型建立方法
CN113343429A (zh) * 2021-05-17 2021-09-03 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113449772A (zh) * 2021-05-26 2021-09-28 浙江工业大学 基于鲁棒多投影支持向量机的医学图像处理方法
CN115861303A (zh) * 2023-02-16 2023-03-28 四川大学 基于肺部ct图像的egfr基因突变检测方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301640A (zh) * 2017-06-19 2017-10-27 太原理工大学 一种基于卷积神经网络的目标检测实现肺部微小结节检测的方法
CN109033980A (zh) * 2018-06-29 2018-12-18 华南理工大学 基于增量局部残差最小二乘的高光谱图像Gabor特征分类方法
CN110141220A (zh) * 2019-06-20 2019-08-20 鲁东大学 基于多模态融合神经网络的心肌梗死自动检测方法
CN110930397A (zh) * 2019-12-06 2020-03-27 陕西师范大学 一种磁共振图像分割方法、装置、终端设备及存储介质
CN111649779A (zh) * 2020-05-31 2020-09-11 天津大学 基于密集神经网络的油井含油率和总流速测量方法及应用

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301640A (zh) * 2017-06-19 2017-10-27 太原理工大学 一种基于卷积神经网络的目标检测实现肺部微小结节检测的方法
CN109033980A (zh) * 2018-06-29 2018-12-18 华南理工大学 基于增量局部残差最小二乘的高光谱图像Gabor特征分类方法
CN110141220A (zh) * 2019-06-20 2019-08-20 鲁东大学 基于多模态融合神经网络的心肌梗死自动检测方法
CN110930397A (zh) * 2019-12-06 2020-03-27 陕西师范大学 一种磁共振图像分割方法、装置、终端设备及存储介质
CN111649779A (zh) * 2020-05-31 2020-09-11 天津大学 基于密集神经网络的油井含油率和总流速测量方法及应用

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
弓霖芃: ""基于多层次特征融合的医学图像分割"", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011556A (zh) * 2021-02-20 2021-06-22 安徽大学 基于INC-DenseUnet网络识别模型建立方法
CN113011556B (zh) * 2021-02-20 2022-10-11 安徽大学 基于INC-DenseUnet网络识别模型建立方法
CN113343429A (zh) * 2021-05-17 2021-09-03 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113343429B (zh) * 2021-05-17 2022-10-25 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113449772A (zh) * 2021-05-26 2021-09-28 浙江工业大学 基于鲁棒多投影支持向量机的医学图像处理方法
CN113449772B (zh) * 2021-05-26 2022-11-25 浙江工业大学 基于鲁棒多投影支持向量机的医学图像处理方法
CN115861303A (zh) * 2023-02-16 2023-03-28 四川大学 基于肺部ct图像的egfr基因突变检测方法和系统
CN115861303B (zh) * 2023-02-16 2023-04-28 四川大学 基于肺部ct图像的egfr基因突变检测方法和系统

Similar Documents

Publication Publication Date Title
Chen et al. Recent advances and clinical applications of deep learning in medical image analysis
Yu et al. Convolutional neural networks for medical image analysis: state-of-the-art, comparisons, improvement and perspectives
Mei et al. SANet: A slice-aware network for pulmonary nodule detection
Domingues et al. Using deep learning techniques in medical imaging: a systematic review of applications on CT and PET
Anthimopoulos et al. Semantic segmentation of pathological lung tissue with dilated fully convolutional networks
CN112348800A (zh) 融合多尺度特征的密集神经网络肺部肿瘤图像识别方法
Lei et al. Deep learning in multi-organ segmentation
Shaffie et al. A novel autoencoder-based diagnostic system for early assessment of lung cancer
Chen et al. LDNNET: towards robust classification of lung nodule and cancer using lung dense neural network
Selver Segmentation of abdominal organs from CT using a multi-level, hierarchical neural network strategy
Guo et al. Msanet: multiscale aggregation network integrating spatial and channel information for lung nodule detection
CN111260639A (zh) 多视角信息协作的乳腺良恶性肿瘤分类方法
CN116030325A (zh) 基于深度混合学习框架的肺结节ct图像识别方法
Xu et al. Pulmonary textures classification via a multi-scale attention network
Liang et al. Dense networks with relative location awareness for thorax disease identification
Lei et al. Deep learning architecture design for multi-organ segmentation
Mossa et al. Ensemble learning of multiview CNN models for survival time prediction of braintumor patients using multimodal MRI scans
Shao et al. Application of U-Net and Optimized Clustering in Medical Image Segmentation: A Review.
Qiao et al. Ensemble framework based on attributes and deep features for benign-malignant classification of lung nodule
Pi et al. Automated assessment of BI-RADS categories for ultrasound images using multi-scale neural networks with an order-constrained loss function
Diamant et al. Chest radiograph pathology categorization via transfer learning
CN114565786A (zh) 基于通道注意力机制的断层扫描图像分类装置和方法
Kamencay et al. 3D image reconstruction from 2D CT slices
Khalifa et al. Deep Learning for Image Segmentation: A Focus on Medical Imaging
Wu et al. RAD-UNet: Research on an improved lung nodule semantic segmentation algorithm based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210209