CN113327258A - 一种基于深度学习的肺部ct图像识别方法 - Google Patents

一种基于深度学习的肺部ct图像识别方法 Download PDF

Info

Publication number
CN113327258A
CN113327258A CN202110801472.7A CN202110801472A CN113327258A CN 113327258 A CN113327258 A CN 113327258A CN 202110801472 A CN202110801472 A CN 202110801472A CN 113327258 A CN113327258 A CN 113327258A
Authority
CN
China
Prior art keywords
lung
image
network
layer
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110801472.7A
Other languages
English (en)
Inventor
王慧倩
陈俊刚
庞宇
卢毅
王元发
罗家赛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110801472.7A priority Critical patent/CN113327258A/zh
Publication of CN113327258A publication Critical patent/CN113327258A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的肺部CT图像识别方法,属于图像处理技术领域。该方法包括以下步骤:S1:获取原始肺部CT图像数据集;S2:使用改进的U‑Net网络对原始肺部CT图像数据集进分割,其中改进的U‑Net网络使用Focal Loss作为损失函数提高肺区分割能力;S3:使用分割后的肺部CT图像作为训练集和测试集,将训练集输入CCT网络进行训练;S4:将测试集输入至训练好的CCT网络,输出病症类别的概率值,通过概率值确认检测患者的肺部CT图像类别。本发明大大减少了训练所需的计算资源,同时提高了图像识别的精确度。

Description

一种基于深度学习的肺部CT图像识别方法
技术领域
本发明属于图像处理技术领域,涉及一种基于深度学习的肺部CT图像识别方法。
背景技术
为了减轻COVID-19的现有测试的效率低下和不足,已进行了许多努力来寻找替代测试方法。多项研究表明,计算机断层扫描(CT)扫描可清楚显示COVID-19患者的肺部影像学特征病灶。但是胸部CT包含数百张切片,重建CT图像,通过图像存档和通信系统传输以供读取诊断。病毒性肺炎或者细菌性肺炎的判断一般都是放射科医生在通信系统终端对影像进行简单处理、阅读或者通过读片灯投射阅读。医学影像诊断学中关于疾病类型判别是影像科或放射科医生判读临床经验的总结,这就要求放射科医生积累许多经验以实现高诊断性能,需要配置专业人员费时费力。
同时,COVID-19与其他各种类型的肺炎具有相似的医学影像特征,CT可以用于判断患者是否感染了病毒性肺炎(COVID-19是由SARS-CoV-2病毒引起的一种病毒性肺炎)。但是,无法确定是哪种病毒引起了病毒性肺炎:新型冠状病毒或其他,区分难度比较大,医生在过度工作的状况下光处理一人的上百张切片难免会造成识别的错误。为了能够准确快速地区别其他肺炎和COVID-19,促进临床实践的筛选过程,因此,亟需使用医学图像的AI辅助诊断。
目前,刘发明等人收集COVID-19患者和其他肺炎患者各90例的胸部CT图像,构建线性支持向量机(linear SVM)模型,对COVID-19患者和其他肺炎患者进行分类。该模型使用20次10折交叉验证进行训练和测试。分类准确度为87.56%,敏感度为82.78%,特异性为92.33%。Song等人提出了一种基于深度学习的CT诊断系统使用ResNet50,以从COVID-19患者、细菌性肺炎患者和健康人群中检测出COVID-19患者。将88例COVID-19患者,101例细菌性肺炎患者和86位健康人的胸部CT图像用作训练和测试数据,肺炎分类的准确度为86.0%(COVID-19或细菌性肺炎),肺炎诊断的准确度为94.0%(COVID-19或健康)。Zhang等人使用了来自260例患者的40880张CT影像切片,包括83例NCP患者,91例其他肺炎患者和86例正常人,系统能够以92.49%的准确度,94.93%的灵敏度,91.13%的特异性,AUC值为0.98。
以上的数据都是使用大型数据集在CNN网络中进行训练,Dosovitskiy提出的Vision Transformers(ViT),经结果表明大规模数据集训练克服了CNN具有的归纳偏差的优势,使得它们的模型在给定足够大量的训练数据的情况下,能够与基于CNN的体系结构相竞争。但是,上述方法存在对医学影像大型数据的依赖和训练后模型较大的问题,因此亟需一种使用小型数据集训练的肺部CT图像识别方法。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的肺部CT图像识别方法,使用二级级联网络(U-Net和CCT),既能在使用小型数据集训练的情况下基本达到CNN和ViT的精度,通过一种新颖的序列合并策略和卷积的使用,消除了ViT对类标记和位置嵌入的需求;并且大大减少了训练所需的计算资源,同时提高了图像识别的精确度。
为达到上述目的,本发明提供如下技术方案:
一种基于深度学习的肺部CT图像识别方法,具体包括以下步骤:
S1:获取原始肺部CT图像数据集;
S2:使用改进的U-Net网络对原始肺部CT图像数据集进分割,其中改进的U-Net网络使用Focal Loss作为损失函数提高肺区分割能力;
S3:使用分割后的肺部CT图像作为训练集和测试集,将训练集输入紧凑型卷积Transformers(Compact Convolutional Transformer,CCT)网络进行训练;
S4:将测试集输入至训练好的CCT网络,输出病症类别的概率值,通过概率值确认检测患者的肺部CT图像类别。
进一步,步骤S1中,获取的原始肺部CT图像数据集,包括病毒性肺炎患者、细菌性肺炎患者和正常人的肺部CT图像,数量比例为1:1:1。
进一步,步骤S2中,改进的U-Net网络结构包括:下采样、上采样以及跳跃连接三部分;首先将该网络分为左右部分来分析,左边是压缩的过程,即编码器;解码器也采用4组卷积,每一组包含步幅分别为1和2的两个上采样层,卷积核尺寸全为3×3,输出通道数分别为1、64、128、256、512、1024,得到网络每一层的输出尺寸为568、280、136、64、28;通过卷积和下采样来降低图像尺寸,提取一些浅显的特征。右边部分是解码的过程,即解码器;通过卷积和上采样来获取一些深层次的特征。其中卷积采用valid的填充方式来保证结果都是基于没有缺失上下文特征得到的,因此每次经过卷积后,图像的大小会减小;中间通过连接的方式,将编码阶段获得的特征图(Feature Map)同解码阶段获得的特征图结合在一起,结合深层次和浅层次的特征,细化图像,根据得到的特征图进行预测分割;要注意的是这里两层的特征图大小不同,因此需要经过切割。最后一层通过1×1的卷积做分类。
进一步,步骤S2中,使用的Focal Loss损失函数,表达式为:
Figure BDA0003164741560000031
其中,FL表示肺区的分割损失,α为平衡正负样本的数量,γ表示调焦参数,p表示样本的预测概率值。
进一步,步骤S3中,所述CCT网络由小跨度的卷积组成,允许有效的标记化并保持局部空间关系;在网络模型中引入感应偏置,使用一个卷积模块代替ViT中的“ImagePatching”和“Embedding”层,卷积模块包括单个卷积层、RELU激活和最大池操作;编码器由Transformers块组成,每个Transformer块包括一个多头注意力机制(Multi-head Self-Attention,MSA)和多层感知器(Multi-Layer Perceptron,MLP);与ViT类似,本发明在添加位置嵌入后应用层范数;Transformers编码器使用层归一化、GELU激活和dropout;为了将顺序输出映射到单个类别索引,而不是使用类别标记(如BERT、ViT和大多数其他基于Transformers的分类器),使用Sequence Pooling;将跨序列汇集Transformers主干的输出;汇集整个数据序列,因为它包含输入图像不同部分的相关信息,从而使模型紧凑。
本发明的有益效果在于:本发明的模型引入了一种基于卷积的修补方法,该方法保留了局部信息,并且能够对补丁之间的关系进行编码,通过新颖的序列合并策略和卷积的使用,消除了ViT对类标记和位置嵌入的需求。与卷积神经网络(CNN)相比,本发明使用的CCT具有更少的参数和MAC,并且能提高识别精确度。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明基于深度学习的肺部CT图像识别方法的整体流程图;
图2为本发明使用的U-Net结构图;
图3为紧凑型卷积Transformers训练流程图;
图4为测试测试集的混淆矩阵;
图5为测试测试集的ROC曲线。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
请参阅图1~图5,本实施例提供一种基于深度学习的肺部CT图像识别方法,使用深度学习对新型冠状病毒性肺炎(Novel Corona Pneumonia,NCP)、普通肺炎(CommonPneumonia,CP)和正常对照组(Normal)三大类数据的计算机断层扫描(CT)的图像进行识别。其中,肺炎包括细菌性肺炎和病毒性肺炎。第一步:将U-Net网络作为基础网络进行训练,使用Focal Loss为损失函数,训练模型用来分割出CT图像中的肺区,分割后的CT图像作为识别阶段训练集和测试集;第二步:使用紧凑型卷积Transformer(CompactConvolutional Transformer,CCT)模型输出分类病症概率值,判断胸部CT图像类型。
该识别方法主要包括以下几个步骤:
S1:在本实施中,为了保证数据的平衡和在小型数据集训练情况下,在4154名患者中挑选3017张CT图像作为训练,2968张CT图像作为验证集。训练集和验证集中新冠肺炎,普通肺炎,正常对照组比例为1:1:1;
S2:在U-Net网络基础上改进,使用结合Focal Loss作为损失函数提高肺区分割能力;
S3:使用分割后肺区CT图像作为训练和测试集,在CCT网络中训练;
S4:使用级联网络识别疑似患者的肺部CT图像。
步骤S2中,使用U-Net网络分割肺区,U-Net网络是U型对称结构,左侧是卷积层,右侧是上采样层。本发明中U-Net结构中,如图2所示,包含4个卷积层和对应的4个上采样层。所以在实现的时候,既可以从头实现网络并进行权重的初始化,然后进行模型的训练;也可以借用现有一些网络的卷积层结构和对应的已训练好的权重文件,再加上后面的上采样层,进行训练计算。
U-Net网络的每个卷积层得到的特征图都会连接到到对应的上采样层,从而实现对每层特征图都有效使用到后续计算中。也就是文中所说的跳跃连接。这样,同其他的一些网络结构比如FCN比较,U-Net避免了直接在高阶特征图中进行监督和Loss计算,而是结合了低阶特征图中的特征,从而可以使得最终所得到的特征图中既包含了高阶特征图,也包含很多的低阶特征,实现了不同层次下特征的融合,提高模型的结果精确度。
另一个特点是,U-Net网络的每个卷积层得到的特征图都会连接到到对应的上采样层,从而实现对每层特征图都有效使用到后续计算中。也就是文中所说的跳跃连接。解码器将经过下采样的图像恢复至原有尺寸,如图2上采样部分所示,解码器也采用4组卷积,每一组包含步幅分别为1和2的两个上采样层,卷积核尺寸全为3×3,输出层数分别为1、64、128、256、512、1024。编码器和解码器之间有对应连接,低层的特征与高层的特征相连接,将高层信息直接传输到网络底层,防止高质量细节的丢失。
U-Net避免了直接在高阶特征图中进行监督和Loss计算,而是结合了低阶特征图中的特征,从而可以使得最终所得到的特征图中既包含了高阶特征图,也包含很多的低阶特征,实现了不同层次下特征的融合,提高模型的结果精确度。
但是医疗图像的数量相对于自然图像要少,获得有临床意义的标签的难度也更大,所以用于医疗图像的网络模型机构不宜太复杂/参数不宜过多,这样容易造成过拟合,影响模型的适用性。原本使用的交叉熵损失函数,公式(1)所示:
Figure BDA0003164741560000051
其中,M=2表示类别数,yc是一个one-hot向量,元素只有0和1两种取值,如果该类别和样本的类别相同就取1,否则取0;pc表示预测样本属于c的概率。
交叉熵损失函数有一个明显的缺点,对于只用分割肺区和背景的时候,当区像素的数量远远小于背景像素的数量时,即的y=0数量远大于y=1的数量,损失函数中y=0的成分就会占据主导,使得模型严重偏向背景,导致效果不好。
所以本实施例中使用Focal Loss作为肺区的分割损失函数,其定义如公式(2)所示:
Figure BDA0003164741560000052
其中,α为平衡正负样本的数量,γ解决难以样本的不平衡,实验结果展示,当α=0.75,时,γ=2效果最好。
步骤S3中,使用分割后肺区CT图像作为训练和验证集,在紧凑型卷积Transformer(Compact Convolutional Transformer,CCT)网络中训练,网络结构图如图3所示,在损失函数中加入标签平滑增加模型的泛化能力。
Vision Transformers是需要数据的模型,它们需要足够大的数据集才能与卷积模型一样或更好地执行。Transformers缺乏CNN固有的一些归纳偏向,因此在数据不足的情况下不能很好地训练。
本实施例的模型引入了一种基于卷积的修补方法,该方法保留了局部信息,并且能够对补丁之间的关系进行编码,并通过一种卷积和新的序列池化(Sequence Pooling)策略使用消除了对类标记和位置嵌入的要求。CCT可以在小数据集上与最先进的CNN进行面对面的操作。与CNN相比,紧凑型卷积Transformers具有更少的参数和MAC,而获得了相似的精度。
VIT的patching要求图像的高度和宽度都可以被patching大小整除。可以接受不同大小的数据作为输入,而不需要裁剪或填充。而CCT模型不需要像VIT那样将图像均匀细分为多个补丁。此外,卷积和最大池操作可以重叠,这也增加了序列长度,但另一方面,可以通过注入感应偏置来提高性能。有了这些卷积patching,模型就可以保持局部的空间信息。这也为我们在删除模型中的位置嵌入方面提供了更大的灵活性,因为它设法保持了非常好的性能。
紧凑型卷积Transformers(CCT),这些变体对位置嵌入的依赖程度较低。CCT由小跨度的卷积组成,允许有效的标记化并保持局部空间关系。此外,我们在CCT中消除了对类别标记的需要,从而在我们的模型中提供了更大的灵活性。具体操作如下:
在模型中引入感应偏置,使用一个卷积块代替了ViT中的“Image Patching”和“Embedding”层。包括单个卷积层、RELU激活和最大池操作。给定一张图像
Figure BDA0003164741560000061
x0=MaxPool(Relu(Conv2d(x))) (3)
其中,Conv2d为卷积操作,具有多个个滤波器,其数目与Transformers主干的嵌入尺寸相同。这些块的数目可以大于1。当迭代这个过程时,本实施例对前面的卷积运算使用64个滤波器,对最后一个卷积运算使用多个个滤波器。增加一个卷积层,通过使用这种卷积层,可以获得比VIT之类的模型更多的灵活性。
Transformers编码器由一系列堆叠的编码层组成。每个编码层由两个子层组成:多头自我注意(MSA)和多层感知器(MLP)。每个子层之前是层归一化(layernormalization,LN),之后是到下一个子层的剩余连接。考虑输入序列x,可以如下获得单个编码层的输出y,公式如下:
x′l=xl-1+MSA(LN(xl-1)) l∈{1,2,…,L} (4)
xl=x′l+MLP(LN(xl-1)) (5)
与ViT类似,本实施例在添加位置嵌入后应用层范数。Transformers编码器使用层归一化、GELU激活和dropout。默认情况下,位置嵌入是可学习的。为了将顺序输出映射到单个类别索引,而不是使用类别标记(如BERT、ViT和大多数其他基于Transformers的分类器),使用Sequence Pooling。将跨序列汇集Transformers主干的输出。汇集整个数据序列,因为它包含输入图像不同部分的相关信息,从而使模型紧凑。可以将该操作看作映射变换T:
Figure BDA0003164741560000062
定义为公式(6):
Figure BDA0003164741560000071
其中,XL或f(X0)是L层Transformer Encoder,b为小批次大小,n为序列长度,d是嵌入维度,
Figure BDA0003164741560000072
使用Softmax激活函数,定义为公式(7):
Figure BDA0003164741560000073
可以得出:
Figure BDA0003164741560000074
通过合并第二个维度,得到
Figure BDA0003164741560000075
然后,这个输出可以通过线性分类器得到结果。
步骤S4中,使用测试集测试的结果如图4和图5所示,与卷积神经网络(CNN)相比,CCT具有更少的参数和MAC,在测试集中获得了96%的精确度。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于深度学习的肺部CT图像识别方法,其特征在于,该方法具体包括以下步骤:
S1:获取原始肺部CT图像数据集;
S2:使用改进的U-Net网络对原始肺部CT图像数据集进分割,其中改进的U-Net网络使用Focal Loss作为损失函数提高肺区分割能力;
S3:使用分割后的肺部CT图像作为训练集和测试集,将训练集输入CCT网络进行训练;其中,CCT网络是紧凑型卷积Transformers网络;
S4:将测试集输入至训练好的CCT网络,输出病症类别的概率值,通过概率值确认检测患者的肺部CT图像类别。
2.根据权利要求1所述的肺部CT图像识别方法,其特征在于,步骤S1中,获取的原始肺部CT图像数据集,包括病毒性肺炎患者、细菌性肺炎患者和正常人的肺部CT图像,数量比例为1:1:1。
3.根据权利要求1所述的肺部CT图像识别方法,其特征在于,步骤S2中,改进的U-Net网络结构包括:下采样、上采样以及跳跃连接三部分;首先将该网络分为左右部分来分析,左边是压缩的过程,即编码器;解码器采用4组卷积,每一组包含步幅分别为1和2的两个上采样层,卷积核尺寸全为3×3,输出通道数分别为1、64、128、256、512、1024,得到网络每一层的输出尺寸为568、280、136、64、28;右边部分是解码的过程,即解码器;其中卷积采用valid的填充方式;中间通过连接的方式,将编码阶段获得的特征图同解码阶段获得的特征图结合在一起,结合深层次和浅层次的特征,细化图像,根据得到的特征图进行预测分割;最后一层通过1×1的卷积做分类。
4.根据权利要求1所述的肺部CT图像识别方法,其特征在于,步骤S2中,使用的FocalLoss损失函数,表达式为:
Figure FDA0003164741550000011
其中,FL表示肺区的分割损失,α为平衡正负样本的数量,γ表示调焦参数,p表示样本的预测概率值。
5.根据权利要求1所述的肺部CT图像识别方法,其特征在于,步骤S3中,所述CCT网络由小跨度的卷积组成,允许有效的标记化并保持局部空间关系;在网络模型中引入感应偏置,使用一个卷积模块代替ViT中的“Image Patching”和“Embedding”层,卷积模块包括单个卷积层、RELU激活和最大池操作;编码器由Transformers块组成,每个Transformer块包括一个多头注意力机制和多层感知器;在添加位置嵌入后应用层范数;Transformers编码器使用层归一化、GELU激活和dropout;使用Sequence Pooling将顺序输出映射到单个类别索引;将跨序列汇集Transformers主干的输出。
CN202110801472.7A 2021-07-15 2021-07-15 一种基于深度学习的肺部ct图像识别方法 Pending CN113327258A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110801472.7A CN113327258A (zh) 2021-07-15 2021-07-15 一种基于深度学习的肺部ct图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110801472.7A CN113327258A (zh) 2021-07-15 2021-07-15 一种基于深度学习的肺部ct图像识别方法

Publications (1)

Publication Number Publication Date
CN113327258A true CN113327258A (zh) 2021-08-31

Family

ID=77426277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110801472.7A Pending CN113327258A (zh) 2021-07-15 2021-07-15 一种基于深度学习的肺部ct图像识别方法

Country Status (1)

Country Link
CN (1) CN113327258A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170232A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于Transformer的X线胸片自动诊断与新冠感染区分割方法
CN114187293A (zh) * 2022-02-15 2022-03-15 四川大学 基于注意力机制和集成配准的口腔腭部软硬组织分割方法
CN114757942A (zh) * 2022-05-27 2022-07-15 南通大学 一种基于深度学习的多层螺旋ct对活动性肺结核的检测方法
CN115205599A (zh) * 2022-07-25 2022-10-18 浙江大学 一种基于域泛化模型的多年龄段儿童胸片图像肺炎分类系统
CN115393321A (zh) * 2022-08-26 2022-11-25 南通大学 一种基于深度学习的多层螺旋ct对肺结核多分类检出方法
CN117496044A (zh) * 2023-09-19 2024-02-02 上海睿触科技有限公司 基于深度学习的肺部ct图像重建方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191476A (zh) * 2018-09-10 2019-01-11 重庆邮电大学 基于U-net网络结构的生物医学图像自动分割新方法
CN110428432A (zh) * 2019-08-08 2019-11-08 梅礼晔 结肠腺体图像自动分割的深度神经网络算法
CN110689547A (zh) * 2019-09-25 2020-01-14 重庆大学 一种基于三维ct影像的肺结节分割方法
CN111340827A (zh) * 2020-05-18 2020-06-26 天津精诊医疗科技有限公司 一种肺部ct影像数据处理分析方法及系统
CN111815608A (zh) * 2020-07-13 2020-10-23 北京小白世纪网络科技有限公司 基于深度学习的新冠肺炎患者康复时间预测方法及系统
CN111932559A (zh) * 2020-08-26 2020-11-13 上海市公共卫生临床中心 基于深度学习的新冠肺炎肺部病灶区域分割系统
US20200380695A1 (en) * 2019-05-28 2020-12-03 Zongwei Zhou Methods, systems, and media for segmenting images
CN112233117A (zh) * 2020-12-14 2021-01-15 浙江卡易智慧医疗科技有限公司 一种新冠肺炎ct检测识别定位系统及计算设备
WO2021132633A1 (ja) * 2019-12-26 2021-07-01 公益財団法人がん研究会 Aiを用いた病理診断支援方法、及び支援装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191476A (zh) * 2018-09-10 2019-01-11 重庆邮电大学 基于U-net网络结构的生物医学图像自动分割新方法
US20200380695A1 (en) * 2019-05-28 2020-12-03 Zongwei Zhou Methods, systems, and media for segmenting images
CN110428432A (zh) * 2019-08-08 2019-11-08 梅礼晔 结肠腺体图像自动分割的深度神经网络算法
CN110689547A (zh) * 2019-09-25 2020-01-14 重庆大学 一种基于三维ct影像的肺结节分割方法
WO2021132633A1 (ja) * 2019-12-26 2021-07-01 公益財団法人がん研究会 Aiを用いた病理診断支援方法、及び支援装置
CN111340827A (zh) * 2020-05-18 2020-06-26 天津精诊医疗科技有限公司 一种肺部ct影像数据处理分析方法及系统
CN111815608A (zh) * 2020-07-13 2020-10-23 北京小白世纪网络科技有限公司 基于深度学习的新冠肺炎患者康复时间预测方法及系统
CN111932559A (zh) * 2020-08-26 2020-11-13 上海市公共卫生临床中心 基于深度学习的新冠肺炎肺部病灶区域分割系统
CN112233117A (zh) * 2020-12-14 2021-01-15 浙江卡易智慧医疗科技有限公司 一种新冠肺炎ct检测识别定位系统及计算设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALI HASSANI: "escaping the big data paradigm with compact transformers", 《ARXIV:2014.05704V3》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170232A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于Transformer的X线胸片自动诊断与新冠感染区分割方法
CN114170232B (zh) * 2021-12-02 2024-01-26 匀熵智能科技(无锡)有限公司 基于Transformer的X线胸片自动诊断与新冠感染区分割方法
CN114187293A (zh) * 2022-02-15 2022-03-15 四川大学 基于注意力机制和集成配准的口腔腭部软硬组织分割方法
CN114757942A (zh) * 2022-05-27 2022-07-15 南通大学 一种基于深度学习的多层螺旋ct对活动性肺结核的检测方法
CN115205599A (zh) * 2022-07-25 2022-10-18 浙江大学 一种基于域泛化模型的多年龄段儿童胸片图像肺炎分类系统
CN115205599B (zh) * 2022-07-25 2023-02-10 浙江大学 一种基于域泛化模型的多年龄段儿童胸片图像肺炎分类系统
CN115393321A (zh) * 2022-08-26 2022-11-25 南通大学 一种基于深度学习的多层螺旋ct对肺结核多分类检出方法
CN117496044A (zh) * 2023-09-19 2024-02-02 上海睿触科技有限公司 基于深度学习的肺部ct图像重建方法

Similar Documents

Publication Publication Date Title
CN113327258A (zh) 一种基于深度学习的肺部ct图像识别方法
Aggarwal et al. COVID-19 image classification using deep learning: Advances, challenges and opportunities
Wang et al. Covid-19 classification by FGCNet with deep feature fusion from graph convolutional network and convolutional neural network
Gite et al. Enhanced lung image segmentation using deep learning
Behzadi-Khormouji et al. Deep learning, reusable and problem-based architectures for detection of consolidation on chest X-ray images
CN109785300A (zh) 一种癌症医学图像数据处理方法、系统、装置和存储介质
CN109614991A (zh) 一种基于Attention的多尺度扩张性心肌的分割分类方法
CN112785592A (zh) 基于多重扩张路径的医学影像深度分割网络
Rahman et al. HOG+ CNN Net: Diagnosing COVID-19 and pneumonia by deep neural network from chest X-Ray images
CN114332572B (zh) 基于显著图引导分层密集特征融合网络用于提取乳腺病变超声图像多尺度融合特征参数方法
CN115131280A (zh) 一种融合注意力机制的改进YOLO v4肺结节检测方法
Ucar et al. Automated detection of Covid-19 disease using deep fused features from chest radiography images
Onga et al. Efficient feature embedding of 3D brain MRI images for content-based image retrieval with deep metric learning
CN114170232A (zh) 基于Transformer的X线胸片自动诊断与新冠感染区分割方法
CN114119516A (zh) 基于迁移学习和级联自适应空洞卷积的病毒病灶分割方法
Chapala et al. ResNet: detection of invasive ductal carcinoma in breast histopathology images using deep learning
Soundrapandiyan et al. AI-based wavelet and stacked deep learning architecture for detecting coronavirus (COVID-19) from chest X-ray images
Saha Classification of Parkinson’s disease using MRI data and deep learning convolution neural networks
Das et al. Attention-UNet architectures with pretrained backbones for multi-class cardiac MR image segmentation
CN116091446A (zh) 食管内窥镜图像的异常检测方法、系统、介质及设备
Erdem et al. Hybrid‐Patch‐Alex: A new patch division and deep feature extraction‐based image classification model to detect COVID‐19, heart failure, and other lung conditions using medical images
Ummah et al. Covid-19 and Tuberculosis Detection in X-Ray of Lung Images with Deep Convolutional Neural Network.
Yu et al. Computer-aided tumor diagnosis in automated breast ultrasound using 3d detection network
CN111932486A (zh) 一种基于3d卷积神经网络的脑胶质瘤分割方法
Mohapatra et al. A SVM based model for COVID detection using CXR image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210831

RJ01 Rejection of invention patent application after publication