CN114332535A - 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法 - Google Patents

基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法 Download PDF

Info

Publication number
CN114332535A
CN114332535A CN202111644756.6A CN202111644756A CN114332535A CN 114332535 A CN114332535 A CN 114332535A CN 202111644756 A CN202111644756 A CN 202111644756A CN 114332535 A CN114332535 A CN 114332535A
Authority
CN
China
Prior art keywords
network
feature
layer
classification
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111644756.6A
Other languages
English (en)
Other versions
CN114332535B (zh
Inventor
蓝姝洁
高琳琳
张哲昊
寿亿锒
禚世豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN202111644756.6A priority Critical patent/CN114332535B/zh
Publication of CN114332535A publication Critical patent/CN114332535A/zh
Application granted granted Critical
Publication of CN114332535B publication Critical patent/CN114332535B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法,其特征在于:获取一定数量的sMRI图像及其标签,对所有的sMRI图像进行预处理,形成样本集;将样本集分成训练集、验证集和测试集;构建网络模型并对其进行训练和验证,其中构建的网络模型是通过在现有Unet网络中插入特征融合网络和分类网络,设计的特征融合网络是为了给Unet网络的编码器补充语义信息并给解码器补充细节信息;分类网络的目的是能有效地融合多语义特征图,从而提高网络的表达能力并实现分类;最后通过将测试集中的待测试图像输入到最优的网络模型中,即得到待测试图像的分类结果。因此该分类方法简单且提高了分类准确率。

Description

基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法
技术领域
本发明涉及图像处理领域,特别涉及一种基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法。
背景技术
传统的面向结构性磁共振成像(structural magnetic resonance imaging,简称sMRI)图像的分类方法受限于人工设计的特征提取的复杂性和潜在特征丢失的风险。近年来,许多基于卷积神经网络(convolutional neural network,简称CNN)的图像分类方法具有强大的任务导向特征表示能力,这些基于CNN的方法可分为四类:1)基于切片的方法,2)基于图像块的方法,3)基于感兴趣区域(regions-of-interest,简称ROI)的方法,4)基于全图像的方法。
基于切片的方法是将原始三维图像中抽取的二维切片作为二维CNN的输入,这种方法在训练过程中的参数较少,样本较多,因而减少了网络训练过程中过拟合的风险,但是以二维切片作为输入,会导致三维信息的丢失。基于图像块的方法首先是采用基于不同的策略生成信息丰富的图像块,即从一幅三维图像中抽取较多的信息丰富的图像块,然后利用三维CNN来提取并融合这些信息丰富的图像块的特征用于分类,此类方法可以有效地避免网络训练时的过拟合现象,但是生成的信息性图像块不能覆盖所有的病变区域。基于ROI的方法首先是根据专家的知识对疾病相关区域进行分割,然后再提取这些区域的特征进行分类,但是受专家的主观经验限制,分割之后的ROI通常也不能覆盖所有的病变区域。基于全图像的方法是采用整个3D sMRI图像作为三维CNN的输入,这避免了3D sMRI图像内容的丢失,但是因为大多数3D CNN自下而上的网络结构让图像的特征图分辨率逐渐降低,导致一些小组织(如大脑的海马和杏仁核)的图像特征可能会消失。因此,以上基于CNN的方法都存在不可避免的问题。
UNet是一种编码器—解码器结构。编码器是一个自下而上的子网络,解码器是为了恢复编码器退化的特征图的分辨率的子网络。其中,跳过连接是Unet的重要结构,它们将编码器和解码器同一层级的特征图融合在一起,弥补了由于卷积造成的信息丢失,帮助解码器提取重要的浅层信息,有利于Unet对小对象的特征提取。目前,基于Unet网络结构已经开发出了一些分类方法。然而,在融合浅层信息的时候,并不是所有浅层信息对图像识别都有积极作用,相反,过多的无用的浅层信息不利于图像的正确分类。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种特征提取更加全面,从而提高分类准确率的基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法。
本发明解决上述技术问题所采用的技术方案为:一种基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法,其特征在于:包括以下步骤:
步骤1、获取一定数量的sMRI图像及其标签,对所有的sMRI图像进行预处理,形成样本集;
步骤2、将样本集分成训练集、验证集和测试集;
步骤3、构建网络模型;构建的网络模型包括Unet网络、特征融合网络和分类网络;其中Unet网络包括具有N个第一特征提取层和N个下采样层的编码器以及具有N+1个第二特征提取层和N个上采样层的解码器;特征融合网络为N个;N为正整数;
其中编码器的具体结构为:依次相连接的第1个第一特征提取层、第1个下采样层、第2个第一特征提取层、第2个下采样层……第N个第一特征提取层、第N个下采样层;第1个第一特征提取层的输入端对应为构建的网络模型的输入端;
解码器的具体结构为:解码器中第1个第二特征提取层的输入端与第N个下采样层的输出端相连接,第1个第二特征提取层的输出端与第1个上采样层的输入端相连接,第1个上采样层的输出端与第1个特征融合网络的输入端相连接,并且编码器中输出与第1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第1个特征融合网络的输入端相连接;
第n个特征融合网络的输出端与解码器中的第n+1个第二特征提取层的输入端相连接,第n+1个第二特征提取层的输出端与第n+1个上采样层相连接,第n+1个上采样层与第n+1个特征融合网络的输入端相连接,并且编码器中输出与该第n+1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第n+1个特征融合网络的输入端相连接;依次将n取值为1、2、…、N-1,之后将第N个特征融合网络的输出端与解码器中的第N+1个第二特征提取层的输入端相连接;最后将N+1个第二特征提取层的输入端均与分类网络的输入端相连接,分类网络的输出端即对应为构建的网络模型的输出端;
上述每个特征融合网络的结构相同,均包括特征融合块、语义注意力块和细节注意力块;特征融合块用于融合编码器中某一个第一特征提取层输出的特征图Fe和解码器中某一个上采样层输出与Fe尺寸相同的特征图Fd,得到融合后的特征图Ff;并将特征图Ff分别输入到语义注意力块和细节注意力块中得到语义注意力图Ms和细节注意力图Md;最终融合Fe、Fd、Ms和Md得到特征融合网络输出的特征图F;
Figure BDA0003444751250000031
Ms=Sigmoid(MLP(GAP(Conv2(Ff)))
Md=Sigmoid((Conv3(Ff)))
Figure BDA0003444751250000032
其中,Conv1表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure BDA0003444751250000033
表示元素的加法;Relu为激活函数;Conv2表示卷积核大小为1×1×1,步长为1的卷积运算操作;GAP表示全局平均池化操作;MLP表示多层感知器;Sigmoid表示激活函数;Conv3表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure BDA0003444751250000034
表示元素的乘法;
Figure BDA0003444751250000035
Figure BDA0003444751250000036
表示
Figure BDA0003444751250000037
后得到的特征图和
Figure BDA0003444751250000038
得到的特征图沿通道维度的连接操作;
分类网络的结构为:先按照先后顺序将相邻两特征图依次进行卷积和拼接得到第一父节点,并按照先后顺序将相邻的第一父节点再依次进行卷积和拼接得到第二父节点,依次类推,直至最终得到一个根节点;最后将根节点依次进行卷积、全局平均池化操作和全连接操作,即得到分类网络输出的分类结果;
步骤4、将训练集中所有的样本图像分批次输入到步骤3中构建的网络模型中进行训练,并使用验证集中所有样本图像验证训练后的网络模型性能;经过多次训练与验证后,筛选出最优的网络模型;
步骤5、将测试集中的待测试图像输入到最优的网络模型中,即得到待测试图像的分类结果。
具体的,所述编码器中第1个第一特征提取层包括依次相连接的第一卷积操作、最大池化操作和第二卷积操作;其他的n-1个第一特征提取层均包括第三卷积操作。
进一步的,所述解码器中每个第二特征提取层均包括第四卷积操作。
优选地,所述解码器中每个上采样层包括上采样操作和第五卷积操作。
与现有技术相比,本发明的优点在于:通过在现有Unet网络中加入特征融合网络和分类网络,该特征融合网络通过在编码器上添加缺失的语义信息和在解码器上添加缺失的细节信息,使编码器和解码器上的特征更加全面;另外,分类网络以树结构的方式融合解码器上丰富的语义特征,从而提高网络的表达能力并实现分类。因此该分类方法简单且提高了分类准确率。
附图说明
图1为本发明实施例中构建的网络模型架构示意图;
图2为图1中特征融合网络的架构示意图;
图3为图1中分类网络的结构示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本实施例中基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法包括以下步骤:
步骤1、获取一定数量的sMRI图像及其标签,对所有的sMRI图像进行预处理,形成样本集;
本实施例中,预处理包括对所有的sMRI图像进行重采样、头骨剥离和线性配准的处理,当然,也可以包括降低后续sMRI图像处理的复杂度以及提高图像识别准确率的其他预处理操作;上述标签为人工对sMRI图像进行识别而得到的分类结果;
步骤2、将样本集分成训练集、验证集和测试集;
本实施例中,训练集、测试集、验证集的比例按照18:5:4来划分,训练集用于训练网络,即调整网络参数;测试集用于检验最优网络的泛化能力;验证集用于选择最优的网络参数;
步骤3、构建网络模型;构建的网络模型包括Unet网络、特征融合网络和分类网络;其中Unet网络包括具有N个第一特征提取层和N个下采样层的编码器以及具有N+1个第二特征提取层和N个上采样层的解码器;特征融合网络为N个;N为正整数;
上述构建的网络模型具体结构参见图1所示,为了方便表述,将图1中特征融合网络简称为CAM,分类网络简称为MFFC;
其中编码器的具体结构为:依次相连接的第1个第一特征提取层、第1个下采样层、第2个第一特征提取层、第2个下采样层……第N个第一特征提取层、第N个下采样层;第1个第一特征提取层的输入端对应为构建的网络模型的输入端;
解码器的具体结构为:解码器中第1个第二特征提取层的输入端与第N个下采样层的输出端相连接,第1个第二特征提取层的输出端与第1个上采样层的输入端相连接,第1个上采样层的输出端与第1个特征融合网络的输入端相连接,并且编码器中输出与第1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第1个特征融合网络的输入端相连接;
第n个特征融合网络的输出端与解码器中的第n+1个第二特征提取层的输入端相连接,第n+1个第二特征提取层的输出端与第n+1个上采样层相连接,第n+1个上采样层与第n+1个特征融合网络的输入端相连接,并且编码器中输出与该第n+1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第n+1个特征融合网络的输入端相连接;依次将n取值为1、2、…、N-1,之后将第N个特征融合网络的输出端与解码器中的第N+1个第二特征提取层的输入端相连接;最后将N+1个第二特征提取层的输入端均与分类网络的输入端相连接,分类网络的输出端即对应为构建的网络模型的输出端;
上述每个特征融合网络CAM的结构相同,均包括特征融合块、语义注意力块和细节注意力块;特征融合块用于融合编码器中某一个第一特征提取层输出的特征图Fe和解码器中某一个上采样层输出与Fe尺寸相同的特征图Fd,得到融合后的特征图Ff;并将特征图Ff分别输入到语义注意力块和细节注意力块中得到语义注意力图Ms和细节注意力图Md;最终融合Fe、Fd、Ms和Md得到特征融合网络输出的特征图F;
Figure BDA0003444751250000051
Ms=Sigmoid(MLP(GAP(Conv2(Ff)))
Md=Sigmoid((Conv3(Ff)))
Figure BDA0003444751250000052
其中,Conv1表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure BDA0003444751250000053
表示元素的加法;Relu为激活函数;Conv2表示卷积核大小为1×1×1,步长为1的卷积运算操作;GAP表示全局平均池化操作;MLP表示多层感知器,该多层感知器为现有技术;Sigmoid表示激活函数;Conv3表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure BDA0003444751250000054
表示元素的乘法;
Figure BDA0003444751250000055
表示
Figure BDA0003444751250000056
后得到的特征图和
Figure BDA0003444751250000057
得到的特征图沿通道维度的连接操作;
分类网络MFFC的结构为:先按照先后顺序将相邻两特征图依次进行卷积和拼接得到第一父节点,并按照先后顺序将相邻的第一父节点再依次进行卷积和拼接得到第二父节点,依次类推,直至最终得到一个根节点;最后将根节点依次进行卷积、全局平均池化操作和全连接操作,即得到分类网络输出的分类结果;该分类网络中的拼接为Concat操作,即:将两特征图卷积后的结果沿通道维度的连接操作;
上述分类网络输入的特征图个数最优为偶数,当然如果输入到分类网络MFFC中的特征图个数为奇数时,也可删除最后一个特征图或者将最后一个特征图直接参与下一个父节点的计算,以提高分类的准确率;
步骤4、将训练集中所有的样本图像分批次输入到步骤3中构建的网络模型中进行训练,并使用验证集中所有样本图像验证训练后的网络模型性能;经过多次训练与验证后,筛选出最优的网络模型;
该训练和验证过程可参见现有Unet网络的训练过程,在此不进行过多赘述;
步骤5、将测试集中的待测试图像输入到最优的网络模型中,即得到待测试图像的分类结果。
本实施例中构建的网络模型具体结构如图1所示,其中图1中的特征融合网络CAM的具体结构如图2所示,图1中的分类网络MFFC具体结构如图3所示,本实施例中构建的网络模型是通过在现有Unet网络中插入特征融合网络CAM和分类网络MFFC,设计的特征融合网络CAM是为了给Unet网络的编码器补充语义信息并给解码器补充细节信息;分类网络MFFC的目的是能有效地融合多语义特征图,从而提高网络的表达能力并实现分类。
图1的编码器中第1个第一特征提取层包括依次相连接的第一卷积操作、最大池化操作和第二卷积操作;其他的n-1个第一特征提取层均包括第三卷积操作;另外编码器中的N个下采样层均包括最大池化操作;本实施例中;第一卷积操作的卷积核大小为7*7*7,步长为2,填充值为2;最大池化操作的卷积尺寸为2,步长为2;第二卷积操作和第三卷积操作的结构相同,均为2个卷积核大小为3*3*3,步长为1,填充值为1(即进行2次卷积);每个下采样层的最大池化操作的卷积尺寸为2,步长为2。当然,在该Unet网络的各层网络中可适应性的增加激活函数,以提高网络的非线性建模能力。
另外,解码器中每个第二特征提取层均包括第四卷积操作;每个上采样层包括上采样操作和第五卷积操作。本实施例中,第四卷积操作为2个卷积核大小为3*3*3,步长为1,填充值为1(即进行2次卷积);每个上采样层中第五卷积操作的卷积核大小均为3*3*3,步长均为1,填充值均为1。
图2中编码器的输出特征图记为
Figure BDA0003444751250000061
解码器的特征图记为
Figure BDA0003444751250000062
Figure BDA0003444751250000063
其中,C代表通道数,H、W、L代表特征图的高、宽、长;融合后的特征图记为
Figure BDA0003444751250000064
语义注意力图记为
Figure BDA0003444751250000065
细节注意力图记为
Figure BDA0003444751250000066
Figure BDA0003444751250000067
上述特征融合网络CAM最终的输出记为
Figure BDA0003444751250000068
Figure BDA0003444751250000069
表示Ms和Fe的结合,用于增加编码器部分的特征图的语义信息;
Figure BDA00034447512500000610
表示Md和Fd结合,用于增加解码器部分的特征图的细节特征。
在特征融合网络CAM中,首先将编码器和解码器的特征图融合成同时用于细节信息和语义信息的特征图Ff,然后通过卷积运算把融合后的特征图Ff转移到具有更好通道空间的特征图上,并使用全局平均池化GAP对特征图进行融合,得到具有C×1×1×1大小的聚合特征图。然后利用多层感知器MLP和Sigmoid激活函数生成语义注意力图Ms,其中多层感知器MLP包含一个大小为C/2×1×1×1的隐藏层,它增加了聚合特征图的语义信息,同时减少了参数的数量;该多层感知器MLP为本领域技术人员所公知的知识,在此不进行赘述;同时通过将融合后的特征图Ff通过使用卷积运算来聚合Ff的空间信息,然后利用Sigmoid激活函数生成细节注意力图Md,该步骤的目的是由于特征图的空间位置描述了不同的细节,因此通过探索之前生成的特征图的内部空间的关系来生成细节注意力块以提高分类结果的准确率;最后即通过将增加编码器部分的特征图的语义信息和增加解码器部分的特征图的细节特征进行连接,得到该特征融合网络的输出特征图,从而该特征融合网络在编码器上添加缺失的语义信息和在解码器上添加缺失的细节信息,使编码器和解码器上的特征更加全面。
图3中将来自解码器的四个语义特征图记为
Figure BDA0003444751250000071
Figure BDA0003444751250000072
Figure BDA0003444751250000073
它们被认为是叶节点;由于相邻的节点具有相似的语义,因此它们被逐渐融合构建成父节点(即Fp1和Fp2)。当生成根节点(即Fr)时,这些多语义特征的融合完成。每两个相邻节点的特征融合是通过卷积运算和拼接的操作实现的。此外,根节点Fr输入到由卷积、全局平均池化操作(GAP)和全连接(FC)层组成的分类器用于最终的分类。因此该分类网络MFFC是以树结构的方式融合解码器上丰富的语义特征,从而提高网络的表达能力并实现分类。

Claims (4)

1.一种基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法,其特征在于:包括以下步骤:
步骤1、获取一定数量的sMRI图像及其标签,对所有的sMRI图像进行预处理,形成样本集;
步骤2、将样本集分成训练集、验证集和测试集;
步骤3、构建网络模型;构建的网络模型包括Unet网络、特征融合网络和分类网络;其中Unet网络包括具有N个第一特征提取层和N个下采样层的编码器以及具有N+1个第二特征提取层和N个上采样层的解码器;特征融合网络为N个;N为正整数;
其中编码器的具体结构为:依次相连接的第1个第一特征提取层、第1个下采样层、第2个第一特征提取层、第2个下采样层.....第N个第一特征提取层、第N个下采样层;第1个第一特征提取层的输入端对应为构建的网络模型的输入端;
解码器的具体结构为:解码器中第1个第二特征提取层的输入端与第N个下采样层的输出端相连接,第1个第二特征提取层的输出端与第1个上采样层的输入端相连接,第1个上采样层的输出端与第1个特征融合网络的输入端相连接,并且编码器中输出与第1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第1个特征融合网络的输入端相连接;
第n个特征融合网络的输出端与解码器中的第n+1个第二特征提取层的输入端相连接,第n+1个第二特征提取层的输出端与第n+1个上采样层相连接,第n+1个上采样层与第n+1个特征融合网络的输入端相连接,并且编码器中输出与该第n+1个上采样层输出特征图尺寸大小相同的第一特征提取层的输出端也与第n+1个特征融合网络的输入端相连接;依次将n取值为1、2、...、N-1,之后将第N个特征融合网络的输出端与解码器中的第N+1个第二特征提取层的输入端相连接;最后将N+1个第二特征提取层的输入端均与分类网络的输入端相连接,分类网络的输出端即对应为构建的网络模型的输出端;
上述每个特征融合网络的结构相同,均包括特征融合块、语义注意力块和细节注意力块;特征融合块用于融合编码器中某一个第一特征提取层输出的特征图Fe和解码器中某一个上采样层输出与Fe尺寸相同的特征图Fd,得到融合后的特征图Ff;并将特征图Ff分别输入到语义注意力块和细节注意力块中得到语义注意力图Ms和细节注意力图Md;最终融合Fe、Fd、Ms和Md得到特征融合网络输出的特征图F;
Figure FDA0003444751240000011
Ms=Sigmoid(MLP(GAP(Conv2(Ff)))
Md=Sigmoid((Conv3(Ff)))
Figure FDA0003444751240000021
其中,Conv1表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure FDA0003444751240000022
表示元素的加法;Relu为激活函数;Conv2表示卷积核大小为1×1×1,步长为1的卷积运算操作;GAP表示全局平均池化操作;MLP表示多层感知器;Sigmoid表示激活函数;Conv3表示卷积核大小为1×1×1和步长为1的卷积操作;
Figure FDA0003444751240000023
表示元素的乘法;
Figure FDA0003444751240000024
Figure FDA0003444751240000025
表示
Figure FDA0003444751240000026
后得到的特征图和
Figure FDA0003444751240000027
得到的特征图沿通道维度的连接操作;
分类网络的结构为:先按照先后顺序将相邻两特征图依次进行卷积和拼接得到第一父节点,并按照先后顺序将相邻的第一父节点再依次进行卷积和拼接得到第二父节点,依次类推,直至最终得到一个根节点;最后将根节点依次进行卷积、全局平均池化操作和全连接操作,即得到分类网络输出的分类结果;
步骤4、将训练集中所有的样本图像分批次输入到步骤3中构建的网络模型中进行训练,并使用验证集中所有样本图像验证训练后的网络模型性能;经过多次训练与验证后,筛选出最优的网络模型;
步骤5、将测试集中的待测试图像输入到最优的网络模型中,即得到待测试图像的分类结果。
2.根据权利要求1所述的sMRI图像分类方法,其特征在于:所述编码器中第1个第一特征提取层包括依次相连接的第一卷积操作、最大池化操作和第二卷积操作;其他的n-1个第一特征提取层均包括第三卷积操作。
3.根据权利要求2所述的sMRI图像分类方法,其特征在于:所述解码器中每个第二特征提取层均包括第四卷积操作。
4.根据权利要求1~3任一项所述的sMRI图像分类方法,其特征在于:所述解码器中每个上采样层包括上采样操作和第五卷积操作。
CN202111644756.6A 2021-12-30 2021-12-30 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法 Active CN114332535B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111644756.6A CN114332535B (zh) 2021-12-30 2021-12-30 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111644756.6A CN114332535B (zh) 2021-12-30 2021-12-30 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法

Publications (2)

Publication Number Publication Date
CN114332535A true CN114332535A (zh) 2022-04-12
CN114332535B CN114332535B (zh) 2022-07-15

Family

ID=81016717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111644756.6A Active CN114332535B (zh) 2021-12-30 2021-12-30 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法

Country Status (1)

Country Link
CN (1) CN114332535B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111681252A (zh) * 2020-05-30 2020-09-18 重庆邮电大学 一种基于多路径注意力融合的医学图像自动分割方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
US20200349697A1 (en) * 2019-05-02 2020-11-05 Curacloud Corporation Method and system for intracerebral hemorrhage detection and segmentation based on a multi-task fully convolutional network
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法
CN112330681A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种基于注意力机制的轻量级网络实时语义分割方法
CN113343789A (zh) * 2021-05-20 2021-09-03 武汉大学 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200349697A1 (en) * 2019-05-02 2020-11-05 Curacloud Corporation Method and system for intracerebral hemorrhage detection and segmentation based on a multi-task fully convolutional network
CN111681252A (zh) * 2020-05-30 2020-09-18 重庆邮电大学 一种基于多路径注意力融合的医学图像自动分割方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法
CN112330681A (zh) * 2020-11-06 2021-02-05 北京工业大学 一种基于注意力机制的轻量级网络实时语义分割方法
CN113343789A (zh) * 2021-05-20 2021-09-03 武汉大学 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIALI SHI,RONG ZHANG,GAO LINLIN: "Discriminative Feature Network Based on a Hierarchical Attention Mechanism for Semantic Hippocampus Segmentation", 《IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICA》 *
XUEYING CHEN,RONG ZHANG,PINGKUN YAN: "Feature fusion encoder decoder network for automatic liver lesion", 《ARXIV:1903.11834V1》 *
袁洲,郭海涛: "融合UNet++网络和注意力机制的高分辨率遥感影像变化检测算法", 《测绘科学技术学报》 *

Also Published As

Publication number Publication date
CN114332535B (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
WO2021184891A1 (zh) 遥感影像地物分类方法及系统
CN110782462B (zh) 一种基于双流特征融合的语义分割方法
CN109034162B (zh) 一种图像语义分割方法
CN110020989B (zh) 一种基于深度学习的深度图像超分辨率重建方法
CN111369565B (zh) 一种基于图卷积网络的数字病理图像的分割与分类方法
CN112258526B (zh) 一种基于对偶注意力机制的ct肾脏区域级联分割方法
CN111127374A (zh) 一种基于多尺度密集网络的Pan-sharpening方法
EP3627379A1 (en) Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium
CN113222124B (zh) 用于图像语义分割的SAUNet++网络与图像语义分割方法
CN110781980B (zh) 目标检测模型的训练方法、目标检测方法及装置
CN113052856A (zh) 一种基于多尺度特征多路注意力融合机制的海马体三维语义网络分割方法
CN114119975A (zh) 一种语言引导的跨模态实例分割方法
Chatterjee et al. On building classification from remote sensor imagery using deep neural networks and the relation between classification and reconstruction accuracy using border localization as proxy
CN114359297A (zh) 基于注意力金字塔的多分辨率语义分割方法及装置
CN116129291A (zh) 一种面向无人机畜牧的图像目标识别方法及其装置
CN109766918A (zh) 基于多层次上下文信息融合的显著性物体检测方法
CN116309062A (zh) 一种遥感图像超分辨率重建方法
CN115841464A (zh) 基于自监督学习的多模态脑肿瘤影像分割方法
CN110599495B (zh) 一种基于语义信息挖掘的图像分割方法
CN114581406A (zh) 基于Segformer的胃部病理切片细胞核分割方法
CN114511798A (zh) 基于transformer的驾驶员分心检测方法及装置
CN114332535B (zh) 基于高分辨率的互补注意力UNet分类器的sMRI图像分类方法
CN111914853A (zh) 一种用于立体匹配的特征提取方法
CN113887470B (zh) 基于多任务注意力机制的高分辨率遥感图像地物提取方法
CN114332574A (zh) 图像处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant