CN115170985A - 一种基于阈值注意力的遥感图像语义分割网络及分割方法 - Google Patents

一种基于阈值注意力的遥感图像语义分割网络及分割方法 Download PDF

Info

Publication number
CN115170985A
CN115170985A CN202210876357.0A CN202210876357A CN115170985A CN 115170985 A CN115170985 A CN 115170985A CN 202210876357 A CN202210876357 A CN 202210876357A CN 115170985 A CN115170985 A CN 115170985A
Authority
CN
China
Prior art keywords
attention
threshold
network
feature
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210876357.0A
Other languages
English (en)
Other versions
CN115170985B (zh
Inventor
滕亦皓
龙伟
张永军
欧阳婷
曲彦桥
黄贵圣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Wasu Cloud Valley Technology Co ltd
Guizhou University
Original Assignee
Guizhou Wasu Cloud Valley Technology Co ltd
Guizhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Wasu Cloud Valley Technology Co ltd, Guizhou University filed Critical Guizhou Wasu Cloud Valley Technology Co ltd
Priority to CN202210876357.0A priority Critical patent/CN115170985B/zh
Publication of CN115170985A publication Critical patent/CN115170985A/zh
Application granted granted Critical
Publication of CN115170985B publication Critical patent/CN115170985B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

本发明提供一种基于阈值注意力的遥感图像语义分割网络及分割方法,它包含有主干网络、注意力特征增强模块和阈值注意力金字塔池化模块,所述主干网络使用预先在ImageNet Image数据集上训练过的ResNet101,并且将其最后两个下采样层替换成膨胀卷积层,用来对输入图片进行特征的提取;所述注意力特征增强模块由三个支路组成,分别为全局平均池化、阈值注意力模块和残差连接组成,帮助网络增强浅层网络所获得的特征信息;所述阈值注意力金字塔池化可以分为三个部分,分别为不同扩张率的膨胀卷积支路、全局平均池化支路和阈值注意力支路,使得网络能够获取输入特征的不同感受野,同时获取更多的全局上下文信息。

Description

一种基于阈值注意力的遥感图像语义分割网络及分割方法
技术领域
本发明属于计算机视觉研究技术领域,更具体地说,特别涉及一种基于阈值注意力的遥感图像语义分割网络及其分割方法。
背景技术
遥感是人们获取地理空间信息的主要手段,它被广泛用于各种应用,例如城市规划、植被监测、军事侦察和灾害监测。高分辨率航空图像和卫星图像的语义分割是遥感领域的一项基本任务,其目标是为图像中的每个像素分配一个类别标签。
深度学习在最近几年获得了巨大的发展,因为其有强大的特征提取能力,而被应用在各种RGB图像处理相关的任务中。在语义分割领域,FCN网络最早被提出,并实现了端到端的逐像素语义分割,虽然这种卷积神经网络能在很大程度上提高语义分割的准确率。然而,基于深度学习的语义分割仍然面临着两个重要的挑战。
第一,FCN的编码部分中采用的下采样操作,会使较深网络层丢失掉原始图片中的精细信息,从而导致了粗糙和不准确的预测。第二,在深度神经网络中,能否捕获到远距离像素之间的相关性,对获取输入图片中各像素的语义信息非常重要。卷积神经网络本身使用的卷积算子有着很大的限制,因为卷积算子专注于捕捉局部特征和关系,这使得FCN捕获远程依赖关系的能力不够好,它的感受野随着网络深度的增加,只是在缓慢地增长。
自注意力机制由于其强大的远程依赖捕获能力,已被广泛应用于自然语言处理和计算机视觉等任务中。Non-local网络将自注意力机制运用到了计算机视觉领域中,通过对输入特征进行点积运算来学习得到注意力权重,然后用相应的注意力权重将所有信号相加,使得卷积神经网络能够更好地获取到远距离像素之间的依赖关系。
但是,这种自注意力机制却有两个明显的限制,首先,它需要生成密集的注意力特征图来度量每个像素对之间的关系,因此其计算复杂度很高,需要占用大量的GPU显存。其次,这种考虑全部像素对之间依赖关系的做法会导致信息冗余,从而不利于特征表示。而且,对于高分辨率遥感图像来说,在空间上相邻的像素通常是高度相关的,邻近像素之间的依赖关系对最终的分割效果贡献更大。但是,这种点积自注意力机制对局部上下文信息不敏感,加权和操作甚至可能会分散全局注意权值。这种特点会导致关注的兴趣范围超出本来应该关注的对象区域,不可避免地引入了一些相当于冗余噪声的注意力权重。
发明内容
为了解决上述技术问题,本发明提供一种基于阈值注意力的遥感图像语义分割网络及分割方法,本发明的模型在主干网络ResNet101上加入了注意力特征增强模块和阈值注意力金字塔池化模块,通过阈值注意力增强主干网络中的浅层特征的细节信息,加强深层特征的全局上下文信息,有效地提高了遥感图像分割精度。本发明的模型主要由以下三个关键组成部分组成:1)本发明提出了一种新的注意力方法:阈值注意力。通过对特征图进行量化统计并阈值化后,进行点积注意力计算,有效获取了图像中不同相似区域的依赖关系。2)本发明设计了一种注意力特征增强模块,可以更好地增强输入特征的细节信息。3)本发明设计了一个阈值注意力金字塔池化模块,在获取不同尺度特征的同时也能获取更多更丰富的全局上下文信息。经过本发明大量的实验结果表明,本发明的模型能很好地进行遥感图像的语义分割,尤其是在汽车等小尺度物体的分割上,分割效果有很大的提升。不论在定性还是定量上,本发明的方法许对比大多SOTA遥感图像语义分割算法都有更好的表现,有效的解决了上述存在的技术问题。
本发明一种基于阈值注意力的遥感图像语义分割网络及分割方法的目的与功效,由以下具体技术手段所达成:
一种基于阈值注意力的遥感图像语义分割网络,它包含有主干网络、注意力特征增强模块和阈值注意力金字塔池化模块,所述主干网络使用预先在ImageNet Image数据集上训练过的ResNet101,并且将其最后两个下采样层替换成膨胀卷积层,用来对输入图片进行特征的提取;所述注意力特征增强模块由三个支路组成,分别为全局平均池化、阈值注意力模块和残差连接组成,帮助网络增强浅层网络所获得的特征信息;所述阈值注意力金字塔池化可以分为三个部分,分别为不同扩张率的膨胀卷积支路、全局平均池化支路和阈值注意力支路。使得网络能够获取输入特征的不同感受野,同时获取更多的全局上下文信息。
所述主干网络是由已经预训练过的将最后两层下采样换成空洞卷积的ResNet101,提取得到由浅层到深层的图片特征。
所述注意力特征增强模块通过两层全连接层来实现通道注意力的获取,阈值注意力模块通过将特征图的每个通道按照一定的阈值进行量化,再进行点积注意力计算,实现对输入特征图的各个不同的相似区域进行相关性建模,得到拥有丰富全局上下文信息的特征图。最后将原始特征图与经过注意力增强所得到的特征图相加,有利于加速模型收敛。
一种基于阈值注意力的遥感图像语义分割网络的分割方法,所述方法步骤为:一、将输入遥感图送到主干网络中提取得到含有不同语义信息和细节信息的特征;二、将经主干网络提取所得的最后一层特征,输入阈值注意力金字塔池化,获取包含更大感受野更多上下文信息的特征;三、将经主干网络提取所得的前三层包含更多细节信息的浅层特征分别经过注意力特征增强模块,得到拥有丰富空间纹理信息的特征;四、将获取到的深层特征分别与前三层浅层特征经过注意力增强后所得特征进行卷积融合;五、将融合所得的特征进行双线性插值的上采样方法,得到与输入图片大小一致的分割结果图。
所述步骤二中,输入特征定义为
Figure BDA0003762700380000031
将其reshape成
Figure BDA0003762700380000032
对其每一个通道都分别通过一定的阈值进行量化:
Figure BDA0003762700380000033
其中,Fc表示输入特征F的第c个通道特征数据,M表示要量化的特征等级数,m表示要量化的第m个特征。通过量化后得到特征矩阵
Figure BDA0003762700380000034
使用
Figure BDA0003762700380000041
Figure BDA0003762700380000042
这三个投影矩阵来生成相应的查询矩阵Q,关键矩阵K,价值矩阵V。
Figure BDA0003762700380000043
Figure BDA0003762700380000044
Figure BDA0003762700380000045
其中,D(·)表示(·)的维度,其中Q矩阵和K矩阵的维度形状相同。采用归一化函数ρ来度量第i个查询特征
Figure BDA0003762700380000046
和第j个关键特征
Figure BDA0003762700380000047
之间的相似度,即
Figure BDA0003762700380000048
这个M×M大小的矩阵QKT建模了输入阈值特征矩阵的每一对不同的阈值之间的相关信息。通过计算输入特征图中所有不同阈值之间的相似度值并将此相似度值作为权重,使用加权求和的方法来聚合所有不同阈值的特征相关度来生成注意力值:
D(Q,K,V)=ρ(QKT)V
ρ(QKT)=softmaxrow(QKT)
其中,归一化函数使用的是Softmax函数,softmaxrow表示沿矩阵QKT的每一行的Softmax。
本发明至少包括以下有益效果:
本发明提供了一种端到端的可训练的基于阈值注意力的遥感图像语义分割网络(TANet),可以对遥感图像进行很好地语义分割。提出了一种新颖的阈值注意力机制,阈值注意力模块通过将特征图的每个通道按照一定的阈值进行量化,再进行点积注意力计算,实现对输入特征图的各个不同的相似区域进行相关性建模,得到拥有丰富全局上下文信息的特征图。设计了一种有效的注意力特征增强模块(AFEM),用于对主干网络所提取的浅层特征进行特征增强和细节恢复。设计了一种有效的阈值注意力金字塔池化模块(TAPPM),它由三个支路组成,包括不同扩张率的膨胀卷积支路、全局平均池化支路和阈值注意力支路,使得网络能够获取输入特征的不同感受野,同时获取更多的全局上下文信息。
附图说明:
图1为本发明的网络模型图;
图2为本发明的阈值注意力模型图;
图3为本发明的注意力特征增强模块图;
图4为本发明的阈值注意力金字塔池化模块图;
图5本发明的注意力特征增强模块消融效果和金字塔池化模块消融效果对比图;
图6为本发明的语义分割效果对比图。
具体实施方式
下面通过实施例对本发明的实施方式作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上;术语“同轴”、“底部”、“一端”、“顶部”、“中部”、“另一端”、“上”、“一侧”、“顶部”、“内”、“前部”、“中央”、“两端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“设置”、“连接”、“固定”、“旋接”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
实施例:
本发明提供一种基于阈值注意力的遥感图像语义分割网络,它包含有主干网络(BD)、注意力特征增强模块(AFEM)和阈值注意力金字塔池化模块(TAPPM),所述主干网络使用预先在ImageNet Image数据集上训练过的ResNet101,并且将其最后两个下采样层替换成膨胀卷积层,用来对输入图片进行特征的提取;所述注意力特征增强模块由三个支路组成,分别为全局平均池化、阈值注意力模块和残差连接组成,帮助网络增强浅层网络所获得的特征信息;所述阈值注意力金字塔池化可以分为三个部分,分别为不同扩张率的膨胀卷积支路、全局平均池化支路和阈值注意力支路。使得网络能够获取输入特征的不同感受野,同时获取更多的全局上下文信息。
进一步的,本发明提出了一种新的注意力方法:阈值注意力,通过对特征图进行量化统计并阈值化后,进行点积注意力计算,有效获取了图像中不同相似区域的依赖关系。
进一步的,本发明设计了一种注意力特征增强模块,可以更好地增强输入特征的细节信息。
进一步的,本发明设计了一个阈值注意力金字塔池化模块,在获取不同尺度特征的同时也能获取更多更丰富的全局上下文信息。经过本发明大量的实验结果表明,本发明的模型能很好地进行遥感图像的语义分割,尤其是在汽车等小尺度物体的分割上,分割效果有很大的提升。不论在定性还是定量上,本发明的方法许对比大多SOTA遥感图像语义分割算法都有更好的表现,有效的解决了上述存在的技术问题。
进一步的,所述注意力特征增强模块通过两层全连接层来实现通道注意力的获取,阈值注意力模块通过将特征图的每个通道按照一定的阈值进行量化,再进行点积注意力计算,实现对输入特征图的各个不同的相似区域进行相关性建模,得到拥有丰富全局上下文信息的特征图。最后将原始特征图与经过注意力增强所得到的特征图相加,有利于加速模型收敛。
一种基于阈值注意力的遥感图像语义分割网络的分割方法,所述方法步骤为:一、将输入遥感图送到主干网络中提取得到含有不同语义信息和细节信息的特征;二、将经主干网络提取所得的最后一层特征,输入阈值注意力金字塔池化,获取包含更大感受野和更多上下文信息的特征;三、将经主干网络提取所得的前三层拥有很多细节信息的浅层特征分别经过注意力特征增强模块,得到拥有丰富空间纹理信息的特征;四、将获取到的深层特征分别与前三层浅层特征经过注意力增强后所得特征进行卷积融合;五、将融合所得的特征进行双线性插值的上采样方法,得到与输入图片大小一致的分割结果图。
所述步骤二中,输入特征定义为
Figure BDA0003762700380000071
将其reshape成
Figure BDA0003762700380000072
对其每一个通道都分别通过一定的阈值进行量化:
Figure BDA0003762700380000073
其中,Fc表示输入特征F的第c个通道特征数据,M表示要量化的特征等级数,m表示要量化的第m个特征。通过量化后得到特征矩阵
Figure BDA0003762700380000074
使用
Figure BDA0003762700380000075
Figure BDA0003762700380000077
这三个投影矩阵来生成相应的查询矩阵Q,关键矩阵K,价值矩阵V。
Figure BDA0003762700380000078
Figure BDA0003762700380000079
Figure BDA00037627003800000710
其中,D(·)表示(·)的维度,其中Q矩阵和K矩阵的维度形状相同。采用归一化函数ρ来度量第i个查询特征
Figure BDA00037627003800000711
和第j个关键特征
Figure BDA00037627003800000712
之间的相似度,即
Figure BDA00037627003800000713
这个M×M大小的矩阵QKT建模了输入阈值特征矩阵的每一对不同的阈值之间的相关信息。通过计算输入特征图中所有不同阈值之间的相似度值并将此相似度值作为权重,使用加权求和的方法来聚合所有不同阈值的特征相关度来生成注意力值:
D(Q,K,V)=ρ(QKT)V
ρ(QKT)=softmaxrow(QKT)
其中,归一化函数使用的是Softmax函数,softmaxrow表示沿矩阵QKT的每一行的Softmax。
本发明未详述之处,均为本领域技术人员的公知技术。
本发明的实施例是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显而易见的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (5)

1.一种基于阈值注意力的遥感图像语义分割网络,其特征在于:它包含有主干网络、注意力特征增强模块和阈值注意力金字塔池化模块,所述主干网络使用预先在ImageNetImage数据集上训练过的ResNet101,并且将其最后两个下采样层替换成膨胀卷积层,用来对输入图片进行特征的提取;所述注意力特征增强模块由三个支路组成,分别为全局平均池化、阈值注意力模块和残差连接组成,用来增强浅层网络所获得的特征信息;所述阈值注意力金字塔池化模块分为三个部分,分别为膨胀卷积支路、全局平均池化支路和阈值注意力支路,使得网络能够获取输入特征的不同感受野,同时获取更多的全局上下文信息。
2.根据权利要求1所述的基于阈值注力的遥感图像语义分割网络,其特征在于:所述主干网络是由已经预训练过的将最后两层下采样换成空洞卷积的ResNet101,提取得到由浅层到深层的图片特征。
3.根据权利要求1所述的基于阈值注意力的遥感图像语义分割网络,其特征在于:所述注意力特征增强模块通过两层全连接层来实现通道注意力的获取,阈值注意力金字塔池化模块通过将特征图的每个通道按照一定的阈值进行量化,再进行点积注意力计算,实现对输入特征图的各个不同的相似区域进行相关性建模,得到拥有丰富全局上下文信息的特征图,最后将原始特征图与经过注意力增强所得到的特征图相加,有利于加速模型收敛。
4.根据权利要求1-3任一项所述的基于阈值注意力的遥感图像语义分割网络的分割方法,其特征在于:所述方法步骤为:一、将输入遥感图送到主干网络中提取得到含有不同语义信息和细节信息的特征;二、将经主干网络提取所得的最后一层特征,输入阈值注意力金字塔池化,获取包含更大感受野和更多上下文信息的特征;三、将经主干网络提取所得的前三层拥有很多细节信息的浅层特征分别经过注意力特征增强模块,得到拥有丰富空间纹理信息的特征;四、将获取到的深层特征分别与前三层浅层特征经过注意力增强后所得特征进行卷积融合;五、将融合所得的特征进行双线性插值的上采样方法,得到与输入图片大小一致的分割结果图。
5.根据权利要求4所述的基于阈值注意力的遥感图像语义分割网络的分割方法,其特征在于:所述步骤二中,输入特征定义为
Figure FDA0003762700370000021
将其reshape成
Figure FDA0003762700370000022
对其每一个通道都分别通过一定的阈值进行量化:
Figure FDA0003762700370000023
其中,Fc表示输入特征F的第c个通道特征数据,M表示要量化的特征等级数,m表示要量化的第m个特征;通过量化后得到特征矩阵
Figure FDA0003762700370000024
使用
Figure FDA0003762700370000025
Figure FDA0003762700370000026
这三个投影矩阵来生成相应的查询矩阵Q,关键矩阵K,价值矩阵V,即:
Figure FDA0003762700370000027
Figure FDA0003762700370000028
Figure FDA0003762700370000029
其中,D(·)表示(·)的维度,其中Q矩阵和K矩阵的维度形状相同,采用归一化函数ρ来度量第i个查询特征
Figure FDA00037627003700000210
和第j个关键特征
Figure FDA00037627003700000211
之间的相似度,即
Figure FDA00037627003700000212
这个M×M大小的矩阵QKT建模了输入阈值特征矩阵的每一对不同的阈值之间的相关信息,通过计算输入特征图中所有不同阈值之间的相似度值并将此相似度值作为权重,使用加权求和的方法来聚合所有不同阈值的特征相关度来生成注意力值:
D(Q,K,V)=ρ(QKT)V
ρ(QKT)=softmaxrow(QKT)
其中,归一化函数使用的是Softmax函数,softmaxrow表示沿矩阵QKT每一行的Softmax。
CN202210876357.0A 2022-07-25 2022-07-25 一种基于阈值注意力的遥感图像语义分割网络及分割方法 Active CN115170985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210876357.0A CN115170985B (zh) 2022-07-25 2022-07-25 一种基于阈值注意力的遥感图像语义分割网络及分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210876357.0A CN115170985B (zh) 2022-07-25 2022-07-25 一种基于阈值注意力的遥感图像语义分割网络及分割方法

Publications (2)

Publication Number Publication Date
CN115170985A true CN115170985A (zh) 2022-10-11
CN115170985B CN115170985B (zh) 2023-04-07

Family

ID=83497163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210876357.0A Active CN115170985B (zh) 2022-07-25 2022-07-25 一种基于阈值注意力的遥感图像语义分割网络及分割方法

Country Status (1)

Country Link
CN (1) CN115170985B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117765402A (zh) * 2024-02-21 2024-03-26 山东科技大学 一种基于注意力机制的高光谱图像匹配检测方法
CN117765402B (zh) * 2024-02-21 2024-05-17 山东科技大学 一种基于注意力机制的高光谱图像匹配检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784386A (zh) * 2018-12-29 2019-05-21 天津大学 一种用语义分割辅助物体检测的方法
CN112418176A (zh) * 2020-12-09 2021-02-26 江西师范大学 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法
CN112580654A (zh) * 2020-12-25 2021-03-30 西南电子技术研究所(中国电子科技集团公司第十研究所) 遥感图像地物语义分割方法
CN113298817A (zh) * 2021-07-02 2021-08-24 贵阳欧比特宇航科技有限公司 一种准确率高的遥感图像语义分割方法
CN113486897A (zh) * 2021-07-29 2021-10-08 辽宁工程技术大学 一种卷积注意力机制上采样解码的语义分割方法
CN113807210A (zh) * 2021-08-31 2021-12-17 西安理工大学 一种基于金字塔切分注意力模块的遥感图像语义分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784386A (zh) * 2018-12-29 2019-05-21 天津大学 一种用语义分割辅助物体检测的方法
CN112418176A (zh) * 2020-12-09 2021-02-26 江西师范大学 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法
CN112580654A (zh) * 2020-12-25 2021-03-30 西南电子技术研究所(中国电子科技集团公司第十研究所) 遥感图像地物语义分割方法
CN113298817A (zh) * 2021-07-02 2021-08-24 贵阳欧比特宇航科技有限公司 一种准确率高的遥感图像语义分割方法
CN113486897A (zh) * 2021-07-29 2021-10-08 辽宁工程技术大学 一种卷积注意力机制上采样解码的语义分割方法
CN113807210A (zh) * 2021-08-31 2021-12-17 西安理工大学 一种基于金字塔切分注意力模块的遥感图像语义分割方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JING ZHANG 等: "CNN Cloud Detection Algorithm Based on Channel and Spatial Attention and Probabilistic Upsampling for Remote Sensing Image", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
Q. ZHAO 等: "Semantic Segmentation With Attention Mechanism for Remote Sensing Images", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
ZHEN ZHU 等: "Asymmetric Non-local Neural Networks for Semantic Segmentation", 《ARXIV》 *
牛梦佳 等: "基于自适应多尺度与轮廓梯度的遥感图像分割网络", 《激光与光电子学进展》 *
胡建文 等: "基于深度学习的空谱遥感图像融合综述", 《自然资源遥感》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117765402A (zh) * 2024-02-21 2024-03-26 山东科技大学 一种基于注意力机制的高光谱图像匹配检测方法
CN117765402B (zh) * 2024-02-21 2024-05-17 山东科技大学 一种基于注意力机制的高光谱图像匹配检测方法

Also Published As

Publication number Publication date
CN115170985B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
Zhang et al. Remote sensing image spatiotemporal fusion using a generative adversarial network
CN110119703B (zh) 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
Song et al. Spatiotemporal satellite image fusion using deep convolutional neural networks
Zhou et al. D-LinkNet: LinkNet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction
CN110119780B (zh) 基于生成对抗网络的高光谱图像超分辨重建方法
CN109886090B (zh) 一种基于多时间尺度卷积神经网络的视频行人再识别方法
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
Zhang et al. One-two-one networks for compression artifacts reduction in remote sensing
CN113780149A (zh) 一种基于注意力机制的遥感图像建筑物目标高效提取方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN113537254B (zh) 图像特征提取方法、装置、电子设备及可读存储介质
CN116797787B (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN116758130A (zh) 一种基于多路径特征提取和多尺度特征融合的单目深度预测方法
CN114140357B (zh) 一种基于协同注意力机制的多时相遥感图像云区重建方法
CN113887472A (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
Ren et al. A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms
CN115170985B (zh) 一种基于阈值注意力的遥感图像语义分割网络及分割方法
CN116453025A (zh) 一种缺帧环境下融合时空信息的排球比赛群体行为识别方法
CN112446256A (zh) 一种基于深度isa数据融合的植被类型识别方法
CN115861647A (zh) 一种基于多尺度全局交叉匹配的光流估计方法
CN115965968A (zh) 基于知识引导的小样本目标检测识别方法
CN114821434A (zh) 一种基于光流约束的时空增强视频异常检测方法
CN115965839A (zh) 图像识别方法、存储介质及设备
Li et al. Super resolution for single satellite image using a generative adversarial network
CN113963274B (zh) 基于改进ssd算法的卫星影像目标智能识别系统与方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant