CN115439751A - 一种融合多注意力的高分辨率遥感影像道路提取方法 - Google Patents

一种融合多注意力的高分辨率遥感影像道路提取方法 Download PDF

Info

Publication number
CN115439751A
CN115439751A CN202211159222.9A CN202211159222A CN115439751A CN 115439751 A CN115439751 A CN 115439751A CN 202211159222 A CN202211159222 A CN 202211159222A CN 115439751 A CN115439751 A CN 115439751A
Authority
CN
China
Prior art keywords
attention
road
training
remote sensing
sensing image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211159222.9A
Other languages
English (en)
Inventor
闫志恒
邵红娟
任超
李毅
尹安超
张胜国
刘启睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Technology
Original Assignee
Guilin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Technology filed Critical Guilin University of Technology
Priority to CN202211159222.9A priority Critical patent/CN115439751A/zh
Publication of CN115439751A publication Critical patent/CN115439751A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及遥感图像处理技术领域,具体涉及一种融合多注意力的高分辨率遥感影像道路提取方法,基于膨胀残差协同注意力网络,同时结合空洞卷积模块,提取更高维的道路特征信息;在U型结构的跳跃连接部分使用轻量自注意力模块,捕获特征信息的长距离依赖关系;面向通道的交叉注意力模块,消除自注意力机制模块与解码器特征的歧义,提高特征图还原能力;最后使用训练权重对未标记遥感影像进行预测,计算熵值,使用高熵值预测结果为未标注影像打上标签,和原始标签混合输入到训练网络。本发明经过融合多注意力的深度学习道路提取方法,有效建立道路长距离通道与位置信息关系,提高了道路提取的效率。

Description

一种融合多注意力的高分辨率遥感影像道路提取方法
技术领域
本发明涉及遥感图像处理技术领域,具体涉及一种融合多注意力的高分辨率遥感影像道路提取方法。
背景技术
遥感影像道路自动提取在城市规划、地理参考、智能交通导航、地理空间数据集成和智能交通系统中起着重要作用。然而,由于遥感影像中存在的噪声、遮挡和道路结构的复杂性,使得道路自动提取极具挑战性。传统的道路提取方法包括支持向量机,数学形态学方法,模板匹配等方法,对于少量遥感数据信息提取容易取得良好的提取效果。随着深度学习技术在实际生产生活中的广泛应用,在海量的遥感数据中快速高效的提取遥感影像信息具有重要指导价值。
基于深度学习的遥感影像道路提取方法提高了道路提取的效率,但无法同时兼顾通道间的信息与位置信息。尽管后来的注意力机制尝试在降低通道数后通过卷积来提取位置注意力信息,但卷积感受野受限,缺乏对长距离特征信息的利用,同时深度学习需要大量的标签数据的支持,需要耗费大量人工进行标注。
发明内容
本发明的目的在于提供一种融合多注意力的高分辨率遥感影像道路提取方法,旨在融合多注意力机制,建立道路长距离通道与位置信息关系,恢复道路的细节信息,改进现有的遥感影像道路提取方法,提高道路提取的效率。
为实现上述目的,本发明提供了一种融合多注意力的高分辨率遥感影像道路提取方法,包括下列步骤:
基于膨胀残差协同注意力神经网络,以编码器解码器体系结构作为基础网络模型;
预处理输入数据,结合空洞卷积模块,提取高维的道路特征信息;
使用轻量自注意力模块,捕获特征信息的长距离依赖关系;
加入面向通道的交叉注意力模块,训练模型至收敛;
利用训练得到的权重,对未标注影像进行道路预测。
其中,基于膨胀残差协同注意力神经网络,以编码器解码器体系结构作为基础网络模型;
预处理输入数据,结合空洞卷积模块,提取高维的道路特征信息;
使用轻量自注意力模块,捕获特征信息的长距离依赖关系;
加入面向通道的交叉注意力模块,训练模型至收敛;
利用训练得到的权重,对未标注影像进行道路预测。
其中,预处理输入数据的过程,包括裁剪和数据增强,其中采用尺寸为256的滑动窗口裁剪影像,数据增强包括上下左右翻转,随机旋转以及尺度缩放,然后以256*256*3的样式输入网络。
其中,预处理输入数据划分训练集和验证集,其中验证集用于对卷积神经网络的训练分割准确度进行验证,训练集用于对卷积神经网络的训练进行参数调整,训练集和验证集的比例为8:2。
其中,结合空洞卷积模块,具体为在最后一层输入空洞空间金字塔,分别输入一个1*1卷积和三个3*3卷积,分别采用1,2,4,8扩张率的卷积,将经过不同扩张率四层特征图进行拼接输入到卷积核为1的卷积中,进行通道调整。
其中,加入面向通道的交叉注意力模块的过程,具体为解码网络通过线性插值上采样操作逐步恢复原始图像尺寸,每层上采样模块最后加入面向通道的交叉注意力模块。
其中,在训练模型至收敛的过程中,通过训练损失与验证损失确定网络是否达到收敛,收敛则停止训练,获得训练后的MAG-Unet分割模型,将测试集输入至训练后的MAG-Unet分割模型,输出分割结果。
其中,在利用训练得到的权重,对未标注影像进行道路预测的过程中,根据像素熵值给预测结果打标签,混合原始标签输入网络进行训练。
其中,给预测结果打标签的过程,具体为利用像素熵值计算判断输出结果的可靠性,对高熵值部分打上标签,对预测输出标签进行剪切,与原始标签混合后的数据增强。
本发明提供了一种融合多注意力的高分辨率遥感影像道路提取方法,基于膨胀残差协同注意力网络,同时结合空洞卷积模块,提取更高维的道路特征信息;在U型结构的跳跃连接部分使用轻量自注意力模块,捕获特征信息的长距离依赖关系;面向通道的交叉注意力模块,消除自注意力机制模块与解码器特征的歧义,提高特征图还原能力;最后使用训练权重对未标记遥感影像进行预测,计算熵值,使用高熵值预测结果为未标注影像打上标签,和原始标签混合输入到训练网络。本发明经过融合多注意力的深度学习道路提取方法,有效建立道路长距离通道与位置信息关系,提高了道路提取的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种融合多注意力的高分辨率遥感影像道路提取方法的流程示意图。
图2是本发明的具体实施方式中的MAG-Unet卷积神经网络的结构图。
图3是本发明的具体实施方式中的协同注意力结构图。
图4是本发明的具体实施方式中的轻量自注意力结构图。
图5是本发明的具体实施方式中的面向通道的交叉注意力模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明提供了一种融合多注意力的高分辨率遥感影像道路提取方法,包括下列步骤:
S1:基于膨胀残差协同注意力神经网络,以编码器解码器体系结构作为基础网络模型;
S2:预处理输入数据,结合空洞卷积模块,提取高维的道路特征信息;
S3:使用轻量自注意力模块,捕获特征信息的长距离依赖关系;
S4:加入面向通道的交叉注意力模块,训练模型至收敛;
S5:利用训练得到的权重,对未标注影像进行道路预测。
以下结合具体实施例与实施步骤作进一步说明:
请参阅图2至图5,以编码器—解码器结构作为基础网络模型,编码器部分采用改进膨胀ResNet101,第一层部分使用卷积替换最大池化,有效消除栅格效应;前三个残差结构与ResNet101保持一致,但在每一个残差结构的第一个3×3卷积后加入协同注意力分支,协同注意力模块首先使用两个1维向量的编码操作。对于输入,使用池化操作X pool,Ypool来编码水平方向和垂直方向特征,有效捕捉单方向上的长距离关系同时保留另一个方向上的空间信息,帮助网络更准确地定位目标。特征输出可以用以下公式表示:
Figure BDA0003858775810000041
将水平与垂直方向特征进行拼接,经过含有正则化的卷积层后利用通道划分使结构与经过两个一维编码的结构保持一致,将输出经过sigmoid激活合并成权重矩阵。每个权重都包含了通道间信息、横向空间信息和纵向空间信息,能够帮助网络更准确地定位目标信息,增强识别能力。第四层残差使用膨胀卷积,膨胀率为2,保持分辨率的同时具有和原始结构相似的感受野。前四层输出结果输入轻量自注意力,轻量自注意力和自注意力结构相似,有三个分支Q,K,V,不同于自注意力的Q直接与K转置直接相乘,先使用步长为k,卷积核为k×k的深度可分离卷积来减少注意力操作之前K和V的空间大小,
Figure BDA0003858775810000042
对应的轻量级Attention定义为:
Figure BDA0003858775810000043
B是随机初始化且可学习的相对位置偏差。使用轻量自注意力替换跳跃连接,实现对特征图之间长距离特征的充分利用。最后一层输入空洞空间金字塔,分别输入一个1×1卷积和三个3×3卷积,分别采用1,2,4,8扩张率的卷积,将经过不同扩张率四层特征图进行拼接输入到卷积核为1的卷积中,进行通道调整,提取不同尺度上的道路信息,保证道路识别精度的同时实现道路细节的提取。首先进行全局平均池化,产生向量G(X)∈RC×1×1及其第k个通道
Figure BDA0003858775810000051
使用这个操作来嵌入全局空间信息,然后生成注意力掩码。接着通过熵;
Figure BDA0003858775810000052
对预测结果的可靠性进行衡量,将最可靠的部分筛选出来,再通过常规方式打上伪标签:
Figure BDA0003858775810000053
接着,输入经过预处理的训练数据集,初始化模型超参数,对改进的道路分割网络进行训练;在本发明中,使用交并比损失函数和交叉熵损失共同作为损失函数。其中,在二分类的情况下,交叉熵损失函数的计算公式如下:
Figure BDA0003858775810000054
其中,y表示真实的像素标签值,y′表示预测的标签像素值,N表示标签的类别数。交并比损失计算公式如下所示:
Figure BDA0003858775810000055
其中,X和Y分别表示生成的预测图和真实的标签。
最终的损失函数为交叉熵函数和交并比损失的总和:LLoss=Lcross+LIoU
具体实施例的操作步骤如下:
S1~S2:搭建高分影像道路提取网络MAG-Unet,采用尺寸为256的滑动窗口裁剪影像,以裁剪后的256×256×3波段的高分数据作为输入数据,基于编码器-解码器构建神经网络架构;
其中,进行预处理的过程包括将高分数据进行裁剪和数据增强,数据增强主要包括上下左右翻转,随机旋转以及尺度缩放;然后以256×256×3的高分数据输入网络。
并且对经过预处理的高分影像划分训练集和验证集,其中验证集用于对卷积神经网络的训练分割准确度进行验证,训练集用于对卷积神经网络的训练进行参数调整,其中训练集和验证集的比例为8:2。
将裁剪后的影像输入编码网络,取消原始Resnet101在初始的7×7卷积后接的最大池化操作,使用步长为2的两个扩张卷积操作替代,后面三个下采样阶段使用和Resnet101相似的结构,不同点在每一个残差块的第一个3×3卷积后加入协同注意力分支,在第四次下采样的卷积过程中,将膨胀系数改成2,输出特征图的尺寸和上一层保持一致,保持和残差操作相同的视野域,最后得到输出特征维度为16×16×512
卷积层之后的特征图中含有丰富的空间语义信息,将特征图输入改进ASPP模块中,经过1,2,4,8扩张率的空洞卷积后输入1×1网络,提取不同尺度上的道路信息,保证道路识别精度的同时实现道路细节的提取。
感受野的计算公式为:S=k+(k-1)(n-1)其中,k表示卷积核大小,n表示空洞卷积率。
S3:将此前输出的64×64×128,32×32×256,16×16×512,16×16×512分别输入轻量自注意力模块,建立长距离依赖关系。
S4:解码网络通过线性插值上采样操作逐步恢复原始图像尺寸,每层上采样模块最后加入面向通道的交叉注意力模块,面向通道的交叉注意力模块对采样过后的特征和经过跳跃连接的特征使用平均池化操作消除自注意力机制模块与解码器特征的歧义,利用线性操作帮助上采样层有效恢复道路目标细节信息。
其中,在训练模型至收敛的过程中,通过训练损失与验证损失确定网络是否达到收敛,收敛则停止训练,获得训练后的MAG-Unet分割模型,将测试集输入至训练后的MAG-Unet分割模型,输出分割结果。
具体的,本实验使用Adam优化算法,相比SGD、RMSprop和AdaGrad优化器,其使模型更快收敛到性能最优,使用Adam中默认参数,其中学习率设为0.001,指数衰减率β1=0.9,β2=0.999,常数设置ε=10-8,每经10个迭代周期,将学习率衰减为原来的1/2;选择交叉损失熵函数与交并比损失在模型反向传播过程中更新网络参数;训练迭代次数为300次。
S5:利用训练得到的权重,对未标注影像进行道路预测,根据像素熵值将预测结果中可靠性较高的利用常规方法打上标签,混合原始标签输入网络进行训练。
综上所述,本发明与现有算法相比,其显著优点在于:
(1)本发明采用改进的膨胀残差神经网络ResNet101作预处理,取消原始残差网络在7×7卷积后接的最大池化操作,使用步长为2的两个扩张卷积操作替代,后面三个下采样阶段使用和残差网络相似的结构,改进部分为在残差块的第一个3×3卷积后加入协同注意力分支,第四次下采样的卷积过程中,将膨胀系数改成2,对道路目标进行初始的分类;(2)本发明采用了编码器—解码器的网络结构,这种结构模型对道路特征提取与细节恢复表现出良好性能;(3)本发明采用空洞空间卷积池化金字塔,在编码器-解码器中间添加空洞空间卷积池化金字塔,这将有助于提取出道路影像不同层次的特征语义信息;(4)跳跃连接使用轻量自注意力模块,在不增加参数量与浮点计算的基础上,捕获长距离依赖关系,编码器部分使用面向通道的交叉注意力模块,消除自注意力机制模块与解码器特征的歧义,提高特征图还原能力,从而提高道路分割的完整性;(5)本发明利用高熵值预测为未标注影像打上标签,可以充分利用遥感影像,扩充遥感影像道路数据集。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (9)

1.一种融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,包括下列步骤:
基于膨胀残差协同注意力神经网络,以编码器解码器体系结构作为基础网络模型;
预处理输入数据,结合空洞卷积模块,提取高维的道路特征信息;
使用轻量自注意力模块,捕获特征信息的长距离依赖关系;
加入面向通道的交叉注意力模块,训练模型至收敛;
利用训练得到的权重,对未标注影像进行道路预测。
2.如权利要求1所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
基于膨胀残差协同注意力神经网络,以编码器解码器体系结构作为基础网络模型的过程,具体为搭建高分影像道路提取网络MAG-Unet,编码器部分采用改进膨胀ResNet101,第一层部分使用卷积替换最大池化,前三个残差结构与ResNet101保持一致,在每一个残差块的第一个3*3卷积后加入协同注意力分支,在第四次下采样的卷积过程中,将膨胀系数改成2,输出特征图的尺寸和上一层保持一致。
3.如权利要求1所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
预处理输入数据的过程,包括裁剪和数据增强,其中采用尺寸为256的滑动窗口裁剪影像,数据增强包括上下左右翻转,随机旋转以及尺度缩放,然后以256*256*3的样式输入网络。
4.如权利要求3所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
预处理输入数据划分训练集和验证集,其中验证集用于对卷积神经网络的训练分割准确度进行验证,训练集用于对卷积神经网络的训练进行参数调整,训练集和验证集的比例为8:2。
5.如权利要求1所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
结合空洞卷积模块,具体为在最后一层输入空洞空间金字塔,分别输入一个1*1卷积和三个3*3卷积,分别采用1,2,4,8扩张率的卷积,将经过不同扩张率四层特征图进行拼接输入到卷积核为1的卷积中,进行通道调整。
6.如权利要求2所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
加入面向通道的交叉注意力模块的过程,具体为解码网络通过线性插值上采样操作逐步恢复原始图像尺寸,每层上采样模块最后加入面向通道的交叉注意力模块。
7.如权利要求6所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
在训练模型至收敛的过程中,通过训练损失与验证损失确定网络是否达到收敛,收敛则停止训练,获得训练后的MAG-Unet分割模型,将测试集输入至训练后的MAG-Unet分割模型,输出分割结果。
8.如权利要求7所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
在利用训练得到的权重,对未标注影像进行道路预测的过程中,根据像素熵值给预测结果打标签,混合原始标签输入网络进行训练。
9.如权利要求8所述的融合多注意力的高分辨率遥感影像道路提取方法,其特征在于,
给预测结果打标签的过程,具体为利用像素熵值计算判断输出结果的可靠性,对高熵值部分打上标签,对预测输出标签进行剪切,与原始标签混合后的数据增强。
CN202211159222.9A 2022-09-22 2022-09-22 一种融合多注意力的高分辨率遥感影像道路提取方法 Pending CN115439751A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211159222.9A CN115439751A (zh) 2022-09-22 2022-09-22 一种融合多注意力的高分辨率遥感影像道路提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211159222.9A CN115439751A (zh) 2022-09-22 2022-09-22 一种融合多注意力的高分辨率遥感影像道路提取方法

Publications (1)

Publication Number Publication Date
CN115439751A true CN115439751A (zh) 2022-12-06

Family

ID=84250023

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211159222.9A Pending CN115439751A (zh) 2022-09-22 2022-09-22 一种融合多注意力的高分辨率遥感影像道路提取方法

Country Status (1)

Country Link
CN (1) CN115439751A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116056074A (zh) * 2023-04-03 2023-05-02 微网优联科技(成都)有限公司 基于多重验证的无线通信控制方法及应用其的无线路由器
CN116343063A (zh) * 2023-05-26 2023-06-27 南京航空航天大学 一种路网提取方法、系统、设备及计算机可读存储介质
CN116703786A (zh) * 2023-08-09 2023-09-05 天津工业大学 一种基于改进UNet网络的图像去模糊方法和系统
CN116824525A (zh) * 2023-08-29 2023-09-29 中国石油大学(华东) 一种基于交通道路影像的图像信息提取方法
CN116935226A (zh) * 2023-08-01 2023-10-24 西安电子科技大学 一种基于HRNet的改进型遥感图像道路提取方法、系统、设备及介质
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法
CN117496360A (zh) * 2024-01-02 2024-02-02 中国科学院空天信息创新研究院 频域知识继承的遥感基础模型轻量化方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116056074A (zh) * 2023-04-03 2023-05-02 微网优联科技(成都)有限公司 基于多重验证的无线通信控制方法及应用其的无线路由器
CN116343063A (zh) * 2023-05-26 2023-06-27 南京航空航天大学 一种路网提取方法、系统、设备及计算机可读存储介质
CN116343063B (zh) * 2023-05-26 2023-08-11 南京航空航天大学 一种路网提取方法、系统、设备及计算机可读存储介质
CN116935226A (zh) * 2023-08-01 2023-10-24 西安电子科技大学 一种基于HRNet的改进型遥感图像道路提取方法、系统、设备及介质
CN116703786A (zh) * 2023-08-09 2023-09-05 天津工业大学 一种基于改进UNet网络的图像去模糊方法和系统
CN116703786B (zh) * 2023-08-09 2023-10-20 天津工业大学 一种基于改进UNet网络的图像去模糊方法和系统
CN116824525A (zh) * 2023-08-29 2023-09-29 中国石油大学(华东) 一种基于交通道路影像的图像信息提取方法
CN116824525B (zh) * 2023-08-29 2023-11-14 中国石油大学(华东) 一种基于交通道路影像的图像信息提取方法
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法
CN117436452B (zh) * 2023-12-15 2024-02-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法
CN117496360A (zh) * 2024-01-02 2024-02-02 中国科学院空天信息创新研究院 频域知识继承的遥感基础模型轻量化方法
CN117496360B (zh) * 2024-01-02 2024-05-14 中国科学院空天信息创新研究院 频域知识继承的遥感基础模型轻量化方法

Similar Documents

Publication Publication Date Title
CN115439751A (zh) 一种融合多注意力的高分辨率遥感影像道路提取方法
CN111563508B (zh) 一种基于空间信息融合的语义分割方法
CN113850825A (zh) 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN111126359B (zh) 基于自编码器与yolo算法的高清图像小目标检测方法
CN115601549B (zh) 基于可变形卷积和自注意力模型的河湖遥感图像分割方法
CN111047551A (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN113888744A (zh) 一种基于Transformer视觉上采样模块的图像语义分割方法
CN114943963A (zh) 一种基于双分支融合网络的遥感图像云和云影分割方法
CN115457498A (zh) 一种基于双注意力和密集连接的城市道路语义分割方法
CN113658200B (zh) 基于自适应特征融合的边缘感知图像语义分割方法
CN111476133B (zh) 面向无人驾驶的前背景编解码器网络目标提取方法
CN114387512B (zh) 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN115908805A (zh) 基于卷积增强交叉自注意力变形器的u型图像分割网络
CN114913493A (zh) 一种基于深度学习的车道线检测方法
CN114638836A (zh) 基于高度有效驱动与多层级特征融合的城市街景分割方法
CN112767423A (zh) 一种基于改进SegNet的遥感图像建筑物分割方法
CN115588013A (zh) 一种基于全尺度融合和流场注意力的图像分割方法
CN116777764A (zh) 一种基于扩散模型的光学遥感图像去云雾方法及系统
CN115908793A (zh) 一种基于位置注意力机制的编解码结构语义分割模型
CN115995002B (zh) 一种网络构建方法及城市场景实时语义分割方法
CN115984714B (zh) 一种基于双分支网络模型的云检测方法
CN116310916A (zh) 一种高分辨率遥感城市图像语义分割方法及系统
CN115222947B (zh) 基于全局自注意力变换网络的岩石节理分割方法和装置
CN115331073A (zh) 一种基于TransUnet架构的影像自监督学习方法
CN115187775A (zh) 一种遥感图像语义分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination