CN117173577A - 一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 - Google Patents
一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 Download PDFInfo
- Publication number
- CN117173577A CN117173577A CN202311211198.3A CN202311211198A CN117173577A CN 117173577 A CN117173577 A CN 117173577A CN 202311211198 A CN202311211198 A CN 202311211198A CN 117173577 A CN117173577 A CN 117173577A
- Authority
- CN
- China
- Prior art keywords
- swin
- building
- cnn
- feature extraction
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 title claims abstract description 50
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 238000010586 diagram Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000004519 manufacturing process Methods 0.000 claims abstract description 4
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000006872 improvement Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 abstract description 2
- 239000002689 soil Substances 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 22
- 238000010276 construction Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 208000000453 Skin Neoplasms Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 201000000849 skin cancer Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出一种基于改进Swin Transformer的遥感影像建筑物变化检测方法,包括一:采集建筑物的遥感影响数据,对数据集中的遥感影像数据进行预处理,制作训练数据集;二:构建CNN模块与Swin Transformer模块,用于提取建筑物的全局‑局部特征;三:基于CNN‑Swin Transformer特征提取模块来设计特征提取编码器和多尺度特征融合解码器;四:基于CNN‑Swin Transformer特征提取编码器,以及解码器来构建改进的变化检测网络;五:将编码器所提取的特征输入到解码器中,得到二分类结果图。本发明有效提高了建筑物变化检测的准确率,分割结果形状规则且边缘细腻,基本没有检测到伪变化区域。实现对建筑物变化区域的准确检测,对比现有变化检测方法在应用于国土资源管理方面上更具优势。
Description
技术领域
本发明属于基于深度学习的图像处理领域,具体基于改进Swin Transformer的遥感影像建筑物变化检测方法。
背景技术
遥感影像的变化检测主要针对同一位置下不同时期的遥感影像之间所发生的变化,通过变化检测方法以快速掌握土地类型,从而应用于土地类型管理、城市土地资源规划和灾害评估等各方面应用。随着城市化速度的加快,不同时序遥感影像中的建筑物也随之快速发生变化。针对遥感影像中建筑物所发生的变化,包括新建、扩建、拆除和因灾害导致毁坏的建筑物,研究者采用了很多不同的方法去提高变化检测的效率和精度。传统方法包括像素级、对象级以及场景级变化检测,这些方法大都很难从图像底层提取特征信息。
近年来,随着深度学习的迅速发展,基于深度学习的变化检测也很快被应用到遥感领域上。深度学习方法为遥感领域的变化检测方法带来了极大的性能提升,但是随着我国卫星遥感技术的发展,遥感影像的分辨率也在不断提高。清晰度提高的同时也带来了很多复杂场景下的干扰,导致了现有变化检测方法无法进一步提高精度。而深度学习方法中,尽管基于卷积神经网络的变化检测方法能对图像特征进行深度挖掘,进一步提取图像中的特征,但是普遍的卷积神经网络方法都缺少对全局信息的关注,容易在特征提取过程中丢失空间信息。后来Transformer结构针对长距离的上下文信息提取被提出,该结构可以有效提取图像的全局信息,将长距离的区域特征关联起来。但Transformer在一定程度上丢失了局部信息的关注,因此本发明结合CNN与Transformer的优点,设计一个采用CNN结构与SwinTransformer进行融合的网络模型对遥感影像中的建筑物进行变化检测。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于改进SwinTransformer的遥感影像建筑物变化检测方法,该方法包括以下步骤:
步骤一:对遥感影像数据进行预处理,制作训练数据集;
步骤二:构建CNN-Swin Transformer特征提取模块来提取建筑物的全局-局部特征;
步骤三:基于所述模块来设计特征提取编码器和多尺度特征融合解码器,用于提取图像中的多尺度建筑物特征和特征融合;
步骤四:基于所述CNN-Swin Transformer特征提取模块、特征提取编码器,多尺度特征融合解码器来构建改进的变化检测网络;
步骤五:将所述编码器所提取特征输入解码器中,得到二分类结果图。
其中,所述CNN-Swin Transformer模块包括CNN特征提取模块和SwinTransformer模块。
所述基于卷积层建立CNN特征提取模块,将输入图像输入至所述CNN特征提取模块,得到经过初步提取的建筑物局部特征,具体方式为:
通过所述CNN特征提取模块对输入图像依次进行1x1卷积、BN运算和GeLU运算,得到经过维度提升的初步特征图。这一步是为了提取更多的信息,在输入深度卷积前都会将特征图的维度调整为高维度特征。
通过所述CNN特征提取模块对所述初步特征图结果依次进行3x3深度可分离卷积、BN运算、GeLU运算和1x1逐点卷积得到局部信息。
通过所述CNN特征提取模块对所述局部信息连接到全局注意力机制进行运算,得到经过所提取特征的加权权值。
通过所述CNN特征提取模块所述的局部信息、加权权值与原始图像进行相乘,得到经过注意力权值计算的局部相关特征。
其中,所述Swin Transformer模块分为四个阶段,每个阶段都包括两层特征提取层。
通过所述多层次特征提取主干网络部分对输入图像进行全局-局部特征提取,得到4张不同尺度下的变化特征图的具体方式为:
通过所述Swin Transformer模块对所述局部相关特征通过Swin Transformer的自注意力结构进行运算,得到建筑物基于局部特征所提取的全局特征;
将所述特征作为下一个CNN-Swin Transformer模块的输入,并且重复进行全局-局部特征的迭代提取;
重复该过程直到第四张变化特征图提取结束;
其中,所述多尺度特征融合解码器使用类似于UNet解码器的结构来进行拼接与上采样;
通过所述多尺度特征融合解码器来对不同尺度的变化特征图进行通道数调整,首先将图片分辨率最小的图片通过上采样调整图片大小,经过调整大小的图片与上一层图片进行融合拼接,重复该过程直到4张变化特征图融合为一张变化结果图。
如上所述,本发明的一种基于改进Swin Transformer的遥感影像建筑物变化检测方法,具有以下有益效果:
本发明设计基于CNN设计一个局部特征提取模块,使用Swin Transformer网络框架作为特征提取主干网络,结合CNN与Transformer的优点对输入的遥感图像进行特征提取。基于CNN的特征提取模块可以提取图像中的局部特征,通过该前馈神经网络弥补SwinTransformer局部感受野不足的问题。通过两者结合的模型来提取图像中的建筑物特征,解决现有的变化检测方法特征提取无法兼顾全局信息与局部信息的问题。
针对现有方法在建筑物变化检测过程中所出现的变化区域空洞较多、边缘粗糙不规则以及伪变化区域较多等问题,本发明所改进的解码器对图像中的建筑物进行特征提取,兼顾图像中的全局上下文信息与局部空间信息,能够最大程度改善上述问题。
变化检测精度的提高意味着深度学习在遥感领域的进一步应用,对于让自然资源管理相关部分开展城市建筑规划、预防违建与违拆等工作具有重要意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种基于改进Swin Transformer的遥感影像建筑物变化检测方法。
图2是Swin Transformer原网络结构的模型框架图。
图3是CNN特征提取层的具体搭建原理框架图。
图4是全局注意力机制的具体搭建原理框架图。
图5是空间注意力的具体搭建原理框架图。
图6是通道注意力的具体搭建原理框架图。
图7是基于改进Swin Transformer的变化检测网络的具体搭建原理框架图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1至图7,本发明提供一种基于改进Swin Transformer的遥感影像建筑物变化检测方法,包括以下步骤:
S1对遥感图像进行预处理,得到数据增强图像,并制作训练数据集;
具体的,所述用于变化检测的数据集,该数据集为WHU数据集。该数据集主要体现的是建筑物的变化。
所述预处理包括滑窗裁剪、图片翻转处理、图片亮度处理和图片缩放处理。
所述滑窗裁剪为使用滑动步长为128,且不重叠的方式将图片裁剪为256×256大小的图像块;
所述图片翻转处理包括水平翻转和垂直翻转;
所述图片亮度处理包括亮度调整、饱和度调整和对比度调整;
所述缩放处理为对所述皮肤癌图像整体进行缩放。
所述制作训练数据集包括将预处理完成的数据集按照比例分为三份,分别为训练集/验证集/测试集,数量分别为3442/700/2000。
S2将两个时期的遥感影像进行融合拼接,构建CNN-Swin Transformer主干网络对输入图像进行特征提取。每一个CNN特征提取模块中所包含的残差结构为倒残差,可以有效缓解特征提取过程中的梯度爆炸或梯度消失;
具体的,所述建筑物的特征为图像中建筑物的全局特征与局部特征相融合。
S21所述基于卷积层和全局注意力机制构建的CNN特征提取模块,将所述原始图像输入到该模块来获取建筑物局部特征;
具体方式为:
S211通过所述CNN特征提取模块对输入图像依次进行1x1卷积、BN运算和GeLU运算,得到经过维度提升的特征图。这一步是为了提取更多的信息,在输入深度卷积前都会将特征图的维度调整为高维度特征;
S212通过所述CNN特征提取模块对所述经过维度提升的特征图依次进行3x3深度可分离卷积、BN运算、GeLU运算和1x1逐点卷积得到局部信息;
S213设定此处得到的局部信息作为一个残差连接的分支;
S214通过所述CNN特征提取模块对所述局部信息连接到全局注意力机制进行运算,得到经过所提取特征的加权权值;
S22所述全局注意力机制具体为基于CBAM改进的注意力机制;
具体方式为:
S221所述全局注意力机制包括空间注意力、通道注意力与两个残差连接;
S222通过所述空间注意力对输入特征使用两个5×5卷积层进行空间信息融合,经过第一个卷积层时通道数设置为原来的1/r倍,r为超参数压缩比。经过第二个卷积层时还原通道数,最后连接Sigmoid激活函数得到输出特征矩阵;
S223通过所述通道注意力对输入特征使用permutation来变换图像的维度,然后通过两个MLP层展开旋转维度后特征图的交叉维度信息,以增强通道域和空间域信息的依赖性,最后同样使用permutation来还原图像维度;
S23设定输入到S21前的图像作为另一个残差连接的分支;
S24通过所述CNN特征提取模块将S214所述加权权值与S23、S213所述分支进行融合拼接,得到经过注意力权值计算的相关特征;
S25通过所述Swin Transformer块对所述局部相关建筑物特征进行运算,得到建筑物图像特征;
具体的Swin Transformer的运算过程公式如下:
其中,输入图像先通过归一化层(Layer Normalization,LN),再通过基于窗口的自注意力(windows multi-head self-attention,W-MSA),z代表输入图像,上角标l-1代表未经过运算。然后连接到第二个归一化层LN,再通过多层感知机(Multilayer Perceptron,MLP)来完成非线性交换。第二层结构与上述相似,唯一不同的地方仅在于将W-MSA更换成了基于移位窗口的自注意力(shifted windows multi-head self-attention,SW-MSA)。
W-MSA和SW-MSA具体方式为:
在第L层将图片平均划分为4个窗口,并且对每个窗口做自注意力的操作。在第L+1层更改划分规则,使用平移切分的方法将原来同样的图片划分为9个大小不一的窗口,具体如图。然后通过循环移位的方式来改变窗口运算过程。该过程可以使得不同窗口中的信息相互交互,既减少了原生Transformer的计算量,同时也最大程度地保留了提取全局信息的能力。
其中自注意力的操作运算公式如下:
S3基于所述CNN-Swin Transformer模块设计一个融合CNN与Swin Transformer的主干网络作为编码器用于提取特征。
具体的,将所述图像输入至CNN-Swin Transformer融合网络,提取多尺度多层级的建筑物特征,得到变化特征图。
S31通过所述CNN-Swin Transformer块得到第一层尺度的变化特征;
S32将S31所述变化特征输入到下一个CNN-Swin Transformer特征提取模块中;
S33重复S31到S32步骤得到第二层尺度的变化特征;
S34通过所述CNN-Swin Transformer构建4层结构的变化检测主干编码器网络,并重复S31到S33的步骤。
S35上述所有运算过程,整体一共包含4个CNN-Swin Transformer特征提取模块,其中四个分支分别代表四个尺度下经过特征提取的遥感影像中所包含的变化区域特征的输出结果,4张图片大小分别为
S4将所述4张不同尺度下的变化区域特征图进行融合拼接,并通过MLP来调整维度特征,减少通道数。其中使用上采样来恢复图像大小,最后得到二分类结果图来表示建筑物中发生变化的区域。
具体的,所述融合拼接使用类似于UNet解码器的结构来进行拼接与上采样。
S41将图片格式为的特征图通过MLP调整通道数为C,然后通过上采样调整图片大小为/>
S42将图片格式为的特征图通过MLP调整通道数为C,然后与S41结果进行Concat拼接,得到融合特征图/>最后通过上采样计算调整图片大小为
S43将图片格式为的特征图通过MLP调整通道数为C,然后与S42结果进行Concat拼接,得到融合特征图/>最后通过上采样计算调整图片大小为/>
S44将图片格式为的特征图通过MLP调整通道数为C,然后与S43结果进行Concat拼接,得到融合特征图/>最后通过上采样计算调整图片格式为H×W×4C。
S45将上述输出结果送入MLP层压缩维度并送入分类器(Classifier)得到最终的二分类结果。
本发明变化检测方法基于Pytorch框架进行训练,模型的batch_size设置为8,epoch设置为200,学习率设置为0.0001,采用余弦退火衰减算法,优化器采用Adamw。
本发明所述的3个评价指标的计算公式如下:
其中:TP为预测正确的正样本,FN为实际标签是负样本预测为正样本,FP为实际标签是正样本预测为负样本,TN为预测正确的负样本。
为了验证本发明的有效性,将本发明所提方法与下述现有的变化检测方法进行对比。
Model | Precision/% | Recall/% | F1/% |
SNUNet | 88.54 | 79.36 | 85.30 |
BIT | 91.57 | 88.38 | 89.94 |
本发明方法 | 94.71 | 90.07 | 92.33 |
注:此处Precision为精度,Recall为召回率。由于总体精度普遍较高,以F1为参考指标。实验结果表明本发明方法的F1分数相比其他方法更具优势,F1值相比BIT提高了2.39%,相比SNUNet提高了7.03%。
以上所揭露的仅为本发明一种基于改进Swin Transformer的遥感影像建筑物变化检测方法较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (6)
1.一种基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,该方法包括以下步骤:
步骤一:采集建筑物的遥感影响数据,对所述遥感影像数据进行预处理,制作训练数据集;
步骤二:构建CNN-Swin Transformer特征提取模块,从所述遥感影像中提取建筑物的全局-局部特征;
步骤三:基于所述CNN-Swin Transformer特征提取模块来设计特征提取编码器和多尺度特征融合解码器,分别用于提取所述图像中的多尺度建筑物特征和对所述特征进行特征融合;
步骤四:基于所述CNN-Swin Transformer特征提取模块、所述特征提取编码器,以及所述多尺度特征融合解码器来构建改进的变化检测网络;
步骤五:将所述编码器所提取的特征输入所述解码器中,得到二分类结果图。
2.如权利要求1所述的基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,所述特征提取模块包括用于提取所述建筑物局部特征的CNN特征提取模块与用于提取所述建筑物全局特征的Swin Transformer模块。
3.如权利要求2所述的基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,利用所述CNN特征提取模块提取所述建筑物局部特征的具体方式为:
通过所述CNN特征提取模块对输入图像依次进行1x1卷积、BN运算和GeLU运算,得到经过维度提升的初步特征图;
通过所述CNN特征提取模块对所述初步特征图结果依次进行3x3深度可分离卷积、BN运算、GeLU运算和1x1逐点卷积得到局部信息;
通过所述CNN特征提取模块对所述局部信息连接到全局注意力机制进行运算,得到经过所提取特征的加权权值;
通过所述CNN特征提取模块对所述的局部信息、加权权值与原始图像进行相乘,得到经过注意力权值计算的局部相关特征。
4.如权利要求2所述的基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,所述Swin Transformer模块是基于Swin Transformer构建的全局特征提取模块,将局部特征图输入所述Swin Transformer模块,得到建筑物的全局-局部融合特征的具体方式为:
通过所述Swin Transformer模块对局部相关特征进行运算,得到建筑物的相关全局-局部特征;
所述Swin Transformer模块包括窗口自注意力模块与滑动窗口自注意力模块,通过输入特征图到所述窗口自注意力模块与滑动窗口自注意力模块可以提取图像中的全局信息;
通过所述全局-局部相关特征作为下一个CNN-Swin Transformer特征提取模块的输入。
5.如权利要求1所述的基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,通过所述CNN-Swin Transformer特征提取模块,构建改进的变化检测网络模型的具体方式为:
通过连接4个所述CNN-Swin Transformer模块来构建变化检测网络的特征融合解码器部分,并且在每个部分都设计一个分支,将不同尺度下所提取的变化特征保留。
6.如权利要求1所述的基于改进Swin Transformer的遥感影像建筑物变化检测方法,其特征在于,所述多尺度特征融合解码器类似于UNet解码器的结构来进行拼接与上采样;通过所述多尺度特征融合解码器来对不同尺度的变化特征图进行通道数调整,首先将图片分辨率最小的图片通过上采样调整图片大小,经过调整大小的图片与上一层图片进行融合拼接,重复该过程直到4张变化特征图融合为一张变化结果图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311211198.3A CN117173577A (zh) | 2023-09-19 | 2023-09-19 | 一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311211198.3A CN117173577A (zh) | 2023-09-19 | 2023-09-19 | 一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117173577A true CN117173577A (zh) | 2023-12-05 |
Family
ID=88931686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311211198.3A Pending CN117173577A (zh) | 2023-09-19 | 2023-09-19 | 一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117173577A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117671509A (zh) * | 2024-02-02 | 2024-03-08 | 武汉卓目科技有限公司 | 遥感目标检测方法、装置、电子设备及存储介质 |
CN117830875A (zh) * | 2024-03-05 | 2024-04-05 | 山东科技大学 | 一种基于时空鲁棒表征提取的遥感变化检测方法 |
-
2023
- 2023-09-19 CN CN202311211198.3A patent/CN117173577A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117671509A (zh) * | 2024-02-02 | 2024-03-08 | 武汉卓目科技有限公司 | 遥感目标检测方法、装置、电子设备及存储介质 |
CN117671509B (zh) * | 2024-02-02 | 2024-05-24 | 武汉卓目科技有限公司 | 遥感目标检测方法、装置、电子设备及存储介质 |
CN117830875A (zh) * | 2024-03-05 | 2024-04-05 | 山东科技大学 | 一种基于时空鲁棒表征提取的遥感变化检测方法 |
CN117830875B (zh) * | 2024-03-05 | 2024-05-24 | 山东科技大学 | 一种基于时空鲁棒表征提取的遥感变化检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
AU2020100200A4 (en) | Content-guide Residual Network for Image Super-Resolution | |
CN117173577A (zh) | 一种基于改进Swin Transformer的遥感影像建筑物变化检测方法 | |
CN114758383A (zh) | 基于注意力调制上下文空间信息的表情识别方法 | |
CN110956094A (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN109165660A (zh) | 一种基于卷积神经网络的显著物体检测方法 | |
CN104036479B (zh) | 一种基于非负矩阵分解的多聚焦图像融合方法 | |
CN113674253A (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
CN111611861B (zh) | 一种基于多尺度特征关联的图像变化检测方法 | |
CN111985552B (zh) | 复杂背景下机场道面细带状结构病害检测方法 | |
CN112329780B (zh) | 一种基于深度学习的深度图像语义分割方法 | |
CN116168295B (zh) | 一种岩性遥感智能解译模型建立方法及解译方法 | |
CN114972746B (zh) | 一种基于多分辨率重叠注意力机制的医学影像分割方法 | |
CN111524117A (zh) | 一种基于特征金字塔网络的隧道表面缺陷检测方法 | |
CN115345790A (zh) | 基于窗口的自注意力神经网络的探地雷达图像增强方法 | |
CN111929723B (zh) | 基于多任务学习的地震数据约束下速度模型超分辨率方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN111275680B (zh) | 基于Gabor卷积网络的SAR图像变化检测方法 | |
CN117351372A (zh) | 一种基于改进DeeplabV3+的遥感图像道路分割方法 | |
CN104751470A (zh) | 一种图像快速匹配方法 | |
CN115660979A (zh) | 一种基于注意力机制的双判别器图像修复方法 | |
AU2021104479A4 (en) | Text recognition method and system based on decoupled attention mechanism | |
CN113192076A (zh) | 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法 | |
Zhang et al. | Transformer for the Building Segmentation of Urban Remote Sensing | |
Wang et al. | Deep convolutional neural network and its application in image recognition of road safety projects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |