CN114821350A - 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 - Google Patents
多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 Download PDFInfo
- Publication number
- CN114821350A CN114821350A CN202210268182.5A CN202210268182A CN114821350A CN 114821350 A CN114821350 A CN 114821350A CN 202210268182 A CN202210268182 A CN 202210268182A CN 114821350 A CN114821350 A CN 114821350A
- Authority
- CN
- China
- Prior art keywords
- convolution
- feature
- fusion
- phase
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 59
- 238000001514 detection method Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 230000004069 differentiation Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 238000007499 fusion processing Methods 0.000 abstract description 3
- 230000011218 segmentation Effects 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法。双时相高分辨率遥感图像输入数据增强模块,通过分割、裁剪等操作,得到含有更多变化建筑物的双时相子图像块和其标签;然后,将双时相子图像块输入网络,分别经过浅层特征提取、前期融合层、卷积特征编码层、中期特征融合层、卷积特征解码层、后期特征融合层,得到最终的变化检测二分类结果。本发明能够有效避免遥感图像负样本过多导致模型检测效果差的问题,且通过采用多层级的融合处理,可使得到的结果具有更好的鲁棒性和清晰的边缘。
Description
技术领域
本发明属信息处理技术领域,具体涉及一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法。
背景技术
高分遥感建筑物变化检测任务的目标是:像素级别的预测区域是否存在建筑物的新建拆除等变化。现有的变化检测方法可以分为基于传统手工特征和基于深度特征两类。传统方法主要是根据人为设置的特征表示,依据像素点及其领域的像素点来进行区分,取得了一定的效果。但随着深度学习的兴起,由于其能够客观、自主地学习有利的特征,使得变化检测的F1分数得到大幅提升,更多研究倾向于使用深度学习方式。
基于深度特征的方法采用深度学习变化检测框架,一般包括以下几个方面:数据增强模块(解决遥感图像种正负样本不均衡)、图像卷积特征提取(编码器)、特征融合(将不同时相特征进行融合)、特征解码(像素点类别预测)。其中,特征融合主要存在两种形式:1)在输入网络之前,将预处理的不同时相图像进行拼接后直接输入到网络中;2)对不同时相的图像分别进行特征的提取,然后将获取到的特征进行拼接。解码器和编码器部分通过跳跃连接进行信息的传递。
Chen等人在“H.Chen,W.Li,and Z.Shi,Adversarial instance augmentationfor building change detection in remote sensing images,IEEE Transactions onGeoscience and Remote Sensing,DOI:10.1109/TGRS.2021.3066802,2021.”中提出IAug_CDNet网络框架,是一种新的数据级解决方案,解决由于样本稀疏性和稀有性导致的训练数据不足问题,称之为实例级变化增强(IAug),通过生成对抗网络训练生成包含大量不同建筑物变化的双时态图像。IAug的关键是将合成的建筑实例混合到一幅双时态图像的适当位置,进一步提出了一种基于上下文感知的建筑与背景的真实混合。该方法利用生成对抗网络去构造出与相似的样本建筑物,增加数据集中正样本的数量。但是合成的建筑实例混合到双时态图像时,无法精准的选取适当的位置,建筑物与背景存在违和。
Zhang等人在“L.Zhang,X.Hu,M.Zhang,Z.Shu and H.Zhou,Object-level changedetection with a dual correlation attention-guided detector,ISPRS Journal ofPhotogrammetry and Remote Sensing,vol.177,pp.147-160,2021.”中提出DCA-Det网络框架,是一种交替镶嵌的数据增强方法,该方法随机的从数据集中提取选取四张图像进行合并生成一张新的图像对进行数据增广,但当变化建筑物处于图像合并边缘时,无法很好根据上下文信息进行判断。
发明内容
为了克服现有技术的不足,本发明提供一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法。首先,将双时相高分辨率遥感图像输入数据增强模块,通过分割、裁剪等操作,得到含有更多变化建筑物的双时相子图像块和其标签;然后,将双时相子图像块输入网络,分别经过浅层特征提取、前期融合层、卷积特征编码层、中期特征融合层、卷积特征解码层、后期特征融合层,得到最终的变化检测二分类结果。本发明能够有效避免遥感图像负样本过多导致模型检测效果差、双时相图像信息融合不充分的问题,且通过采用多层级的融合处理,可使得到的结果具有更好的鲁棒性和清晰的边缘。
一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法,其特征在于步骤如下:
S1、将训练集中的双时相高分辨率遥感图像及其标签输入数据增强模块,首先将标签分割为3×3或4×4大小的子区域,并在每个分割后的子区域中随机选择一个点,以该点为中心在标签上进行裁剪,得到3×3或4×4个大小为256×256的子图像作为候选图像,以每个候选图像中正样本数量的归一化值作为其概率权重;依据所赋予的概率进行不等概率抽样,选择得到一幅候选图像,以此图的中心点位置为中心,分别在双时相图像上裁剪得到大小为256×256的双时相子图像块;所述的正样本是指图像中变化建筑物对应的像素点;
S2、以步骤1得到的双时相子图像块作为训练数据集,以不等概率抽样选择得到的候选样图像作为网络训练的标签,输入到建筑物变化检测网络,对网络进行训练,得到训练好的建筑物变化检测网络;
所述的建筑物变化检测网络的处理过程如下:
步骤a:输入双时相子图像块,使用7×7的卷积核分别对其进行特征提取,得到对应的浅层特征图;经过前期融合层将双时相图像块的浅层特征图进行拼接并经过通道注意力将通道数量减半,得到前期融合特征;再使用经过预训练的ResNet-18分别对双时相图像块的浅层特征图和前期融合特征进行特征提取,得到对应的时相1卷积特征图、时相2卷积特征图和融合卷积特征图;
步骤b:将时相1卷积特征图、时相2卷积特征图和融合卷积特征图输入到中期特征融合层,首先将时相1卷积特征图和时相2卷积特征图进行相加、差分、拼接后,分别得到相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图;将相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图和融合卷积特征图进行拼接得到中期拼接特征图,再经过通道注意力模块和1×1卷积,将中期拼接特征图降维到和时相1卷积特征图相同的通道数,得到中期融合后的特征图;
步骤c:将时相1卷积特征图、时相2卷积特征图和中期融合卷积特征图分别输入卷积特征解码层,经过若干次上采样卷积,得到对应的时相1解码特征图、时相2解码特征图和中期融合解码特征图;
步骤d:将时相1解码特征图、时相2解码特征图和中期融合解码特征图进行拼接得到后期拼接特征图,再经过通道注意力模块和1×1卷积,将后期拼接特征图降维到和时相1解码特征图相同的通道数,得到后期融合特征图,将后期融合特征图和中期融合解码特征图相加后再经1×1卷积,输出变化检测二分类结果;
建筑物变化检测网络的损失函数设置如下:
CE(p,y)=-αylog(p)-(1-α)(1-y)log(1-p) (1)
其中,p∈(0,1)表示输出的结果,y∈{0,1}表示在标签中是否存在建筑物的变化,0表示没有变化,1表示存在变化,CE(p,y)表示网络损失值,α表示权重,取值范围为0.5~0.6;
S3、将待处理的双时相遥感图像输入到步骤2训练好的建筑物变化检测图像,输出得到变化检测二分类结果。
进一步地,所述的卷积特征编码层采用AlexNet、GoogLeNet、VGG或ResNet网络。
进一步地,所述的卷积特征解码层采用UNet或FPN结构。
本发明的有益效果是:由于数据增强模块采用随机裁剪后进行正负样本数量平衡的处理方式,能够有效避免负样本过多导致训练模型拟合效果差的问题,避免了网络的过拟合,使用多分支的网络有利于更好地获取双时相图像的整体差异和更好的边缘信息;由于对不同时相遥感影像之间的信息既单独进行特征提取,又在不同阶段进行多次融合处理,能够充分地利用双时相高分辨率遥感图像的特征,得到具有更清晰边缘分布的变化检测结果。
附图说明
图1是本发明的多阶段信息融合的高分辨率遥感图像建筑物变化检测方法流程图;
图2是采用本发明方法对LEVIR-CD数据集图像处理后的结果图像;
图中,(a)-输入双时相图像1,(b)-输入双时相图像2,(c)-真实检测图像,(d)-本发明方法检测结果图像。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法,其具体实现过程如下:
S1、将训练集中的双时相高分辨率遥感图像及其标签输入数据增强模块,首先将标签分割为3×3或4×4大小的子区域,并在每个分割后的子区域中随机选择一个点,以该点为中心在标签上进行裁剪,得到3×3或4×4个大小为256×256的子图像作为候选图像,以每个候选图像中正样本数量的归一化值作为其概率权重;依据所赋予的概率进行不等概率抽样,选择得到一幅候选图像,以此图的中心点位置为中心,分别在双时相图像上裁剪得到大小为256×256的双时相子图像块;所述的正样本是指图像中变化建筑物对应的像素点;
S2、以步骤1得到的双时相子图像块作为训练数据集,以不等概率抽样选择得到的候选样图像作为网络训练的标签,输入到建筑物变化检测网络,对网络进行训练,得到训练好的建筑物变化检测网络;
所述的建筑物变化检测网络的处理过程如下:
步骤a:输入双时相子图像块T1和T2,使用7×7的卷积核分别对其进行特征提取,得到对应的浅层特征图;经过前期融合层将双时相图像块的浅层特征图进行拼接并经过通道注意力将通道数量减半,得到前期融合特征;再使用经过预训练的ResNet-18分别对双时相图像块的浅层特征图和前期融合特征进行特征提取,得到对应的时相1卷积特征图、时相2卷积特征图和融合卷积特征图;
步骤b:将时相1卷积特征图、时相2卷积特征图和融合卷积特征图输入到中期特征融合层,首先将时相1卷积特征图和时相2卷积特征图进行相加、差分、拼接后,分别得到相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图;将相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图和融合卷积特征图进行拼接得到中期拼接特征图,再经过通道注意力模块和1×1卷积,将中期拼接特征图降维到和时相1卷积特征图相同的通道数,得到中期融合后的特征图;
步骤c:将时相1卷积特征图、时相2卷积特征图和中期融合卷积特征图分别输入卷积特征解码层,经过若干次上采样卷积,得到对应的时相1解码特征图、时相2解码特征图和中期融合解码特征图;
步骤d:将时相1解码特征图、时相2解码特征图和中期融合解码特征图进行拼接得到后期拼接特征图,再经过通道注意力模块和1×1卷积,将后期拼接特征图降维到和时相1解码特征图相同的通道数,得到后期融合特征图,将后期融合特征图和中期融合解码特征图相加后再经1×1卷积,输出变化检测二分类结果;
建筑物变化检测网络的损失函数设置如下:
CE(p,y)=-αylog(p)-(1-α)(1-y)log(1-p) (2)
其中,p∈(0,1)表示输出的结果,y∈{0,1}表示在标签中是否存在建筑物的变化,0表示没有变化,1表示存在变化,CE(p,y)表示网络损失值,α表示权重,取值范围为0.5~0.6;
S3、将待处理的双时相遥感图像输入到步骤2训练好的建筑物变化检测图像,输出得到变化检测二分类结果。
本发明的效果可以通过以下仿真实验进一步说明。
1.仿真数据集
为验证本发明方法的有效性,在开源数据集LEVIR-CD上采用本发明方法进行实验,该数据集由Chen等人在文献“H.Chen and Z.Shi,A Spatial-Temporal Attention-Based Method and a New Dataset for Remote Sensing Image Change Detection,Remote Sensing,vol.12,no.10,pp.1662-1684,2020.”中提出,包含637对双时相遥感图像,其中训练集为445对,验证集为64对,测试集为128对。图像分辨率为1024*1024像素,变化的建筑物数量为31333个。
2.仿真内容
在数据集上分别和其他现有方法FC-EF方法、FC-EF-Res方法、ChangeNet方法、U-Net方法、MSOF方法、STANet方法、EGRCNN方法、CDNet+IAug方法进行对比,分别计算准确率Precision、召回率Recall、F1指数F1-score,其中,准确率Precision越大,说明所有被预测为正的结果中正确的比例越高,召回率Recall越大,说明所有正的结果被正确预测的比例越高,F1指数F1-score越大,说明结果的综合评价越好。表1给出了不同方法检测结果的各项指标值。可以看出,本发明方法在该数据集上取得了最佳的精度。图2给出了数据集中的双时相图像、真实检测图像和采用本发明方法处理后得到的检测结果图像示例,可以看出,输入二值图像具有完整且清晰的边缘。
表1
Methods | Precision | Recall | F1-score |
FC-EF方法 | 0.710 | 0.781 | 0.745 |
FC-EF-Res方法 | 0.771 | 0.792 | 0.782 |
ChangeNet方法 | 0.822 | 0.714 | 0.764 |
U-Net方法 | 0.897 | 0.837 | 0.869 |
MSOF方法 | 0.856 | 0.892 | 0.874 |
STANet方法 | 0.838 | 0.910 | 0.873 |
EGRCNN方法 | 0.878 | 0.915 | 0.897 |
CDNet+IAug方法 | 0.916 | 0.865 | 0.890 |
本发明方法 | 0.895 | 0.915 | 0.905 |
Claims (3)
1.一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法,其特征在于步骤如下:
S1、将训练集中的双时相高分辨率遥感图像及其标签输入数据增强模块,首先将标签分割为3×3或4×4大小的子区域,并在每个分割后的子区域中随机选择一个点,以该点为中心在标签上进行裁剪,得到3×3或4×4个大小为256×256的子图像作为候选图像,以每个候选图像中正样本数量的归一化值作为其概率权重;依据所赋予的概率进行不等概率抽样,选择得到一幅候选图像,以此图的中心点位置为中心,分别在双时相图像上裁剪得到大小为256×256的双时相子图像块;所述的正样本是指图像中变化建筑物对应的像素点;
S2、以步骤1得到的双时相子图像块作为训练数据集,以不等概率抽样选择得到的候选样图像作为网络训练的标签,输入到建筑物变化检测网络,对网络进行训练,得到训练好的建筑物变化检测网络;
所述的建筑物变化检测网络的处理过程如下:
步骤a:输入双时相子图像块,使用7×7的卷积核分别对其进行特征提取,得到对应的浅层特征图;经过前期融合层将双时相图像块的浅层特征图进行拼接并经过通道注意力将通道数量减半,得到前期融合特征;再使用经过预训练的ResNet-18分别对双时相图像块的浅层特征图和前期融合特征进行特征提取,得到对应的时相1卷积特征图、时相2卷积特征图和融合卷积特征图;
步骤b:将时相1卷积特征图、时相2卷积特征图和融合卷积特征图输入到中期特征融合层,首先将时相1卷积特征图和时相2卷积特征图进行相加、差分、拼接后,分别得到相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图;将相加后卷积特征图、差分后卷积特征图、拼接后卷积特征图和融合卷积特征图进行拼接得到中期拼接特征图,再经过通道注意力模块和1×1卷积,将中期拼接特征图降维到和时相1卷积特征图相同的通道数,得到中期融合后的特征图;
步骤c:将时相1卷积特征图、时相2卷积特征图和中期融合卷积特征图分别输入卷积特征解码层,经过若干次上采样卷积,得到对应的时相1解码特征图、时相2解码特征图和中期融合解码特征图;
步骤d:将时相1解码特征图、时相2解码特征图和中期融合解码特征图进行拼接得到后期拼接特征图,再经过通道注意力模块和1×1卷积,将后期拼接特征图降维到和时相1解码特征图相同的通道数,得到后期融合特征图,将后期融合特征图和中期融合解码特征图相加后再经1×1卷积,输出变化检测二分类结果;
建筑物变化检测网络的损失函数设置如下:
CE(p,y)=-αylog(p)-(1-α)(1-y)log(1-p) (I)
其中,p∈(0,1)表示输出的结果,y∈{0,1}表示在标签中是否存在建筑物的变化,0表示没有变化,1表示存在变化,CE(p,y)表示网络损失值,α表示权重,取值范围为0.5~0.6;
S3、将待处理的双时相遥感图像输入到步骤2训练好的建筑物变化检测图像,输出得到变化检测二分类结果。
2.如权利要求1所述的一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法,其特征在于:所述的卷积特征编码层采用AlexNet、GoogLeNet、VGG或ResNet网络。
3.如权利要求1或2所述的一种多阶段信息融合的高分辨率遥感图像建筑物变化检测方法,其特征在于:所述的卷积特征解码层采用UNet或FPN结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210268182.5A CN114821350B (zh) | 2022-03-17 | 2022-03-17 | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210268182.5A CN114821350B (zh) | 2022-03-17 | 2022-03-17 | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821350A true CN114821350A (zh) | 2022-07-29 |
CN114821350B CN114821350B (zh) | 2024-02-27 |
Family
ID=82530545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210268182.5A Active CN114821350B (zh) | 2022-03-17 | 2022-03-17 | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821350B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310851A (zh) * | 2023-05-26 | 2023-06-23 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
CN116503620A (zh) * | 2023-05-11 | 2023-07-28 | 中国科学院空天信息创新研究院 | 高分遥感图像变化检测方法、装置、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263705A (zh) * | 2019-06-19 | 2019-09-20 | 上海交通大学 | 面向遥感技术领域两期高分辨率遥感影像变化检测方法 |
WO2020015167A1 (zh) * | 2018-07-17 | 2020-01-23 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN112488025A (zh) * | 2020-12-10 | 2021-03-12 | 武汉大学 | 基于多模态特征融合的双时相遥感影像语义变化检测方法 |
CN113936217A (zh) * | 2021-10-25 | 2022-01-14 | 华中师范大学 | 先验语义知识引导的高分辨率遥感影像弱监督建筑物变化检测方法 |
-
2022
- 2022-03-17 CN CN202210268182.5A patent/CN114821350B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020015167A1 (zh) * | 2018-07-17 | 2020-01-23 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN110263705A (zh) * | 2019-06-19 | 2019-09-20 | 上海交通大学 | 面向遥感技术领域两期高分辨率遥感影像变化检测方法 |
CN112488025A (zh) * | 2020-12-10 | 2021-03-12 | 武汉大学 | 基于多模态特征融合的双时相遥感影像语义变化检测方法 |
CN113936217A (zh) * | 2021-10-25 | 2022-01-14 | 华中师范大学 | 先验语义知识引导的高分辨率遥感影像弱监督建筑物变化检测方法 |
Non-Patent Citations (1)
Title |
---|
徐胜军;欧阳朴衍;郭学源;KHAN TAHA MUTHAR;: "基于多尺度特征融合模型的遥感图像建筑物分割", 计算机测量与控制, no. 07, 25 July 2020 (2020-07-25) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116503620A (zh) * | 2023-05-11 | 2023-07-28 | 中国科学院空天信息创新研究院 | 高分遥感图像变化检测方法、装置、电子设备及介质 |
CN116503620B (zh) * | 2023-05-11 | 2023-12-08 | 中国科学院空天信息创新研究院 | 高分遥感图像变化检测方法、装置、电子设备及介质 |
CN116310851A (zh) * | 2023-05-26 | 2023-06-23 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
CN116310851B (zh) * | 2023-05-26 | 2023-08-15 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114821350B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
CN111047551B (zh) | 一种基于U-net改进算法的遥感影像变化检测方法及系统 | |
CN110136170B (zh) | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 | |
CN108846835B (zh) | 基于深度可分离卷积网络的图像变化检测方法 | |
CN111311563A (zh) | 一种基于多域特征融合的图像篡改检测方法 | |
CN112950606B (zh) | 一种基于小样本的手机屏幕缺陷分割方法 | |
CN114821350B (zh) | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 | |
CN111259906A (zh) | 含多级通道注意力的条件生成对抗遥感图像目标分割方法 | |
CN110020658B (zh) | 一种基于多任务深度学习的显著目标检测方法 | |
CN112489054A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN111696021B (zh) | 一种基于显著性检测的图像自适应隐写分析系统及方法 | |
CN112819837B (zh) | 一种基于多源异构遥感影像的语义分割方法 | |
CN111291675A (zh) | 一种基于深度学习的高光谱古绘画检测识别方法 | |
CN112488229A (zh) | 一种基于特征分离和对齐的域自适应无监督目标检测方法 | |
CN112163490A (zh) | 一种基于场景图片的目标检测方法 | |
CN115471754A (zh) | 一种基于多维多尺度U-net网络的遥感图像道路提取方法 | |
CN113392930A (zh) | 基于多层次分治网络的交通标志目标检测方法 | |
CN111028244B (zh) | 基于超像素的已知样本不均衡情况下的遥感图像语义分割的方法 | |
CN115147418A (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN114820541A (zh) | 基于重构网络的缺陷检测方法 | |
CN115457385A (zh) | 一种基于轻量级网络的建筑物变化检测方法 | |
CN116628626A (zh) | 基于特征交叉融合的短时强降水分型方法 | |
CN114972155B (zh) | 一种基于上下文信息和反向注意力的息肉图像分割方法 | |
CN113435389B (zh) | 基于图像特征深度学习的小球藻和金藻分类识别方法 | |
CN113744205B (zh) | 一种端到端的道路裂缝检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |