CN114821354B - 一种基于孪生多任务网络的城市建筑物变化遥感检测方法 - Google Patents
一种基于孪生多任务网络的城市建筑物变化遥感检测方法 Download PDFInfo
- Publication number
- CN114821354B CN114821354B CN202210409692.XA CN202210409692A CN114821354B CN 114821354 B CN114821354 B CN 114821354B CN 202210409692 A CN202210409692 A CN 202210409692A CN 114821354 B CN114821354 B CN 114821354B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- image
- twin
- feature
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008859 change Effects 0.000 title claims abstract description 62
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 238000011160 research Methods 0.000 claims abstract description 11
- 238000013508 migration Methods 0.000 claims abstract description 8
- 230000005012 migration Effects 0.000 claims abstract description 8
- 238000004519 manufacturing process Methods 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 abstract description 4
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于孪生多任务网络的城市建筑物变化遥感检测方法,包括以下步骤:步骤S1:选择覆盖研究区域的双时相高分辨率遥感影像;步骤S2:构建多任务特征提取器;步骤S3:基于步骤S2,构建特征差异度量模块;步骤S4:建立联合损失函数;步骤S5:构建遥感影像数据集进行样本迁移,制作模型训练样本库;步骤S6:训练孪生多任务模型。应用本技术方案可解决传统孪生神经网络在遥感影像变化检测结果中出现的检测边界与实际边界吻合度较低的问题,减少由于高分辨率遥感影像的空间位移问题而造成的错检漏检现象,而且端对端的模型架构有效提升了变化检测效率,为高效获取高分辨率影像中精细的城市建筑物变化信息提供技术支撑。
Description
技术领域
本发明涉及建筑物变化遥感检测方法的技术领域,特别是一种基于孪生多任务网络的城市建筑物变化遥感检测方法。
背景技术
城市区域的建筑物是城市里边十分重要的地理要素,是人们居住、工作、生活等活动的基本载体。快速的城市化进程带来了城市地表的快速变化,其中建筑物的变化(拆除、新建)等尤为显著。有效地识别城市区域建筑物的变化信息为土地资源管理、城市环境监测和城市可持续发展战略制定等应用提供了重要的数据支撑。传统的建筑物变化信息采集手段多依靠人工测绘或目视解译航空像片获得,方法耗时耗力、效率较低。
近年来,卫星遥感技术蓬勃发展,影像的空间分辨率不断提高,对空间细节的表征能力不断增强,为精细的建筑物变化识别带来了机会。但目前城市建筑物变化检测方法依然存在诸多挑战,受影像拍摄姿态影响,不同时相的高分辨率影像常存在空间位移现象,造成严重的漏检或错检;此外,受影像拍摄季相影响,不同物候期的植被覆盖存在显著的光谱差异,检测结果不确定性增大。因此,面向可持续城市发展建设,如何基于高分辨率遥感影像精准的识别城市区域的建筑物变化信息是当前亟待解决的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于孪生多任务网络的城市建筑物变化遥感检测方法,解决传统孪生神经网络在遥感影像变化检测结果中出现的检测边界与实际边界吻合度较低的问题,减少由于高分辨率遥感影像的空间位移问题而造成的错检漏检现象,而且端对端的模型架构有效提升了变化检测效率,为高效获取高分辨率影像中精细的城市建筑物变化信息提供技术支撑。
为实现上述目的,本发明采用如下技术方案:一种基于孪生多任务网络的城市建筑物变化遥感检测方法,包括以下步骤:
步骤S1:选择覆盖研究区域的双时相高分辨率遥感影像,并对遥感影像进行预处理;
步骤S2:基于卷积神经网络,构建多任务特征提取器,同时提取遥感影像的区域特征Fmask和边界特征Fcontour;
步骤S3:基于步骤S2,构建特征差异度量模块,分别计算双时相影像的区域特征差异度Dmask及边界特征差异度Dcontour;
步骤S4:建立联合损失函数,在模型训练阶段,使用联合损失函数约束步骤S2、步骤S3不断调优;
步骤S5:收集用于高分辨率遥感影像变化检测的公开影像数据集,构建对抗神经网络对公开遥感影像数据集进行样本迁移,制作模型训练样本库;
步骤S6:训练孪生多任务模型,并将训练好的模型用于步骤S1所获遥感影像的城市建筑物变化检测。
在一较佳的实施例中,步骤S1具体包括以下步骤:
步骤S11:选择存在建筑物变化区域的两幅不同时相高分辨率遥感影像,并对遥感影像进行预处理;主要包括:正射校正、多光谱-全色融合操作;
步骤S12:对步骤S11获得的双时相遥感影像进行地理配准。
在一较佳的实施例中,步骤S2具体包括以下步骤:
步骤S21:基于卷积神经网络,使用卷积层代替全连接层,构建编码器;编码器被两个任务共用,编码器由四部分构成,每部分均包含一个空洞卷积层、池化层和激活函数;
步骤S22:使用多个下采样模块构建区域解码器和边界解码器,并在各解码器中采用跳层连接机制,将双时相图像的深浅层特征结合;
步骤S23:基于步骤S21、S22构建多任务特征提取器;并在特征提取器中加入注意力机制;
步骤S24:使用两个权值共享的多任务特征提取器搭建孪生神经网络,自动学习不同时刻遥感影像T1和T2的图像区域特征Fmask和边界特征Fcontour。
在一较佳的实施例中,步骤S3具体包括以下步骤:
步骤S31:分别计算图像区域特征Fmask、边界特征Fcontour之间的欧氏距离,获取距离图Dmask和Dcontour;计算像素级特征间差异度DP采用下式:
式中,i,j代表像素的坐标值,代表第一时相的遥感影像在指定位置像素的特征值,/>代表第二时相的影像在指定位置像素的特征值;
步骤S32:对步骤S31获得的距离图Dmask、Dcontour进行卷积操作,使用Softmax层完成特征差异度量模块构建。
在一较佳的实施例中,步骤S4具体包括以下步骤:
步骤S41:使用负对数似然损失作为多任务特征提取器模块中区域、边界特征提取任务的损失函数,特征提取部分的总损失函数公式为:
Ltotal=λ1Lmask+λ2Lcontour
式中,Ltotal表示特征提取部分的总损失值,λ1、λ2是各部分损失的权重参数;具体的单项损失计算公式为:
式中,Lmask、Lcontour分别表示区域提取和边界提取的像素分类误差;x是图像空间Ω中的像素位置;Pmask(x;lmask(x))、Pcontour(x;lcontour(x))表示Softmax激活函数对真标签Lmask和Lcontour的预测概率;
步骤S42:特征差异度量模块使用Focal Loss函数:
LFocalLoss=-α(1-ρt)λlog(ρt)
式中,LFocalLoss表示Focal Loss函数,α是来控制正负样本对总损失的共享权重,λ为可调的聚焦参数,p为变化概率;
步骤S43:设置孪生多任务神经网络的损失函数LSiam_mul_task为:
LSiam_mul_task=θ1Ltotal+θ2LFocalLoss
式中,θ1、θ2表示各部分权重比例,Ltotal为特征提取部分的损失函数。
在一较佳的实施例中,步骤S5具体包括以下步骤:
步骤S51:选择高分辨率遥感影像变化检测公开数据集,挑选城市建筑物场景下的训练样本;
步骤S52:对研究区的高分辨率影像进行正射校正、影像融合预处理操作,并得到RGB影像;
步骤S53:基于步骤S1处理后的影像制作少量城市建筑物变化数据集,并与公开数据集共同训练对抗神经网络,使用训练充分的对抗神经网络生成伪数据集,进行样本层面的迁移学习;
步骤S54:使用步骤S53获取的伪数据集,结合目标域的城市建筑物变化检测数据集,构建模型训练样本库,以训练孪生多任务变化检测网络。
在一较佳的实施例中,步骤S6具体包括以下步骤:
步骤S61:使用步骤S5获取的样本库,设置网络超参数,训练孪生多任务变化检测模型,保存模型权重;
步骤S62:使用模型对步骤S1获取的目标影像进行城市建筑物变化检测,获取变化检测结果。
与现有技术相比,本发明具有以下有益效果:利用孪生神经网络并结合多任务学习机制,构建孪生多任务变化检测网络,将边界信息规则化集成至模型内部,以提升检测边界与实际变化边界吻合度;此外,引入对抗学习机制并充分利用开放地理数据集,通过采集少量目标影像样本标签,实现孪生多任务神经网络在不同传感器高分辨率遥感影像变化检测中的有效迁移。本发明可解决传统孪生神经网络在遥感影像变化检测结果中出现的检测边界与实际边界吻合度较低的问题,减少由于高分辨率遥感影像的空间位移问题而造成的错检漏检现象,而且端对端的模型架构有效提升了变化检测效率,为高效获取高分辨率影像中精细的城市建筑物变化信息提供技术支撑。
附图说明
图1为本发明优选实施例的方法流程图;
图2为本发明优选实施例的研究区变化参考图;
图3为本发明优选实施例的变化检测结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式;如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种面向城市建筑物的遥感变化检测方法,具体包括以下步骤:
步骤S1:选择覆盖研究区域的双时相高分二号卫星影像,并对遥感影像进行预处理;
步骤S2:基于主流的卷积神经网络,构建多任务特征提取器,同时提取建设项目的区域特征Fmask和边界特征Fcontour;
步骤S3:基于步骤S2,构建特征差异度量模块,分别计算双时相影像区域特征差异度Dmask及边界特征差异度Dcontour;
步骤S4:建立联合损失函数,在模型训练阶段,使用联合损失函数约束步骤S2、步骤S3不断调优;
步骤S5:收集用于高分辨率遥感影像变化检测的公开遥感影像数据集,构建对抗性神经网络对公开遥感影像数据集进行样本迁移,制作模型训练样本库;
步骤S6:使用训练样本训练孪生多任务模型,并将训练好的模型用于步骤S1所获影像的城市建筑物变化检测。
在本实施例中,步骤S1具体包括以下步骤:
步骤S11:选择存在建筑物变化区域的两幅不同时相GF-2遥感影像,并使用ENVI软件对影像进行正射校正和Gram-Schmidt多光谱-全色融合。
步骤S12:对步骤S11获得的双时相影像进行地理配准。
在本实施例中,步骤S2中具体包括以下步骤:
步骤S21:选择UNet作为主干网络,使用卷积层代替全连接层,构建编码器。编码器被两个任务共用,编码器由四部分构成,每部分均包含一个空洞卷积层、池化层和激活函数。
步骤S22:使用多个下采样模块构建区域解码器和边界解码器,并在各解码器中采用跳层连接机制,将双时相图像的深浅层特征结合;
步骤S23:基于步骤S21、S22构建多任务特征提取器。并在特征提取器中加入通道空间注意力机制;
步骤S24:使用两个权值共享的多任务特征提取器搭建孪生神经网络,自动学习不同时刻影像T1和T2的图像区域特征Fmask和边界特征Fcontour。
在本实施例中,步骤S3中具体包括以下步骤:
步骤S31:分别计算图像区域特征Fmask、边界特征Fcontour之间的欧氏距离,获取距离图Dmask和Dcontour。计算像素级特征间差异度DP采用下式:
式中,i,j代表像素的坐标值,代表第一时相的影像在指定位置像素的特征值(区域或边界特征),/>代表第二时相的影像在指定位置像素的特征值。
步骤S32:对步骤S31获得的距离图Dmask、Dcontour进行卷积操作,使用Softmax层完成特征差异度量模块构建。
在本实施例中,步骤S4中具体包括以下步骤:
步骤S41:使用负对数似然损失作为多任务特征提取器模块中区域、边界特征提取任务的损失函数,特征提取部分的总损失函数公式为:
Ltotal=λ1Lmask+λ2Lcontour
式中,Ltotal表示特征提取部分的总损失值,λ1、λ2是各部分损失的权重参数;具体的单项损失计算公式为:
式中,Lmask、Lcontour表示区域提取和边界提取的像素分类误差。x是图像空间Ω中的像素位置。Pmask(x;lmask(x))、Pcontour(x;lcontour(x))表示Softmax激活函数对真标签Lmask和Lcontour的预测概率。
步骤S42:特征差异度量模块使用Focal Loss函数:
LFocalLoss=-α(1-ρt)λlog(pt)
式中,α是来控制正负样本对总损失的共享权重,λ为可调的聚焦参数,p为变化概率。本研究中α设为0.25,λ设为2。
步骤S43:设置孪生多任务神经网络的损失函数为:
LSiam_mul_task=θ1Ltotal+θ2LFocalLoss
式中,θ1、θ2表示各部分权重比例,Ltotal为特征提取部分的损失函数在本实施例中,步骤S5中具体包括以下步骤:
步骤S51:本实施例使用CD_Data_GZ公开数据集,挑选合适的城市建筑物场景下的训练样本。
步骤S52:对研究区的GF-2影像进行正射校正、融合等预处理操作,并得到RGB影像。
步骤S53:基于步骤S1处理后的影像制作少量城市建筑物变化数据集,并与公开数据集共同训练对抗性神经网络,使用训练充分的对抗神经网络生成伪数据集,进行样本层面的迁移学习。
步骤S54:使用步骤S53获取的伪数据集,结合目标域的城市建筑物变化检测数据集,构建合理的模型训练样本库,以训练孪生多任务变化检测网络。
在本实施例中,步骤S6中具体包括以下步骤:
步骤S61:使用步骤S5获取的样本库,设置合理的学习率、训练回合、优化器等超参数,训练孪生多任务变化检测模型,保存最优模型权重。
步骤S62:使用最优模型对步骤S1获取的目标影像进行城市建筑物变化检测,获取变化检测结果。
特别的,本实施例以福建省福州市部分区域为研究区,利用2017和2020年研究区GF-2共两个时期的高分辨率遥感影像数据对研究区内主要变化区域进行城市建筑物变化检测,图2为研究区参考变化图和2017年至2020年预测城市建筑物变化图。从图2-3可知,本发明可以对城市建筑物变化区域进行精准检测,检测结果的变化边界与实际变化边界吻合度较高。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (4)
1.一种基于孪生多任务网络的城市建筑物变化遥感检测方法,其特征在于,基于孪生神经网络和多任务学习,包括以下步骤:
步骤S1:选择覆盖研究区域的双时相高分辨率遥感影像,并对遥感影像进行预处理;
步骤S2:基于卷积神经网络,构建多任务特征提取器,同时提取遥感影像的区域特征Fmask和边界特征Fcontour;
步骤S3:基于步骤S2,构建特征差异度量模块,分别计算双时相影像的区域特征差异度Dmask及边界特征差异度Dcontour;
步骤S4:建立联合损失函数,在模型训练阶段,使用联合损失函数约束步骤S2、步骤S3不断调优;
步骤S5:收集用于高分辨率遥感影像变化检测的公开影像数据集,构建对抗神经网络对公开遥感影像数据集进行样本迁移,制作模型训练样本库;
步骤S6:训练孪生多任务模型,并将训练好的模型用于步骤S1所获遥感影像的城市建筑物变化检测;
步骤S2具体包括以下步骤:
步骤S21:基于卷积神经网络,使用卷积层代替全连接层,构建编码器;编码器为两个任务共用,编码器由四部分构成,每部分均包含一个空洞卷积层、池化层和激活函数;
步骤S22:使用多个下采样模块构建区域解码器和边界解码器,并在各解码器中采用跳层连接机制,将双时相图像的深浅层特征结合;
步骤S23:基于步骤S21、S22构建多任务特征提取器;并在特征提取器中加入注意力机制;
步骤S24:使用两个权值共享的多任务特征提取器搭建孪生神经网络,自动学习不同时刻遥感影像T1和T2的图像区域特征Fmask和边界特征Fcontour;
步骤S3具体包括以下步骤:
步骤S31:分别计算图像区域特征Fmask、边界特征Fcontour之间的欧氏距离,获取距离图Dmask和Dcontour;计算像素级特征间差异度DP采用下式:
式中,i,j代表像素的坐标值,代表第一时相的遥感影像在指定位置像素的特征值,代表第二时相的影像在指定位置像素的特征值;
步骤S32:对步骤S31获得的距离图Dmask、Dcontour进行卷积操作,使用Softmax层完成特征差异度量模块构建;
步骤S4具体包括以下步骤:
步骤S41:使用负对数似然损失作为多任务特征提取器模块中区域、边界特征提取任务的损失函数,特征提取部分的总损失函数公式为:
Ltotal=λ1Lmask+λ2Lcontour
式中,Ltotal表示特征提取部分的总损失值,λ1、λ2是各部分损失的权重参数;具体的单项损失计算公式为:
式中,Lmask、Lcontour分别表示区域提取和边界提取的像素分类误差;x是图像空间Ω中的像素位置;Pmask(x;lmask(x))、Pcontour(x;lcontour(x))表示Softmax激活函数对真标签Lmask和Lcontour的预测概率;
步骤S42:特征差异度量模块使用Focal Loss函数:
LFocalLoss=-α(1-ρt)λlog(ρt)
式中,LFocalLoss表示Focal Loss函数,α是来控制正负样本对总损失的共享权重,λ为可调的聚焦参数,p为变化概率;
步骤S43:设置孪生多任务神经网络的损失函数LSiam_mul_task为:
LSiam_mul_task=θ1Ltotal+θ2LFocalLoss
式中,θ1、θ2表示各部分权重比例,Ltotal为特征提取部分的损失函数。
2.根据权利要求1所述的一种基于孪生多任务网络的城市建筑物变化遥感检测方法,其特征在于,步骤S1具体包括以下步骤:
步骤S11:选择存在建筑物变化区域的两幅不同时相高分辨率遥感影像,并对遥感影像进行预处理;主要包括:正射校正、多光谱-全色融合操作;
步骤S12:对步骤S11获得的双时相遥感影像进行地理配准。
3.根据权利要求1所述的一种基于孪生多任务网络的城市建筑物变化遥感检测方法,其特征在于,步骤S5具体包括以下步骤:
步骤S51:选择高分辨率遥感影像变化检测公开数据集,挑选城市建筑物场景下的训练样本;
步骤S52:对研究区的高分辨率影像进行正射校正、影像融合预处理操作,并得到RGB影像;
步骤S53:基于步骤S1处理后的影像制作少量城市建筑物变化数据集,并与公开数据集共同训练对抗神经网络,使用训练充分的对抗神经网络生成伪数据集,进行样本层面的迁移学习;
步骤S54:使用步骤S53获取的伪数据集,结合目标域的城市建筑物变化检测数据集,构建模型训练样本库,以训练孪生多任务变化检测网络。
4.根据权利要求1所述的一种基于孪生多任务网络的城市建筑物变化遥感检测方法,其特征在于,步骤S6具体包括以下步骤:
步骤S61:使用步骤S5获取的样本库,设置网络超参数,训练孪生多任务变化检测模型,保存模型权重;
步骤S62:使用模型对步骤S1获取的目标影像进行城市建筑物变化检测,获取变化检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210409692.XA CN114821354B (zh) | 2022-04-19 | 2022-04-19 | 一种基于孪生多任务网络的城市建筑物变化遥感检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210409692.XA CN114821354B (zh) | 2022-04-19 | 2022-04-19 | 一种基于孪生多任务网络的城市建筑物变化遥感检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821354A CN114821354A (zh) | 2022-07-29 |
CN114821354B true CN114821354B (zh) | 2024-06-07 |
Family
ID=82506516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210409692.XA Active CN114821354B (zh) | 2022-04-19 | 2022-04-19 | 一种基于孪生多任务网络的城市建筑物变化遥感检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821354B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117273070B (zh) * | 2023-11-16 | 2024-02-02 | 云南烟叶复烤有限责任公司 | 一种基于孪生卷积自编码器构建的光谱模型转移方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161218A (zh) * | 2019-12-10 | 2020-05-15 | 核工业北京地质研究院 | 一种基于孪生卷积神经网络的高分遥感影像变化检测方法 |
CN111723600A (zh) * | 2019-03-18 | 2020-09-29 | 四川大学 | 一种基于多任务学习的行人重识别特征描述子 |
CN113011398A (zh) * | 2021-04-28 | 2021-06-22 | 北京邮电大学 | 一种针对多时相遥感图像的目标变化检测方法及装置 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及系统 |
CN113609896A (zh) * | 2021-06-22 | 2021-11-05 | 武汉大学 | 基于对偶相关注意力的对象级遥感变化检测方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112640000A (zh) * | 2018-08-22 | 2021-04-09 | 西门子医疗有限公司 | 根据医学数据对预测性数字孪生体模型的数据驱动的估计 |
-
2022
- 2022-04-19 CN CN202210409692.XA patent/CN114821354B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723600A (zh) * | 2019-03-18 | 2020-09-29 | 四川大学 | 一种基于多任务学习的行人重识别特征描述子 |
CN111161218A (zh) * | 2019-12-10 | 2020-05-15 | 核工业北京地质研究院 | 一种基于孪生卷积神经网络的高分遥感影像变化检测方法 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及系统 |
CN113011398A (zh) * | 2021-04-28 | 2021-06-22 | 北京邮电大学 | 一种针对多时相遥感图像的目标变化检测方法及装置 |
CN113609896A (zh) * | 2021-06-22 | 2021-11-05 | 武汉大学 | 基于对偶相关注意力的对象级遥感变化检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114821354A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10795056B2 (en) | Local weather forecast | |
Jiao et al. | Multi-order landscape expansion index: Characterizing urban expansion dynamics | |
KR102053802B1 (ko) | 센서를 위치판단하는 방법 및 관련된 장치 | |
CN110889324A (zh) | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 | |
CN109034018A (zh) | 一种基于双目视觉的低空小型无人机障碍物感知方法 | |
Yan et al. | Estimation of urban-scale photovoltaic potential: A deep learning-based approach for constructing three-dimensional building models from optical remote sensing imagery | |
CN110636248B (zh) | 目标跟踪方法与装置 | |
CN109859183A (zh) | 基于边缘计算的多要素一体化水体智能识别方法及生态站 | |
Li et al. | Detection of coastal wetland change in China: a case study in Hangzhou Bay | |
CN113223042A (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN114494865A (zh) | 一种山地生态系统未来情景的cset方法 | |
CN114821354B (zh) | 一种基于孪生多任务网络的城市建筑物变化遥感检测方法 | |
Lyu et al. | Four seasonal composite Sentinel-2 images for the large-scale estimation of the number of stories in each individual building | |
Yadav et al. | Supervised learning based greenery region detection using unnamed aerial vehicle for smart city application | |
CN114463624A (zh) | 一种应用于城市管理监督的违章建筑物检测方法及装置 | |
CN100378752C (zh) | 鲁棒的自然图像分割方法 | |
CN115424131B (zh) | 一种云检测最优阈值选取方法、云检测方法及系统 | |
CN117173573A (zh) | 一种城市建筑物类型变化遥感检测方法 | |
CN116682045A (zh) | 一种基于智能视频分析的游梁式抽油机故障检测方法 | |
CN109919990A (zh) | 利用深度感知网络和视差遥感影像进行森林高度预测方法 | |
Sujiwo et al. | Robust and accurate monocular vision-based localization in outdoor environments of real-world robot challenge | |
Murray et al. | New and traditional methods for thorough documentation and analysis of architectural features in the Greek landscape: a case study from the Mazi archaeological project (Western Attica) | |
CN114418858A (zh) | 遥感影像的镶嵌方法、装置、设备及存储介质 | |
CN110910496B (zh) | 基于大数据和ai的vr自然环境自动构成方法 | |
Do et al. | Pixel-based and object-based terrace extraction using feed-forward deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |