CN113487546A - 一种特征-输出空间双对齐的变化检测方法 - Google Patents
一种特征-输出空间双对齐的变化检测方法 Download PDFInfo
- Publication number
- CN113487546A CN113487546A CN202110707356.9A CN202110707356A CN113487546A CN 113487546 A CN113487546 A CN 113487546A CN 202110707356 A CN202110707356 A CN 202110707356A CN 113487546 A CN113487546 A CN 113487546A
- Authority
- CN
- China
- Prior art keywords
- feature
- loss
- change
- output
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008859 change Effects 0.000 title claims abstract description 87
- 238000001514 detection method Methods 0.000 title claims abstract description 40
- 230000008485 antagonism Effects 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 18
- 238000010276 construction Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 9
- 239000000126 substance Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 4
- 238000013461 design Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种特征‑输出空间双对齐的变化检测方法,通过设计特征空间对齐,对前后时相的高层特征的相关性进行建模,拉近未变化区域像素在特征空间上的差异,使网络提取到未变化区域的高层特征趋于一致,以减弱伪变化问题对变化检测精度的影响;通过设计输出空间对齐,添加判别器,让变化检测结果和Ground truth进行对抗性学习,编码包括外观、形状和上下文在内的多种视觉线索,使预测的变化检测结果分布接近Ground truth的分布,提升变化预测图的质量。
Description
技术领域
本发明涉及高分辨率遥感影像处理领域,具体地涉及一种特征-输出空间双对齐的变化检测方法。
背景技术
建筑物作为基础地理数据库中的一种重要人工目标类型,其变化最为频繁,对土地覆被的影响最为剧烈,也最需要及时更新。显然,建筑物提取在很多应用领域具有广阔应用前景,但是采用人工调查进行基础 GIS 数据库的建筑物自动更新却费时费力,且人工提取建筑物的数据有限且采集质量参差不齐,难以满足实用化需求。
传统的变化检测方法可以将其分为两类,基于像元的方法和面向对象的方法。基于像元的方法是通过像元之间的代数运算实现的,如影像差值法和影像比值法等;面向对象的变化检测,它利用对象作为处理单元来提高最终结果的完整性和准确性。近年来,深度学习技术发展迅速,在语言识别、图像分类和语义分割等领域中取得了显著效果,一些学者开始对深度学习在遥感图像变化检测中的应用进行研究。这些方法虽然在遥感图像变化检测中的应用取得了初步成效,但对变化检测中的伪变化问题缺乏深入研究。
在建筑物变化检测中,伪变化是一个值得关注的问题。在两幅不同时相的影像中,未变化区域的特征理应差异较小。由于建筑物特征多样,遥感图像背景复杂,不同时相的影像成像条件存在较大的差异,导致了未变化区域的特征差异过大,因此网络将这些区域错误的识别成了变化区域,造成了伪变化问题。然而已有的方法,大都是通过增强网络对变化区域特征的提取能力来提升变化检测效果,如在网络中添加注意机制等参数结构等。这些方法不仅没有针对伪变化问题进行深入探索,而且添加的参数结构也使网络的训练变得更为复杂。
发明内容
本发明的目的在于为解决现有技术中存在的由于建筑物特征多样,遥感图像背景复杂,不同时相的影像成像条件存在较大的差异,导致了未变化区域的特征差异过大,因此网络将这些区域错误的识别成了变化区域,造成了伪变化问题;且已有的方法大都通过增强网络对变化区域特征的提取能力来提升变化检测效果,不仅没有针对伪变化问题进行深入探索,而且添加的参数结构也使网络的训练变得更为复杂等缺点,而提供一种特征-输出空间双对齐的变化检测方法。
为达到上述目的,本发明采用以下技术方案予以实现:
1)特征空间对齐,包括训练数据获取、特征提取器构建、双时相影像特征提取、真实标签下采样、变化区域擦除及特征空间对齐损失计算;
B、特征提取器构建,特征提取器是孪生网络结构,由两个并行的卷积模块构
成,两个卷积模块权重参数共享,卷积模块由5个下采样模块组成,单个下采样模块包括两
个卷积层和一个最大池化层,最后一个卷积模块中没有最大池化层;卷积核大小均为3×3,
步长为1,池化尺寸为2×2;5个下采样层中的卷积层的通道数分别为16、32、64、128、128;
3)输出空间对齐,包括判别器构建及对抗损失计算,学习来自输出空间的形状、布局及场景上下文信息,在训练中剔除变化检测预测结果中与ground truth输出表达不一致的区域;
A、判别器构建,将变化检测结果与真实的变化检测结果Ground truth输入判别
器D中,判别器D由5个卷积层和一个上采样模块组成,卷积核大小均为4×4,步长为2;五个
卷积层的通道数分别为64、128、256、512、1;除最后一层外,每个卷积层后面都有一个参数
为0.2的Leaky ReLU层,上采样层在卷积层后,以将输出重新缩放为输入的大小;
B、对抗损失计算,判别器利用该损失更新孪生网络参数,直至判别器无法判别
输入图像的来源,此时认定真实的变化检测结果与预测的变化检测结果在分布上进行了对
齐,从而消除未变化区域像素间的差异,以此减少伪变化,对抗损失可用公式表达:
当z=0时,说明样本为预测结果;当z=1时,说明样本为ground truth;
其中,是预测的变化检测结果与ground truth交叉熵损失,是在特征对齐
模块中所设计的损失,而是在输出空间对齐模块中所设计的的对抗性损失;和是用
来平衡两个损失的权重,取值范围为(0,1);通过训练,最小化损失函数,不断优化变化预
测图P。
本发明产生的有益效果为:本发明通过设计特征空间对齐,对前后时相的高层特征的相关性进行建模,拉近未变化区域像素在特征空间上的差异,使网络提取到未变化区域的高层特征趋于一致,以减弱伪变化问题对变化检测精度的影响;通过设计输出空间对齐,添加判别器,让变化检测结果和Ground truth进行对抗性学习,编码包括外观、形状和上下文在内的多种视觉线索,使预测的变化检测结果分布接近Ground truth 的分布,提升变化预测图的质量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为步骤1)中特征空间对齐的处理过程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
1)特征空间对齐,包括训练数据获取、特征提取器构建、双时相影像特征提取、真实标签下采样、变化区域擦除及特征空间对齐损失计算;
B、特征提取器构建,特征提取器是孪生网络结构,由两个并行的卷积模块构
成,两个卷积模块权重参数共享,卷积模块由5个下采样模块组成,单个下采样模块包括两
个卷积层和一个最大池化层,最后一个卷积模块中没有最大池化层;卷积核大小均为3×3,
步长为1,池化尺寸为2×2;5个下采样层中的卷积层的通道数分别为16、32、64、128、128;
3)输出空间对齐,包括判别器构建及对抗损失计算,学习来自输出空间的形状、布局及场景上下文信息,在训练中剔除变化检测预测结果中与ground truth输出表达不一致的区域;
A、判别器构建,将变化检测结果与真实的变化检测结果Ground truth输入判别
器D中,判别器D由5个卷积层和一个上采样模块组成,卷积核大小均为4×4,步长为2;五个
卷积层的通道数分别为64、128、256、512、1;除最后一层外,每个卷积层后面都有一个参数
为0.2的Leaky ReLU层,上采样层在卷积层后,以将输出重新缩放为输入的大小;
B、对抗损失计算,判别器利用该损失更新孪生网络参数,直至判别器无法判别
输入图像的来源,此时认定真实的变化检测结果与预测的变化检测结果在分布上进行了对
齐,从而消除未变化区域像素间的差异,以此减少伪变化,对抗损失可用公式表达:
当z=0时,说明样本为预测结果;当z=1时,说明样本为ground truth;
其中,是预测的变化检测结果与ground truth交叉熵损失,是在特征对齐
模块中所设计的损失,而是在输出空间对齐模块中所设计的的对抗性损失;和是用
来平衡两个损失的权重,取值范围为(0,1);通过训练,最小化损失函数,不断优化变化预
测图P。
表1显示了特征空间对齐模块中α超参数选择的结果及输出空间对齐模块中β超参数选择的结果:
α超参数选择了0.1,0.01和 0.001 三个数值调节的效果,可以看到,加入特征
空间对齐模块后,对比基线方法,选择不同的参数,结果有 3 个百分点左右的提升。当将α
固定为 0.001 时,模型取得最好结果,达到 88.18%,比baseline高3.74%。
同样,β超参数选择了0.1,0.01和0.001三个数值调节的效果,可以看到,加入
输出空间对齐模块后,对比基线方法,选择不同的参数,结果约提升1%-4%。当将β固定为0.1
时,模型取得最好结果,达到 88.08%,比 baseline高3.64%。
经过多次实验证明,当α固定为 0.1,β固定为 0.1时,模型取得最佳效果,达到
88.73%。对比基线方法,性能超出4.29%。这说明特征空间对齐模块和输出空间对齐模块对
变化检测效果提升的作用是十分显著的。结合二者进行变化检测,效果达到最佳。
表2显示了在 WHU 数据集上特征空间对齐模块中α超参数选择的结果及输出空间对齐模块中β超参数选择的结果:
α超参数选择0.1,0.01和0.001三个数值调节的效果,相较 baseline,选择不同
的α值,模型效果都有不同程度的提升。当α设置为0.01时,模型取得最好效果,达到
78.1%,相较baseline,提升2.6%。
β超参数选择0.1,0.01 和0.001三个数值调节的效果,可以看到,当将β固定为
0.1 时,模型取得最好结果,达到 78.80%,比baseline高3.3%。当α固定为 0.001,β固定
为 0.001 时,模型取得最佳效果,达到 82.75%,对比基线方法,性能提升了 7.25%。
特征空间对齐和输出空间对齐机制对网络的精度均有提升。当将这两个对齐机制组合起来,使网络综合性能有了不错的提升。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (1)
所述的变化检测方法的步骤为:
1)特征空间对齐,包括训练数据获取、特征提取器构建、双时相影像特征提取、真实标签下采样、变化区域擦除及特征空间对齐损失计算;
B、特征提取器构建,特征提取器是孪生网络结构,由两个并行的卷积模块构成,两
个卷积模块权重参数共享,卷积模块由5个下采样模块组成,单个下采样模块包括两个卷积
层和一个最大池化层,最后一个卷积模块中没有最大池化层;卷积核大小均为3×3,步长为
1,池化尺寸为2×2;5个下采样层中的卷积层的通道数分别为16、32、64、128、128;
3)输出空间对齐,包括判别器构建及对抗损失计算,学习来自输出空间的形状、布局及场景上下文信息,在训练中剔除变化检测预测结果中与ground truth输出表达不一致的区域;
A、判别器构建,将变化检测结果与真实的变化检测结果Ground truth输入判别器D
中,判别器D由5个卷积层和一个上采样模块组成,卷积核大小均为4×4,步长为2;五个卷积
层的通道数分别为64、128、256、512、1;除最后一层外,每个卷积层后面都有一个参数为0.2
的Leaky ReLU层,上采样层在卷积层后,以将输出重新缩放为输入的大小;
B、对抗损失计算,判别器利用该损失更新孪生网络参数,直至判别器无法判别输入
图像的来源,此时认定真实的变化检测结果与预测的变化检测结果在分布上进行了对齐,
从而消除未变化区域像素间的差异,以此减少伪变化,对抗损失可用公式表达
当z=0时,说明样本为预测结果;当z=1时,说明样本为ground truth;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110707356.9A CN113487546B (zh) | 2021-06-25 | 2021-06-25 | 一种特征-输出空间双对齐的变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110707356.9A CN113487546B (zh) | 2021-06-25 | 2021-06-25 | 一种特征-输出空间双对齐的变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487546A true CN113487546A (zh) | 2021-10-08 |
CN113487546B CN113487546B (zh) | 2024-04-02 |
Family
ID=77936215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110707356.9A Active CN113487546B (zh) | 2021-06-25 | 2021-06-25 | 一种特征-输出空间双对齐的变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487546B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419464A (zh) * | 2022-03-29 | 2022-04-29 | 南湖实验室 | 一种基于深度学习的孪生网络变化检测模型 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154495A (zh) * | 2017-11-17 | 2018-06-12 | 天津大学 | 基于dccae网络的多时相跨传感器遥感图像相对光谱对齐算法 |
CN108960261A (zh) * | 2018-07-25 | 2018-12-07 | 扬州万方电子技术有限责任公司 | 一种基于注意力机制的显著物体检测方法 |
US20200026953A1 (en) * | 2018-07-23 | 2020-01-23 | Wuhan University | Method and system of extraction of impervious surface of remote sensing image |
CN111986099A (zh) * | 2020-06-30 | 2020-11-24 | 武汉大学 | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 |
CN112668494A (zh) * | 2020-12-31 | 2021-04-16 | 西安电子科技大学 | 基于多尺度特征提取的小样本变化检测方法 |
-
2021
- 2021-06-25 CN CN202110707356.9A patent/CN113487546B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154495A (zh) * | 2017-11-17 | 2018-06-12 | 天津大学 | 基于dccae网络的多时相跨传感器遥感图像相对光谱对齐算法 |
US20200026953A1 (en) * | 2018-07-23 | 2020-01-23 | Wuhan University | Method and system of extraction of impervious surface of remote sensing image |
CN108960261A (zh) * | 2018-07-25 | 2018-12-07 | 扬州万方电子技术有限责任公司 | 一种基于注意力机制的显著物体检测方法 |
CN111986099A (zh) * | 2020-06-30 | 2020-11-24 | 武汉大学 | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 |
CN112668494A (zh) * | 2020-12-31 | 2021-04-16 | 西安电子科技大学 | 基于多尺度特征提取的小样本变化检测方法 |
Non-Patent Citations (1)
Title |
---|
陈璐;管霜霜;: "基于深度学习的城市高分遥感图像变化检测方法的研究", 计算机应用研究, no. 1, 30 June 2020 (2020-06-30) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419464A (zh) * | 2022-03-29 | 2022-04-29 | 南湖实验室 | 一种基于深度学习的孪生网络变化检测模型 |
CN114419464B (zh) * | 2022-03-29 | 2022-07-26 | 南湖实验室 | 一种基于深度学习的孪生网络变化检测模型的构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113487546B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111126202B (zh) | 基于空洞特征金字塔网络的光学遥感图像目标检测方法 | |
CN112001960B (zh) | 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
Abdollahi et al. | Improving road semantic segmentation using generative adversarial network | |
Zhang et al. | Deep hierarchical guidance and regularization learning for end-to-end depth estimation | |
Wang et al. | Land cover change detection at subpixel resolution with a Hopfield neural network | |
CN110287960A (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN111738091A (zh) | 一种基于多任务深度学习的姿态估计与人体解析系统 | |
CN113298815A (zh) | 一种半监督遥感图像语义分割方法、装置和计算机设备 | |
Liu et al. | Deep multi-level fusion network for multi-source image pixel-wise classification | |
CN113780149A (zh) | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 | |
CN109299303B (zh) | 基于可变形卷积与深度网络的手绘草图检索方法 | |
CN110263716B (zh) | 一种基于街景图像的遥感影像超分辨率土地覆被制图方法 | |
Li et al. | MSAt-GAN: a generative adversarial network based on multi-scale and deep attention mechanism for infrared and visible light image fusion | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
CN115937697A (zh) | 一种遥感影像变化检测方法 | |
CN113505670A (zh) | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 | |
CN115205672A (zh) | 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统 | |
Jiang et al. | Arbitrary-shaped building boundary-aware detection with pixel aggregation network | |
Zhang et al. | Dense haze removal based on dynamic collaborative inference learning for remote sensing images | |
Peng et al. | Incorporating generic and specific prior knowledge in a multiscale phase field model for road extraction from VHR images | |
CN114612709A (zh) | 图像金字塔特征指导的多尺度目标检测方法 | |
Hu et al. | Supervised multi-scale attention-guided ship detection in optical remote sensing images | |
CN113487546A (zh) | 一种特征-输出空间双对齐的变化检测方法 | |
Jiang et al. | Semantic segmentation network combined with edge detection for building extraction in remote sensing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |