CN116343043A - 一种具有多尺度特征融合功能的遥感影像变化检测方法 - Google Patents

一种具有多尺度特征融合功能的遥感影像变化检测方法 Download PDF

Info

Publication number
CN116343043A
CN116343043A CN202310329531.4A CN202310329531A CN116343043A CN 116343043 A CN116343043 A CN 116343043A CN 202310329531 A CN202310329531 A CN 202310329531A CN 116343043 A CN116343043 A CN 116343043A
Authority
CN
China
Prior art keywords
feature
remote sensing
fusion
training
sensing image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310329531.4A
Other languages
English (en)
Other versions
CN116343043B (zh
Inventor
詹天明
袁梦雪
徐超
徐洋
吴泽彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NANJING AUDIT UNIVERSITY
Original Assignee
NANJING AUDIT UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NANJING AUDIT UNIVERSITY filed Critical NANJING AUDIT UNIVERSITY
Priority to CN202310329531.4A priority Critical patent/CN116343043B/zh
Publication of CN116343043A publication Critical patent/CN116343043A/zh
Application granted granted Critical
Publication of CN116343043B publication Critical patent/CN116343043B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种具有多尺度特征融合功能的遥感影像变化检测方法,首先采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,接着对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;本发明实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果,适合被广泛推广和使用。

Description

一种具有多尺度特征融合功能的遥感影像变化检测方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种具有多尺度特征融合功能的遥感影像变化检测方法。
背景技术
近年来,许多场景分割的神经网络模型已经应用于变化检测任务来提取更深层次的特征;研究工作集中在对深层特征的提取和细化,包括金字塔模型、深层监督和注意力机制等。
目前,连续下采样过程丢失了准确的空间位置信息,导致像素边缘检测不准确和细小目标的遗漏;现有SNUNet-CD和DCFF-Net等新的稠密连接孪生网络来保留高分辨率和细粒度的特征表示,并取得了更好的实验效果,但纯卷积的变化检测模型依旧很难将长距离的概念在时空上联系起来;因此,需要设计一种具有多尺度特征融合功能的遥感影像变化检测方法。
发明内容
本发明的目的是克服现有技术的不足,为更好的解决连续下采样过程丢失了准确的空间位置信息,导致像素边缘检测不准确和细小目标遗漏的问题,提供了一种具有多尺度特征融合功能的遥感影像变化检测方法,其实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度。
为了达到上述目的,本发明所采用的技术方案是:
一种具有多尺度特征融合功能的遥感影像变化检测方法,包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充;
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;
步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息;
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和SwinTransformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设
Figure BDA0004154443030000031
对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>
Figure BDA0004154443030000032
与/>
Figure BDA0004154443030000033
在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈RB ×3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
A=Up(x2,0) (1)
Figure BDA0004154443030000034
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示SwinTransformer Block;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征
Figure BDA0004154443030000035
与/>
Figure BDA0004154443030000036
在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
Figure BDA0004154443030000037
Figure BDA0004154443030000038
其中,[,]表示在通道维度进行拼接,X代表卷积单元,C代表两个卷积进行降维,
Figure BDA0004154443030000041
代表元素相乘。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用GroundTruth计算损失;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
Figure BDA0004154443030000051
Figure BDA0004154443030000052
Figure BDA0004154443030000053
其中,y为真实变化图,
Figure BDA0004154443030000054
为预测变化图,α和γ均为常数;Ltotal为总的损失函数,且总的损失函数Ltotal包含两项,第一项是Lbce,Lbce为二分类交叉熵损失,第二项是Lsa-dice,Lsa-dice为自调整骰子损失。
本发明的有益效果是:本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,首先为了更好的将深度原始图像特征与图像差异特征进行特征融合,交替使用CBAM注意力机制和SwinTransformer模型,并利用卷积提取局部特征的优势,再利用SwinTransformer模型提取全局信息能克服卷积计算的固有局限,有效的实现了该方法具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果。
附图说明
图1是本发明的整体检测网络图;
图2是本发明的实施例中第一时相遥感影像示意图;
图3是本发明的实施例中第二时相遥感影像示意图;
图4是本发明的实施例中遥感影像变化检测结果示意图;
图5是本发明的实施例中实际变化区域地面真值示意图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
其中,预训练网络采用VGG16模型的权重由ImageNet方法训练而得,而预训练网络和差分网络提取特征的过程为双时态图像IT1和IT2分别调用训练好的vgg16,获得前四个卷积块的输出尺寸大小(C,H,W)分别为[64,256,256]、[128,128,128]、[256,64,64]和[512,32,32];
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设
Figure BDA0004154443030000061
对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>
Figure BDA0004154443030000062
与/>
Figure BDA0004154443030000071
在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈RB ×3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
其中,上采样采用的是双线性插值法。因为不同深度的特征图经过的注意力机制是不同的,如最深层卷积块(第五层)得到的特征在不断上采样特征融合经过的是:SF(利用Swin Transformer block进行融合)、CF(使用的是CBAM通道注意力机制)、SF、CF;再上一层卷积块(第四层)上采样特征融合经过的是:SF、CF、SF;第二层卷积块则是经过上采样特征融合使用的是:SF;这是交替使用SF和CF两个模块的过程。
A=Up(x2,0) (1)
Figure BDA0004154443030000072
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示SwinTransformer Block;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征
Figure BDA0004154443030000073
与/>
Figure BDA0004154443030000074
在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
Figure BDA0004154443030000081
Figure BDA0004154443030000082
其中,[,]表示在通道维度进行拼接,X代表卷积单元,C代表两个卷积进行降维,
Figure BDA0004154443030000083
代表元素相乘。
步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
其中,加入深度监督的目的是加快整体训练的收敛速度;
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用GroundTruth计算损失;
其中,4个经过上采样的拥有完整分辨率的输出信息代表不同语义级别的输出,对最终的输出结果有不同的重要性;因此,通过一个先前知识复用通道注意模块能更有效地纳入以前的知识聚合,并更好的进行特征复用;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
Figure BDA0004154443030000091
Figure BDA0004154443030000092
Figure BDA0004154443030000093
其中,y为真实变化图,
Figure BDA0004154443030000094
为预测变化图,α和γ均为常数;Ltotal为总的损失函数,且总的损失函数Ltotal包含两项,第一项是Lbce,Lbce为二分类交叉熵损失,第二项是Lsa-dice,Lsa-dice为自调整骰子损失γ为常数;γ用于避免在y=0和/>
Figure BDA0004154443030000095
时,分母不为0;可以将α设为0.01,将γ设为0.0001;Lbce用于做二分类的损失函数;Lsa-dice用于降低大量负样本的训练偏向影响。
针对在变化检测任务中,样本类的分布存在严重的不平衡问题,本发明采用对两个不同的损失函数进行加权和来解决这个问题,同时为了更有效地训练UNet++网络的浅权重,采用了深度监督方法。
为了更好的阐述本发明的使用效果,下面介绍本发明的一个具体实施例;
如图2、图3和图4所示,能够显示出高光谱变化检测的效果,其中图2和图3为同一区域的两个不同时间点的高光谱图像,图4为使用本发明方法的变化检测结果,图5是实际变化地面变化的真值图;从检测结果和实际的地面变化的真值图中可以看出,本发明所提方法可以有效的识别变化区域。
综上所述,本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,有效的实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (5)

1.一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充;
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;
步骤(C),基于融合辅助训练结果构建用于融合局部和全局信息的先前知识复用通道注意模块;
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业。
2.根据权利要求1所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
3.根据权利要求2所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设
Figure FDA0004154443020000021
对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>
Figure FDA0004154443020000022
与/>
Figure FDA0004154443020000023
在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈R3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
A=Up(x2,0) (1)
Figure FDA0004154443020000024
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示Swin TransformerBlock;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征
Figure FDA0004154443020000025
与/>
Figure FDA0004154443020000026
在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
Figure FDA0004154443020000031
Figure FDA0004154443020000032
其中,[,]表示在通道维度进行拼接,X代表卷积单元,C代表两个卷积进行降维,
Figure FDA0004154443020000033
代表元素相乘。
4.根据权利要求3所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(C),基于融合辅助训练结果构建用于融合局部和全局信息的先前知识复用通道注意模块,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
5.根据权利要求4所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用Ground Truth计算损失;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
Figure FDA0004154443020000041
Figure FDA0004154443020000042
Figure FDA0004154443020000043
其中,y为真实变化图,
Figure FDA0004154443020000044
为预测变化图,α和γ均为常数;Ltotal为总的损失函数,且总的损失函数Ltotal包含两项,第一项是Lbce,Lbce为二分类交叉熵损失,第二项是Lsa-dice,Lsa-dice为自调整骰子损失。
CN202310329531.4A 2023-03-30 2023-03-30 一种具有多尺度特征融合功能的遥感影像变化检测方法 Active CN116343043B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310329531.4A CN116343043B (zh) 2023-03-30 2023-03-30 一种具有多尺度特征融合功能的遥感影像变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310329531.4A CN116343043B (zh) 2023-03-30 2023-03-30 一种具有多尺度特征融合功能的遥感影像变化检测方法

Publications (2)

Publication Number Publication Date
CN116343043A true CN116343043A (zh) 2023-06-27
CN116343043B CN116343043B (zh) 2023-11-21

Family

ID=86885471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310329531.4A Active CN116343043B (zh) 2023-03-30 2023-03-30 一种具有多尺度特征融合功能的遥感影像变化检测方法

Country Status (1)

Country Link
CN (1) CN116343043B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173579A (zh) * 2023-11-02 2023-12-05 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117911879A (zh) * 2024-03-20 2024-04-19 湘潭大学 一种融合sam的细粒度高分遥感影像变化检测方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850824A (zh) * 2021-09-27 2021-12-28 太原理工大学 一种基于多尺度特征融合的遥感图像路网提取方法
CN114511703A (zh) * 2022-01-21 2022-05-17 苏州医智影科技有限公司 面向分割任务的融合Swin Transformer与UNet的迁移学习方法和系统
CN114881916A (zh) * 2022-03-02 2022-08-09 中国人民解放军战略支援部队信息工程大学 一种遥感影像变化检测方法
US20220309772A1 (en) * 2021-03-25 2022-09-29 Satellite Application Center for Ecology and Environment, MEE Human activity recognition fusion method and system for ecological conservation redline
CN115376019A (zh) * 2022-09-05 2022-11-22 南京信息工程大学 一种异源遥感影像对象级变化检测方法
WO2023019875A1 (zh) * 2021-08-16 2023-02-23 平安科技(深圳)有限公司 车辆损失检测方法、装置、电子设备及存储介质
CN115713529A (zh) * 2022-11-30 2023-02-24 河南大学 基于高效注意力的轻量级光学遥感图像变化检测方法
CN115797931A (zh) * 2023-02-13 2023-03-14 山东锋士信息技术有限公司 一种基于双分支特征融合的遥感图像语义分割方法
CN115830041A (zh) * 2022-12-01 2023-03-21 湖南中医药大学 一种基于交叉融合卷积与可变形注意力Transformer的3D医学图像分割方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220309772A1 (en) * 2021-03-25 2022-09-29 Satellite Application Center for Ecology and Environment, MEE Human activity recognition fusion method and system for ecological conservation redline
WO2023019875A1 (zh) * 2021-08-16 2023-02-23 平安科技(深圳)有限公司 车辆损失检测方法、装置、电子设备及存储介质
CN113850824A (zh) * 2021-09-27 2021-12-28 太原理工大学 一种基于多尺度特征融合的遥感图像路网提取方法
CN114511703A (zh) * 2022-01-21 2022-05-17 苏州医智影科技有限公司 面向分割任务的融合Swin Transformer与UNet的迁移学习方法和系统
CN114881916A (zh) * 2022-03-02 2022-08-09 中国人民解放军战略支援部队信息工程大学 一种遥感影像变化检测方法
CN115376019A (zh) * 2022-09-05 2022-11-22 南京信息工程大学 一种异源遥感影像对象级变化检测方法
CN115713529A (zh) * 2022-11-30 2023-02-24 河南大学 基于高效注意力的轻量级光学遥感图像变化检测方法
CN115830041A (zh) * 2022-12-01 2023-03-21 湖南中医药大学 一种基于交叉融合卷积与可变形注意力Transformer的3D医学图像分割方法
CN115797931A (zh) * 2023-02-13 2023-03-14 山东锋士信息技术有限公司 一种基于双分支特征融合的遥感图像语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FEI PAN;ZEBIN WU: "DCFF-Net: A Densely Connected Feature Fusion Network for Change Detection in High-Resolution Remote Sensing Images", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, vol. 14, pages 11974, XP011892061, DOI: 10.1109/JSTARS.2021.3129318 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173579A (zh) * 2023-11-02 2023-12-05 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117173579B (zh) * 2023-11-02 2024-01-26 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117911879A (zh) * 2024-03-20 2024-04-19 湘潭大学 一种融合sam的细粒度高分遥感影像变化检测方法

Also Published As

Publication number Publication date
CN116343043B (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
CN116343043B (zh) 一种具有多尺度特征融合功能的遥感影像变化检测方法
CN110287849B (zh) 一种适用于树莓派的轻量化深度网络图像目标检测方法
CN112396607B (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN113033570B (zh) 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN112016489B (zh) 一种保留全局信息并增强局部特征的行人再识别方法
CN113255589B (zh) 一种基于多卷积融合网络的目标检测方法及系统
CN113688836A (zh) 一种基于深度学习的实时性道路图像语义分割方法及系统
CN112101117A (zh) 一种高速公路拥堵识别模型构建方法和装置及识别方法
CN110781850A (zh) 道路识别的语义分割系统和方法、计算机存储介质
CN113436210B (zh) 一种融合上下文逐级采样的道路图像分割方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN111797841A (zh) 一种基于深度残差网络的视觉显著性检测方法
CN113343822B (zh) 一种基于3d卷积的光场显著性目标检测方法
CN115331183A (zh) 改进YOLOv5s的红外目标检测方法
CN112949636A (zh) 一种车牌超分辨率识别方法、系统及计算机可读介质
Song et al. PSTNet: Progressive sampling transformer network for remote sensing image change detection
Shi et al. CloudU-Netv2: A cloud segmentation method for ground-based cloud images based on deep learning
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN113361528B (zh) 一种多尺度目标检测方法及系统
Zhang et al. Satellite image super-resolution based on progressive residual deep neural network
Tao et al. F-pvnet: Frustum-level 3-d object detection on point–voxel feature representation for autonomous driving
CN112818777B (zh) 一种基于密集连接与特征增强的遥感图像目标检测方法
Zhu et al. MDAFormer: Multi-level difference aggregation transformer for change detection of VHR optical imagery
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant