CN116343043A - 一种具有多尺度特征融合功能的遥感影像变化检测方法 - Google Patents
一种具有多尺度特征融合功能的遥感影像变化检测方法 Download PDFInfo
- Publication number
- CN116343043A CN116343043A CN202310329531.4A CN202310329531A CN116343043A CN 116343043 A CN116343043 A CN 116343043A CN 202310329531 A CN202310329531 A CN 202310329531A CN 116343043 A CN116343043 A CN 116343043A
- Authority
- CN
- China
- Prior art keywords
- feature
- remote sensing
- fusion
- training
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008859 change Effects 0.000 title claims abstract description 61
- 230000004927 fusion Effects 0.000 title claims abstract description 52
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 46
- 230000007246 mechanism Effects 0.000 claims abstract description 22
- 238000012360 testing method Methods 0.000 claims abstract description 6
- 238000012795 verification Methods 0.000 claims abstract description 6
- 108091006146 Channels Proteins 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 19
- 230000002776 aggregation Effects 0.000 claims description 13
- 238000004220 aggregation Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 229910018503 SF6 Inorganic materials 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- SFZCNBIFKDRMGX-UHFFFAOYSA-N sulfur hexafluoride Chemical compound FS(F)(F)(F)(F)F SFZCNBIFKDRMGX-UHFFFAOYSA-N 0.000 claims description 3
- 229960000909 sulfur hexafluoride Drugs 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 7
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种具有多尺度特征融合功能的遥感影像变化检测方法,首先采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,接着对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;本发明实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果,适合被广泛推广和使用。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种具有多尺度特征融合功能的遥感影像变化检测方法。
背景技术
近年来,许多场景分割的神经网络模型已经应用于变化检测任务来提取更深层次的特征;研究工作集中在对深层特征的提取和细化,包括金字塔模型、深层监督和注意力机制等。
目前,连续下采样过程丢失了准确的空间位置信息,导致像素边缘检测不准确和细小目标的遗漏;现有SNUNet-CD和DCFF-Net等新的稠密连接孪生网络来保留高分辨率和细粒度的特征表示,并取得了更好的实验效果,但纯卷积的变化检测模型依旧很难将长距离的概念在时空上联系起来;因此,需要设计一种具有多尺度特征融合功能的遥感影像变化检测方法。
发明内容
本发明的目的是克服现有技术的不足,为更好的解决连续下采样过程丢失了准确的空间位置信息,导致像素边缘检测不准确和细小目标遗漏的问题,提供了一种具有多尺度特征融合功能的遥感影像变化检测方法,其实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度。
为了达到上述目的,本发明所采用的技术方案是:
一种具有多尺度特征融合功能的遥感影像变化检测方法,包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充;
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;
步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息;
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和SwinTransformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>与/>在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈RB ×3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
A=Up(x2,0) (1)
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示SwinTransformer Block;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征与/>在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
前述的一种具有多尺度特征融合功能的遥感影像变化检测方法,步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用GroundTruth计算损失;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
其中,y为真实变化图,为预测变化图,α和γ均为常数;Ltotal为总的损失函数,且总的损失函数Ltotal包含两项,第一项是Lbce,Lbce为二分类交叉熵损失,第二项是Lsa-dice,Lsa-dice为自调整骰子损失。
本发明的有益效果是:本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,首先为了更好的将深度原始图像特征与图像差异特征进行特征融合,交替使用CBAM注意力机制和SwinTransformer模型,并利用卷积提取局部特征的优势,再利用SwinTransformer模型提取全局信息能克服卷积计算的固有局限,有效的实现了该方法具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果。
附图说明
图1是本发明的整体检测网络图;
图2是本发明的实施例中第一时相遥感影像示意图;
图3是本发明的实施例中第二时相遥感影像示意图;
图4是本发明的实施例中遥感影像变化检测结果示意图;
图5是本发明的实施例中实际变化区域地面真值示意图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
其中,预训练网络采用VGG16模型的权重由ImageNet方法训练而得,而预训练网络和差分网络提取特征的过程为双时态图像IT1和IT2分别调用训练好的vgg16,获得前四个卷积块的输出尺寸大小(C,H,W)分别为[64,256,256]、[128,128,128]、[256,64,64]和[512,32,32];
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>与/>在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈RB ×3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
其中,上采样采用的是双线性插值法。因为不同深度的特征图经过的注意力机制是不同的,如最深层卷积块(第五层)得到的特征在不断上采样特征融合经过的是:SF(利用Swin Transformer block进行融合)、CF(使用的是CBAM通道注意力机制)、SF、CF;再上一层卷积块(第四层)上采样特征融合经过的是:SF、CF、SF;第二层卷积块则是经过上采样特征融合使用的是:SF;这是交替使用SF和CF两个模块的过程。
A=Up(x2,0) (1)
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示SwinTransformer Block;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征与/>在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
步骤(C),基于融合辅助训练结果构建先前知识复用通道注意模块,并用于融合局部和全局信息,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
其中,加入深度监督的目的是加快整体训练的收敛速度;
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用GroundTruth计算损失;
其中,4个经过上采样的拥有完整分辨率的输出信息代表不同语义级别的输出,对最终的输出结果有不同的重要性;因此,通过一个先前知识复用通道注意模块能更有效地纳入以前的知识聚合,并更好的进行特征复用;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
其中,y为真实变化图,为预测变化图,α和γ均为常数;Ltotal为总的损失函数,且总的损失函数Ltotal包含两项,第一项是Lbce,Lbce为二分类交叉熵损失,第二项是Lsa-dice,Lsa-dice为自调整骰子损失γ为常数;γ用于避免在y=0和/>时,分母不为0;可以将α设为0.01,将γ设为0.0001;Lbce用于做二分类的损失函数;Lsa-dice用于降低大量负样本的训练偏向影响。
针对在变化检测任务中,样本类的分布存在严重的不平衡问题,本发明采用对两个不同的损失函数进行加权和来解决这个问题,同时为了更有效地训练UNet++网络的浅权重,采用了深度监督方法。
为了更好的阐述本发明的使用效果,下面介绍本发明的一个具体实施例;
如图2、图3和图4所示,能够显示出高光谱变化检测的效果,其中图2和图3为同一区域的两个不同时间点的高光谱图像,图4为使用本发明方法的变化检测结果,图5是实际变化地面变化的真值图;从检测结果和实际的地面变化的真值图中可以看出,本发明所提方法可以有效的识别变化区域。
综上所述,本发明的一种具有多尺度特征融合功能的遥感影像变化检测方法,有效的实现了具有利用Swin Transformer块和CBAM注意力机制捕获全局信息的功能,且能更有效的识别同一区域不同时刻遥感影像中的变化区域,提高了变化检测的精确度,也实现了利用卷积神经网络来提取局部信息,并利用Swin Transformer block来捕获远程依赖,保障了低层和高层特征的融合效果。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (5)
1.一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:包括以下步骤,
步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充;
步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果;
步骤(C),基于融合辅助训练结果构建用于融合局部和全局信息的先前知识复用通道注意模块;
步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业。
2.根据权利要求1所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(A),采集用于遥感图像变化检测的数据集,并将数据集分为训练集、验证集和测试集,再对数据集内部的数据进行增强扩充,其中数据增强扩张包括旋转90°、旋转180°、旋转270°、水平翻转和垂直翻转。
3.根据权利要求2所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(B),对数据集中的训练集采用预训练网络和差分网络提取特征,再通过CBAM注意力机制和Swin Transformer模型进行融合辅助训练,得到融合辅助训练结果,其中所述预训练网络采用的是VGG16模型,而所述差分网络采用的是UNet++模型,具体步骤如下,
步骤(B1),设Xi,j表示卷积单元,xi,j表示节点Xi,j的输出,SFi,0和SFi,2为采用SwinTransformer block进行多尺度特征融合的模块,所述SFi,0中的i=1、2、3和4,所述SFi,2中的i=1和2,CFi,1和CF1,3为采用CBAM注意力机制进行多尺度特征融合的模块,所述CFi,1中的i=1、2和3;
步骤(B2),设对x2,0进行上采样并得到和x1,0∈RB×C×H×W相同尺度的特征A,而预训练网络输出的原始图像特征/>与/>在通道维度合并得到特征B∈RB×2C×H×W,接着将特征B与特征A在通道维度合并得到特征C∈RB×3C×H×W,再将特征C输入到Swin Transformer Block中得到融合全局信息的特征SF2,0,具体融合步骤如公式(1)、公式(2)和公式(3)所示,
A=Up(x2,0) (1)
SF2,0=SwinT([A,B]) (3)
其中,Up()表示上采样,[,]表示在通道维度拼接,SwinT()表示Swin TransformerBlock;
步骤(B3),将SF2,0与x1,0在通道维度拼接得到特征D,并输入到X1,1表示的卷积单元中得到x1,1,再将差分网络输出的原始图像特征与/>在通道维度合并得到特征E∈RB×C×2H×2W,接着特征E和x1,1在通道维度拼接后经过两个卷积进行降维得到特征F,再将特征F输入到CBAM注意力机制,具体融合过程如公式(4)、公式(5)、公式(6)、公式(7)和公式(8)所示,
D=[SF2,0,x1,0] (4)
x1,1=X(SF2,0,x1,0) (5)
F=C([x1,1,E]) (6)
4.根据权利要求3所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(C),基于融合辅助训练结果构建用于融合局部和全局信息的先前知识复用通道注意模块,所述先前知识复用通道注意模块包括两条并行的注意力路径,其中一条路径为局部路径,另一条路径为全局路径,具体步骤如下,
步骤(C11),局部路径,由局部夸通道交互模块构成,并用于获取局部信息;
步骤(C12),全局路径,由两个堆叠模块组成,其中一个是先前知识聚合模块,另一个是全局夸通道交互模块,所述先前知识聚合模块用于不同聚合特征映射之间的信道交互,所述全局夸通道交互模块用于利用先前知识聚合模块生成的细化特征对信道关系进行建模。
5.根据权利要求4所述的一种具有多尺度特征融合功能的遥感影像变化检测方法,其特征在于:步骤(D),通过融合局部和全局两条并行的注意力路径,并重新校准当前的特征图,生成最终的变化图,完成对遥感影像变化的检测作业,具体步骤如下,
步骤(D1),由于节点{x0,1,x0,2,x0,3,x0,4}为UNet++语义分割模型中不同深度图像分割的结果,这样在每个节点后增加一个1×1大小的卷积层能获得预测,再用Ground Truth计算损失;
步骤(D2),使用CBAM注意力机制融合特征,其中将拼接后的特征送入大小为1×1的卷积层并得到预测变化图,且共有五个子损失,而采用λ来平衡损失的权重,具体的总损失函数如公式(9)、公式(10)和公式(11)所示,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310329531.4A CN116343043B (zh) | 2023-03-30 | 2023-03-30 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310329531.4A CN116343043B (zh) | 2023-03-30 | 2023-03-30 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116343043A true CN116343043A (zh) | 2023-06-27 |
CN116343043B CN116343043B (zh) | 2023-11-21 |
Family
ID=86885471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310329531.4A Active CN116343043B (zh) | 2023-03-30 | 2023-03-30 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116343043B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173579A (zh) * | 2023-11-02 | 2023-12-05 | 山东科技大学 | 一种基于固有特征与多级特征融合的图像变化检测方法 |
CN117911879A (zh) * | 2024-03-20 | 2024-04-19 | 湘潭大学 | 一种融合sam的细粒度高分遥感影像变化检测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850824A (zh) * | 2021-09-27 | 2021-12-28 | 太原理工大学 | 一种基于多尺度特征融合的遥感图像路网提取方法 |
CN114511703A (zh) * | 2022-01-21 | 2022-05-17 | 苏州医智影科技有限公司 | 面向分割任务的融合Swin Transformer与UNet的迁移学习方法和系统 |
CN114881916A (zh) * | 2022-03-02 | 2022-08-09 | 中国人民解放军战略支援部队信息工程大学 | 一种遥感影像变化检测方法 |
US20220309772A1 (en) * | 2021-03-25 | 2022-09-29 | Satellite Application Center for Ecology and Environment, MEE | Human activity recognition fusion method and system for ecological conservation redline |
CN115376019A (zh) * | 2022-09-05 | 2022-11-22 | 南京信息工程大学 | 一种异源遥感影像对象级变化检测方法 |
WO2023019875A1 (zh) * | 2021-08-16 | 2023-02-23 | 平安科技(深圳)有限公司 | 车辆损失检测方法、装置、电子设备及存储介质 |
CN115713529A (zh) * | 2022-11-30 | 2023-02-24 | 河南大学 | 基于高效注意力的轻量级光学遥感图像变化检测方法 |
CN115797931A (zh) * | 2023-02-13 | 2023-03-14 | 山东锋士信息技术有限公司 | 一种基于双分支特征融合的遥感图像语义分割方法 |
CN115830041A (zh) * | 2022-12-01 | 2023-03-21 | 湖南中医药大学 | 一种基于交叉融合卷积与可变形注意力Transformer的3D医学图像分割方法 |
-
2023
- 2023-03-30 CN CN202310329531.4A patent/CN116343043B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220309772A1 (en) * | 2021-03-25 | 2022-09-29 | Satellite Application Center for Ecology and Environment, MEE | Human activity recognition fusion method and system for ecological conservation redline |
WO2023019875A1 (zh) * | 2021-08-16 | 2023-02-23 | 平安科技(深圳)有限公司 | 车辆损失检测方法、装置、电子设备及存储介质 |
CN113850824A (zh) * | 2021-09-27 | 2021-12-28 | 太原理工大学 | 一种基于多尺度特征融合的遥感图像路网提取方法 |
CN114511703A (zh) * | 2022-01-21 | 2022-05-17 | 苏州医智影科技有限公司 | 面向分割任务的融合Swin Transformer与UNet的迁移学习方法和系统 |
CN114881916A (zh) * | 2022-03-02 | 2022-08-09 | 中国人民解放军战略支援部队信息工程大学 | 一种遥感影像变化检测方法 |
CN115376019A (zh) * | 2022-09-05 | 2022-11-22 | 南京信息工程大学 | 一种异源遥感影像对象级变化检测方法 |
CN115713529A (zh) * | 2022-11-30 | 2023-02-24 | 河南大学 | 基于高效注意力的轻量级光学遥感图像变化检测方法 |
CN115830041A (zh) * | 2022-12-01 | 2023-03-21 | 湖南中医药大学 | 一种基于交叉融合卷积与可变形注意力Transformer的3D医学图像分割方法 |
CN115797931A (zh) * | 2023-02-13 | 2023-03-14 | 山东锋士信息技术有限公司 | 一种基于双分支特征融合的遥感图像语义分割方法 |
Non-Patent Citations (1)
Title |
---|
FEI PAN;ZEBIN WU: "DCFF-Net: A Densely Connected Feature Fusion Network for Change Detection in High-Resolution Remote Sensing Images", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, vol. 14, pages 11974, XP011892061, DOI: 10.1109/JSTARS.2021.3129318 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173579A (zh) * | 2023-11-02 | 2023-12-05 | 山东科技大学 | 一种基于固有特征与多级特征融合的图像变化检测方法 |
CN117173579B (zh) * | 2023-11-02 | 2024-01-26 | 山东科技大学 | 一种基于固有特征与多级特征融合的图像变化检测方法 |
CN117911879A (zh) * | 2024-03-20 | 2024-04-19 | 湘潭大学 | 一种融合sam的细粒度高分遥感影像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116343043B (zh) | 2023-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116343043B (zh) | 一种具有多尺度特征融合功能的遥感影像变化检测方法 | |
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN112396607B (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN113033570B (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN112016489B (zh) | 一种保留全局信息并增强局部特征的行人再识别方法 | |
CN113255589B (zh) | 一种基于多卷积融合网络的目标检测方法及系统 | |
CN113688836A (zh) | 一种基于深度学习的实时性道路图像语义分割方法及系统 | |
CN112101117A (zh) | 一种高速公路拥堵识别模型构建方法和装置及识别方法 | |
CN110781850A (zh) | 道路识别的语义分割系统和方法、计算机存储介质 | |
CN113436210B (zh) | 一种融合上下文逐级采样的道路图像分割方法 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN111797841A (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN113343822B (zh) | 一种基于3d卷积的光场显著性目标检测方法 | |
CN115331183A (zh) | 改进YOLOv5s的红外目标检测方法 | |
CN112949636A (zh) | 一种车牌超分辨率识别方法、系统及计算机可读介质 | |
Song et al. | PSTNet: Progressive sampling transformer network for remote sensing image change detection | |
Shi et al. | CloudU-Netv2: A cloud segmentation method for ground-based cloud images based on deep learning | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN113361528B (zh) | 一种多尺度目标检测方法及系统 | |
Zhang et al. | Satellite image super-resolution based on progressive residual deep neural network | |
Tao et al. | F-pvnet: Frustum-level 3-d object detection on point–voxel feature representation for autonomous driving | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
Zhu et al. | MDAFormer: Multi-level difference aggregation transformer for change detection of VHR optical imagery | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |