CN116778294A - 一种联合图像内和图像间上下文的遥感变化检测方法 - Google Patents
一种联合图像内和图像间上下文的遥感变化检测方法 Download PDFInfo
- Publication number
- CN116778294A CN116778294A CN202310396261.9A CN202310396261A CN116778294A CN 116778294 A CN116778294 A CN 116778294A CN 202310396261 A CN202310396261 A CN 202310396261A CN 116778294 A CN116778294 A CN 116778294A
- Authority
- CN
- China
- Prior art keywords
- double
- image
- features
- phase
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 230000008859 change Effects 0.000 title claims abstract description 35
- 230000006870 function Effects 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 45
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 24
- 230000002776 aggregation Effects 0.000 claims description 13
- 238000004220 aggregation Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000003064 k means clustering Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 230000003595 spectral effect Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 230000005611 electricity Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000001172 regenerating effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000007634 remodeling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000801118 Lepidium Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种联合图像内和图像间上下文的遥感变化检测方法,首先将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理并输出多个双时相特征;随后将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征;本发明实现了具有对遥感图像的变化进行更加精准的检测功能,其中时间注意力模块建模双时相特征之间的时间依赖关系,能更好地定位变化物体,且上下文记忆模块和上下文提取模块能合作提取分层上下文信息,以解决伪变化问题,而多尺度融合模块将每个尺度的分层上下文聚合并检测不同尺度的变化物体,适合被广泛推广和使用。
Description
技术领域
本发明涉及图像变换检测技术领域,具体涉及一种联合图像内和图像间上下文的遥感变化检测方法。
背景技术
遥感变化检测任务通过对比在不同时间拍摄的同一个区域的两张图像,定位变化的物体。检测结果图能够为多个应用提供帮助,例如灾害评估、城市规划、以及地理灾害监测。
目前,传统的变化检测方法主要基于手工特征,而这种特征无法编码物体多样的外观变化,无法完成对复杂场景的变化检测;随着深度学习方法被广泛应用于遥感领域,其中最常用的卷积神经网络能够提取遥感图像中物体的代表性特征,但是这些方法一视同仁地对待上下文中变化和非变化的信息,且不加区分,严重限制了变化检测的性能;当图像拍摄时遇到季节变化、噪声等问题时,双时相图像中的同类物体可能会呈现出完全不同的外观,例如由于植被被雪覆盖或者掉落叶片,它的外观在春季和冬季会完全不同,这样图像内上下文无法从特定类别的物体中抽象出精确的语义信息,导致伪变化结果的产生;因此,需要设计一种联合图像内和图像间上下文的遥感变化检测方法。
发明内容
本发明的目的是克服现有技术的不足,为更好的解决伪变化结果产生的问题,提供了一种联合图像内和图像间上下文的遥感变化检测方法,其具有对遥感图像的变化进行更加精准的检测功能。
为了达到上述目的,本发明所采用的技术方案是:
一种联合图像内和图像间上下文的遥感变化检测方法,包括以下步骤,
步骤(A),将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理,并输出多个双时相特征;
步骤(B),将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征,接着串联两个时间点的初步时间特征,得到最终时间特征;
步骤(C),将最终时间特征输入至上下文提取模块,并获得图像内长距离空间-通道上下文信息;
步骤(D),将所有训练图像输入至上下文记忆模块,并获得图像间上下文信息;
步骤(E),将图像内长距离空间-通道上下文信息和图像间上下文信息进行加权融合,并获得编码特征;
步骤(F),将编码特征输入至多尺度融合模块,并得到解码特征,再生成检测结果图,完成遥感变化的检测作业。
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(A),将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理,并输出多个双时相特征,其中设输入的双时相图像分别为和/>且H和W分别表示输入图像的高和宽,所述对称骨干网络ResNet18用于逐尺度地提取双时相特征,且所述对称骨干网络ResNet18的数目为两个,该对称骨干网络ResNet18由五个连续的块Conv1、Conv2、Conv3、Conv4和Conv5构成,对称骨干网络ResNet18的具体处理步骤如下,
步骤(A1),所述Conv1包含一个7×7卷积层和一个3×3最大池化层,且卷积层和池化层的步长都为2,所述Conv1用于将Xt1和Xt2的空间尺寸缩小为原先的四分之一并生成两个双时相特征/>和/>
步骤(A2),所述Conv2、Conv3、Conv4和Conv5均采用一个3×3卷积层、一个批量归一化层和ReLU激活函数组成,且所述Conv3、Conv4和Conv5的卷积层步长为2,而所述Conv2的卷积层步长为1,所述Conv2用于保持输入的双时相特征的空间尺寸不变,并输出两个双时相特征/>
步骤(A3),所述Conv3、Conv4和Conv5均用于将输入的特征空间尺寸减小至一半,并依次输出双时相特征和/>且所述Conv3、Conv4和Conv5生成的双时相特征通道数分别为128、256和512。
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(B),将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征,接着串联两个时间点的初步时间特征,得到最终时间特征,其中所述时间注意力模块ConvLSTM由输入门it、遗忘门ft、输出门ot和候选单元Ct构成,且所述输入门it、遗忘门ft、输出门ot和候选单元Ct均含有一个核数为Cs的1×1卷积层,Cs为第s个尺度下双时相特征的通道数,具体步骤如下,
步骤(B1),设其中s=1、2、3、4和5,且时间依赖关系通过将双时相特征依次输入到对应的时间注意力模块获得,如公式(1)所示,
其中,*为卷积操作,为哈达玛积,/>和/>为偏置;权重矩阵表示的含义由其下标得知,如/>为输入特征和遗忘门之间的权重;
步骤(B2),将时间依赖关系Hs编码进双时相特征具体步骤如下
步骤(B21),将Hs、和/>输入一个3×3卷积层、一个批量归一化层和ReLU组成的非线性操作进行转换,获得转换结果;
步骤(B22),对转换结果使用矩阵乘法softmax函数,并得到系数矩阵其中对于每一个时刻,将系数矩阵与转换后的双时相特征相乘,并获得乘积,再将乘积与转换后的双时相特征相加,得到初步时间特征,采用时间依赖关系Hs和双时相特征/>生成初步时间特征/>的过程如公式(2)所示,
其中,为非线性操作,/>为重塑操作,/>为由重塑和转置构成的复合操作;
步骤(B23),串联两个时间电的初步时间特征,得到最终时间特征
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(C),将最终时间特征输入至上下文提取模块,并获得图像内长距离空间-通道上下文信息,具体步骤如下,
步骤(C1),获得图像内长距离空间上下文信息,其具体是设定最终时间特征Ts,再将自注意力用于空间域生成长距离空间上下文信息如公式(3)所示,
其中,空间注意力图描述了Ts中任意两个像素点之间的相似度,且对于/>中的每个位置,均由所有其他位置的特征融合而成;
步骤(C2),获得图像内长距离通道上下文信息,其直接由Ts计算得到通道注意力图且长距离通道上下文信息/>如公式(4)所示,
步骤(C3),将长距离空间上下文信息和长距离通道上下文信息/>采用矩阵加法能得到长距离空间-通道上下文信息/>
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(D),将所有训练图像输入至上下文记忆模块,并获得图像间上下文信息,其具体是以无监督的方式将每一张训练图像分割成多个类别已知区域,再使用深度卷积特征完成谱聚类,并利用谱聚类将每个像素点分到对应的类别,具体步骤如下,
步骤(D1),使用翻转和旋转的数据增强构建输入图像的两个视图,并输入至对称骨干网络ResNet18生成卷积特征,再通过最大化统一输入图像的两个视图特征之间的相似度,并最小化不同输入图像的任意视图特征之间的相似度,完成对称骨干网络ResNet18的训练,其具体是设为输入图像,再将Xi输入对称骨干网络ResNet18,并得到对应的卷积特征/>
步骤(D2),将重塑后的卷积特征作为一个无向图Gi=(Vi,Ei),其中为Fi中所有像素点的集合,Ei为连接任意两个像素点的边的集合;
步骤(D3),邻接矩阵使用径向基函数获得,如公式(5)所示,
其中,σ为常数2.5;
步骤(D4),使用图分割最小化如下公式,将原始的图Gi切分成K个子图,如公式(6)所示,
其中,为/>的补集;
步骤(D5),使用归一化拉普拉斯矩阵得到特征向量,再对特征向量进行聚类生成图像的分割块,具体步骤如下,
步骤(D51),计算Wi的度矩阵其中Di[m,m]=∑n Wi[m,n],再构建Li,如公式(7)所示,
其中,Li的特征向量中对应前四个最小特征值的被选中,并串联成
步骤(D52),对ei使用k-means聚类,并得到Fi中每个像素点的标签li∈{1,…,K},其中K为常数10,且对于每个输入图像Xi均计算同一簇中所有分割块的平均特征,再从所有训练图像中收集平均特征并继续使用k-means聚类,其中将簇的个数设置为N,簇的个数为所有变化物体的类别个数,而第二次k-means聚类生成的聚类中心特征为特定类别变化物体的表征,这样图像间上下文信息是所有聚类中心特征的串联;
步骤(D6),将图像间上下文信息Jitr编码进时间特征Ts,其中第n类变化物体的图像间上下文信息将Jitr[n]按照空间维度复制,并使其维度扩展为128×Hs×Ws,再使用一个线性操作将Jitr[n]和Ts映射到同一个维度为/>的特征空间,而中间特征/>的生成如公式(8)所示,
其中,为由一个节点数为/>的全连接层构成的线性操作;
步骤(D7),计算Ts和Is的相似度矩阵如公式(9)所示,
其中,为将第n类图像间上下文信息编码进时间特征;
步骤(D8),将N个初步增强时间特征串联并使用一个非线性函数得到最终增强时间特征
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(E),将图像内长距离空间-通道上下文信息和图像间上下文信息进行加权融合,并获得编码特征,其具体是使用矩阵相加融合单张图像内的长距离空间-通道上下文信息和所有训练样本图像中的图像间上下文信息/>并得到编码特征/>且编码特征/>用于为特定类别变化物体提供语义信息。
前述的一种联合图像内和图像间上下文的遥感变化检测方法,步骤(F),将编码特征输入至多尺度融合模块,并得到解码特征,再生成检测结果图,完成遥感变化的检测作业,其中多尺度融合模块用于同时利用空间细节和语义信息,且解码特征用于获取检测结果,具体步骤如下,
步骤(F1),将编码特征输入至多尺度融合模块,并得到解码特征,具体步骤如下,
步骤(F11),将两个浅层编码特征和/>下采样到与/>相同的空间尺寸,其具体是使用一个步长为2的2×2池化层将/>和/>下采样,再使用一个核数为64的3×3卷积层、一个批量归一化层和ReLU激活函数构成解码操作/>并将解码操作/>用于下采样后的/>和/>获得第一解码特征;
步骤(F12),使用2倍和4倍的双线性插值将两个深层解码特征和/>上采样到与相同的空间尺寸,再将上采样后的/>和/>输入至解码操作/>并得到第二解码特征,而直接使用解码操作/>进行变换,并得到第三解码特征;
步骤(F13),将第一解码特征、第二解码特征和第三解码特征进行特征串联,并得到串联结果,再使用特征聚合操作将串联结果转换为解码特征/>其中特征聚合操作由一个核数为320的3×3卷积层、一个批量归一化层和ReLU激活函数构成,而第s个尺度的解码特征/>如公式(10)所示,
其中,和/>分别表示下采样和上采样操作;
步骤(F2),生成检测结果图,其具体是通过对五个尺度的解码特征使用一个核数为2的3×3卷积层转换成对应尺度的检测结果图,再使用双线性插值将多尺度检测结果图缩放至H×W的空间尺寸,接着设为第s个尺度的预测结果,/>为真实结果,则损失函数L的定义如公式(11)所示:
本发明的有益效果是:本发明的一种联合图像内和图像间上下文的遥感变化检测方法,首先将时间注意力模块插入一个对称网络中,并用于从双时相图像中提取多尺度时间特征,再使用一个上下文提取模块来捕获每张图像中的长距离空间-通道上下文信息,接着通过无监督的方式从所有训练图像得到遥感场景中潜在物体的上下文表征,再将图像内和图像间上下文融合并输入到一个多尺度融合模块中,生成最终的检测结果图,有效的实现了该检测方法具有对遥感图像的变化进行更加精准的检测功能,且通过设置有的四个模块能构成一个上下文聚合网络,并能提升检测性能,其中时间注意力模块建模双时相特征之间的时间依赖关系,能更好地定位变化物体,且上下文记忆模块和上下文提取模块能合作提取分层上下文信息,以解决伪变化问题,而多尺度融合模块将每个尺度的分层上下文聚合并检测不同尺度的变化物体,该方法还通过在三个公开数据集上的实验证明该检测方法与多个现有的检测方法相比能取得更好的检测性能。
附图说明
图1是本发明的整体流程图;
图2是本发明的时间注意力模块结构示意图;
图3是本发明的上下文提取模块结构示意图;
图4是本发明的上下文记忆模块结构示意图;
图5是本发明的特征向量可视化示意图;
图6是本发明的多尺度融合模块结构示意图;
图7是本发明的实施例中在SVCD数据集中的实验结果示意图;
图8是本发明的实施例中在LEVIR-CD数据中的实验结果示意图;
图9是本发明的实施例中在SYSU-CD数据中的实验结果示意图;。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种联合图像内和图像间上下文的遥感变化检测方法,包括以下步骤,
步骤(A),将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理,并输出多个双时相特征,其中设输入的双时相图像分别为和且H和W分别表示输入图像的高和宽,所述对称骨干网络ResNet18用于逐尺度地提取双时相特征,且所述对称骨干网络ResNet18的数目为两个,该对称骨干网络ResNet18由五个连续的块Conv1、Conv2、Conv3、Conv4和Conv5构成,对称骨干网络ResNet18的具体处理步骤如下,
其中,双时相图像本质上是一个时间序列;
步骤(A1),所述Conv1包含一个7×7卷积层和一个3×3最大池化层,且卷积层和池化层的步长都为2,所述Conv1用于将Xt1和Xt2的空间尺寸缩小为原先的四分之一并生成两个双时相特征/>和/>
步骤(A2),所述Conv2、Conv3、Conv4和Conv5均采用一个3×3卷积层、一个批量归一化层和ReLU激活函数组成,且所述Conv3、Conv4和Conv5的卷积层步长为2,而所述Conv2的卷积层步长为1,所述Conv2用于保持输入的双时相特征的空间尺寸不变,并输出两个双时相特征/>
步骤(A3),所述Conv3、Conv4和Conv5均用于将输入的特征空间尺寸减小至一半,并依次输出双时相特征和/>且所述Conv3、Conv4和Conv5生成的双时相特征通道数分别为128、256和512。
如图2所示,步骤(B),将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征,接着串联两个时间点的初步时间特征,得到最终时间特征,其中所述时间注意力模块ConvLSTM由输入门it、遗忘门ft、输出门ot和候选单元Ct构成,且所述输入门it、遗忘门ft、输出门ot和候选单元Ct均含有一个核数为Cs的1×1卷积层,Cs为第s个尺度下双时相特征的通道数,具体步骤如下,
步骤(B1),设其中s=1、2、3、4和5,且时间依赖关系通过将双时相特征依次输入到对应的时间注意力模块获得,如公式(1)所示,
其中,*为卷积操作,°为哈达玛积,和/>为偏置;权重矩阵表示的含义由其下标得知,如/>为输入特征和遗忘门之间的权重;
步骤(B2),将时间依赖关系Hs编码进双时相特征具体步骤如下
步骤(B21),将Hs、和/>输入一个3×3卷积层、一个批量归一化层和ReLU组成的非线性操作进行转换,获得转换结果;
步骤(B22),对转换结果使用矩阵乘法softmax函数,并得到系数矩阵其中对于每一个时刻,将系数矩阵与转换后的双时相特征相乘,并获得乘积,再将乘积与转换后的双时相特征相加,得到初步时间特征,采用时间依赖关系Hs和双时相特征/>生成初步时间特征/>的过程如公式(2)所示,
其中,为非线性操作,/>为重塑操作,/>为由重塑和转置构成的复合操作;
步骤(B23),串联两个时间电的初步时间特征,得到最终时间特征
如图3所示,步骤(C),将最终时间特征输入至上下文提取模块,并获得图像内长距离空间-通道上下文信息,具体步骤如下,
步骤(C1),获得图像内长距离空间上下文信息,其具体是设定最终时间特征Ts,再将自注意力用于空间域生成长距离空间上下文信息如公式(3)所示,
其中,空间注意力图描述了Ts中任意两个像素点之间的相似度,且对于/>中的每个位置,均由所有其他位置的特征融合而成;
步骤(C2),获得图像内长距离通道上下文信息,其直接由Ts计算得到通道注意力图且长距离通道上下文信息/>如公式(4)所示,
步骤(C3),将长距离空间上下文信息和长距离通道上下文信息/>采用矩阵加法能得到长距离空间-通道上下文信息/>
如图4所示,步骤(D),将所有训练图像输入至上下文记忆模块,并获得图像间上下文信息,其具体是以无监督的方式将每一张训练图像分割成多个类别已知区域,再使用深度卷积特征完成谱聚类,并利用谱聚类将每个像素点分到对应的类别,具体步骤如下,
步骤(D1),使用翻转和旋转的数据增强构建输入图像的两个视图,并输入至对称骨干网络ResNet18生成卷积特征,再通过最大化统一输入图像的两个视图特征之间的相似度,并最小化不同输入图像的任意视图特征之间的相似度,完成对称骨干网络ResNet18的训练,其具体是设为输入图像,再将Xi输入对称骨干网络ResNet18,并得到对应的卷积特征/>
步骤(D2),将重塑后的卷积特征作为一个无向图Gi=(Vi,Ei),其中为Fi中所有像素点的集合,Ei为连接任意两个像素点的边的集合;
步骤(D3),邻接矩阵使用径向基函数获得,如公式(5)所示,
其中,σ为常数2.5;
步骤(D4),使用图分割最小化如下公式,将原始的图Gi切分成K个子图,如公式(6)所示,
其中,为/>的补集;
如图5所示,步骤(D5),使用归一化拉普拉斯矩阵得到特征向量,再对特征向量进行聚类生成图像的分割块,具体步骤如下,
步骤(D51),计算Wi的度矩阵其中Di[m,m]=∑n Wi[m,n],再构建Li,如公式(7)所示,
其中,Li的特征向量中对应前四个最小特征值的被选中,并串联成
步骤(D52),对ei使用k-means聚类,并得到Fi中每个像素点的标签li∈{1,…,K},其中K为常数10,且对于每个输入图像Xi均计算同一簇中所有分割块的平均特征,再从所有训练图像中收集平均特征并继续使用k-means聚类,其中将簇的个数设置为N,簇的个数为所有变化物体的类别个数,而第二次k-means聚类生成的聚类中心特征为特定类别变化物体的表征,这样图像间上下文信息是所有聚类中心特征的串联;
步骤(D6),将图像间上下文信息Jitr编码进时间特征Ts,其中第n类变化物体的图像间上下文信息将Jitr[n]按照空间维度复制,并使其维度扩展为128×Hs×Ws,再使用一个线性操作将Jitr[n]和Ts映射到同一个维度为/>的特征空间,而中间特征/>的生成如公式(8)所示,
其中,为由一个节点数为/>的全连接层构成的线性操作;
步骤(D7),计算Ts和Is的相似度矩阵如公式(9)所示,
其中,为将第n类图像间上下文信息编码进时间特征;
步骤(D8),将N个初步增强时间特征串联并使用一个非线性函数得到最终增强时间特征
步骤(E),将图像内长距离空间-通道上下文信息和图像间上下文信息进行加权融合,并获得编码特征,其具体是使用矩阵相加融合单张图像内的长距离空间-通道上下文信息和所有训练样本图像中的图像间上下文信息/>并得到编码特征/>且编码特征/>用于为特定类别变化物体提供语义信息。
如图6所示,步骤(F),将编码特征输入至多尺度融合模块,并得到解码特征,再生成检测结果图,完成遥感变化的检测作业,其中多尺度融合模块用于同时利用空间细节和语义信息,且解码特征用于获取检测结果,具体步骤如下,
步骤(F1),将编码特征输入至多尺度融合模块,并得到解码特征,具体步骤如下,
步骤(F11),将两个浅层编码特征和/>下采样到与/>相同的空间尺寸,其具体是使用一个步长为2的2×2池化层将/>和/>下采样,再使用一个核数为64的3×3卷积层、一个批量归一化层和ReLU激活函数构成解码操作/>并将解码操作/>用于下采样后的/>和/>获得第一解码特征;
步骤(F12),使用2倍和4倍的双线性插值将两个深层解码特征和/>上采样到与相同的空间尺寸,再将上采样后的/>和/>输入至解码操作/>并得到第二解码特征,而直接使用解码操作/>进行变换,并得到第三解码特征;
步骤(F13),将第一解码特征、第二解码特征和第三解码特征进行特征串联,并得到串联结果,再使用特征聚合操作将串联结果转换为解码特征/>其中特征聚合操作由一个核数为320的3×3卷积层、一个批量归一化层和ReLU激活函数构成,而第s个尺度的解码特征/>如公式(10)所示,
其中,和/>分别表示下采样和上采样操作;
步骤(F2),生成检测结果图,其具体是通过对五个尺度的解码特征使用一个核数为2的3×3卷积层转换成对应尺度的检测结果图,再使用双线性插值将多尺度检测结果图缩放至H×W的空间尺寸,接着设为第s个尺度的预测结果,/>为真实结果,则损失函数L的定义如公式(11)所示:
为了更好的阐述本发明的使用效果,下面介绍本发明的一个具体实施例:
S1,选用数据集,其中数据包括SVCD数据集、LEVIR-CD数据集和SYSU-CD数据集和SYSU-CD数据集;
SVCD数据集,这个数据集由7对分辨率为0.03-1m的跨季节双时相图像构成,它们都由GoogleEarth采集得到;在实验过程中,将这些原图裁剪为15998对空间尺寸为256×256的双时相图像,其中10000对图像作为训练样本,2998对图像作为验证样本,3000对图像作为测试样本;这个数据集总共包含车辆变化、水库变化、土地变化、建筑物变化、以及道路变化等类型。
LEVIR-CD数据集,这个数据集由637对空间尺寸为1024×1024的双时相图像构成,同样通过GoogleEarth分别与2002年和2018年在美国的得克萨斯州采集得到。空间分辨率为0.5米;在实验过程中,将原始图像裁剪为10192对空间尺寸为256×256的双时相图像,其中7120对图像作为训练样本,1024对图像作为验证样本,2048对图像作为测试样本;该数据集只包含两种变化类型,包括搭建建筑物和拆除建筑物。
SYSU-CD数据集,这个数据集由20000对分辨率为0.5m,空间尺寸为256×256的双时相图像构成,它们分别与2007年和2014年在中国香港采集得到;在实验过程中,将所有的双时相图像进一步划分,其中12000对图像为训练样本、4000对图像为验证样本和4000对图像为测试样本;这个数据集的变化类型包括新盖建筑物、郊区扩张、施工工地、植被变化、道路扩张和海上施工。
S2,实验方法;
所有方法,包括本发明方法和对比方法都是使用PyTorch工具在一台CPU为英特尔i7-10700和GPU为英伟达GeForceRTX 3090的工作站上实现;本发明方法使用AdamW算法优化上下文聚合网络,其中AdamW算法的β1、β2和∈分别设置为0.9、0.999和10-8;初始的学习率设置为0.001,训练周期设置为200,单次输入上下文聚合网络的样本数量为8;每次训练周期结束后均进行性能验证,并将验证性能最好的模型直接用于得到测试集的检测结果;对于每个数据集,上下文聚合网络用到的ResNet18使用自监督学习SimCLR方法初始化参数;另外,训练上下文聚合网络前,先使用谱聚类得到图像间上下文信息,并将本发明方法中的N设置为变化类型个数;这个值在SVCD、LEVIR-CD和SYSU-CD中分别设置为5、2和6。
所有非线性操作的具体配置如表1所示,所有重塑操作带来的特征维度变化如表2所示;为了评估变化检测方法的性能,我们选择了五个指标,分别为precision、recall、F1、overallaccuracy(OA)和Intersection-of-Union(IoU),如公式(12)所示,
表1、非线性操作的具体配置
表2、重塑操作的维度变换
S3,与现有方法进行对比;
本实施例选择了七个先进的变化检测方法作为对比,包括FC-EF、FC-Siam-conc、FC-Siam-diff、SNUNet、DSAMNet、BIT和ISNet;这些方法都通过论文中的公开代码实现。
SVCD数据集的实验结果如表3所示;从表中可以观察到三个基于U型结构的方法,即FC-EF、FC-Siam-conc和FC-Siam-diff取得的检测效果是最差的;通过引入注意力机制,突出变化物体的特征,剩下的对比方法能够显著地提升检测性能。在这些基于注意力机制的方法中,ISNet取得了最好的结果;这主要是因为ISNet采用了边界最大化策略,能够将变化物体的边缘精细化。与ISNet相比,本发明提出的上下文聚合网络(CANet)能够将F1、OA和IoU提升至97.05%(2.25↑)、99.30%(0.52↑)和94.27%(4.15↑)。CANet能够取得如此显著的提升主要归功于它能够将图像内和图像间上下文融合生成分层上下文信息,缓解伪变化问题。
表3、SVCD数据集的实验结果
如图7所示,图7给出了所有变化检测方法在SVCD数据集上的检测结果图;从图中可以观察到,基于U型结构的方法只检测到了少量的变化物体,因此它们的可视化结果最差。得益于注意力机制,SNUNet、DSAMNet、BIT和ISNet能够粗略地定位几乎所有变化物体,但是这些方法不可避免地面临伪变化问题。因此,检测结果图中的变化物体既不完整也不精确,但当CANet解决伪变化问题之后,待检测的变化物体的边缘更加清晰,而且物体内部的语义一致性更加完整。
LEVIR-CD和SYSU-CD数据集呈现出类似的实验结果。表4和表5给出了这两个数据集的定量结果,其中CANet仍然取得了最好的检测性能。与第二好的方法相比,CANet能够将LEVIR-CD数据集的F1、OA和IoU提升至91.27%(0.95↑)、99.12%(0.08↑)和83.95%(1.60↑)。针对SYSU-CD数据集,F1、OA和IoU分别被CANet提升至82.00%(3.71↑)、91.59%(1.58↑)和69.50%(5.06↑)。
表4、LEVIR-CD数据集的实验结果
表5、SYSU-CD数据集的实验结果
如图8和图9所示,与其他方法相比,本发明方法CANet均能够生成令人满意的可视化结果。
综上所述,本发明的一种联合图像内和图像间上下文的遥感变化检测方法,有效的实现了具有对遥感图像的变化进行更加精准的检测功能,且通过设置有的四个模块能构成一个上下文聚合网络,并能提升检测性能,其中时间注意力模块建模双时相特征之间的时间依赖关系,能更好地定位变化物体,且上下文记忆模块和上下文提取模块能合作提取分层上下文信息,以解决伪变化问题,而多尺度融合模块将每个尺度的分层上下文聚合并检测不同尺度的变化物体,该方法还通过在三个公开数据集上的实验证明该检测方法与多个现有的检测方法相比能取得更好的检测性能。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (7)
1.一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:包括以下步骤,
步骤(A),将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理,并输出多个双时相特征;
步骤(B),将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征,接着串联两个时间点的初步时间特征,得到最终时间特征;
步骤(C),将最终时间特征输入至上下文提取模块,并获得图像内长距离空间-通道上下文信息;
步骤(D),将所有训练图像输入至上下文记忆模块,并获得图像间上下文信息;
步骤(E),将图像内长距离空间-通道上下文信息和图像间上下文信息进行加权融合,并获得编码特征;
步骤(F),将编码特征输入至多尺度融合模块,并得到解码特征,再生成检测结果图,完成遥感变化的检测作业。
2.根据权利要求1所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(A),将双时相图像输入至对称骨干网络,再通过对称骨干网络对双时相图像进行处理,并输出多个双时相特征,其中设输入的双时相图像分别为和且H和W分别表示输入图像的高和宽,所述对称骨干网络ResNet18用于逐尺度地提取双时相特征,且所述对称骨干网络ResNet18的数目为两个,该对称骨干网络ResNet18由五个连续的块Conv1、Conv2、Conv3、Conv4和Conv5构成,对称骨干网络ResNet18的具体处理步骤如下,
步骤(A1),所述Conv1包含一个7×7卷积层和一个3×3最大池化层,且卷积层和池化层的步长都为2,所述Conv1用于将Xt1和Xt2的空间尺寸缩小为原先的四分之一并生成两个双时相特征/>和/>
步骤(A2),所述Conv2、Conv3、Conv4和Conv5均采用一个3×3卷积层、一个批量归一化层和ReLU激活函数组成,且所述Conv3、Conv4和Conv5的卷积层步长为2,而所述Conv2的卷积层步长为1,所述Conv2用于保持输入的双时相特征的空间尺寸不变,并输出两个双时相特征/>
步骤(A3),所述Conv3、Conv4和Conv5均用于将输入的特征空间尺寸减小至一半,并依次输出双时相特征和/>且所述Conv3、Conv4和Conv5生成的双时相特征通道数分别为128、256和512。
3.根据权利要求2所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(B),将多个双时相特征依次输入至对应的时间注意力模块,获得时间依赖关系,再将时间依赖关系编码进双时相特征,并生成初步时间特征,接着串联两个时间点的初步时间特征,得到最终时间特征,其中所述时间注意力模块ConvLSTM由输入门it、遗忘门ft、输出门ot和候选单元Ct构成,且所述输入门it、遗忘门ft、输出门ot和候选单元Ct均含有一个核数为Cs的1×1卷积层,Cs为第s个尺度下双时相特征的通道数,具体步骤如下,
步骤(B1),设其中s=1、2、3、4和5,且时间依赖关系通过将双时相特征依次输入到对应的时间注意力模块获得,如公式(1)所示,
其中,*为卷积操作,°为哈达玛积,和/>为偏置;权重矩阵表示的含义由其下标得知,如/>为输入特征和遗忘门之间的权重;
步骤(B2),将时间依赖关系Hs编码进双时相特征具体步骤如下
步骤(B21),将Hs、和/>输入一个3×3卷积层、一个批量归一化层和ReLU组成的非线性操作进行转换,获得转换结果;
步骤(B22),对转换结果使用矩阵乘法softmax函数,并得到系数矩阵其中对于每一个时刻,将系数矩阵与转换后的双时相特征相乘,并获得乘积,再将乘积与转换后的双时相特征相加,得到初步时间特征,采用时间依赖关系Hs和双时相特征/>生成初步时间特征/>的过程如公式(2)所示,
其中,为非线性操作,/>为重塑操作,/>为由重塑和转置构成的复合操作;
步骤(B23),串联两个时间电的初步时间特征,得到最终时间特征
4.根据权利要求3所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(C),将最终时间特征输入至上下文提取模块,并获得图像内长距离空间-通道上下文信息,具体步骤如下,
步骤(C1),获得图像内长距离空间上下文信息,其具体是设定最终时间特征Ts,再将自注意力用于空间域生成长距离空间上下文信息如公式(3)所示,
其中,空间注意力图描述了Ts中任意两个像素点之间的相似度,且对于/>中的每个位置,均由所有其他位置的特征融合而成;
步骤(C2),获得图像内长距离通道上下文信息,其直接由Ts计算得到通道注意力图且长距离通道上下文信息/>如公式(4)所示,
步骤(C3),将长距离空间上下文信息和长距离通道上下文信息/>采用矩阵加法能得到长距离空间-通道上下文信息/>
5.根据权利要求4所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(D),将所有训练图像输入至上下文记忆模块,并获得图像间上下文信息,其具体是以无监督的方式将每一张训练图像分割成多个类别已知区域,再使用深度卷积特征完成谱聚类,并利用谱聚类将每个像素点分到对应的类别,具体步骤如下,
步骤(D1),使用翻转和旋转的数据增强构建输入图像的两个视图,并输入至对称骨干网络ResNet18生成卷积特征,再通过最大化统一输入图像的两个视图特征之间的相似度,并最小化不同输入图像的任意视图特征之间的相似度,完成对称骨干网络ResNet18的训练,其具体是设为输入图像,再将Xi输入对称骨干网络ResNet18,并得到对应的卷积特征/>
步骤(D2),将重塑后的卷积特征作为一个无向图Gi=(Vi,Ei),其中为Fi中所有像素点的集合,Ei为连接任意两个像素点的边的集合;
步骤(D3),邻接矩阵使用径向基函数获得,如公式(5)所示,
其中,σ为常数2.5;
步骤(D4),使用图分割最小化如下公式,将原始的图Gi切分成K个子图,如公式(6)所示,
其中,为/>的补集;
步骤(D5),使用归一化拉普拉斯矩阵得到特征向量,再对特征向量进行聚类生成图像的分割块,具体步骤如下,
步骤(D51),计算Wi的度矩阵其中Di[m,m]=∑nWi[m,n],再构建Li,如公式(7)所示,
其中,Li的特征向量中对应前四个最小特征值的被选中,并串联成
步骤(D52),对ei使用k-means聚类,并得到Fi中每个像素点的标签li∈{1,…,K},其中K为常数10,且对于每个输入图像Xi均计算同一簇中所有分割块的平均特征,再从所有训练图像中收集平均特征并继续使用k-means聚类,其中将簇的个数设置为N,簇的个数为所有变化物体的类别个数,而第二次k-means聚类生成的聚类中心特征为特定类别变化物体的表征,这样图像间上下文信息是所有聚类中心特征的串联;
步骤(D6),将图像间上下文信息Jitr编码进时间特征Ts,其中第n类变化物体的图像间上下文信息将Jitr[n]按照空间维度复制,并使其维度扩展为128×Hs×Ws,再使用一个线性操作将Jitr[n]和Ts映射到同一个维度为/>的特征空间,而中间特征/>的生成如公式(8)所示,
其中,为由一个节点数为/>的全连接层构成的线性操作;
步骤(D7),计算Ts和Is的相似度矩阵如公式(9)所示,
其中,为将第n类图像间上下文信息编码进时间特征;
步骤(D8),将N个初步增强时间特征串联并使用一个非线性函数得到最终增强时间特征
6.根据权利要求5所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(E),将图像内长距离空间-通道上下文信息和图像间上下文信息进行加权融合,并获得编码特征,其具体是使用矩阵相加融合单张图像内的长距离空间-通道上下文信息和所有训练样本图像中的图像间上下文信息/>并得到编码特征/>且编码特征/>用于为特定类别变化物体提供语义信息。
7.根据权利要求6所述的一种联合图像内和图像间上下文的遥感变化检测方法,其特征在于:步骤(F),将编码特征输入至多尺度融合模块,并得到解码特征,再生成检测结果图,完成遥感变化的检测作业,其中多尺度融合模块用于同时利用空间细节和语义信息,且解码特征用于获取检测结果,具体步骤如下,
步骤(F1),将编码特征输入至多尺度融合模块,并得到解码特征,具体步骤如下,
步骤(F11),将两个浅层编码特征和/>下采样到与/>相同的空间尺寸,其具体是使用一个步长为2的2×2池化层将/>和/>下采样,再使用一个核数为64的3×3卷积层、一个批量归一化层和ReLU激活函数构成解码操作/>并将解码操作/>用于下采样后的/>和/>获得第一解码特征;
步骤(F12),使用2倍和4倍的双线性插值将两个深层解码特征和/>上采样到与/>相同的空间尺寸,再将上采样后的/>和/>输入至解码操作/>并得到第二解码特征,而/>直接使用解码操作/>进行变换,并得到第三解码特征;
步骤(F13),将第一解码特征、第二解码特征和第三解码特征进行特征串联,并得到串联结果,再使用特征聚合操作将串联结果转换为解码特征/>其中特征聚合操作/>由一个核数为320的3×3卷积层、一个批量归一化层和ReLU激活函数构成,而第s个尺度的解码特征/>如公式(10)所示,
其中,和/>分别表示下采样和上采样操作;
步骤(F2),生成检测结果图,其具体是通过对五个尺度的解码特征使用一个核数为2的3×3卷积层转换成对应尺度的检测结果图,再使用双线性插值将多尺度检测结果图缩放至H×W的空间尺寸,接着设为第s个尺度的预测结果,/>为真实结果,则损失函数L的定义如公式(11)所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310396261.9A CN116778294B (zh) | 2023-04-14 | 2023-04-14 | 一种联合图像内和图像间上下文的遥感变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310396261.9A CN116778294B (zh) | 2023-04-14 | 2023-04-14 | 一种联合图像内和图像间上下文的遥感变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116778294A true CN116778294A (zh) | 2023-09-19 |
CN116778294B CN116778294B (zh) | 2024-03-26 |
Family
ID=87993860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310396261.9A Active CN116778294B (zh) | 2023-04-14 | 2023-04-14 | 一种联合图像内和图像间上下文的遥感变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778294B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10325370B1 (en) * | 2016-05-31 | 2019-06-18 | University Of New Brunswick | Method and system of coregistration of remote sensing images |
CN113640397A (zh) * | 2020-07-13 | 2021-11-12 | 江南大学 | 一种基于深度网络的遥感影像变化检测方法及系统 |
CN114037922A (zh) * | 2021-11-29 | 2022-02-11 | 南京审计大学 | 一种基于层级上下文网络的航拍图像分割方法 |
CN115564721A (zh) * | 2022-09-27 | 2023-01-03 | 西安电子科技大学 | 基于局部信息增强的高光谱图像变化检测方法 |
CN115713529A (zh) * | 2022-11-30 | 2023-02-24 | 河南大学 | 基于高效注意力的轻量级光学遥感图像变化检测方法 |
CN115810152A (zh) * | 2022-12-16 | 2023-03-17 | 长沙理工大学 | 基于图卷积的遥感图像变化检测方法、装置和计算机设备 |
-
2023
- 2023-04-14 CN CN202310396261.9A patent/CN116778294B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10325370B1 (en) * | 2016-05-31 | 2019-06-18 | University Of New Brunswick | Method and system of coregistration of remote sensing images |
CN113640397A (zh) * | 2020-07-13 | 2021-11-12 | 江南大学 | 一种基于深度网络的遥感影像变化检测方法及系统 |
CN114037922A (zh) * | 2021-11-29 | 2022-02-11 | 南京审计大学 | 一种基于层级上下文网络的航拍图像分割方法 |
CN115564721A (zh) * | 2022-09-27 | 2023-01-03 | 西安电子科技大学 | 基于局部信息增强的高光谱图像变化检测方法 |
CN115713529A (zh) * | 2022-11-30 | 2023-02-24 | 河南大学 | 基于高效注意力的轻量级光学遥感图像变化检测方法 |
CN115810152A (zh) * | 2022-12-16 | 2023-03-17 | 长沙理工大学 | 基于图卷积的遥感图像变化检测方法、装置和计算机设备 |
Non-Patent Citations (3)
Title |
---|
HAEYUN LEE ET AL.: "Local Similarity Siamese Network for Urban Land Change Detection on Remote Sensing Images", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, vol. 14 * |
XIAOKANG ZHANG ET AL.: "Multilevel Deformable Attention-Aggregated Networks for Change Detection in Bitemporal Remote Sensing Imagery", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, vol. 60 * |
梁燕 等: "基于编解码网络UNet3+的遥感影像建筑变化检测", 计算机学报 * |
Also Published As
Publication number | Publication date |
---|---|
CN116778294B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781775B (zh) | 一种多尺度特征支持的遥感影像水体信息精确分割方法 | |
CN113420662B (zh) | 基于孪生多尺度差异特征融合的遥感影像变化检测方法 | |
CN112991354B (zh) | 一种基于深度学习的高分辨率遥感影像语义分割方法 | |
CN112396607B (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN112258526B (zh) | 一种基于对偶注意力机制的ct肾脏区域级联分割方法 | |
CN109509149A (zh) | 一种基于双通道卷积网络特征融合的超分辨率重建方法 | |
CN113283435A (zh) | 一种基于多尺度注意力融合的遥感图像语义分割方法 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN111899169B (zh) | 一种基于语义分割的人脸图像的分割网络的方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN111814607A (zh) | 一种适用于小样本高光谱影像分类的深度学习模型 | |
CN115345866B (zh) | 一种遥感影像中建筑物提取方法、电子设备及存储介质 | |
CN104657962A (zh) | 基于级联线性回归的图像超分辨重建方法 | |
CN104899835A (zh) | 基于盲模糊估计与锚定空间映射的图像超分辨处理方法 | |
CN115147606B (zh) | 医学图像的分割方法、装置、计算机设备和存储介质 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN114694039A (zh) | 一种遥感高光谱与激光雷达图像融合分类方法及装置 | |
CN115965789A (zh) | 一种基于场景感知类注意力的遥感图像语义分割方法 | |
CN116778294B (zh) | 一种联合图像内和图像间上下文的遥感变化检测方法 | |
CN113628111B (zh) | 基于梯度信息约束的高光谱图像超分辨方法 | |
CN113554655B (zh) | 基于多特征增强的光学遥感图像分割方法及装置 | |
CN115375537A (zh) | 非线性感知多尺度的超分辨率图像生成系统及方法 | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN114022719A (zh) | 一种多特征融合的显著性检测方法 | |
CN114372987A (zh) | 基于不规则区域空间光谱信息的亚像元洪水淹没制图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |