CN114881916A - 一种遥感影像变化检测方法 - Google Patents
一种遥感影像变化检测方法 Download PDFInfo
- Publication number
- CN114881916A CN114881916A CN202210199067.7A CN202210199067A CN114881916A CN 114881916 A CN114881916 A CN 114881916A CN 202210199067 A CN202210199067 A CN 202210199067A CN 114881916 A CN114881916 A CN 114881916A
- Authority
- CN
- China
- Prior art keywords
- change detection
- remote sensing
- dataset
- sensing image
- results
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于遥感影像变化检测技术领域,具体涉及一种遥感影像变化检测方法。该方法首先获取2个不同时相的遥感影像,然后输入至遥感影像变化检测模型中,得到与原始遥感影像相对应的变化检测结果;其中,遥感影像变化检测模型包括特征提取模块和嵌套U‑Net网络,特征提取模块中2个深度层次化Transformer网络的输入分别为遥感影像变化检测模型的2个输入,嵌套U‑Net网络中节点X0,4的输出为遥感影像变化检测模型的输出,且2个深度层次化Transformer网络的第r阶段的输出拼接后连接至嵌套U‑Net网络中的节点Xr‑1,0。该模型充分利用了不同尺度的特征,在嵌套U‑Net结构中,不同尺度的特征之间有信息交流,能够更加充分地利用不同尺度的特征来提升变化检测的精度。
Description
技术领域
本发明属于遥感影像变化检测技术领域,具体涉及一种遥感影像变化检测方法。
背景技术
高分辨率遥感影像变化检测在土地利用调查、地理空间数据更新、灾情监测与评估等方面有着广泛的应用,也是遥感影像处理与分析中的重要研究内容之一。对于配准后的双时相遥感影像而言,变化检测的目的是区分对应像素对是否发生变化,通常情况下,发生变化的区域用1来标识,未发生变化的区域用0来标识。遥感影像变化检测方法大致可以分为4种,分别是直接像素比较法、面向对象的影像分析方法、基于机器学习的方法以及最新的基于深度学习的方法。通过逐像素的分析比较来判断对应位置的像素是否发生变化是最为朴素的变化思想,这方面的代表性工作有直接比较法和基于图像变换的方法。面向对象的变化检测方法不直接分析像素,而是将空间邻近且光谱相似的对象作为基本处理单元。相比于直接比较分析像素的方法,面向对象的变化检测方法具有更好的检测效果,但如何确定对象的最优尺度一直是亟待解决的问题。
近年来随着计算能力和数据获取能力的不断提升,基于学习的变化检测方法极大地提高了变化检测的精度。早期,以支持向量机、随机森林等为代表的浅层模型被广泛地应用在遥感影像变化检测任务中。但是不同时相遥感影像成像条件的不同会导致真正的变化区域混淆在背景中难以识别,这就会导致直接应用这些浅层模型检测效果往往不够理想。因此,这些浅层模型往往需要人工设计复杂的特征提取规则来保证对变化的检测效果,典型的特征提取方法有纹理特征、统计特征和空间结构特征。但是人工设计特征提取规则往往依赖专家知识,且需要根据不同的数据设置众多的超参数来保证检测效果。
与支持向量机、随机森林等浅层模型相比,深度学习模型能够自动学习提取用于下游任务的抽象特征,在足够的标记训练数据的支持下能够获得更高的识别精度,因此在遥感影像变化检测领域得到了广泛的关注。基于深度学习的变化检测方法大体上有两种思路,一种思路是直接将双时相遥感影像直接拼接,然后输入到全卷积网络中输出变化信息,经典的全卷积网络模型有FCN、U-Net、DeepLab系列、PsPNet+、UperNet等。另一种思路是采用孪生网络结构来适应变化检测任务的双分支输入,然后将孪生网络输出的特征进行拼接,再输出变化检测结果。注意力机制能够使深度学习模型忽略掉无关信息,从而更加关注对于任务重要的区域,因此能够提升深度学习模型的识别性能。为此,研究人员探索了多种适用于变化检测任务的注意力机制。此外,高分辨率网络、循环神经网络、生成式对抗网络等模型也被引入到变化检测任务中以更好地识别变化区域。
虽然深度学习方法在变化检测任务中取得了极大进展,但现有方法大多将卷积神经网络作为特征提取的骨干网络,而卷积神经网络感受野受限,这就导致这些模型无法感知更大范围的上下文信息。而以视觉Transformer为代表的自注意力机制则具有更大范围的感受野,因此部分学者在CNN的基础上引入了Transformer作为解码器来克服CNN感受野受限的缺点。但将Transformer作为解码器无法充分发挥自注意力机制的优势,变化检测精度低,且原始的Transformer计算复杂度较高。
发明内容
本发明的目的在于提供一种遥感影像变化检测方法,用以解决现有技术中遥感影像变化检测精度低的问题。
为解决上述技术问题,本发明所提供的技术方案以及技术方案对应的有益效果如下:
本发明的一种遥感影像变化检测方法,包括如下步骤:
1)获取2个不同时相的遥感影像,并称为2个原始遥感影像;
2)将2个原始遥感影像均输入至遥感影像变化检测模型中,得到与2个原始遥感影像相对应的变化检测结果;
所述遥感影像变化检测模型利用历史不同时相的遥感影像对以及对应的变化检测结果作为训练集训练得到;所述遥感影像变化检测模型包括特征提取模块和嵌套U-Net网络,所述特征提取模块包括2个结构相同且权值共享的深度层次化Transformer网络;
所述深度层次化Transformer网络包括依次连接的patch partition单元和4个阶段,4个阶段分别为第1阶段、第2阶段、第3阶段和第4阶段;
所述嵌套U-Net网络中节点Xi,j输出的特征图xi,j的计算公式为:式中,i表示层数,j表示当前层的第j个卷积层,h(·)表示对特征先进行卷积操作再进行Relu激活函数操作,表示一个上采样层,[]代表特征的连接操作;
特征提取模块中2个深度层次化Transformer网络的输入分别为遥感影像变化检测模型的2个输入,嵌套U-Net网络中节点X0,4的输出为遥感影像变化检测模型的输出,且2个深度层次化Transformer网络的第r阶段的输出拼接后连接至嵌套U-Net网络中的节点Xr -1,0,r=1,2,3,4。
上述技术方案的有益效果为:本发明的遥感影像变化检测模型,利用深度层次化Transformer网络来提取遥感影像的特征,该深度层次化Transformer网络能够同时兼顾局部和全局信息,从而提高变化检测精度;而且,为了充分利用不同尺度的特征,将提取得到的特征拼接后输入嵌套U-Net网络中完成变化检测,在嵌套U-Net结构中,不同尺度的特征之间有信息交流,能够更加充分地利用不同尺度的特征来提升变化检测的精度。
对上述方法进一步改进,步骤2)之后,还包括步骤3)~5):3)将2个不同时相的原始遥感影像进行相同的增强处理,得到2个增强遥感影像;4)将2个增强遥感影像均输入至所述遥感影像变化检测模型中,将输出结果进行与增强处理相对应的反操作,从而得到与2个增强遥感影像相对应的变化检测结果;5)依据与2个原始遥感影像相对应的变化检测结果以及与2个增强遥感影像相对应的变化检测结果,确定2个不同时相的遥感影像的变化情况。
上述技术方案的有益效果为:除了利用与2个原始遥感影像相对应的变化检测结果外,还利用增强后影像对的变化检测结果,综合多种检测结果,提升了最终的变化检测精度。
对上述方法进一步改进,步骤3)中,所述增强处理包括水平镜像、垂直镜像、旋转90度和旋转270度中的至少一种增强处理,则步骤4)中与增强处理相对应的反操作分别为水平镜像、垂直镜像、旋转270度和旋转90度。
对上述方法进一步改进,所述增强处理为水平镜像、垂直镜像、旋转90度和旋转270度,则步骤5)中,与2个原始遥感影像相对应的变化检测结果以及与2个增强遥感影像相对应的变化检测结果共包括5个变化检测结果;若某一位置处5个变化检测结果中有2个以上预测为变化,则判定该位置的变化检测结果为变化。
上述技术方案的有益效果为:综合利用了4种增强处理,提高了变化检测精度。
对上述方法进一步改进,第1阶段、第2阶段、第3阶段和第4阶段均包括Transformer Block模块,每个Transformer Block模块表示为:
式中,zl-1表示Transformer Block模块的输入,zl表示Transformer Block模块的中间变量,zl+1表示Transformer Block模块的输出;W-MSA()表示进行局部窗口自注意力计算,所述局部窗口自注意力计算是指将输入划分为多个窗口,针对每个窗口内的特征图执行自注意力计算;SW-MSA()表示进行移动窗口自注意力计算,所述移动窗口自注意力计算是指将基于局部窗口自注意力中的窗口,将窗口进行移动,针对移动后的窗口内的特征图执行自注意力计算;LN()表示进行LN操作,LN操作时指进过在通道方向做归一化操作的LayerNorm层;MPL()表示进行MLP操作,所述MLP操作是指经过用来增强模型的非线性的全连接层。
上述技术方案的有益效果为:Transformer Block模块中的自注意力单元包括局部窗口自注意计算,可以有效降低整体模型复杂度,提高计算效率;而且,TransformerBlock模块中的自注意力单元还包括移动窗口自注意力计算,可以使得不同窗口之间有信息的交互。
对上述方法进一步改进,训练所述遥感影像变化检测模型时,所使用的损失函数为Focal loss损失函数和Dice loss损失函数的组合;所述Focal loss损失函数的计算公式为:FL(pt)=-ηt(1-pt)ρlog(pt),式中,pt表示模型预测类别的概率,ηt表示控制正负样本对总损失贡献的权重参数,ρ为人工设置的聚焦参数;所述Dice loss损失函数的计算公式为:式中,s表示Dice系数,用于衡量两个样本之间的相似程度;|X∩Y|为两个集合之间交集,|X|和|Y|分别表示两个集合的并集。
上述技术方案的有益效果为:Focal loss和Dice loss均适用于样本分布不均匀的情况,能够有效提高模型的训练稳定性和训练效果,以达到更好地训练网络模型的目的。
附图说明
图1是本发明的遥感影像变化检测模型的结构图;
图2(a)是本发明所使用的深度层次化Transformer模型的结构图;
图2(b)是本发明所使用的Transformer Block模块的结构图;
图3(a)是MSA的示意图;
图3(b)是W-MSA机制的示意图;
图3(c)是SW-MSA机制的示意图;
图4是本发明所使用的嵌套U-Net网络的结构图;
图5是本发明的模型融合示意图;
图6是Focal损失不同权重对变化检测精度的影响示意图;
图7(1a)是LEVIR-CD数据集中第1影像对的输入图像1;
图7(1b)是LEVIR-CD数据集中第1影像对的输入图像2;
图7(1c)是LEVIR-CD数据集中第1影像对的地面参考图;
图7(1d)是采用DeepLabV3对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1e)是采用U-Net对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1f)是采用PSPNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1g)是采用UperNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1h)是采用MSPSNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1i)是采用SESNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1j)是采用F3SNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1k)是采用DSAMNet对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(1l)是采用TrmNU-NetF对LEVIR-CD数据集中第1影像对进行变化检测的结果图;
图7(2a)是LEVIR-CD数据集中第2影像对的输入图像1;
图7(2b)是LEVIR-CD数据集中第2影像对的输入图像2;
图7(2c)是LEVIR-CD数据集中第2影像对的地面参考图;
图7(2d)是采用DeepLabV3对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2e)是采用U-Net对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2f)是采用PSPNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2g)是采用UperNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2h)是采用MSPSNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2i)是采用SESNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2j)是采用F3SNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2k)是采用DSAMNet对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(2l)是采用TrmNU-NetF对LEVIR-CD数据集中第2影像对进行变化检测的结果图;
图7(3a)是LEVIR-CD数据集中第3影像对的输入图像1;
图7(3b)是LEVIR-CD数据集中第3影像对的输入图像2;
图7(3c)是LEVIR-CD数据集中第3影像对的地面参考图;
图7(3d)是采用DeepLabV3对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3e)是采用U-Net对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3f)是采用PSPNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3g)是采用UperNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3h)是采用MSPSNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3i)是采用SESNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3j)是采用F3SNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3k)是采用DSAMNet对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(3l)是采用TrmNU-NetF对LEVIR-CD数据集中第3影像对进行变化检测的结果图;
图7(4a)是LEVIR-CD数据集中第4影像对的输入图像1;
图7(4b)是LEVIR-CD数据集中第4影像对的输入图像2;
图7(4c)是LEVIR-CD数据集中第4影像对的地面参考图;
图7(4d)是采用DeepLabV3对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4e)是采用U-Net对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4f)是采用PSPNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4g)是采用UperNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4h)是采用MSPSNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4i)是采用SESNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4j)是采用F3SNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4k)是采用DSAMNet对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(4l)是采用TrmNU-NetF对LEVIR-CD数据集中第4影像对进行变化检测的结果图;
图7(5a)是LEVIR-CD数据集中第5影像对的输入图像1;
图7(5b)是LEVIR-CD数据集中第5影像对的输入图像2;
图7(5c)是LEVIR-CD数据集中第5影像对的地面参考图;
图7(5d)是采用DeepLabV3对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5e)是采用U-Net对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5f)是采用PSPNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5g)是采用UperNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5h)是采用MSPSNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5i)是采用SESNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5j)是采用F3SNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5k)是采用DSAMNet对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图7(5l)是采用TrmNU-NetF对LEVIR-CD数据集中第5影像对进行变化检测的结果图;
图8(1a)是SYSU-CD数据集中第1影像对的输入图像1;
图8(1b)是SYSU-CD数据集中第1影像对的输入图像2;
图8(1c)是SYSU-CD数据集中第1影像对的地面参考图;
图8(1d)是采用DeepLabV3对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1e)是采用U-Net对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1f)是采用PSPNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1g)是采用UperNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1h)是采用MSPSNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1i)是采用SESNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1j)是采用F3SNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1k)是采用DSAMNet对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(1l)是采用TrmNU-NetF对SYSU-CD数据集中第1影像对进行变化检测的结果图;
图8(2a)是SYSU-CD数据集中第2影像对的输入图像1;
图8(2b)是SYSU-CD数据集中第2影像对的输入图像2;
图8(2c)是SYSU-CD数据集中第2影像对的地面参考图;
图8(2d)是采用DeepLabV3对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2e)是采用U-Net对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2f)是采用PSPNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2g)是采用UperNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2h)是采用MSPSNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2i)是采用SESNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2j)是采用F3SNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2k)是采用DSAMNet对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(2l)是采用TrmNU-NetF对SYSU-CD数据集中第2影像对进行变化检测的结果图;
图8(3a)是SYSU-CD数据集中第3影像对的输入图像1;
图8(3b)是SYSU-CD数据集中第3影像对的输入图像2;
图8(3c)是SYSU-CD数据集中第3影像对的地面参考图;
图8(3d)是采用DeepLabV3对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3e)是采用U-Net对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3f)是采用PSPNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3g)是采用UperNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3h)是采用MSPSNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3i)是采用SESNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3j)是采用F3SNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3k)是采用DSAMNet对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(3l)是采用TrmNU-NetF对SYSU-CD数据集中第3影像对进行变化检测的结果图;
图8(4a)是SYSU-CD数据集中第4影像对的输入图像1;
图8(4b)是SYSU-CD数据集中第4影像对的输入图像2;
图8(4c)是SYSU-CD数据集中第4影像对的地面参考图;
图8(4d)是采用DeepLabV3对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4e)是采用U-Net对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4f)是采用PSPNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4g)是采用UperNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4h)是采用MSPSNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4i)是采用SESNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4j)是采用F3SNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4k)是采用DSAMNet对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(4l)是采用TrmNU-NetF对SYSU-CD数据集中第4影像对进行变化检测的结果图;
图8(5a)是SYSU-CD数据集中第5影像对的输入图像1;
图8(5b)是SYSU-CD数据集中第5影像对的输入图像2;
图8(5c)是SYSU-CD数据集中第5影像对的地面参考图;
图8(5d)是采用DeepLabV3对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5e)是采用U-Net对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5f)是采用PSPNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5g)是采用UperNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5h)是采用MSPSNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5i)是采用SESNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5j)是采用F3SNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5k)是采用DSAMNet对SYSU-CD数据集中第5影像对进行变化检测的结果图;
图8(5l)是采用TrmNU-NetF对SYSU-CD数据集中第5影像对进行变化检测的结果图。
具体实施方式
本发明将两个不同时相的遥感影像分别输入到一个深度层次化Transformer(Deep Hierarchical Transformer)网络中来提取抽象特征,然后将深度层次化Transformer模型中的特征提取骨干网络四个阶段提取的特征拼接后分别输入到嵌套U-Net网络的四个阶段中,最终输出变化检测结果。下面结合附图和实施例,对本发明的一种遥感影像变化检测方法进行详细说明。
方法实施例:
本发明进行遥感影像变化检测的遥感影像变化检测模型基于深度层次化Transformer网络和嵌套U-Net网络,下面先对深度层次化Transformer网络和嵌套U-Net网络进行介绍,进而对本发明的遥感影像变化检测模型TrmNU-NetF进行介绍。
1)深度层次化Transformer网络。
在图像分类、目标检测、语义分割等任务中用于特征提取的骨干网络的好坏能够极大地影响整个模型的性能。为此,研究人员以CNN为基础设计了一系列性能优异的特征提取骨干网络用于各种计算机视觉任务,例如VGG系列模型、ResNet系列模型、DenseNet系列模型、Hrnet系列模型等。这些模型在的变化检测任务中的应用极大地提升了变化检测的精度,但CNN模型面临着感受野受限的问题,因此无法充分利用全局上下文信息。为了应对该问题,本发明采用Transformer作为特征提取器。
Transformer最早被用于自然语言处理领域,其核心是自注意力机制。这种自注意力机制可以很好地建模长时依赖信息,因此可以利用Transformer来捕获图像中的全局信息。但直接将原始的基于全局注意力的Transformer应用于图像会导致计算复杂度较大。为此,设计了图2(a)所示的深度层次化Transformer网络作为整个变化检测模型的特征提取骨干网络。整个特征提取骨干网络可以划分为4个阶段,分别如图2(a)中的Stage1、Stage2、Stage3、Stage4所示。首先是patch partition操作,即将整幅图像划分为大小为4×4互相不重叠的patch。由于影像中包含3个波段,因此每个patch展平后形成的一维特征向量的维度为48。然后进入到第1阶段Stage1,应用一个线性变换层(Linear Embeding)将特征向量的维度由48维变换为C维,这些变换后的特征向量可以被视为一个特征向量序列输入到Transformer Block模块提取更加抽象的特征。第1阶段共包含了两个Transformer Block模块,并保持了特征向量的维度(C)和数量(H/4×W/4)。为了提取层次化的特征,在第1阶段Stage1后紧跟第2阶段Stage2,第2阶段Stage2先利用一个Patch Merging层用来聚合特征,同时降低特征向量的数量,具体地将相邻的2×2个维度为C的特征向量合并为1个维度为4C的特征向量,这样特征向量的个数就减少为H/8×W/8,接着我们再应用一个线性变换层将特征向量的维度由4C变换为2C,进而再将特征向量序列输入到第2阶段Stage2的两个Transformer Block模块中。第2阶段Stage2的输出输入到第3阶段Stage3中,第3阶段Stage3将第2阶段Stage2的输出同样经过一个Patch Merging层后再输入到第3阶段Stage3的6个Transformer Block模块中。同样地,第3阶段Stage3的输出也经过一个PatchMerging层后再输入到第4阶段的2个Transformer Block模块中。4个阶段共同产生一个层次化的特征表示,其模仿了CNN中的层次化结构,使得感受野随着网络深度的增加而扩大,因此能够较好地兼顾全局信息和局部信息。
上述4个阶段的Transformer Block模块的结构如图2(b)所示,包括四个注意力单元,第1注意力单元包括依次连接的LN层和W-MSA层,第2注意力单元包括依次连接的LN层和MLP层(多层感知器层),第3注意力单元包括依次连接的LN层和SW-MSA层,第4注意力单元包括依次连接的LN层和MLP层。其中,W-MSA层用于执行Windows Multi-head Self-Attention操作,SW-MSA层用于执行Shifted Windows Multi-head Self-Attention操作,MLP层为全连接层用来增强模型的非线性,LN层为LayerNorm层,也就是在channel方向做归一化操作。而且,这4个注意力单元的连接方式为:k=1,2,3时,第k注意力单元的输出和第k注意力单元的输入拼接后作为第k+1注意力单元的输入;第4注意力单元的输出和第4注意力单元的输入拼接后作为整个Transformer Block模块的输出;第1注意力单元的输入作为整个Transformer Block模块的输入。即如图2(b)所示,1个Transformer Block模块可以形式化地描述为下式:
式中,W-MSA()表示进行W-MSA操作;LN()表示进行LN操作;SW-MSA()表示进行SW-MSA操作;MPL表示进行MLP操作;zl-1表示Transformer Block的输入;zl+1表示TransformerBlock的输出。
下面再对W-MSA层和SW-MSA层进行介绍。原始Transformer采用了如图3(a)所示的全局自注意力机制MSA,其具体计算过程如下式所示:
式中,Q、K、V分别表示query矩阵、key矩阵和value矩阵;d表示Q、K、V的维度。也就是说每一个图像块对应的特征向量与所有其它图像块的特征向量都进行自注意力计算。为了提取更加丰富的特征,Transformer还采用了多头机制,即初始化多组Q、K、V参数,本实施例使用8组。全局注意力机制显然计算复杂度较高,为了应对全局自注意力计算复杂度较高的问题,如图3(b)所示,将每个Transformer Block中的自注意力计算限制在局部窗口内,即采用W-MSA机制,这样可以有效降低模型复杂度,但这样不同窗口之间的特征无法相互交流信息,这就降低了Transformer对长时依赖的建模能力。为此,本实施例进一步采用了如图3(c)所示的SW-MSA机制,也就是将自注意力机制计算的窗口向右下角平移,这样能够使得不同窗口之间有信息的交互。W-MSA机制和SW-MSA机制均为现有技术,这里不再赘述。
2)嵌套U-Net网络。
嵌套U-Net网络如图4所示,与原始U-Net网络最大的区别在于编解码器之间进行了密集连接,这种密集连接操作有利于模型综合利用不同尺度的特征信息,因此可以提升变化检测精度。令xi,j为节点Xi,j输出的特征图,i表示沿着编码器方向下采样层对应的索引,即层数,j表示沿着跳跃连接方向的索引,即当前层的第j个卷积层。则任意节点输出的特征图xi,j的计算公式如下:
式中,h(·)表示对特征先进行卷积操作再进行Relu激活函数操作;表示一个上采样层;[]代表特征的连接操作。j=0的节点只从编码器子网络的前一层接受一个输入;j=1的节点接受来自编码器子网络连续两层的输入;j>1的节点接受到j+1个输入,其中j个输入是当前跳跃连接路径上前j个节点的输出,另一个输入是下一个跳跃路0径的上采样输出。
3)TrmNU-NetF模型。
遥感影像变化检测模型TrmNU-NetF模型如图1所示,包括特征提取模块和嵌套U-Net网络,特征提取模块包括2个结构相同且权值共享的深度层次化Transformer网络。特征提取模块中2个深度层次化Transformer网络的输入分别为遥感影像变化检测模型的2个输入,嵌套U-Net网络中节点X0,4的输出为遥感影像变化检测模型的输出,且2个深度层次化Transformer网络的第1阶段的输出拼接后连接至嵌套U-Net网络中的节点X0,0,第2阶段的输出拼接后连接至嵌套U-Net网络中的节点X1,0,第3阶段的输出拼接后连接至嵌套U-Net网络中的节点X2,0,第4阶段的输出拼接后连接至嵌套U-Net网络中的节点X4,0。
基于该TrmNU-NetF模型,可实现本发明的一种遥感影像变化检测方法,下面具体介绍。
步骤一,搭建如图1所示的TrmNU-NetF模型。
步骤二,获取公开的遥感影像变化检测数据集,并分为训练数据、验证数据和测试数据,对搭建的TrmNU-NetF模型进行训练、验证和测试,以最终得到遥感影像变化检测模型。
在训练过程中,所使用的损失函数为Focal loss损失函数和Dice loss损失函数的组合。这是因为,Focal loss和Dice loss均适用于样本分布不均匀的情况,能够有效提高模型的训练稳定性和训练效果。Focal loss损失函数和Dice loss损失函数分别为:
FL(pt)=-ηt(1-pt)ρlog(pt)
式中,pt表示模型预测类别的概率,ηt表示控制正负样本对总损失贡献的权重参数,ρ为人工设置的聚焦参数;
式中,s表示Dice系数,用于衡量两个样本之间的相似程度;|X∩Y|为两个集合之间交集,|X|和|Y|分别表示两个集合的并集。
大量的研究和实践表明数据增强操作有助于提升模型的训练效果。因此本实施例中随机应用水平镜像、垂直镜像、随机旋转、随机擦除像素,其中随机擦除像素的区域个数为4,随机擦除像素的区域宽和高最大值为50。
步骤三,获取两个不同时相的遥感影像,并称为两个原始遥感影像,将两个原始遥感影像均输入至遥感影像变化检测模型中,得到与两个原始遥感影像相对应的变化检测结果。
步骤四,如图5所示,将两个不同时相的遥感影像进行增强处理,得到两个增强遥感影像,将两个增强影像均输入至遥感影像变化检测模型,将输出结果进行与增强处理相对应的反操作,从而得到与两个增强遥感影像相对应的变化检测结果。具体包括:
将两个不同时相的原始遥感影像进行水平镜像增强处理,处理后输入至遥感影像变化检测模型,将输出结果进行水平镜像处理,得到与水平镜像增强处理相对应的变化检测结果;
将两个不同时相的原始遥感影像进行垂直镜像增强处理,处理后输入至遥感影像变化检测模型中,将输出结果进行垂直镜像处理,得到与垂直镜像增强处理相对应的变化检测结果;
将两个不同时相的原始遥感影像进行旋转90度增强处理,处理后输入至遥感影像变化检测模型,将输出结果进行旋转270度处理,得到与旋转90度增强处理相对应的变化检测结果;
将两个不同时相的原始遥感影像进行旋转270度增强处理,处理后输入至遥感影像变化检测模型,将输出结果进行旋转90度处理,得到与旋转270度增强处理相对应的变化检测结果。
步骤五,根据步骤三和步骤四,可以得到五个变化检测结果。通过相同位置处5个变化检测结果进行投票得出最终的变化检测结果,即5个变化检测结果中有两个以上预测为变化,则判定该位置为变化。
下面进行实验分析,以说明本发明方法的有效性。实验的硬件环境为:NVIDIAA100显卡、显存为40Gb、内存256Gb,软件环境为:Ubuntu18.04、使用PyTorch实现相关的深度学习模型。
采用LEVIR-CD和SYSU-CD两个大型公开的遥感影像变化检测数据集进行变化检测实验。LEVIR-CD(LEarning,VIsion and Remote sensing)变化检测数据集共包含637幅分辨率为0.5m的影像,影像大小为1024×1024像素,共包含31333个变化实例。训练数据、验证数据、测试数据的数量按照官方划分方法,分别为445、64、128。由于显存限制,将所有影像均切分为大小为512×512且互相不重叠的图像块,这样用于训练、验证、测试的影像对数量分别为1780、256和512。SYSU-CD(Sun Yat-Sen University,Change Detection)变化检测数据集共包含20000个大小为256×256像素的航空遥感图像对,图像分辨率为0.5米。训练数据、验证数据、测试数据的数量按照官方划分方法,分别为12000、4000、4000。
为了定量评价不同变化检测模型的性能,选取F1(F1-score)、precision、Recall、Iou和总体分类精度(OA)作为评价指标。变化检测结果混淆矩阵如表1所示,且相关评价指标计算公式如下:
precision=TP/(TP+FP)
recall=TP/(TP+FN)
IoU=TP/(TP+FN+FP)
OA=(TP+TN)/(TP+TN+FN+FP)
F1=(2×recall×precision)/(recall+precision)
表1变化检测混淆矩阵
采用Adam优化器训练模型,epoch数设置为50,整个训练分为两个阶段,第1阶段(前30个epoch)学习率设置为0.0001,第2阶段(后20个epoch)学习率为0.00001。由于本实施例采用Dice和Focal的组合作为最终的损失函数,因此Dice和Focal的权重系数会直接影响变化检测的精度。为了研究两种损失函数对最终变化检测结果的影响,将Dice损失的权重系数固定为1.0,然后分别设定Focal损失的权重系数为0.5、1.0、2.0、4.0。LEVIR-CD和SYSU-CD两个变化检测数据集上的F1-score如图6所示。观察图6中的实验结果,可以发现Focal损失权重较大时(2、4)会降低变化检测精度,而当Focal损失权重为0.5时,LEVIR-CD数据的检测精度略有提升,而SYSU-CD数据的检测精度会降低。因此,将两种损失函数的权重都设定为1.0。
为了探索不同数据增强策略和本发明提出的模型融合方法对变化检测精度的影响,在两个变化检测数据集上进行消融实验,实验结果如表2所示。从表2中的实验结果很容易发现不使用数据增强获得的变化检测精度最低;水平+垂直镜像和随机旋转两种数据增强策略均能小幅度提升变化检测精度;而随机擦除增强策略则能大幅提升变化检测精度,两组数据集上均能提升0.5%以上;在数据增强基础上引入本发明提出的模型融合方法则能够进一步提升变化检测精度,在LEVIR-CD上能够提升0.71%,在SYSU-CD上能够提升0.32%,这说明了在变化检测模型训练过程中采用数据增强的必要性,同时也证明了本发明提出的模型融合方法的有效性。
表2 LEVIR-CD和SYSU-CD数据集F1-Score(%)消融实验
为了验证本发明方法的有效性,选取了经典的DeepLabV3、U-Net、PSPNet和UperNet作为对比方法。同时根据开源代码实现了最新的MSPSNet、SESNet、F3SNet和DSAMNet作为对比方法。需要指出的是,为了保证公平,本发明方法和对比方法中的训练、确认和测试数据完全相同。LEVIR-CD和SYSU-CD两个数据集的变化检测结果如表3和表4所示,为了便于对比分析,还给出了本发明方法没有进行模型融合的变化检测结果(TrmNU-Net)。在LEVIR-CD数据集上,本发明提出的TrmNU-Net的F1、Recall、IoU和OA均优于其它方法,Precision则与最高的SESNet接近,这说明本发明提出的模型能够提升变化检测精度。而进一步采用了单模型融合策略的TrmNU-NetF在5个评价指标上均能取得最高的精度,这说明了本发明提出的单模型融合策略的有效性。SYSU-CD数据集上,本发明方法TrmNU-NetF的F1、Recall、IoU和OA均取得了最高的识别精度,而Precision则略低于UNet,总的来说本发明的TrmNU-NetF获得了最均衡的检测结果,这充分说明了本发明提出方法的有效性。
表3 LEVIR-CD数据集变化检测精度(%)
表4 SYSU-CD数据集变化检测精度(%)
为了便于观察不同方法的检测效果,在两个数据集上各随机选取5个影像对,并对变化检测结果进行了可视化。如图7(1a)~图7(5l)所示,给出了LEVIR-CD数据集的影像对,如图7(xa)和图7(xb)(x表示第x影像对,x=1,2,3,4,5)所示,以及对应的地面参考,如图7(xc)所示,7(xd)-(xl)分别为采用DeepLabV3、U-Net、PSPNet、UperNet、MSPSNet、SESNet、F3SNet、DSAMNet和TrmNU-NetF所对应的变化检测结果,每一种算法基本均有不同程度的误检、漏检。图7(2a)~图7(2l)对比方法均存在误检测区域,而本发明方法的检测结果较为准确;图7(5a)~图7(5l)对比方法则存在大量的漏检区域,而本发明方法检测较为完整。如图8(1a)~图8(5l)所示,相比于对比方法,本发明方法的误检和漏检区域均较少,这进一步说明了本发明方法的有效性。
综上,本发明方法具有如下特点:1)采用了一种层次化的Transformer结构来更好地提取遥感影像的特征,这种层次化Transformer结构能够同时兼顾局部和全局信息,因此能够提高变化检测精度。2)为了充分利用不同尺度的特征,将提取得到的特征拼接后输入嵌套U-Net中完成变化检测。在嵌套U-Net结构中,不同尺度的特征之间有信息交流,因此这种嵌套结构能够更加充分地利用不同尺度的特征来提升变化检测的精度。3)提出了一种简单有效的单模型融合方法,具体地通过对增强后图像对的变化检测结果进行融合来提升最终的变化检测精度。
上述实施例中,采用了四种增强处理方式,结合原始遥感影像,最终得到了五个变化检测结果,相应的,最终在2个以上预测为变化时判定为变化。作为其他实施方式,可采用其中两种增强处理方式,此时结合原始遥感影像,最终得到了三个变化检测结果,相应的,最终在1个以上预测为变化时判定为变化。需说明的是,此处不限制具体采用几种增强处理方式,可比四种少,也可比四种多。而且,具体什么样的结果判定为变化也是跟随所采用的增强处理方式的个数来变化的。
Claims (6)
1.一种遥感影像变化检测方法,其特征在于,包括如下步骤:
1)获取2个不同时相的遥感影像,并称为2个原始遥感影像;
2)将2个原始遥感影像均输入至遥感影像变化检测模型中,得到与2个原始遥感影像相对应的变化检测结果;
所述遥感影像变化检测模型利用历史不同时相的遥感影像对以及对应的变化检测结果作为训练集训练得到;所述遥感影像变化检测模型包括特征提取模块和嵌套U-Net网络,所述特征提取模块包括2个结构相同且权值共享的深度层次化Transformer网络;
所述深度层次化Transformer网络包括依次连接的patch partition单元和4个阶段,4个阶段分别为第1阶段、第2阶段、第3阶段和第4阶段;
所述嵌套U-Net网络中节点Xi,j输出的特征图xi,j的计算公式为:式中,i表示层数,j表示当前层的第j个卷积层,h(·)表示对特征先进行卷积操作再进行Relu激活函数操作,表示一个上采样层,[]代表特征的连接操作;
特征提取模块中2个深度层次化Transformer网络的输入分别为遥感影像变化检测模型的2个输入,嵌套U-Net网络中节点X0,4的输出为遥感影像变化检测模型的输出,且2个深度层次化Transformer网络的第r阶段的输出拼接后连接至嵌套U-Net网络中的节点Xr-1,0,r=1,2,3,4。
2.根据权利要求1所述的遥感影像变化检测方法,其特征在于,步骤2)之后,还包括步骤3)~5):
3)将2个不同时相的原始遥感影像进行相同的增强处理,得到2个增强遥感影像;
4)将2个增强遥感影像均输入至所述遥感影像变化检测模型中,将输出结果进行与增强处理相对应的反操作,从而得到与2个增强遥感影像相对应的变化检测结果;
5)依据与2个原始遥感影像相对应的变化检测结果以及与2个增强遥感影像相对应的变化检测结果,确定2个不同时相的遥感影像的变化情况。
3.根据权利要求2所述的遥感影像变化检测方法,其特征在于,步骤3)中,所述增强处理包括水平镜像、垂直镜像、旋转90度和旋转270度中的至少一种增强处理,则步骤4)中与增强处理相对应的反操作分别为水平镜像、垂直镜像、旋转270度和旋转90度。
4.根据权利要求3所述的遥感影像变化检测方法,其特征在于,所述增强处理为水平镜像、垂直镜像、旋转90度和旋转270度,则步骤5)中,与2个原始遥感影像相对应的变化检测结果以及与2个增强遥感影像相对应的变化检测结果共包括5个变化检测结果;若某一位置处5个变化检测结果中有2个以上预测为变化,则判定该位置的变化检测结果为变化。
5.根据权利要求1所述的遥感影像变化检测方法,其特征在于,第1阶段、第2阶段、第3阶段和第4阶段均包括Transformer Block模块,每个Transformer Block模块表示为:
式中,zl-1表示Transformer Block模块的输入,zl表示Transformer Block模块的中间变量,zl+1表示Transformer Block模块的输出;W-MSA()表示进行局部窗口自注意力计算,所述局部窗口自注意力计算是指将输入划分为多个窗口,针对每个窗口内的特征图执行自注意力计算;SW-MSA()表示进行移动窗口自注意力计算,所述移动窗口自注意力计算是指将基于局部窗口自注意力中的窗口,将窗口进行移动,针对移动后的窗口内的特征图执行自注意力计算;LN()表示进行LN操作,LN操作时指进过在通道方向做归一化操作的LayerNorm层;MPL()表示进行MLP操作,所述MLP操作是指经过用来增强模型的非线性的全连接层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199067.7A CN114881916A (zh) | 2022-03-02 | 2022-03-02 | 一种遥感影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199067.7A CN114881916A (zh) | 2022-03-02 | 2022-03-02 | 一种遥感影像变化检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114881916A true CN114881916A (zh) | 2022-08-09 |
Family
ID=82667715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210199067.7A Pending CN114881916A (zh) | 2022-03-02 | 2022-03-02 | 一种遥感影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881916A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456957A (zh) * | 2022-08-19 | 2022-12-09 | 广州大学 | 一种全尺度特征聚合的遥感影像变化检测的方法 |
CN116343043A (zh) * | 2023-03-30 | 2023-06-27 | 南京审计大学 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
-
2022
- 2022-03-02 CN CN202210199067.7A patent/CN114881916A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456957A (zh) * | 2022-08-19 | 2022-12-09 | 广州大学 | 一种全尺度特征聚合的遥感影像变化检测的方法 |
CN115456957B (zh) * | 2022-08-19 | 2023-09-01 | 广州大学 | 一种全尺度特征聚合的遥感影像变化检测的方法 |
CN116343043A (zh) * | 2023-03-30 | 2023-06-27 | 南京审计大学 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
CN116343043B (zh) * | 2023-03-30 | 2023-11-21 | 南京审计大学 | 一种具有多尺度特征融合功能的遥感影像变化检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582225B (zh) | 一种遥感图像场景分类方法及装置 | |
CN112446591B (zh) | 一种用于学生综合能力评价的零样本评价方法 | |
CN114881916A (zh) | 一种遥感影像变化检测方法 | |
CN106127204A (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
CN108596329A (zh) | 基于端到端深度集成学习网络的三维模型分类方法 | |
Hong et al. | Globenet: Convolutional neural networks for typhoon eye tracking from remote sensing imagery | |
Wang et al. | RSCNet: A residual self-calibrated network for hyperspectral image change detection | |
CN114821342B (zh) | 一种遥感影像道路提取方法及系统 | |
CN111814685A (zh) | 基于双支路卷积自编码器的高光谱图像分类方法 | |
CN113222316A (zh) | 一种基于flus模型和生物多样性模型的变化情景模拟方法 | |
CN112232328A (zh) | 基于卷积神经网络的遥感影像建筑区提取方法、装置 | |
CN114022729A (zh) | 基于孪生网络和监督训练的异源图像匹配定位方法和系统 | |
CN116363521B (zh) | 一种遥感影像语义预测方法 | |
CN115601661A (zh) | 一种用于城市动态监测的建筑物变化检测方法 | |
CN116912708A (zh) | 一种基于深度学习的遥感影像建筑物提取方法 | |
CN115131557A (zh) | 一种基于活性污泥图像的轻量化分割模型构建方法及系统 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
Cheng et al. | Generating high-resolution climate prediction through generative adversarial network | |
CN111860601B (zh) | 预测大型真菌种类的方法及装置 | |
CN116343052B (zh) | 一种基于注意力和多尺度的双时相遥感图像变化检测网络 | |
CN117496179A (zh) | 多尺度双重注意力引导融合网络模型的碳排放分析方法 | |
CN117131991A (zh) | 基于混合神经网络的城市降雨量预测方法及平台 | |
CN114511787A (zh) | 一种基于神经网络的遥感图像地物信息生成方法及其系统 | |
CN116580279A (zh) | 基于混合自注意力机制的番茄病害检测方法及系统 | |
CN116091763A (zh) | 苹果叶部病害图像语义分割系统及分割方法、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |