CN112488025A - 基于多模态特征融合的双时相遥感影像语义变化检测方法 - Google Patents

基于多模态特征融合的双时相遥感影像语义变化检测方法 Download PDF

Info

Publication number
CN112488025A
CN112488025A CN202011451412.9A CN202011451412A CN112488025A CN 112488025 A CN112488025 A CN 112488025A CN 202011451412 A CN202011451412 A CN 202011451412A CN 112488025 A CN112488025 A CN 112488025A
Authority
CN
China
Prior art keywords
layer
change
model
remote sensing
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011451412.9A
Other languages
English (en)
Other versions
CN112488025B (zh
Inventor
乐鹏
姜良存
黄立
徐明月
魏汝兰
章小明
宁振伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South Digital Technology Co ltd
Wuhan University WHU
Original Assignee
South Digital Technology Co ltd
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South Digital Technology Co ltd, Wuhan University WHU filed Critical South Digital Technology Co ltd
Priority to CN202011451412.9A priority Critical patent/CN112488025B/zh
Publication of CN112488025A publication Critical patent/CN112488025A/zh
Application granted granted Critical
Publication of CN112488025B publication Critical patent/CN112488025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Abstract

本发明公开了一种基于多模态特征融合的双时相遥感影像语义变化检测方法,包括以下几个步骤:步骤A:对多时相遥感影像数据集进行数据增强的预处理;步骤B:构建基于多模态特征融合的卷积神经网络模型,利用数据集训练卷积神经网络,获得训练模型;步骤C:利用训练模型对数据集进行数据清理;步骤D:利用清理后的数据重新训练模型,并对测试数据进行测试得到预测结果;步骤E:变化检测预测结果后处理。本发明提供的基于多模态特征融合的双时相遥感影像语义变化检测方法,可以在检测出变化区域的同时检测出区域变化前后的类别,应用范围更广泛,同时满足端到端处理,不需要人工进行其他处理,便于工程应用。

Description

基于多模态特征融合的双时相遥感影像语义变化检测方法
发明领域
本发明属于遥感图像处理领域,涉及计算机深度学习领域,具体涉及一种基于多模态特征融合的双时相遥感影像语义变化检测方法。
背景技术
自然环境演变与人类行为的相互作用导致地球表面无时无刻不在发生着变化。对地表覆盖变化的及时发现以及周期性关注,对于人与自然和谐相处有着重要意义。基于遥感影像的地表变化检测是实现地表观测的重要途经和手段。随着近些年来高精度传感器技术和无人机、航拍技术的快速发展,遥感图像的空间分辨率越来越高,图像的地物特征越来越精细,数据量越来越大。随着深度学习技术以及计算机视觉分析能力的提升,利用深度学习的高层次特征提取能力进行遥感影像变化检测任务成为一种高效可行的方案。
目前,主流的利用深度学习进行遥感影像变化检测的方法只能检测出像素点是否发生变化,属于二分类问题,并不能检测出变化前后像素点分别属于什么类别。这种需要检测出由某一类别变化为另一类别的变化检测任务,一般常用的方法是先对T1时相和T2时相进行语义分割分类,然后再进行类后变化检测,但是有些数据集的标签数据只标注了变化部分,因此这种先分类再做变化检测的技术路线无法实现。
发明内容
本发明要解决的技术问题在于针对上述方法的不足,提出了一个基于多模态特征融合的双时相遥感影像语义变化检测方法,在检测出变化像素的同时,检测出像素变化前后所属类别。
为解决上述问题,本发明方法主要包括以下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理,数据集包括训练集、验证集和测试集;
步骤2,构建基于多模态特征融合的双时相遥感影像语义变化检测模型,使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型;
步骤3,使用步骤2得到的模型对步骤1中的训练集进行数据清除;
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型;再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果;
步骤5,对步骤4得到的预测结果进行后处理。
进一步的,所述预处理包括,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
进一步的,步骤2的具体实现方式如下,
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成,将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j,其中,i=1,2;j=2,3,4,5;
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图;
步骤2.3,构建变化区域以及类别检测网络Decoder,Decoder结构由多组CSA、GA和FM模块交替组成,其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,由通道注意力和空间注意力组成;GA模块用于提取全局信息捕获全局上下文特征,由最大池化和平均池化组成;FM模块主要负责融合底层特征、高层特征以及全局特征,由多重卷积和上采样组成;
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图;
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图;
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型。
进一步的,步骤3进一步包括:
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于一定阈值的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
进一步的,步骤4进一步包括:
利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型,再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果。
进一步的,步骤5进一步包括:
采用步骤4中重新训练模型得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
与现有技术相比,本发明的优点和有益效果如下:
1.本发明可以检测出多个时相的类别变化关系:现有技术只能检测出哪些区域发生了变化,并不能检测出变化前后的具体类别,但是本发明通过分别对不同时相的图像进行多类别语义分割,再进行变化检测,可以捕捉多个时相的类别变化关系。
2.本发明可以直接预测变化区域及变化类别:现有技术先进行不同时相的语义分割,利用不同时相的分割结果得到变化区域二值图,再将分割结果与二值图相乘得到变化区域,在语义分割时的误差一直传播到了最后的结果中,但是本发明分开进行多类别预测和二值图预测,然后将多类别检测结果和二值图检测结果相乘,避免了误差传播。
附图说明
图1是本发明提出的基于多模态特征融合的双时相遥感影像语义变化检测方法的深度学习网络框架图。
图2是本发明提出的注意力机制模块结构图。
图3是本发明提出的高层特征提取模块结构图。
图4是本发明提出的特征融合模块结构图。
具体实施方式
下面结合附图对本发明作进一步的说明。
如图1所示,本发明提出了一种基于多模态特征融合的双时相遥感影像语义变化检测方法,包括以下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理。
数据集包括训练集、验证集和测试集,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
步骤2,构建基于多模态特征融合的双时相遥感影像语义变化检测模型。使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型。
具体的,步骤2进一步包括:
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成。将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j(其中,i=1,2;j=2,3,4,5)。
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,记作Mt1_j-Mt2_j(j=2,3,4,5),并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图。
步骤2.3,构建变化区域以及类别检测网络Decoder。Decoder结构由多组CSA、GA和FM模块交替组成。其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,结构如图2所示,由通道注意力和空间注意力组成,输入特征图首先经过通道注意力,接着经过空间注意力得到输出,具体的输入和输出将在步骤2.4说明;GA模块用于提取全局信息捕获全局上下文特征,结构如图3所示,由最大池化和平均池化组成,输入特征图分别经过最大池化和平均池化,然后再串联起来得到输出,将该输出称作全局特征图,具体的输入和输出将在步骤2.4说明;FM模块主要负责融合底层特征、高层特征以及全局特征,结构如图4所示,由多重卷积和上采样组成,图4中fh代表高层特征图,fl代表低层特征图,fg代表全局特征图,fo代表输出特征图,这里的高层特征和低层特征是相对的,如果输入是第二和第三层,那么第二层就是低层,第三层就是高层,如果输入是第三和第四,那么第三就是低层,第四就是高层。输入fh经过两层卷积和上采样,输入fl经过一层卷积,输入fg经过一层卷积和上采样,然后将处理后的fh、fl和fg串联起来经过卷积得到输出fo,具体的输入和输出将在步骤2.4说明。
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图。
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图。
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型。
步骤3,对步骤1中的训练集进行数据清除。数据集有标注错误,具体的错误类型有双时相变化标签标反、A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C。
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于0.25的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型。再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果。
步骤5,对步骤4得到的预测结果进行后处理。
步骤2.5中获取的多分类变化图包括较多的误检区域,而步骤2.2中获取的二分类变化图检测错误相比少一些,因此采用步骤4中重新训练模型时得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于,包括如下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理,数据集包括训练集、验证集和测试集;
步骤2,构建基于多模态特征融合的双时相遥感影像语义变化检测模型,使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型;
步骤3,使用步骤2得到的模型对步骤1中的训练集进行数据清除;
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型;再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果;
步骤5,对步骤4得到的预测结果进行后处理。
2.根据权利要求书1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:所述预处理包括,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
3.根据权利要求书1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:步骤2的具体实现方式如下,
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成,将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j,其中,i=1,2;j=2,3,4,5;
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图;
步骤2.3,构建变化区域以及类别检测网络Decoder,Decoder结构由多组CSA、GA和FM模块交替组成,其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,由通道注意力和空间注意力组成;GA模块用于提取全局信息捕获全局上下文特征,由最大池化和平均池化组成;FM模块主要负责融合底层特征、高层特征以及全局特征,由多重卷积和上采样组成;
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图;
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图;
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型。
4.根据权利要求书1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:步骤3进一步包括:
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于一定阈值的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
5.根据权利要求书1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:步骤4进一步包括:
利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型,再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果。
6.根据权利要求书1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:步骤5进一步包括:
采用步骤4中重新训练模型得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
CN202011451412.9A 2020-12-10 2020-12-10 基于多模态特征融合的双时相遥感影像语义变化检测方法 Active CN112488025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011451412.9A CN112488025B (zh) 2020-12-10 2020-12-10 基于多模态特征融合的双时相遥感影像语义变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011451412.9A CN112488025B (zh) 2020-12-10 2020-12-10 基于多模态特征融合的双时相遥感影像语义变化检测方法

Publications (2)

Publication Number Publication Date
CN112488025A true CN112488025A (zh) 2021-03-12
CN112488025B CN112488025B (zh) 2022-06-14

Family

ID=74941418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011451412.9A Active CN112488025B (zh) 2020-12-10 2020-12-10 基于多模态特征融合的双时相遥感影像语义变化检测方法

Country Status (1)

Country Link
CN (1) CN112488025B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818966A (zh) * 2021-04-16 2021-05-18 武汉光谷信息技术股份有限公司 多模态遥感影像数据检测方法及系统
CN113269237A (zh) * 2021-05-10 2021-08-17 青岛理工大学 基于注意力机制的装配体变化检测方法、设备和介质
CN113298056A (zh) * 2021-07-27 2021-08-24 自然资源部国土卫星遥感应用中心 多模态遥感影像变化检测方法、模型生成方法和终端设备
CN114821350A (zh) * 2022-03-17 2022-07-29 西北工业大学 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法
CN116012364A (zh) * 2023-01-28 2023-04-25 北京建筑大学 Sar图像变化检测方法和装置
CN116363521A (zh) * 2023-06-02 2023-06-30 山东科技大学 一种遥感影像语义预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426158A (zh) * 2012-05-17 2013-12-04 中国科学院电子学研究所 两时相遥感图像变化检测的方法
CN108446588A (zh) * 2018-02-05 2018-08-24 中国测绘科学研究院 一种双时相遥感影像变化检测方法及系统
CN110136170A (zh) * 2019-05-13 2019-08-16 武汉大学 一种基于卷积神经网络的遥感影像建筑物变化检测方法
US20200117959A1 (en) * 2018-10-10 2020-04-16 Ordnance Survey Limited Object-based Convolutional Neural Network for Land Use Classification
CN111126127A (zh) * 2019-10-23 2020-05-08 武汉大学 一种多级空间上下文特征指导的高分辨率遥感影像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426158A (zh) * 2012-05-17 2013-12-04 中国科学院电子学研究所 两时相遥感图像变化检测的方法
CN108446588A (zh) * 2018-02-05 2018-08-24 中国测绘科学研究院 一种双时相遥感影像变化检测方法及系统
US20200117959A1 (en) * 2018-10-10 2020-04-16 Ordnance Survey Limited Object-based Convolutional Neural Network for Land Use Classification
CN110136170A (zh) * 2019-05-13 2019-08-16 武汉大学 一种基于卷积神经网络的遥感影像建筑物变化检测方法
CN111126127A (zh) * 2019-10-23 2020-05-08 武汉大学 一种多级空间上下文特征指导的高分辨率遥感影像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
上官博屹、刘威、乐鹏、王密、江昊、颜哲人: "一种面向空间信息网络的星地协同计算迁移方法", 《武汉大学学报(信息科学版)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818966A (zh) * 2021-04-16 2021-05-18 武汉光谷信息技术股份有限公司 多模态遥感影像数据检测方法及系统
CN113269237A (zh) * 2021-05-10 2021-08-17 青岛理工大学 基于注意力机制的装配体变化检测方法、设备和介质
CN113269237B (zh) * 2021-05-10 2022-12-27 青岛理工大学 基于注意力机制的装配体变化检测方法、设备和介质
CN113298056A (zh) * 2021-07-27 2021-08-24 自然资源部国土卫星遥感应用中心 多模态遥感影像变化检测方法、模型生成方法和终端设备
CN114821350A (zh) * 2022-03-17 2022-07-29 西北工业大学 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法
CN114821350B (zh) * 2022-03-17 2024-02-27 西北工业大学 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法
CN116012364A (zh) * 2023-01-28 2023-04-25 北京建筑大学 Sar图像变化检测方法和装置
CN116012364B (zh) * 2023-01-28 2024-01-16 北京建筑大学 Sar图像变化检测方法和装置
CN116363521A (zh) * 2023-06-02 2023-06-30 山东科技大学 一种遥感影像语义预测方法
CN116363521B (zh) * 2023-06-02 2023-08-18 山东科技大学 一种遥感影像语义预测方法

Also Published As

Publication number Publication date
CN112488025B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN112488025B (zh) 基于多模态特征融合的双时相遥感影像语义变化检测方法
Sony et al. A systematic review of convolutional neural network-based structural condition assessment techniques
CN112070779B (zh) 一种基于卷积神经网络弱监督学习的遥感影像道路分割方法
CN114120102A (zh) 边界优化的遥感图像语义分割方法、装置、设备及介质
CN112308860B (zh) 基于自监督学习的对地观测图像语义分割方法
CN108334936B (zh) 基于迁移卷积神经网络的故障预测方法
CN112381097A (zh) 一种基于深度学习的场景语义分割方法
CN104299006A (zh) 一种基于深度神经网络的车牌识别方法
CN107423747A (zh) 一种基于深度卷积网络的显著性目标检测方法
CN112434723B (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN113255837A (zh) 工业环境下基于改进的CenterNet网络目标检测方法
CN116797787B (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN114638794A (zh) 基于深度学习和slam技术的裂缝检测与三维定位方法
CN111882620A (zh) 一种基于多尺度信息道路可行驶区域分割方法
CN115063786A (zh) 一种高位远景模糊车牌检测方法
CN111626357B (zh) 一种基于神经网络模型的图像识别方法
CN112991364A (zh) 基于卷积神经网络跨模态融合的道路场景语义分割方法
CN114359631A (zh) 基于编码-译码弱监督网络模型的目标分类与定位方法
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
CN112597996B (zh) 基于任务驱动的自然场景中交通标志显著性检测方法
Chu et al. Deep learning method to detect the road cracks and potholes for smart cities
Meng et al. A modified fully convolutional network for crack damage identification compared with conventional methods
CN116883650A (zh) 一种基于注意力和局部拼接的图像级弱监督语义分割方法
CN111160282A (zh) 一种基于二值化Yolov3网络的红绿灯检测方法
CN116189130A (zh) 基于图像标注模型的车道线分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant