CN112488025B - 基于多模态特征融合的双时相遥感影像语义变化检测方法 - Google Patents
基于多模态特征融合的双时相遥感影像语义变化检测方法 Download PDFInfo
- Publication number
- CN112488025B CN112488025B CN202011451412.9A CN202011451412A CN112488025B CN 112488025 B CN112488025 B CN 112488025B CN 202011451412 A CN202011451412 A CN 202011451412A CN 112488025 B CN112488025 B CN 112488025B
- Authority
- CN
- China
- Prior art keywords
- change
- layer
- module
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Biodiversity & Conservation Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多模态特征融合的双时相遥感影像语义变化检测方法,包括以下几个步骤:步骤A:对多时相遥感影像数据集进行数据增强的预处理;步骤B:构建基于多模态特征融合的卷积神经网络模型,利用数据集训练卷积神经网络,获得训练模型;步骤C:利用训练模型对数据集进行数据清理;步骤D:利用清理后的数据重新训练模型,并对测试数据进行测试得到预测结果;步骤E:变化检测预测结果后处理。本发明提供的基于多模态特征融合的双时相遥感影像语义变化检测方法,可以在检测出变化区域的同时检测出区域变化前后的类别,应用范围更广泛,同时满足端到端处理,不需要人工进行其他处理,便于工程应用。
Description
发明领域
本发明属于遥感图像处理领域,涉及计算机深度学习领域,具体涉及一种基于多模态特征融合的双时相遥感影像语义变化检测方法。
背景技术
自然环境演变与人类行为的相互作用导致地球表面无时无刻不在发生着变化。对地表覆盖变化的及时发现以及周期性关注,对于人与自然和谐相处有着重要意义。基于遥感影像的地表变化检测是实现地表观测的重要途经和手段。随着近些年来高精度传感器技术和无人机、航拍技术的快速发展,遥感图像的空间分辨率越来越高,图像的地物特征越来越精细,数据量越来越大。随着深度学习技术以及计算机视觉分析能力的提升,利用深度学习的高层次特征提取能力进行遥感影像变化检测任务成为一种高效可行的方案。
目前,主流的利用深度学习进行遥感影像变化检测的方法只能检测出像素点是否发生变化,属于二分类问题,并不能检测出变化前后像素点分别属于什么类别。这种需要检测出由某一类别变化为另一类别的变化检测任务,一般常用的方法是先对T1时相和T2时相进行语义分割分类,然后再进行类后变化检测,但是有些数据集的标签数据只标注了变化部分,因此这种先分类再做变化检测的技术路线无法实现。
发明内容
本发明要解决的技术问题在于针对上述方法的不足,提出了一个基于多模态特征融合的双时相遥感影像语义变化检测方法,在检测出变化像素的同时,检测出像素变化前后所属类别。
为解决上述问题,本发明方法主要包括以下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理,数据集包括训练集、验证集和测试集;
步骤2,构建基于多模态特征融合的双时相遥感影像语义变化检测模型,使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型;
步骤3,使用步骤2得到的模型对步骤1中的训练集进行数据清除;
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型;再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果;
步骤5,对步骤4得到的预测结果进行后处理。
进一步的,所述预处理包括,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
进一步的,步骤2的具体实现方式如下,
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成,将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j,其中,i=1,2;j=2,3,4,5;
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图;
步骤2.3,构建变化区域以及类别检测网络Decoder,Decoder结构由多组CSA、GA和FM模块交替组成,其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,由通道注意力和空间注意力组成;GA模块用于提取全局信息捕获全局上下文特征,由最大池化和平均池化组成;FM模块主要负责融合底层特征、高层特征以及全局特征,由多重卷积和上采样组成;
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图;
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图;
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型。
进一步的,步骤3进一步包括:
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于一定阈值的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
进一步的,步骤4进一步包括:
利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型,再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果。
进一步的,步骤5进一步包括:
采用步骤4中重新训练模型得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
与现有技术相比,本发明的优点和有益效果如下:
1.本发明可以检测出多个时相的类别变化关系:现有技术只能检测出哪些区域发生了变化,并不能检测出变化前后的具体类别,但是本发明通过分别对不同时相的图像进行多类别语义分割,再进行变化检测,可以捕捉多个时相的类别变化关系。
2.本发明可以直接预测变化区域及变化类别:现有技术先进行不同时相的语义分割,利用不同时相的分割结果得到变化区域二值图,再将分割结果与二值图相乘得到变化区域,在语义分割时的误差一直传播到了最后的结果中,但是本发明分开进行多类别预测和二值图预测,然后将多类别检测结果和二值图检测结果相乘,避免了误差传播。
附图说明
图1是本发明提出的基于多模态特征融合的双时相遥感影像语义变化检测方法的深度学习网络框架图。
图2是本发明提出的注意力机制模块结构图。
图3是本发明提出的高层特征提取模块结构图。
图4是本发明提出的特征融合模块结构图。
具体实施方式
下面结合附图对本发明作进一步的说明。
如图1所示,本发明提出了一种基于多模态特征融合的双时相遥感影像语义变化检测方法,包括以下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理。
数据集包括训练集、验证集和测试集,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
步骤2,构建基于多模态特征融合的双时相遥感影像语义变化检测模型。使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型。
具体的,步骤2进一步包括:
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成。将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j(其中,i=1,2;j=2,3,4,5)。
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,记作Mt1_j-Mt2_j(j=2,3,4,5),并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图。
步骤2.3,构建变化区域以及类别检测网络Decoder。Decoder结构由多组CSA、GA和FM模块交替组成。其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,结构如图2所示,由通道注意力和空间注意力组成,输入特征图首先经过通道注意力,接着经过空间注意力得到输出,具体的输入和输出将在步骤2.4说明;GA模块用于提取全局信息捕获全局上下文特征,结构如图3所示,由最大池化和平均池化组成,输入特征图分别经过最大池化和平均池化,然后再串联起来得到输出,将该输出称作全局特征图,具体的输入和输出将在步骤2.4说明;FM模块主要负责融合底层特征、高层特征以及全局特征,结构如图4所示,由多重卷积和上采样组成,图4中fh代表高层特征图,fl代表低层特征图,fg代表全局特征图,fo代表输出特征图,这里的高层特征和低层特征是相对的,如果输入是第二和第三层,那么第二层就是低层,第三层就是高层,如果输入是第三和第四,那么第三就是低层,第四就是高层。输入fh经过两层卷积和上采样,输入fl经过一层卷积,输入fg经过一层卷积和上采样,然后将处理后的fh、fl和fg串联起来经过卷积得到输出fo,具体的输入和输出将在步骤2.4说明。
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图。
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图。
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型。
步骤3,对步骤1中的训练集进行数据清除。数据集有标注错误,具体的错误类型有双时相变化标签标反、A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C。
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于0.25的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型。再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果。
步骤5,对步骤4得到的预测结果进行后处理。
步骤2.5中获取的多分类变化图包括较多的误检区域,而步骤2.2中获取的二分类变化图检测错误相比少一些,因此采用步骤4中重新训练模型时得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (3)
1.一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于,包括如下步骤:
步骤1,对多时相遥感影像变化检测数据集进行预处理,数据集包括训练集、验证集和测试集;
步骤2, 构建基于多模态特征融合的双时相遥感影像语义变化检测模型,使用步骤1中得到的训练集和验证集分别对变化检测模型进行训练和验证,输出训练后的模型;
步骤2的具体实现方式如下,
步骤2.1,构建一个原始影像高维特征提取网络Encoder,该网络由ResNet系列网络的五个阶段组成,将两个不同时相的影像分别输入该网络中,每张原始影像获得四组高维特征,分别来自第二、三、四、五层提取出的特征,记作Mti_j,其中,i=1,2; j=2,3,4,5;
步骤2.2,将步骤2.1中提取出的每一层的两个时相的特征图对应位置像素值相减,并对第三、四、五层相减后的特征分别进行2、4、8倍上采样,将第二层的特征与上采样后的特征融合起来得到T1时相特征图和T2时相特征图变化区域的二值图,即二分类变化图;
步骤2.3,构建变化区域以及类别检测网络Decoder,Decoder结构由多组CSA、GA和FM模块交替组成,其中CSA模块采用CBAM对高层特征进行降维,减少计算量并加强特征表达能力,由通道注意力和空间注意力组成;GA模块用于提取全局信息捕获全局上下文特征,由最大池化和平均池化组成;FM模块主要负责融合底层特征、高层特征以及全局特征,由多重卷积和上采样组成;
步骤2.4,针对步骤2.1中获得两个不同时相的四组高维特征,将第五层特征输入步骤2.3中的GA模块和CSA模块,与第四层特征一起输入FM模块,得到融合后的第四、五层特征;将融合后的第四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第三层特征一起输入FM模块,得到融合后的第三、四、五层特征;将融合后的第三、四、五层特征输入到CSA模块,和经过GA模块后的第五层特征,以及第二层特征一起输入FM模块,得到融合后的第二、三、四、五层特征,最后分别得到T1和T2时相的特征图;
步骤2.5,将步骤2.4中得到的T1和T2时相的特征图进行拼接,然后输入ASPP模块,扩大感受野,分别预测T1和T2时相的多分类结果,得到掩膜影像,即多分类变化图;
步骤2.6,计算步骤2.5中预测得到的掩膜影像与人工标记得到的掩膜影像之间的损失,根据损失对梯度进行反向传播更新卷积神经网络的权重,重复该过程直到模型收敛,输出最终得到的收敛模型;
步骤3,使用步骤2得到的模型对步骤1中的训练集进行数据清除;
步骤4,利用步骤3得到的训练集重新训练步骤2中的变化检测模型,得到最终的模型;再将步骤1中的测试集输入到模型中,通过一次前馈过程得到对应测试集的网络预测结果;
步骤5,对步骤4得到的预测结果进行后处理,包括:采用步骤4中重新训练模型得到的二分类变化图与多分类变化图相乘,去除一部分误检区域,得到最终的变化区域及其类别的预测结果。
2.根据权利要求1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:所述预处理包括,对训练集使用随机放大裁剪、随机旋转以及随机垂直翻转的方式对数据进行数据增强,扩大数据集,并且还将T1、T2时相的影像进行对调,来进一步提高数据量,增强网络泛化能力。
3.根据权利要求1所述的一种基于多模态特征融合的双时相遥感影像语义变化检测方法,其特征在于:步骤3进一步包括:
使用步骤2输出的模型对步骤1中的训练集进行预测,通过预测影像与标签的mIOU分数作为评价指标,对mIOU分数小于一定阈值的影像进行人工判读,将在标签数据上双时相前后标签相反的数据替换过来,将出现A-A变化标记为A-B、A-A变化标记为B-C、A-B变化标记为未变化以及A-B变化标记为A-C的数据从训练集中剔除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451412.9A CN112488025B (zh) | 2020-12-10 | 2020-12-10 | 基于多模态特征融合的双时相遥感影像语义变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451412.9A CN112488025B (zh) | 2020-12-10 | 2020-12-10 | 基于多模态特征融合的双时相遥感影像语义变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112488025A CN112488025A (zh) | 2021-03-12 |
CN112488025B true CN112488025B (zh) | 2022-06-14 |
Family
ID=74941418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011451412.9A Active CN112488025B (zh) | 2020-12-10 | 2020-12-10 | 基于多模态特征融合的双时相遥感影像语义变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488025B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818966B (zh) * | 2021-04-16 | 2021-07-30 | 武汉光谷信息技术股份有限公司 | 多模态遥感影像数据检测方法及系统 |
CN113269237B (zh) * | 2021-05-10 | 2022-12-27 | 青岛理工大学 | 基于注意力机制的装配体变化检测方法、设备和介质 |
CN113298056A (zh) * | 2021-07-27 | 2021-08-24 | 自然资源部国土卫星遥感应用中心 | 多模态遥感影像变化检测方法、模型生成方法和终端设备 |
CN114821350B (zh) * | 2022-03-17 | 2024-02-27 | 西北工业大学 | 多阶段信息融合的高分辨率遥感图像建筑物变化检测方法 |
CN115035334B (zh) * | 2022-06-07 | 2024-09-06 | 西北大学 | 多尺度融合双时相遥感图像的多分类变化检测方法及系统 |
CN116012364B (zh) * | 2023-01-28 | 2024-01-16 | 北京建筑大学 | Sar图像变化检测方法和装置 |
CN116363521B (zh) * | 2023-06-02 | 2023-08-18 | 山东科技大学 | 一种遥感影像语义预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426158A (zh) * | 2012-05-17 | 2013-12-04 | 中国科学院电子学研究所 | 两时相遥感图像变化检测的方法 |
CN108446588A (zh) * | 2018-02-05 | 2018-08-24 | 中国测绘科学研究院 | 一种双时相遥感影像变化检测方法及系统 |
CN110136170A (zh) * | 2019-05-13 | 2019-08-16 | 武汉大学 | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 |
CN111126127A (zh) * | 2019-10-23 | 2020-05-08 | 武汉大学 | 一种多级空间上下文特征指导的高分辨率遥感影像分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10922589B2 (en) * | 2018-10-10 | 2021-02-16 | Ordnance Survey Limited | Object-based convolutional neural network for land use classification |
-
2020
- 2020-12-10 CN CN202011451412.9A patent/CN112488025B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426158A (zh) * | 2012-05-17 | 2013-12-04 | 中国科学院电子学研究所 | 两时相遥感图像变化检测的方法 |
CN108446588A (zh) * | 2018-02-05 | 2018-08-24 | 中国测绘科学研究院 | 一种双时相遥感影像变化检测方法及系统 |
CN110136170A (zh) * | 2019-05-13 | 2019-08-16 | 武汉大学 | 一种基于卷积神经网络的遥感影像建筑物变化检测方法 |
CN111126127A (zh) * | 2019-10-23 | 2020-05-08 | 武汉大学 | 一种多级空间上下文特征指导的高分辨率遥感影像分类方法 |
Non-Patent Citations (1)
Title |
---|
一种面向空间信息网络的星地协同计算迁移方法;上官博屹、刘威、乐鹏、王密、江昊、颜哲人;《武汉大学学报(信息科学版)》;20190305;第44卷;第459-466页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112488025A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112488025B (zh) | 基于多模态特征融合的双时相遥感影像语义变化检测方法 | |
Sony et al. | A systematic review of convolutional neural network-based structural condition assessment techniques | |
CN112070779B (zh) | 一种基于卷积神经网络弱监督学习的遥感影像道路分割方法 | |
CN112308860B (zh) | 基于自监督学习的对地观测图像语义分割方法 | |
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
CN110889449A (zh) | 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法 | |
CN111882620B (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN112381097A (zh) | 一种基于深度学习的场景语义分割方法 | |
CN113177560A (zh) | 一种普适性轻量级深度学习车辆检测方法 | |
CN104299006A (zh) | 一种基于深度神经网络的车牌识别方法 | |
CN116797787B (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
CN112434723B (zh) | 一种基于注意力网络的日/夜间图像分类及物体检测方法 | |
CN109543672B (zh) | 基于稠密特征金字塔网络的物体检测方法 | |
CN115393714A (zh) | 一种融合图论推理的输电线路螺栓缺销钉检测方法 | |
CN116883650A (zh) | 一种基于注意力和局部拼接的图像级弱监督语义分割方法 | |
Chu et al. | Deep learning method to detect the road cracks and potholes for smart cities | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN112597996B (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
CN117726954A (zh) | 一种遥感图像海陆分割方法及系统 | |
Meng et al. | A modified fully convolutional network for crack damage identification compared with conventional methods | |
CN117351194A (zh) | 基于互补图推理网络的涂鸦式弱监督显著性目标检测方法 | |
CN117274355A (zh) | 一种基于加速引导区域卷积神经网络和并行多尺度统一网络的排水管道流量智能测量方法 | |
CN111915621B (zh) | 一种融合深度神经网络与cv模型的污损图像分割方法 | |
Yang et al. | UAV Landmark Detection Based on Convolutional Neural Network | |
Zhang et al. | Road segmentation using point cloud BEV based on fully convolution network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |