CN110853026A - 一种融合深度学习与区域分割的遥感影像变化检测方法 - Google Patents

一种融合深度学习与区域分割的遥感影像变化检测方法 Download PDF

Info

Publication number
CN110853026A
CN110853026A CN201911123130.3A CN201911123130A CN110853026A CN 110853026 A CN110853026 A CN 110853026A CN 201911123130 A CN201911123130 A CN 201911123130A CN 110853026 A CN110853026 A CN 110853026A
Authority
CN
China
Prior art keywords
image
time phase
remote sensing
region
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911123130.3A
Other languages
English (en)
Other versions
CN110853026B (zh
Inventor
单森华
戴诗琪
吴闽帆
陈佳佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Four Creation Technology Ltd Co
Original Assignee
Four Creation Technology Ltd Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Four Creation Technology Ltd Co filed Critical Four Creation Technology Ltd Co
Priority to CN201911123130.3A priority Critical patent/CN110853026B/zh
Publication of CN110853026A publication Critical patent/CN110853026A/zh
Application granted granted Critical
Publication of CN110853026B publication Critical patent/CN110853026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合深度学习与区域分割的遥感影像变化检测方法,包括以下步骤:1)对前、后时相的两幅遥感影像进行自动配准;2)对前后时相影像进行分块裁切,得到前时相影像集和后时相影像集;3)分别对前、后时相影像集的每块影像的每个像素进行地物分类;4)分别对前、后时相影像集进行区域分割;5)融合分类图和分割图;6)对前、后时相影像集的分类图集分别按坐标信息拼接回原影像尺寸,形成前时相影像的最终分类图和后时相影像的最终分类图;7)按地物类别对两幅影像和分别进行差值处理,得到变化的区域;8)去掉细小区域,过滤掉过小的变化,并对边缘进行平滑处理,得到变化检测结果。该方法有利于提高遥感影像变化检测的精度。

Description

一种融合深度学习与区域分割的遥感影像变化检测方法
技术领域
本发明涉及遥感影像处理技术领域,具体涉及一种融合深度学习与区域分割的遥感影像变化检测方法。
背景技术
地球表面的地物分布随着人类的生产活动和自然生态变化而不断改变,这些变化信息对生态保护、环境治理、应急管理、城市建设规划等都有着重要的指导意义。随着航天航空遥感技术的飞速发展,影像分辨率大大提高,遥感影像变化检测也成为遥感影像处理领域的研究热点。传统的遥感影像变化检测方法主要为基于像素的分析,应用场景比较简单,仅适用于较低分辨率的遥感影像,因此针对高分辨率遥感影像的变化检测研究具有重要的研究意义和实用价值。
现有的遥感影像变化检测技术主要分为直接检测法和分类后检测法。直接检测法包括差值法、比值法、主成分分析法等,通过直接比较前后时相的遥感影像中的像元值找出变化的区域,这类方法容易受噪声影响,再加上遥感影像相同地物不同时相的光谱响应差异较大,容易造成误检,检测精度有限。分类后检测法对前后时相的遥感影像先进行地物分类,然后再比较分类结果得出变化信息,这类方法依赖于地物分类的精度以及前后分类标准的一致性。目前的遥感影像分类方法主要包括基于像素的方法和基于对象的方法,其中基于像素的方法以单个像元为处理单元,只利用到了影像的光谱信息特征,丰富的空间信息利用率几乎为零,基于对象的方法的处理单元是一个个影像对象,较之基于像素的方法包含了地物的多种特征,包括光谱特征、结构特征和上下文特征等,但这类方法非常依赖于分割算法的效果,当前流行的分割算法普遍需要人工不断调整尺度参数,过分割和欠分割都将直接影响检测结果的精度。近年来,深度学习在自然图像处理上取得的巨大进步,基于深度学习的遥感影像分类方法也层出不穷,通过深度网络可以提取遥感影像的高层语义特征,鲁棒性更高,但边界像素分类易受到干扰,难以保证精准的边界。
发明内容
本发明的目的在于提供一种融合深度学习与区域分割的遥感影像变化检测方法,该方法有利于提高遥感影像变化检测的精度。
为了实现上述目的,本发明采用的技术方案是:一种融合深度学习与区域分割的遥感影像变化检测方法,包括以下步骤:
1)对前、后时相的两幅遥感影像进行自动配准;
2)根据设定尺寸分别对前后时相影像进行分块裁切,按坐标位置顺序存储为前时相影像集和后时相影像集;
3)使用u-net语义分割网络分别对前、后时相影像集的每块影像的每个像素进行地物分类,分为水体、绿植、建筑和其它四个类别,单块影像的分类图记为Icls
4)采用meanshift算法分别对前、后时相影像集进行初始分割,形成若干个初始区域,然后采用自底向上的层次区域合并对初始区域进行逐步合并,形成最终的区域分割图,单块影像的分割图记为Iseg
5)融合分类图Icls和分割图Iseg,对Iseg中的每个区域ri,计算对应分类图Icls的属于每个类别的像素个数,将个数最多的那个类别标签赋予该区域的所有像素,进一步修正分类图的边界;
6)对前、后时相影像集的分类图集分别按坐标信息拼接回原影像尺寸,形成前时相影像的最终分类图Ibefore和后时相影像的最终分类图Iafter
7)按地物类别对两幅影像Ibefore和Iafter分别进行差值处理,得到水体增加、水体减少、绿植增加、绿植减少、建筑增加和建筑减少的变化的区域;
8)使用图像处理技术去掉细小区域,过滤掉过小的变化,并对边缘进行平滑处理,从而得到最终变化检测结果。
进一步地,所述步骤1)中,对前、后时相的两幅遥感影像进行自动配准的具体方法为:
使用ENVI平台的Image to Image算法对前、后时相的两幅遥感影像进行自动配准,以前时相影像的一个波段作为基准影像,选择设定的波段,以后时相影像作为矫正影像,选择与基准影像相同的波段,基于区域灰度匹配方法产生匹配点,根据多对匹配点建立变换关系,对矫正影像进行空间坐标变换,最后采用双线性差值法确定各像素灰度值。
进一步地,所述步骤3)中,所述u-net语义分割网络由收缩路径和扩展路径两部分组成,收缩路径的基本结构是每两个3*3的卷积层之后接一个2*2的最大池化层,收缩路径总共包含四个基本结构,即输入H*W的原图将被下采样为H/16*W/16的特征图,扩展路径的基本结构为一个2*2的反卷积层之后接两个3*3的卷积层,扩展路径也包含四个基本结构,与收缩路径相对应,在每一步反卷积之后都与收缩路径对应的特征图进行拼接,以最大保留降采样过程中的重要特征信息,最后在网络末尾接1*1的卷积层将特征向量的通道数转换为类别数;
利用已标注好的GID数据集训练u-net语义分割网络,形成地物分类模型,然后使用地物分类模型分别对前、后时相影像集的每块影像的每个像素进行地物分类,得到以单块影像为单位的分类图,单块影像的分类图记为Icls
进一步地,所述步骤4)中,采用自底向上的层次区域合并对初始区域进行逐步合并,合并依据相邻区域的光谱特征和形状特征是否足够相近,计算公式为:
f=ω·hcolor+(1-ω)·hshape
其中,f表示总体差异性,hcolor表示两个区域p、q在颜色上的差异性,hshape表示两个区域p、q在形状上的差异性,ω表示颜色差异性占总体差异性的权重,颜色差异性与形状差异性的权重之和等于1,其中:
Figure BDA0002276000360000031
其中,c表示通道,n表示区域的面积,m表示合并后的区域,σ表示通道上的像元值方差,ωc表示各个通道所占的权重;
hshape=ωcompact·hcompact+(1-ωcompact)·hsmooth
形状差异性包含紧致度和平滑度两个因子,ωcompact表示紧致度在计算中所占的权重,紧致度计算公式为:
Figure BDA0002276000360000032
其中,l表示区域的周长,平滑度计算公式为:
Figure BDA0002276000360000033
其中,b表示区域平行于图像边界的最小外接的矩形的周长;
当f小于设定阈值T时,区域p和区域q执行合并,否则不予合并,每次寻找整块影像中f值最小的两个相邻区域进行合并,如此进行t次迭代,完成整块影像的区域分割,形成最终的区域分割图,单块影像的分割图记为Iseg
进一步地,所述步骤8)中,得到变化检测结果后,使用不同的颜色分别表示不同的变化。
相较于现有技术,本发明具有以下有益效果:
1、使用分类后检测策略,不容易受到噪声的影响,对前后时相影像的数据源没有严格要求为相同数据源,在实际应用中更为有效。
2、使用语义分割网络提取并学习有效的抽象特征,对噪声具有更强的鲁棒性,能够处理同源或者异源的多时相遥感影像数据,减少伪变化,进一步提高变化检测精度。
3、融合深度学习分类算法和区域分割算法,弥补了语义分割网络产生的分类结果边界不准确的缺陷,进一步提高了分类的准确性,更利于后续的变化检测分析。
附图说明
图1是本发明实施例的实现流程图。
图2是本发明实施例中u-net语义分割网络的结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。
本发明提供了一种融合深度学习与区域分割的遥感影像变化检测方法,如图1所示,包括以下步骤:
1)对前、后时相的两幅遥感影像进行自动配准。具体方法为:
使用ENVI平台的Image to Image算法对前、后时相的两幅遥感影像进行自动配准,以前时相影像的一个波段作为基准影像,选择设定的波段,通常选噪声较小的红波段或近红外波段,以后时相影像作为矫正影像,选择与基准影像相同的波段,基于区域灰度匹配方法产生匹配点,根据多对匹配点建立变换关系,对矫正影像进行空间坐标变换,最后采用双线性差值法确定各像素灰度值。
2)根据设定尺寸(本实施例为512*512)分别对前后时相影像进行分块裁切,按坐标位置顺序存储为前时相影像集和后时相影像集。
3)使用u-net语义分割网络分别对前、后时相影像集的每块影像的每个像素进行地物分类,分为水体、绿植、建筑和其它四个类别,单块影像的分类图记为Icls。即给每个像素都分配一个类别标签,然后以每块影像为单位进行存储,形成一张分类图。
其中,如图2所示,所述u-net语义分割网络由收缩路径和扩展路径两部分组成,收缩路径的基本结构是每两个3*3的卷积层之后接一个2*2的最大池化层,收缩路径总共包含四个基本结构,即输入H*W的原图将被下采样为H/16*W/16的特征图,扩展路径的基本结构为一个2*2的反卷积层之后接两个3*3的卷积层,扩展路径也包含四个基本结构,与收缩路径相对应,在每一步反卷积之后都与收缩路径对应的特征图进行拼接,以最大保留降采样过程中的重要特征信息,最后在网络末尾接1*1的卷积层将特征向量的通道数转换为类别数;
利用已标注好的GID数据集训练u-net语义分割网络,形成地物分类模型,然后使用地物分类模型分别对前、后时相影像集的每块影像的每个像素进行地物分类,得到以单块影像为单位的分类图,单块影像的分类图记为Icls
4)采用meanshift算法分别对前、后时相影像集进行初始分割,形成若干个初始区域,然后采用自底向上的层次区域合并对初始区域进行逐步合并,形成最终的区域分割图,单块影像的分割图记为Iseg
其中,采用自底向上的层次区域合并对初始区域进行逐步合并,合并依据相邻区域的光谱特征和形状特征是否足够相近,计算公式为:
f=ω·hcolor+(1-ω)·hshape
其中,f表示总体差异性,hcolor表示两个区域p、q在颜色上的差异性,hshape表示两个区域p、q在形状上的差异性,ω表示颜色差异性占总体差异性的权重,颜色差异性与形状差异性的权重之和等于1,其中:
Figure BDA0002276000360000051
其中,c表示通道,n表示区域的面积,m表示合并后的区域,σ表示通道上的像元值方差,ωc表示各个通道所占的权重;
hshape=ωcompact·hcompact+(1-ωcompact)·hsmooth
形状差异性包含紧致度和平滑度两个因子,ωcompact表示紧致度在计算中所占的权重,紧致度计算公式为:
Figure BDA0002276000360000052
其中,l表示区域的周长,平滑度计算公式为:
Figure BDA0002276000360000061
其中,b表示区域平行于图像边界的最小外接的矩形的周长;
当f小于设定阈值T时,区域p和区域q执行合并,否则不予合并,每次寻找整块影像中f值最小的两个相邻区域进行合并,如此进行t次迭代,完成整块影像的区域分割,形成最终的区域分割图,单块影像的分割图记为Iseg
5)融合分类图Icls和分割图Iseg,对Iseg中的每个区域ri,计算对应分类图Icls的属于每个类别的像素个数,将个数最多的那个类别标签赋予该区域的所有像素,进一步修正分类图的边界。
6)对前、后时相影像集的分类图集分别按坐标信息拼接回原影像尺寸,形成前时相影像的最终分类图Ibefore和后时相影像的最终分类图Iafter
7)按地物类别对两幅影像Ibefore和Iafter分别进行差值处理,得到水体增加、水体减少、绿植增加、绿植减少、建筑增加和建筑减少的变化的区域。
8)使用图像处理技术去掉细小区域,过滤掉过小的变化,并对边缘进行平滑处理,从而得到变化检测结果。得到变化检测结果后,使用不同的颜色分别表示不同的变化。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (5)

1.一种融合深度学习与区域分割的遥感影像变化检测方法,其特征在于,包括以下步骤:
1)对前、后时相的两幅遥感影像进行自动配准;
2)根据设定尺寸分别对前后时相影像进行分块裁切,按坐标位置顺序存储为前时相影像集和后时相影像集;
3)使用u-net语义分割网络分别对前、后时相影像集的每块影像的每个像素进行地物分类,分为水体、绿植、建筑和其它四个类别,单块影像的分类图记为Icls
4)采用meanshift算法分别对前、后时相影像集进行初始分割,形成若干个初始区域,然后采用自底向上的层次区域合并对初始区域进行逐步合并,形成最终的区域分割图,单块影像的分割图记为Iseg
5)融合分类图Icls和分割图Iseg,对Iseg中的每个区域ri,计算对应分类图Icls的属于每个类别的像素个数,将个数最多的那个类别标签赋予该区域的所有像素,进一步修正分类图的边界;
6)对前、后时相影像集的分类图集分别按坐标信息拼接回原影像尺寸,形成前时相影像的最终分类图Ibefore和后时相影像的最终分类图Iafter
7)按地物类别对两幅影像Ibefore和Iafter分别进行差值处理,得到水体增加、水体减少、绿植增加、绿植减少、建筑增加和建筑减少的变化的区域;
8)使用图像处理技术去掉细小区域,过滤掉过小的变化,并对边缘进行平滑处理,从而得到最终变化检测结果。
2.根据权利要求1所述的一种融合深度学习与区域分割的遥感影像变化检测方法,其特征在于,所述步骤1)中,对前、后时相的两幅遥感影像进行自动配准的具体方法为:
使用ENVI平台的Image to Image算法对前、后时相的两幅遥感影像进行自动配准,以前时相影像的一个波段作为基准影像,选择设定的波段,以后时相影像作为矫正影像,选择与基准影像相同的波段,基于区域灰度匹配方法产生匹配点,根据多对匹配点建立变换关系,对矫正影像进行空间坐标变换,最后采用双线性差值法确定各像素灰度值。
3.根据权利要求1所述的一种融合深度学习与区域分割的遥感影像变化检测方法,其特征在于,所述步骤3)中,所述u-net语义分割网络由收缩路径和扩展路径两部分组成,收缩路径的基本结构是每两个3*3的卷积层之后接一个2*2的最大池化层,收缩路径总共包含四个基本结构,即输入H*W的原图将被下采样为H/16*W/16的特征图,扩展路径的基本结构为一个2*2的反卷积层之后接两个3*3的卷积层,扩展路径也包含四个基本结构,与收缩路径相对应,在每一步反卷积之后都与收缩路径对应的特征图进行拼接,以最大保留降采样过程中的重要特征信息,最后在网络末尾接1*1的卷积层将特征向量的通道数转换为类别数;
利用已标注好的GID数据集训练u-net语义分割网络,形成地物分类模型,然后使用地物分类模型分别对前、后时相影像集的每块影像的每个像素进行地物分类,得到以单块影像为单位的分类图,单块影像的分类图记为Icls
4.根据权利要求1所述的一种融合深度学习与区域分割的遥感影像变化检测方法,其特征在于,所述步骤4)中,采用自底向上的层次区域合并对初始区域进行逐步合并,合并依据相邻区域的光谱特征和形状特征是否足够相近,计算公式为:
f=ω·hcolor+(1-ω)·hshape
其中,f表示总体差异性,hcolor表示两个区域p、q在颜色上的差异性,hshape表示两个区域p、q在形状上的差异性,ω表示颜色差异性占总体差异性的权重,颜色差异性与形状差异性的权重之和等于1,其中:
Figure FDA0002276000350000021
其中,c表示通道,n表示区域的面积,m表示合并后的区域,σ表示通道上的像元值方差,ωc表示各个通道所占的权重;
hshape=ωcompact·hcompact+(1-ωcompact)·hsmooth
形状差异性包含紧致度和平滑度两个因子,ωcompact表示紧致度在计算中所占的权重,紧致度计算公式为:
Figure FDA0002276000350000022
其中,l表示区域的周长,平滑度计算公式为:
Figure FDA0002276000350000023
其中,b表示区域平行于图像边界的最小外接的矩形的周长;
当f小于设定阈值T时,区域p和区域q执行合并,否则不予合并,每次寻找整块影像中f值最小的两个相邻区域进行合并,如此进行t次迭代,完成整块影像的区域分割,形成最终的区域分割图,单块影像的分割图记为Iseg
5.根据权利要求1所述的一种融合深度学习与区域分割的遥感影像变化检测方法,其特征在于,所述步骤8)中,得到变化检测结果后,使用不同的颜色分别表示不同的变化。
CN201911123130.3A 2019-11-16 2019-11-16 一种融合深度学习与区域分割的遥感影像变化检测方法 Active CN110853026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911123130.3A CN110853026B (zh) 2019-11-16 2019-11-16 一种融合深度学习与区域分割的遥感影像变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911123130.3A CN110853026B (zh) 2019-11-16 2019-11-16 一种融合深度学习与区域分割的遥感影像变化检测方法

Publications (2)

Publication Number Publication Date
CN110853026A true CN110853026A (zh) 2020-02-28
CN110853026B CN110853026B (zh) 2023-04-07

Family

ID=69600590

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911123130.3A Active CN110853026B (zh) 2019-11-16 2019-11-16 一种融合深度学习与区域分割的遥感影像变化检测方法

Country Status (1)

Country Link
CN (1) CN110853026B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815627A (zh) * 2020-08-24 2020-10-23 成都睿沿科技有限公司 遥感图像变化检测方法、模型训练方法及对应装置
CN112233062A (zh) * 2020-09-10 2021-01-15 浙江大华技术股份有限公司 地物变化检测方法、电子装置和存储介质
CN112365525A (zh) * 2020-11-19 2021-02-12 北京航天泰坦科技股份有限公司 高分辨率遥感影像变化检测网络和方法及装置
CN112508936A (zh) * 2020-12-22 2021-03-16 中国科学院空天信息创新研究院 一种基于深度学习的遥感图像变化检测方法
CN112990085A (zh) * 2021-04-08 2021-06-18 海南长光卫星信息技术有限公司 养殖塘变化检测方法、装置及计算机可读存储介质
CN113689414A (zh) * 2021-08-30 2021-11-23 扎赉诺尔煤业有限责任公司 一种高寒地区长时间序列高频率ndvi生成方法和装置
CN113837134A (zh) * 2021-09-29 2021-12-24 桂林理工大学 一种基于面向对象的深度学习模型和迁移学习的湿地植被识别方法
CN114708260A (zh) * 2022-05-30 2022-07-05 阿里巴巴(中国)有限公司 图像检测方法
CN115311550A (zh) * 2022-06-22 2022-11-08 中国科学院空天信息创新研究院 遥感影像语义变化检测方法、装置、电子设备及存储介质
CN115830448A (zh) * 2022-11-30 2023-03-21 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN117274763A (zh) * 2023-11-21 2023-12-22 珠江水利委员会珠江水利科学研究院 基于平衡点分析的遥感影像空-谱融合方法、系统、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101694718A (zh) * 2009-10-13 2010-04-14 西安电子科技大学 基于感兴趣区域的遥感图像变化检测方法
CN102005034A (zh) * 2010-12-01 2011-04-06 南京大学 基于区域聚类的遥感影像分割方法
US20110122226A1 (en) * 2009-03-16 2011-05-26 Siemens Corporation System and method for robust 2d-3d image registration
CN102542551A (zh) * 2010-12-13 2012-07-04 北京师范大学 极地冰盖边缘浮冰自动变化检测技术
CN104200458A (zh) * 2014-07-30 2014-12-10 浙江工业大学 基于MeanShift的高分辨率遥感影像分割距离度量优化方法
CN108761451A (zh) * 2018-05-21 2018-11-06 中南大学 一种基于多时相遥感影像的土地利用变化智能理解方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110122226A1 (en) * 2009-03-16 2011-05-26 Siemens Corporation System and method for robust 2d-3d image registration
CN101694718A (zh) * 2009-10-13 2010-04-14 西安电子科技大学 基于感兴趣区域的遥感图像变化检测方法
CN102005034A (zh) * 2010-12-01 2011-04-06 南京大学 基于区域聚类的遥感影像分割方法
CN102542551A (zh) * 2010-12-13 2012-07-04 北京师范大学 极地冰盖边缘浮冰自动变化检测技术
CN104200458A (zh) * 2014-07-30 2014-12-10 浙江工业大学 基于MeanShift的高分辨率遥感影像分割距离度量优化方法
CN108761451A (zh) * 2018-05-21 2018-11-06 中南大学 一种基于多时相遥感影像的土地利用变化智能理解方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815627A (zh) * 2020-08-24 2020-10-23 成都睿沿科技有限公司 遥感图像变化检测方法、模型训练方法及对应装置
CN112233062A (zh) * 2020-09-10 2021-01-15 浙江大华技术股份有限公司 地物变化检测方法、电子装置和存储介质
CN112365525B (zh) * 2020-11-19 2023-05-16 北京航天泰坦科技股份有限公司 高分辨率遥感影像变化检测网络和方法及装置
CN112365525A (zh) * 2020-11-19 2021-02-12 北京航天泰坦科技股份有限公司 高分辨率遥感影像变化检测网络和方法及装置
CN112508936A (zh) * 2020-12-22 2021-03-16 中国科学院空天信息创新研究院 一种基于深度学习的遥感图像变化检测方法
CN112990085A (zh) * 2021-04-08 2021-06-18 海南长光卫星信息技术有限公司 养殖塘变化检测方法、装置及计算机可读存储介质
CN113689414A (zh) * 2021-08-30 2021-11-23 扎赉诺尔煤业有限责任公司 一种高寒地区长时间序列高频率ndvi生成方法和装置
CN113689414B (zh) * 2021-08-30 2023-12-15 扎赉诺尔煤业有限责任公司 一种高寒地区长时间序列高频率ndvi生成方法和装置
CN113837134A (zh) * 2021-09-29 2021-12-24 桂林理工大学 一种基于面向对象的深度学习模型和迁移学习的湿地植被识别方法
CN114708260A (zh) * 2022-05-30 2022-07-05 阿里巴巴(中国)有限公司 图像检测方法
CN115311550A (zh) * 2022-06-22 2022-11-08 中国科学院空天信息创新研究院 遥感影像语义变化检测方法、装置、电子设备及存储介质
CN115311550B (zh) * 2022-06-22 2024-05-28 中国科学院空天信息创新研究院 遥感影像语义变化检测方法、装置、电子设备及存储介质
CN115830448A (zh) * 2022-11-30 2023-03-21 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN115830448B (zh) * 2022-11-30 2024-02-09 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN116030352B (zh) * 2023-03-29 2023-07-25 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN117274763A (zh) * 2023-11-21 2023-12-22 珠江水利委员会珠江水利科学研究院 基于平衡点分析的遥感影像空-谱融合方法、系统、设备及介质
CN117274763B (zh) * 2023-11-21 2024-04-05 珠江水利委员会珠江水利科学研究院 基于平衡点分析的遥感影像空-谱融合方法、系统、设备及介质

Also Published As

Publication number Publication date
CN110853026B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110853026B (zh) 一种融合深度学习与区域分割的遥感影像变化检测方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN111640159B (zh) 一种基于孪生卷积神经网络的遥感影像变化检测方法
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN102324102B (zh) 一种图像场景空洞区域结构和纹理信息自动填补方法
CN111640125B (zh) 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置
CN105931295B (zh) 一种地质图专题信息提取方法
CN108537239B (zh) 一种图像显著性目标检测的方法
CN110738207A (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN110135354B (zh) 一种基于实景三维模型的变化检测方法
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
Pan et al. A generic FCN-based approach for the road-network extraction from VHR remote sensing images–using openstreetmap as benchmarks
CN103544505B (zh) 面向无人机航拍图像的船只识别系统及方法
CN111414954B (zh) 一种岩石图像检索方法及其系统
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN112396039B (zh) 一种基于邻域关系的火星栅格地形地图生成方法
CN112001293A (zh) 结合多尺度信息和编解码网络的遥感影像地物分类方法
Hosseinpoor et al. Convolutional neural network for building extraction from high-resolution remote sensing images
CN112906614A (zh) 基于注意力指导的行人重识别方法、装置及存储介质
Zhu et al. Change detection based on the combination of improved SegNet neural network and morphology
CN117496347A (zh) 遥感影像建筑物提取方法、装置及介质
Wei et al. Road network extraction from satellite images using CNN based segmentation and tracing
CN112241676A (zh) 一种地形杂物自动识别的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant