CN110969088B - 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 - Google Patents
一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 Download PDFInfo
- Publication number
- CN110969088B CN110969088B CN201911058683.5A CN201911058683A CN110969088B CN 110969088 B CN110969088 B CN 110969088B CN 201911058683 A CN201911058683 A CN 201911058683A CN 110969088 B CN110969088 B CN 110969088B
- Authority
- CN
- China
- Prior art keywords
- change detection
- saliency
- scale
- remote sensing
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法,其特点是该方法包括:两时相遥感影像的预处理;对差值影像进行归一化处理;多尺度分割及合并优化;显著性检测图的获得;建立双窗口深度孪生卷积网络模型及其训练;将分割对象与像素级变化检测结果通过判定融合,最终得到变化检测结果图。本发明将深度学习成功运用到变化检测领域,减少了高分辨率影像变化检测中存在的“椒盐噪声”,有效提高了变化类型检测的精度。
Description
技术领域
本发明涉及遥感数据处理技术领域,尤其是一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法。
背景技术
变化检测是从不同时期的遥感数据中分析并确定地表变化的特征与过程,而遥感对地观测技术具有范围广、时间长和周期性观测的特点,因此基于多时相遥感影像的变化检测已经被广泛应用于城市扩建规划、植被覆盖、土地利用类型监测等各个领域。随着高分辨率遥感影像资源日益丰富,需要处理的数据量也迅速增加,对计算机的配置要求也越来越高,因此对于适用于高分辨率遥感影像的变化检测方法的研究与探索是变化检测领域的热点之一。
深度学习的发展把高分辨率遥感影像变化检测推向新的高潮,神经网络可以充分提取高分辨率图像数据的深度特征,在不需要提取地物对象的条件下还能兼顾空间邻域信息,早在2002年便有学者利用BP神经网络通过特征学习来进行变化检测。伴随着深度置信网络(Deep Belief Network,DBN)、卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Networks,RNN)等具有强特征学习能力的网络模型的出现,以及计算机硬件的发展,使得遥感影像变化检测的深度学习方法研究成为前沿热点方向。然而,缺乏训练样本标签是深度学习在变化检测中面临着一个非常重要的问题,其主要原因是针对某一特定区域做变化检测时,带标签样本数据有限甚至没有,制作大量样本标签则需要大量人力物力财力,并且已有其他地域的样本与测试区域存在较大的地物类型差异,使其具有很弱的迁移泛化能力。无监督学习不需要样本标签即可学习到多时相遥感影像的有效特征,且具有良好的抗噪特性,成为一个变化检测研究的一个趋势。无监督深度学习的变化检测主要集中于迁移学习和自编码器算法两方面,但是非监督学习提取的特征非常抽象与模糊,可能与变化检测所要求的特征相差较大,并且对同物异谱的地域具有较差的识别能力。利用有限带标签数据进行监督学习成为基于深度学习变化检测发展的另一个分支,其主要利用特殊训练技巧来增强监督网络模型的泛化能力,提高变化检测精度。
在神经网络中,孪生网络由于其特殊的结构,被广泛应用于度量学习,计算数据之间的相似度数值。孪生网络的结构包括两个相同或不同的分支,若相同则两支网络间可共享权重和参数,一般采用卷积神经网络表达相似图像对和不相似图像对的特征,后利用欧拉距离测量特征矢量并估计相似度。而变化检测是对不同时期数据进行对比分析来得到变化或非变化的结果,针对这一问题,基于孪生网络的变化检测方法也逐渐成为研究重点。
现有技术的变化检测尚未将双窗口深度孪生网络运用到变化检测领域,也未曾公开发表有关该网络成功运用于变化检测的学术论文和相关报道。
发明内容
本发明的目的是针对现有技术的不足而设计的一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法,采用双窗口深度孪生卷积网络模型,嵌入多尺度特征提取单元,得到不同尺度的特征,使网络的特征提取及表达能力显著提高,大大减少了高分辨率影像变化检测中存在的“椒盐噪声”,有效提高了变化类型检测的精度。
本发明的目的是这样实现的:一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法,其特点是采用双窗口深度孪生卷积网络模型,嵌入多尺度特征提取单元,得到不同尺度的特征,具体变化检测包括以下步骤:
1)对两时相遥感影像进行图像预处理。
2)求两时相遥感影像的差值影像,并对差值影像进行归一化处理。
3)对两时相遥感影像进行多尺度分割及合并优化,得到不同尺度的分割对象。
4)以分割对象为分析单元,利用基于多尺度的显著性检测方法得到显著性检测图,通过阈值判定选择标记样本,其具体实现包括:
a、采用基于局部对比度的方法对步骤2)得到的差值影像进行显著性检测,得到由下述a式表示的一系列显著性图S;
S=[S1,S2,…,SK] (a)
其中:K为尺度个数。
b、第i个尺度的显著性图Si由下述a-1式表示:
其中:为Si中位置为(m,n)的像素显著性以其隶属于的分割对象的显著性表示。
c、假设第i个尺度中第j个对象有p个相邻对象,Vj i,分别为第i个尺度中第j个对象的光谱标准差和像素个数,则该对象的显著性由下述a-2式表示:
d、利用线性加权融合策略得到融合后的显著性图S(m,n)由下述a-3式表示:
其中:为第i个尺度中位置为(m,n)的像素显著性的融合权重,其多尺度线性加权融合模型由下述b式表示:
式中:为第i个尺度中位置为(m,n)的像素值。
e、根据设定的阈值t1和t2将融合后的显著性图S(m,n)分为由下述c式表示的三部分:
其中:0为非变化;1为变化;2为不确定。
f、统计变化像元数量Nc和非变化像元数量Nnc,从中随机选择α×Nnc和α×Nc个非变化和变化像元作为训练样本,其中α为训练样本个数占确定类型像元个数的比例,即α∈[0,1]。
5)建立双窗口深度孪生卷积网络模型,嵌入多尺度特征提取模块,输入样本对进行模型训练,其具体实现包括:
a、首先搭建单只卷积神经网络,第一个卷积层为3*3*8卷积核对输入样本进行特征提取,其中样本尺寸为9*9;以5*5、7*7为双窗口大小,围绕输入样本中心像素点裁剪出新样本,分别输入多尺度特征提取模块得到两支不同大小的新特征,其中多尺度特征提取模块包括两层多尺度特征提取单元,每层单元包括四个通道,分别为1*1卷积层、2*2最大池化层与1*1卷积层、1*1卷积层与3*3卷积层、1*1卷积层3*3卷积层与3*3卷积层;对5*5窗口分支进行上采样处理,与7*7窗口分支串联后生成新特征;第二个卷积层为3*3*128卷积核对新特征进行特征提取。
b、搭建孪生网络,孪生网络包括两个对称的神经网络,即第二支网络与上述单只网络相同,将T1,T2两时相样本对输入两个卷积神经网络,分别经过第一层卷积层与多尺度特征提取模块得到两组新特征为Output51、Output71和Output52、Output72,以及两窗口串联后的新特征为Output1、Output2,经过第二个卷积层后得到新特征为Output3和Output4。
c、对上述特征分别求差值进行串联,得到由下述d式表示差异性特征A:
A=concat{Output52-Output51,Output72-Output71,Output2-Output1,Output4-Output3} (d)。
d、第三卷积层为3*3*256卷积核对新特征进行特征提取。
e、将差异性特征A输入第三卷积层,第三卷积层的输出依次通过5*5全局平均池化层、全连接层和分类层。
6)根据该模型对遥感影像进行变化检测,得到像素级变化检测结果,将分割对象与像素级变化检测结果通过判定融合,最终得到变化检测结果图。
本发明与现有技术相比具有方法简单,使用方便,效率高,可得到不同尺度的特征,使网络的特征提取及表达能力显著提高,大大减少了高分辨率影像变化检测中存在的“椒盐噪声”,有效提高了变化类型检测的精度。
附图说明
图1为本发明流程示意图;
图2为本发明构建的深度孪生神经网络示意图。
具体实施方案
下面以具体实为例对本发明作进一步的详细说明。
实施例1
参阅附图1,本发明的具体实施步骤如下:
步骤1:对两时相遥感影像进行图像预处理,其预处理过程包括:辐射定标、大气校正和几何校正等步骤,具体实现过程如下:
1)为了保证多时相遥感影像中同一像素对应同一地理位置地物,需要对两时相遥感影像进行相对配准,在配准过程中均匀地选取30个同名像点,并且通过配准误差(RMSerror)控制在0.5像元以内,在两个区域中,都以T1时相影像作为实验的参考影像,T2时相影像作为待配准影像。所述几何校正采用二次多项式模型,重采样过程中采用最近邻插值法。
2)为了消除不同时相遥感影像间的辐射亮度差异,减小不同时相图像之间大气和其他因素引起的变化,保证不同时相图像的像元亮度值具有可比性,利用伪不变特征点(pseudo-invariant features,PIF)进行了线性相对辐射校正。首先从遥感影像中通过目视确定,手动选取未变化的参考校正点,然后利用线性函数来表达对应像元灰度值之间的线性关系,在两个区域中,都以T1时相遥感影像作为参考影像进行相对辐射校正。
步骤2:求两时相遥感影像的差值影像,并对差值影像进行归一化处理。
1)假设原始两时相遥感影像分别用T1和T2表示,其差值影像D由下述e式表示:
D=T1-T2 (e)。
2)由于影像不同波段具有不同的范围和尺度,归一化处理可以平衡每个波段的贡献量,因此需要对影像进行归一化处理,其中b波段的归一化处理后的结果如下述f式表示:
式中:B为影像波段总数;Dmax和Dmin分别代表b波段影像的最大值和最小值。
3)计算均值,得到最后的差值影像由下述g式表示:
步骤3:对两时相遥感影像进行多尺度分割及合并优化,得到不同尺度的分割对象,其具体实现过程如下:
1)利用分形网络演化方法,根据像元对象异质性最小的原则,对差值影像进行多尺度分割及合并优化,得到不同尺度的分割对象。分形网络演化方法(Fractal NetEvolution Approach,FNEA)是一种有效且广泛应用的遥感影像分割算法,该算法是一种自上而下的分割方法,以种子点为起始点,根据像元对象异质性最小的原则,在保证类间平均异质性最小、类内同质性最大的前提下,基于合并相邻像素或小分割对象来实现影像的分割。
2)对象异质性度量和尺度阈值选择是决定对象合并与终止的条件,其中综合考虑影像的光谱和形状特征,其相邻对象的总异质度f由下述h式表示:
f=wcolorhcolor+wshapehshape (h)
式中:hcolor和hshape分别表示任意相邻对象的光谱和形状异质度;wcolor和wshape分别表示光谱和形状异质度权值大小,且二者之和为1,即wshape+wcolor=1。
3)所述光谱异质度是指相邻对象Ri和Rj合并前后对象内部像素的光谱差异性,假设两个相邻对象表示为Ri和Rj,合并后新对象Rm的光谱异质度hcolor由下述i式计算:
式中:B代表波段总数;wc表示c波段的权重;ni,nj分别表示对象Ri和Rj中的像素个数;σmc、σic和σjc分别表示对象Rm、Ri和Rj的光谱标准差。
4)所述形状异质度是指相邻对象合并前后形状差异性,由紧致度和平滑度两部分组成,其中合并后形状异质度hshape由下述i式计算:
hshape=hcompacdwcompact+hsmothwsmooth (i),
式中:hcompact和hsmooth分别表示两相邻对象紧致度和平滑度异质性,分别用来描述对象整体的紧密程度和对象边界的破碎程度;wcompact和wsmoth分别表示紧致度和平滑度的权值大小,其中wcompact+wsmooth=1。
5)在得到两邻域对象合并的异质性之后,将异质性与设置的分割尺度阈值相比较可决定该对象是否进行合并,通过对小尺度影像中不同分割对象的合并,生成最终分割对象。
步骤4:以分割对象为分析单元,利用基于多尺度的显著性检测方法得到显著性检测图,通过阈值判定选择标记样本,其具体实现过程如下:
1)采用基于局部对比度的方法对差值影像进行显著性检测,得到由下述a式表示的一系列显著性图S;
S=[S1,S2,…,SK] (a)
其中:K为尺度个数。
2)第i个尺度的显著性图Si由下述a-1式表示:
其中:为Si中位置为(m,n)的像素显著性以其隶属于的分割对象的显著性表示。
3)假设第i个尺度中第j个对象有p个相邻对象,Vj i,分别为第i个尺度中第j个对象的光谱标准差和像素个数,则该对象的显著性由下述a-2式表示:
4)利用线性加权融合策略得到融合后的显著性图S(m,n)由下述a-3式表示:
其中:为第i个尺度中位置为(m,n)的像素显著性的融合权重,其多尺度线性加权融合模型由下述b式表示:
其中:为第i个尺度中位置为(m,n)的像素值。
5)根据设定的阈值t1和t2将融合后的显著性图S(m,n)由下述c式表示的三个部分:
其中:0为非变化;1为变化;2为不确定。
6)统计变化像元数量Nc和非变化像元数量Nnc,从中随机选择α×Nnc和α×Nc个非变化和变化像元作为训练样本,其中α为训练样本个数占确定类型像元个数的比例,即α∈[0,1]。
步骤5:建立双窗口深度孪生卷积网络模型,嵌入多尺度特征提取模块,输入样本对进行模型训练。
参阅附图2,所述的建立双窗口深度孪生卷积网络模型,嵌入多尺度特征提取单元,其具体实现过程如下:
1)首先搭建单只卷积神经网络,第一个卷积层为3*3*8卷积核对输入样本进行特征提取,其中样本尺寸为9*9;以5*5、7*7为双窗口大小,围绕输入样本中心像素点裁剪出新样本,分别输入多尺度特征提取模块得到两支不同大小的新特征,其中多尺度特征提取模块包括两层多尺度特征提取单元,每层单元包括四个通道,分别为1*1卷积层、2*2最大池化层与1*1卷积层、1*1卷积层与3*3卷积层、1*1卷积层3*3卷积层与3*3卷积层;对5*5窗口分支进行上采样处理,与7*7窗口分支串联后生成新特征;第二个卷积层为3*3*128卷积核对新特征进行特征提取。
2)然后搭建孪生网络,孪生网络包括两个对称的神经网络,即第二支网络与上述单只网络相同。将T1,T2两时相样本对输入两个卷积神经网络,分别经过第一层卷积层与多尺度特征提取模块得到两组新特征Output51、Output71,与Output52、Output72,以及两窗口串联后的新特征Output1、Output2,经过第二个卷积层后得到新特征Output3、Output4。
3)对上述特征分别求差值进行串联,得到由下述d式表示差异性特征A:
A=concat{Output52-Output51,Output72-Output71,Output2-Output1,Output4-Output3} (d)。
4)第三卷积层为3*3*256卷积核对新特征进行特征提取;将差异性特征A输入第三卷积层,第三卷积层的输出依次通过5*5全局平均池化层、全连接层和分类层。
步骤6:根据该模型对遥感影像进行变化检测,得到像素级变化检测结果,将分割对象与像素级变化检测结果通过判定融合,最终得到变化检测结果图,其具体实现过程如下:
1)由步骤4得到训练样本,输入深度孪生神经网络进行训练,训练完毕后对整幅遥感影像进行变化检测,得到像素级结果。
2)将分割对象与像素级变化检测结果通过判定融合,对于对象Ri,(i=1,2…N),求得对象内属于j(j=0,1)类的像素个数nj,0为非变化,1为变化。
3)计算各像元中变化像元占对象Ri内像元总数的百分比pu,如果pu>T,则对象Ri内所有像元为变化类型,否则该对象内像元为非变化。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。
Claims (2)
1.一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法,其特征在于采用双窗口深度孪生卷积网络模型,嵌入多尺度特征提取单元,得到不同尺度的特征,具体变化检测包括以下步骤:
其具体包括以下步骤:
1)对两时相遥感影像进行图像预处理;
2)求两时相遥感影像的差值影像,并对差值影像进行归一化处理;
3)对两时相遥感影像进行多尺度分割及合并优化,得到不同尺度的分割对象;
4)以分割对象为分析单元,利用基于多尺度的显著性检测方法得到显著性检测图,通过阈值判定选择标记样本;
5)建立双窗口深度孪生卷积网络模型,嵌入多尺度特征提取模块,输入两时相影像样本对进行模型训练;
6)根据模型对遥感影像进行变化检测,得到像素级变化检测结果,将分割对象与像素级变化检测结果通过判定融合,最终得到变化检测结果图;
所述步骤4)的实现过程按下述步骤进行:
步骤a:采用基于局部对比度的方法对差值影像进行的显著性检测,得到由下述a式表示的系列显著性图S;
S=[S1,S2,…,SK] (a)
其中:K为尺度个数;
步骤b:第i个尺度的显著性图Si由下述a-1式表示:
其中:为S中位置为m,n的像素显著性以其隶属于的分割对象的显著性表示;
步骤c:假设第i个尺度中第j个对象有p个相邻对象,分别为第i个尺度中第j个对象的光谱标准差和像素个数,则该对象的显著性由下述a-2式表示:
步骤d:利用线性加权融合策略得到融合后的显著性图S,由下述a-3式表示:
其中:为第i个尺度中位置为m,n的像素显著性的融合权重,其多尺度线性加权融合模型由下述b式表示:
式中:为第i个尺度中位置为m,n的像素值;
步骤e:根据设定的阈值t1和t2,将融合后的显著性图S,由下述c式表示:
其中:0为非变化;1为变化;2为不确定;
步骤f:统计变化像元数量Nc和非变化像元数量Nc,从中随机选择α×N;和α×Nc个非变化和变化像元作为训练样本,其中α为训练样本个数占确定类型像元个数的比例,即α∈[0,1]。
2.根据权利要求1所述基于显著性检测与深度孪生神经网络的遥感影像变化检测方法,其特征在于所述步骤5)的实现过程按下述步骤进行:
步骤a:搭建单只卷积神经网络,第一个卷积层为3*3*8卷积核对输入样本进行特征提取,所述样本的尺寸为9*9,且以5*5和7*7为双窗口尺寸;
步骤b:围绕输入样本中心像素点裁剪出新样本,分别输入多尺度特征提取模块,得到5*5和7*7两支不同窗口尺寸的新特征,所述多尺度特征提取模块包括两层多尺度特征提取单元;所述每层多尺度特征提取单元包括四个通道,分别为:1*1卷积层、2*2最大池化层与1*1卷积层、1*1卷积层与3*3卷积层和1*1卷积层3*3卷积层与3*3卷积层;
步骤c:对5*5窗口分支进行上采样处理,且与7*7窗口分支串联后生成新特征;
步骤d:第二个卷积层为3*3*128卷积核对新特征进行特征提取;
步骤e:搭建包括两个对称的神经网络的孪生网络,即第二支网络与上述单只网络相同,将T1,T2两时相样本对输入两个卷积神经网络,经第一层卷积层和多尺度特征提取模块,分别得到Output51、Output71和Output52、Output72两组新特征,以及两窗口串联后的Output1和Output2新特征;经第二个卷积层后得到Output3和Output4新特征;
步骤f:对上述新特征分别求差值进行串联,得到由下述d式表示差异性特征A:
A=concat{Output5-Output5,Output7-Output7,Output-Output,Output4-OutputF}(d);
步骤g:第三卷积层为3*3*256卷积核对新特征并进行特征提取;
步骤h:将差异性特征A输入第三卷积层,其输出依次通过5*5全局平均池化层、全连接层和分类层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911058683.5A CN110969088B (zh) | 2019-11-01 | 2019-11-01 | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911058683.5A CN110969088B (zh) | 2019-11-01 | 2019-11-01 | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110969088A CN110969088A (zh) | 2020-04-07 |
CN110969088B true CN110969088B (zh) | 2023-07-25 |
Family
ID=70030002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911058683.5A Active CN110969088B (zh) | 2019-11-01 | 2019-11-01 | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969088B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539316B (zh) * | 2020-04-22 | 2023-05-05 | 中南大学 | 基于双注意力孪生网络的高分遥感影像变化检测方法 |
CN112017178A (zh) * | 2020-09-08 | 2020-12-01 | 重庆市地理信息和遥感应用中心 | 一种基于双时相差值图像法的遥感图像区域变化检测方法 |
CN112308156B (zh) * | 2020-11-05 | 2022-05-03 | 电子科技大学 | 一种基于对抗学习的两阶段图像变化检测方法 |
CN112396594B (zh) * | 2020-11-27 | 2024-03-29 | 广东电网有限责任公司肇庆供电局 | 变化检测模型获取方法及装置、变化检测方法、计算机设备及可读存储介质 |
CN112991257B (zh) * | 2020-12-17 | 2021-10-15 | 清华大学 | 基于半监督孪生网络的异质遥感图像变化快速检测方法 |
CN112668494A (zh) * | 2020-12-31 | 2021-04-16 | 西安电子科技大学 | 基于多尺度特征提取的小样本变化检测方法 |
CN114820695A (zh) * | 2021-01-18 | 2022-07-29 | 阿里巴巴集团控股有限公司 | 对象追踪、地物追踪方法、设备、系统及存储介质 |
CN112861690B (zh) * | 2021-02-01 | 2024-02-02 | 武汉汉达瑞科技有限公司 | 多方法融合的遥感影像变化检测方法及系统 |
CN113240023B (zh) * | 2021-05-19 | 2022-09-09 | 中国民航大学 | 基于变化图像分类和特征差值先验的变化检测方法及装置 |
CN113378727B (zh) * | 2021-06-16 | 2022-04-29 | 武汉大学 | 一种基于特征偏差对齐的遥感影像二值变化检测方法 |
CN114022793B (zh) * | 2021-10-28 | 2024-06-04 | 天津大学 | 一种基于孪生网络的光学遥感图像变化检测方法 |
CN114782458A (zh) * | 2022-06-17 | 2022-07-22 | 中国科学技术大学 | 电子显微镜图像神经元分割方法、系统、设备及存储介质 |
CN115457259B (zh) * | 2022-09-14 | 2023-10-31 | 华洋通信科技股份有限公司 | 一种基于多通道激活优化的图像快速显著性检测方法 |
CN116129191B (zh) * | 2023-02-23 | 2024-01-26 | 维璟(北京)科技有限公司 | 基于遥感ai的多目标智能识别与精细分类方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104637073B (zh) * | 2014-12-30 | 2017-09-15 | 华中科技大学 | 一种基于太阳照射阴影补偿的带状地下结构探测方法 |
CN108573276B (zh) * | 2018-03-12 | 2020-06-30 | 浙江大学 | 一种基于高分辨率遥感影像的变化检测方法 |
CN109409263B (zh) * | 2018-10-12 | 2021-05-04 | 武汉大学 | 一种基于Siamese卷积网络的遥感影像城市地物变化检测方法 |
CN109558806B (zh) * | 2018-11-07 | 2021-09-14 | 北京科技大学 | 高分遥感图像变化的检测方法 |
CN109871875B (zh) * | 2019-01-21 | 2021-01-19 | 大连理工大学 | 一种基于深度学习的建筑物变化检测方法 |
CN110378224B (zh) * | 2019-06-14 | 2021-01-05 | 香港理工大学深圳研究院 | 一种地物变化的检测方法、检测系统及终端 |
-
2019
- 2019-11-01 CN CN201911058683.5A patent/CN110969088B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110969088A (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110969088B (zh) | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 | |
CN110705457B (zh) | 一种遥感影像建筑物变化检测方法 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN108510532B (zh) | 基于深度卷积gan的光学和sar图像配准方法 | |
CN106778605B (zh) | 导航数据辅助下的遥感影像道路网自动提取方法 | |
CN111914611B (zh) | 城市绿地高分遥感监测方法与系统 | |
CN107067405B (zh) | 基于尺度优选的遥感影像分割方法 | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN112733800B (zh) | 基于卷积神经网络的遥感图像道路信息提取方法和装置 | |
CN109446894B (zh) | 基于概率分割及高斯混合聚类的多光谱图像变化检测方法 | |
CN110598564B (zh) | 基于OpenStreetMap的高空间分辨率遥感影像迁移学习分类方法 | |
CN111008644B (zh) | 基于局部动态能量函数fcn-crf模型的生态变化监测方法 | |
CN114494821B (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
CN115240072B (zh) | 一种基于多方向多尺度光谱-空间残差卷积神经网络的高光谱多类变化检测方法 | |
CN114926511A (zh) | 一种基于自监督学习的高分辨率遥感影像变化检测方法 | |
CN110717531A (zh) | 一种基于不确定性分析和贝叶斯融合的分类后变化类型检测方法 | |
CN111104850A (zh) | 一种基于残差网络的遥感影像建筑物自动提取方法和系统 | |
CN115272278A (zh) | 一种用于遥感图像变化检测的变化检测模型的构建方法 | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
Li et al. | Detecting building changes using multi-modal Siamese multi-task networks from very high resolution satellite images | |
CN108509835B (zh) | 基于DFIC超像素的PolSAR图像地物分类方法 | |
CN106407975A (zh) | 基于空间‑光谱结构约束的多尺度分层目标检测方法 | |
CN117274627A (zh) | 一种基于图像转换的多时相积雪遥感图像匹配方法及系统 | |
CN109344837B (zh) | 一种基于深度卷积网络和弱监督学习的sar图像语义分割方法 | |
CN115829996A (zh) | 基于深度特征图的无监督合成孔径雷达图像变化检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |