CN110135309B - 基于深度共享表示的sar图像变化检测方法 - Google Patents
基于深度共享表示的sar图像变化检测方法 Download PDFInfo
- Publication number
- CN110135309B CN110135309B CN201910365671.0A CN201910365671A CN110135309B CN 110135309 B CN110135309 B CN 110135309B CN 201910365671 A CN201910365671 A CN 201910365671A CN 110135309 B CN110135309 B CN 110135309B
- Authority
- CN
- China
- Prior art keywords
- matrix
- time phase
- image
- mapping
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供了一种基于深度共享表示的SAR图像变化检测方法,解决了传统检测方法对于数据的融合大都采用直接拼接成大的数据链,增大计算量,而且不能抓住数据信息的空间特征,无法准确分类分线性分布的像素点等问题。实现步骤有:构建两个时相图像的差异图;生成训练样本和样本标签;构建深度感知器;生成映射矩阵;更新网络;生成标签向量;获得SAR图像变化检测结果。本发明将两个时相和差异图同时进行学习,并行处理,可以融合两个时相和差异图的信息,也避免了增加计算量,同时提高了鲁棒性和精度。用于SAR图像变化检测。
Description
技术领域
本发明属于图像处理领域,更进一步涉及遥感图像变化检测技术领域中的一种基于深度共享表示的合成孔径雷达SAR(Synthetic Aperture Radar)图像变化检测方法。本发明可用于农业调查、自然灾害检测、森林资源监测中检测两幅不同时相的SAR图像变化区域。
背景技术
变化检测是指通过观测某一物体或现象在不同时间的状态得出其变化信息的技术。SAR图像变化检测是分析同一地区不同时段的SAR图像,检测出该地区的变化信息。作为对地观测卫星的关键技术,合成孔径雷达SAR图像变化检测已经被运用在包括农业调查、自然灾害检测、森林资源监测等诸多领域。变化检测指利用多时相获取的覆盖统一地表区域的遥感图像以及其他辅助数据来确定和分析地表变化。传统变化检测方法由以下经典三步流程范式:1)输入两张经过预处理后的合成孔径雷达SAR图像;2)使用差异算子或其他方法获得差异图;3)分析差异图。早期人们使用差值算子求取差异图,对于传统的变化检测方法,性能好坏依赖于差异图的形成,而差异图的形成又有噪声的干扰,所以得不到很高的精度。由于采集图像有各种各样的噪声,后来人们相继提出对数比算子、均值比算子等。
广东工业大学在其申请的专利文献“一种SAR图像变化检测的方法与装置”(专利申请号CN201710597812.2,公开号CN107451992A)中公开了一种基于一种SAR图像变化检测的方法。该方法首先将两幅SAR图像分为参考图像和测试图像;再将这两幅图像进行重叠分块处理,得到参考图像块和测试图像块;通过构建局部字典,并利用正交匹配追踪法,求解出测试图像块的稀疏估计值;然后依据测试图像块稀疏估计值和参考图像块稀疏值,构建比值图像,并对其进行中值滤波处理,得到SAR图像变化检测结果。该方法存在的不足之处是,采用基于字典学习,正交匹配追踪求解稀疏值的线性分类方法,对于非线性分布的像素点无法很好地分类,影响分类结果。
西安电子科技大学在其申请的专利文献“基于最大边缘度量学习的SAR图像变化检测方法”(专利申请号CN201810736484.4,公开号CN108846381A)中公开了一种基于最大边缘度量学习的SAR图像变化检测方法。该方法先输入变化前后遥感图像采用链式结构构建全部样本,构建包含全部边界的训练样本,然后利用训练样本构建正负约束对作为输入,建立结构化的支撑矢量机模型获得映射矩阵,其次利用分解后的映射矩阵将全部样本映射到特征空间,在特征空间对全部样本进行SAR图像变化检测分类。该方法存在的不足之处是,时相和差异图样本采取链式拼接,不能很好的提取时相图和差异图像素之间的信息,反而增加训练时间,鲁棒性较差,导致变化检测结果图中的噪声点较多。
发明内容
本发明的目的在于针对上述现有技术的不足,提出了一种基于深度共享表示的SAR图像变化检测方法,用于解决线性分类无法对非线性分布像素点进行准确分类,不能很好提取时相图和差异图像素之间的信息的问题。
实现本发明目的的思路是,构建三个深度神经网络网络来提取时相图和差异图的特征,利用深度神经网络对训练样本映射,提取后的特征能够对非线性分布的像素进行很好的分类;对深度神经网络映射结果进行广义相关分析,学习共享表示矩阵,利用共享矩阵能实现对两张时相图与差异图之间的信息融合;然后用训练好的神经网络对训练样本和测试样本进行映射,最后用支持向量机对映射结果进行分类,得到SAR图像变化检测结果。
本发明的具体实施步骤如下:
(1)构建两个时相图像的差异图:
(1a)输入两个同一地区、不同时相的合成孔径雷达SAR图像;
(1b)利用对数比值算子公式,计算第一个时相图像中每个像素与第二个时相图像对应位置像素的对数比值,将所有像素的对数比值按时相图对应位置组成差异图;
(2)生成训练样本和样本标签:
(2a)对差异图进行归一化处理;
(2b)分别以处理后的差异图、第一个时相图、第二个时相图、标签图像中的每个像素点为中心,按垂直方向选取每个像素点周围27×27大小的正方形的图像块;
(2c)将差异图中的每个图像块按列拉成列向量作为一个样本,将差异图中所有图像块形成的样本组成差异图测试样本集;
(2d)将第一个时相图中每个图像块按列拉成列向量作为一个样本,将第一时相图中所有图像块形成的样本组成第一时相图的测试样本集;
(2e)将第二个时相图中每个图像块按列拉成列向量作为一个样本,将第二时相图所有图像块形成的样本组成第二时相图的测试样本集;
(2f)将标签图像中每个图像块按列拉成列向量作为一个标签,将标签图像中的所有图像块形成的标签组成标签图像的测试样本标签;
(2g)从第一个时相图的测试样本集中选取30%的样本组成第一时相训练样本集;
(2h)从第二个时相图的测试样本集中选取30%的样本组成第二时相训练样本集;
(2i)从差异图的测试样本集中选取30%的样本组成差异图训练样本集;
(2j)从测试样本标签中选取30%的标签组成训练样本标签;
(3)构建深度神经网络:
(3a)搭建三个深度为五层的神经网络,每个神经网络的结构依次为,输入层→第一层隐藏层→第二层隐藏层→第三层隐藏层→输出层;
(3b)设置神经网络的参数;
(4)生成映射矩阵:
将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出第一时相、第二时相、差异图的映射矩阵,每个矩阵的行均为30,列均与训练样本的总数相等;
(5)更新网络:
(5a)利用相关映射矩阵方法,生成合相关映射矩阵和经验协方差矩阵;
(5b)对合相关映射矩阵进行奇异值分解,得到合相关映射矩阵的特征值和对应特征值的特征向量,将其特征值由大到小排列,提取前30个特征值对应的特征向量组成共享矩阵;
(5c)对经验协方差矩阵、映射矩阵和共享矩阵进行链式乘处理,得到三个投影矩阵;
(5d)计算第一时相,第二时相、差异图的损失函数梯度值;
(5e)利用反向传播算法分别对三个神经网络进行迭代更新,直到三个神经网络的损失函数之和收敛,得到训练好的三个神经网络;
(6)生成标签向量:
(6a)将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个训练样本映射矩阵,将三个训练样本映射矩阵按行拼接,得到一个合训练样本矩阵;
(6b)将第一时相测试样本集、第二时相测试样本集、差异图测试样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个测试样本映射矩阵,将三个测试样本映射矩阵按行拼接,得到一个合测试样本矩阵;
(6c)输入合训练样本和训练样本标签,训练支持向量机,利用训练好的支持向量机对合测试样本矩阵进行分类,生成标签向量,该标签向量的每个元素为总测试样本矩阵每一行的标签;
(7)获得SAR图像变化检测结果:
(7a)构建一个行的总数等于第一时相图的宽,列的总数等于第一时相图的高的标签矩阵;
(7b)从标签向量中依次选取与标签矩阵列的总数相等的元素,填入到标签矩阵的列中;
(7c)将标签矩阵中的每个元素乘以255后按图像形式输出,得到输入时相图所在地区是否发生变化的SAR图像变化的检测结果。
本发明与现有技术相比具有以下优点:
第一,由于本发明构建了三个深度神经网络用于提取图像特征,克服了现有技术中采用基于字典学习,正交匹配追踪求解稀疏值的线性分类方法,对于非线性分布的像素点无法很好地分类,影响分类结果的缺点,使得本发明具有能够将非线性分布的像素点进行很好的分类,提高了检测变化精度的优点。
第二,由于本发明学习第一时相、第二时相、差异图训练样本的共享矩阵,克服了现有技术中采用链式拼接时相和差异图样本的方法,不能很好的提取时相图和差异图像素之间的信息,反而增加训练时间,鲁棒性较差,导致变化检测结果图中的噪声点较多的缺点,使得本发明能够很好的提取第一时相图,第二时相图和差异图之间的相关信息,提高训练效率,减少样本图像中噪声点的影响,鲁棒性强。
附图说明:
图1为本发明的流程图;
图2为本发明仿真图。
具体实施方式:
下面结合附图对本发明做进一步的描述。
参照图1,对本发明的具体步骤做进一步的描述。
步骤1,构建两个时相图像的差异图。
输入两个同一地区、不同时相的合成孔径雷达SAR图像。
利用对数比值算子公式,计算第一个时相图像中每个像素与第二个时相图像对应位置像素的对数比值,将所有像素的对数比值按时相图对应位置组成差异图。
所述的对数比值算子公式如下:
其中,Idl表示第一个时相图像中第l个像素与第二个时相图像对应位置像素的对数比值,|·|表示取绝对值操作,lg表示以10为底的对数操作,I2m表示第二个时相图中第m个像素,I1n表示第一个时相图中第n个像素,l、m、n的位置对应相同。
步骤2,生成训练样本和样本标签。
对差异图进行归一化处理。
分别以处理后的差异图、第一个时相图、第二个时相图、标签图像中的每个像素点为中心,按垂直方向选取每个像素点周围27×27大小的正方形的图像块。
所述标签图像是指,根据输入的第一时相图对应地区的光学图像和第二时相图对应地区的光学图像人工标注的该地区已经变化和没有非变化部分的参考图,或者去实地考察标注的该地区已经变化和没有非变化部分的参考图。
将差异图中的每个图像块按列拉成列向量作为一个样本,将差异图中所有图像块形成的样本组成差异图测试样本集。
将第一个时相图中每个图像块按列拉成列向量作为一个样本,将第一时相图中所有图像块形成的样本组成第一时相图的测试样本集。
将第二个时相图中每个图像块按列拉成列向量作为一个样本,将第二时相图所有图像块形成的样本组成第二时相图的测试样本集。
将标签图像每个图像块按列拉成列向量作为一个标签,将标签图像中的所有图像块形成的标签组成标签图像的测试样本标签。
从第一个时相图的测试样本集中选取30%的样本组成第一时相训练样本集。
从第二个时相图的测试样本集中选取30%的样本组成第二时相训练样本集。
从差异图的测试样本集中选取30%的样本组成差异图训练样本集。
从测试样本标签中选取30%的标签组成训练样本标签。
步骤3,构建深度神经网络。
搭建三个深度为五层的神经网络,每个神经网络的结构依次为,输入层→第一层隐藏层→第二层隐藏层→第三层隐藏层→输出层。
设置神经网络的参数。
所述设置神经网络的参数如下:
将多层神经网络的输入层的神经元个数设置为729;
将第一个、第二个、第三个隐藏层均设置25个神经元,输出层设置30个神经元;
将每层的激活函数设置为ReLU函数;
按照下式,设置每个神经网络的损失函数如下:
其中,G表示共享矩阵,U表示投影矩阵,X表示该神经网络的输出矩阵。
步骤4,生成映射矩阵。
将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出第一时相、第二时相、差异图的映射矩阵,每个矩阵的行均为30,列均与训练样本的总数相等。
步骤5,更新网络。
利用相关映射矩阵方法,生成合相关映射矩阵和经验协方差矩阵。
所述相关映射矩阵方法的步骤如下:
第一步,用第一时相的映射矩阵X1、第二时相的映射矩阵X2、差异图的映射矩阵X3分别与其转置后的映射矩阵X1 T、X2 T、X3 T相乘,得到第一时相的经验协方差矩阵C11、第二时相的经验协方差矩阵C22、差异图经验协方差矩阵C33;
第二步,用第一时相的映射矩阵的转置矩阵X1 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上第一时相的映射矩阵X1,得到第一时相的相关映射矩阵P1;用第二时相的映射矩阵的转置矩阵X2 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上第二时相的映射矩阵X2,得到第二时相的相关映射矩阵P2;用差异图映射矩阵的转置矩阵X3 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上差异图映射矩阵X3,得到差异图的相关映射矩阵P3;
第三步,将第一时相的相关映射矩阵P1,第二时相的相关映射矩阵P2与差异图的相关映射矩阵P3相加,计算得到合相关映射矩阵。
对合相关映射矩阵进行奇异值分解,得到合相关映射矩阵的特征值和对应特征值的特征向量,将其特征值由大到小排列,提取前30个特征值对应的特征向量组成共享矩阵。
对经验协方差矩阵、映射矩阵和共享矩阵进行链式乘处理,得到三个投影矩阵。
所述对经验协方差矩阵、映射矩阵和共享矩阵进行链式乘处理是指,将第一时相的经验协方差矩阵的逆矩阵与其映射矩阵X1相乘,在乘上共享矩阵G,得到第一时相的投影矩阵U1;将第二时相的经验协方差矩阵的逆矩阵与其映射矩阵X2相乘,在乘上共享矩阵G,得到第二时相的投影矩阵U2;将差异图的经验协方差矩阵的逆矩阵与其映射矩阵X3相乘,在乘上共享矩阵G,得到差异图的投影矩阵U3。
计算第一时相,第二时相、差异图的损失函数梯度值。
所述第一时相,第二时相、差异图的损失函数梯度值是由下述公式计算得到的:
第一步,按照下式,计算第一时相的损失函数梯度值:
其中,P1表示第一时相的损失函数梯度值,U1表示第一时相的投影矩阵,G表示共享矩阵,T表示转置操作,X1表示第一时相的映射矩阵;
第二步,按照下式,计算第二时相的损失函数梯度值:
其中,P2表示第二时相的损失函数梯度值,U2表示第二时相的投影矩阵,X2表示第二时相的映射矩阵;
第三步,按照下式,计算差异图的损失函数梯度值:
其中,P3表示差异图的损失函数梯度值,U3表示差异图的投影矩阵,X3表示差异图的映射矩阵。
利用反向传播算法分别对三个神经网络进行迭代更新,直到三个神经网络的损失函数之和收敛,得到训练好的三个神经网络。
步骤6,生成标签向量。
将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个训练样本映射矩阵,将三个训练样本映射矩阵按行拼接,得到一个合训练样本矩阵。
将第一时相测试样本集、第二时相测试样本集、差异图测试样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个测试样本映射矩阵,将三个测试样本映射矩阵按行拼接,得到一个合测试样本矩阵。
输入合训练样本和训练样本标签,训练支持向量机,利用训练好的支持向量机对合测试样本矩阵进行分类,生成标签向量,该标签向量的每个元素为总测试样本矩阵每一行的标签。
步骤7,获得SAR图像变化检测结果。
构建一个行的总数等于第一时相图的宽,列的总数等于第一时相图的高的标签矩阵。
从标签向量中依次选取与标签矩阵列的总数相等的元素,填入到标签矩阵的列中。
将标签矩阵中的每个元素乘以255后按图像形式输出,得到输入时相图所在地区是否发生变化的SAR图像变化的检测结果。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel i9-9700k CPU,主频为3.6GHz,内存16G。
本发明的仿真实验的软件平台为:Ubuntu 16.04操作系统和python3.6。
2.仿真内容及其结果分析:
本发明仿真实验是采用本发明和现有技术支持向量机SVM分类对输入的两组分别对应Sendai和Velcea两个地区的图像进行变化检测,获得变化检测结果图。
在仿真实验中,采用的现有技术支持向量机SVM分类方法是指,Melgani等人在“Classification of hyperspectral remote sensing images with support vectormachines,IEEE Trans.Geosci.Remote Sens.,vol.42,no.8,pp.1778–1790,Aug.2004”中提出的高光谱图像分类方法,简称支持向量机SVM分类方法。
下面结合图2的仿真图对本发明的效果作进一步的描述。
图2(a)为2011年日本大地震发生之前Sendai地区SAR图,成像于2010年10月20号,图2(b)为日本大地震发生之后Sendai地区SAR图,图2(c)为标记日本大地震发生之前后Sendai地区标签图,图2(d)为由图2(a)和图2(b)得到的差异图。四个图像大小都为590×687,图像格式为jpg格式。图2(e)为本发明和现有技术支持向量机对Sendai地区变化检测的结果图。
从图2(d)中可以看出,在右下角有很大一片白色干扰噪声,从图2(e)图中可以看出,变化检测的结果图很好的抑制了噪声,只有在变化区域周围有一部分错检,同时从结果图也可以看出对于变化和非变化边界区域检测很好,在对噪声鲁棒的同时很好的保留了边界的细节,达到了很好的性能。
Claims (7)
1.一种基于深度共享表示的SAR图像变化检测方法,其特征在于,利用引入深度神经网络实现图像样本的非线性转化并实现其分类,利用学习时相和差异图共享表示矩阵实现时相图和差异图之间信息的融合,该方法的步骤包括如下:
(1)构建两个时相图像的差异图:
(1a)输入两个同一地区、不同时相的合成孔径雷达SAR图像;
(1b)利用对数比值算子公式,计算第一个时相图像中每个像素与第二个时相图像对应位置像素的对数比值,将所有像素的对数比值按时相图对应位置组成差异图;
(2)生成训练样本和样本标签:
(2a)对差异图进行归一化处理;
(2b)分别以处理后的差异图、第一个时相图、第二个时相图、标签图像中的每个像素点为中心,按垂直方向选取每个像素点周围27×27大小的正方形的图像块;
(2c)将差异图中的每个图像块按列拉成列向量作为一个样本,将差异图中所有图像块形成的样本组成差异图测试样本集;
(2d)将第一个时相图中每个图像块按列拉成列向量作为一个样本,将第一时相图中所有图像块形成的样本组成第一时相图的测试样本集;
(2e)将第二个时相图中每个图像块按列拉成列向量作为一个样本,将第二时相图所有图像块形成的样本组成第二时相图的测试样本集;
(2f)将标签图像中每个图像块按列拉成列向量作为一个标签,将标签图像中的所有图像块形成的标签组成标签图像的测试样本标签;
(2g)从第一个时相图的测试样本集中选取30%的样本组成第一时相训练样本集;
(2h)从第二个时相图的测试样本集中选取30%的样本组成第二时相训练样本集;
(2i)从差异图的测试样本集中选取30%的样本组成差异图训练样本集;
(2j)从测试样本标签中选取30%的标签组成训练样本标签;
(3)构建深度神经网络:
(3a)搭建三个深度为五层的神经网络,每个神经网络的结构依次为,输入层→第一层隐藏层→第二层隐藏层→第三层隐藏层→输出层;
(3b)设置神经网络的参数;
(4)生成映射矩阵:
将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出第一时相、第二时相、差异图的映射矩阵,每个矩阵的行均为30,列均与训练样本的总数相等;
(5)更新网络:
(5a)利用相关映射矩阵方法,生成合相关映射矩阵和经验协方差矩阵;
(5b)对合相关映射矩阵进行奇异值分解,得到合相关映射矩阵的特征值和对应特征值的特征向量,将其特征值由大到小排列,提取前30个特征值对应的特征向量组成共享矩阵;
(5c)对经验协方差矩阵、映射矩阵和共享矩阵进行链式乘处理,得到三个投影矩阵;
(5d)计算第一时相,第二时相、差异图的损失函数梯度值;
(5e)利用反向传播算法分别对三个神经网络进行迭代更新,直到三个神经网络的损失函数之和收敛,得到训练好的三个神经网络;
(6)生成标签向量:
(6a)将第一时相训练样本集、第二时相训练样本集、差异图训练样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个训练样本映射矩阵,将三个训练样本映射矩阵按行拼接,得到一个合训练样本矩阵;
(6b)将第一时相测试样本集、第二时相测试样本集、差异图测试样本集分别输入到第一神经网络、第二神经网络、第三神经网络中,分别输出三个测试样本映射矩阵,将三个测试样本映射矩阵按行拼接,得到一个合测试样本矩阵;
(6c)输入合训练样本和训练样本标签,训练支持向量机,利用训练好的支持向量机对合测试样本矩阵进行分类,生成标签向量,该标签向量的每个元素为总测试样本矩阵每一行的标签;
(7)获得SAR图像变化检测结果:
(7a)构建一个行的总数等于第一时相图的宽,列的总数等于第一时相图的高的标签矩阵;
(7b)从标签向量中依次选取与标签矩阵列的总数相等的元素,填入到标签矩阵的列中;
(7c)将标签矩阵中的每个元素乘以255后按图像形式输出,得到输入时相图所在地区是否发生变化的SAR图像变化的检测结果。
3.根据权利要求1所述的基于深度共享表示的SAR图像变化检测方法,其特征在于,步骤(2b)中所述标签图像是指,根据输入的第一时相图对应地区的光学图像和第二时相图对应地区的光学图像人工标注的该地区已经变化和没有非变化部分的参考图,或者去实地考察标注的该地区已经变化和没有非变化部分的参考图。
5.根据权利要求1所述的基于深度共享表示的SAR图像变化检测方法,其特征在于,步骤(5a)中所述相关映射矩阵方法的步骤如下:
第一步,用第一时相的映射矩阵X1、第二时相的映射矩阵X2、差异图的映射矩阵X3分别与其转置后的映射矩阵X1 T、X2 T、X3 T相乘,得到第一时相的经验协方差矩阵C11、第二时相的经验协方差矩阵C22、差异图经验协方差矩阵C33;
第二步,用第一时相的映射矩阵的转置矩阵X1 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上第一时相的映射矩阵X1,得到第一时相的相关映射矩阵P1;用第二时相的映射矩阵的转置矩阵X2 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上第二时相的映射矩阵X2,得到第二时相的相关映射矩阵P2;用差异图映射矩阵的转置矩阵X3 T与其对应的经验协方差矩阵的逆矩阵相乘,在乘上差异图映射矩阵X3,得到差异图的相关映射矩阵P3;
第三步,将第一时相的相关映射矩阵P1,第二时相的相关映射矩阵P2与差异图的相关映射矩阵P3相加,计算得到合相关映射矩阵。
7.根据权利要求1所述的基于深度共享表示的SAR图像变化检测方法,其特征在于,步骤(5d)中所述第一时相,第二时相、差异图的损失函数梯度值是由下述公式计算得到的:
第一步,按照下式,计算第一时相的损失函数梯度值:
其中,P1表示第一时相的损失函数梯度值,U1表示第一时相的投影矩阵,G表示共享矩阵,T表示转置操作,X1表示第一时相的映射矩阵;
第二步,按照下式,计算第二时相的损失函数梯度值:
其中,P2表示第二时相的损失函数梯度值,U2表示第二时相的投影矩阵,X2表示第二时相的映射矩阵;
第三步,按照下式,计算差异图的损失函数梯度值:
其中,P3表示差异图的损失函数梯度值,U3表示差异图的投影矩阵,X3表示差异图的映射矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910365671.0A CN110135309B (zh) | 2019-05-02 | 2019-05-02 | 基于深度共享表示的sar图像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910365671.0A CN110135309B (zh) | 2019-05-02 | 2019-05-02 | 基于深度共享表示的sar图像变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110135309A CN110135309A (zh) | 2019-08-16 |
CN110135309B true CN110135309B (zh) | 2021-09-10 |
Family
ID=67576074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910365671.0A Active CN110135309B (zh) | 2019-05-02 | 2019-05-02 | 基于深度共享表示的sar图像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110135309B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI784482B (zh) * | 2020-04-16 | 2022-11-21 | 鈺立微電子股份有限公司 | 多深度資訊之處理方法與處理系統 |
CN111627008B (zh) * | 2020-05-27 | 2023-09-12 | 深圳市华汉伟业科技有限公司 | 一种基于图像融合的物体表面检测方法及系统、存储介质 |
CN117173587B (zh) * | 2023-08-23 | 2024-07-12 | 哈尔滨工程大学 | 一种基于异构图像深度转换的特征细化融合变化检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239795A (zh) * | 2017-05-19 | 2017-10-10 | 西安电子科技大学 | 基于稀疏自编码器和卷积神经网络的sar图像变化检测系统及方法 |
CN108257154A (zh) * | 2018-01-12 | 2018-07-06 | 西安电子科技大学 | 基于区域信息和cnn的极化sar图像变化检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262205B2 (en) * | 2015-07-28 | 2019-04-16 | Chiman KWAN | Method and system for collaborative multi-satellite remote sensing |
-
2019
- 2019-05-02 CN CN201910365671.0A patent/CN110135309B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239795A (zh) * | 2017-05-19 | 2017-10-10 | 西安电子科技大学 | 基于稀疏自编码器和卷积神经网络的sar图像变化检测系统及方法 |
CN108257154A (zh) * | 2018-01-12 | 2018-07-06 | 西安电子科技大学 | 基于区域信息和cnn的极化sar图像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110135309A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860612B (zh) | 无监督高光谱图像隐低秩投影学习特征提取方法 | |
Ji et al. | Landslide detection from an open satellite imagery and digital elevation model dataset using attention boosted convolutional neural networks | |
US11783569B2 (en) | Method for classifying hyperspectral images on basis of adaptive multi-scale feature extraction model | |
CN109376804B (zh) | 基于注意力机制和卷积神经网络高光谱遥感图像分类方法 | |
CN110135309B (zh) | 基于深度共享表示的sar图像变化检测方法 | |
CN112308152B (zh) | 基于光谱分割与同质区域检测的高光谱图像地物分类方法 | |
CN108052881A (zh) | 一种实时检测施工现场图像中多类实体对象的方法及设备 | |
CN108154133B (zh) | 基于非对称联合学习的人脸画像-照片识别方法 | |
Li et al. | A multi-scale cucumber disease detection method in natural scenes based on YOLOv5 | |
CN107491793B (zh) | 一种基于稀疏散射全卷积的极化sar图像分类方法 | |
CN113052185A (zh) | 一种基于Faster R-CNN的小样本目标检测方法 | |
CN108682007A (zh) | 基于深度随机森林的jpeg图像重采样自动检测方法 | |
CN108596952B (zh) | 基于候选区域筛选的快速深度学习遥感图像目标检测方法 | |
Verma et al. | Wild animal detection from highly cluttered images using deep convolutional neural network | |
CN111401426A (zh) | 基于伪标签学习的小样本高光谱图像分类方法 | |
CN114937173A (zh) | 一种基于动态图卷积网络的高光谱图像快速分类方法 | |
Plaza et al. | Nonlinear neural network mixture models for fractional abundance estimation in AVIRIS hyperspectral images | |
Ahmad et al. | Hybrid dense network with attention mechanism for hyperspectral image classification | |
CN107273919B (zh) | 一种基于置信度构造类属字典的高光谱无监督分类方法 | |
CN106446854A (zh) | 基于旋转不变hog特征的高分辨率光学遥感图像目标检测方法 | |
Li et al. | Enhanced bird detection from low-resolution aerial image using deep neural networks | |
Wang et al. | Classification and extent determination of rock slope using deep learning | |
CN114299382A (zh) | 高光谱遥感图像分类方法及系统 | |
Deville et al. | An NMF-based method for jointly handling mixture nonlinearity and intraclass variability in hyperspectral blind source separation | |
Singh et al. | Wavelet based histogram of oriented gradients feature descriptors for classification of partially occluded objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |