CN111860158A - 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法 - Google Patents

一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法 Download PDF

Info

Publication number
CN111860158A
CN111860158A CN202010544882.3A CN202010544882A CN111860158A CN 111860158 A CN111860158 A CN 111860158A CN 202010544882 A CN202010544882 A CN 202010544882A CN 111860158 A CN111860158 A CN 111860158A
Authority
CN
China
Prior art keywords
neural network
coherence
coherence point
point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010544882.3A
Other languages
English (en)
Other versions
CN111860158B (zh
Inventor
张永红
魏钜杰
郭庆华
吴宏安
康永辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinese Academy of Surveying and Mapping
Original Assignee
Chinese Academy of Surveying and Mapping
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chinese Academy of Surveying and Mapping filed Critical Chinese Academy of Surveying and Mapping
Priority to CN202010544882.3A priority Critical patent/CN111860158B/zh
Publication of CN111860158A publication Critical patent/CN111860158A/zh
Application granted granted Critical
Publication of CN111860158B publication Critical patent/CN111860158B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合1D‑CNN与BiLSTM神经网络的时序InSAR高相干点提取方法,首先构建高相干点神经网络,然后用时序SAR复数数据形成的幅度序列和干涉相干系数图序列以及高相干点标记影像构成的2套训练样本集分别训练高相干点神经网络,之后将待检测的上述类型的测试时序数据分别输入训练好的各自对应数据类型的高相干点神经网络,输出各自的高相干点提取的中间结果,并对中间结果进行交集运算,进而实现高相干点的最终提取。

Description

一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提 取方法
技术领域
本发明属于时序InSAR地面形变监测技术领域,特别涉及时序InSAR高相干点提取,尤其涉及一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法。
背景技术
以永久散射体干涉(Permanent Scatterer Interferometry,PS-InSAR)技术和小基线集技术(Small Baseline Subset Interferometry,SBAS InSAR)为代表的时间序列InSAR技术因可以克服时空失相干等问题在近10多年得到迅速发展。而时间序列InSAR技术可以克服时空失相干等问题的关键在于时间序列InSAR处理的对象不再是整幅影像的所有像元,而是具有稳定散射特性的高相干点。所以,高相干点的准确提取是时间序列InSAR技术成功的关键。目前,对于高相干点提取的主要手段是阈值分割方法,通过对由时间序列SAR复数数据产生的平均相干系数、振幅离差指数或者平均幅度等设置适当的阈值完成高相干点的提取或者综合多种阈值进行高相干点的提取。
基于阈值分割的高相干点提取方法需要根据经验设置阈值,但是人工难以对阈值进行精准的把握,容易造成高相干点的漏选或错选,尤其是多阈值串行的高相干点提取方法需要对多种阈值进行反复调整才能满足数据处理的要求,处理过程相当耗时。
发明内容
(一)发明目的
为克服上述现有技术存在的缺陷,自动对阈值进行精准的把握,尽量避免高相干点的漏选或错选,节约数据处理的耗时,通过融合1D-CNN与BiLSTM神经网络,提取时序InSAR高相干点,从而可以自动确定时序InSAR高相干点,解决高相干点提取过程中最优阈值难以确定的问题,本申请公开了以下技术方案。
(二)技术方案
本发明公开了一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法,包括:
通过融合1D-CNN神经网络与BiLSTM神经网络来构建高相干点神经网络;
用不同类型数据序列和高相干点标记影像构成的2套训练样本集分别训练所述高相干点神经网络;
将待检测的所述类型的测试时序数据分别输入训练好的各自对应数据类型的所述高相干点神经网络,输出各自高相干点提取的中间结果;
对所述中间结果进行交集运算,输出最终的高相干点提取结果。
在一种可能的实施方式中,所述通过融合1D-CNN神经网络与BiLSTM神经网络来构建高相干点神经网络,包括:
利用1D-CNN神经网络学习输入时序数据的抽象特征,得到抽象特征矢量;
利用BiLSTM神经网络对所述抽象特征矢量进行时序建模,得到长依赖关系;
利用2个全连接层综合学习所述长依赖关系,得到全连接层输出;
使用分类函数对所述全连接层输出进行高相干点和非相干点的逻辑分类。
在一种可能的实施方式中,所述BiLSTM神经网络包括一个正向时序LSTM神经网络和一个逆向时序LSTM神经网络,每个LSTM神经网络均由N个LSTM细胞单元组成,所述细胞单元的个数等于1D-CNN输出抽象特征的时间点数;
所述LSTM细胞单元包括输入单元、输出单元和门控单元,其中,所述输入单元包括上一个时间点LSTM细胞单元的输出单元和当前时间点的抽象特征矢量输入单元,所述输出单元包括LSTM的细胞状态和隐藏层状态;所述门控单元分别为输入门、忘记门和输出门,用于控制输入信息在LSTM细胞内部的去留,从而有利于建立各时间点数据之间的长时间依赖关系。
在一种可能的实施方式中,每个所述门控单元由相同数量的神经元组成的全连接层构成,且所述输入门ik、忘记门fk和输出门ok的表达式分别为:
ik=σ(Wuiuk+Whihk-1+bi)
fk=σ(Wufuk+Whfhk-1+bf)
ok=σ(Wuouk+Whohk-1+bo)
式中,
Figure BDA0002540342890000031
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵;
Figure BDA0002540342890000032
为相应的偏置矢量,下标q∈(i,f,o),分别表示输入门、遗忘门和输出门;上标H表示LSTM细胞中各门控单元的神经元个数,上标F表示输入矢量特征的维度,σ表示sigmoid函数,值域为(0,1)。
在一种可能的实施方式中,所述细胞状态Sk和隐藏层状态hk的表达式分别为:
Figure BDA0002540342890000033
hk=ok⊙tanh(Sk)
式中,
Figure BDA0002540342890000034
Figure BDA0002540342890000035
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵,
Figure BDA0002540342890000036
为相应的偏置矢量;⊙表示矢量元素点乘;tanh表示正切函数,值域为(-1,1)。
在一种可能的实施方式中,所述用不同类型数据序列和高相干点标记影像构成的2套训练样本集分别训练所述高相干点神经网络,包括:
利用时序SAR复数数据形成的平均相干系数、幅度离差值、平均幅度,设置严格阈值,提取高相干点和非相干点标记影像;
利用时序SAR复数数据形成幅度影像序列和干涉相干系数图序列;
分别利用上述幅度影像序列和所述干涉相干系数图序列,结合上述高相干点和非相干点标记影像,构建2套不同数据类型的网络训练样本数据集;
初始化所述高相干点神经网络中各神经元的网络参数,网络参数包括各神经元的权重和偏置;
先后利用构建的2套网络训练样本数据集,采用监督学习机制多轮次地迭代训练所述高相干点神经网络,获得各数据类型对应的高相干点神经网络。
在一种可能的实施方式中,所述初始化所述高相干点神经网络中各神经元的网络参数,包括:
将神经网络模型中各神经元的权重初始化为服从均值为0、方差为
Figure BDA0002540342890000041
的正态分布的随机数,n为输入数据个数,所述偏置初始化为0。
在一种可能的实施方式中,所述先后利用构建的2套网络训练样本数据集,采用监督学习机制多轮次地迭代训练所述高相干点神经网络,获得各数据类型对应的高相干点神经网络,包括:
设定所述高相干点神经网络的训练周期,每个训练周期分整数个批次、每批次输入一定数量带标签的训练样本数据;
选取交叉熵函数作为代价函数,并应用Adam优化器,设置学习率,迭代更新高相干点神经网络中所述网络参数,进而完成所述高相干点神经网络的训练。
在一种可能的实施方式中,所述将待检测的所述类型的测试时序数据分别输入训练好的各自对应数据类型的所述高相干点神经网络,输出各自高相干点提取的中间结果,包括:
输入幅度序列测试数据到训练好的相应数据类型的神经网络,得到第一高相干点提取中间结果;
输入干涉相干系数图序列数据到训练好的相应数据类型的神经网络,得到第二高相干点提取中间结果。
在一种可能的实施方式中,所述对所述中间结果进行交集运算,输出最终的高相干点提取结果,包括:
对所述第一高相干点提取中间结果和所述第二高相干点提取中间结果取交集,算出最终的高相干点提取结果。
(三)有益效果
本发明公开的融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法,具有如下有益效果:
1、能够自动提取时序InSAR高相干点,无需根据经验设置阈值,解决了高相干点提取过程中最优阈值难以确定的问题,并且很大程度上降低高相干点的漏选或错选,省时省力。
2、提取出高相干点后,为后续利用这些点提取相应的地面沉降信息(包括:累积沉降量、平均沉降速率等)提供便利。
附图说明
以下参考附图描述的实施例是示例性的,旨在用于解释和说明本发明,而不能理解为对本发明的保护范围的限制。
图1是本发明公开的一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法的流程示意图;
图2是本发明公开的一种融合1D-CNN与BiLSTM的高相干点提取高相干点神经网络模型的详细示意图;
图3是本发明公开的一维卷积计算过程的详细示意图。
图4是本发明公开的双向长短期记忆神经网络BiLSTM的详细示意图。
图5是本发明公开的LSTM细胞单元的详细示意图。
图6是本发明公开的网络训练区域和测试区域示意图。
图7是本发明公开的融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法与阈值法的实验结果对比示意图。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行更加详细的描述。
需要说明的是:在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本发明一部分实施例,而不是全部的实施例,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面参考图1-图7详细描述本申请公开的融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法的具体实施例。附图1为本发明的流程示意图,如图1所示,本实施例公开的方法,具体包括以下步骤100至步骤400。
步骤100,通过融合1D-CNN神经网络与BiLSTM神经网络来构建高相干点神经网络(Coherent Coherence Point Net,CPNet),后文将高相干点神经网络简称为CPNet网络。
如图2所示,CPNet网络具体由1个1D-CNN网络、1个BiLSTM网络、2个全连接层(其中最后一个全连接层为输出层)构成。
1D-CNN(One-dimensional Convolutional Neural Network)为一维卷积神经网络。在本实施例中,1D-CNN由1个1维卷积层组成,如图3所示,卷积层的内部包含F个1维卷积核(F=10),卷积核大小为1×1,通道数为1,步长为1,各卷积输出端使用ReLU激活函数。
BiLSTM(Bi-directional Long Short-Term Memory)为双向长短期记忆网络。如图4所示,BiLSTM神经网络由正向时序、逆向时序的2层LSTM神经网络构成,每个LSTM网络由N个LSTM细胞单元组成(N为输入特征的时间点个数)。如图5所示,每个LSTM细胞单元包含了4个并行的全连接层,分别作用于忘记门fk、输入门ik、候选细胞状态
Figure BDA0002540342890000071
和输出门ok;每个全连接层包含50个神经元,而且忘记门fk、输入门ik和输出门ok中神经元的输出端使用sigmoid激活函数,候选细胞状态
Figure BDA0002540342890000072
中神经元的输出端采用tanh激活函数;随后的2个全连接层分别包含100个和2个神经元,其中第一个全连接层中神经元的输出端采用ReLU激活函数,而最后一层全连接层中神经元的输出端采用softmax激活函数用于计算输出高相干点和非相干点的概率。
InSAR(Interferometric Synthetic Aperture Radar)是指合成孔径雷达干涉测量技术。
在构建高相干点神经网络过程中,首先利用1D-CNN神经网络学习输入时序数据的抽象特征,并利用1个BiLSTM神经网络对抽象特征矢量进行时序建模,然后利用2个全连接层综合学习上述BiLSTM输出的长依赖关系,最后使用分类函数对最后全连接层的输出进行高相干点和非相干点的逻辑分类。
在一种可能的实施方式中,步骤100包括以下步骤110至步骤140。
步骤110,利用1D-CNN神经网络学习输入时序数据(x1,x2,…,xN)的抽象特征,得到抽象特征矢量。在本实施例中,1D-CNN由1个1维卷积层组成,如图3所示,卷积层的内部包含F个1维卷积核,卷积核大小为1×1,通道数为1,步长为1,那么学习的抽象特征记为(u1,u2,…,uN),下标N表示时序数据的时间点个数,且每个元素uk,k∈[1,N]的维度为F,F=10。
步骤120,利用1个BiLSTM神经网络对步骤110输出的抽象特征矢量(u1,u2, ,uN)进行时序建模,得到长依赖关系。在本实施例中,如图4所示,BiLSTM神经网络是采用两层LSTM神经网络,其中1层用于正向时间序列特征矢量(u1,u2,…,uN)的时序建模,另外1层用于逆向时间序列特征矢量(uN,uN-1,…,u1)的时序建模,那么BiLSTM神经网络的输出为yN
Figure BDA0002540342890000081
hN表示正向时序建模时第N个时间点抽象特征的隐藏层状态输出矢量,h'N表示逆向时序建模时第1个时间点抽象特征的隐藏层状态输出矢量,
Figure BDA0002540342890000082
表示上述两个输出矢量的串联。
步骤130,利用2个全连接层综合学习步骤120中得到的长依赖关系,进而得到全连接层输出。
步骤140,使用分类函数对步骤130得到的全连接层输出进行高相干点和非相干点的逻辑分类。逻辑分类之后,逻辑分类得到的是输入影像每个像素为相干点或非相干点的概率。
在一种可能的实施方式中,BiLSTM神经网络包括一个正向时序LSTM神经网络和一个逆向时序LSTM神经网络,各LSTM神经网络是由N个LSTM细胞单元(见图4)组成,细胞单个数等于1D-CNN输出抽象特征的时间点数。
在一种可能的实施方式中,如图5所示,各LSTM细胞单元C由3个输入、2个输出和3个门控单元组成。其中,3个输入包括上一个时间点LSTM细胞单元的2个输出Sk-1、hk-1和当前时间点的抽象特征矢量输入uk;2个输出分别为LSTM的细胞状态Sk和隐藏层状态hk;3个门控单元分别为输入门ik、忘记门fk和输出门ok,用于控制输入信息在LSTM细胞内部的去留,从而有利于建立各时间点数据之间的长时间依赖关系;而且,每个门控单元由相同数量的神经元组成的全连接层构成,此处神经元个数为50。输入门ik、忘记门fk和输出门ok的表达式分别为:
ik=σ(Wuiuk+Whihk-1+bi)
fk=σ(Wufuk+Whfhk-1+bf)
ok=σ(Wuouk+Whohk-1+bo)(1)
式中,
Figure BDA0002540342890000091
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵;
Figure BDA0002540342890000092
为相应的偏置矢量,下标q∈(i,f,o),分别表示输入门、遗忘门和输出门;上标H表示LSTM细胞中各门控单元的神经元个数(即H=50),上标F表示输入矢量特征的维度(即F=10),σ表示sigmoid函数,值域为(0,1)。
LSTM细胞单元的2个输出:细胞状态Sk和隐藏层状态hk的表达式分别为:
Figure BDA0002540342890000093
hk=ok⊙tanh(Sk)(3)
式中,
Figure BDA0002540342890000094
Figure BDA0002540342890000095
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵,
Figure BDA0002540342890000096
为相应的偏置矢量;⊙表示矢量元素点乘;tanh表示正切函数,值域为(-1,1)。
步骤200,以由不同类型数据序列(即由时序SAR复数数据形成的幅度序列、干涉相干系数图序列)和高相干点标记影像构成的2套训练样本集,采取一定机制分别训练高相干点神经网络。
在一种可能的实施方式中,步骤200具体可以包括以下步骤210至步骤250。
步骤210,利用时序SAR复数数据形成的平均相干系数、幅度离差值、平均幅度,设置相应阈值,提取数量相当的高相干点和非相干点标注数据(标记影像)。在本实施例中,选择覆盖天津南部2018年1月至2018年12月期间21景干涉宽幅模式的Sentinel-1(S-1)SAR复数数据,并事先采用方位向2视、距离向8视进行多视处理;图6展示了多视处理后21景S-1SAR复数数据形成的平均幅度图及选取的训练区域和测试区域,各区域影像大小都为2000×2000。利用上述多视后21景S-1SAR复数数据形成的平均幅度图、幅度离差图和平均相干系数图,设置严格阈值,在训练区域获得33,528个高相干点和30,496个非相干点。
步骤220,分别利用上述多视后的21景S-1SAR复数数据形成了21张幅度序列图像和97张干涉相干系数序列图像。
步骤230,利用幅度序列和干涉相干系数图序列,结合上述高相干点和非相干点标注数据,构建2套不同数据类型的网络训练样本数据集。
步骤240,初始化所述高相干点神经网络中各神经元的网络参数(包括权重和偏置),即利用He参数初始化方法将神经网络模型中各神经元的权重初始化为服从均值为0、方差为
Figure BDA0002540342890000101
的正态分布的随机数(n为输入数据个数),并且初始化偏置为0。
步骤250,先后利用步骤230构建的2套网络训练样本数据集,采用监督学习机制多轮次地迭代训练所述高相干点神经网络,获得各数据类型对应的高相干点神经网络。
在一种可能的实施方式中,步骤250具体可以包括以下步骤251至步骤252。
步骤251,设定所述高相干点神经网络的训练周期(即轮数);在本实施例中,设置训练周期为200轮次;每个训练周期分整数个批次、每批次输入一定数量带标签的训练样本数据。在本实施例中,每批次输入10,000个带标签的训练样本数据;
步骤252,选取交叉熵函数作为代价函数,并应用Adam优化器,设置学习率为10-3,进行所述高相干点神经网络的迭代训练,用于更新高相干点神经网络中所述网络参数。
在步骤200执行完成,也即训练出高相干点神经网络之后,执行步骤300。
步骤300,将待检测的不同类型的测试时序数据分别输入通过步骤200训练好的各自对应数据类型的高相干点神经网络,进行高相干点提取,输出各自高相干点提取的中间结果。
在一种可能的实施方式中,本方法中步骤300包括以下步骤310和步骤320。
步骤310,输入幅度序列测试数据到步骤240训练好的相应数据类型的网络模型,得到第一高相干点提取中间结果;本实施例中,输入上述测试区的21张幅度序列图像到训练好的相应数据类型的网络模型;
步骤320,输入干涉相干系数图序列数据到步骤240训练好的相应数据类型的网络模型,得到第二高相干点提取中间结果。本实施例中,输入上述测试区的97张干涉相干系数图序列到训练好的相应数据类型的网络模型。
在步骤300执行完成,也即得到高相干点提取中间结果之后,执行步骤400。
步骤400,对上述两个中间结果进行交集运算,输出最终的高相干点提取结果。最终提取结果即为本方法预期得到的高相干点。
在一种可能的实施方式中,本方法中步骤400包括以下步骤410和步骤420。
步骤410,分别利用步骤300输入的不同数据及其相应数据类型的网络模型,输出各自高相干点提取结果;
步骤420,对步骤410提取结果取交集,输出高相干点的最终结果。
图7展示了图6测试区中黑框区域的实验结果对比图。图7(a)为该区域的平均幅度图;图7(b)是利用阈值法提取的高相干点结果图;图7(c)是利用本方法提取的高相干点结果图。在本实施例中,对于输出影像高相干点的表现形式为,白色:表示高相干点,黑色:表示非相干点。图7(d)和图7(e)是图7(a)中黑框区域的局部放大图。图7(d)中黑色点表示阈值法提取的高相干点,黑色圆圈表示本方法提取的高相干点。结合图7(e)显示的光学遥感影像,比较二者的提取结果,结论:本方法选取的高相干点多于阈值法,且都位于建筑区,而建筑区的雷达后向散射行为在SAR观测时序上通常是稳定的,这证明了本方法提取结果的有效性,表明本方法能够提取比传统阈值法密度更高、且相干性更好的高相干点。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法,其特征在于:
通过融合1D-CNN神经网络与BiLSTM神经网络来构建高相干点神经网络;
用不同类型数据序列和高相干点标记影像构成的2套训练样本集分别训练所述高相干点神经网络;
将待检测的所述类型的测试时序数据分别输入训练好的各自对应数据类型的所述高相干点神经网络,输出各自高相干点提取的中间结果;
对所述中间结果进行交集运算,输出最终的高相干点提取结果。
2.根据权利要求1所述的方法,其特征在于,所述通过融合1D-CNN神经网络与BiLSTM神经网络来构建高相干点神经网络,包括:
利用1D-CNN神经网络学习输入时序数据的抽象特征,得到抽象特征矢量;
利用BiLSTM神经网络对所述抽象特征矢量进行时序建模,得到长依赖关系;
利用2个全连接层综合学习所述长依赖关系,得到全连接层输出;
使用分类函数对所述全连接层输出进行高相干点和非相干点的逻辑分类。
3.根据权利要求2所述的方法,其特征在于,所述BiLSTM神经网络包括一个正向时序LSTM神经网络和一个逆向时序LSTM神经网络,每个LSTM神经网络均由N个LSTM细胞单元组成,所述细胞单元的个数等于1D-CNN输出抽象特征的时间点数;
所述LSTM细胞单元包括输入单元、输出单元和门控单元,其中,所述输入单元包括上一个时间点LSTM细胞单元的输出单元和当前时间点的抽象特征矢量输入单元,所述输出单元包括LSTM的细胞状态和隐藏层状态;所述门控单元分别为输入门、忘记门和输出门,用于控制输入信息在LSTM细胞内部的去留,从而有利于建立各时间点数据之间的长时间依赖关系。
4.根据权利要求3所述的方法,其特征在于,每个所述门控单元由相同数量的神经元组成的全连接层构成,且所述输入门ik、忘记门fk和输出门ok的表达式分别为:
ik=σ(Wuiuk+Whihk-1+bi)
fk=σ(Wufuk+Whfhk-1+bf)
ok=σ(Wuouk+Whohk-1+bo)
式中,
Figure FDA0002540342880000021
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵;
Figure FDA0002540342880000022
为相应的偏置矢量,下标q∈(i,f,o),分别表示输入门、遗忘门和输出门;上标H表示LSTM细胞中各门控单元的神经元个数,上标F表示输入矢量特征的维度,σ表示sigmoid函数,值域为(0,1)。
5.根据权利要求3或4所述的方法,其特征在于,所述细胞状态Sk和隐藏层状态hk的表达式分别为:
Figure FDA0002540342880000023
hk=ok⊙tanh(Sk)
式中,
Figure FDA0002540342880000024
Figure FDA0002540342880000025
分别为第k个时间点输入特征矢量uk和上一个时间点LSTM细胞单元隐藏层输出hk-1的权重矩阵,
Figure FDA0002540342880000026
为相应的偏置矢量;⊙表示矢量元素点乘;tanh表示正切函数,值域为(-1,1)。
6.根据权利要求1所述的方法,其特征在于,所述用不同类型数据序列和高相干点标记影像构成的2套训练样本集分别训练所述高相干点神经网络,包括:
利用时序SAR复数数据形成的平均相干系数、幅度离差值、平均幅度,设置相应阈值,提取高相干点和非相干点标记影像;
利用时序SAR复数数据形成幅度影像序列和干涉相干系数图序列;
分别利用上述幅度影像序列和干涉相干系数图序列,结合上述高相干点和非相干点标记影像,构建2套不同数据类型的网络训练样本数据集;
初始化所述高相干点神经网络中各神经元的网络参数,网络参数包括各神经元权重和偏置;
先后利用构建的2套网络训练样本数据集,采用监督学习机制多轮次地迭代训练所述高相干点神经网络,获得各数据类型对应的高相干点神经网络。
7.根据权利要求6所述的方法,其特征在于,所述初始化所述高相干点神经网络中各神经元的网络参数,包括:
将神经网络模型中各神经元的权重初始化为服从均值为0、方差为
Figure FDA0002540342880000031
的正态分布的随机数,n为输入数据个数,所述偏置初始化为0。
8.根据权利要求6或7所述的方法,其特征在于,所述先后利用构建的2套网络训练样本数据集,采用监督学习机制多轮次地迭代训练所述高相干点神经网络,获得各数据类型对应的高相干点神经网络,包括:
设定所述高相干点神经网络的训练周期,每个训练周期分整数个批次、每批次输入一定数量带标签的训练样本数据;
选取交叉熵函数作为代价函数,并应用Adam优化器,设置学习率,迭代更新高相干点神经网络中所述网络参数,进而完成所述高相干点神经网络的训练。
9.根据权利要求1所述的方法,其特征在于,所述将待检测的所述类型的测试时序数据分别输入训练好的各自对应数据类型的所述高相干点神经网络,输出各自高相干点提取的中间结果,包括:
输入幅度序列测试数据到训练好的相应数据类型的神经网络,得到第一高相干点提取中间结果;
输入干涉相干系数图序列数据到训练好的相应数据类型的神经网络,得到第二高相干点提取中间结果。
10.根据权利要求9所述的方法,其特征在于,所述对所述中间结果进行交集运算,输出最终的高相干点提取结果,包括:
对所述第一高相干点提取中间结果和所述第二高相干点提取中间结果取交集,算出最终的高相干点提取结果。
CN202010544882.3A 2020-06-15 2020-06-15 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法 Active CN111860158B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010544882.3A CN111860158B (zh) 2020-06-15 2020-06-15 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010544882.3A CN111860158B (zh) 2020-06-15 2020-06-15 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法

Publications (2)

Publication Number Publication Date
CN111860158A true CN111860158A (zh) 2020-10-30
CN111860158B CN111860158B (zh) 2024-02-20

Family

ID=72986656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010544882.3A Active CN111860158B (zh) 2020-06-15 2020-06-15 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法

Country Status (1)

Country Link
CN (1) CN111860158B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113251914A (zh) * 2021-04-06 2021-08-13 兰州交通大学 InSAR技术与长短时记忆神经网络结合的地表形变预测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103323848A (zh) * 2013-06-19 2013-09-25 中国测绘科学研究院 一种提取地面人工建/构筑物高度的方法及装置
CN108387899A (zh) * 2018-04-17 2018-08-10 南京师范大学 合成孔径雷达干涉测量中地面控制点自动选取方法
CN108627832A (zh) * 2018-05-11 2018-10-09 电子科技大学 一种基于多时序sar图像提取输电通道地表形变的方法
US20180357542A1 (en) * 2018-06-08 2018-12-13 University Of Electronic Science And Technology Of China 1D-CNN-Based Distributed Optical Fiber Sensing Signal Feature Learning and Classification Method
CN110334771A (zh) * 2019-07-09 2019-10-15 东北大学 一种基于四阈值ps点的露天矿gb-sar监测数据误差修正方法
CN110333494A (zh) * 2019-04-10 2019-10-15 马培峰 一种InSAR时序形变预测方法、系统及相关装置
CN110956221A (zh) * 2019-12-17 2020-04-03 北京化工大学 基于深度递归网络下小样本极化合成孔径雷达图像分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103323848A (zh) * 2013-06-19 2013-09-25 中国测绘科学研究院 一种提取地面人工建/构筑物高度的方法及装置
CN108387899A (zh) * 2018-04-17 2018-08-10 南京师范大学 合成孔径雷达干涉测量中地面控制点自动选取方法
CN108627832A (zh) * 2018-05-11 2018-10-09 电子科技大学 一种基于多时序sar图像提取输电通道地表形变的方法
US20180357542A1 (en) * 2018-06-08 2018-12-13 University Of Electronic Science And Technology Of China 1D-CNN-Based Distributed Optical Fiber Sensing Signal Feature Learning and Classification Method
CN110333494A (zh) * 2019-04-10 2019-10-15 马培峰 一种InSAR时序形变预测方法、系统及相关装置
CN110334771A (zh) * 2019-07-09 2019-10-15 东北大学 一种基于四阈值ps点的露天矿gb-sar监测数据误差修正方法
CN110956221A (zh) * 2019-12-17 2020-04-03 北京化工大学 基于深度递归网络下小样本极化合成孔径雷达图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘月峰 等: "融合CNN与BiLSTM的网络入侵检测方法", 《计算机工程》, vol. 45, no. 12, pages 127 - 133 *
曲世勃 等: "PSDInSAR 的永久散射体时序选择方法", 《电子与信息学报》, vol. 33, no. 2, pages 381 - 387 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113251914A (zh) * 2021-04-06 2021-08-13 兰州交通大学 InSAR技术与长短时记忆神经网络结合的地表形变预测方法

Also Published As

Publication number Publication date
CN111860158B (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
CN108647742B (zh) 基于轻量级神经网络的快速目标检测方法
CN109711426B (zh) 一种基于gan和迁移学习的病理图片分类装置及方法
CN109359608B (zh) 一种基于深度学习模型的人脸识别方法
CN107229914B (zh) 一种基于深度q学习策略的手写数字识别方法
CN111639719B (zh) 基于时空运动和特征融合的足迹图像检索方法
CN109977757B (zh) 一种基于混合深度回归网络的多模态的头部姿态估计方法
Cherabier et al. Learning priors for semantic 3d reconstruction
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN108182260B (zh) 一种基于语义选择的多变量时间序列分类方法
CN110826596A (zh) 一种基于多尺度可变形卷积的语义分割方法
Yang et al. Geodesic clustering in deep generative models
CN112837320B (zh) 一种基于并行空洞卷积的遥感影像语义分割方法
Alom et al. Object recognition using cellular simultaneous recurrent networks and convolutional neural network
CN106886798A (zh) 基于矩阵变量的高斯分布受限玻尔兹曼机的图像识别方法
Thompson et al. Building lego using deep generative models of graphs
CN110263808B (zh) 一种基于lstm网络和注意力机制的图像情感分类方法
CN115880027A (zh) 一种电子商务网站商品季节性预测模型创建方法
Shariff et al. Artificial (or) fake human face generator using generative adversarial network (GAN) machine learning model
CN111860158A (zh) 一种融合1D-CNN与BiLSTM神经网络的时序InSAR高相干点提取方法
CN114332075A (zh) 基于轻量化深度学习模型的结构缺陷快速识别与分类方法
CN114066899A (zh) 图像分割模型训练、图像分割方法、装置、设备及介质
CN117392686A (zh) 一种基于改进的动态图神经网络的不实信息检测方法
CN117011668A (zh) 一种基于时序预测神经网络的天气雷达回波外推方法
CN116844041A (zh) 一种基于双向卷积时间自注意力机制的耕地提取方法
CN116402874A (zh) 基于时序光学图像与激光雷达数据的航天器深度补全方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant