CN117523344B - 一种基于相位质量加权卷积神经网络的干涉相位解缠方法 - Google Patents
一种基于相位质量加权卷积神经网络的干涉相位解缠方法 Download PDFInfo
- Publication number
- CN117523344B CN117523344B CN202410021944.0A CN202410021944A CN117523344B CN 117523344 B CN117523344 B CN 117523344B CN 202410021944 A CN202410021944 A CN 202410021944A CN 117523344 B CN117523344 B CN 117523344B
- Authority
- CN
- China
- Prior art keywords
- layer
- phase
- convolution
- network
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 56
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 28
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 37
- 238000004804 winding Methods 0.000 claims description 29
- 230000004913 activation Effects 0.000 claims description 24
- 238000010587 phase diagram Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000005305 interferometry Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9023—SAR image post-processing techniques combined with interferometric techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于相位质量加权卷积神经网络的干涉相位解缠方法,包括:创建干涉相位数据集,将干涉相位数据集划分为训练数据集和测试数据集;构建相位质量加权卷积神经网络;设置相位质量加权卷积神经网络训练起始学习率、最大学习率、训练批量数和训练轮次数,利用训练数据集对构建的网络进行训练,得到训练好的网络;利用训练好的网络对测试数据集进行测试,获得干涉相位解缠结果。本发明实现了干涉相位的高精度解缠,具有收敛速度快、鲁棒性强、实时性强以及相位解缠准确率高的特点,能够提高合成孔径雷达干涉测量的精度。
Description
技术领域
本发明涉及一种基于相位质量加权卷积神经网络的干涉相位解缠方法,属于合成孔径雷达干涉测量技术领域。
背景技术
干涉合成孔径雷达(interferometric SAR,InSAR)技术在20世纪70年代逐步发展起来,将无线电干涉测量技术与合成孔径雷达(SAR)技术结合,在获取二维SAR图像的同时还能够提取地表的三维信息和变化信息。InSAR的工作原理是获取同一地面场景的复图像对,通过目标与两天线位置的路径差在复图像上形成的相位差与InSAR成像参数的几何关系,精确测量出图像上每一点的高程信息或者变化信息。该技术目前在地形测绘、地表形变监测、海洋研究、陆地覆盖分类等领域有着广泛的应用。除了民用方面的相关应用,该技术在军事领域同样成果显著,例如地面动目标检测、军事伪装目标识别等。相位解缠是InSAR技术中较为关键重要的一环,因此,深入研究相位解缠相关技术显得尤为重要。
由于三角函数的周期性,干涉相位被缠绕在之间,需要通过相位解缠将缠绕的相位恢复为与地形高程相对应的真实相位。较为经典的两种干涉相位解缠算法为路径跟踪法和最小范数法。其中路径跟踪算法可由枝切法或质量指导法实现,该方法可以将误差限制在噪声区域内,避免相位误差的全局传播。
近年来,随着人工智能技术的快速发展,基于现有的深度学习U-net(U型卷积神经网络)等神经网络模型,结合相位解缠的原理及相关算法,已有科研工作者将神经网络应用与干涉相位解缠相关领域,并做出了突出贡献。但现有的解缠方法存在模型训练时间长、鲁棒性差、解缠准确率低等弊端。因此,对于干涉相位解缠场景,如何提出一个收敛速度快、实时性强、鲁棒性强以及解缠准确率高的干涉相位解缠方法,正是亟待解决的技术难题。
发明内容
本发明所要解决的技术问题是:提供一种基于相位质量加权卷积神经网络的干涉相位解缠方法,设计相位质量加权卷积神经网络,实现干涉相位高精度解缠,提升合成孔径雷达干涉测量精度。
本发明为解决上述技术问题采用以下技术方案:
一种基于相位质量加权卷积神经网络的干涉相位解缠方法,包括如下步骤:
步骤1,创建干涉相位图数据集,将干涉相位图数据集划分为训练数据集和测试数据集;
步骤2,构建相位质量加权卷积神经网络;
步骤3,设置相位质量加权卷积神经网络训练起始学习率、最大学习率、训练批量数和训练轮次数,利用训练数据集对步骤2构建的网络进行训练,得到训练好的网络;
步骤4,利用训练好的网络对测试数据集进行测试,获得干涉相位解缠结果。
作为本发明的一种优选方案,所述步骤1的具体过程如下:
步骤11,通过混合高斯噪声和添加沿垂直方向的斜坡创建任意的相位图,创建的相位图的数量为10000,每个相位图像素尺寸大小为,像素值在-65至65之间;
步骤12,对每个相位图进行像素相位缠绕,得到真实缠绕相位图数据集,缠绕相位计算公式如下:
,
其中,为求角度符号,exp为以自然常数e为底的指数函数,/>为干涉相位图的像素原始真实相位,/>为像素在干涉相位图中的空间坐标,j为虚数单位;
步骤13,对每个相位图随机赋予0dB、1dB、5dB或7dB的高斯加性噪声后,再进行像素相位缠绕,得到噪声缠绕相位图数据集;
步骤14,构建干涉相位图数据集,包括真实缠绕相位图数据集和噪声缠绕相位图数据集,将干涉相位图数据集划分为训练数据集和测试数据集。
作为本发明的一种优选方案,所述步骤2中,相位质量加权卷积神经网络具体包括:输入层、编码器网络、LSTM模块、相位质量权值计算子网络、解码器网络、第九卷积层以及第一至第五连接层;其中,输入层的输出端连接编码器网络、相位质量权值计算子网络的输入端,编码器网络的输出端经LSTM模块与解码器网络的输入端连接,解码器网络的输出端连接第九卷积层,相位质量权值计算子网络的输出端经第五连接层与第九卷积层连接;
编码器网络包括第一至第四卷积层以及第一至第四最大池化层,第一至第四卷积层依次串联,每个卷积层后面连接一个最大池化层,输入层的输出端连接第一卷积层,第四最大池化层输出至LSTM模块;
解码器网络包括第五至第八卷积层以及第五至第八上采样层,第五至第八卷积层依次串联,每个卷积层后面连接一个上采样层,LSTM模块的输出端连接第五卷积层的输入端,第八上采样层输出至第九卷积层;
第四卷积层通过第一连接层与第五卷积层连接,第三卷积层通过第二连接层与第六卷积层连接,第二卷积层通过第三连接层与第七卷积层连接,第一卷积层通过第四连接层与第八卷积层连接。
作为本发明的一种优选方案,所述相位质量权值计算子网络包括第十至第十二卷积层、第一至第二非线性激活函数层、一个反卷积层、一个池化层和一个激活函数层,第十卷积层、第一非线性激活函数层、池化层、第十一卷积层、第二非线性激活函数层、反卷积层、第十二卷积层和激活函数层依次串联;输入层的输出端连接第十卷积层的输入端,激活函数层的输出端经第五连接层与第九卷积层连接。
作为本发明的一种优选方案,第一卷积层、第二卷积层、第七卷积层和第八卷积层的结构相同,均包括第一至第三卷积块,第一卷积块由卷积层、归一化层和线性激活函数层依次串联而成,第二和第三卷积块均由卷积层和归一化层串联而成;第一、第二、第七或第八卷积层的输入经第三卷积块得到第一结果,第一、第二、第七或第八卷积层的输入依次经第一和第二卷积块后得到第二结果,第一结果与第二结果相加后再经过一个线性激活函数层,得到第一、第二、第七或第八卷积层的输出。
作为本发明的一种优选方案,第三卷积层、第四卷积层、第五卷积层和第六卷积层的结构相同,均包括第四至第七卷积块,第四和第五卷积块均由卷积层、归一化层和线性激活函数层依次串联而成,第六和第七均由卷积层和归一化层串联而成;第三、第四、第五或第六卷积层的输入经第七卷积块后得到第三结果,第三、第四、第五或第六卷积层的输入依次经第四、第五和第六卷积块后得到第四结果,第三结果和第四结果相加后再经过一个线性激活函数层,得到第三、第四、第五或第六卷积层的输出。
作为本发明的一种优选方案,所述步骤3的具体过程如下:
(1)设置相位质量加权卷积神经网络训练起始学习率、最大学习率、训练批量数和训练轮次数,利用训练数据集对构建的网络进行训练;
(2)采用K-means聚类算法迭代求解,通过L2范数正则化防止网络过拟合;
(3)使用Adam梯度优化算法对网络训练进行优化,优化过程中使用的损失函数公式如下:
,
式中,L表示损失函数,为训练数据集样本真实值与网络训练估计值之差,表示相位像素坐标,b为正系数;
(4)重复(2)和(3),直到网络收敛,获得最终用于干涉相位解缠的相位质量加权卷积神经网络模型和权值,保存网络训练权值。
一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明通过创建干涉相位数据集,设计并训练相位质量加权卷积神经网络,利用该网络实现干涉相位的高精度解缠,具有收敛速度快、鲁棒性强、实时性强以及相位解缠准确率高的特点,能够提高合成孔径雷达干涉测量的精度。
附图说明
图1是本发明一种基于相位质量加权卷积神经网络的干涉相位解缠方法的流程图;
图2是相位质量加权卷积神经网络结构图;
图3是相位质量加权卷积神经网络Conv_1结构图;
图4 是相位质量加权卷积神经网络Conv_2结构图;
图5 是相位质量权值计算子网络 (PW-NET)结构图;
图6 是本发明所提网络训练损失精度图;
图7 是本发明0dB噪声干涉缠绕相位图;
图8 是本发明原始真实干涉相位图;
图9 是本发明0dB噪声干涉缠绕相位解缠结果图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,为本发明提出的一种基于相位质量加权卷积神经网络的干涉相位解缠方法的流程图,具体步骤如下:
1)干涉相位数据集创建
(1)通过混合高斯噪声和添加沿垂直方向的斜坡创建任意的相位图。
(2)进行像素相位缠绕,得到真实缠绕相位图数据集,缠绕相位计算公式如下:
,
其中,exp为以自然常数e为底的指数函数,为干涉相位图像素原始真实相位,/>为像素在相位图中的空间坐标,/>为求角度符号。
(3)在(1)的基础上对相位图随机赋予0dB、1dB、5dB和7dB的高斯加性噪声后,再进行像素相位缠绕,得到噪声缠绕相位图数据集。
(4)创建数据规模为10000的干涉相位图数据集,每个干涉相位图像素尺寸大小为,像素值-65至65。干涉相位图数据集包括真实缠绕相位图数据集和噪声缠绕相位图数据集,真实缠绕相位图数据集中的真实缠绕相位图和噪声缠绕相位图数据集中的噪声缠绕相位图一一对应。
2)相位质量加权卷积神经网络结构设计
相位质量加权卷积神经网络结构如图2所示,由Input(m, m, c)层、编码器网络(Encoder)、LSTM模块、相位质量权值计算子网络(PW-NET)、5个连接层Cat、解码器网络(Decoder)以及Conv(c, k, s, p)层组成。编码器网络包括2个卷积层Conv_1(c, k, s,p)、2个卷积层Conv_2(c, k, s, p)、4个最大池化层MaxPooling(c, k, s),按照图2所示依次级联而成,编码器输出与LSTM网络相连;解码器网络包含2个卷积层Conv_2(c, k, s,p)、两个卷积层Conv_1(c, k, s, p)、4个上采样层Up_Conv(c, k, s, p)依次串联而成,输出至Conv(c, k, s, p)层;编码器网络卷积块、连接层Cat和解码器网络卷积块之间的连接关系如图2所示。输入层与编码器网络和PW-NET模块连接,PW-NET模块包括3个卷积层Convolutional Layer(c, k, s, p)、2个非线性激活函数层Relu Layer(c, k, s, p)、一个反卷积层Transposed Convolutio (c, k, s, p)、一个池化层Pooling Layer(k,s,p)和一个激活函数层Softmax Layer,按照图5所示依次级联而成,输出特征图T,特征图T与连接层Cat连接,连接层Cat输出与Conv(c, k, s, p)层连接。其中,卷积层Conv_1(c, k, s, p)表示卷积层加归一化层加线性激活函数层的卷积块,结构如图3所示;卷积层Conv_2(c, k,s, p)表示卷积层加双重归一化层和线性激活层的卷积块,结构如图4所示;m´m表示图像数据像素尺寸大小,c为通道数,k表示核尺寸大小,s表示步行数,p为填充数。
3)相位质量加权卷积神经网络训练
(1)设置训练起始学习率0.0001、最大学习率0.01、训练批量数4及训练轮次数100。将干涉相位数据集划分成训练数据集和测试数据集。将训练数据集送入相位质量加权卷积神经网络。
(2)训练过程中,采用K-means聚类算法迭代求解,通过L2范数正则化防止网络过拟合。
(3)使用Adam梯度优化算法对网络训练进行优化,优化过程中使用的损失函数公式如下:
,
式中,为训练数据集样本真实值与网络训练估计值之差,/>表示相位像素坐标,b为正系数,取值为0.2。
(4)重复(2)、(3)步,直到网络收敛,获得最终用于干涉相位解缠的相位质量加权卷积神经网络模型和权值,保存网络训练权值。
4)相位质量加权卷积神经网络测试
加载网络训练权值,将测试集数据作为输入值送入网络,测试网络,获得干涉相位解缠结果。
利用归一化均方根误差NRMSE对相位质量加权卷积神经网络进行评价,NRMSE的数值越小,相位解缠精度越高,网络性能越好,计算公式如下:
,
其中,为归一化均方根误差,N为训练数据集样本,/>为训练数据集样本k的真实值与其网络训练估计值之差,/>表示相位像素坐标。
本发明构建的相位质量加权卷积神经网络训练损失精度图如图6所示,0dB噪声干涉缠绕相位图如图7所示,原始真实干涉相位图如图8所示,0dB噪声干涉缠绕相位结果如图9所示,试验结果证明,本发明能够实现低信噪比干涉缠绕相位的准确解缠,NRMSE结果达到了1.75%,而U-net、QGPU及PhaseNet方法分别只有3.80%、4.89%和16.97%,是一种收敛速度快、实时性强、鲁棒性强以及低信噪比条件下准确率高的干涉相位解缠方法,能有效提升合成孔径雷达干涉测量精度。
基于同一发明构思,本申请实施例提供一种计算机设备,包括存储器、处理器,以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现前述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
基于同一发明构思,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现前述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图来描述的。应理解可由计算机程序指令实现流程图中的每一流程以及流程图中的流程的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程中指定的功能的步骤。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.一种基于相位质量加权卷积神经网络的干涉相位解缠方法,其特征在于,包括如下步骤:
步骤1,创建干涉相位图数据集,将干涉相位图数据集划分为训练数据集和测试数据集;
步骤2,构建相位质量加权卷积神经网络;相位质量加权卷积神经网络具体包括:输入层、编码器网络、LSTM模块、相位质量权值计算子网络、解码器网络、第九卷积层以及第一至第五连接层;其中,输入层的输出端连接编码器网络、相位质量权值计算子网络的输入端,编码器网络的输出端经LSTM模块与解码器网络的输入端连接,解码器网络的输出端连接第九卷积层,相位质量权值计算子网络的输出端经第五连接层与第九卷积层连接;
编码器网络包括第一至第四卷积层以及第一至第四最大池化层,第一至第四卷积层依次串联,每个卷积层后面连接一个最大池化层,输入层的输出端连接第一卷积层,第四最大池化层输出至LSTM模块;
解码器网络包括第五至第八卷积层以及第五至第八上采样层,第五至第八卷积层依次串联,每个卷积层后面连接一个上采样层,LSTM模块的输出端连接第五卷积层的输入端,第八上采样层输出至第九卷积层;
第四卷积层通过第一连接层与第五卷积层连接,第三卷积层通过第二连接层与第六卷积层连接,第二卷积层通过第三连接层与第七卷积层连接,第一卷积层通过第四连接层与第八卷积层连接;
所述相位质量权值计算子网络包括第十至第十二卷积层、第一至第二非线性激活函数层、一个反卷积层、一个池化层和一个激活函数层,第十卷积层、第一非线性激活函数层、池化层、第十一卷积层、第二非线性激活函数层、反卷积层、第十二卷积层和激活函数层依次串联;输入层的输出端连接第十卷积层的输入端,激活函数层的输出端经第五连接层与第九卷积层连接;
第一卷积层、第二卷积层、第七卷积层和第八卷积层的结构相同,均包括第一至第三卷积块,第一卷积块由卷积层、归一化层和线性激活函数层依次串联而成,第二和第三卷积块均由卷积层和归一化层串联而成;第一、第二、第七或第八卷积层的输入经第三卷积块得到第一结果,第一、第二、第七或第八卷积层的输入依次经第一和第二卷积块后得到第二结果,第一结果与第二结果相加后再经过一个线性激活函数层,得到第一、第二、第七或第八卷积层的输出;
第三卷积层、第四卷积层、第五卷积层和第六卷积层的结构相同,均包括第四至第七卷积块,第四和第五卷积块均由卷积层、归一化层和线性激活函数层依次串联而成,第六和第七均由卷积层和归一化层串联而成;第三、第四、第五或第六卷积层的输入经第七卷积块后得到第三结果,第三、第四、第五或第六卷积层的输入依次经第四、第五和第六卷积块后得到第四结果,第三结果和第四结果相加后再经过一个线性激活函数层,得到第三、第四、第五或第六卷积层的输出;
步骤3,设置相位质量加权卷积神经网络训练起始学习率、最大学习率、训练批量数和训练轮次数,利用训练数据集对步骤2构建的网络进行训练,得到训练好的网络;
步骤4,利用训练好的网络对测试数据集进行测试,获得干涉相位解缠结果。
2.根据权利要求1所述的基于相位质量加权卷积神经网络的干涉相位解缠方法,其特征在于,所述步骤1的具体过程如下:
步骤11,通过混合高斯噪声和添加沿垂直方向的斜坡创建任意的相位图,创建的相位图的数量为10000,每个相位图像素尺寸大小为256×256,像素值在-65至65之间;
步骤12,对每个相位图进行像素相位缠绕,得到真实缠绕相位图数据集,缠绕相位计算公式如下:
其中,∠为求角度符号,exp为以自然常数e为底的指数函数,φ(x,y)为干涉相位图的像素原始真实相位,(x,y)为像素在干涉相位图中的空间坐标,j为虚数单位;
步骤13,对每个相位图随机赋予0dB、1dB、5dB或7dB的高斯加性噪声后,再进行像素相位缠绕,得到噪声缠绕相位图数据集;
步骤14,构建干涉相位图数据集,包括真实缠绕相位图数据集和噪声缠绕相位图数据集,将干涉相位图数据集划分为训练数据集和测试数据集。
3.根据权利要求1所述的基于相位质量加权卷积神经网络的干涉相位解缠方法,其特征在于,所述步骤3的具体过程如下:
(1)设置相位质量加权卷积神经网络训练起始学习率、最大学习率、训练批量数和训练轮次数,利用训练数据集对构建的网络进行训练;
(2)采用K-means聚类算法迭代求解,通过L2范数正则化防止网络过拟合;
(3)使用Adam梯度优化算法对网络训练进行优化,优化过程中使用的损失函数公式如下:
式中,L表示损失函数,y′(i,j)为训练数据集样本真实值与网络训练估计值之差,(i,j)表示相位像素坐标,b为正系数;
(4)重复(2)和(3),直到网络收敛,获得最终用于干涉相位解缠的相位质量加权卷积神经网络模型和权值,保存网络训练权值。
4.一种计算机设备,包括存储器、处理器,以及存储在所述存储器中并能够在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述的基于相位质量加权卷积神经网络的干涉相位解缠方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410021944.0A CN117523344B (zh) | 2024-01-08 | 2024-01-08 | 一种基于相位质量加权卷积神经网络的干涉相位解缠方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410021944.0A CN117523344B (zh) | 2024-01-08 | 2024-01-08 | 一种基于相位质量加权卷积神经网络的干涉相位解缠方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117523344A CN117523344A (zh) | 2024-02-06 |
CN117523344B true CN117523344B (zh) | 2024-03-19 |
Family
ID=89746129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410021944.0A Active CN117523344B (zh) | 2024-01-08 | 2024-01-08 | 一种基于相位质量加权卷积神经网络的干涉相位解缠方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523344B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110719A (zh) * | 2019-03-27 | 2019-08-09 | 浙江工业大学 | 一种基于注意层区域卷积神经网络的目标检测方法 |
CN110163817A (zh) * | 2019-04-28 | 2019-08-23 | 浙江工业大学 | 一种基于全卷积神经网络的相位主值提取方法 |
CN110287969A (zh) * | 2019-06-14 | 2019-09-27 | 大连理工大学 | 基于图残差注意力网络的摩尔文本图像二值化系统 |
CN111812647A (zh) * | 2020-07-11 | 2020-10-23 | 桂林电子科技大学 | 一种用于干涉合成孔径雷达相位解缠方法 |
EP3896482A1 (en) * | 2020-04-15 | 2021-10-20 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for the computer-implemented generation of a synthetic data set for training a convolutional neural network for an interferometric sar |
CN114265062A (zh) * | 2021-11-11 | 2022-04-01 | 电子科技大学 | 一种基于相位梯度估计网络的InSAR相位解缠方法 |
CN116148857A (zh) * | 2023-04-18 | 2023-05-23 | 南京信息工程大学 | 一种基于空间四向记忆网络的低信噪比干涉相位解缠方法 |
-
2024
- 2024-01-08 CN CN202410021944.0A patent/CN117523344B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110719A (zh) * | 2019-03-27 | 2019-08-09 | 浙江工业大学 | 一种基于注意层区域卷积神经网络的目标检测方法 |
CN110163817A (zh) * | 2019-04-28 | 2019-08-23 | 浙江工业大学 | 一种基于全卷积神经网络的相位主值提取方法 |
CN110287969A (zh) * | 2019-06-14 | 2019-09-27 | 大连理工大学 | 基于图残差注意力网络的摩尔文本图像二值化系统 |
EP3896482A1 (en) * | 2020-04-15 | 2021-10-20 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for the computer-implemented generation of a synthetic data set for training a convolutional neural network for an interferometric sar |
CN111812647A (zh) * | 2020-07-11 | 2020-10-23 | 桂林电子科技大学 | 一种用于干涉合成孔径雷达相位解缠方法 |
CN114265062A (zh) * | 2021-11-11 | 2022-04-01 | 电子科技大学 | 一种基于相位梯度估计网络的InSAR相位解缠方法 |
CN116148857A (zh) * | 2023-04-18 | 2023-05-23 | 南京信息工程大学 | 一种基于空间四向记忆网络的低信噪比干涉相位解缠方法 |
Non-Patent Citations (2)
Title |
---|
"Phase Unwrapping using a Joint CNN and SQD-LSTM Network";Roland Akiki 等;《Image Processing On Line》;20221007;第378-388页 * |
一种组合的InSAR数据的相位解缠算法;王紫燕;袁运斌;;自然科学进展;20080715(07);第833-835页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117523344A (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109541596B (zh) | 基于深度学习算法的InSAR图像处理方法及装置 | |
CN105699969B (zh) | 基于广义高斯约束的最大后验估计角超分辨成像方法 | |
CN111950438B (zh) | 基于深度学习的天宫二号成像高度计有效波高反演方法 | |
CN113065467B (zh) | 一种基于深度学习的卫星图像低相干区域识别方法及装置 | |
CN112180369B (zh) | 基于深度学习的一维综合孔径辐射计海面风速反演方法 | |
CN110954860B (zh) | 一种doa和极化参数估计方法 | |
CN110728706A (zh) | 基于深度学习的sar图像精细配准方法 | |
CN116977311B (zh) | 一种洪涝灾害区域检测方法、系统、电子设备及存储介质 | |
CN115438571B (zh) | 一种基于机器学习的地波雷达波浪场计算方法及装置 | |
CN116012364A (zh) | Sar图像变化检测方法和装置 | |
CN113589286A (zh) | 基于D-LinkNet的无迹卡尔曼滤波相位解缠方法 | |
Geiss et al. | Inpainting radar missing data regions with deep learning | |
CN108509835B (zh) | 基于DFIC超像素的PolSAR图像地物分类方法 | |
CN117523344B (zh) | 一种基于相位质量加权卷积神经网络的干涉相位解缠方法 | |
CN117471457A (zh) | 基于深度展开复网络的稀疏sar学习成像方法、装置及介质 | |
CN116148857A (zh) | 一种基于空间四向记忆网络的低信噪比干涉相位解缠方法 | |
CN117173556A (zh) | 一种基于孪生神经网络的小样本sar目标识别方法 | |
CN115877377B (zh) | 一种雷达组网矢量流场合成方法、系统、设备及存储介质 | |
CN111951204A (zh) | 一种基于深度学习的天宫二号探测数据海面风速反演方法 | |
CN116681844A (zh) | 一种基于亚米级立体像对卫星影像的建筑物白膜构建方法 | |
CN113484842B (zh) | 基于目标姿态分帧与散射字典截断的rcs重构方法 | |
CN112946601B (zh) | 基于Gauss-Seidel的高效分布式目标相位优化方法 | |
CN111967292B (zh) | 一种轻量级的sar图像船只检测方法 | |
CN115267673A (zh) | 考虑重建网格偏移的稀疏声源成像方法、系统 | |
CN113805233A (zh) | 一种点扩散函数的计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |