CN112381172B - 一种基于U-net的InSAR干涉图像相位解缠方法 - Google Patents

一种基于U-net的InSAR干涉图像相位解缠方法 Download PDF

Info

Publication number
CN112381172B
CN112381172B CN202011367355.6A CN202011367355A CN112381172B CN 112381172 B CN112381172 B CN 112381172B CN 202011367355 A CN202011367355 A CN 202011367355A CN 112381172 B CN112381172 B CN 112381172B
Authority
CN
China
Prior art keywords
layer
network
convolution
phase
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011367355.6A
Other languages
English (en)
Other versions
CN112381172A (zh
Inventor
谢先明
梁峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202011367355.6A priority Critical patent/CN112381172B/zh
Publication of CN112381172A publication Critical patent/CN112381172A/zh
Application granted granted Critical
Publication of CN112381172B publication Critical patent/CN112381172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9023SAR image post-processing techniques combined with interferometric techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于U‑net的InSAR干涉图像相位解缠方法,包括S1,创建InSAR模拟数据集;S2,创建准实测数据集;S3,将S1和S2创建好的两种数据放入改进的U‑net模型中进行训练;S4,将待解缠相位图像放入已训练好的U‑net模型中得出解缠出的真实相位图像。本发明将U‑net架构、ASPP网络以及瓶颈残差网络结合起来,将不同扩张率的扩张卷积特征结合捕获丰富的上下文信息,能够在不牺牲特征空间分辨率的同时扩大特征接收野,有利于精确获取缠绕干涉图特征信息,提高相位解缠算法的稳健性;瓶颈残差单元可使网络模型在减小参数计算量的同时防止网络退化,提高网络训练精度与效率。与现有技术相比,本发明解缠精度相对较高、抗噪性能相对较强。

Description

一种基于U-net的InSAR干涉图像相位解缠方法
技术领域
本发明属于图像相位解缠领域,涉及InSAR干涉图像相位解缠,尤其涉及一种基于U-net的InSAR干涉图像相位解缠方法。
背景技术
目前相位解缠算法包括以枝切法与质量引导算法为代表的路径跟踪类算法、以最小二乘法为代表的最小范数类算法、以网络流法为代表的网络规划类算法、以卡尔曼滤波法为代表的状态估计类算法等、以全卷积网络为代表的深度学习类算法等方法。路径跟踪类算法利用各种各样策略定义合适路径,并沿此路径积分获取其解缠相位,以尽量减少或避免相位解缠过程中误差累积效应。最小范数类算法首先在最小范数准则框架下构造一个解缠相位梯度与缠绕相位梯度之差的代价函数,随后利用各种方法得到使代价函数最小的解。网络规划类算法把干涉图相位解缠问题转化为网络流代价函数的最小化问题。状态估计类算法把干涉图相位解缠问题转化非线性条件下的状态估计问题,几乎同时执行相位噪声抑制与相位解缠。深度学习类算法通过构建编码-解码网络实现相位解缠,网络模型前半部分对输入图像进行下采样,特征图经过卷积层和池化层后进入解码路径,最后对特征图进行上采样并输出解缠结果。
路径跟踪类算法、最小范数类算法、网络规划类算法等方法易受干涉相位噪声的影响,有时难以有效解缠噪声干涉图,且路径跟踪类算法与网络规划类算法均在一定程度上存在相位解缠精度与效率难以兼顾的问题;状态估计类算法具有较强抗相位噪声性能,通常能有效处理低信噪比干涉图的相位解缠问题,但时间耗费代价较大;深度学习类算法具有一定泛化性,但目前此类算法的解缠精度有限且无法对实测地形数据进行解缠。
发明内容
为了解决上述问题,本发明提供一种解缠精度相对较高、抗噪性能相对较强的基于U-net的InSAR干涉图像相位解缠方法。
实现本发明目的的技术方案是:
一种基于U-net的InSAR干涉图像相位解缠方法,包括以下步骤:
S1,创建合成孔径雷达干涉(Interferometric Synthetic Aperture Radar,简称InSAR)模拟数据集;
S2,创建准实测数据集;
S3,将S1和S2创建好的两种数据放入改进的U-net模型中进行训练;
S4,将待解缠相位图像放入已训练好的U-net模型中得出解缠出的真实相位图像。
进一步地,所述S1包括如下步骤:
S1-1,构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声。
进一步地,所述S2包括如下步骤:
S2-1,对滤波后的实测数据使用无迹卡尔曼滤波(Unscented Kalman Filter,简称UKF)算法进行相位解缠,再将得到后的解缠结果重缠绕;
S2-2,对重缠绕后的图像以及S2-1得到的解缠相位标签进行分割、旋转、放大操作;
S2-3,将S2-2所得到的缠绕相位中加入不同信噪比的噪声,增强数据集的抗噪性。
进一步地,所述S3包括如下步骤:
S3-1,单通道的缠绕相位图从改进的U-net模型的第一单元的输入层进入,经卷积层将图像通道数调整为8后通过残差网络层输出特征图;
S3-2,上层特征图经过空间金字塔池(Atrous Spatial Pyramid Pooling,简称ASPP)模块后输出,该模块采取了四种不同采样率的卷积层和全局池化层并行操作,使网络层融合了不同尺度信息特征图;
S3-3,最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷积操作将图像通道数加倍;
S3-4,重复S3-1~S3-3,直到特征图进入编码路径最后的单元模块完成编码操作;
S3-5,特征图先经过上采样放大并减半通道数,再通过跳跃连接与编码路径中的输出特征图进行拼接;
S3-6,拼接后的特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层;
S3-7,重复S3-5~S3-6,直到特征图通道数降为8,再通过卷积操作将特征图变为单通道图输出。
进一步地,S3所述改进的U-net模型,是把U-net架构、空间金字塔池(ASPP)网络以及瓶颈残差网络结合起来,构建一种改进的基于U-net模型的相位解缠网络;该网络结合U-net模型、残差神经网络和DeepLabv3+网络模型的特点,由编码路径、解码路径以及跳跃连接路径组成;网络左边的编码路径的作用是通过6个单元模块由浅入深地逐层提取输入相位图特征信息,其中每个单元模块包括卷积模块、残差网络层、ASPP网络层、最大池化层,其中卷积模块包括Conv层+批量归一化BN+激活函数Relu,最大池化层窗口为2×2;右边解码路径的作用是通过反卷积操作恢复抽象信息和定位图像细节信息,各单元模块包括上采样层、连接层、卷积模块和残差模块,上采样层窗口为2×2,其中上采样层在放大特征图的同时通过卷积操作保证通道数与左侧的编码路径相同,使两侧路径的特征图可实现跳跃连接。
进一步地,所述S4中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过ASPP网络层输出融合了不同尺度信息特征图,并通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
本发明的优点或有益效果:
本发明将U-net架构、空间金字塔池(ASPP)网络以及瓶颈残差网络结合起来,利用ASPP模型结合多尺度信息和扩张卷积的优势,将不同扩张率的扩张卷积特征结合到一起来捕获丰富的上下文信息,能够在不牺牲特征空间分辨率的同时扩大特征接收野,有利于精确获取缠绕干涉图特征信息,提高相位解缠算法的稳健性,此外,瓶颈残差单元可使网络模型在减小参数计算量的同时防止网络退化,提高网络训练精度与效率。与其他类型深度学习相位解缠方法相比,本发明方法解缠精度相对较高、抗噪性能相对较强。
附图说明
图1为本发明实施例中基于U-net的图像相位解缠模型网络训练示意图;
图2为本发明实施例中基于U-net的图像相位解缠模型将待解缠的缠绕干涉图输入到已训练好的网络模型中得到解缠结果的示意图;
图3a~图3d为S1中模拟InSAR数据集生成示意图,其中图3a为随机创建的5×5初始矩阵示意图;图3b为对原初始矩阵进行插值放大示意图;图3c为生成的真实相位示意图;图3d为含噪声缠绕干涉示意图;
图4a图4b为S2中实测InSAR数据示意图,其中图4a为滤波后的Enta火山干涉示意图;图4b为某实测InSAR干涉示意图;
图5a和图5c分别为UKF算法对图4a图4b的解缠结果示意图,图5b和图5d为重缠绕图像示意图;
图6a-图6d为对图5b和图5d进行分割、旋转及放大后获取的部分训练数据
图7a为真实解缠相位示意图;图7b为真实解缠相位的重缠绕相位图;图7c-图7d分别为对图7b添加不同噪声后的缠绕相位图;
图8为实施例中改进的基于U-net的相位解缠网络示意图;
图9为本发明实施例中瓶颈残差网络示意图;
图10为本发明实施例中ASPP网络示意图。
具体实施方式
下面结合实施例和附图对本发明内容作进一步的阐述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
下面结合附图来描述本发明提出的一种基于U-net的InSAR干涉图像相位解缠方法的基本过程。
基于深度学习相位解缠模型如图1和图2所示,其中,图1为网络训练示意图,通过训练数据集建立缠绕相位和真实相位之间的非线性映射,获得训练好的网络模型;将待解缠的缠绕干涉图输入到已训练好的网络模型中即可得到解缠结果,如图2所示。
一种基于U-net的InSAR干涉图像相位解缠方法,包括以下步骤:
S1,创建InSAR模拟数据集;
S2,创建准实测数据集;
S3,将S1和S2创建好的两种数据放入改进的U-net模型中进行训练;
S4,将待解缠相位图像放入已训练好的U-net模型中得出解缠出的真实相位图像。
进一步地,S1包括如下步骤:
S1-1,构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声,例如选择三个不同的信噪比为16.98dB、10.96dB、7.4dB。
如图3a-图3d所示,图3a随机创建的5×5初始矩阵;图3b为对原初始矩阵进行插值放大;图3c为生成的真实相位图;图3d为含噪声缠绕干涉图。首先按照图3a方式构建20000个2×2~20×20的随机初始矩阵,再使用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到放大后的真实相位干涉图,最后将生成的真实相位图转换成含不同信噪比的噪声缠绕相位。在网络训练过程中,把生成的真实相位图作为其相应的噪声缠绕相位图的标签图像。
进一步地,S2包括如下步骤:
S2-1,对滤波后的实测数据使用UKF算法进行相位解缠,再将得到后的解缠结果重缠绕;
S2-2,对重缠绕后的图像以及S2-1得到的解缠相位标签进行分割、旋转、放大操作;
S2-3,将S2-2所得到的缠绕相位中加入不同信噪比的噪声,增强数据集的抗噪性,例如选择三个不同的信噪比为16.98dB、10.96dB和7.4dB。
图4a和图4b分别为滤波后的Enta火山干涉图以及某实测InSAR干涉图;图5a和图5c分别为UKF算法对图4a图4b的解缠结果图,图5b和图5d为重缠绕图像;图6a-图6d为对图5b和图5d进行分割、旋转及放大后获取的部分训练数据。图7a为真实解缠相位图,即标签图像,图7b为真实解缠相位的重缠绕相位图,图7c-图7d分别为对图7b添加不同噪声后的缠绕相位图。首先利用UKF算法解缠实测InSAR干涉图,获得其解缠相位与相应的重缠绕干涉图,随后把不同类型的相位噪声添加到重缠绕干涉图中得到不同信噪比的噪声缠绕相位图。在网络训练过程中,把UKF算法获得解缠相位作为其相应的噪声缠绕相位图的标签图像。通过对大量实测InSAR数据进行分割、扩充、旋转等操作共产生17000组准实测InSAR数据。
进一步地,S3包括如下步骤:
S3-1,单通道的缠绕相位图从U-net模型的第一单元的输入层进入,经卷积层将图像通道数调整为8后通过残差网络层输出特征图;
S3-2,ASPP模块采取了四种不同采样率的卷积层和全局池化层并行操作,使网络层融合了不同尺度信息特征图;
S3-3,最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷积操作将图像通道数加倍;
S3-4,重复S3-1~S3-3,直到特征图进入编码路径最后的单元模块完成编码操作;
S3-5,特征图先经过上采样放大并减半通道数,再通过跳跃连接与编码路径中的输出特征图进行拼接;
S3-6,拼接后的特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层;
S3-7,重复S3-5~S3-6,直到特征图通道数降为8,再通过卷积操作将特征图变为单通道图输出。
其中残差模块和ASPP模块介绍如下:
残差模块:在神经网络中添加层数可以提取更丰富的干涉图像特征信息,而增加网络深度会容易造成梯度弥散和梯度爆炸的现象。瓶颈残差网络如图9所示,其中Conv为卷积层、BN为批量归一化、ReLU为该模块使用的激活函数;特征图先通过卷积核分别为1×1、3×3、1×1的卷积模块,再与初始输入结合通过激活函数得到输出,残差模块可使网络模型在减小参数计算量的同时防止网络退化。
ASPP模块:ASPP(Atrous Spatial Pyramid Pooling)网络如图10所示,包括全局平均池化层(Avg-Pooling)以及采样率(Rate)分别为1、6、12、18的扩张卷积。其中全局池化层先对输入的特征图进行全局信息提取,再通过卷积核为1×1的卷积层上采样到与输入特征图相同尺寸;四种不同采样率的扩张卷积并行操作可以保证网络计算量不变的同时更好地保留干涉图中的结构特征,让ASPP网络可更完整地对输入特征图进行多尺度信息提取;ASPP通过连接层把全局平均池化层以及四个不同采样率的扩张卷积层输出的特征图串接在一起,最后通过卷积核为3×3的卷积层调整通道数,作为ASPP模块的输出。
S3所述改进的U-net模型,是把U-net架构、空间金字塔池(ASPP)网络以及瓶颈残差网络结合起来,构建一种改进的基于U-net模型的相位解缠网络;该网络结合U-net模型、残差神经网络和DeepLabv3+网络模型的特点,由编码路径、解码路径以及跳跃连接路径组成;在图8所示网络中,竖条形框表示特征图在网络各个阶段的分布情况,上方的数字为特征图通道数,条形框下方的数字为特征图大小,虚线框表示复制对应的编码路径输出层,右下角箭头标记表示网络中对应的操作,网络左边的编码路径的作用是通过6个单元模块由浅入深地逐层提取输入相位图特征信息,其中每个单元模块包括卷积模块、残差网络层、ASPP网络层、最大池化层,其中卷积模块包括Conv层+批量归一化BN+激活函数Relu,最大池化层窗口为2×2;右边解码路径的作用是通过反卷积操作恢复抽象信息和定位图像细节信息,各单元模块包括上采样层、连接层、卷积模块和残差模块,上采样层窗口为2×2,其中上采样层在放大特征图的同时通过卷积操作保证通道数与左侧的编码路径相同,使两侧路径的特征图可实现跳跃连接。
S4中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过ASPP网络层输出融合了不同尺度信息特征图,并通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
本实施例数据集的制作基于MATLAB 2018b仿真软件,模型开发平台为python3.7,使用Tensorflow-1.13.0框架、Keras版本为2.3.0;用于网络模型训练和实验测试的计算机主要参数如下:NVIDIA GeForce RTX 2080Ti GPU,Xeon W-2145 CPU(3.7 GHz) + 64GBRAM。解缠一幅图需要耗时1.13s。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (3)

1.一种基于U-net的InSAR干涉图像相位解缠方法,其特征在于,包括以下步骤:
S1,创建InSAR模拟数据集;
S2,创建准实测数据集;
S3,将S1和S2创建好的两种数据放入改进的U-net模型中进行训练;
S4,将待解缠相位图像放入已训练好的U-net模型中得出解缠出的真实相位图像;
S3所述改进的U-net模型,是把U-net架构、空间金字塔池(ASPP)网络以及瓶颈残差网络结合起来,构建一种改进的基于U-net模型的相位解缠网络;该网络结合U-net模型、残差神经网络和DeepLabv3+网络模型的特点,由编码路径、解码路径以及跳跃连接路径组成;网络左边的编码路径的作用是通过6个单元模块由浅入深地逐层提取输入相位图特征信息,其中每个单元模块包括卷积模块、残差网络层、ASPP网络层、最大池化层,其中卷积模块包括Conv层+批量归一化BN+激活函数Relu,最大池化层窗口为2×2;右边解码路径的作用是通过反卷积操作恢复抽象信息和定位图像细节信息,各单元模块包括上采样层、连接层、卷积模块和残差模块,上采样层窗口为2×2,其中上采样层在放大特征图的同时通过卷积操作保证通道数与左侧的编码路径相同,使两侧路径的特征图可实现跳跃连接。
2.根据权利要求1所述的基于U-net的InSAR干涉图像相位解缠方法,其特征在于,S3包括如下步骤:
S3-1,单通道的缠绕相位图从U-net模型的第一单元的输入层进入,经卷积层将图像通道数调整为8后通过残差网络层输出特征图;
S3-2,ASPP模块采取了四种不同采样率的卷积层和全局池化层并行操作,使网络层融合了不同尺度信息特征图;
S3-3,最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷积操作将图像通道数加倍;
S3-4,重复S3-1~S3-3,直到特征图进入编码路径最后的单元模块完成编码操作;
S3-5,特征图先经过上采样放大并减半通道数,再通过跳跃连接与编码路径中的输出特征图进行拼接;
S3-6,拼接后的特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层;
S3-7,重复S3-5~S3-6,直到特征图通道数降为8,再通过卷积操作将特征图变为单通道图输出。
3.根据权利要求1所述的基于U-net的InSAR干涉图像相位解缠方法,其特征在于,S4中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过ASPP网络层输出融合了不同尺度信息特征图,并通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
CN202011367355.6A 2020-11-28 2020-11-28 一种基于U-net的InSAR干涉图像相位解缠方法 Active CN112381172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011367355.6A CN112381172B (zh) 2020-11-28 2020-11-28 一种基于U-net的InSAR干涉图像相位解缠方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011367355.6A CN112381172B (zh) 2020-11-28 2020-11-28 一种基于U-net的InSAR干涉图像相位解缠方法

Publications (2)

Publication Number Publication Date
CN112381172A CN112381172A (zh) 2021-02-19
CN112381172B true CN112381172B (zh) 2022-09-16

Family

ID=74587833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011367355.6A Active CN112381172B (zh) 2020-11-28 2020-11-28 一种基于U-net的InSAR干涉图像相位解缠方法

Country Status (1)

Country Link
CN (1) CN112381172B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927236B (zh) * 2021-03-01 2021-10-15 南京理工大学 一种基于通道注意力和自监督约束的服装解析方法及系统
CN113268701B (zh) * 2021-03-08 2023-01-03 桂林电子科技大学 一种基于网络流的枝切法相位解缠方法
CN113129294A (zh) * 2021-04-28 2021-07-16 桂林电子科技大学 多尺度连接深度学习一步相位展开方法
CN113129295A (zh) * 2021-04-28 2021-07-16 桂林电子科技大学 全尺度连接的深度学习相位展开方法
CN113238227B (zh) * 2021-05-10 2022-09-30 电子科技大学 一种结合深度学习的改进最小二乘相位解缠方法及系统
CN113409377B (zh) * 2021-06-23 2022-09-27 四川大学 一种基于跳跃连接式生成对抗网络的相位展开方法
CN115310482A (zh) * 2022-07-31 2022-11-08 西南交通大学 一种桥梁钢筋的雷达智能识别方法
WO2024098379A1 (zh) * 2022-11-11 2024-05-16 深圳先进技术研究院 一种基于扩张残差网络的全自动心脏磁共振成像分割方法
CN116224327B (zh) * 2023-02-20 2023-08-01 中国矿业大学 一种基于学习网络的矿区大梯度形变区相位解缠方法
CN116148857A (zh) * 2023-04-18 2023-05-23 南京信息工程大学 一种基于空间四向记忆网络的低信噪比干涉相位解缠方法
CN117572420B (zh) * 2023-11-14 2024-04-26 中国矿业大学 一种基于深度学习的InSAR相位解缠优化方法
CN117233764B (zh) * 2023-11-14 2024-01-30 兰州交通大学 一种基于R2AU-Net的InSAR相位解缠方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275783A (zh) * 2020-01-19 2020-06-12 上海联影医疗科技有限公司 磁共振图像的相位解缠方法、装置及磁共振成像系统
CN111612790A (zh) * 2020-04-29 2020-09-01 杭州电子科技大学 一种基于t型注意力结构的医学图像分割方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8447089B2 (en) * 2010-04-27 2013-05-21 Chunlei Liu Systems and methods for susceptibility tensor imaging
CN107193005B (zh) * 2017-06-16 2020-03-17 桂林电子科技大学 一种无损卡尔曼滤波与粒子滤波相结合的相位展开算法
US11756160B2 (en) * 2018-07-27 2023-09-12 Washington University ML-based methods for pseudo-CT and HR MR image estimation
CN109712109A (zh) * 2018-11-06 2019-05-03 杭州电子科技大学 一种基于残差卷积神经网络的光学图像相位解缠绕方法
CN109886880B (zh) * 2019-01-03 2021-02-26 杭州电子科技大学 一种基于U-Net分割网络的光学图像相位解缠绕方法
US11294015B2 (en) * 2019-02-05 2022-04-05 University Of Virginia Patent Foundation Method and system for deep convolutional neural net for artifact suppression in dense MRI
CN110378367B (zh) * 2019-06-05 2021-04-30 深圳大学 用于相位展开的生成式对抗网络的获取方法、装置及系统
CN111047551B (zh) * 2019-11-06 2023-10-31 北京科技大学 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN111681180B (zh) * 2020-05-25 2022-04-26 厦门大学 先验驱动的深度学习图像去雾方法
CN111812647B (zh) * 2020-07-11 2022-06-21 桂林电子科技大学 一种用于干涉合成孔径雷达相位解缠方法
CN111947599B (zh) * 2020-07-24 2022-03-22 南京理工大学 基于学习的条纹相位恢复和散斑相关的三维测量方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275783A (zh) * 2020-01-19 2020-06-12 上海联影医疗科技有限公司 磁共振图像的相位解缠方法、装置及磁共振成像系统
CN111612790A (zh) * 2020-04-29 2020-09-01 杭州电子科技大学 一种基于t型注意力结构的医学图像分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Urban Land Use and Land Cover Classification Using Novel Deep Learning Models Based on High Spatial Resolution Satellite Imagery;Pengbin Zhang等;《Sensors》;20181101;第1-21页 *

Also Published As

Publication number Publication date
CN112381172A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN112381172B (zh) 一种基于U-net的InSAR干涉图像相位解缠方法
CN112861729B (zh) 一种基于伪深度图引导的实时深度补全方法
CN111598778B (zh) 一种绝缘子图像超分辨率重建方法
CN111797717A (zh) 一种高速高精度的sar图像船只检测方法
CN112597985B (zh) 一种基于多尺度特征融合的人群计数方法
CN111797678B (zh) 基于复合神经网络的相位解包裹方法和装置
CN116229283A (zh) 基于深度可分离卷积模块的遥感图像变化检测系统及方法
CN116309070A (zh) 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备
CN115937794B (zh) 小目标对象检测方法、装置、电子设备及存储介质
Ji et al. Image interpolation using multi-scale attention-aware inception network
CN115272683A (zh) 一种基于深度学习的中心差分信息滤波相位解缠方法
Dong et al. Real-world remote sensing image super-resolution via a practical degradation model and a kernel-aware network
Deng et al. Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution
CN117437523B (zh) 联合sar ccd和全局信息捕获的微弱痕迹检测方法
CN111223046B (zh) 一种图像超分辨率重建方法及装置
Zhao et al. SSIR: Spatial shuffle multi-head self-attention for single image super-resolution
CN116579959B (zh) 用于高光谱图像的融合成像方法及装置
CN116091492B (zh) 一种图像变化像素级检测方法与系统
CN116433686A (zh) 基于Transformer上下文信息融合的医学图像分割方法及相关设备
CN115496654A (zh) 基于自注意力机制的图像超分辨率重建方法、设备及介质
Liu et al. Hyperspectral image super-resolution employing nonlocal block and hybrid multiscale three-dimensional convolution
CN113129294A (zh) 多尺度连接深度学习一步相位展开方法
CN113129295A (zh) 全尺度连接的深度学习相位展开方法
CN118015460A (zh) 一种基于跨尺度引导和增强的遥感图像变化检测方法
Wang et al. A Sub-Pixel Convolution-Based Residual Network for Hyperspectral Image Change Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant