CN113129295A - 全尺度连接的深度学习相位展开方法 - Google Patents
全尺度连接的深度学习相位展开方法 Download PDFInfo
- Publication number
- CN113129295A CN113129295A CN202110470505.4A CN202110470505A CN113129295A CN 113129295 A CN113129295 A CN 113129295A CN 202110470505 A CN202110470505 A CN 202110470505A CN 113129295 A CN113129295 A CN 113129295A
- Authority
- CN
- China
- Prior art keywords
- phase
- layer
- full
- scale
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9023—SAR image post-processing techniques combined with interferometric techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种全尺度连接的深度学习相位展开方法,包括创建InSAR模拟数据集;将S1创建好的两种数据放入全尺度连接的深度学习中进行训练;将待解缠相位图像放入已训练好的全尺度连接的深度学习中得出解缠出的真实相位图像。本发明以U‑Net3+为骨架,实现从缠绕相位到真实相位的直接映射。在编码模块与解码模块之间利用全尺度跳跃连接把编码模块中不同尺度的特征图与解码模块中携带高级语义信息的特征图有机的结合在一起;在编码层和解码层添加残差网络,防止因网络层数过深带来的梯度弥散和网络退化问题;完成训练后的网络能有效解缠不同类型干涉图,不需要进行任何后处理。实验结果表明本文网络具有很好的泛化能力以及较高的解缠效率。
Description
技术领域
本发明属于图像相位解缠领域,涉及干涉测量技术应用中图像相位解缠,尤其涉及全尺度连接的深度学习相位展开方法。
背景技术
相位解缠是许多干涉测量技术应用中不可或缺的步骤,在各种干涉测量技术应用中获得的干涉图通常存在程度不一的干涉相位噪声以及相位不连续问题,这使得干涉图相位解缠问题迄今为止仍是一个非常具有挑战性的问题。现有的干涉图相位解缠算法大致分为路径跟踪法、最小范数法、网络规划法以及具有噪声鲁棒性的卡尔曼滤波算法等。其中路径跟踪算法主要包括质量引导算法、枝切法、掩膜切割法、最小不连续算法等算法,这类算法通过设置合适的积分路径,将误差限制在一定区域内,尽可能减缓或降低解缠相位误差的累积传递效应。最小范数类算法包括FFT最小二乘法、加权最小二乘法等算法,这类方法将相位解缠问题转化为最小范数框架下的全局优化问题,通常在具有良好的解缠效率同时,亦易导致干涉图解缠相位出现过平滑问题,可能带来较为严重的相位解缠误差。网格规划法是将干涉图相位解缠问题转化为求解网络费用流的优化问题,主要有最小费用流和统计费用流等算法,但这类方法解缠精度与解缠效率通常易受干涉图相位噪声的影响,难以有效解决干涉相位噪声较为严重的干涉图的相位解缠问题。卡尔曼滤波类算法能在相位解缠的同时进行干涉相位噪声抑制,既不受相位残差点影响,这类方法降低了前置滤波对相位解缠的限制,但时间耗费代价太大,难以实现实时处理。
发明内容
为了解决上述问题,本发明提供一种解缠精度相对较高、抗噪性能相对较强的高效的全尺度连接的深度学习相位展开方法。
实现本发明目的的技术方案是:
全尺度连接的深度学习相位展开方法,包括以下步骤:
S1,创建干涉图数据集,得到真实相位图与缠绕相位图;
S2,将S1创建好的两种数据放入全尺度连接的深度学习模型中进行训练,得到训练后的权值;
S3,将待解缠相位图像放入已训练好的全尺度连接的深度学习模型中得出解缠出的真实相位图像。
进一步地,所述S1包括如下步骤:
S1-1,通过随机函数,得到构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,使用Zernike前20个系数多项式得到大小为400像素×400像素初始矩阵;
S1-4,利用Zernike矩阵,截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-5,从晋城真实相位中截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-6,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声,得到缠绕相位图。
进一步地,所述S2包括如下步骤:
S2-1,单通道的缠绕相位图从改进的全尺度连接的深度学习模型的编码模块的输入层进入,经卷积层将图像通道数调整后通过残差网络层,最后在通过卷积层输出,得到特征图;
S2-2,上层特征图通过最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷及操作,得到图像通道数加倍后的特征图;
S2-3,重复S2-1~S2-2,直到特征图进入编码路径最后的单元模块完成编码操作;
S2-4,上述特征图先经过上采样放大并减半通道数,再通过全尺度跳跃连接与编解码路径中每一个单元模块的输出特征图进行拼接,得到融合特征图;
S2-5,上述特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层处;
S2-6,重复S2-4~S2-5,直到特征图通道数降为8,再通过卷积操作,得到单通道特征图。
进一步地,S2所述全尺度连接的深度学习模型,以U-Net3+为骨架添加残差神经网络,由对称的编码路径、解码路径以及全尺度跳跃连接组成;网络左侧为编码路径,利用6个子模块由浅入深地逐层提取干涉图特征信息,其中每个单元模块包括卷积层、残差网络层及最大池化层;与编码路径一样,右侧解码路径亦包含六个子模块,各单元模块包括上采样反卷积层、全尺度跳跃连接层、卷积层、残差网络层等。全尺度跳跃连接作为网络的核心部分,解码阶段上采样层在放大特征图的同时通过卷积操作保持特征图通道数与左侧编码路径不同阶段输出特征图通道数匹配,即每一解码层都均衡桥接了来自不同编码层中包含相位细节信息的大尺度特征图和解码层中抽象的干涉图条纹特征图;此外,每层中经典残差模块的采用,可防止网络退化,亦在提取更丰富的干涉相位特征信息的同时防止造成梯度弥散和梯度爆炸的现象;最终通过卷积操作调整特征图通道数,即可获得分辨率为256×256特征图,亦即干涉图解缠相位图。全尺度连接的深度学习模型的输入为缠绕相位图,其输出为其解缠相位图。
进一步地,所述S3中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、全尺度跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
本发明的优点或有益效果:
本发明方法以U-Net3+为骨架,构建适用于不同类型干涉图解缠的网络架构,实现从缠绕相位到真实相位的直接映射。首先,在编码模块与解码模块之间利用全尺度跳跃连接把编码模块中不同尺度的特征图与解码模块中携带高级语义信息的特征图有机的结合在一起,拓展解码模块输出特征图相位细节信息;其次,在编码层和解码层添加残差网络,防止因网络层数过深带来的梯度弥散和网络退化问题;最后,完成训练后的网络能有效解缠不同类型干涉图,不需要进行任何后处理。实验结果表明本文网络具有很好的泛化能力以及较高的解缠效率。
附图说明
图1a为本发明实施例中全尺度连接的深度学习模型网络训练示意图;
图1b为本发明实施例中将待解缠的缠绕干涉图输入到已训练好的网络模型中得到解缠结果的示意图;
图2Ⅰ为本发明实施例中双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图与加噪干涉图;
图2Ⅱ为本发明实施例中从Zernike矩阵中截取大小为256像素×256像素的真实相位矩阵以及加噪干涉图;
图2Ⅲ为本发明实施例中从晋城真实相位中截取大小为256像素×256像素的真实相位矩阵以及加噪干涉图;
图3为本发明实施例中全尺度连接的深度学习模型即基于Unet3+的相位解缠网络图;
图4为本发明实施例中全尺度跳跃连接中X3De模块例图。
具体实施方式
下面结合实施例和附图对本发明内容作进一步的阐述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
下面结合附图来描述本发明提出的全尺度连接的深度学习相位展开方法的基本过程。
基于全尺度连接的深度学习相位展开方法模型如图1a和图1b所示,其中,图1a为网络训练示意图,通过训练数据集建立缠绕相位和真实相位之间的非线性映射,获得训练好的网络模型;将待解缠的缠绕干涉图输入到已训练好的网络模型中即可得到解缠结果,如图1b所示。
全尺度连接的深度学习相位展开方法,包括以下步骤:
S1,创建干涉图数据集,得到27000组真实相位图与缠绕相位图;
S2,将S1创建好的两种数据放入全尺度连接的深度学习模型中进行训练,得到训练后的权值;
S3,将待解缠相位图像放入已训练好的全尺度连接的深度学习相位展开方法模型中得出解缠出的真实相位图像。
进一步地,所述S1包括如下步骤:
S1-1,通过随机函数,得到构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,使用Zernike前20个系数多项式得到大小为400像素×400像素初始矩阵;
S1-4,利用Zernike矩阵,截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-5,从晋城真实相位中截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-6,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声,得到缠绕相位图。
其中,j表示复数,jφ表示复相位,俗称缠绕相位,在构建网络模型所需要的数据集时,先产生真实干涉相位图,再利用公式(1)获得其缠绕相位图,随后把不同类型的噪声添加到绕干涉图中以获取不同信噪比的噪声缠绕相位图,即把标准差为0到0.2的高斯噪声以及分布密度为0.01的椒盐噪声添加到绕干涉图中,来获取不同信噪比的噪声缠绕相位图。如图2I、图2II和图2III所示,按如下三种方式生产:
(I)按双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图,标签图像相位范围为0~60弧度;
(II)按Zernike函数前20个系数多项式像素大小为400像素×400像素(可以根据具体情况调整),裁剪后像素为256像素×256像素,初始矩阵标签图像相位范围为0~60弧度;
(III)从从晋城真实相位中截取大小为256像素×256像素的真实相位矩阵,即先把DEM数据根据INSAR理论转换为真实干涉相位,随后产生添加不同噪声的缠绕相位图,其图像大小为256像素×256像素,标签图像相位范围为0~60弧度不等。
上述数据集包含训练数据集20000组,验证数据集7000组。图2I-图2III分别为按S1中三种数据集产生方式的产生部分干涉图数据,其中图2I为S1-2数据产生方式(I)产生的部分干涉图数据包括真实干涉相位图与添加不同噪声的缠绕相位图,图2II为按S1-4数据产生方式(II)产生的部分干涉图数据包括真实干涉相位图与添加不同噪声的缠绕相位图,图2III为按S1-5数据产生方式(III)产生的部分干涉图数据包括真实干涉相位图与添加不同噪声的缠绕相位图。
进一步地,所述S2包括如下步骤:
S2-1,单通道的缠绕相位图从改进的全尺度连接的深度学习模型的编码模块的输入层进入,经卷积层将图像通道数调整后通过残差网络层,最后在通过卷积层输出,得到特征图;
S2-2,上层特征图通过最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷及操作,得到图像通道数加倍后的特征图;
S2-3,重复S2-1~S2-2,直到特征图进入编码路径最后的单元模块完成编码操作;
S2-4,上述特征图先经过上采样放大并减半通道数,再通过全尺度跳跃连接与编解码路径中每一个单元模块的输出特征图进行拼接,得到融合特征图;
S2-5,上述特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层处;
S2-6,重复S2-4~S2-5,直到特征图通道数降为8,再通过卷积操作,得到单通道特征图。
其中残差模块和全尺度跳跃连接机制介绍如下:
残差模块:在神经网络中添加层数可以提取更丰富的干涉图像特征信息,而增加网络深度会容易造成梯度弥散和梯度爆炸的现象。瓶颈残差网络如图2中R所示,其中Conv为卷积层、BN为批量归一化、ReLU(Rectified Linear Unit,修正线性单元)为该模块使用的激活函数;特征图先通过卷积核分别为3×3、3×3的卷积模块,再与初始输入结合通过激活函数得到输出,残差模块可使网络模型在减小参数计算量的同时防止网络退化。
全尺度跳跃连接机制:全尺度跳跃连接详细结构如图3所示,以X3De为例,每一个解码器层都包含来自编码器的小尺度、同尺度以及来自解码器的大尺度特征映射,可捕获完整尺度下的细粒度细节和粗粒度语义。此连接改变了编码器和解码器之间的互连以及解码器子网之间的内连接,与经典U-Net框架类似,网络直接接收来自相同尺度编码器层的特征图X3En。与之不同的是,不仅增加了不同尺寸的池化跳跃连接,包括三条X0En、X1En、X2En小尺度编码器层进行池化下采样,传递底层低级语义信息,从图4可知,X0En、X1En、X2En分别缩小尺寸8、4、2倍,通道数保持不变;同理增添两条不同尺寸上采样跳跃连接,即通过双线性插值方式对解码器中的X4De放大分辨率2倍、X5De放大分辨率4倍,通道数与X3En保持一致。统一特征图分辨率同时减少冗余信息,同时将浅层精细信息和深层语义信息进行特征融合;实验得出64个3×3滤波器能取得最佳效果,最后经过残差和卷积BN+ReLU即可得到X3De。与上述规律不同的是,为取得更好解缠结果,输出层由上采样得到卷积块通道数调整为32。
若从公式表示这种全尺度跳跃连接,i表示沿着编码方向的第i个下采样层,N表示编码器个数5,特征图XiDe的计算如下:
其中C表示卷积操作,函数Ψ表示特征的聚合机制,一个卷积+BN+ReLU,函数U表示上采样,函数D表示下采样,[﹒]表示通道维度拼接融合。
进一步地,S2所述全尺度连接的深度学习相位展开方法模型如图3所示,以U-Net3+为骨架添加残差神经网络,由对称的编码路径、解码路径以及全尺度跳跃连接组成。网络左侧为编码路径,利用6个子模块由浅入深地逐层提取干涉图特征信息,其中每个单元模块包括卷积层,如图3中[C]所示,Conv层+批量归一化BN+激活函数ReLU、残差网络层及最大池化层。与编码路径一样,右侧解码路径亦包含六个子模块,各单元模块包括上采样反卷积层、全尺度跳跃连接层、卷积层和残差网络层,如图3中[R]等。
全尺度跳跃连接作为网络的核心部分,如图3中线条所示,为保持网络不同尺度特征图之间的信息平衡,亦使编解码两边路径的特征图可实现跳跃连接及叠加,解码阶段上采样层在放大特征图的同时通过卷积操作保持特征图通道数与左侧编码路径不同阶段输出特征图通道数匹配,即每一解码层都均衡桥接了来自不同编码层中包含相位细节信息的大尺度特征图和解码层中抽象的干涉图条纹特征图。使得网络在解码过程中能循循递进的无缝合并相位细节信息与深层的语义条纹信息,进一步实现相位细节信息与干涉条纹特征的聚合机制,亦即对干涉相位特征图信息进行了全面的深层次监督,既能捕捉条纹又能捕捉精细具有清晰边界的相位。此外,每层中经典残差模块的采用,可防止网络退化,亦在提取更丰富的干涉相位特征信息的同时防止造成梯度弥散和梯度爆炸的现象;最终通过卷积操作调整特征图通道数,即可获得分辨率为256×256特征图,亦即干涉图解缠相位图。全尺度连接的深度学习相位展开方法模型的输入为缠绕相位图,其输出为其解缠相位图。
进一步地,所述S3中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、全尺度跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
本实施例数据集的制作基于MATLAB 2016a仿真软件,模型开发平台为python3.6,使用Tensorflow-1.13.0框架、Keras版本为2.2.4;用于网络模型训练和实验测试的计算机主要参数如下:NVIDIA GeForce RTX 2080Ti GPU,Inter i9-10900X+64GB RAM。解缠一幅图需要耗时0.012s。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.全尺度连接的深度学习相位展开方法,其特征在于,包括以下步骤:
S1,创建干涉图数据集,得到真实相位图与缠绕相位图;
S2,将S1创建好的两种数据放入全尺度连接的深度学习模型中进行训练,得到训练后的权值;
S3,将待解缠相位图像放入已训练全尺度连接的深度学习模型中得出解缠出的真实相位图像。
2.根据权利要求1所述的全尺度连接的深度学习相位展开方法,其特征在于,S1包括如下步骤:
S1-1,通过随机函数,得到构建2×2~20×20随机初始矩阵;
S1-2,用双三次插值法对初始矩阵扩展进行插值放大到256像素×256像素,得到真实相位干涉图;
S1-3,使用Zernike前20个系数多项式得到大小为400像素×400像素初始矩阵;
S1-4,利用Zernike矩阵,截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-5,从晋城真实相位中截取大小为256像素×256像素的真实相位矩阵,得到真实相位图;
S1-6,将生成的真实相位图重缠绕相位并加入不同信噪比的噪声,得到缠绕相位图。
3.根据权利要求1所述的全尺度连接的深度学习相位展开方法,其特征在于,S2包括如下步骤:
S2-1,单通道的缠绕相位图从改进的全尺度连接的深度学习模型的编码模块的输入层进入,经卷积层将图像通道数调整后通过残差网络层,最后在通过卷积层输出,得到特征图;
S2-2,上层特征图通过最大池化层对传入的特征图进行下采样后传入模型的下一单元模块,由下一单元模块中的卷及操作,得到图像通道数加倍后的特征图;
S2-3,重复S2-1~S2-2,直到特征图进入编码路径最后的单元模块完成编码操作;
S2-4,上述特征图先经过上采样放大并减半通道数,再通过全尺度跳跃连接与编解码路径中每一个单元模块的输出特征图进行拼接,得到融合特征图;
S2-5,上述特征图依次经过卷积模块、残差模块、卷积模块输出到下个上采样层处;
S2-6,重复S2-4~S2-5,直到特征图通道数降为8,再通过卷积操作,得到单通道特征图。
4.根据权利要求1所述的全尺度连接的深度学习相位展开方法,其特征在于,S2所述改进U-Net3+模型,以U-Net3+为骨架添加残差神经网络,由对称的编码路径、解码路径以及全尺度跳跃连接组成;网络左侧为编码路径,利用六个子模块由浅入深地逐层提取干涉图特征信息,其中每个单元模块包括卷积层、残差网络层及最大池化层;与编码路径一样,右侧解码路径亦包含六个子模块,各单元模块包括上采样反卷积层、全尺度跳跃连接层、卷积层和残差网络层;
全尺度跳跃连接,解码阶段上采样层在放大特征图的同时通过卷积操作保持特征图通道数与左侧编码路径不同阶段输出特征图通道数匹配,即每一解码层都均衡桥接了来自不同编码层中包含相位细节信息的大尺度特征图和解码层中抽象的干涉图条纹特征图;最终通过卷积操作调整特征图通道数,即可获得分辨率为256×256特征图,亦即干涉图解缠相位图,全尺度连接的深度学习相位展开模型的输入为缠绕相位图,其输出为其解缠相位图。
5.根据权利要求1所述的全尺度连接的深度学习相位展开方法,其特征在于,S3中,单通道的缠绕相位图从输入层进入,经第一单元模块卷积层将图像通道数调整为8后通过残差网络层输出特征图,再通过最大池化层实现下采样,特征图进入后一单元模块再利用卷积操作将通道数加倍,随后重复第一单元模块中的操作,直到特征图进入编码路径最后单元模块完成编码工作,随后再依次通过解码路径中各单元模块中上采样层、全尺度跳跃连接、卷积层和残差网络层执行解缠操作,其中解码路径中各单元模块依次减半图像通道数,最后由输出层输出解缠结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110470505.4A CN113129295A (zh) | 2021-04-28 | 2021-04-28 | 全尺度连接的深度学习相位展开方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110470505.4A CN113129295A (zh) | 2021-04-28 | 2021-04-28 | 全尺度连接的深度学习相位展开方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113129295A true CN113129295A (zh) | 2021-07-16 |
Family
ID=76780675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110470505.4A Pending CN113129295A (zh) | 2021-04-28 | 2021-04-28 | 全尺度连接的深度学习相位展开方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129295A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886880A (zh) * | 2019-01-03 | 2019-06-14 | 杭州电子科技大学 | 一种基于U-Net分割网络的光学图像相位解缠绕方法 |
CN110349103A (zh) * | 2019-07-01 | 2019-10-18 | 昆明理工大学 | 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法 |
US20190320934A1 (en) * | 2018-04-18 | 2019-10-24 | Siemens Healthcare Gmbh | Medical image acquisition with sequence prediction using deep learning |
US20200184660A1 (en) * | 2018-12-11 | 2020-06-11 | Siemens Healthcare Gmbh | Unsupervised deformable registration for multi-modal images |
CN111598964A (zh) * | 2020-05-15 | 2020-08-28 | 厦门大学 | 一种基于空间自适应网络的定量磁化率图像重建方法 |
CN112036415A (zh) * | 2020-08-13 | 2020-12-04 | 常州机电职业技术学院 | 一种用于单帧随机相移干涉图的深度学习相位提取方法 |
CN112381172A (zh) * | 2020-11-28 | 2021-02-19 | 桂林电子科技大学 | 一种基于U-net的InSAR干涉图像相位解缠方法 |
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
-
2021
- 2021-04-28 CN CN202110470505.4A patent/CN113129295A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190320934A1 (en) * | 2018-04-18 | 2019-10-24 | Siemens Healthcare Gmbh | Medical image acquisition with sequence prediction using deep learning |
US20200184660A1 (en) * | 2018-12-11 | 2020-06-11 | Siemens Healthcare Gmbh | Unsupervised deformable registration for multi-modal images |
CN109886880A (zh) * | 2019-01-03 | 2019-06-14 | 杭州电子科技大学 | 一种基于U-Net分割网络的光学图像相位解缠绕方法 |
CN110349103A (zh) * | 2019-07-01 | 2019-10-18 | 昆明理工大学 | 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法 |
CN111598964A (zh) * | 2020-05-15 | 2020-08-28 | 厦门大学 | 一种基于空间自适应网络的定量磁化率图像重建方法 |
CN112036415A (zh) * | 2020-08-13 | 2020-12-04 | 常州机电职业技术学院 | 一种用于单帧随机相移干涉图的深度学习相位提取方法 |
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
CN112381172A (zh) * | 2020-11-28 | 2021-02-19 | 桂林电子科技大学 | 一种基于U-net的InSAR干涉图像相位解缠方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112381172B (zh) | 一种基于U-net的InSAR干涉图像相位解缠方法 | |
JP7108061B2 (ja) | 歪んだドキュメント画像の矯正方法及び装置 | |
CN113222823B (zh) | 基于混合注意力网络融合的高光谱图像超分辨率方法 | |
CN112861729B (zh) | 一种基于伪深度图引导的实时深度补全方法 | |
CN111797678B (zh) | 基于复合神经网络的相位解包裹方法和装置 | |
CN109886880B (zh) | 一种基于U-Net分割网络的光学图像相位解缠绕方法 | |
CN110322400A (zh) | 图像处理方法及装置、图像处理系统及其训练方法 | |
CN117274608B (zh) | 基于空间细节感知和注意力引导的遥感图像语义分割方法 | |
CN113888491B (zh) | 基于非局部特征的多级高光谱图像递进超分方法及系统 | |
CN109146792B (zh) | 基于深度学习的芯片图像超分辨率重建方法 | |
CN104899835A (zh) | 基于盲模糊估计与锚定空间映射的图像超分辨处理方法 | |
CN111986092B (zh) | 一种基于双重网络的图像超分辨率重建方法及系统 | |
CN115661635A (zh) | 基于Transformer融合卷积神经网络的高光谱图像重建方法 | |
Deng et al. | Multiple frame splicing and degradation learning for hyperspectral imagery super-resolution | |
CN113129294A (zh) | 多尺度连接深度学习一步相位展开方法 | |
CN113129295A (zh) | 全尺度连接的深度学习相位展开方法 | |
CN111223046B (zh) | 一种图像超分辨率重建方法及装置 | |
CN113344779B (zh) | 基于卡通纹理分解和深度学习的sar图像超分辨方法及系统 | |
Wang et al. | SS-INR: Spatial-spectral implicit neural representation network for hyperspectral and multispectral image fusion | |
CN114638761A (zh) | 一种高光谱图像全色锐化方法、设备及介质 | |
CN115830625A (zh) | 基于FractalNet网络改进的手势图像特征提取方法 | |
Hur et al. | Finding the best conic approximation to the convolution curve of two compatible conics based on Hausdorff distance | |
JP7031511B2 (ja) | 信号処理装置、畳み込みニューラルネットワーク、信号処理方法及び信号処理プログラム | |
Wang et al. | Image super‐resolution based on self‐similarity generative adversarial networks | |
CN116819615B (zh) | 一种地震数据重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210716 |