CN117475172A - 一种基于深度学习的高噪声环境相位图解包裹方法和系统 - Google Patents

一种基于深度学习的高噪声环境相位图解包裹方法和系统 Download PDF

Info

Publication number
CN117475172A
CN117475172A CN202311836502.3A CN202311836502A CN117475172A CN 117475172 A CN117475172 A CN 117475172A CN 202311836502 A CN202311836502 A CN 202311836502A CN 117475172 A CN117475172 A CN 117475172A
Authority
CN
China
Prior art keywords
phase
gradient
map
unwrapping
preliminary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311836502.3A
Other languages
English (en)
Other versions
CN117475172B (zh
Inventor
吴中健
童亚拉
杨晓艳
卢萧朵
李思骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202311836502.3A priority Critical patent/CN117475172B/zh
Publication of CN117475172A publication Critical patent/CN117475172A/zh
Application granted granted Critical
Publication of CN117475172B publication Critical patent/CN117475172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度学习的高噪声环境相位图解包裹方法和系统。本发明包括如下步骤:步骤1、利用滤波降噪对高噪声包裹相位进行去噪处理;步骤2、利用步骤1提供的降噪包裹相位图,使用初步相位解包网络PPUN(初步相位解包裹网络,Preliminary phase unwrapping network)预测相位数,并完成对包裹相位的初步解包;步骤3、利用步骤1提供的降噪包裹相位图生成梯度特征图;步骤4、利用步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图,通过精密相位解包网络FPUN(精细相位解包裹网络,Fine phase unwrapping network)进行融合处理,输出最终的解包裹图像。本发明提出的方法解决了传统解包方法在梯度较大的位置出现较大误差的问题,同时大大提高了抗噪能力和相位解包裹的精度。

Description

一种基于深度学习的高噪声环境相位图解包裹方法和系统
技术领域
本发明属于图像处理领域,具体涉及一种基于深度学习的高噪声环境相位图解包裹方法和系统。
背景技术
相位解包是条纹投影轮廓仪、合成孔径雷达、数字全息干涉仪、磁共振成像等现代测量技术的重要组成部分。目前,相位解缠方法主要分为传统方法和深度学习方法。传统的相位解包方法不仅会导致路径依赖和过度平滑的结果,而且在处理大型相位图时耗时过长。现有的基于深度学习的相位解包方法由于没有充分利用包裹相位图的特点,在面对高噪声相位图时显得无能为力。
在现有研究中,几乎没有人将梯度特征嵌入网络。这导致基于语义分割的相位解包方法总是在梯度较大的位置出现较大误差,原因是当相位出现跳跃时,现有的语义分割模型很难区分包裹相位。为此,本发明提出了一种基于深度学习的高噪声环境相位图解包裹方法。
发明内容
本发明的目的在于提供一种基于深度学习的高噪声环境相位图解包裹方法,目前许多深度学习相位解包方法已成功应用于相位测量,但仍存在以下局限:在高噪声情况下抗噪声能力不足、解包裹算法没有充分利用包裹相位的特征,导致相位解包裹的精度不够。基于此,本发明充分考虑了包裹相位的特点,设计了一种新的深度学习相位解包裹网络。所提出的方法通过实验数据进行了验证,取得了优于其他方法的效果。具体按照以下步骤实施:
步骤1,使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图;
步骤2,基于步骤1提供的降噪包裹相位图,预测相位数,并完成对包裹相位的初步解包,得到初步解包裹相位图;
步骤3,利用步骤1提供的降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图;
步骤4,对步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图进行融合处理,输出最终的解包裹图像。
进一步的,步骤2中使用初步相位解包裹网络PPUN预测相位数,PPUN为编码器-解码器结构,其中编码器为骨干特征提取网络resnet50,并使用5个最大池化分别提取不同分辨率的高级语义特征和低级语义特征,在解码器中通过上采样将特征图恢复至原始分辨率,并使用跳转连接来融合高级语义特征和低级语义特征,解码器的最终特征图通过卷积映射到单通道,并通过softmax层输出初步解包裹相位图。
进一步的,使用交叉熵作为PPUN训练的损失函数。
进一步的,在PPUN中的第五个特征图中引入卷积块注意力模块CBAM,自适应地重新校准卷积层的特征响应,其定义为:
其中,/>, 和/>分别是第五个特征图,经过通道注意机制处理后的第五个特征图,以及经过空间注意机制处理后的第五个特征图,/>和/>分别指通道和空间掩码,W表示空间注意力模块卷积层的权重,Sigmoid代表激活函数,MLP代表前馈神经网络,MaxPool和AvgPool分别代表最大池化和平均池化,Cat代表把两种特征图沿着通道方向堆叠。
进一步的,步骤3中梯度特征图的定义为:
其中表示相位图梯度幅度,/>表示降噪包裹相位图/>方向上的梯度,表示降噪包裹相位图/>方向上的梯度。
进一步的,步骤4中利用精细相位解包裹网络FPUN进行融合处理,FPUN包括梯度注意模块GAM、残差块和卷积层,首先通过梯度注意模块对步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图进行融合,然后通过n个残差块和卷积层后,输出最终的精细解包裹相位图。
进一步的,梯度注意模块GAM的具体处理为:将初步解包裹相位图和梯度特征图作为输入,通过卷积层分别提取初步解包相位的特征和包裹相位的梯度特征,将初步解包相位的特征与空间注意力机制得到的梯度空间注意力掩码相乘,得到新的中间特征,通过通道注意力机制对新的中间特征进行重组,通过残差块将重组后的特征与初步解包相位特征相加,得到最终的输出特征,其过程可定义为:
其中,和/>表示初步解包相位图和卷积层提取的相应特征,和/>表示梯度特征图和相应的梯度特征,W2是空间注意力模块中的卷积层权重,/>和/>表示卷积层的权重,/>和/>表示相应的偏离值,和/>分别是空间注意机制处理得到的新的中间特征和通道注意机制重组后的特征,/>和/>分别指通道和空间掩码,Sigmoid代表激活函数,MLP代表前馈神经网络,AvgPool代表平均池化,/>表示GAM 输出的相位特征。
进一步的,使用绝对值损失作为精细相位解包裹网络FPUN训练的损失函数。
另一方面,本发明还提供一种基于深度学习的高噪声环境相位图解包裹系统,包括如下模块:
降噪包裹相位图获取模块,用于使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图;
初步解包裹相位图获取模块,用于基于降噪包裹相位图,预测相位数,并完成对包裹相位的初步解包,得到初步解包裹相位图;
梯度特征图获取模块,用于利用降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图;
解包裹图像取模块,用于对生成的初步解包裹相位图和生成的梯度特征图进行融合处理,输出最终的解包裹图像。
本发明具有的优点及有益效果为:
1、首先完成对包裹相位的降噪得到降噪图,同时提供了更为精细的梯度特征图,二者融合完成相位解包裹,大大提高了方法的抗噪能力和相位解包的精度。
2、在初步相位解包中引入了卷积块注意模块(CBAM),该模块利用对信道和空间依赖性的卷积建模,自适应地重新校准特征响应,实现更精细的信息聚合,从而提高网络的相位解包能力。
3、通过梯度注意模块(GAM)计算去噪包裹相位梯度,作为与初步解包裹相位融合的补充特征。通过残差串联输出更精细的解包裹相位。与其他方法相比,本发明方法具有更高的相位解包精度。
附图说明
图1为本发明的流程图;
图2为GAM流程图;
图3是本发明实施例中条纹投影轮廓测量实验中采集的大噪声包裹图像;
图4是PhaseNet2.0方法处理得到的解包裹图;
图5是DLPU方法处理得到的解包裹图;
图6是MATLAB Unwrap方法处理得到的解包裹图;
图7是QGPU方法处理得到的解包裹图;
图8是LSPU方法处理得到的解包裹图;
图9是本发明方法处理得到的解包裹图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明的目的是提供1.一种基于深度学习的高噪声环境相位图解包裹方法,具体按照以下步骤实施:
步骤1、使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图,使用导向滤波既可以有良好的去噪效果,同时又有良好的梯度保持特性;
步骤2、利用步骤1提供的降噪包裹相位图,使用PPUN(初步相位解包裹网络,Preliminary phase unwrapping network)预测相位数,并完成对包裹相位的初步解包,其定义为:
其中代表PPUN,/>代表初步解包裹相位图,/>代表经过去噪处理的包裹相位;
PPUN为编码器-解码器结构,其中编码器为骨干特征提取网络resnet50,并使用5个最大池化分别提取不同分辨率的高级语义特征和低级语义特征,在解码器中通过上采样将特征图恢复至原始分辨率,此外还使用了跳转连接来融合高级语义特征和低级语义特征,解码器的最终特征图通过卷积映射到单通道,并通过softmax层输出初步解包裹相位图,该部分使用交叉熵作为模型训练的损失函数;
在PPUN中的第五个特征图引入了卷积块注意力模块(CBAM),自适应地重新校准卷积层的特征响应,突出相位敏感特征,抑制无关特征,其定义为:
其中,/>, 和/>分别是第五个特征图,经过通道注意机制处理后的第五个特征图,以及经过空间注意机制处理后的第五个特征图,/>和/>分别指通道和空间掩码,W表示空间注意力模块卷积层的权重,权重W在网络构建时采用随机初始化的方法赋予初始权重,随后利用梯度下降和损失函数自适应筛选;Sigmoid代表激活函数,MLP代表最常见的前馈神经网络,MaxPool和AvgPool分别代表最大池化和平均池化,Cat代表把两种特征图沿着通道方向堆叠,组成一个通道数会更大的特征图。
步骤3、利用步骤1提供的降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图,其定义为:
其中表示相位图梯度幅度,/>表示降噪包裹相位图/>方向上的梯度,表示降噪包裹相位图/>方向上的梯度;
步骤4、用步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图,通过FPUN(精细相位解包裹网络,Fine phase unwrapping network)进行融合处理,输出最终的解包裹图像,其定义为:
其中代表FPUN,/>代表去噪包包裹位的梯度特征图,即降噪后包裹相位梯度的幅度Grad,/>代表最终处理得到的精细解包裹相位图;
FPUN 由一个梯度注意模块(GAM)、两个残差块和卷积组成,其中的梯度注意模块将包裹相位的梯度特征图和初步解包裹相位图融合在一起;
在FPUN中,通过卷积层分别提取初步解包相位的特征和包裹相位的梯度特征,将初步解包相位的特征与空间注意力机制得到的梯度空间注意力掩码相乘,得到新的中间特征,通过通道注意力机制对新的中间特征进行重组,通过残差块将重组后的特征与初步解包相位特征相加,得到最终的输出特征,其过程可定义为:
其中,和/>表示初步解包相位图和卷积层提取的相应特征,和/>表示梯度特征图和相应的梯度特征,W2是空间注意力模块中的卷积层权重,/>和/>表示卷积层的权重,/>和/>表示相应的偏离值,和/>分别是空间注意机制处理得到的新的中间特征和通道注意机制重组后的特征。/>表示 GAM 输出的相位特征,经过两个残差块和/>通道卷积后,输出最终的精细解包裹相位图,该部分使用绝对值损失作为模型训练的损失函数,模型训练100个epoch后终止,根据损失函数曲线判断是否收敛。
通过实验获得真实相位后,就可以计算包裹相位和包裹计数,本发明的数据集共包含50000个未包裹和已包裹相位图像对,每个图像对的相位值为,数据集中的相位值从 -150 到 150 不等,训练集、验证集和测试集按照 8:1:1 的比例分配。
本发明所采用的实施例是条纹投影轮廓测量实验中采集的大噪声包裹图像,如图3所示,包裹相位是信号处理领域中一个概念,通常用于处理具有周期性或振荡性质的信号。包裹相位的概念涉及到相位信息的处理,特别是当相位值超过了正负180度的范围时。在信号处理中,相位是一个描述信号波形位置的重要参数。相位通常用角度(或弧度)来表示,它告诉我们波形在时间或空间上的偏移量。然而,由于正弦和余弦函数是周期性的,相位值有时会在180度附近突然跳跃,这种跳跃导致相位信息的不连续性。它在通信、雷达、光学和其他领域中的信号处理和图像处理中有很多应用场景。相位解包裹的目的就是将这种位于(-π,π)的香味展成单调提增的绝对相位。从图3中坐标轴可以看来,包裹相位的值总是介于(-π,π)。图4-8是分别用PhaseNet2.0方法处理得到的解包裹图、DLPU方法处理得到的解包裹图、MATLAB Unwrap方法处理得到的解包裹图、QGPU方法处理得到的解包裹图、LSPU方法处理得到的解包裹图、本发明方法处理得到的解包裹图。图4由 PhaseNet2.0 解包的相位不仅在梯度跳变处有明显的轮廓误差,而且在峰值处有数据缺失,且相位解包的参考面显示了一个深坑,表明相位解包误差大。如图6所示,解包的相位呈条纹状,表明MATLABUnwrap完全无法解开带有噪声的包裹相位。如图5、图7、图8所示,DLPU方法、QGPU方法、和LSPU方法解包裹的相位有大量的噪声点或残留阴影,表明这三种方法无法对高噪声相位图进行高精度解包。如图9所示,只有本发明方法可以获得平滑的解包裹相位,表明本发明方法可对高噪声相位图进行高精度解包。
另一方面,本发明实施例还提供一种基于深度学习的高噪声环境相位图解包裹系统,包括如下模块:
降噪包裹相位图获取模块,用于使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图;
初步解包裹相位图获取模块,用于基于降噪包裹相位图,预测相位数,并完成对包裹相位的初步解包,得到初步解包裹相位图;
梯度特征图获取模块,用于利用降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图;
解包裹图像取模块,用于对生成的初步解包裹相位图和生成的梯度特征图进行融合处理,输出最终的解包裹图像。
各模块的具体实现方式与各步骤相同,本发明不予撰述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (9)

1.一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于,包括如下步骤:
步骤1,使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图;
步骤2,基于步骤1提供的降噪包裹相位图,预测相位数,并完成对包裹相位的初步解包,得到初步解包裹相位图;
步骤3,利用步骤1提供的降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图;
步骤4,对步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图进行融合处理,输出最终的解包裹图像。
2.如权利要求1所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:步骤2中使用初步相位解包裹网络PPUN预测相位数,PPUN为编码器-解码器结构,其中编码器为骨干特征提取网络resnet50,并使用5个最大池化分别提取不同分辨率的高级语义特征和低级语义特征,在解码器中通过上采样将特征图恢复至原始分辨率,并使用跳转连接来融合高级语义特征和低级语义特征,解码器的最终特征图通过卷积映射到单通道,并通过softmax层输出初步解包裹相位图。
3.如权利要求2所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:使用交叉熵作为PPUN训练的损失函数。
4.如权利要求2所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:在PPUN中的第五个特征图中引入卷积块注意力模块CBAM,自适应地重新校准卷积层的特征响应,其定义为:
其中 , />, 和 />分别是第五个特征图,经过通道注意机制处理后的第五个特征图,以及经过空间注意机制处理后的第五个特征图, />和 />分别指通道和空间掩码,W表示空间注意力模块卷积层的权重,Sigmoid代表激活函数,MLP代表前馈神经网络,MaxPool和AvgPool分别代表最大池化和平均池化,Cat代表把两种特征图沿着通道方向堆叠。
5.如权利要求1所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:步骤3中梯度特征图的定义为:
其中表示相位图梯度幅度,/>表示降噪包裹相位图/>方向上的梯度,/>表示降噪包裹相位图/>方向上的梯度。
6.如权利要求1所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:步骤4中利用精细相位解包裹网络FPUN进行融合处理,FPUN包括梯度注意模块GAM、残差块和卷积层,首先通过梯度注意模块对步骤2生成的初步解包裹相位图和步骤3生成的梯度特征图进行融合,然后通过n个残差块和卷积层后,输出最终的精细解包裹相位图。
7.如权利要求6所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:梯度注意模块GAM的具体处理为:将初步解包裹相位图和梯度特征图作为输入,通过卷积层分别提取初步解包相位的特征和包裹相位的梯度特征,将初步解包相位的特征与空间注意力机制得到的梯度空间注意力掩码相乘,得到新的中间特征,通过通道注意力机制对新的中间特征进行重组,通过残差块将重组后的特征与初步解包相位特征相加,得到最终的输出特征,其过程可定义为:
其中, 和/> 表示初步解包相位图和卷积层提取的相应特征, />和/>表示梯度特征图和相应的梯度特征,W2是空间注意力模块中的卷积层权重,和/>表示卷积层的权重,/>和/>表示相应的偏离值,/>分别是空间注意机制处理得到的新的中间特征和通道注意机制重组后的特征,和/>分别指通道和空间掩码,Sigmoid代表激活函数,MLP代表前馈神经网络,AvgPool代表平均池化,/>表示GAM 输出的相位特征。
8.如权利要求6所述的一种基于深度学习的高噪声环境相位图解包裹方法,其特征在于:使用绝对值损失作为精细相位解包裹网络FPUN训练的损失函数。
9.一种基于深度学习的高噪声环境相位图解包裹系统,其特征在于,包括如下模块:
降噪包裹相位图获取模块,用于使用导向滤波对高噪声相位图进行滤波降噪,将高噪声相位图本身作为引导图,滤波后得到降噪包裹相位图;
初步解包裹相位图获取模块,用于基于降噪包裹相位图,预测相位数,并完成对包裹相位的初步解包,得到初步解包裹相位图;
梯度特征图获取模块,用于利用降噪包裹相位图,使用梯度估算方法对相位图进行处理,得到梯度特征图;
解包裹图像取模块,用于对生成的初步解包裹相位图和生成的梯度特征图进行融合处理,输出最终的解包裹图像。
CN202311836502.3A 2023-12-28 2023-12-28 一种基于深度学习的高噪声环境相位图解包裹方法和系统 Active CN117475172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311836502.3A CN117475172B (zh) 2023-12-28 2023-12-28 一种基于深度学习的高噪声环境相位图解包裹方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311836502.3A CN117475172B (zh) 2023-12-28 2023-12-28 一种基于深度学习的高噪声环境相位图解包裹方法和系统

Publications (2)

Publication Number Publication Date
CN117475172A true CN117475172A (zh) 2024-01-30
CN117475172B CN117475172B (zh) 2024-03-26

Family

ID=89640183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311836502.3A Active CN117475172B (zh) 2023-12-28 2023-12-28 一种基于深度学习的高噪声环境相位图解包裹方法和系统

Country Status (1)

Country Link
CN (1) CN117475172B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050007115A1 (en) * 2003-07-08 2005-01-13 Harvey Cline Method and system for three dimensional phase unwrapping
CN101466998A (zh) * 2005-11-09 2009-06-24 几何信息学股份有限公司 三维绝对坐标表面成像的方法和装置
US20100324424A1 (en) * 2008-03-03 2010-12-23 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus, ultrasonic diagnostic method and data processing program for ultrasonic diagnostic apparatus
CN102197302A (zh) * 2008-10-29 2011-09-21 佳能株式会社 分析方法、使用其的放射线成像装置和执行其的分析程序
WO2013030698A1 (en) * 2011-08-31 2013-03-07 Koninklijke Philips Electronics N.V. Differential phase contrast imaging with energy sensitive detection
CN111043953A (zh) * 2019-10-17 2020-04-21 杭州电子科技大学 一种基于深度学习语义分割网络的二维相位解包裹方法
CN111461224A (zh) * 2020-04-01 2020-07-28 西安交通大学 一种基于残差自编码神经网络的相位数据解包裹方法
CN111524173A (zh) * 2020-04-01 2020-08-11 中国科学技术大学 一种基于双参考平面的快速大范围相位解包裹方法
CN113238227A (zh) * 2021-05-10 2021-08-10 电子科技大学 一种结合深度学习的改进最小二乘相位解缠方法及系统
US20210356258A1 (en) * 2018-09-29 2021-11-18 Nanjing University Of Science And Technology A deep learning-based temporal phase unwrapping method for fringe projection profilometry
US20220026516A1 (en) * 2020-07-23 2022-01-27 GE Precision Healthcare LLC Systems and methods of generating robust phase images in magnetic resonance images
CN116224327A (zh) * 2023-02-20 2023-06-06 中国矿业大学 一种基于学习网络的矿区大梯度形变区相位解缠方法
CN116753863A (zh) * 2023-06-07 2023-09-15 国营芜湖机械厂 三维测量的方法、装置、电子设备及存储介质
US20230326057A1 (en) * 2020-11-09 2023-10-12 Arizona Board Of Regents On Behalf Of The University Of Arizona Determination of a true shape of an object based on transformation of its optical image
CN116955900A (zh) * 2023-07-26 2023-10-27 南京信息工程大学 一种相位解包裹方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050007115A1 (en) * 2003-07-08 2005-01-13 Harvey Cline Method and system for three dimensional phase unwrapping
CN101466998A (zh) * 2005-11-09 2009-06-24 几何信息学股份有限公司 三维绝对坐标表面成像的方法和装置
US20100324424A1 (en) * 2008-03-03 2010-12-23 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus, ultrasonic diagnostic method and data processing program for ultrasonic diagnostic apparatus
CN102197302A (zh) * 2008-10-29 2011-09-21 佳能株式会社 分析方法、使用其的放射线成像装置和执行其的分析程序
WO2013030698A1 (en) * 2011-08-31 2013-03-07 Koninklijke Philips Electronics N.V. Differential phase contrast imaging with energy sensitive detection
US20210356258A1 (en) * 2018-09-29 2021-11-18 Nanjing University Of Science And Technology A deep learning-based temporal phase unwrapping method for fringe projection profilometry
CN111043953A (zh) * 2019-10-17 2020-04-21 杭州电子科技大学 一种基于深度学习语义分割网络的二维相位解包裹方法
CN111461224A (zh) * 2020-04-01 2020-07-28 西安交通大学 一种基于残差自编码神经网络的相位数据解包裹方法
CN111524173A (zh) * 2020-04-01 2020-08-11 中国科学技术大学 一种基于双参考平面的快速大范围相位解包裹方法
US20220026516A1 (en) * 2020-07-23 2022-01-27 GE Precision Healthcare LLC Systems and methods of generating robust phase images in magnetic resonance images
US20230326057A1 (en) * 2020-11-09 2023-10-12 Arizona Board Of Regents On Behalf Of The University Of Arizona Determination of a true shape of an object based on transformation of its optical image
CN113238227A (zh) * 2021-05-10 2021-08-10 电子科技大学 一种结合深度学习的改进最小二乘相位解缠方法及系统
CN116224327A (zh) * 2023-02-20 2023-06-06 中国矿业大学 一种基于学习网络的矿区大梯度形变区相位解缠方法
CN116753863A (zh) * 2023-06-07 2023-09-15 国营芜湖机械厂 三维测量的方法、装置、电子设备及存储介质
CN116955900A (zh) * 2023-07-26 2023-10-27 南京信息工程大学 一种相位解包裹方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
G. E. SPOORTHI 等: "PhaseNet 2.0: Phase Unwrapping of Noisy Data Based on Deep Learning Approach", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, 31 March 2020 (2020-03-31), pages 4862, XP011776991, DOI: 10.1109/TIP.2020.2977213 *
LIMING PU 等: "InSAR Phase Unwrapping Method via Phase Gradient Estimation Network", 《REMOTE SENS.》, vol. 13, no. 22, 31 December 2021 (2021-12-31), pages 1 - 23 *
刘贵香 等: "基于相位校正的最小二乘算法的研究", 《研究与开发》, vol. 41, no. 10, 31 October 2022 (2022-10-31), pages 92 - 96 *
朱勇建;栾竹;孙建锋;阳庆国;刘立人;: "光学干涉图像处理中基于质量权值的离散余弦变换解包裹相位", 光学学报, no. 05, 15 May 2007 (2007-05-15), pages 100 - 104 *

Also Published As

Publication number Publication date
CN117475172B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
CN111476719B (zh) 图像处理方法、装置、计算机设备及存储介质
CN110084274B (zh) 实时图像语义分割方法及系统、可读存储介质和终端
CN112734634B (zh) 换脸方法、装置、电子设备和存储介质
KR20190062283A (ko) 선택적 손실 함수를 이용한 생성적 적대 네트워크의 학습을 위한 방법 및 장치
KR20200084434A (ko) 초해상도 영상 복원을 위한 기계 학습 방법
WO2021232941A1 (zh) 三维模型生成方法、装置、计算机设备及存储介质
CN112241008B (zh) 用于对象检测的方法和系统
CN113298728B (zh) 一种视频优化方法、装置、终端设备及存储介质
CN111797678A (zh) 基于复合神经网络的相位解包裹方法和装置
US20220335685A1 (en) Method and apparatus for point cloud completion, network training method and apparatus, device, and storage medium
CN116309107A (zh) 基于Transformer和生成式对抗网络的水下图像增强方法
CN115743101A (zh) 车辆轨迹预测方法、轨迹预测模型训练方法和装置
CN111223039A (zh) 图像风格转换方法、装置、电子设备及存储介质
CN109448039B (zh) 一种基于深度卷积神经网络的单目视觉深度估计方法
CN117475172B (zh) 一种基于深度学习的高噪声环境相位图解包裹方法和系统
CN114529687A (zh) 图像重建方法、装置、电子设备及计算机可读存储介质
CN111079893A (zh) 用于干涉条纹图滤波的生成器网络的获取方法和装置
WO2022096944A1 (en) Method and apparatus for point cloud completion, network training method and apparatus, device, and storage medium
CN115775214B (zh) 一种基于多阶段分形组合的点云补全方法及系统
CN116993987A (zh) 一种基于轻量级神经网络模型的图像语义分割方法及系统
CN117173412A (zh) 一种基于CNN和Transformer融合网络的医学图像分割方法
CN115812206A (zh) 用于高质量图像处理的机器学习
CN111861931A (zh) 模型训练、图像增强方法和装置、电子设备及存储介质
CN117274072A (zh) 一种基于二维多模态范围图像的点云去噪方法及装置
CN113011107B (zh) 基于深度卷积神经网络的一维光纤传感信号相位恢复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant