CN112036415A - 一种用于单帧随机相移干涉图的深度学习相位提取方法 - Google Patents

一种用于单帧随机相移干涉图的深度学习相位提取方法 Download PDF

Info

Publication number
CN112036415A
CN112036415A CN202010811927.9A CN202010811927A CN112036415A CN 112036415 A CN112036415 A CN 112036415A CN 202010811927 A CN202010811927 A CN 202010811927A CN 112036415 A CN112036415 A CN 112036415A
Authority
CN
China
Prior art keywords
phase
sample
phase shift
deep learning
interferogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010811927.9A
Other languages
English (en)
Inventor
徐小青
王利群
陆宇峰
陆建军
王霆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Vocational Institute of Mechatronic Technology
Original Assignee
Changzhou Vocational Institute of Mechatronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Vocational Institute of Mechatronic Technology filed Critical Changzhou Vocational Institute of Mechatronic Technology
Priority to CN202010811927.9A priority Critical patent/CN112036415A/zh
Publication of CN112036415A publication Critical patent/CN112036415A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/353Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells influencing the transmission properties of an optical fibre
    • G01D5/35306Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells influencing the transmission properties of an optical fibre using an interferometer arrangement
    • G01D5/35329Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells influencing the transmission properties of an optical fibre using an interferometer arrangement using interferometer with two arms in transmission, e.g. Mach-Zender interferometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

本发明是一种用于单帧随机相移干涉图的深度学习相位提取方法。本发明涉及数字全息术或干涉术技术领域,搭建同轴相移干涉系统;采集一系列样品随机相移干涉图;解调相位,获取样品真实相位解调图;裁剪后,构建由随机相移干涉图和真实相位解调图组成的样品数据集;设计基于深度学习的卷积神经网络相位提取框架;训练好的基于深度学习的卷积神经网络相位提取框架模型;恢复样品免解包相位信息。该方法优势在于,只需要输入单帧随机相移干涉图,可快速精确地输出对应的样品免解包相位。本发明相位提取速度快、精度高且无需相位解包裹,提高了相位成像效率,具有广泛的实用价值与应用前景。

Description

一种用于单帧随机相移干涉图的深度学习相位提取方法
技术领域
本发明涉及数字全息术或干涉术技术领域,是一种用于单帧随机相移干涉图的深度学习相位提取方法。
背景技术
数字全息术或干涉术在血细胞相位恢复、细胞体折射率分布测量、微纳器件3D形貌成像和微球表面缺陷检测等领域得到了广泛的应用研究。
在同轴相移干涉术或数字全息术中,由于其能充分利用CCD的分辨率和空间带宽,显著提高了相位成像的精确性。但是,如何高效快速地恢复相位一直是同轴相移干涉术或数字全息术领域研究的热点和关键问题。当前,有许多经典的相位恢复方法,例如二步相移方法、三步相移方法、四步标准相移方法、多步相移方法、最小二乘迭代法和主成分分析法等。上述相位恢复方法主要分为两类:一、相移是等间距且已知的;二、相移是未知的、任意的和随机的,具有广义特性。第一类相位恢复方法,如果相移出现误差,将会导致相位提取精度低且抗噪性差,可能会得不到满意的结果;第二类相位恢复方法,虽然对相移要求不高且可以是未知的,但是需要迭代运算且涉及处理的干涉图数量较多,导致相位提取速度慢。无论上述第一类还是第二类相位恢复方法,都需要采用相位解包裹技术,才能获得真实相位。当包裹相位存在奇点或含噪较大时,相位解包裹技术可能会比较耗时,甚至可能会失效,无法获得真实连续相位。在对现有相位恢复方法的总结中发现,现有方法存在受相移值精度影响较大、相位提取时间长、运算负担重、抗噪性低、相位恢复精度不高等问题,尤其是都需要涉及相位解包裹运算。
综上所述,针对现有相位恢复方法存在的缺点和问题作深入研究,以使相位恢复方法能够从较少数量干涉图中快速复原相位,实现高效相位成像。
发明内容
本发明为实现无需相位解缠,计算速度快,精确度高,只需单帧随机相移干涉图就可以直接提取样品免解包相位信息,节约处理时间,提高了相位显微成像效率,本发明提供了一种用于单帧随机相移干涉图的深度学习相位提取方法,本发明提供了以下技术方案:
一种用于单帧随机相移干涉图的深度学习相位提取方法,包括以下步骤:
步骤1:基于典型马赫-曾德尔干涉光路,搭建同轴相移干涉系统,利用移相器随机改变参考光的相移,形成随机相移的干涉图;
步骤2:根据随机相移的干涉图,获取样品随机相移干涉图;
步骤3:根据样品随机相移干涉图,解调相位,获取样品真实相位解调图,将样品真实相位解调图作为监督训练标签数据;
步骤4:对样品随机相移干涉图和样品真实相位解调图进行裁剪,构建由样品随机相移干涉图和真实相位解调图组成的样品数据集;
步骤5:基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架;
步骤6:根据由样品随机相移干涉图和真实相位解调图组成的样品数据集,对基于深度学习的卷积神经网络相位提取框架进行训练,直至满足预设迭代训练次数或者预设误差精度,结束训练;
步骤7:将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位。
优选地,所述步骤2中根据随机相移的干涉图,获取样品随机相移干涉图,通过下式表示第k帧样品随机相移干涉图Ik(x,y):
Ik(x,y)=a(x,y)+b(x,y)cos[φ(x,y)+δk]+η(x,y),k=0,1,2,…,K
其中,x和y分别为空间坐标,a(x,y)为背景强度项,b(x,y)为调制幅值,φ(x,y)表示待测样品相位,δk为随机相移,η(x,y)为噪声,K为同轴相移干涉图总数。
优选地,采用四步标准相移方法、最小二乘迭代法或主成分分析法对步骤3中的样品随机相移干涉图解调相位,获取样品真实相位解调图。
优选地,对样品随机相移干涉图和样品真实相位解调图进行裁剪为512×512大小的像素尺寸的图像。
优选地,所述步骤5具体为:包括以下步骤:
步骤5.1:基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架,所述框架由输入层、压缩路径、扩展路径和输出层组成;设置所述输入层的图像的特征通道数为1,大小为512×512像素尺寸;
设置所述压缩路径共6层,每层由2个连续相同卷积操作组成,所述卷积操作由3×3的卷积核、批量归一化BN和线性整流函数ReLU组成,后接1个2×2的最大池化操作输入下一层;
设置所述扩展路径共6层,每层由来自下层的1个2×2的反向卷积操作和来自同层压缩路径的复制特征图像跳跃连接而成,以及2个连续相同卷积操作组成;
设置所述输出层图像的特征通道数为1,大小为512×512像素尺寸;
步骤5.2:根据基于深度学习的卷积神经网络相位提取框架,选取均方误差作为损失函数,通过下式表示所示损失函数MSE:
Figure BDA0002631301020000031
其中,M和N分别为相位图像大小,φ'k为第k帧随机相移干涉图恢复相位,φk为第k帧随机相移干涉图对应真实相位,W1为批处理大小;
步骤5.3:在基于深度学习的卷积神经网络相位提取框架中,设置静态和动态网络训练初始参数,给定学习率,预设迭代训练次数和误差精度。
优选地,在所述压缩路径中,每层卷积块的特征通道数分别为16、32、64、128、256和512,图像大小分别为512×512、256×256、128×128、64×64、32×32和16×16。
优选地,在所述扩展路径中,每层卷积块的特征通道数分别为512、256、128、64、32和16,图像大小分别为16×16、32×32、64×64、128×128、256×256和512×512。
优选地,所述步骤7中将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位φ'(x,y),通过下式表示所述相位φ'(x,y):
φ'(x,y)=ξ{Ik(x,y)}。
本发明具有以下有益效果:
本发明只需要单帧随机相移干涉图,可快速精确地提取样品相位。本发明相位提取简单直接、速度快且计算工作量小,提高了相位恢复效率;本发明无需相位解包裹技术,可直接获得真实相位,节约了处理时间;本发明的相移是任意的、随机的和未知的,放宽了对移相器高精度、高稳定性的要求。
附图说明
图1为用于单帧随机相移干涉图的深度学习相位提取方法流程图;
图2为基于U-Net网络的基于深度学习的卷积神经网络相位提取框架示意图。
具体实施方式
以下结合具体实施例,对本发明进行了详细说明。
具体实施例一:
根据图1所示,本发明提供一种用于单帧随机相移干涉图的深度学习相位提取方法,具体为:
一种用于单帧随机相移干涉图的深度学习相位提取方法,包括以下步骤:
步骤1:基于典型马赫-曾德尔干涉光路,搭建同轴相移干涉系统,利用移相器随机改变参考光的相移,形成随机相移的干涉图;
步骤2:根据随机相移的干涉图,获取样品随机相移干涉图;
所述步骤2中根据随机相移的干涉图,获取样品随机相移干涉图,通过下式表示第k帧样品随机相移干涉图Ik(x,y):
Ik(x,y)=a(x,y)+b(x,y)cos[φ(x,y)+δk]+η(x,y),k=0,1,2,…,K
其中,x和y分别为空间坐标,a(x,y)为背景强度项,b(x,y)为调制幅值,φ(x,y)表示待测样品相位,δk为随机相移,η(x,y)为噪声,K为同轴相移干涉图总数。
步骤3:根据样品随机相移干涉图,解调相位,获取样品真实相位解调图,将样品真实相位解调图作为监督训练标签数据;采用四步标准相移方法、最小二乘迭代法或主成分分析法对步骤3中的样品随机相移干涉图解调相位,获取样品真实相位解调图。
步骤4:对样品随机相移干涉图和样品真实相位解调图进行裁剪,构建由样品随机相移干涉图和真实相位解调图组成的样品数据集;对样品随机相移干涉图和样品真实相位解调图进行裁剪为512×512大小的像素尺寸的图像。
步骤5:根据图2所示,基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架;
所述步骤5具体为:包括以下步骤:
步骤5.1:基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架,所述框架由输入层、压缩路径、扩展路径和输出层组成;设置所述输入层的图像的特征通道数为1,大小为512×512像素尺寸;
设置所述压缩路径共6层,每层由2个连续相同卷积操作组成,所述卷积操作由3×3的卷积核、批量归一化BN和线性整流函数ReLU组成,后接1个2×2的最大池化操作输入下一层;
设置所述扩展路径共6层,每层由来自下层的1个2×2的反向卷积操作和来自同层压缩路径的复制特征图像跳跃连接而成,以及2个连续相同卷积操作组成;
设置所述输出层图像的特征通道数为1,大小为512×512像素尺寸;
步骤5.2:根据基于深度学习的卷积神经网络相位提取框架,选取均方误差作为损失函数,通过下式表示所示损失函数MSE:
Figure BDA0002631301020000041
其中,M和N分别为相位图像大小,φ'k为第k帧随机相移干涉图恢复相位,φk为第k帧随机相移干涉图对应真实相位,W1为批处理大小;
步骤5.3:在基于深度学习的卷积神经网络相位提取框架中,设置静态和动态网络训练初始参数,给定学习率,预设迭代训练次数和误差精度。
在所述压缩路径中,每层卷积块的特征通道数分别为16、32、64、128、256和512,图像大小分别为512×512、256×256、128×128、64×64、32×32和16×16。
在所述扩展路径中,每层卷积块的特征通道数分别为512、256、128、64、32和16,图像大小分别为16×16、32×32、64×64、128×128、256×256和512×512。
步骤6:根据由样品随机相移干涉图和真实相位解调图组成的样品数据集,对基于深度学习的卷积神经网络相位提取框架进行训练,直至满足预设迭代训练次数或者预设误差精度,结束训练;所述步骤6中的样品随机相移干涉图与真实相位解调图之间的像素级映射函数关系ξ{·},其是连续函数且为最佳映射关系。
步骤7:将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位。
所述步骤7中将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位φ'(x,y),能快速精确地输出相应的样品免解包相位φ'(x,y),通过下式表示所述相位φ'(x,y):
φ'(x,y)=ξ{Ik(x,y)}。
本发明提出的一种用于单帧随机相移干涉图的深度学习相位提取方法,其关键在于,(1)构建由随机相移干涉图和真实相位解调图组成的样品数据集;(2)设计基于深度学习的卷积神经网络相位提取框架;(3)训练基于深度学习的卷积神经网络相位提取框架。本发明输入单帧随机相移干涉图到训练好的基于深度学习的卷积神经网络相位提取框架模型中,能快速精确地输出对应的样品免解包相位。
以上所述仅是一种用于单帧随机相移干涉图的深度学习相位提取方法的优选实施方式,一种用于单帧随机相移干涉图的深度学习相位提取方法的保护范围并不仅局限于上述实施例,凡属于该思路下的技术方案均属于本发明的保护范围。应当指出,对于本领域的技术人员来说,在不脱离本发明原理前提下的若干改进和变化,这些改进和变化也应视为本发明的保护范围。

Claims (8)

1.一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:包括以下步骤:
步骤1:基于典型马赫-曾德尔干涉光路,搭建同轴相移干涉系统,利用移相器随机改变参考光的相移,形成随机相移的干涉图;
步骤2:根据随机相移的干涉图,获取样品随机相移干涉图;
步骤3:根据样品随机相移干涉图,解调相位,获取样品真实相位解调图,将样品真实相位解调图作为监督训练标签数据;
步骤4:对样品随机相移干涉图和样品真实相位解调图进行裁剪,构建由样品随机相移干涉图和真实相位解调图组成的样品数据集;
步骤5:基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架;
步骤6:根据由样品随机相移干涉图和真实相位解调图组成的样品数据集,对基于深度学习的卷积神经网络相位提取框架进行训练,直至满足预设迭代训练次数或者预设误差精度,结束训练;
步骤7:将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位。
2.根据权利要求1所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:所述步骤2中根据随机相移的干涉图,获取样品随机相移干涉图,通过下式表示第k帧样品随机相移干涉图Ik(x,y):
Ik(x,y)=a(x,y)+b(x,y)cos[φ(x,y)+δk]+η(x,y),k=0,1,2,…,K
其中,x和y分别为空间坐标,a(x,y)为背景强度项,b(x,y)为调制幅值,φ(x,y)表示待测样品相位,δk为随机相移,η(x,y)为噪声,K为同轴相移干涉图总数。
3.根据权利要求1所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:采用四步标准相移方法、最小二乘迭代法或主成分分析法对步骤3中的样品随机相移干涉图解调相位,获取样品真实相位解调图。
4.根据权利要求1所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:对样品随机相移干涉图和样品真实相位解调图进行裁剪为512×512大小的像素尺寸的图像。
5.根据权利要求1所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:所述步骤5具体为:包括以下步骤:
步骤5.1:基于U-Net网络,构建基于深度学习的卷积神经网络相位提取框架,所述框架由输入层、压缩路径、扩展路径和输出层组成;设置所述输入层的图像的特征通道数为1,大小为512×512像素尺寸;
设置所述压缩路径共6层,每层由2个连续相同卷积操作组成,所述卷积操作由3×3的卷积核、批量归一化BN和线性整流函数ReLU组成,后接1个2×2的最大池化操作输入下一层;
设置所述扩展路径共6层,每层由来自下层的1个2×2的反向卷积操作和来自同层压缩路径的复制特征图像跳跃连接而成,以及2个连续相同卷积操作组成;
设置所述输出层图像的特征通道数为1,大小为512×512像素尺寸;
步骤5.2:根据基于深度学习的卷积神经网络相位提取框架,选取均方误差作为损失函数,通过下式表示所示损失函数MSE:
Figure FDA0002631301010000021
其中,M和N分别为相位图像大小,φ′k为第k帧随机相移干涉图恢复相位,φk为第k帧随机相移干涉图对应真实相位,W1为批处理大小;
步骤5.3:在基于深度学习的卷积神经网络相位提取框架中,设置静态和动态网络训练初始参数,给定学习率,预设迭代训练次数和误差精度。
6.根据权利要求5所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:在所述压缩路径中,每层卷积块的特征通道数分别为16、32、64、128、256和512,图像大小分别为512×512、256×256、128×128、64×64、32×32和16×16。
7.根据权利要求5所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:在所述扩展路径中,每层卷积块的特征通道数分别为512、256、128、64、32和16,图像大小分别为16×16、32×32、64×64、128×128、256×256和512×512。
8.根据权利要求1所述的一种用于单帧随机相移干涉图的深度学习相位提取方法,其特征是:所述步骤7中将单帧随机相移干涉图输入到训练好的基于深度学习的卷积神经网络相位提取框架中,输出样品免解包相位φ'(x,y),通过下式表示所述相位φ'(x,y):
φ'(x,y)=ξ{Ik(x,y)}。
CN202010811927.9A 2020-08-13 2020-08-13 一种用于单帧随机相移干涉图的深度学习相位提取方法 Withdrawn CN112036415A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010811927.9A CN112036415A (zh) 2020-08-13 2020-08-13 一种用于单帧随机相移干涉图的深度学习相位提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010811927.9A CN112036415A (zh) 2020-08-13 2020-08-13 一种用于单帧随机相移干涉图的深度学习相位提取方法

Publications (1)

Publication Number Publication Date
CN112036415A true CN112036415A (zh) 2020-12-04

Family

ID=73577167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010811927.9A Withdrawn CN112036415A (zh) 2020-08-13 2020-08-13 一种用于单帧随机相移干涉图的深度学习相位提取方法

Country Status (1)

Country Link
CN (1) CN112036415A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129295A (zh) * 2021-04-28 2021-07-16 桂林电子科技大学 全尺度连接的深度学习相位展开方法
CN113409377A (zh) * 2021-06-23 2021-09-17 四川大学 一种基于跳跃连接式生成对抗网络的相位展开方法
CN113674370A (zh) * 2021-08-02 2021-11-19 南京理工大学 基于卷积神经网络的单帧干涉图解调方法
CN113706509A (zh) * 2021-08-30 2021-11-26 常州工利精机科技有限公司 一种可用于冲压件表面微缺陷成像的检测方法
CN113743579A (zh) * 2021-07-26 2021-12-03 东莞理工学院 基于深度学习的三波长相位解包方法、系统、设备及介质
CN114910909A (zh) * 2022-06-17 2022-08-16 苏州大学 数据驱动下的合成孔径雷达干涉图相位恢复方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129295A (zh) * 2021-04-28 2021-07-16 桂林电子科技大学 全尺度连接的深度学习相位展开方法
CN113409377A (zh) * 2021-06-23 2021-09-17 四川大学 一种基于跳跃连接式生成对抗网络的相位展开方法
CN113743579A (zh) * 2021-07-26 2021-12-03 东莞理工学院 基于深度学习的三波长相位解包方法、系统、设备及介质
CN113743579B (zh) * 2021-07-26 2024-03-01 东莞理工学院 基于深度学习的三波长相位解包方法、系统、设备及介质
CN113674370A (zh) * 2021-08-02 2021-11-19 南京理工大学 基于卷积神经网络的单帧干涉图解调方法
CN113706509A (zh) * 2021-08-30 2021-11-26 常州工利精机科技有限公司 一种可用于冲压件表面微缺陷成像的检测方法
CN113706509B (zh) * 2021-08-30 2024-02-27 常州工利精机科技有限公司 一种可用于冲压件表面微缺陷成像的检测方法
CN114910909A (zh) * 2022-06-17 2022-08-16 苏州大学 数据驱动下的合成孔径雷达干涉图相位恢复方法及系统

Similar Documents

Publication Publication Date Title
CN112036415A (zh) 一种用于单帧随机相移干涉图的深度学习相位提取方法
CN107817465B (zh) 超高斯噪声背景下的基于无网格压缩感知的doa估计方法
CN110135438B (zh) 一种基于梯度幅值预运算的改进surf算法
CN109871823B (zh) 一种结合旋转框和上下文信息的卫星图像舰船检测方法
CN106204440A (zh) 一种多帧超分辨图像重建方法及系统
CN104376564B (zh) 基于各向异性高斯方向导数滤波器提取图像粗边缘的方法
CN104835153B (zh) 基于稀疏表示的非刚性表面对齐方法
CN108765476A (zh) 一种偏振图像配准方法
CN106257497B (zh) 一种图像同名点的匹配方法及装置
CN107516322A (zh) 一种基于对数极空间的图像物体大小和旋转估计计算方法
CN103679193A (zh) 一种基于freak的高速高密度封装元器件快速定位方法
CN107392855B (zh) 基于稀疏自编码网络与极速学习的图像超分辨重建方法
CN102436646A (zh) 基于压缩感知的ccd噪声估计方法
CN113628170B (zh) 一种基于深度学习的激光线提取方法及系统
CN108871197A (zh) 用于材料表面的位移场测量方法、装置、设备及存储介质
CN113269691B (zh) 一种基于卷积稀疏进行噪声仿射拟合的sar图像去噪方法
CN102819840B (zh) 一种纹理图像的分割方法
CN109738852A (zh) 基于低秩矩阵重建的分布式源二维空间谱估计方法
CN110246152A (zh) Piv图像处理方法及系统
CN111275680B (zh) 基于Gabor卷积网络的SAR图像变化检测方法
CN108507476A (zh) 用于材料表面的位移场测量方法、装置、设备及存储介质
Qi et al. Research of image matching based on improved SURF algorithm
CN105203033B (zh) Mems面内位移测量方法
Haque et al. Robust feature-preserving denoising of 3D point clouds
Peng et al. Full-field visual vibration measurement of rotating machine under complex conditions via unsupervised retinex model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201204

WW01 Invention patent application withdrawn after publication