CN113674370A - 基于卷积神经网络的单帧干涉图解调方法 - Google Patents

基于卷积神经网络的单帧干涉图解调方法 Download PDF

Info

Publication number
CN113674370A
CN113674370A CN202110881372.XA CN202110881372A CN113674370A CN 113674370 A CN113674370 A CN 113674370A CN 202110881372 A CN202110881372 A CN 202110881372A CN 113674370 A CN113674370 A CN 113674370A
Authority
CN
China
Prior art keywords
phase
cnn
sampling unit
interferogram
wrapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110881372.XA
Other languages
English (en)
Inventor
沈华
张鹏
卞殷旭
孙越
朱日宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202110881372.XA priority Critical patent/CN113674370A/zh
Publication of CN113674370A publication Critical patent/CN113674370A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Instruments For Measurement Of Length By Optical Means (AREA)

Abstract

本发明公开了一种基于卷积神经网络的单帧干涉图解调方法,具体步骤为:构造用于单帧干涉图相位解调的卷积神经网络(convolutional neural network,简称CNN);结合实验干涉系统,建立干涉数据仿真模型,制作CNN训练所需的数据集,数据集中包括包裹相位、包裹级次和干涉图;以数据集中的干涉图作为CNN的输入,数据集中相应的包裹相位和包裹级次作为CNN的输出,对网络进行训练;将干涉仪采集的干涉图输入到训练完成的网络模型,网络输出包裹相位和包裹级次;对包裹相位和包裹级次求和,得到干涉图的绝对相位。本发明从单幅干涉图就可以高精度解算相位,并且不需要相位解包过程,具有较高的测量效率和测量精度,在干涉测量等领域具有广泛的应用前景。

Description

基于卷积神经网络的单帧干涉图解调方法
技术领域
本发明属于干涉测量和机器学习领域,具体涉及一种基于卷积神经网络(convolutional neural network,简称CNN)的单帧干涉图解调方法。
背景技术
光学干涉法具有非接触、快速、纳米尺度测量精度高的特点,被公认为光学表面测量最有效的方法之一。在干涉仪中,被测表面被编码在干涉图中。因此,干涉图的解调在干涉测量中至关重要,其解调精度和解调速度直接影响干涉仪的性能。
时间移相干涉法作为高精度相位提取最常用的方法,要求测量过程中测量环境稳定。因此,不适合在存在振动、湍流等不稳定条件下的测量,如加工现场在线检测或长干涉腔下大口径元件检测。目前解决这一问题的方法主要有三种:单帧干涉图解调(single-frame interferogram demodulation,简称SFID)技术,随机移相干涉(random phase-shifting interferometry,简称RPSI)技术和空间移相干涉(spatial phase-shiftinginterferometry,简称SPSI)技术。SFID技术包括快速傅里叶变换(fast Fouriertransform,简称FFT)、极坐标变换(polar coordinate transformation,简称PCT)、正则化相位追踪法(regularized phase tracker,简称RPT)。与相移方法相比,SFID方法精度较低,在应用中存在固有的局限性。例如,FFT只适用于开口的直线条纹,而PCT只适用于圆形条纹。RPT方法需要手动设置参数,计算过程耗时,不适合实时测量。RPSI主要包括主成分分析(principle component analysis,简称PCA)法和迭代算法。PCA法的精度受条纹数的影响,振动引起的倾斜相移误差无法消除。迭代算法耗时较长,其精度取决于迭代初值的精度以及背景强度和调制的均匀性。SPSI一般采用棱镜、衍射元件或微偏振元件对光进行空间偏振相移,从而同时获得4幅相移干涉图。SPSI增加了系统的复杂性并引入了系统误差,同时也存在干涉图分辨率降低、相移不准确、干涉图配准困难等缺点。而且,无论采用哪种方法,都只能直接得到一个不连续的包裹相位。为了获得被测零件的真实表面需要进行相位展开,这个过程会降低测量的效率。
CNN作为一种数据驱动的机器学习技术,近年来发展迅速并被广泛应用于各个领域。在光学领域,CNN被应用于图像预处理、相位恢复、相位解包裹、超分辨成像、无透镜成像和系统标定。然而,将CNN应用于高精度表面测量的研究还很少。2019年,Feng等首次将CNN应用于单幅条纹图的高精度相位解调,均方根精度为0.016λ,但这种方法只适用于周期性的直线条纹。Kando等人利用CNN从封闭条纹模式中恢复相位,但相对均方根精度仅为0.027。Liu等人提出了一种从单个干涉图中提取被测目标泽尼克系数的解调方法,但该方法丢失了被测部分的高频信息,不适用于无法用泽尼克多项式进行高精度拟合的复杂曲面。
发明内容
本发明的目的在于提供一种基于卷积神经网络的单帧干涉图解调方法,解决了传统方法针对加工现场在线检测、长干涉腔下大口径元件检测等非稳条件下难以实现高精度快速检测的难题。
实现本发明目的的技术解决方案为:一种基于卷积神经网络的单帧干涉图解调方法,包括以下步骤:
S1、构造用于单帧干涉图相位解调的卷积神经网络模型CNN;
S2、结合实验干涉系统建立干涉数据仿真模型,制作CNN训练所需的数据集,数据集中包括仿真包裹相位、仿真包裹级次和仿真干涉图;
S3、以数据集中的仿真干涉图作为CNN的输入,数据集中相应的仿真包裹相位和仿真包裹级次作为CNN的输出,对CNN进行训练,得到训练完成的CNN;
S4、将实验干涉系统采集的干涉图输入到训练完成的CNN,CNN输出包裹相位和包裹级次;
S5、对包裹相位和包裹级次求和,得到干涉图的绝对相位;
本发明与现有技术相比,其显著优点在于:
(1)本发明基于CNN高精度相位解调,通过训练集训练CNN后,能够直接将输入的干涉图转化为输出的包裹相位和包裹级次,不需要执行相位展开过程,具有较好的测量效率,经过仿真和实验证明,解调单帧干涉图所需的时间仅为0.02秒。
(2)本发明通过CNN对单帧干涉图进行解调,不存在移相方法所造成的系统误差,且不需要使用复杂的解调算法,具有较高的解算精度,本发明方法的实验结果与Zygo干涉仪的实验结果进行对比,本发明方法具有优于0.01λ(λ=632.8nm)的均方根精度。
附图说明
图1是本发明基于卷积神经网络的单帧干涉图解调方法的流程图。
图2是本发明网络结构图。
图3是本发明残差块结构图。
图4是输入的干涉图。
图5是相应输出的包裹相位图。
图6是相应输出的包裹级次图。
图7是绝对相位图。
具体实施方式
下面结合附图对本发明作详细说明。
结合图1,本发明所述的基于卷积神经网络的单帧干涉图解调方法,对单帧干涉图同时提取包裹相位和包裹级次分布,不需要进行额外的展开处理,包括以下步骤:
S1、构造用于单帧干涉图相位解调的卷积神经网络模型CNN。
图2示出了S1所述的网络结构,其中每个实线方框代表一个对应的特征图,每个虚线框代表一个对应的单元。CNN的具体结构如下:所述CNN包括1个输入单元、4个下采样单元和4个上采样单元。干涉图作为CNN的输入,即所述输入单元的输入数据,依次经1个卷积块(convblock)和2个残差块(resblock)后输出数据,其中卷积块包括依次设置的批量归一化层(BN)、激励层(ReLU)和卷积层;输入单元的输出数据作为所述第一下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;第一下采样单元的输出数据作为所述第二下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;第二下采样单元的输出数据作为所述第三下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;第三下采样单元的输出数据作为所述第四下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块和1个上采样层后输出数据;第四下采样单元的输出数据作为所述第一上采样单元的输入数据,经连接层与第三下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;第一上采样单元的输出数据作为所述第二上采样单元的输入数据,经连接层与第二下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;第二上采样单元的输出数据作为所述第三上采样单元的输入数据,经连接层与第一下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;第三上采样单元的输出数据作为所述第四上采样单元的输入数据,经连接层与输入单元的输出数据连接,再依次经1个卷积块、2个残差块和1个卷积层输出包裹相位和包裹级次,卷积层采用tanh函数将输出限制为[-1,1],[-1,1]的取值范围与包裹相位([-π,π])的取值范围线性对应。
图3示出了所述残差块的结构图,所述残差块由两个连续的卷积块和一个来自输入数据的跳跃连接组成,输入数据经过两个连续的卷积块后与跳跃连接的输入数据相加并输出。
S2、结合实验干涉系统建立干涉数据仿真模型,制作CNN训练所需的数据集,数据集中包括仿真包裹相位、仿真包裹级次和仿真干涉图,具体如下:
S21、在建立数据集的过程中,通过数据仿真模型来生成用于CNN训练的数据集。数据集包括三部分:包裹相位、包裹级次和干涉图。干涉图可以表示为:
Figure BDA0003192135830000041
其中I(x,y)为模拟干涉图的光强分布,A(x,y)为背景强度,B(x,y)为调制幅度,
Figure BDA0003192135830000042
为待恢复相位。首先,利用Zernike多项式生成如下随机相位分布:
Figure BDA0003192135830000043
其中ai为第i个Zernike基函数Zi的系数,系数序号i=1,2,3,...,n。仿真采用前36个Zernike多项式,Zernike系数由一个随机函数生成,其中a1取0,a2,a3的取值范围为[0,5],a4的取值范围为[-5,5],a5~a9的取值范围为[-0.3,0.3],a10~a36的取值范围为[-0.03,0.03]。第一项表示轴向位移,不会影响相位的形状,所以a1设为0。第二和第三项表示倾斜,第四项是离焦。第5-9项是原始像差,通常是被测部分的主要像差。其余的是高阶像差,通常很小。
S22、相位生成后,可以通过式(3)得到相应的仿真包裹相位和仿真包裹级次:
Figure BDA0003192135830000044
其中<>是一个取整运算符,Φ(x,y)是仿真包裹相位,m(x,y)是仿真包裹级次。其中,干涉图中心的仿真包裹级次为0。M是相位的最大包裹数,是一个正整数。考虑到实际测量中可能的干涉条纹数和数值稳定性,将M设为8,即干涉图的最大条纹数小于16。
S23、生成背景强度和调制幅度。可以假设参考光和测试光的强度分布相同,只是强度幅值不同,即
It(x,y)=wIr(x,y) (4)
式中,It(x,y)为测试光强,Ir(x,y)为参考光强,w为两光强之比。w是[0.2,1]
范围内的一个随机值。然后,背景强度和调制幅度表示为:
A(x,y)=(w+1)Ir(x,y) (5)
Figure BDA0003192135830000051
干涉仪通常使用激光光源,其强度满足高斯分布。因此,参考光强可以表示为:
Figure BDA0003192135830000052
其中A0为强度幅值。x0和y0表示点在x和y方向上的偏移量,它们都是在[-0.2,0.2]范围内随机生成的。σ为光束宽度,在[0.9,1,1]范围内随机产生。结合式(1)和式(4)-式(7),模拟干涉图中任意点的归一化强度应该满足
Figure BDA0003192135830000053
S24、本发明尽可能地模拟实际干涉仪的背景噪声。首先采集Zygo干涉仪的参考光强,并对其进行高斯拟合,然后从参考光强中减去拟合项,差值即为Zygo干涉仪的背景噪声样本。由于干涉仪采集到的噪声比模拟的干涉图包括更多的像素,所以每次都从其中随机截取一个与仿真干涉图像素尺寸一致的噪声加入到I(x,y)中得到模拟参考光。在模拟参考光中加入高斯噪声,以增强数据的多样性。
S25、根据模拟参考光和生成的随机相位生成仿真干涉图。
S3、以数据集中的仿真干涉图作为CNN的输入,数据集中相应的仿真包裹相位和仿真包裹级次作为CNN的输出,对CNN进行训练,得到训练完成的CNN。
在本发明中,以数据集中的干涉图作为CNN的输入,以数据集中与干涉图对应的包裹相位和包裹级次作为CNN的输出,使用均方误差(MSE)作为损失函数Loss,定义如下:
Figure BDA0003192135830000054
其中C为样本数,样本序号j=1,2……C,xi和yi分别为输出数据和真值数据。本发明使用自适应时刻估计方法(Adam)来优化训练过程中的权重。学习率(lr)是式(11)所定义的变量值。网络总共训练了120个周期,batchsize设置为8,每个周期512步。该网络在Tensorflow平台和Keras框架下实现。训练过程大约需要28个小时。经过大约100次训练后,训练集和验证集的损失函数值收敛。
Figure BDA0003192135830000061
S4、将实验干涉系统采集的干涉图输入到训练完成的CNN,CNN输出包裹相位和包裹级次。
S5、对包裹相位和包裹级次求和,得到干涉图的绝对相位。
本例采用仿真数据验证所提出的方法。经过网络训练后,利用所生成的测试集可得到每个干涉图的平均解算时间为0.02秒。图4显示了输入的干涉图,输出为图5所示的包裹相位和图6所示的包裹级次,两输出相加后得到图7所示的绝对相位。
综上所述,本发明从单幅干涉图就可以高精度解算相位,并且不需要相位解包过程,具有较高的测量效率和测量精度,在干涉测量等领域具有广泛的应用前景。

Claims (5)

1.一种基于卷积神经网络的单帧干涉图解调方法,其特征在于,包括以下步骤:
S1、构造用于单帧干涉图相位解调的卷积神经网络模型CNN;
S2、结合实验干涉系统建立干涉数据仿真模型,制作CNN训练所需的数据集,数据集中包括仿真包裹相位、仿真包裹级次和仿真干涉图;
S3、以数据集中的仿真干涉图作为CNN的输入,数据集中相应的仿真包裹相位和仿真包裹级次作为CNN的输出,对CNN进行训练,得到训练完成的CNN;
S4、将实验干涉系统采集的干涉图输入到训练完成的CNN,CNN输出包裹相位和包裹级次;
S5、对包裹相位和包裹级次求和,得到干涉图的绝对相位。
2.根据权利要求1所述的基于卷积神经网络的单帧干涉图解调方法,其特征在于,所述CNN包括1个输入单元、4个下采样单元和4个上采样单元,具体结构如下:
干涉图作为CNN的输入,即所述输入单元的输入数据,依次经1个卷积块和2个残差块后输出数据;
输入单元的输出数据作为第一下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;
第一下采样单元的输出数据作为第二下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;
第二下采样单元的输出数据作为第三下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块后输出数据;
第三下采样单元的输出数据作为第四下采样单元的输入数据,依次经1个最大池化层、1个卷积块和2个残差块和1个上采样层后输出数据;
第四下采样单元的输出数据作为第一上采样单元的输入数据,第一上采样单元经连接层与第三下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;
第一上采样单元的输出数据作为第二上采样单元的输入数据,第二上采样单元经连接层与第二下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;
第二上采样单元的输出数据作为第三上采样单元的输入数据,第三上采样单元经连接层与第一下采样单元的输出数据连接,再依次经1个卷积块、2个残差块和1个上采样层后输出数据;
第三上采样单元的输出数据作为第四上采样单元的输入数据,第四上采样单元经连接层与输入单元的输出数据连接,再依次经1个卷积块、2个残差块和1个卷积层输出包裹相位和包裹级次。
3.根据权利要求1所述的基于卷积神经网络的单帧干涉图解调方法,其特征在于,S2中,结合实验干涉系统,建立干涉数据仿真模型,制作CNN训练所需的数据集,具体步骤如下:
S21、模拟干涉图的光强分布I(x,y)满足公式:
Figure FDA0003192135820000021
其中,A(x,y)为背景强度,B(x,y)为调制幅度,
Figure FDA0003192135820000022
为相位分布;
利用Zernike多项式生成随机的相位分布:
Figure FDA0003192135820000023
其中,ai为第i个Zernike基函数Zi的系数,系数序号i=1,2,3,…,n;仿真采用前36个Zernike多项式,Zernike系数由一个随机函数生成;
S22、根据随机相位分布
Figure FDA0003192135820000024
得到对应的仿真包裹相位和仿真包裹级次:
Figure FDA0003192135820000025
其中<>是一个取整运算符,Φ(x,y)是仿真包裹相位,m(x,y)是仿真包裹级次;干涉图中心的包裹级次为0;M是相位的最大包裹数,为正整数;
S23、建立参考光和测试光的强度模型以生成数据仿真模型的背景强度和调制幅度,其中参考光和测试光的强度分布相同,参考光强Ir(x,y)和测试光强It(x,y)存在比例关系:
It(x,y)=wIr(x,y) (4)
式中,It(x,y)为测试光强,Ir(x,y)为参考光强,w为两光强之比;背景强度A(x,y)和调制幅度B(x,y)表示为:
A(x,y)=(w+1)Ir(x,y) (5)
Figure FDA0003192135820000026
所述参考光强Ir(x,y)满足高斯分布,表示为:
Figure FDA0003192135820000031
其中A0为强度幅值,x0和y0对应表示点在x和y方向上的偏移量,σ为参考光光束宽度;
结合式(1)、式(4)-式(7),模拟干涉图中任意点的归一化强度I(x,y)的满足条件为:
Figure FDA0003192135820000032
S24、模拟干涉仪的背景噪声,步骤如下:
S24.1、采集干涉仪的参考光强,并对其进行高斯拟合;
S24.2、从参考光强中减去拟合项,差值为干涉仪的背景噪声样本;
S24.3、每次从干涉仪的背景噪声样本中随机截取一个与仿真干涉图像素尺寸一致的噪声加入到I(x,y)中,再加入高斯噪声,得到模拟参考光;
S25、根据模拟参考光和生成的随机相位生成仿真干涉图。
4.根据权利要求1所述的基于卷积神经网络的单帧干涉图解调方法,其特征在于,S3中,以S2中得到的数据集对CNN进行训练,其中,以数据集中的仿真干涉图作为网络的输入,以数据集中与仿真干涉图对应的仿真包裹相位和仿真包裹级次作为CNN的输出。
5.根据权利要求1所述的基于卷积神经网络的单帧干涉图解调方法,其特征在于,S5中,通过对CNN输出的包裹相位和包裹级次求和,得到干涉图的绝对相位。
CN202110881372.XA 2021-08-02 2021-08-02 基于卷积神经网络的单帧干涉图解调方法 Pending CN113674370A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110881372.XA CN113674370A (zh) 2021-08-02 2021-08-02 基于卷积神经网络的单帧干涉图解调方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110881372.XA CN113674370A (zh) 2021-08-02 2021-08-02 基于卷积神经网络的单帧干涉图解调方法

Publications (1)

Publication Number Publication Date
CN113674370A true CN113674370A (zh) 2021-11-19

Family

ID=78541116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110881372.XA Pending CN113674370A (zh) 2021-08-02 2021-08-02 基于卷积神经网络的单帧干涉图解调方法

Country Status (1)

Country Link
CN (1) CN113674370A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130202181A1 (en) * 2012-02-07 2013-08-08 National Cheng Kung University Integration of filters and phase unwrapping algorithms for removing noise in image reconstruction
CN104344793A (zh) * 2014-10-29 2015-02-11 南京理工大学 单帧光强传输定量相位显微系统及其方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN110378367A (zh) * 2019-06-05 2019-10-25 深圳大学 用于相位展开的生成式对抗网络的获取方法、装置及系统
CN110703385A (zh) * 2019-11-11 2020-01-17 西湖大学 基于光散射的图案化的多模干涉耦合器、设计方法和应用
CN111402240A (zh) * 2020-03-19 2020-07-10 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
CN112036415A (zh) * 2020-08-13 2020-12-04 常州机电职业技术学院 一种用于单帧随机相移干涉图的深度学习相位提取方法
CN112116616A (zh) * 2020-08-05 2020-12-22 西安交通大学 基于卷积神经网络的相位信息提取方法、存储介质及设备
CN113011107A (zh) * 2021-04-23 2021-06-22 南京理工大学 基于深度卷积神经网络的一维光纤传感信号相位恢复方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130202181A1 (en) * 2012-02-07 2013-08-08 National Cheng Kung University Integration of filters and phase unwrapping algorithms for removing noise in image reconstruction
CN104344793A (zh) * 2014-10-29 2015-02-11 南京理工大学 单帧光强传输定量相位显微系统及其方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN110378367A (zh) * 2019-06-05 2019-10-25 深圳大学 用于相位展开的生成式对抗网络的获取方法、装置及系统
CN110703385A (zh) * 2019-11-11 2020-01-17 西湖大学 基于光散射的图案化的多模干涉耦合器、设计方法和应用
CN111402240A (zh) * 2020-03-19 2020-07-10 南京理工大学 基于深度学习的单帧彩色条纹投影的三维面型测量方法
CN112116616A (zh) * 2020-08-05 2020-12-22 西安交通大学 基于卷积神经网络的相位信息提取方法、存储介质及设备
CN112036415A (zh) * 2020-08-13 2020-12-04 常州机电职业技术学院 一种用于单帧随机相移干涉图的深度学习相位提取方法
CN113011107A (zh) * 2021-04-23 2021-06-22 南京理工大学 基于深度卷积神经网络的一维光纤传感信号相位恢复方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
彭广泽;陈文静;: "基于卷积神经网络去噪正则化的条纹图修复", 光学学报, no. 18, 18 March 2020 (2020-03-18) *

Similar Documents

Publication Publication Date Title
AU659271B2 (en) Spatial wavefront evaluation by intensity relationship
CN112116616B (zh) 基于卷积神经网络的相位信息提取方法、存储介质及设备
CN110751268B (zh) 基于端到端卷积神经网络的相位混叠误差去除方法及装置
CN113158487B (zh) 一种基于长短期记忆深度网络的波前相位差探测方法
CN108872153A (zh) 基于非均匀傅里叶变换的平行平板光学均匀性的测量方法
CN107917676A (zh) 一种基于条纹图像频谱分析的干涉测量方法
Kimbrough et al. The spatial frequency response and resolution limitations of pixelated mask spatial carrier based phase shifting interferometry
Cywińska et al. DeepDensity: Convolutional neural network based estimation of local fringe pattern density
Sun et al. High-accuracy simultaneous phase extraction and unwrapping method for single interferogram based on convolutional neural network
JP2006234389A (ja) 光位相分布測定方法
CN111103120A (zh) 一种基于深度学习的光纤模式分解方法及可读介质
CN113674370A (zh) 基于卷积神经网络的单帧干涉图解调方法
Ganotra et al. Profilometry for the measurement of three-dimensional object shape using radial basis function, and multi-layer perceptron neural networks
CN111928794A (zh) 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置
CN115127683A (zh) 一种动态干涉仪干涉图参数失配的相位提取的方法
CN110146258A (zh) 一种Poisson noise模型下对扩展目标成像时的相位恢复方法
CN111964876B (zh) 基于lrte-nufft的平行平板光学均匀性的测量方法
CN111897188B (zh) 超大数值孔径严格矢量成像系统偏振像差的检测方法
He et al. Sequential shift absolute phase aberration calibration in digital holographic phase imaging based on chebyshev polynomials fitting
Liu et al. Measurement of transient near-infrared laser pulse wavefront with high precision by radial shearing interferometer
Rhee et al. Improved iterative method for wavefront reconstruction from derivatives in grid geometry
Zhai et al. Exact multi-shear reconstruction method with different tilts in spatial domain
CN113899305B (zh) 一种改进的相移相位测量方法及系统
Guzmán et al. Enhanced Pyramid Wavefront Sensor via End-to-End trained diffractive optical layer
CN116481655A (zh) 一种非迭代计算相位倾斜参数的移相干涉测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination