CN117629104A - 基于深度学习的高精度动态干涉测量方法与装置 - Google Patents

基于深度学习的高精度动态干涉测量方法与装置 Download PDF

Info

Publication number
CN117629104A
CN117629104A CN202311617287.8A CN202311617287A CN117629104A CN 117629104 A CN117629104 A CN 117629104A CN 202311617287 A CN202311617287 A CN 202311617287A CN 117629104 A CN117629104 A CN 117629104A
Authority
CN
China
Prior art keywords
phase
interference
deep learning
training
interference fringe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311617287.8A
Other languages
English (en)
Inventor
赵维谦
汤亮
邱丽荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202311617287.8A priority Critical patent/CN117629104A/zh
Publication of CN117629104A publication Critical patent/CN117629104A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Instruments For Measurement Of Length By Optical Means (AREA)

Abstract

本发明公开的基于深度学习的高精度动态干涉测量方法与装置,属于光学精密测量技术领域。本发明实现方法为:通过深度学习的条纹图处理技术,根据光学干涉理论,以及Zernike多项式原理,实现基于深度卷积神经网络的干涉图中噪声滤波处理。通过卷积神经网络对反正切函数中包含噪声的分子和分母去噪,然后被滤波的分子和分母通过反正切函数输出被测面形的包裹相位图。通过VUR‑Net模型实现对包裹相位图进行相位展开,并对干涉条纹图进行噪声处理、包裹相位噪声处理和相位提取,以实现干涉图的高效快速自动处理的高精度测量功能。本发明通过实现单帧具有环境噪声的干涉图与被测面形的高精度映射解算,实现普通干涉仪具有动态干涉测量的功能。

Description

基于深度学习的高精度动态干涉测量方法与装置
技术领域
本发明涉及基于深度学习的高精度动态干涉测量方法与装置,属于光学精密测量技术领域。
背景技术
光学元件的表面形貌的优劣是决定天文望远镜、惯性约束聚变装置、半导体晶圆检测等高精密光学系统总体性能指标的关键参数之一,因此对光学元件进行加工检测的干涉仪在光学测量领域中处于核心的地位。
现有的高精度干涉仪采用抗背景干扰能力强、精度高的移相干涉测量技术(PSI)。PSI的基本原理是在干涉图中引入相移,并通过采集多帧移相干涉图计算相位和面形分布。一般采用传统五步、十三步移相算法等,通过机械移相方式或波长调谐方式来获得多张干涉图,再通过传统经典的面形解算算法获得被测镜的面形。然而对于大口径光学元件的面形检测,由于测试装置和干涉空腔长度较大,气流扰动和环境振动均会对测试结果产生影响,传统的空域相移方法对实验条件的要求极为苛刻,为了实现高精度的面形解算,需要保证长期稳定的严苛测试环境。这对干涉仪的研制提出了更高的要求,极大提升了干涉仪的造价,而且无法在环境扰动的条件下进行测量。为了实现抗振动、抗扰动、极强的环境适应性,4D Technology公司采用的瞬时相移干涉技术(SPSI),通过在CCD前放置一块微偏振移相阵列实现同步移相,研发了以FizCam2000为代表的菲索型动态干涉仪和以PhaseCam6000为代表的泰曼格林型动态干涉仪,但是,上述两种干涉仪中的微偏振移相阵列成本很高,导致动态干涉仪价格十分昂贵。
随着计算机视觉和深度学习技术的发展,在光学测量领域通过与深度学习进行结合,可有效解决目前在干涉测量中存在的硬件无法克服的难题。深度学习,即用深度神经网络(DNN,Deep Neural Network)来进行机器学习,是一种强大的机器学习技术,它采用具有多层功能日益丰富的人工神经网络。而神经网络是一种模拟生物神经元之间连接和交互的数学模型,深度学习是指利用多层神经网络来学习输入数据的潜在特征和规律,从而实现数据分类、回归等任务。目前,深度学习以其强大的数据分析优势在众多领域广泛地发展,通过构建和模拟人脑的神经网络来分析学习,为光学测量领域提供了很大发展空间。1943年,MCP(McCulloch and Pitts)人工神经元模型的诞生,是深度学习最早的思想来源。1958年,Rosenblatt第一次将MCP人工神经元模型用于机器学习(分类)的感知器中。1986年,Hinton发明了多层感知机(MLP)的反向传播(BP)算法,并采用sigmoid进行非线性映射,有效地解决了非线性分类和学习问题。2019年,F.Hao等人利用FFD-Net模型预测噪声,提出将条纹图去噪方法应用在电子散斑干涉测量领域,Z.Ren等人提出深度学习方法应用于数字全息成像领域,在离轴全息成像系统中有效改进了空间分辨率。由于基于深度学习法的条纹图处理技术有效提高了传统的条纹分析技术的处理精度与速度,条纹投影等领域通过深度学习发展迅速。但对于干涉条纹图的分析及应用仍存在问题,因而深度学习在精密光学元件的检测领域尚未广泛应用。因此,突破深度学习进行光学元件面形的解算这一难题,对实现光学元件的表面形貌精确测量具有重要意义。
发明内容
针对上述干涉测量中存在的传统的时域相移法不利于动态测量且环境要求苛刻,而目前的动态干涉仪成本高的问题,本发明的目的是提出一种基于深度学习的高精度动态干涉测量方法与装置,通过深度学习的条纹图处理技术,根据光学干涉理论,以及Zernike多项式原理,实现基于深度卷积神经网络的干涉图中噪声滤波处理。通过卷积神经网络对反正切函数中包含噪声的分子和分母去噪,然后被滤波的分子和分母通过反正切函数输出被测面形的包裹相位图。通过VUR-Net模型实现对包裹相位图进行相位展开,采用深度学习对干涉图处理过程包括对干涉条纹图噪声处理、包裹相位噪声处理和相位提取,以实现干涉图自动处理的高精度测量。通过单帧具有环境噪声的干涉图与被测面形的高精度映射解算,使干涉仪具有动态干涉测量的功能。
本发明的目的是通过下述技术方案实现的。
本发明公开的基于深度学习的高精度动态干涉测量方法,包括步骤如下:
步骤一:通过干涉仪采集预设数量的被测面形的干涉条纹图,并通过经典干涉算法得到被测元件的相位图、面形图,作为深度学习所需要的训练数据集。干涉仪主机出射光束先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光。参考光和测量光沿干涉仪系统光轴原路返回,当参考光和测量光两束光干涉后,形成干涉条纹,干涉场的光强分布表示为:
其中,I(x,y)表示为干涉条纹的背景光光强;Ia(x,y)表示为干涉条纹的幅值;表示为RF反射回来的测量光的波面相位分布;x和y表示像素坐标,δ(x,y)表示为噪声误差。
步骤二:针对步骤一中干涉条纹的噪声误差,基于深度卷积的条纹图去噪方法,从数据集中归纳去噪模型实现对干涉条纹图去噪处理。通过实验采集得到的干涉条纹图进行训练,进而获得真值来执行去噪任务。然后,根据携带噪声的干涉条纹图和无噪声的干涉条纹图之间的理论映射关系,建立卷积神经网络条纹去噪模型,进而,保证所建立的条纹去噪模型的准确性。
步骤三:构建两个不同的卷积神经网络用于将干涉条纹图解算为包裹相位,并将其级联连接。第一个卷积神经网络使用原始条纹模式I(x,y)作为输入,背景强度Ia(x,y)作为输出的训练模式,以及估计的背景图像Ia(x,y)作为输入,而原始图像光强I(x,y)作为输出的训练模式;第二个卷积神经网络被用来训练预测分子M(x,y)和分母D(x,y)的反正切函数,将其馈送到后续的反正切函数中,以获得最终的包裹相位分布ψ(x,y)。
其中c是一个依赖于相位解调算法的常数;M(x,y)和D(x,y)分别表示分子项和分母项。M(x,y)和D(x,y)的符号能够进一步用于为ψ(x,y)的每个值定义其作为象限的位置。在四象限相量空间中,每个点的相位值均能够通过2π来确定。
分子M(x,y)和分母D(x,y)与干涉条纹图的背景光强Ia(x,y)的线性关系与原始干涉条纹的形状和图样密切相关。因此,M(x,y)和D(x,y)能够由深度神经网络通过学习训练得到。
将干涉条纹图导入第一个卷积神经网络模型中,计算估计背景光强的分布,然后将干涉条纹图和训练得到的背景光强分布同时输入到第二个卷积神经网络模型中,得到反正切函数的分子和分母,然后经反正切函数计算其包裹相位;因此,能够实现从单帧干涉条纹图中得到干净无噪声的包裹相位,提高干涉条纹图处理速度和精度。
步骤四:基于深度学习进行干涉包裹相位的展开,通过对搭建的相位展开网络进行训练,统计学习包裹相位和对应的展开相位之间的映射关系。训练该网络来学习相位展开操作,使用该网络可以准确地展开实际的包裹相位图像。训练分为两个阶段,建立ψ与之间的非线性映射,然后通过网络测试阶段,直接从ψ重构/>
实际相位与步骤三得到的包裹相位ψ(x,y)的关系表示为:
其中j为虚数单位;angle(·)表示求取复数的实部,并将实部的相位值有效地封装在(-π,π)的范围内。
步骤五:进行面形拟合和解算。解包裹后的相位中不仅存在因被测样品装调误差而导致的相位倾斜或离焦项,而且存在由参考镜、被测样品或其他任何非共光路元件的形貌误差所导致的像差项。该步骤采取两种方式进行面形拟合和解算,第一种是在光学检测中,采用即Zernike拟合剔除像差项,利用Zernike多项式基底(通常为前36项)对测得相位进行拟合,然后将拟合结果从测得结果中剔除,从而实现高精度面形解算;另一种是通过深度学习训练得到,相位信息和面形信息的对应映射,实现与Zernike拟合相同的面形解算效果,达到高精度的面形拟合,根据深度学习训练得到的面形拟合结果剔除像差项,进而实现高精度动态干涉测量。
进一步的,建立卷积神经网络干涉条纹去噪模型,该模型由卷积层和激活函数层组成,输入的参量为携带一定环境噪声的干涉条纹图,输出的结果为估计的去噪干涉条纹图,包含的每层卷积层均使用卷积核滤波处理。为了使条纹去噪网络具有更强的学习映射性能,以及处理非线性等问题的能力,利用ReLU函数易收敛的优势,将ReLU作为激活函数,即R(xi)=max{0,xi}。从第一层卷积层到最后一层卷积层的输出部分都增加一层ReLU激活函数用于复杂映射。若输入数据记为αi,则每层经卷积层和激活函数所计算的特征信息Zii)表示为:
Zii)=max(0,αi*Wi)
式中,Wi代表权重,即卷积核参数,符号*代表卷积操作。
因此,干涉条纹图经过卷积核的特征提取和ReLU函数非线性映射处理后,得到与输入的干涉条纹图尺寸一致的特征映射图。随后,将输出的特征图作为下一层网络的输入数据,继续卷积运算。经过迭代卷积特征提取处理,得到完成去噪后的干涉条纹图。
进一步的,利用Zernike多项式描述波面的方式建立特征库,从训练数据中学习内在规律来建立映射模型。利用Zernike多项式的不同参数与实际像差的对应关系,模拟预设数量的噪声条纹图和相应无噪声条纹来建立特征学习库。此外,通过干涉仪实际测量得到的干涉条纹图进行训练,包括环境要求很高测量得到的干涉条纹图,以及环境噪声很大得到的干涉条纹图分别作为样本进行训练,保证训练集的可靠性。
进一步的,通过深度学习将干涉条纹图解算出相位图,采取分步处理方式。通过深度学习将干涉条纹图进行去噪处理,然后将干涉条纹图进行包裹相位解算以及相位解包裹,每个过程均加入损失函数,被用于评价网络预测值和真值之间的误差,并通过梯度下降法GD或其他优化算法进行优化参数处理,使深度学习网络达到最优解,使满足网络输出结果与真值间的损失函数达到最小。
本发明公开的基于深度学习的高精度动态干涉测量装置,基于所述基于深度学习的高精度动态干涉测量方法实现。基于深度学习的高精度动态干涉测量装置,包括激光器、分光镜、小口径准直镜、扩束镜、大口径准直镜、参考镜的精密调整架、参考镜TF、标准被测镜RF、标准被测镜的精密调整架、分光棱镜、成像透镜组、CCD相机。干涉仪主机出射光束先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光。参考光和测量光沿光轴原路返回,当参考光和测量光两束光相干干涉后,通过干涉仪采集大量的被测面形的干涉条纹图、并通过经典干涉算法得到被测元件的相位图、面形图,作为深度学习所需要的训练数据集,通过该数据集的训练后得到相位信息和面形信息的对应映射,实现与Zernike拟合相同的面形解算效果,达到高精度的面形拟合,根据深度学习训练得到的面形拟合结果剔除像差项,仅需一帧干涉条纹图即能够实现高精度动态干涉测量。
本发明公开的基于深度学习的高精度动态干涉测量方法与装置,无需高昂的微偏振移相阵列,或高精度移相器。仅需拍摄一帧干涉条纹图即可解算被测面形的信息。通过深度学习算法,将大量的不同条件下的干涉条纹图进行去噪处理,通过模拟不同的环境下的噪声信息,实现精准匹配并精准去噪,降低环境对干涉测量精度的影响;通过干涉条纹图和相位图之间的映射关系,解算出不同环境下被测镜的面形信息。
本发明公开的基于深度学习的高精度动态干涉测量方法与装置,通过深度学习进行干涉条纹图去噪,训练后的模型可以从噪声条纹中直接估计出无噪声的条纹。因此,干涉仪即使应用在有较大环境干扰的情况下,通过深度学习的干涉条纹图去噪模型,实现高效的干涉条纹去噪分析,可进行干涉仪在不同环境的高精度测量,进而实现普通干涉仪的动态干涉测量。
本发明公开的基于深度学习的高精度动态干涉测量方法,能够应用在小口径干涉仪中,也可以应用在大口径干涉测量系统中。
有益效果:
1.本发明公开的基于深度学习的高精度动态干涉测量方法与装置,通过深度学习的条纹图处理技术,根据光学干涉理论,以及Zernike多项式原理,实现基于深度卷积神经网络的干涉条纹图中噪声滤波处理。为干涉仪面形解算提供一种新的干涉条纹去噪的方法与手段。
2.本发明公开的基于深度学习的高精度动态干涉测量方法与装置,通过深度学习训练后的模型可以从噪声条纹中直接估计出无噪声的条纹,保证干涉仪可应用在有较大环境干扰的情况下,通过去噪模型,解算出被测镜的真实相位和真实面形,实现干涉仪的高精度动态干涉测量。本发明能够实现传统干涉仪可满足动态测量的需求,提高干涉仪在环境噪声较大情况下的测量精度。
3.本发明公开的基于深度学习的高精度动态干涉测量方法与装置,仅需一帧干涉条纹图就可以解算被测面形,采用深度学习算法,避免了采用硬件结构存在的移相方法所造成的系统误差,且不需要使用复杂的解调算法,通过调节神经元之间的连接参数和激活函数来拟合,具有较高的解算精度。规避了现有干涉仪测量受限于环境因素的干扰问题。本发明为传统干涉仪实现动态测量提供了一种新的方法与手段。
附图说明
图1是本发明基于深度学习的高精度动态干涉测量方法与装置流程图;
图2是本发明基于深度学习的高精度动态干涉测量方法与装置的干涉条纹图去噪原理图;
图3是本发明基于深度学习的高精度动态干涉测量方法与装置的包裹相位生成结构图;
图4是本发明基于深度学习的高精度动态干涉测量方法与装置的包裹相位到面形图结构图;
图5是本发明基于深度学习的高精度动态干涉测量方法与装置的结构网图;
图6是本发明实施例1的基于深度学习的高精度动态干涉测量方法与装置图;
图7是本发明实施例2的基于深度学习的高精度动态干涉测量方法与装置图;
其中:1-激光器、2-分光镜、3-小口径准直镜、4-扩束镜、5-大口径准直镜、6-参考镜的精密调整架、7-参考镜TF、8-标准被测镜RF、9-标准被测镜的精密调整架、10-分光棱镜、11-成像透镜组、12-CCD相机、13-干涉条纹图、14-包裹相位图、15-解包裹后的相位图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。本发明提出的一种基于深度学习的高精度动态干涉测量方法与装置。通过深度学习的条纹图处理技术,根据光学干涉理论,以及Zernike多项式原理,实现基于深度卷积神经网络的干涉条纹图中噪声滤波处理。通过卷积神经网络对反正切函数中包含噪声的分子和分母去噪,然后被滤波的分子和分母通过反正切函数输出被测面形的包裹相位图。通过VUR-Net模型实现对包裹相位图进行相位展开,其中包括对干涉条纹图噪声处理、包裹相位噪声处理和相位提取等进行研究,以实现干涉条纹图的高效快速自动处理的高精度测量功能。最终实现单帧具有环境噪声的干涉条纹图与被测面形的高精度映射解算,进而实现了普通干涉仪具有动态干涉测量的功能,为干涉仪的构建提供一种新的面形解算方法与手段,为光学检测和加工精度的提高提供了有效途径。
实施例1
如图6所示,本实施例公开的基于深度学习的高精度动态干涉测量装置,激光光源1出射光束经过分光镜2,被准直镜3准直为平行光束,先后被参考镜7和标准被测镜8表面反射,形成参考光和测量光。参考光和测量光沿干涉仪系统光轴原路返回,当参考光和测量光两束光相干干涉后,经过分光镜10,被成像透镜组11成像在CCD相机12中,形成的干涉条纹13通过深度学习框架去噪后解算出包裹相位14,通过VUR-Net模型实现对包裹相位进行解包裹处理得到被测面形真实的相位图15。
针对基于深度学习的高精度动态干涉测量方法与装置的步骤如下:
步骤一:干涉仪主机出射光束先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光。参考光和测量光沿大口径干涉仪系统光轴原路返回,当参考光和测量光两束光相干干涉后,通过干涉仪采集大量的被测面形的干涉条纹图、并通过经典干涉算法得到被测元件的相位图,面形图,作为深度学习所需要的训练数据集。
步骤二:针对步骤一中干涉条纹的噪声误差进行基于深度卷积的条纹图去噪研究,从大量数据集中归纳去噪模型实现对干涉条纹图去噪处理。首先,通过实验采集得到的大量干涉条纹图进行训练,进而获得真值来执行去噪任务。然后,根据携带噪声的干涉条纹图和无噪声的干涉条纹图之间的理论映射关系,建立卷积神经网络条纹去噪模型,进而,保证所建立的条纹去噪模型的准确性。
步骤三:构建了两个不同的卷积神经网络用于将干涉条纹图解算为包裹相位,并将其级联连接。第一个卷积神经网络使用原始条纹模式I(x,y)作为输入,背景强度Ia(x,y)作为输出的训练模式,以及估计的背景图像Ia(x,y)作为输入,而原始图像光强I(x,y)作为输出的训练模式;第二个卷积神经网络被用来训练预测分子M(x,y)和分母D(x,y)的反正切函数,将其馈送到后续的反正切函数中,以获得最终的包裹相位分布ψ(x,y)。首先,将干涉条纹图导入第一个卷积神经网络模型中,计算估计背景光强的分布,然后将干涉条纹图和训练得到的背景光强分布同时输入到第二个卷积神经网络模型中,得到反正切函数的分子和分母,然后经反正切函数计算其包裹相位。因此,可实现从单帧干涉条纹图中得到干净无噪声的包裹相位,提高了干涉条纹图处理速度和精度。
步骤四:基于深度学习VUR-Net模型进行干涉包裹相位的展开,通过对搭建的相位展开网络进行训练,统计学习包裹相位和对应的展开相位之间的映射关系。训练该网络来学习相位展开操作,使用该网络可以准确地展开实际的包裹相位图像。训练分为两个阶段,首先建立ψ与之间的非线性映射,然后通过网络测试阶段,直接从ψ重构/>
步骤五:进行Zernike拟合和面形解算,解包裹后的相位中不仅存在因被测样品装调误差而导致的相位倾斜或离焦项,而且存在由参考镜、被测样品或其他任何非共光路元件的形貌误差所导致的像差项。在光学检测中,常用的剔除手段为Zernike拟合剔除,利用Zernike多项式基底,对测得相位进行拟合,然后将拟合结果从测得结果中剔除,从而实现高精度面形解算。
实施例2
如图2所示,本实施例公开的基于深度学习的高精度动态干涉测量装置,激光光源1出射光束经过分光镜2,被小口径准直镜3准直为口径100mm的平行光束,经过小口径扩束系统4,以及大口径准直镜5准直成为大口径的平行光束,先后被参考镜7和标准被测镜8表面反射,形成参考光和测量光。参考光和测量光沿大口径干涉仪系统光轴原路返回,当参考光和测量光两束光相干干涉后,经过分光镜10,被成像透镜组11成像在CCD相机12中,形成的干涉条纹13通过深度学习框架去噪后解算出包裹相位14,通过VUR-Net模型实现对包裹相位进行解包裹处理得到被测面形真实的相位图15。
针对基于深度学习的高精度动态干涉测量方法与装置的步骤如下:
步骤一:干涉仪主机出射光束经过大口径扩束系统先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光。参考光和测量光沿大口径干涉仪系统光轴原路返回,当参考光和测量光两束光相干干涉后,通过干涉仪采集大量的被测面形的干涉条纹图、并通过经典干涉算法得到被测元件的相位图,面形图,作为深度学习所需要的训练数据集。
步骤二:针对步骤一中干涉条纹的噪声误差进行基于深度卷积的条纹图去噪研究,从大量数据集中归纳去噪模型实现对干涉条纹图去噪处理。首先,通过实验采集得到的大量干涉条纹图进行训练,进而获得真值来执行去噪任务。然后,根据携带噪声的干涉条纹图和无噪声的干涉条纹图之间的理论映射关系,建立卷积神经网络条纹去噪模型,进而,保证所建立的条纹去噪模型的准确性。
步骤三:构建了两个不同的卷积神经网络用于将干涉条纹图解算为包裹相位,并将其级联连接。第一个卷积神经网络使用原始条纹模式I(x,y)作为输入,背景强度Ia(x,y)作为输出的训练模式,以及估计的背景图像Ia(x,y)作为输入,而原始图像光强I(x,y)作为输出的训练模式;第二个卷积神经网络被用来训练预测分子M(x,y)和分母D(x,y)的反正切函数,将其馈送到后续的反正切函数中,以获得最终的包裹相位分布ψ(x,y)。首先,将干涉条纹图导入第一个卷积神经网络模型中,计算估计背景光强的分布,然后将干涉条纹图和训练得到的背景光强分布同时输入到第二个卷积神经网络模型中,得到反正切函数的分子和分母,然后经反正切函数计算其包裹相位。因此,可实现从单帧干涉条纹图中得到干净无噪声的包裹相位,提高了干涉条纹图处理速度和精度。
步骤四:基于深度学习VUR-Net模型进行干涉包裹相位的展开,通过对搭建的相位展开网络进行训练,统计学习包裹相位和对应的展开相位之间的映射关系。训练该网络来学习相位展开操作,使用该网络可以准确地展开实际的包裹相位图像。训练分为两个阶段,首先建立ψ与之间的非线性映射,然后通过网络测试阶段,直接从ψ重构/>
步骤五:进行面形拟合解算,解包裹后的相位中不仅存在因被测样品装调误差而导致的相位倾斜或离焦项,而且存在由参考镜、被测样品或其他任何非共光路元件的形貌误差所导致的像差项。在光学检测中,通过深度学习训练得到,相位信息和面形信息的对应映射,实现与Zernike拟合相同的面形解算效果,进而达到高精度面形解算。
以上结合附图对本发明的具体实施方式作了说明,但这些说明不能被理解为限制了本发明的范围,本发明的保护范围由随附的权利要求书限定,任何在本发明权利要求基础上的改动都是本发明的保护范围。

Claims (7)

1.基于深度学习的高精度动态干涉测量方法,其特征在于:包括如下步骤,
步骤一:通过干涉仪采集预设数量的被测面形的干涉条纹图,并通过经典干涉算法得到被测元件的相位图、面形图,作为深度学习所需要的训练数据集;干涉仪主机出射光束先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光;参考光和测量光沿干涉仪系统光轴原路返回,当参考光和测量光两束光干涉后,形成干涉条纹,干涉场的光强分布表示为:
其中,I(x,y)表示为干涉条纹的背景光光强;Ia(x,y)表示为干涉条纹的幅值;表示为RF反射回来的测量光的波面相位分布;x和y表示像素坐标,δ(x,y)表示为噪声误差;
步骤二:通过步骤一采集得到的干涉条纹图进行训练,进而获得真值来执行去噪任务;然后,根据携带噪声的干涉条纹图和无噪声的干涉条纹图之间的理论映射关系,建立卷积神经网络条纹去噪模型,保证所建立的条纹去噪模型的准确性;
步骤三:构建两个不同的卷积神经网络用于将干涉条纹图解算为包裹相位,并将其级联连接;第一个卷积神经网络使用原始条纹模式I(x,y)作为输入,背景强度Ia(x,y)作为输出的训练模式,以及估计的背景图像Ia(x,y)作为输入,而原始图像光强I(x,y)作为输出的训练模式;第二个卷积神经网络被用来训练预测分子M(x,y)和分母D(x,y)的反正切函数,将其馈送到后续的反正切函数中,以获得最终的包裹相位分布ψ(x,y);
其中c是一个依赖于相位解调算法的常数;M(x,y)和D(x,y)分别表示分子项和分母项;M(x,y)和D(x,y)的符号能够进一步用于为ψ(x,y)的每个值定义其作为象限的位置;在四象限相量空间中,每个点的相位值均能够通过2π来确定;
分子M(x,y)和分母D(x,y)与干涉条纹图的背景光强Ia(x,y)的线性关系与原始干涉条纹的形状和图样密切相关;因此,M(x,y)和D(x,y)能够由深度神经网络通过学习训练得到;
将干涉条纹图导入第一个卷积神经网络模型中,计算估计背景光强的分布,然后将干涉条纹图和训练得到的背景光强分布同时输入到第二个卷积神经网络模型中,得到反正切函数的分子和分母,然后经反正切函数计算其包裹相位;因此,能够实现从单帧干涉条纹图中得到干净无噪声的包裹相位,提高干涉条纹图处理速度和精度;
步骤四:基于深度学习进行干涉包裹相位的展开,通过对搭建的相位展开网络进行训练,统计学习包裹相位和对应的展开相位之间的映射关系;训练该网络来学习相位展开操作,使用该网络准确地展开实际的包裹相位图像;训练分为两个阶段,建立ψ与之间的非线性映射,然后通过网络测试阶段,直接从ψ重构/>
实际相位与步骤三得到的包裹相位ψ(x,y)的关系表示为:
其中j为虚数单位;angle(·)表示求取复数的实部,并将实部的相位值有效地封装在(-π,π)的范围内;
步骤五:进行面形拟合和解算;解包裹后的相位中不仅存在因被测样品装调误差而导致的相位倾斜或离焦项,而且存在由参考镜、被测样品或其他任何非共光路元件的形貌误差所导致的像差项;该步骤采取两种方式进行面形拟合和解算,第一种是在光学检测中,采用即Zernike拟合剔除像差项,利用Zernike多项式基底对测得相位进行拟合,然后将拟合结果从测得结果中剔除,从而实现高精度面形解算;另一种是通过深度学习训练得到,相位信息和面形信息的对应映射,实现与Zernike拟合相同的面形解算效果,达到高精度的面形拟合,根据深度学习训练得到的面形拟合结果剔除像差项,进而实现高精度动态干涉测量。
2.根据权利要求1所述的基于深度学习的高精度动态干涉测量方法,其特征在于:建立卷积神经网络干涉条纹去噪模型,该模型由卷积层和激活函数层组成,输入的参量为携带环境噪声的干涉条纹图,输出的结果为估计的去噪干涉条纹图,包含的每层卷积层均使用卷积核滤波处理;为了使条纹去噪网络具有更强的学习映射性能,以及处理非线性等问题的能力,利用ReLU函数易收敛的优势,将ReLU作为激活函数,即R(xi)=max{0,xi};从第一层卷积层到最后一层卷积层的输出部分都增加一层ReLU激活函数用于复杂映射;若输入数据记为αi,则每层经卷积层和激活函数所计算的特征信息Zii)表示为:
Zii)=max(0,αi*Wi)
式中,Wi代表权重,即卷积核参数,符号*代表卷积操作;
干涉图经过卷积核的特征提取和ReLU函数非线性映射处理后,得到与输入的干涉图尺寸一致的特征映射图;随后,将输出的特征图作为下一层网络的输入数据,继续卷积运算;经过迭代卷积特征提取处理,最终得到完成去噪后的干涉图。
3.根据权利要求1所述的基于深度学习的高精度动态干涉测量方法,其特征在于:利用Zernike多项式描述波面的方式建立特征库,从训练数据中学习内在规律来建立映射模型;利用Zernike多项式的不同参数与实际像差的对应关系,模拟预设数量噪声条纹图和相应无噪声条纹来建立特征学习库;此外,通过干涉仪实际测量得到的干涉图进行训练,包括环境要求很高测量得到的干涉图,以及环境噪声很大得到的干涉图分别作为样本进行训练,保证训练集的可靠性。
4.根据权利要求1所述的基于深度学习的高精度动态干涉测量方法,其特征在于:通过深度学习将干涉图解算出相位图,采取分步处理方式;通过深度学习将干涉图进行去噪处理,然后将干涉图进行包裹相位解算以及相位解包裹,每个过程均加入损失函数,被用于评价网络预测值和真值之间的误差,并通过梯度下降法进行优化参数处理,使深度学习网络达到最优解,使满足网络输出结果与真值间的损失函数达到最小。
5.根据权利要求1所述的基于深度学习的高精度动态干涉测量方法,其特征在于:仅需拍摄一帧干涉图即可解算被测面形的信息;通过深度学习算法,将预设数量的不同条件下的干涉图进行去噪处理,通过模拟不同的环境下的噪声信息,实现精准匹配并精准去噪,降低环境对干涉测量精度的影响;通过干涉图和相位图之间的映射关系,解算出不同环境下被测镜的面形信息。
6.根据权利要求1所述的基于深度学习的高精度动态干涉测量方法,其特征在于:通过深度学习进行干涉图去噪,训练后的模型可以从噪声条纹中直接估计出无噪声的条纹;因此,干涉仪即使应用在有较大环境干扰的情况下,通过深度学习的干涉图去噪模型,实现高效的干涉条纹去噪分析,能够进行干涉仪在不同环境的高精度测量,进而实现普通干涉仪的动态干涉测量。
7.基于深度学习的高精度动态干涉测量装置,根据权利要求1所述的基于深度学习的高精度动态干涉测量方法实现,其特征在于:包括激光器、分光镜、小口径准直镜、扩束镜、大口径准直镜、参考镜的精密调整架、参考镜TF、标准被测镜RF、标准被测镜的精密调整架、分光棱镜、成像透镜组、CCD相机;干涉仪主机出射光束先后被参考镜TF和标准镜RF表面反射,形成参考光和测量光;参考光和测量光沿光轴原路返回,当参考光和测量光两束光相干干涉后,通过干涉仪采集大量的被测面形的干涉图、并通过经典干涉算法得到被测元件的相位图、面形图,作为深度学习所需要的训练数据集,通过该数据集的训练后得到相位信息和面形信息的对应映射,实现与Zernike拟合相同的面形解算效果,达到高精度的面形拟合,根据深度学习训练得到的面形拟合结果剔除像差项,仅需一帧干涉条纹图即能够实现高精度动态干涉测量。
CN202311617287.8A 2023-11-30 2023-11-30 基于深度学习的高精度动态干涉测量方法与装置 Pending CN117629104A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311617287.8A CN117629104A (zh) 2023-11-30 2023-11-30 基于深度学习的高精度动态干涉测量方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311617287.8A CN117629104A (zh) 2023-11-30 2023-11-30 基于深度学习的高精度动态干涉测量方法与装置

Publications (1)

Publication Number Publication Date
CN117629104A true CN117629104A (zh) 2024-03-01

Family

ID=90019564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311617287.8A Pending CN117629104A (zh) 2023-11-30 2023-11-30 基于深度学习的高精度动态干涉测量方法与装置

Country Status (1)

Country Link
CN (1) CN117629104A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118565373A (zh) * 2024-07-29 2024-08-30 华中科技大学 一种基于相位解调的光纤形状测量装置及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118565373A (zh) * 2024-07-29 2024-08-30 华中科技大学 一种基于相位解调的光纤形状测量装置及方法

Similar Documents

Publication Publication Date Title
Zuo et al. Transport of intensity phase retrieval and computational imaging for partially coherent fields: The phase space perspective
JP4594114B2 (ja) 画像処理装置および屈折率分布測定装置
CN112116616B (zh) 基于卷积神经网络的相位信息提取方法、存储介质及设备
CN112484968B (zh) 用于光学量测的方法、系统、计算设备和存储介质
CN117629104A (zh) 基于深度学习的高精度动态干涉测量方法与装置
CN111579097B (zh) 基于神经网络的高精度光学散射补偿方法
CN108955575B (zh) 一种基于单幅干涉条纹高精度地恢复波面的方法
JP3065374B2 (ja) 被検体の光学的検査方法、被検体の光学的検査装置、および被検体の光学的検査用干渉計
CN111238403A (zh) 一种基于光场子孔径条纹图像的三维重建方法及装置
CN108061515A (zh) 相位偏移干涉仪
JP2019517679A (ja) 入力ビームの位相を決定する方法
CN111561877A (zh) 一种基于点衍射干涉仪的可变分辨率相位解包裹方法
JP2006234389A (ja) 光位相分布測定方法
Bai et al. Recent Progress of Full-Field Three-Dimensional Shape Measurement Based on Phase Information
US7158914B2 (en) Precision surface measurement
KR101166961B1 (ko) 3차원 빔측정을 통한 광학계의 파면수차 복원방법
CN113432731B (zh) 一种光栅横向剪切干涉波前重建过程中的补偿方法
CN115900582A (zh) 一种消除中频相干噪声的米级平面元件面形检测装置及方法
RU2693532C1 (ru) Способ повышения точности геометрических измерений, проводимых с помощью стереоскопического устройства на основе призменно-линзовой оптической системы
CN113674370A (zh) 基于卷积神经网络的单帧干涉图解调方法
Meneses-Fabian et al. Carrier fringes by axial translation of the first lens in a double aperture common-path interferometer
CN116586640B (zh) 球面测试板及其制作方法以及干涉仪传递函数的标定方法
CN115201110B (zh) 一种噪声实时分离的叠层衍射计算成像方法和装置
CN115128040B (zh) 基于反余弦图和连续性判据从单幅干涉图恢复相位的方法
CN116659686B (zh) 一种波前重建方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination