CN113340211A - 一种基于深度学习的干涉图像相位解调方法 - Google Patents

一种基于深度学习的干涉图像相位解调方法 Download PDF

Info

Publication number
CN113340211A
CN113340211A CN202110885403.9A CN202110885403A CN113340211A CN 113340211 A CN113340211 A CN 113340211A CN 202110885403 A CN202110885403 A CN 202110885403A CN 113340211 A CN113340211 A CN 113340211A
Authority
CN
China
Prior art keywords
light
interference image
rotation angle
polarized light
interference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110885403.9A
Other languages
English (en)
Other versions
CN113340211B (zh
Inventor
孙喜博
张颖
耿远超
马文静
黄晚晴
刘兰琴
王文义
袁强
胡东霞
邓学伟
袁晓东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Laser Fusion Research Center China Academy of Engineering Physics
Original Assignee
Laser Fusion Research Center China Academy of Engineering Physics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Laser Fusion Research Center China Academy of Engineering Physics filed Critical Laser Fusion Research Center China Academy of Engineering Physics
Priority to CN202110885403.9A priority Critical patent/CN113340211B/zh
Publication of CN113340211A publication Critical patent/CN113340211A/zh
Application granted granted Critical
Publication of CN113340211B publication Critical patent/CN113340211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • G01J9/02Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • G01J9/02Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
    • G01J2009/0234Measurement of the fringe pattern

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Instruments For Measurement Of Length By Optical Means (AREA)

Abstract

本发明涉及一种基于深度学习的干涉图像相位解调方法,属于激光干涉测量技术领域,随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度,建立输入输出数据集,搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件,采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息,本发明取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。

Description

一种基于深度学习的干涉图像相位解调方法
技术领域
本发明属于激光干涉测量技术领域,具体地说涉及一种基于深度学习的干涉图像相位解调方法。
背景技术
纳米位移测量技术是解决目前和未来许多高精度、高分辨率问题的先决条件之一,是纳米科技领域的先导和基础。随着精密、超精密及纳米级加工技术的迅猛发展,零件尺寸的下界越来越小,加工精度的要求也越来越高,而测量是精密、超精密加工技术的基础与保障。例如集成电路芯片制造过程中线宽测量与定位、半导体精密模板制造、现代数控机床运动检测与校准、高精度位移传感器标定、精密关键零部件加工等,都需要纳米级甚至亚纳米级的位移测量。
纳米位移测量方法主要分为两大类,一类是非光学测量方法,包括扫描探针显微术(SPM)、电容电感测微法、电子显微术等;另一类是光学测量方法,包括光栅干涉仪法、X射线干涉仪法以及各类激光干涉仪等。其中,激光干涉仪具有测量精度高、测量速度快、非接触性等优点,已被广泛运用于精密测量中。目前,激光干涉测量位移是通过对干涉条纹的移动条数进行计数来获得物体的位移信息,但是,条纹的移动数目存在着取值不为整数的局限性,且小数部分数值较难求出,影响测量精度以及分辨率。对小数部分进行细分,利用人工估读出小数部分的值,导致给最终测量结果带来误差,其不确定度大约为0.07个干涉条纹。相较于人工估读,利用先进的电子设备能够测量探测到0.02个干涉条纹。但是,纳米位移测量精度仍然有待进一步提高。
发明内容
发明人在长期实践中发现:基于涡旋光束干涉机理的纳米测量方法,能够将连续光程变换转换为连续的旋转变化,通过图像分析处理获得干涉图样的旋转角度,进而获得相位变化量。相比较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了传统测量中对干涉条纹小数部分数值估读(机读)对测量精度的影响,提高系统测量精度。但是,目前常用的涡旋光束干涉图像旋转识别处理方法有质心算法和尺度不变特征转算法等,角度识别精度在数十mrad,同时,由于通常所需要处理的对象为CCD输出数据,单图数据量较大,相应处理时间较长。为了解决上述问题,现提出一种基于深度学习的干涉图像相位解调方法。
为实现上述目的,本发明提供如下技术方案:
一种基于深度学习的干涉图像相位解调方法,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度;
步骤S2、将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集分为训练数据集与测试数据集;
步骤S3、搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件;
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息。
进一步,步骤S1中,参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。
进一步,已知测量光与参考光之间光程差,通过测量光与参考光之间光程差和旋转角度的表达式,得到旋转角度。
进一步,步骤S2中,通过生成系列随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集。
优选的,将输入输出数据集按10:1分为训练数据集与测试数据集。
进一步,步骤S3中,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数。
进一步,终止条件为:当测试精度低于90%时,对卷积神经网络模型进行训练,直至测试精度达到90%以上。
进一步,步骤S4中,卷积神经网络模型输出待解调的旋转角度后,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移(即测量光相位变化信息)。
进一步,步骤S1中,激光器输出的线偏振光束经第一分束器分为参考光和测量光,所述参考光经第一光场调控元件变为具有螺旋相位的线偏振光束,并经反射传输至第二分束器,所述测量光经第二光场调控元件变为具有螺旋相位的线偏振光束,并经第二分束器照射至物体上,经物体折返反射的测量光与参考光在第二分束器合束形成干涉光。
优选的,所述第一光场调控元件、第二光场调控元件为螺旋相位板。
进一步,移动物体生成测量光与参考光之间光程差,获取干涉图像。
进一步,测量光与参考光之间光程差和旋转角度的表达式为:
Figure 93563DEST_PATH_IMAGE001
,其中,
Figure 604179DEST_PATH_IMAGE002
表示旋转角度,
Figure 852758DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 844372DEST_PATH_IMAGE004
表示线偏振光束的波 长,
Figure 862007DEST_PATH_IMAGE005
表示测量光与参考光之间光程差(即物体位移量的2倍)。在
Figure 277944DEST_PATH_IMAGE005
Figure 810557DEST_PATH_IMAGE003
Figure 212719DEST_PATH_IMAGE004
已知的条 件下,计算得到
Figure 475074DEST_PATH_IMAGE002
进一步,步骤S1中,激光器输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光。
进一步,所述光场调控模块包括同光轴的空间光调制器和四分之一波片,线偏振光束经空间光调制器进行相位调制得到涡旋光束,涡旋光束经四分之一波片变为具有螺旋相位的圆偏振光束。
优选的,涡旋光束是指任何具有螺旋相位的光束,常见的涡旋光束有LG光束(拉盖尔高斯光束)、BG光束(贝塞尔高斯光束)和阵列涡旋光束等。
进一步,所述空间光调制器预设不同涡旋光场对应干涉图案,利用计算全息原理获得涡旋光场,通过调节空间光调制器参数,改变涡旋光场拓扑荷。
进一步,参考光进入参考光路,测量光经第一偏振分束器分为垂直偏振光和水平偏振光,水平偏振光进入第一测量光路,垂直偏振光进入第二测量光路,且参考光、垂直偏振光和水平偏振光均返回至分束器并合束,获取第一参考干涉图像和第二参考干涉图像,改变第二测量光路的光程生成测量光与参考光之间光程差,获取第一干涉图像和第二干涉图像。
优选的,参考光射向第一反射角锥发生折返反射并返回分束器,形成参考光路,水平偏振光射向第二偏振分束器并返回分束器,形成第一测量光路,垂直偏振光射向第二反射角锥发生折返反射并射向第二偏振分束器,且垂直偏振光和水平偏振光在第二偏振分束器合束并返回分束器,形成第二测量光路。
优选的,返回分束器的参考光、垂直偏振光和水平偏振光传输至第三偏振分束器,水平偏振的两路光束(水平偏振光和参考光中呈水平偏振态的光束)干涉图像由第一探测器获取,垂直偏振的两路光束(垂直偏振光和参考光中呈垂直偏振态的光束)干涉图像由第二探测器获取。
优选的,移动第二反射角锥生成位移,改变第二测量光路的光程,生成测量光与参考光之间光程差。
进一步,第一干涉图像与第一参考干涉图像存在的旋转变化形成第一旋转角度, 第二干涉图像与第二参考干涉图像存在的旋转变化形成第二旋转角度。在
Figure 734017DEST_PATH_IMAGE005
Figure 691608DEST_PATH_IMAGE003
Figure 22095DEST_PATH_IMAGE004
已知的条件下,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到第一旋转 角度和第二旋转角度。
进一步,通过生成系列随机光程差,将第一干涉图像与第一旋转角度、第二干涉图像与第二旋转角度形成输入输出数据集,采集待解调的第一干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第一旋转角度,采集待解调的第二干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第二旋转角度,将待解调的第二旋转角度与第一旋转角度做差得到待解调的旋转角度,计算获得测量光相位变化信息。
进一步,当参考光路处于稳定状态下,第一干涉图像与第一参考干涉图像相同,两者之间不存在旋转变化,第二干涉图像与第二参考干涉图像存在旋转变化。此时,待解调的第一旋转角度为零,待解调的第二旋转角度作为旋转角度,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到测量光相位变化信息。
进一步,当参考光路处于波动状态下(即参考光路存在波动量),第一干涉图像与第一参考干涉图像存在旋转变化,同时,第二干涉图像与第二参考干涉图像存在旋转变化。
进一步,第一旋转角度与参考光路波动量的表达式为:
Figure 14322DEST_PATH_IMAGE006
,第二旋 转角度与参考光路波动量的表达式为:
Figure 709746DEST_PATH_IMAGE007
,其中,
Figure 544847DEST_PATH_IMAGE008
表示第一旋转角度,
Figure 23232DEST_PATH_IMAGE009
表示第二旋转角度,
Figure 260179DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 860924DEST_PATH_IMAGE004
表示线偏振光束 的波长,
Figure 58688DEST_PATH_IMAGE010
表示参考光路出现的波动量,
Figure 465398DEST_PATH_IMAGE011
表示包含参考光路波动量的物体位移量,且
Figure 228955DEST_PATH_IMAGE012
Figure 203864DEST_PATH_IMAGE005
表示物体位移量,计算得到测量光相位变化信息。
本发明的有益效果是:
1、通过仿真计算生成系列随机位移,获得干涉图像,计算得到旋转角度,以干涉图像和旋转角度构建输入输出数据集,使用神经网络对输入输出数据集进行学习得到训练完成的卷积神经网络模型,将待解调的干涉图像输入模型输出待解调的旋转角度,计算获得测量光相位变化信息。
2、取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。
3、将涡旋光束与激光干涉相结合,基于涡旋光束干涉原理,测量获得的图像是瓣状且旋转的干涉图像,将连续位移转换为连续的旋转角度变化,能够清楚地观察整个旋转过程。
4、相较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了现有技术中干涉条纹小数部分数值估读对测量精度的影响,通过识别干涉图像的旋转角度,实现相位解调,提高测量精度。
5、采用圆偏振差分光路,通过对比第一干涉图像与第一参考干涉图像相同、第二干涉图像与第二参考干涉图像,消除了参考光路不稳定性对测量结果带来的误差,进一步提高了测量准确性。
附图说明
图1是本发明的流程框图;
图2是实施例二、实施例三的光路示意图;
图3是实施例四的光路示意图;
图4(a)为
Figure 747978DEST_PATH_IMAGE013
时,在
Figure 896062DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图4(b)为
Figure 451809DEST_PATH_IMAGE015
时,在
Figure 659936DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图4(c)为
Figure 688416DEST_PATH_IMAGE016
时,在
Figure 312296DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图4(d)为
Figure 50445DEST_PATH_IMAGE017
时,在
Figure 491790DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图4(e)为
Figure 682600DEST_PATH_IMAGE018
时,在
Figure 375750DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图4(f)为
Figure 765143DEST_PATH_IMAGE019
时,在
Figure 315073DEST_PATH_IMAGE014
时对应的干涉场强度分布示意图;
图5(a)为
Figure 930862DEST_PATH_IMAGE013
时,光程差改变对应的干涉场强度分布示意图,横坐标表示x 轴,单位为mm;
图5(b)为
Figure 552336DEST_PATH_IMAGE015
时,光程差改变对应的干涉场强度分布示意图,横坐标表示x 轴,单位为mm;
图5(c)为
Figure 999498DEST_PATH_IMAGE020
时,光程差改变对应的干涉场强度分布示意图,横坐标表示 x轴,单位为mm。
附图中:1-激光器、2-空间光调制器、3-分束器、4-第一反射角锥、5-第一偏振分束器、6-第二反射角锥、7-第二偏振分束器、8-第三偏振分束器、9-第一探测器、10-第二探测器、11-四分之一波片;
13-反射镜、14-第一分束器、15-第一光场调控元件、16-第二光场调控元件、17-第二分束器、18-物体、19-探测器;
图2中箭头表示移动方向,图2和图3中虚线表示激光路径,图4和图5中横坐标表示X轴,单位为mm,纵坐标表示Y轴,单位为mm。
具体实施方式
为了使本领域的人员更好地理解本发明的技术方案,下面结合本发明的附图,对本发明的技术方案进行清楚、完整的描述,基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它类同实施例,都应当属于本申请保护的范围。此外,以下实施例中提到的方向用词,例如“上”“下”“左”“右”等仅是参考附图的方向,因此,使用的方向用词是用来说明而非限制本发明创造。
实施例一:
如图1所示,一种基于深度学习的干涉图像相位解调方法,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度。
参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。已知测量光与参考光之间光程差,通过测量光与参考光之间光程差和旋转角度的表达式,得到旋转角度。
测量光与参考光之间光程差和旋转角度的表达式为:
Figure 392433DEST_PATH_IMAGE001
,其中,
Figure 557835DEST_PATH_IMAGE002
表示 旋转角度,
Figure 717421DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 222352DEST_PATH_IMAGE004
表示线偏振光束的波长,
Figure 848505DEST_PATH_IMAGE005
表 示测量光与参考光之间光程差(即物体位移量的2倍)。在
Figure 563520DEST_PATH_IMAGE005
Figure 402163DEST_PATH_IMAGE003
Figure 558338DEST_PATH_IMAGE004
已知的条件下,计 算得到
Figure 683289DEST_PATH_IMAGE002
步骤S2、通过生成系列的随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集按10:1分为训练数据集与测试数据集。
步骤S3、搭建卷积神经网络模型,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件,终止条件为:当测试精度低于90%时,对卷积神经网络模型进行训练,直至测试精度达到90%以上。取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
综上所述,通过仿真计算生成系列随机位移,获得干涉图像,计算得到旋转角度,以干涉图像和旋转角度构建输入输出数据集,使用神经网络对输入输出数据集进行学习得到训练完成的卷积神经网络模型,将待解调的干涉图像输入模型输出待解调的旋转角度,计算获得测量光相位变化信息。
实施例二:
本实施例与实施例一相同的部分不再赘述,不同的是:
如图2所示,激光器1输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光。所述光场调控模块包括同光轴的空间光调制器2和四分之一波片11,所述空间光调制器2预设不同涡旋光场对应干涉图案,利用计算全息原理获得涡旋光场,通过调节空间光调制器2参数,改变涡旋光场拓扑荷。线偏振光束经空间光调制器2进行相位调制得到涡旋光束,涡旋光束经四分之一波片11变为具有螺旋相位的圆偏振光束。涡旋光束是指任何具有螺旋相位的光束,常见的涡旋光束有LG光束(拉盖尔高斯光束)、BG光束(贝塞尔高斯光束)和阵列涡旋光束等。
圆偏振光束经分束器3分为参考光和测量光,参考光射向第一反射角锥4发生折返 反射并返回分束器3,形成参考光路,测量光经第一偏振分束器5分为垂直偏振光和水平偏 振光,水平偏振光射向第二偏振分束器7并返回分束器3,形成第一测量光路,垂直偏振光射 向第二反射角锥6发生折返反射并射向第二偏振分束器7,且垂直偏振光和水平偏振光在第 二偏振分束器7合束并返回分束器3,形成第二测量光路,返回分束器3的参考光、垂直偏振 光和水平偏振光传输至第三偏振分束器8,水平偏振的两路光束(水平偏振光和参考光中呈 水平偏振态的光束)干涉图像由第一探测器9获取并作为第一参考干涉图像,表征第一测量 光路和参考光路之间的光程差
Figure 760966DEST_PATH_IMAGE021
,垂直偏振的两路光束(垂直偏振光和参考光中呈垂直偏 振态的光束)干涉图像由第二探测器10获取并作为第二参考干涉图像,表征第二测量光路 和参考光路之间的光程差
Figure 793513DEST_PATH_IMAGE022
。移动第二反射角锥6生成位移,改变第二测量光路的光程, 生成测量光与参考光之间光程差,水平偏振的两路光束干涉图像由第一探测器9获取并作 为第一干涉图像,垂直偏振的两路光束干涉图像由第二探测器10获取并作为第二干涉图 像。
第一干涉图像与第一参考干涉图像存在的旋转变化形成第一旋转角度,第二干涉 图像与第二参考干涉图像存在的旋转变化形成第二旋转角度。在
Figure 273036DEST_PATH_IMAGE005
Figure 837397DEST_PATH_IMAGE003
Figure 136792DEST_PATH_IMAGE004
已知的条 件下,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到第一旋转角度和第 二旋转角度。
通过生成系列的随机光程差,将第一干涉图像与第一旋转角度、第二干涉图像与第二旋转角度形成输入输出数据集,采集待解调的第一干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第一旋转角度,采集待解调的第二干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第二旋转角度,将待解调的第二旋转角度与第一旋转角度做差得到待解调的旋转角度。
本实施例中,第一干涉图像与第一参考干涉图像相同,两者之间不存在旋转变化,第二干涉图像与第二参考干涉图像存在旋转变化,也就是说,参考光路处于稳定状态下。此时,待解调的第一旋转角度为零,待解调的第二旋转角度作为旋转角度,借助测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
实施例三:
本实施例与实施例二相同的部分不再赘述,不同的是:
如图2所示,由于空气折射率变化、第一探测器9自身震动等因素对参考光路稳定性的影响,即参考光路处于波动状态下,第一干涉图像与第一参考干涉图像存在旋转变化,此时,输出的待解调的第一旋转角度不为零,待解调的第二旋转角度与第一旋转角度做差得到旋转角度。
第一旋转角度与参考光路波动量的表达式为:
Figure 113975DEST_PATH_IMAGE006
,第二旋转角度与 参考光路波动量的表达式为:
Figure 307059DEST_PATH_IMAGE007
,其中,
Figure 914758DEST_PATH_IMAGE008
表示第一旋转角度,
Figure 763765DEST_PATH_IMAGE009
表示 第二旋转角度,
Figure 341377DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 592230DEST_PATH_IMAGE004
表示线偏振光束的波长,
Figure 370830DEST_PATH_IMAGE010
表示参考光路出现的波动量,
Figure 769450DEST_PATH_IMAGE011
表示包含参考光路波动量的物体位移量,且
Figure 88436DEST_PATH_IMAGE023
Figure 397057DEST_PATH_IMAGE005
表示物体位移量。根据输出的待解调的第一旋转角度、待解调的第二旋转 角度,计算得到参考光路波动量、包含参考光路波动量的物体位移量,进而得到测量光相位 变化信息。
采用圆偏振差分光路,通过对比第一干涉图像与第一参考干涉图像相同、第二干涉图像与第二参考干涉图像,消除了参考光路不稳定性对测量结果带来的误差,进一步提高了测量准确性。
本实施例中,对输入卷积神经网络模型的图像依次进行如下处理:第一层卷积,批量归一化(Batch Normalization,BN),ReLU激活,第二层卷积,批量归一化,ReLU激活,第三层卷积,批量归一化,ReLU激活,第一全连接层,第二全连接层,最后通过softmax进行分类。其中,各层的网络参数如下:第一卷积层,其过滤器大小为5*5,步长为1,第二卷积层的过滤器大小为3*3,步长为1,第三卷积层的过滤器大小为3*3,步长为1,第一全连接层节点数:100,采用ReLU激活函数,第二全连接层节点数:1,同时采用ReLU激活函数进行回归得到特性的角度。训练数据集5000组,测试数据集500组,以256个样本作为一个batch,一共5000训练数据,设置学习力为1e-4,采用梯度下降法优化损失函数,训练50个epochs,训练完毕,保存训练好的网络结构及相应参数。通过该方法获得的旋转角度偏差RMS为9.19mrad,位移测量精度为0.9nm,优于现有图像处理手段实现的测量精度。
实施例四:
本实施例与实施例一相同的部分不再赘述,不同的是:
如图3所示,激光器1输出的线偏振光束经反射镜13入射至第一分束器14分为参考光和测量光,所述参考光经第一光场调控元件15变为具有螺旋相位的线偏振光束,并经2次反射传输至第二分束器17,所述测量光经第二光场调控元件16变为具有螺旋相位的线偏振光束,并经第二分束器17照射至物体18上,经物体18折返反射的测量光与参考光在第二分束器17合束形成干涉光。优选的,所述第一光场调控元件15、第二光场调控元件16为螺旋相位板。移动物体18生成测量光与参考光之间光程差,由探测器19获取干涉图像。
由测量光与参考光之间光程差和旋转角度的表达式为:
Figure 205613DEST_PATH_IMAGE001
,其中,
Figure 763634DEST_PATH_IMAGE002
表 示旋转角度,
Figure 823994DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 783859DEST_PATH_IMAGE004
表示线偏振光束的波长,
Figure 28896DEST_PATH_IMAGE005
表示测量光与参考光之间光程差(即物体18位移量的2倍),已知
Figure 277475DEST_PATH_IMAGE005
,计算得到
Figure 938263DEST_PATH_IMAGE002
通过生成系列的随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集,搭建卷积神经网络模型,采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
实施例五:
以LG光束为例,其电场表达式可以表示为:
Figure 80532DEST_PATH_IMAGE024
其中,
Figure 371836DEST_PATH_IMAGE025
为涡旋拓扑荷,
Figure 232344DEST_PATH_IMAGE026
表示光束径向指数,
Figure 696824DEST_PATH_IMAGE027
为柱坐标下的空间坐标,
Figure 303385DEST_PATH_IMAGE028
为z位置半径,
Figure 152874DEST_PATH_IMAGE029
为光束束腰半径,k为光束波矢量,
Figure 172783DEST_PATH_IMAGE030
为光束瑞利长度,
Figure 113057DEST_PATH_IMAGE031
为拉盖尔 函数。
假设参考光
Figure 229917DEST_PATH_IMAGE032
拓扑荷为
Figure 925341DEST_PATH_IMAGE033
,对应光路的光程为
Figure 370229DEST_PATH_IMAGE034
,测量光
Figure 238828DEST_PATH_IMAGE035
拓扑荷为
Figure 147878DEST_PATH_IMAGE036
,对应 光路的光程为
Figure 686307DEST_PATH_IMAGE037
,待测位移量为
Figure 8704DEST_PATH_IMAGE038
,则
Figure 353097DEST_PATH_IMAGE039
,
Figure 319916DEST_PATH_IMAGE040
,两光 束干涉可以表示为:
Figure 153880DEST_PATH_IMAGE041
,相应干涉光强度分布为:
Figure 635677DEST_PATH_IMAGE042
由图4可以看出:两束涡旋光束之间的干涉图样是类似瓣状的,且瓣的个数等于
Figure 721445DEST_PATH_IMAGE043
。改变测量光和参考光之间的光程差
Figure 339508DEST_PATH_IMAGE005
得到干涉强度分布的变化,如图4所示,其 中,
Figure 875531DEST_PATH_IMAGE044
由图5可以看出:基于涡旋光场的激光干涉位移测量与传统方法的干涉图样随测 量位移改变的变化形式不同,传统方法是明暗相间条纹的移动,而基于涡旋光束干涉的测 量获得的信息是瓣状干涉图案的旋转。为了更清楚地观察整个旋转过程,图4中引入虚线作 为参考线。随着光程差的改变,干涉场会发生旋转,相同光程差对应旋转角度与参考光和测 量光拓扑荷差有关,且旋转角度与待测位移量的表达式为:
Figure 516728DEST_PATH_IMAGE045
,其中,
Figure 202924DEST_PATH_IMAGE002
表 示旋转角度,
Figure 268969DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure 320102DEST_PATH_IMAGE004
表示线偏振光束的波长。
也就是说,基于涡旋光束干涉原理,测量获得的图像是瓣状且旋转的干涉图像,能够清楚地观察整个旋转过程。相较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了现有技术中干涉条纹小数部分数值估读对测量精度的影响,通过识别干涉图像的旋转角度,实现相位解调,提高测量精度。
以上已将本发明做一详细说明,以上所述,仅为本发明之较佳实施例而已,当不能限定本发明实施范围,即凡依本申请范围所作均等变化与修饰,皆应仍属本发明涵盖范围内。

Claims (9)

1.一种基于深度学习的干涉图像相位解调方法,其特征在于,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度;
步骤S2、将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集分为训练数据集与测试数据集;
步骤S3、搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件;
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息。
2.根据权利要求1所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。
3.根据权利要求2所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,测 量光与参考光之间光程差和旋转角度的表达式为:
Figure DEST_PATH_IMAGE001
,其中,
Figure DEST_PATH_IMAGE002
表示旋转角度,
Figure DEST_PATH_IMAGE003
表示参考光和测量光拓扑荷差的绝对值,
Figure DEST_PATH_IMAGE004
表示线偏振光束的波长,
Figure DEST_PATH_IMAGE005
表示测量光 与参考光之间光程差,在
Figure 597012DEST_PATH_IMAGE005
Figure 982994DEST_PATH_IMAGE003
Figure 90627DEST_PATH_IMAGE004
已知的条件下,计算得到
Figure 751415DEST_PATH_IMAGE002
4.根据权利要求3所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S2中,通过生成系列随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集。
5.根据权利要求4所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S3中,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数。
6.根据权利要求5所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S4中,卷积神经网络模型输出待解调的旋转角度后,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得测量光相位变化信息。
7.根据权利要求6所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,采集干涉图像的方法为:
激光器输出的线偏振光束经第一分束器分为参考光和测量光,所述参考光经第一光场调控元件变为具有螺旋相位的线偏振光束,并经反射传输至第二分束器,所述测量光经第二光场调控元件变为具有螺旋相位的线偏振光束,并经第二分束器照射至物体上,经物体折返反射的测量光与参考光在第二分束器合束形成干涉光,获取干涉图像。
8.根据权利要求6所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,采集干涉图像的方法为:
激光器输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光,获取干涉图像。
9.根据权利要求8所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,计算获得旋转角度的方法为:
参考光进入参考光路,测量光经第一偏振分束器分为垂直偏振光和水平偏振光,水平偏振光进入第一测量光路,垂直偏振光进入第二测量光路,且参考光、垂直偏振光和水平偏振光均返回至分束器并合束,获取第一参考干涉图像和第二参考干涉图像,改变第二测量光路的光程生成测量光与参考光之间光程差,获取第一干涉图像和第二干涉图像;
第一干涉图像与第一参考干涉图像存在的旋转变化形成第一旋转角度,第二干涉图像 与第二参考干涉图像存在的旋转变化形成第二旋转角度,在
Figure 34629DEST_PATH_IMAGE005
Figure 184988DEST_PATH_IMAGE003
Figure 717600DEST_PATH_IMAGE004
已知的条件下, 借助测量光与参考光之间光程差和旋转角度的表达式,计算得到第一旋转角度和第二旋转 角度。
CN202110885403.9A 2021-08-03 2021-08-03 一种基于深度学习的干涉图像相位解调方法 Active CN113340211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110885403.9A CN113340211B (zh) 2021-08-03 2021-08-03 一种基于深度学习的干涉图像相位解调方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110885403.9A CN113340211B (zh) 2021-08-03 2021-08-03 一种基于深度学习的干涉图像相位解调方法

Publications (2)

Publication Number Publication Date
CN113340211A true CN113340211A (zh) 2021-09-03
CN113340211B CN113340211B (zh) 2021-10-29

Family

ID=77480632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110885403.9A Active CN113340211B (zh) 2021-08-03 2021-08-03 一种基于深度学习的干涉图像相位解调方法

Country Status (1)

Country Link
CN (1) CN113340211B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116858108A (zh) * 2023-09-05 2023-10-10 深圳市平方科技股份有限公司 一种基于红外光栅的物体长度检测系统及方法
CN116907627A (zh) * 2023-09-13 2023-10-20 之江实验室 基于光程差辅助的大动态范围分布式相位传感方法和装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201033583A (en) * 2009-03-10 2010-09-16 Univ Nat Cheng Kung Interferometer and interference method for generating stable vortex beam
CN103983198A (zh) * 2014-05-29 2014-08-13 山东师范大学 一种利用涡旋光测量离面位移的系统及方法
CN105509902A (zh) * 2015-12-25 2016-04-20 华南师范大学 涡旋光的干涉测量方法与系统
CN110163817A (zh) * 2019-04-28 2019-08-23 浙江工业大学 一种基于全卷积神经网络的相位主值提取方法
CN110186559A (zh) * 2019-04-19 2019-08-30 深圳大学 一种涡旋光束轨道角动量模态的检测方法及装置
CN111121644A (zh) * 2019-12-29 2020-05-08 中北大学 一种基于涡旋光与球面波干涉的微位移测量方法及装置
CN111928794A (zh) * 2020-08-04 2020-11-13 北京理工大学 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置
CN112033280A (zh) * 2020-09-03 2020-12-04 合肥工业大学 傅里叶变换模型与深度学习结合的散斑干涉相位计算方法
CN112556601A (zh) * 2020-11-30 2021-03-26 北京理工大学 基于深度学习的单幅闭合条纹干涉图解相方法及装置
CN112597694A (zh) * 2020-05-28 2021-04-02 中国人民解放军陆军工程大学 基于神经网络的围岩变形预测系统及预测方法
CN112836422A (zh) * 2020-12-31 2021-05-25 电子科技大学 干涉与卷积神经网络混合方案测量方法
AU2021101856A4 (en) * 2021-04-12 2021-06-10 Dongguan University Of Technology Method for Dynamic Phase Measurement in Terahertz Waveband Based On Deep Learning

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201033583A (en) * 2009-03-10 2010-09-16 Univ Nat Cheng Kung Interferometer and interference method for generating stable vortex beam
CN103983198A (zh) * 2014-05-29 2014-08-13 山东师范大学 一种利用涡旋光测量离面位移的系统及方法
CN105509902A (zh) * 2015-12-25 2016-04-20 华南师范大学 涡旋光的干涉测量方法与系统
CN110186559A (zh) * 2019-04-19 2019-08-30 深圳大学 一种涡旋光束轨道角动量模态的检测方法及装置
CN110163817A (zh) * 2019-04-28 2019-08-23 浙江工业大学 一种基于全卷积神经网络的相位主值提取方法
CN111121644A (zh) * 2019-12-29 2020-05-08 中北大学 一种基于涡旋光与球面波干涉的微位移测量方法及装置
CN112597694A (zh) * 2020-05-28 2021-04-02 中国人民解放军陆军工程大学 基于神经网络的围岩变形预测系统及预测方法
CN111928794A (zh) * 2020-08-04 2020-11-13 北京理工大学 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置
CN112033280A (zh) * 2020-09-03 2020-12-04 合肥工业大学 傅里叶变换模型与深度学习结合的散斑干涉相位计算方法
CN112556601A (zh) * 2020-11-30 2021-03-26 北京理工大学 基于深度学习的单幅闭合条纹干涉图解相方法及装置
CN112836422A (zh) * 2020-12-31 2021-05-25 电子科技大学 干涉与卷积神经网络混合方案测量方法
AU2021101856A4 (en) * 2021-04-12 2021-06-10 Dongguan University Of Technology Method for Dynamic Phase Measurement in Terahertz Waveband Based On Deep Learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨春勇 等: "基于卷积神经网络的涡旋光相干解复用", 《中南民族大学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116858108A (zh) * 2023-09-05 2023-10-10 深圳市平方科技股份有限公司 一种基于红外光栅的物体长度检测系统及方法
CN116858108B (zh) * 2023-09-05 2023-11-03 深圳市平方科技股份有限公司 一种基于红外光栅的物体长度检测系统及方法
CN116907627A (zh) * 2023-09-13 2023-10-20 之江实验室 基于光程差辅助的大动态范围分布式相位传感方法和装置
CN116907627B (zh) * 2023-09-13 2023-12-19 之江实验室 基于光程差辅助的大动态范围分布式相位传感方法和装置

Also Published As

Publication number Publication date
CN113340211B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN113340211B (zh) 一种基于深度学习的干涉图像相位解调方法
CN109163672B (zh) 一种基于白光干涉零光程差位置拾取算法的微观形貌测量方法
Hu et al. Absolute three-dimensional micro surface profile measurement based on a Greenough-type stereomicroscope
CN102735184B (zh) 一种光学面形的检测装置及检测方法
US20060274325A1 (en) Method of qualifying a diffraction grating and method of manufacturing an optical element
Shimizu Laser interference lithography for fabrication of planar scale gratings for optical metrology
CN113607063A (zh) 基于涡旋光场干涉的纳米位移测量方法及系统
CN104215193B (zh) 物面形变测量方法和测量系统
CN105371777B (zh) 实时测量物体变形的方法和系统
WO2018041440A1 (en) Position sensor, lithographic apparatus and method for manufacturing devices
CN105092056B (zh) 数字相移点衍射干涉仪及光学系统波像差测量方法
CN112525104B (zh) 一种数字全息三维形貌测量装置及方法
Bai et al. Three-probe error separation with chromatic confocal sensors for roundness measurement
Su Coherence scanning interferometry
CN111189408A (zh) 一种投影莫尔齿轮齿面三维测量装置和测量方法
KR102424819B1 (ko) 물체 형상 복원 방법
Xu et al. Segmentation phase measuring deflectometry for measuring structured specular surfaces
CN114088010B (zh) 一种干涉三维形貌解算方法
CN115479753A (zh) 确定光学系统在被照明光照明时的成像质量的方法
CN109313009A (zh) 用于确定输入射束簇的相位的方法
US7158914B2 (en) Precision surface measurement
CN103968776B (zh) 一种用于非球面光学模具在机检测的新装置
Künne et al. Investigation of measurement data of low-coherence interferometry at tilted surfaces in the 3D spatial frequency domain
Künne et al. Investigation of measurement data of low-coherence interferometry at tilted surfaces in the 3D spatial frequency domain
CN115077390B (zh) 一种基于双波长涡旋光自共轭干涉的大量程皮米级位移测量系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant