CN113340211A - 一种基于深度学习的干涉图像相位解调方法 - Google Patents
一种基于深度学习的干涉图像相位解调方法 Download PDFInfo
- Publication number
- CN113340211A CN113340211A CN202110885403.9A CN202110885403A CN113340211A CN 113340211 A CN113340211 A CN 113340211A CN 202110885403 A CN202110885403 A CN 202110885403A CN 113340211 A CN113340211 A CN 113340211A
- Authority
- CN
- China
- Prior art keywords
- light
- interference image
- rotation angle
- polarized light
- interference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000005259 measurement Methods 0.000 claims abstract description 94
- 230000003287 optical effect Effects 0.000 claims abstract description 87
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 35
- 230000008859 change Effects 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 238000006073 displacement reaction Methods 0.000 claims description 34
- 230000014509 gene expression Effects 0.000 claims description 21
- 230000010287 polarization Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000033228 biological regulation Effects 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 230000001276 controlling effect Effects 0.000 claims 2
- 230000001105 regulatory effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 12
- 238000009826 distribution Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 238000000691 measurement method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001093 holography Methods 0.000 description 2
- 238000004556 laser interferometry Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000004621 scanning probe microscopy Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J9/00—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
- G01J9/02—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J9/00—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
- G01J9/02—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
- G01J2009/0234—Measurement of the fringe pattern
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Instruments For Measurement Of Length By Optical Means (AREA)
Abstract
本发明涉及一种基于深度学习的干涉图像相位解调方法,属于激光干涉测量技术领域,随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度,建立输入输出数据集,搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件,采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息,本发明取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。
Description
技术领域
本发明属于激光干涉测量技术领域,具体地说涉及一种基于深度学习的干涉图像相位解调方法。
背景技术
纳米位移测量技术是解决目前和未来许多高精度、高分辨率问题的先决条件之一,是纳米科技领域的先导和基础。随着精密、超精密及纳米级加工技术的迅猛发展,零件尺寸的下界越来越小,加工精度的要求也越来越高,而测量是精密、超精密加工技术的基础与保障。例如集成电路芯片制造过程中线宽测量与定位、半导体精密模板制造、现代数控机床运动检测与校准、高精度位移传感器标定、精密关键零部件加工等,都需要纳米级甚至亚纳米级的位移测量。
纳米位移测量方法主要分为两大类,一类是非光学测量方法,包括扫描探针显微术(SPM)、电容电感测微法、电子显微术等;另一类是光学测量方法,包括光栅干涉仪法、X射线干涉仪法以及各类激光干涉仪等。其中,激光干涉仪具有测量精度高、测量速度快、非接触性等优点,已被广泛运用于精密测量中。目前,激光干涉测量位移是通过对干涉条纹的移动条数进行计数来获得物体的位移信息,但是,条纹的移动数目存在着取值不为整数的局限性,且小数部分数值较难求出,影响测量精度以及分辨率。对小数部分进行细分,利用人工估读出小数部分的值,导致给最终测量结果带来误差,其不确定度大约为0.07个干涉条纹。相较于人工估读,利用先进的电子设备能够测量探测到0.02个干涉条纹。但是,纳米位移测量精度仍然有待进一步提高。
发明内容
发明人在长期实践中发现:基于涡旋光束干涉机理的纳米测量方法,能够将连续光程变换转换为连续的旋转变化,通过图像分析处理获得干涉图样的旋转角度,进而获得相位变化量。相比较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了传统测量中对干涉条纹小数部分数值估读(机读)对测量精度的影响,提高系统测量精度。但是,目前常用的涡旋光束干涉图像旋转识别处理方法有质心算法和尺度不变特征转算法等,角度识别精度在数十mrad,同时,由于通常所需要处理的对象为CCD输出数据,单图数据量较大,相应处理时间较长。为了解决上述问题,现提出一种基于深度学习的干涉图像相位解调方法。
为实现上述目的,本发明提供如下技术方案:
一种基于深度学习的干涉图像相位解调方法,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度;
步骤S2、将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集分为训练数据集与测试数据集;
步骤S3、搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件;
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息。
进一步,步骤S1中,参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。
进一步,已知测量光与参考光之间光程差,通过测量光与参考光之间光程差和旋转角度的表达式,得到旋转角度。
进一步,步骤S2中,通过生成系列随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集。
优选的,将输入输出数据集按10:1分为训练数据集与测试数据集。
进一步,步骤S3中,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数。
进一步,终止条件为:当测试精度低于90%时,对卷积神经网络模型进行训练,直至测试精度达到90%以上。
进一步,步骤S4中,卷积神经网络模型输出待解调的旋转角度后,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移(即测量光相位变化信息)。
进一步,步骤S1中,激光器输出的线偏振光束经第一分束器分为参考光和测量光,所述参考光经第一光场调控元件变为具有螺旋相位的线偏振光束,并经反射传输至第二分束器,所述测量光经第二光场调控元件变为具有螺旋相位的线偏振光束,并经第二分束器照射至物体上,经物体折返反射的测量光与参考光在第二分束器合束形成干涉光。
优选的,所述第一光场调控元件、第二光场调控元件为螺旋相位板。
进一步,移动物体生成测量光与参考光之间光程差,获取干涉图像。
进一步,测量光与参考光之间光程差和旋转角度的表达式为:,其中,表示旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束的波
长,表示测量光与参考光之间光程差(即物体位移量的2倍)。在、和已知的条
件下,计算得到。
进一步,步骤S1中,激光器输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光。
进一步,所述光场调控模块包括同光轴的空间光调制器和四分之一波片,线偏振光束经空间光调制器进行相位调制得到涡旋光束,涡旋光束经四分之一波片变为具有螺旋相位的圆偏振光束。
优选的,涡旋光束是指任何具有螺旋相位的光束,常见的涡旋光束有LG光束(拉盖尔高斯光束)、BG光束(贝塞尔高斯光束)和阵列涡旋光束等。
进一步,所述空间光调制器预设不同涡旋光场对应干涉图案,利用计算全息原理获得涡旋光场,通过调节空间光调制器参数,改变涡旋光场拓扑荷。
进一步,参考光进入参考光路,测量光经第一偏振分束器分为垂直偏振光和水平偏振光,水平偏振光进入第一测量光路,垂直偏振光进入第二测量光路,且参考光、垂直偏振光和水平偏振光均返回至分束器并合束,获取第一参考干涉图像和第二参考干涉图像,改变第二测量光路的光程生成测量光与参考光之间光程差,获取第一干涉图像和第二干涉图像。
优选的,参考光射向第一反射角锥发生折返反射并返回分束器,形成参考光路,水平偏振光射向第二偏振分束器并返回分束器,形成第一测量光路,垂直偏振光射向第二反射角锥发生折返反射并射向第二偏振分束器,且垂直偏振光和水平偏振光在第二偏振分束器合束并返回分束器,形成第二测量光路。
优选的,返回分束器的参考光、垂直偏振光和水平偏振光传输至第三偏振分束器,水平偏振的两路光束(水平偏振光和参考光中呈水平偏振态的光束)干涉图像由第一探测器获取,垂直偏振的两路光束(垂直偏振光和参考光中呈垂直偏振态的光束)干涉图像由第二探测器获取。
优选的,移动第二反射角锥生成位移,改变第二测量光路的光程,生成测量光与参考光之间光程差。
进一步,第一干涉图像与第一参考干涉图像存在的旋转变化形成第一旋转角度,
第二干涉图像与第二参考干涉图像存在的旋转变化形成第二旋转角度。在、和
已知的条件下,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到第一旋转
角度和第二旋转角度。
进一步,通过生成系列随机光程差,将第一干涉图像与第一旋转角度、第二干涉图像与第二旋转角度形成输入输出数据集,采集待解调的第一干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第一旋转角度,采集待解调的第二干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第二旋转角度,将待解调的第二旋转角度与第一旋转角度做差得到待解调的旋转角度,计算获得测量光相位变化信息。
进一步,当参考光路处于稳定状态下,第一干涉图像与第一参考干涉图像相同,两者之间不存在旋转变化,第二干涉图像与第二参考干涉图像存在旋转变化。此时,待解调的第一旋转角度为零,待解调的第二旋转角度作为旋转角度,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到测量光相位变化信息。
进一步,当参考光路处于波动状态下(即参考光路存在波动量),第一干涉图像与第一参考干涉图像存在旋转变化,同时,第二干涉图像与第二参考干涉图像存在旋转变化。
进一步,第一旋转角度与参考光路波动量的表达式为:,第二旋
转角度与参考光路波动量的表达式为:,其中,表示第一旋转角度,表示第二旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束
的波长,表示参考光路出现的波动量,表示包含参考光路波动量的物体位移量,且,表示物体位移量,计算得到测量光相位变化信息。
本发明的有益效果是:
1、通过仿真计算生成系列随机位移,获得干涉图像,计算得到旋转角度,以干涉图像和旋转角度构建输入输出数据集,使用神经网络对输入输出数据集进行学习得到训练完成的卷积神经网络模型,将待解调的干涉图像输入模型输出待解调的旋转角度,计算获得测量光相位变化信息。
2、取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。
3、将涡旋光束与激光干涉相结合,基于涡旋光束干涉原理,测量获得的图像是瓣状且旋转的干涉图像,将连续位移转换为连续的旋转角度变化,能够清楚地观察整个旋转过程。
4、相较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了现有技术中干涉条纹小数部分数值估读对测量精度的影响,通过识别干涉图像的旋转角度,实现相位解调,提高测量精度。
5、采用圆偏振差分光路,通过对比第一干涉图像与第一参考干涉图像相同、第二干涉图像与第二参考干涉图像,消除了参考光路不稳定性对测量结果带来的误差,进一步提高了测量准确性。
附图说明
图1是本发明的流程框图;
图2是实施例二、实施例三的光路示意图;
图3是实施例四的光路示意图;
附图中:1-激光器、2-空间光调制器、3-分束器、4-第一反射角锥、5-第一偏振分束器、6-第二反射角锥、7-第二偏振分束器、8-第三偏振分束器、9-第一探测器、10-第二探测器、11-四分之一波片;
13-反射镜、14-第一分束器、15-第一光场调控元件、16-第二光场调控元件、17-第二分束器、18-物体、19-探测器;
图2中箭头表示移动方向,图2和图3中虚线表示激光路径,图4和图5中横坐标表示X轴,单位为mm,纵坐标表示Y轴,单位为mm。
具体实施方式
为了使本领域的人员更好地理解本发明的技术方案,下面结合本发明的附图,对本发明的技术方案进行清楚、完整的描述,基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它类同实施例,都应当属于本申请保护的范围。此外,以下实施例中提到的方向用词,例如“上”“下”“左”“右”等仅是参考附图的方向,因此,使用的方向用词是用来说明而非限制本发明创造。
实施例一:
如图1所示,一种基于深度学习的干涉图像相位解调方法,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度。
参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。已知测量光与参考光之间光程差,通过测量光与参考光之间光程差和旋转角度的表达式,得到旋转角度。
测量光与参考光之间光程差和旋转角度的表达式为:,其中,表示
旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束的波长,表
示测量光与参考光之间光程差(即物体位移量的2倍)。在、和已知的条件下,计
算得到。
步骤S2、通过生成系列的随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集按10:1分为训练数据集与测试数据集。
步骤S3、搭建卷积神经网络模型,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件,终止条件为:当测试精度低于90%时,对卷积神经网络模型进行训练,直至测试精度达到90%以上。取代了传统的干涉图像解调算法,能够实现快速、高精度干涉相位解调,提高测量精度。
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
综上所述,通过仿真计算生成系列随机位移,获得干涉图像,计算得到旋转角度,以干涉图像和旋转角度构建输入输出数据集,使用神经网络对输入输出数据集进行学习得到训练完成的卷积神经网络模型,将待解调的干涉图像输入模型输出待解调的旋转角度,计算获得测量光相位变化信息。
实施例二:
本实施例与实施例一相同的部分不再赘述,不同的是:
如图2所示,激光器1输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光。所述光场调控模块包括同光轴的空间光调制器2和四分之一波片11,所述空间光调制器2预设不同涡旋光场对应干涉图案,利用计算全息原理获得涡旋光场,通过调节空间光调制器2参数,改变涡旋光场拓扑荷。线偏振光束经空间光调制器2进行相位调制得到涡旋光束,涡旋光束经四分之一波片11变为具有螺旋相位的圆偏振光束。涡旋光束是指任何具有螺旋相位的光束,常见的涡旋光束有LG光束(拉盖尔高斯光束)、BG光束(贝塞尔高斯光束)和阵列涡旋光束等。
圆偏振光束经分束器3分为参考光和测量光,参考光射向第一反射角锥4发生折返
反射并返回分束器3,形成参考光路,测量光经第一偏振分束器5分为垂直偏振光和水平偏
振光,水平偏振光射向第二偏振分束器7并返回分束器3,形成第一测量光路,垂直偏振光射
向第二反射角锥6发生折返反射并射向第二偏振分束器7,且垂直偏振光和水平偏振光在第
二偏振分束器7合束并返回分束器3,形成第二测量光路,返回分束器3的参考光、垂直偏振
光和水平偏振光传输至第三偏振分束器8,水平偏振的两路光束(水平偏振光和参考光中呈
水平偏振态的光束)干涉图像由第一探测器9获取并作为第一参考干涉图像,表征第一测量
光路和参考光路之间的光程差,垂直偏振的两路光束(垂直偏振光和参考光中呈垂直偏
振态的光束)干涉图像由第二探测器10获取并作为第二参考干涉图像,表征第二测量光路
和参考光路之间的光程差。移动第二反射角锥6生成位移,改变第二测量光路的光程,
生成测量光与参考光之间光程差,水平偏振的两路光束干涉图像由第一探测器9获取并作
为第一干涉图像,垂直偏振的两路光束干涉图像由第二探测器10获取并作为第二干涉图
像。
第一干涉图像与第一参考干涉图像存在的旋转变化形成第一旋转角度,第二干涉
图像与第二参考干涉图像存在的旋转变化形成第二旋转角度。在、和已知的条
件下,借助测量光与参考光之间光程差和旋转角度的表达式,计算得到第一旋转角度和第
二旋转角度。
通过生成系列的随机光程差,将第一干涉图像与第一旋转角度、第二干涉图像与第二旋转角度形成输入输出数据集,采集待解调的第一干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第一旋转角度,采集待解调的第二干涉图像,输入到训练后的卷积神经网络模型,输出待解调的第二旋转角度,将待解调的第二旋转角度与第一旋转角度做差得到待解调的旋转角度。
本实施例中,第一干涉图像与第一参考干涉图像相同,两者之间不存在旋转变化,第二干涉图像与第二参考干涉图像存在旋转变化,也就是说,参考光路处于稳定状态下。此时,待解调的第一旋转角度为零,待解调的第二旋转角度作为旋转角度,借助测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
实施例三:
本实施例与实施例二相同的部分不再赘述,不同的是:
如图2所示,由于空气折射率变化、第一探测器9自身震动等因素对参考光路稳定性的影响,即参考光路处于波动状态下,第一干涉图像与第一参考干涉图像存在旋转变化,此时,输出的待解调的第一旋转角度不为零,待解调的第二旋转角度与第一旋转角度做差得到旋转角度。
第一旋转角度与参考光路波动量的表达式为:,第二旋转角度与
参考光路波动量的表达式为:,其中,表示第一旋转角度,表示
第二旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束的波长,表示参考光路出现的波动量,表示包含参考光路波动量的物体位移量,且,表示物体位移量。根据输出的待解调的第一旋转角度、待解调的第二旋转
角度,计算得到参考光路波动量、包含参考光路波动量的物体位移量,进而得到测量光相位
变化信息。
采用圆偏振差分光路,通过对比第一干涉图像与第一参考干涉图像相同、第二干涉图像与第二参考干涉图像,消除了参考光路不稳定性对测量结果带来的误差,进一步提高了测量准确性。
本实施例中,对输入卷积神经网络模型的图像依次进行如下处理:第一层卷积,批量归一化(Batch Normalization,BN),ReLU激活,第二层卷积,批量归一化,ReLU激活,第三层卷积,批量归一化,ReLU激活,第一全连接层,第二全连接层,最后通过softmax进行分类。其中,各层的网络参数如下:第一卷积层,其过滤器大小为5*5,步长为1,第二卷积层的过滤器大小为3*3,步长为1,第三卷积层的过滤器大小为3*3,步长为1,第一全连接层节点数:100,采用ReLU激活函数,第二全连接层节点数:1,同时采用ReLU激活函数进行回归得到特性的角度。训练数据集5000组,测试数据集500组,以256个样本作为一个batch,一共5000训练数据,设置学习力为1e-4,采用梯度下降法优化损失函数,训练50个epochs,训练完毕,保存训练好的网络结构及相应参数。通过该方法获得的旋转角度偏差RMS为9.19mrad,位移测量精度为0.9nm,优于现有图像处理手段实现的测量精度。
实施例四:
本实施例与实施例一相同的部分不再赘述,不同的是:
如图3所示,激光器1输出的线偏振光束经反射镜13入射至第一分束器14分为参考光和测量光,所述参考光经第一光场调控元件15变为具有螺旋相位的线偏振光束,并经2次反射传输至第二分束器17,所述测量光经第二光场调控元件16变为具有螺旋相位的线偏振光束,并经第二分束器17照射至物体18上,经物体18折返反射的测量光与参考光在第二分束器17合束形成干涉光。优选的,所述第一光场调控元件15、第二光场调控元件16为螺旋相位板。移动物体18生成测量光与参考光之间光程差,由探测器19获取干涉图像。
由测量光与参考光之间光程差和旋转角度的表达式为:,其中,表
示旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束的波长,
表示测量光与参考光之间光程差(即物体18位移量的2倍),已知,计算得到。
通过生成系列的随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集,搭建卷积神经网络模型,采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得实际测量位移,即测量光相位变化信息。
实施例五:
以LG光束为例,其电场表达式可以表示为:
由图5可以看出:基于涡旋光场的激光干涉位移测量与传统方法的干涉图样随测
量位移改变的变化形式不同,传统方法是明暗相间条纹的移动,而基于涡旋光束干涉的测
量获得的信息是瓣状干涉图案的旋转。为了更清楚地观察整个旋转过程,图4中引入虚线作
为参考线。随着光程差的改变,干涉场会发生旋转,相同光程差对应旋转角度与参考光和测
量光拓扑荷差有关,且旋转角度与待测位移量的表达式为:,其中,表
示旋转角度,表示参考光和测量光拓扑荷差的绝对值,表示线偏振光束的波长。
也就是说,基于涡旋光束干涉原理,测量获得的图像是瓣状且旋转的干涉图像,能够清楚地观察整个旋转过程。相较于普通高斯光干涉条纹计数的方法,无需将小数部分数值单独进行考虑,解决了现有技术中干涉条纹小数部分数值估读对测量精度的影响,通过识别干涉图像的旋转角度,实现相位解调,提高测量精度。
以上已将本发明做一详细说明,以上所述,仅为本发明之较佳实施例而已,当不能限定本发明实施范围,即凡依本申请范围所作均等变化与修饰,皆应仍属本发明涵盖范围内。
Claims (9)
1.一种基于深度学习的干涉图像相位解调方法,其特征在于,包括以下步骤:
步骤S1、随机生成测量光与参考光之间光程差,采集干涉图像并计算获得旋转角度;
步骤S2、将步骤S1中干涉图像与旋转角度形成输入输出数据集,将输入输出数据集分为训练数据集与测试数据集;
步骤S3、搭建卷积神经网络模型,利用训练数据集对卷积神经网络模型进行迭代优化,直至利用测试数据集对卷积神经网络模型进行验证时效果符合终止条件;
步骤S4、采集待解调的干涉图像,并输入到训练后的卷积神经网络模型,输出待解调的旋转角度,计算得到测量光相位变化信息。
2.根据权利要求1所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,参考光和测量光均为具有螺旋相位的偏振光束,测量光照射至物体上,参考光和测量光干涉形成瓣状且旋转的干涉图像,当物体发生位移时,位移前的干涉图像与位移后的干涉图像之间存在旋转角度。
4.根据权利要求3所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S2中,通过生成系列随机光程差,将步骤S1中干涉图像与旋转角度形成输入输出数据集。
5.根据权利要求4所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S3中,所述卷积神经网络模型包含卷积层、激活层和全连接层,对卷积神经网络模型进行训练调参时,全连接层利用梯度下降方法优化损失函数。
6.根据权利要求5所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S4中,卷积神经网络模型输出待解调的旋转角度后,依据测量光与参考光之间光程差和旋转角度的表达式,计算获得测量光相位变化信息。
7.根据权利要求6所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,采集干涉图像的方法为:
激光器输出的线偏振光束经第一分束器分为参考光和测量光,所述参考光经第一光场调控元件变为具有螺旋相位的线偏振光束,并经反射传输至第二分束器,所述测量光经第二光场调控元件变为具有螺旋相位的线偏振光束,并经第二分束器照射至物体上,经物体折返反射的测量光与参考光在第二分束器合束形成干涉光,获取干涉图像。
8.根据权利要求6所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,采集干涉图像的方法为:
激光器输出的线偏振光束经光场调控模块变为具有螺旋相位的圆偏振光束,圆偏振光束分为参考光和测量光,且测量光分为垂直偏振光和水平偏振光,参考光、垂直偏振光和水平偏振光进入不同光路并合束形成干涉光,获取干涉图像。
9.根据权利要求8所述的一种基于深度学习的干涉图像相位解调方法,其特征在于,步骤S1中,计算获得旋转角度的方法为:
参考光进入参考光路,测量光经第一偏振分束器分为垂直偏振光和水平偏振光,水平偏振光进入第一测量光路,垂直偏振光进入第二测量光路,且参考光、垂直偏振光和水平偏振光均返回至分束器并合束,获取第一参考干涉图像和第二参考干涉图像,改变第二测量光路的光程生成测量光与参考光之间光程差,获取第一干涉图像和第二干涉图像;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110885403.9A CN113340211B (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的干涉图像相位解调方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110885403.9A CN113340211B (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的干涉图像相位解调方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113340211A true CN113340211A (zh) | 2021-09-03 |
CN113340211B CN113340211B (zh) | 2021-10-29 |
Family
ID=77480632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110885403.9A Active CN113340211B (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的干涉图像相位解调方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113340211B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116858108A (zh) * | 2023-09-05 | 2023-10-10 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
CN116907627A (zh) * | 2023-09-13 | 2023-10-20 | 之江实验室 | 基于光程差辅助的大动态范围分布式相位传感方法和装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201033583A (en) * | 2009-03-10 | 2010-09-16 | Univ Nat Cheng Kung | Interferometer and interference method for generating stable vortex beam |
CN103983198A (zh) * | 2014-05-29 | 2014-08-13 | 山东师范大学 | 一种利用涡旋光测量离面位移的系统及方法 |
CN105509902A (zh) * | 2015-12-25 | 2016-04-20 | 华南师范大学 | 涡旋光的干涉测量方法与系统 |
CN110163817A (zh) * | 2019-04-28 | 2019-08-23 | 浙江工业大学 | 一种基于全卷积神经网络的相位主值提取方法 |
CN110186559A (zh) * | 2019-04-19 | 2019-08-30 | 深圳大学 | 一种涡旋光束轨道角动量模态的检测方法及装置 |
CN111121644A (zh) * | 2019-12-29 | 2020-05-08 | 中北大学 | 一种基于涡旋光与球面波干涉的微位移测量方法及装置 |
CN111928794A (zh) * | 2020-08-04 | 2020-11-13 | 北京理工大学 | 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置 |
CN112033280A (zh) * | 2020-09-03 | 2020-12-04 | 合肥工业大学 | 傅里叶变换模型与深度学习结合的散斑干涉相位计算方法 |
CN112556601A (zh) * | 2020-11-30 | 2021-03-26 | 北京理工大学 | 基于深度学习的单幅闭合条纹干涉图解相方法及装置 |
CN112597694A (zh) * | 2020-05-28 | 2021-04-02 | 中国人民解放军陆军工程大学 | 基于神经网络的围岩变形预测系统及预测方法 |
CN112836422A (zh) * | 2020-12-31 | 2021-05-25 | 电子科技大学 | 干涉与卷积神经网络混合方案测量方法 |
AU2021101856A4 (en) * | 2021-04-12 | 2021-06-10 | Dongguan University Of Technology | Method for Dynamic Phase Measurement in Terahertz Waveband Based On Deep Learning |
-
2021
- 2021-08-03 CN CN202110885403.9A patent/CN113340211B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201033583A (en) * | 2009-03-10 | 2010-09-16 | Univ Nat Cheng Kung | Interferometer and interference method for generating stable vortex beam |
CN103983198A (zh) * | 2014-05-29 | 2014-08-13 | 山东师范大学 | 一种利用涡旋光测量离面位移的系统及方法 |
CN105509902A (zh) * | 2015-12-25 | 2016-04-20 | 华南师范大学 | 涡旋光的干涉测量方法与系统 |
CN110186559A (zh) * | 2019-04-19 | 2019-08-30 | 深圳大学 | 一种涡旋光束轨道角动量模态的检测方法及装置 |
CN110163817A (zh) * | 2019-04-28 | 2019-08-23 | 浙江工业大学 | 一种基于全卷积神经网络的相位主值提取方法 |
CN111121644A (zh) * | 2019-12-29 | 2020-05-08 | 中北大学 | 一种基于涡旋光与球面波干涉的微位移测量方法及装置 |
CN112597694A (zh) * | 2020-05-28 | 2021-04-02 | 中国人民解放军陆军工程大学 | 基于神经网络的围岩变形预测系统及预测方法 |
CN111928794A (zh) * | 2020-08-04 | 2020-11-13 | 北京理工大学 | 基于深度学习的闭合条纹兼容单幅干涉图解相方法及装置 |
CN112033280A (zh) * | 2020-09-03 | 2020-12-04 | 合肥工业大学 | 傅里叶变换模型与深度学习结合的散斑干涉相位计算方法 |
CN112556601A (zh) * | 2020-11-30 | 2021-03-26 | 北京理工大学 | 基于深度学习的单幅闭合条纹干涉图解相方法及装置 |
CN112836422A (zh) * | 2020-12-31 | 2021-05-25 | 电子科技大学 | 干涉与卷积神经网络混合方案测量方法 |
AU2021101856A4 (en) * | 2021-04-12 | 2021-06-10 | Dongguan University Of Technology | Method for Dynamic Phase Measurement in Terahertz Waveband Based On Deep Learning |
Non-Patent Citations (1)
Title |
---|
杨春勇 等: "基于卷积神经网络的涡旋光相干解复用", 《中南民族大学学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116858108A (zh) * | 2023-09-05 | 2023-10-10 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
CN116858108B (zh) * | 2023-09-05 | 2023-11-03 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
CN116907627A (zh) * | 2023-09-13 | 2023-10-20 | 之江实验室 | 基于光程差辅助的大动态范围分布式相位传感方法和装置 |
CN116907627B (zh) * | 2023-09-13 | 2023-12-19 | 之江实验室 | 基于光程差辅助的大动态范围分布式相位传感方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113340211B (zh) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113340211B (zh) | 一种基于深度学习的干涉图像相位解调方法 | |
CN109163672B (zh) | 一种基于白光干涉零光程差位置拾取算法的微观形貌测量方法 | |
Hu et al. | Absolute three-dimensional micro surface profile measurement based on a Greenough-type stereomicroscope | |
CN102735184B (zh) | 一种光学面形的检测装置及检测方法 | |
US20060274325A1 (en) | Method of qualifying a diffraction grating and method of manufacturing an optical element | |
Shimizu | Laser interference lithography for fabrication of planar scale gratings for optical metrology | |
CN113607063A (zh) | 基于涡旋光场干涉的纳米位移测量方法及系统 | |
CN104215193B (zh) | 物面形变测量方法和测量系统 | |
CN105371777B (zh) | 实时测量物体变形的方法和系统 | |
WO2018041440A1 (en) | Position sensor, lithographic apparatus and method for manufacturing devices | |
CN105092056B (zh) | 数字相移点衍射干涉仪及光学系统波像差测量方法 | |
CN112525104B (zh) | 一种数字全息三维形貌测量装置及方法 | |
Bai et al. | Three-probe error separation with chromatic confocal sensors for roundness measurement | |
Su | Coherence scanning interferometry | |
CN111189408A (zh) | 一种投影莫尔齿轮齿面三维测量装置和测量方法 | |
KR102424819B1 (ko) | 물체 형상 복원 방법 | |
Xu et al. | Segmentation phase measuring deflectometry for measuring structured specular surfaces | |
CN114088010B (zh) | 一种干涉三维形貌解算方法 | |
CN115479753A (zh) | 确定光学系统在被照明光照明时的成像质量的方法 | |
CN109313009A (zh) | 用于确定输入射束簇的相位的方法 | |
US7158914B2 (en) | Precision surface measurement | |
CN103968776B (zh) | 一种用于非球面光学模具在机检测的新装置 | |
Künne et al. | Investigation of measurement data of low-coherence interferometry at tilted surfaces in the 3D spatial frequency domain | |
Künne et al. | Investigation of measurement data of low-coherence interferometry at tilted surfaces in the 3D spatial frequency domain | |
CN115077390B (zh) | 一种基于双波长涡旋光自共轭干涉的大量程皮米级位移测量系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |