CN113790808B - 条纹追踪方法 - Google Patents
条纹追踪方法 Download PDFInfo
- Publication number
- CN113790808B CN113790808B CN202111063486.XA CN202111063486A CN113790808B CN 113790808 B CN113790808 B CN 113790808B CN 202111063486 A CN202111063486 A CN 202111063486A CN 113790808 B CN113790808 B CN 113790808B
- Authority
- CN
- China
- Prior art keywords
- interference
- neural network
- network model
- fringe
- interference fringe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000003287 optical effect Effects 0.000 claims abstract description 66
- 238000003062 neural network model Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 16
- 241001465382 Physalis alkekengi Species 0.000 claims abstract description 9
- 238000012795 verification Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 8
- 230000003111 delayed effect Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000001939 inductive effect Effects 0.000 claims description 2
- 238000009423 ventilation Methods 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 2
- 239000013307 optical fiber Substances 0.000 abstract description 2
- 238000005259 measurement Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 241000219793 Trifolium Species 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J9/00—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
- G01J9/02—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J9/00—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
- G01J9/02—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
- G01J2009/0234—Measurement of the fringe pattern
- G01J2009/0238—Measurement of the fringe pattern the pattern being processed optically, e.g. by Fourier transformation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J9/00—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
- G01J9/02—Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength by interferometric methods
- G01J2009/0276—Stellar interferometer, e.g. Sagnac
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Instruments For Measurement Of Length By Optical Means (AREA)
Abstract
本发明提出了一种条纹追踪方法,包括如下步骤:使用两路光子灯笼对光信号进行收集;获取经光子灯笼出射的N路干涉条纹图;根据干涉条纹图求得光程差,并从光程差中获取相位信息;以干涉条纹图为输入,以干涉条纹的相位差信息为输出,构建并训练神经网络模型;利用干涉系统对不同角度的光信号进行收集,获取不同角度的光信号干涉条纹图;将干涉条纹图输入至训练好的神经网络模型,获取相位差并进行补偿,以实现干涉条纹的追踪。本发明提供的条纹追踪方法,利用光子灯笼进行光信号收集能够提升单模光纤传输容量,能够大幅度提高光信号的收集能力;且利用训练神经网络模型的方式进行条纹追踪,保证了条纹追踪的精度。
Description
技术领域
本发明涉及光学检测的技术领域,具体的涉及一种条纹追踪方法。
背景技术
条纹追踪技术(fringe tracking)的基本原理是依靠快速扫描条纹图案,将获得的白光干涉条纹的位置信息回馈给伺服控制器,通过控制光学延迟线(optical delayline)或促动器(actuator)调节光程差,以使条纹抖动(fringe jitter)远小于条纹间隔,稳定条纹。经过40年的发展,条纹追踪器已成为现代长基线恒星干涉仪的重要组成部分。其中,GRAVITY条纹追踪器是目前光学干涉测量条纹追踪领域中最先进的设备,可在每个探测器积分时间内、信噪比(signal-to-noise ratio,SNR)为1.5的情况下,追踪K波段11星等(UTs)、9.5星等(ATs)相干光源干涉条纹。在良好的观测条件下,辅助望远镜内光程延迟残差(optical path delay residuals)可低至75nm rms(root mean square),但受结构振动(vibration)限制,单元望远镜性能约为250nm rms。条纹追踪从机制上主要分为两个部分:分别是条纹理解与稳定追踪。
条纹理解指的是在探测器以及天光背景等噪声影响下,提取出尽量准确的干涉条纹的光强分布,并将光强分布变化规律进行解析式表达的一种过程。稳定追踪指的是在所获得的结果的基础上,驱动补偿元件,实现条纹稳定,最终可以获得暗弱系外行星长时间积分信号的过程,从而保证在相干长度内获得光程差和最终光强度之间的关系。现有技术中无法保证光干涉条纹的测量精度,会导致所追踪的干涉条纹丢失。
发明内容
针对现有技术的不足,本发明提供一种条纹追踪方法,以解决现有技术缺陷。
为实现上述目的,本发明提供了一种条纹追踪方法,包括以下步骤:
S1、使用光子灯笼作为干涉系统的光线收集装置对光信号进行收集,其中,将光子灯笼的少模端作为光线收集装置的光信号入射端,将光子灯笼的多模端作为光线收集装置干涉系统的光信号出射端,光子灯笼的多模端为N路,其中N≥3;
S2、光子灯笼的多模端出射的N路光信号在成像系统上发生干涉,形成N路干涉条纹图,获取干涉条纹图;
S3、根据干涉条纹图求得光线收集装置的入射端光信号的光程差,并从光程差中获取相位信息,并获得光线收集装置的入射端光信号的相位差;
S4、以干涉条纹图作为神经网络神经网络模型的输入,以干涉条纹的相位差为神经网络神经网络模型的输出,构建并训练神经网络神经网络模型;
S5、利用光子灯笼对不同角度的光信号进行收集,获取不同角度的光信号干涉条纹图;
S6、将光信号干涉条纹图输入至训练好的神经网络神经网络模型,获取光线收集装置的入射端光信号的相位差;
S7、对获取的相位差进行补偿,以实现干涉条纹的追踪。
进一步地,步骤S1中的干涉系统为迈克尔逊干涉系统或斐索干涉系统。
进一步地,在步骤S2中,获取的干涉条纹图是光子灯笼收集到的光信号中非基模光信号形成的干涉条纹图。
进一步地,在步骤S3中,获得相位差的方法为向量法,具体如下:
S301、在干涉条纹图选取波数km处,每间隔测量一次相应相位状态下的光强,建立光强向量矩阵A(km)、B(km)、C(km)、D(km),在向量的两个分量上hc(κm)、hc(κm)可表示为公式(1)-公式(4):
hc(κm)=A(κm)-C(κm) (1)
hs(κm)=B(κm)-D(κm) (2)
hc(κm)∝cos(2πκmx) (3)
hs(κm)=sin(2πκmx) (4)
其中,m=0,...,M-1;x为光程差;m为阶数;M为整数;
S302、定义干涉条纹图的向量为如公式(5)所示的负数序列:
h(κm)=hc(κm)+jhs(κm) (5)
S303、对公式(5)进行离散傅里叶变换,获得公式(6)
S304、通过定位|H(x)|2的峰值所在,获得延迟的相位差。
进一步地,在步骤S3中,对干涉条纹图进行奇异值滤波。
进一步地,在步骤S4中,神经网络模型使用小波函数作为隐藏层激活函数。
进一步地,神经网络模型为双隐藏层神经网络模型,隐藏层神经网络模型的结构为全连型神经网络模型。
进一步地,神经网络模型的训练包括训练样本和验证样本,训练样本和验证样本为随机选取的光信号干涉条纹图。
进一步地,使用中值滤波的方法,对验证样本中解算失效的样本进行去除。
进一步地,在步骤S7中,使用延迟线对相位差进行补偿,以实现干涉条纹的追踪。
本发明能够取得以下技术效果:
1、本发明提供的条纹追踪方法,利用光子灯笼进行光信号收集能够提升单模光纤传输容量,与传统的收集方式相比,能够大幅度提高光信号的收集能力;
2、本发明提供的条纹追踪方法,利用训练神经网络模型的方式进行条纹追踪,保证了条纹追踪的精度。
附图说明
图1是本发明提供的实施例的条纹追踪方法的流程示意图;
图2是本发明提供的实施例的两路光子灯笼的干涉示意图;
图3是本发明提供的实施例的光子灯笼的多模端中一路的干涉光路示意图;
图4是本发明提供的实施例的迈克尔逊干涉系统的结构示意图。
具体附图标记包括:
第一光子灯笼1、第二光子灯笼2、第一光子灯笼的第一多模端101、第一光子灯笼的第二多模端102、第一光子灯笼的第三多模端103、第二光子灯笼的第一多模端201、第二光子灯笼的第二多模端202、第二光子灯笼的第三多模端203、第一透镜301、第二透镜302、第三透镜303、分束镜4、CCD相机5、延迟线6、参考臂7、神经网络模型输入8、神经网络模型输出9。
具体实施方式
下面结合附图和实施例对本发明的实施方式作进一步详细描述。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互结合。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明提供的实施例的条纹追踪方法的流程,图2示出了本发明提供的实施例的两路光子灯笼的干涉。
如图1和图2所示,本发明提供一种条纹追踪方法,包括如下步骤:
S1、使用光子灯笼作为干涉系统的光线收集装置对光信号进行收集,光子灯笼的少模端作为光线收集装置的光信号入射端,光子灯笼的多模端作为光线收集装置的光信号出射端,光子灯笼的多模端为N路,本实施例中光子灯笼的多模端为3路。
不同入射角度的光信号在第一光子灯笼1和第二光子灯笼2的少模端入射后,在光子灯笼中会激发不同模式的光,在光子灯笼的多模端进行分离并形成干涉,即第一光子灯笼的第一多模端101和第二光子灯笼的第一多模端201产生干涉条纹,第一光子灯笼的第二多模端102和第二光子灯笼的第二多模端202产生干涉条纹,第一光子灯笼的第三多模端103和第二光子灯笼的第三多模端203产生干涉条纹。基模光信号干涉会产生标准的正弦竖条纹,非基模光信号干涉会产生非竖直条纹的干涉图案,生成的干涉条纹图案如图2的右侧所示。
S2、获取经第一光子灯笼1和第二光子灯笼2出射的3路光信号在成像系统上进行干涉,形成的3路干涉条纹图,获取此干涉条纹图。本实施例中成像系统为CCD相机5。
如图3所示,以第一光子灯笼的第一多模端101和第二光子灯笼的第一多模端201产生干涉条纹为例进行详述。第一光子灯笼的第一多模端101和第二光子灯笼的第一多模端201出射的光束分别经过第一透镜301、第二透镜302准直后,入射至分束镜4,经分束镜4合束后入射至第三透镜303准直,经第三透镜303透射至CCD相机5成像,在CCD相机5上产生干涉条纹。通过调节第一透镜301、第二透镜302、第三透镜303、分束镜4,可以调节形成干涉条纹的清晰度,调节至产生的条纹清晰且细密。
在本发明实施例提供的条纹追踪方法中,如图2所示,光子灯笼的多模端为三路,即第一光子灯笼1、第二光子灯笼2的少模端对光信号进行收集后,第一光子灯笼的第一多模端101和第二光子灯笼的第一多模端201,第一光子灯笼的第二多模端102和第二光子灯笼的第二多模端202,第一光子灯笼的第三多模端103和第二光子灯笼的第三多模端203,两两进行干涉,共形成3路干涉信号。
S3、根据干涉条纹图求得光线收集装置的入射端光信号的光程差,并从光程差中提取相位信息,并获得光线收集装置的入射端光信号的相位差。
通过傅里叶变换求解,获取干涉条纹图的条纹数目,根据干涉光谱条纹数目与光程差之间的函数关系计算得到光程差。根据光程差可以反推出干涉条纹图的相位信息,进而求出相位差。
S4、以干涉条纹图为神经网络模型输入8,以干涉条纹的相位差为神经网络模型输出9,构建并训练神经网络模型,以实现干涉条纹的理解;
S5、利用干涉系统对不同角度的光信号进行收集,获取不同角度的光信号干涉条纹图。
通过对不同角度光信号的收集,获取不同角度的光信号干涉条纹图。在实际应用中,干涉条纹图和对应的相位差信息是经过海量测量进行几千组,甚至上万组的数据积累,产生的数据集,通过该数据集构建并训练经网络。该神经网络模型可以是小波神经网络模型,结合了小波变换多尺度表征的特性,同时保留了神经网络模型泛化能力好、非线性映射能力强的特点。
S6、将干涉条纹图输入至训练好的神经网络模型,获取相位差。
S7、对获取的相位差进行补偿,以实现干涉条纹的追踪。
在本发明的一个具体优选示例中,使用延迟线6进行相位差的补偿,并通过干涉条纹和神经网络模型的结合来进行相位差的补偿,使相位差补偿形成闭环,保证了相位差补偿即条纹追踪的频率和精度。
在本发明实施例提供的条纹追踪方法,利用光子灯笼少模端收集光信号,并通过光子灯笼多模端形成的干涉条纹训练神经网络模型,进行条纹的理解、提取、条纹追踪,其条纹追踪的精度高。
在本发明的一个具体优选示例中,如图4所示,步骤S1中的干涉系统为迈克尔逊干涉系统,其中延迟线6位于迈克尔逊干涉系统的测量臂。
由光学原理可知,获取的干涉条纹强度可如下式所示:
其中,
λ是相干涉光束的波长,I1和I2是迈克尔逊干涉系统中参考臂7与测量臂传输的光束的光强,γ12为复相干度,模为|γ12|,相位为其中,Φ12为目标源相位,为迈克尔逊干涉系统测量臂、参考臂7的光程s1与s2相位之差,s1、s2分别是迈克尔逊干涉系统测量臂、参考臂7的光程。干涉条纹对比度(contrast)或可见度(visibility)可表达为条纹振幅与总背景照度之比,如下式所示:
如果我们引入波长λ的光谱数变量(the spectroscopic wavenumber)κ=1/λ,令:
x=(s2-s1) (5)
则各个波长干涉条纹强度图案如下式所示:
I(κ,x)=Is[1+|γ12|cos(2πκx-φ12)]+Ib (6)
此情况下,x代表活塞相位偏置,不含有倾斜分量。当两臂光强I1=I2时,干涉条纹能见度为复相干度的模值:
V=|γ12| (7)
在本发明的一个具体优选示例中,在步骤S3中,获得相位差的方法为向量法,具体如下:
S301、在干涉条纹图选取波数km处,每间隔测量一次相应相位状态下的光强,建立光强向量矩阵A(km)、B(km)、C(km)、D(km),在向量的两个分量上hc(κm)、hc(κm)可表示为公式(8)-公式(11):
hc(κm)=A(κm)-C(κm) (8)
hs(κm)=B(κm)-D(κm) (9)
hc(κm)∝cos(2πκmx) (10)
hs(κm)=sin(2πκmx) (11)
其中,m=0,...,M-1;x为光程差;m为阶数;M为整数;
S302、定义干涉条纹图的向量为如公式(12)所示的负数序列:
h(κm)=hc(κm)+jhs(κm) (12)
S303、对公式(5)进行离散傅里叶变换,获得公式(13)
S304、通过定位功率谱|H(x)|2的峰值所在,获得延迟的相位差。
本发明实施例中使用向量法来获取延迟的相位差,可以明确延迟方向(或符号),且功率谱中不存在零频率项,更容易进行零群延迟跟踪。
在本发明的一个具体优选示例中,步骤S2中,获取的干涉条纹图是收集的光信号中非基模光信号形成的干涉条纹图。
获取非基模光信号形成的干涉条纹图能够提高训练神经网络模型的稳定性,使训练好的神经网络模型输出的准确度更高。
在本发明的一个具体优选示例中,在步骤S3中,对干涉条纹图进行奇异值滤波。进行奇异值滤波后的干涉条纹图信噪比更高,能够提高后续的光程差补偿精度,更好的实现条纹追踪。
在本发明的一个具体优选示例中,步骤S3中,使用延迟线6对光程差进行补偿。
在本发明的一个具体优选示例中,步骤S4中,如图4所示,神经网络模型使用小波函数作为神经网络模型隐藏层激活函数。
在本发明的一个具体优选示例中,神经网络模型为双隐藏层神经网络模型,神经网络模型隐藏层的结构为全连型神经网络模型。
小波神经网络模型结合了小波变换多尺度表征的特性,同时保留了神经网络模型泛化能力好、非线性映射能力强的特点。基于深度学习算法“端到端”地构建系统误差(重力、温度、气流、振动、执行机构误差、光学元件面形误差、偏振误差,光强闪烁)模型,实现系统的标校,减少硬件实现的压力。
在本发明的一个具体优选示例中,神经网络模型模型进行训练包括训练样本和验证样本,训练样本和验证样本为随机选取的光信号干涉条纹图。将样本分为一部分训练样本和另一部分验证样本,通过将进行训练后的神经网络模型在验证样本上进行验证,能够有效提高神经网络模型模型的准确度。
构建并训练好的神经网络模型输出9共包含6个神经元,对应低阶像差,分别为彗差像散与三叶草。利用向后传播神经网络模型,建立了非线性映射模型,在验证样本上,低阶像差的平均估计误差低于10%。
在本发明的一个具体优选示例中,使用中值滤波的方法,对验证样本中解算失效的样本进行去除。
使用中值滤波的方法,对验证样本中解算失效的样本进行去除后,能够进一步的提高条纹追踪的准确度。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体优选示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制。本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
以上本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所做出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
Claims (10)
1.一种条纹追踪方法,其特征在于,包括如下步骤:
S1、使用光子灯笼作为干涉系统的光线收集装置对光信号进行收集;其中,所述光子灯笼的数量为两个,将两个所述光子灯笼的少模端作为所述光线收集装置的光信号入射端,将两个所述光子灯笼的多模端作为所述光线收集装置的光信号出射端,两个所述光子灯笼的多模端为N路,其中N≥3;
S2、两个所述光子灯笼的多模端出射的N路光信号在成像系统上两两发生干涉,形成N路干涉条纹图;
S3、根据所述干涉条纹图求得所述光线收集装置的入射端光信号的光程差,并从所述光程差中获取相位信息,并获得所述光线收集装置的入射端光信号的延迟的相位差;
S4、以所述干涉条纹图作为神经网络模型的输入,以所述干涉条纹图的相位差为所述神经网络模型的输出,构建并训练神经网络模型;
S5、利用所述光子灯笼对不同角度的光信号进行收集,获取不同角度的光信号的干涉条纹图;
S6、将所述光信号干涉条纹图输入至训练好的所述神经网络模型,获取所述光线收集装置的入射端光信号的相位差;
S7、对获取的所述相位差进行补偿,以实现干涉条纹的追踪。
2.根据权利要求1所述的条纹追踪方法,其特征在于,步骤S1中所述的干涉系统为迈克尔逊干涉系统或斐索干涉系统。
3.根据权利要求1所述的条纹追踪方法,其特征在于,在步骤S2中,获取所述干涉条纹图是所述光子灯笼收集到的光信号中非基模光信号形成的干涉条纹图。
4.根据权利要求3所述的条纹追踪方法,其特征在于,在所述步骤S3中,获得所述相位差的方法为向量法,具体如下:
S301、在所述干涉条纹图选取波数km处,每间隔测量一次相应相位状态下的光强,建立光强向量矩阵A(κm)、B(κm)、C(κm)、D(κm),在向量的两个分量上hc(κm)、hs(κm)表示为公式(1)-公式(2):
hc(κm)=A(κm)-C(κm) (1)
hs(κm)=B(κm)-D(κm) (2)
其中,m=0,...,M-1;m为阶数;M为整数;
S302、定义所述干涉条纹图的向量为如公式(3)所示的负数序列:
h(κm)=hc(κm)+jhs(κm) (3)
S303、对公式(3)进行离散傅里叶变换,获得公式(4)
其中,x为所述光程差;
S304、通过定位|H(x)|2的峰值所在,获得延迟的所述相位差。
5.根据权利要求4所述的条纹追踪方法,其特征在于,在所述步骤S3中,对所述干涉条纹图进行奇异值滤波。
6.根据权利要求1所述的条纹追踪方法,其特征在于,在步骤S4中,所述神经网络模型使用小波函数作为隐藏层激活函数。
7.根据权利要求6所述的条纹追踪方法,其特征在于,所述神经网络模型为双隐藏层神经网络模型,所述隐藏层神经网络模型的结构为全连型神经网络模型。
8.根据权利要求1所述的条纹追踪方法,其特征在于,所述神经网络模型的训练包括训练样本和验证样本,所述训练样本和所述验证样本为随机选取的所述光信号干涉条纹图。
9.根据权利要求8所述的条纹追踪方法,其特征在于,使用中值滤波的方法,对所述验证样本中解算失效的样本进行去除。
10.根据权利要求1所述的条纹追踪方法,其特征在于,在步骤S7中,使用延迟线对所述相位差进行补偿,以实现干涉条纹的追踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063486.XA CN113790808B (zh) | 2021-09-10 | 2021-09-10 | 条纹追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111063486.XA CN113790808B (zh) | 2021-09-10 | 2021-09-10 | 条纹追踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113790808A CN113790808A (zh) | 2021-12-14 |
CN113790808B true CN113790808B (zh) | 2022-09-20 |
Family
ID=79183197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111063486.XA Active CN113790808B (zh) | 2021-09-10 | 2021-09-10 | 条纹追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113790808B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114264371B (zh) * | 2021-12-31 | 2023-03-07 | 中国科学院长春光学精密机械与物理研究所 | 异构子孔径的条纹追踪方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2490497A (en) * | 2011-05-03 | 2012-11-07 | Waterford Inst Technology | A stationary waveguide spectrum analyser |
CN111854812B (zh) * | 2020-07-27 | 2022-07-26 | 中央民族大学 | 一种基于光子灯笼光纤的传感解调系统及传感解调方法 |
CN111811553B (zh) * | 2020-07-27 | 2022-05-17 | 中央民族大学 | 一种基于光子灯笼光纤的传感网络及方法 |
CN112097909B (zh) * | 2020-07-31 | 2022-10-11 | 中国科学院国家天文台南京天文光学技术研究所 | 恒星光干涉光程差检测及条纹跟踪方法和系统 |
CN112985300B (zh) * | 2021-02-24 | 2022-03-25 | 中国科学院长春光学精密机械与物理研究所 | 基于条纹追踪的光学元件轮廓检测方法、设备及存储介质 |
-
2021
- 2021-09-10 CN CN202111063486.XA patent/CN113790808B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113790808A (zh) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104655032B (zh) | 基于正交色散谱域干涉仪的高精度间距测量系统和方法 | |
CN111551129B (zh) | 大口径平面镜的中、低阶面形检测装置、系统及存储介质 | |
CN105589210B (zh) | 一种基于光瞳调制的数字化合成孔径成像方法 | |
CN104296676B (zh) | 基于低频差声光移频器移相的外差点衍射干涉仪 | |
CN108061639A (zh) | 一种结合自适应光学技术的大动态范围、高精度相位差法波前测量仪 | |
US20020030824A1 (en) | Method and apparatus for wavefront measurment that resolves the 2-II ambiguity in such measurement and adaptive optics systems utilizing same | |
CN106768280A (zh) | 一种基于多波长无透镜傅里叶变换数字全息的振动检测装置 | |
CN112946789B (zh) | 一种基于超透镜阵列与光子集成芯片干涉平板成像系统 | |
US7161128B2 (en) | Optical instrument employing a wavefront sensor capable of coarse and fine phase measurement capabilities during first and second modes of operation | |
Guo-mian et al. | An improved scheme and numerical simulation of segmented planar imaging detector for electro-optical reconnaissance | |
CN110146258A (zh) | 一种Poisson noise模型下对扩展目标成像时的相位恢复方法 | |
CN113790808B (zh) | 条纹追踪方法 | |
CN112033280A (zh) | 傅里叶变换模型与深度学习结合的散斑干涉相位计算方法 | |
CN112985300B (zh) | 基于条纹追踪的光学元件轮廓检测方法、设备及存储介质 | |
CN102539381B (zh) | 基于微离轴显微干涉投影的折射率层析装置 | |
JPH0599610A (ja) | ビームの波面を検出する方法およびこの方法を実施するための装置 | |
CN112284288B (zh) | 多孔径干涉成像方法 | |
CN117629104A (zh) | 基于深度学习的高精度动态干涉测量方法与装置 | |
CN108760056B (zh) | 一种基于相干衍射成像的激光复振幅测量方法及系统 | |
CN111258081A (zh) | 一种基于光纤互联的光学系统装调方法及装置 | |
Ten Brummelaar et al. | Adaptive optics for the CHARA array | |
CN115566522A (zh) | 激光相干合成相位误差补偿装置及方法 | |
US7146060B2 (en) | Real-time correction of phase distortion | |
KR102036067B1 (ko) | 3d 형상 및 굴절률 측정이 가능한 광학 측정 장치 | |
CN113029526B (zh) | 一种综合孔径共相误差估计方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |