CN114994859A - 基于cnn的tma望远镜面形、位姿误差在轨校正方法 - Google Patents
基于cnn的tma望远镜面形、位姿误差在轨校正方法 Download PDFInfo
- Publication number
- CN114994859A CN114994859A CN202210487161.2A CN202210487161A CN114994859A CN 114994859 A CN114994859 A CN 114994859A CN 202210487161 A CN202210487161 A CN 202210487161A CN 114994859 A CN114994859 A CN 114994859A
- Authority
- CN
- China
- Prior art keywords
- error
- pose
- surface shape
- aberration
- mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/18—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
- G02B7/182—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
- G02B7/183—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors specially adapted for very large mirrors, e.g. for astronomy, or solar concentrators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B17/00—Systems with reflecting surfaces, with or without refracting elements
- G02B17/08—Catadioptric systems
- G02B17/082—Catadioptric systems using three curved mirrors
- G02B17/0832—Catadioptric systems using three curved mirrors off-axis or unobscured systems in which not all of the mirrors share a common axis of rotational symmetry, e.g. at least one of the mirrors is warped, tilted or decentered with respect to the other elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/18—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
- G02B7/182—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
- G02B7/1822—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors comprising means for aligning the optical axis
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/18—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
- G02B7/182—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
- G02B7/185—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors with means for adjusting the shape of the mirror surface
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/18—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors
- G02B7/182—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors
- G02B7/198—Mountings, adjusting means, or light-tight connections, for optical elements for prisms; for mirrors for mirrors with means for adjusting the mirror relative to its support
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Sustainable Development (AREA)
- Telescopes (AREA)
- Studio Devices (AREA)
Abstract
本发明公开的一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,属于主动光学领域。本发明实现方法:建立典型TMA望远镜系统,分析像差特性;建立用于预测主动校正元件误差的神经网络模型;利用该模型与同时存在面形误差与位姿误差下的系统离焦PSF计算出主动元件的调整量;根据调整量反向调整主动校正元件以使面形误差、位姿误差引起的影响互相抵消补偿,即采用深度学习方法实现空间光学遥感系统在轨像差校正,实现TMA望远镜高质量成像。本发明利用神经网络直接解算调整量的方法,速度快,不需要重复性地移动校正器件,避免过多消耗机械使用寿命。本发明能够根据离焦面光强信息主动校正元件,避免增加系统复杂度,降低校正成本。
Description
技术领域
本发明涉及一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,属于主动光学技术领域。
背景技术
空间望远镜在太空部署后,其成像质量不仅取决于系统初始设计、制造加工、装调,也受到卫星内部设备发热和太阳辐照、空间微重力环境及卫星发射时的加速过载、冲击和振动等方面的影响。为了获取良好的成像质量,空间光学遥感系统需周期性地进行像差在轨校正。
为了满足高分辨率的成像需要,空间光学系统通常采用消除了色差的反射式结构,例如三镜消像散(three-mirror anastigmat,TMA)望远镜。
TMA望远镜由主镜、次镜、三镜以及后续光学系统组成。望远镜发射后,其主动校正元件被要求校正面形误差与三个反射镜之间的位姿误差。在空间中,为了避免望远镜的主动光学系统结构复杂以及减小校正代价,校正的最优策略是使各元件产生的像差互相补偿。TMA一般采用主镜次镜作为主动校正元件,使次镜引起的像差与主镜面形误差、三镜位姿误差、系统设计残留误差引起的像差互相补偿,以提高成像质量。
根据是否需要对失调系统进行波前传感,光学遥感系统像差在轨校正方法主要分为二大类:一类是广泛应用的灵敏度矩阵反演法、逆向优化法、矢量像差法等,此类方法均需借助波前探测器或相位恢复法(phase retrieval,PR)、相位差异法(phase diversity,PD)获取系统像差信息采用一定的校正量解算方法,进行面形、位姿校正量解算,并实施校正。
第二类则不需波前传感,而直接利用系统探测器上的光强信息建立评价函数,然后基于特定的优化算法控制面形、位姿校正量寻找评价函数的极值,当评价函数达到极值时即认为失调系统得到了校正。在该类方法中,优化算法通常分为两类,一类是无模型的算法,如模拟退火、遗传算法、随机并行梯度下降法等。另一类是基于模型的算法,其可将多次迭代搜索简化为确定性的直接求解,避免了陷入局部极值。
第三类是近年来提出的基于卷积神经网络(convolutional neural network,CNN)的方法,使用卷积神经网络建立位姿失调量与点扩散函数(point spread functions,PSF)图像之间的非线性关系。
受空间环境、卫星平台及算法原理等因素的制约,当前,主动光学在轨校正技术存在的主要技术缺点如下:
(1)广泛应用的矢量像差法、灵敏度矩阵反演法等均需借助波前传感器或相位恢复法、相位差异法等获取系统波前像差。当采用波前传感器传感波前时,由于需要在系统中添加额外元件,故增加了在轨校正系统的复杂度,提升了研制成本;当采用PR或PD法时,为了获取焦面、离焦面信息,需在系统中引入分光元件,或移动探测器分别位于焦面和离焦面处,显然,前者亦增加了系统复杂度,而后者则降低了系统稳定性和可靠性,均不利于空间应用。
(2)基于图像清晰度函数的无波前传感器主动校正方法,如无模型校正算法,包括随机并行梯度下降算法、遗传算法等,受限于寻优算法的原理局限,通常需要大量迭代,故计算耗时长、校正速度慢、周期长、且容易陷入局部最优。若度量函数或控制参数选择不当,则无法实现校正。近年来发展的基于模型的优化算法可将待优化变量的多次迭代搜索简化为确定性的直接求解,算法的收敛速度大幅提高。但在采用上述两类方法实施校正时,前者需要在算法迭代中,反复驱动主动校正元件以获得不同状态下的像质评价函数进行寻优;后者则需多次驱动主动校正元件以引入波前模式用于估计待测波前模式的系数,故两种方法均会造成光学系统主动元件的机械寿命损耗严重、降低系统稳定性和可靠性。
(3)现有的基于卷积网络的校正研究仅考虑了次镜位姿失调的情形,并未考虑主镜面形误差的影响。在元件位姿和面形误差同时存在的情况下,尚无有效可行的深度学习研究方法。
发明内容
为了突破现有方法系统复杂、元件机械寿命损耗严重、成本高等瓶颈,本发明的主要目的是提供一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,在TMA望远镜同时出现面形误差与位姿误差时,基于CNN完成快速、准确的像差校正,实现TMA望远镜的高质量成像。
为达到以上目的,本发明采用以下技术方案。
本发明公开的一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,建立典型TMA望远镜系统,分析像差特性。建立用于预测主动校正元件误差的神经网络模型。利用该模型与同时存在面形误差与位姿误差下的系统离焦PSF计算出主动元件的调整量。根据调整量反向调整主动校正元件以使面形误差、位姿误差引起的影响互相抵消补偿,即采用深度学习方法实现空间光学遥感系统在轨像差校正,实现TMA望远镜高质量成像。
本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法,包括如下步骤:
步骤101:建立TMA望远镜系统。
步骤101中所述的TMA望远镜系统由三个反射镜组成,分别为主镜、次镜、三镜。无穷远处的光线依次经过主镜、次镜、三镜及后续元件到达成像元件。在初始设计与加工误差外,TMA望远镜的系统波前像差主要受到主镜面形误差、次镜位姿误差与三镜位姿误差的影响。光学镜面口径越大,面形的峰谷值(peak to valley,PV)值与均方根(Root MeanSquare,RMS)值难以控制,加工难度大,温度变化以及支撑结构的应力作用,容易产生面形误差。主镜通常作为光学系统的入射光瞳,口径大,通常存在以像散为主导的面形误差。主镜面形误差由泽尼克(Zernike)多项式表示。如式(1)所示:
其中,Ci表示第i项的系数。
基于矢量像差理论,存在位姿误Zi(ρ,φ)差下三阶像差表示为式(2):
其中,H为归一化视场矢量,ρ为归一化光瞳矢量,φ为视场矢量与光瞳矢的夹角,j表示光学表面的序号。W040为球差系数,W131为彗差系数,W222为像散系数,W222为场曲系数,W311为畸变系数。为像差场偏移矢量,取决于元件的偏心与倾斜。像差场偏移矢量用来描述像差场中心相对于系统视场中心的偏移。元件的位姿误差不会影响系统的球差,但对彗差、像散会有影响。
步骤102:建立主动校正元件位姿误差与对应离焦PSF图像的数据集:基于步骤101中的光学系统,向光学系统中引入不同的次镜位姿误差,即X、Y方向的偏心、倾斜、沿Z轴平移,在固定视场上获取相应的离焦面PSF图像与对应的位姿误差作为数据集。
步骤103:建立CNN网络模型:根据离焦PSF对次镜位姿误差的预测属于回归任务。使用的卷积神经网络以离焦PSF图像作为输入,离焦PSF图像对应的次镜位姿误差作为卷积神经网络的输出。根据输入和输出搭建回归卷积神经网络。
步骤104:使用步骤102的产生的数据集训练步骤103中搭建的CNN网络模型
配置网络训练所需参数:初始学习率、批处理大小、权值初始化方式、权值衰减系数、优化方法、迭代次数。
损失函数以位姿误差量的预测值与真值之间的均方根误差MSE作为损失函数,如式(3)所示:
其中,fi是神经网络的预测值,yi是实际值。
使用步骤102中的数据集对步骤103中的卷积神经网络进行训练,使用卷积神经网络拟合主动校正元件位姿误差与存在主动校正元件位姿误差下的系统离离焦PSF之间的非线性关系,训练好的神经网络能够根据离焦PSF图像预测主动校正元件的位姿误差。
步骤105:获取校正样本:基于步骤101的光学系统,向系统中引入主镜面形误差、次镜位姿误差与三镜位姿误差,获取固定视场上对应的离焦PSF,步骤105的视场设置应与步骤102保持一致。
步骤106:计算主动校正元件的调整量:将步骤105中的离焦PSF作为输入,送入步骤104中已训练好的卷积神经网络中,得到卷积神经网络的输出。
步骤107:将步骤106中神经网络的输出的负值作为主动校正元件的调整量,将调整量带入步骤105中存在主镜面形误差、次镜位姿误差、三镜位姿误差的系统中,完成TMA望远镜的像差校正,提高TMA望远镜的成像质量。
有益效果:
1、本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法,在同时存在主镜面形误差、次镜位姿误差、三镜位姿误差时,使用卷积神经网络计算主动元件调整量,解决像差校正中面形误差与位姿误差引起的像差耦合问题。
2、本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法,是利用神经网络直接解算调整量的方法,速度快,不需要重复性地移动校正器件,避免过多消耗机械使用寿命。
3、本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法,不需要利用波前传感器或者使用PD、PR的方法传感系统波前信息,根据离焦面光强信息即可指导主动校正元件进行调整,避免增加系统复杂度,降低校正成本。
4、本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法,对像差来源的因素考虑较全,主动校正元件在像差校正过程中,能够矫正主镜因加工或者形变产生的像差以及自身和三镜的位姿误差,提高TMA望远镜的成像质量。
附图说明
图1本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法流程图;
图2本发明公开的基于CNN的TMA望远镜面形、位姿误差在轨校正方法使用的TMA望远镜的结构图;
图3是本发明使用的TMA望远镜的次镜位姿误差对像差影响的特性分析。
图4是本发明使用的TMA望远镜的三镜位姿误差对像差影响的特性分析。
图5是本发明中使用的卷积神经网络结构图。
图6是本发明中使用的TMA望远镜在不同次镜位姿误差下的离焦PSF数据样本示例图。
图7是本发明针对主镜面形误差、次镜位姿误差、三镜位姿误差校正前后的焦面对比示例图。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合附图和实例对发明内容做进一步说明。
实施例1:
本实施例公开的一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,建立典型TMA望远镜系统,分析像差特性。建立用于预测主动校正元件误差的神经网络模型。利用该模型与同时存在面形误差与位姿误差下的系统离焦PSF计算出主动元件的调整量。根据调整量反向调整主动校正元件以使面形误差、位姿误差引起的影响互相抵消补偿,即采用深度学习方法实现空间光学遥感系统在轨像差校正,实现TMA望远镜高质量成像。本实施例的流程图如图1所示。
本实施例公开的一种基于CNN的TMA望远镜面形、位姿误差在轨校正方法,具体实现步骤如下:
步骤101:建立TMA望远镜系统。
步骤101中所述的TMA望远镜系统是典型望远镜系统,超新星/加速探测器(SuperNova/Acceleration Probe,SNAP)系统。其结构如图2所示,由三个反射镜组成,分别为主镜、次镜、三镜。无穷远处的光线依次经过主镜、次镜、三镜及后续元件到达成像面。在初始设计与加工误差外,成像质量主要受到主镜面形误差、次镜位姿误差与三镜位姿误差的影响。光学镜面口径越大,面形的峰谷值(peak to valley,PV)值与均方根(Root MeanSquare,RMS)值难以控制,加工难度大,温度变化以及支撑结构的应力作用,容易产生面形误差。主镜通常作为光学系统的入射光瞳,口径大,通常存在以像散为主导的面形误差。主镜面形误差由泽尼克(Zernike)多项式表示。
其中,Ci表示第i项Zi(ρ,φ)的系数。
基于矢量像差理论,存在位姿误差下三阶像差表示为式(2):
其中,H为归一化视场矢量,ρ归一化光瞳矢量,φ为视场矢量与光瞳矢的夹角,j表示光学表面的序号。w040为球差系数,w131为彗差系数,w222为像散系数,w220为场曲系数,w311为畸变系数。为像差场偏移矢量,取决于元件的偏心与倾斜。像差场偏移矢量用来描述像差场中心相对于系统视场中心的偏移。元件的位姿误差不会影响系统的球差,但对彗差、像散会有影响。
步骤101中建立的TMA望远镜,SNAP系统的次镜引起的像差特性如图3所示,次镜的偏心会引起慧差,即Zernike多项式的第7,8项;次镜的倾斜会引起慧差与像散,即Zernike多项式的第5、6、7、8项。SNAP系统的三镜引起的像差特性如图4所示,三镜的偏心会引起慧差,即Zernike多项式的第7,8项;三镜的倾斜会引起慧差与像散,即Zernike多项式的第5、6、7、8项。次镜沿着Z方向的平移只会引起离焦,即Zernike多项式的第4项。次镜与三镜的位姿误差引起的像差项相同,且与主镜面形误差引起的像差项耦合。故主动次镜可以校正失调系统中的离焦,慧差,像散。
步骤102:建立主动校正元件位姿误差与对应离焦PSF图像的数据集:基于步骤101建立的SNAP系统,向初始状态的光学系统中引入不同的次镜位姿误差,即X、Y方向的偏心Dx、Dy、倾斜Tx、Ty、沿Z轴平移Dz,在(-0.5°,0.5°)视场上获取相应的离焦面PSF图像与对应的位姿误差作为数据集,离焦PSF数据的尺寸为128×128×40000,标签尺寸为5×40000。将其中36000组作为训练集,2000组作为测试集,2000组作为验证集。不同次镜位姿误差与对应的离焦面图像的数据样本示例如图5所示。
步骤103:建立CNN网络模型:根据离焦PSF对次镜位姿误差的预测属于回归任务。使用的卷积神经网络以离焦PSF图像作为输入,离焦PSF图像对应的次镜位姿误差作为卷积神经网络的输出。根据输入和输出搭建回归卷积神经网络。
步骤103中建立的回归任务的卷积神经网络如图6所示。神经网络由三个卷积层、三个池化层、一个随机失活层、三个全连接层组成。离焦PSF图像一次经过11×11(64)的卷积层、2×2(64)的池化层、11×11(192)的卷积层、2×2的池化层、11×11(384)的卷积层,后经过全连接层将图像特征信息转化为向量信息,再经过两个全连接层。最后一个全连接层的神经元个数为5,对应了主动校正元件的五个调整量。
步骤104:使用步骤102的产生的数据集训练步骤103中搭建的CNN网络模型
配置网络训练所需参数:初始学习率为0.001、批处理大小为50、初始权值随机化、权值衰减系数为0.5、优化器为Adam、迭代次数300。
损失函数以位姿误差量的预测值与真值之间的均方根误差MSE作为损失函数,如式(3)所示:
其中,fi是神经网络的预测值,yi是实际值,n是训练样本数。
使用步骤2.1中的数据集对步骤2.2中的卷积神经网络进行训练,使用卷积神经网络拟合主动校正元件位姿误差与存在主动校正元件位姿误差下的系统离离焦PSF之间的非线性关系,训练好的神经网络能够根据离焦PSF图像预测主动校正元件的位姿误差。20000组验证集的位姿预测误差如表1所示。
表1验证集次镜Dx、Dy、的RMSE
步骤105:获取校正样本:基于步骤101的光学系统,向系统中引入主镜面形误差、次镜位姿误差与三镜位姿误差,获取(-0.5°,0.5°)视场上对应的离焦PSF,步骤105的视场设置应与步骤103保持一致。校正样本数量为1000组。主镜面形误差、次镜位姿误差、三镜位姿误差的动态范围如表2~4所示。
表2主镜面形误差的各阶Zernike系数动态范围
表3次镜位姿误差动态范围
表4三镜位姿误差动态范围
步骤106:计算主动校正元件的调整量:将步骤105中的校正样本的离焦PSF作为输入,送入步骤104中已训练好的卷积神经网络中,得到卷积神经网络的输出。
步骤107:将步骤106中神经网络的输出的负值作为主动校正元件的调整量,将调整量带入步骤105中存在主镜面形误差、次镜位姿误差、三镜位姿误差的系统中,即实现了以主动次镜校正光学系统单视场像差的全部步骤。(-0.5°,0.5°)视场校正前后的焦面PSF对比如图所7所示。表5为1000组校正样本校正前后的RMS。
表5校正前的全视场波像差
本实施例所用的软硬件:技嘉魔鹰卡,英特尔CPU11700,深度学习框架tensorflow-gpu版本2.40,keras版本2.4.3,python版本3.7。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.基于CNN的TMA望远镜面形、位姿误差在轨校正方法,其特征在于:包括如下步骤,
步骤101:建立TMA望远镜系统,分析像差特性;
步骤101中所述的TMA望远镜系统由三个反射镜组成,分别为主镜、次镜、三镜;无穷远处的光线依次经过主镜、次镜、三镜及后续元件到达成像元件;在初始设计与加工误差外,TMA望远镜的系统波前像差主要受到主镜面形误差、次镜位姿误差与三镜位姿误差的影响;光学镜面口径越大,面形的峰谷值PV值与均方根RMS值难以控制,加工难度大,温度变化以及支撑结构的应力作用,容易产生面形误差;主镜面形误差由泽尼克Zernike多项式表示;如式(1)所示:
其中,Ci表示第i项的系数;
基于矢量像差理论,存在位姿误Zi(ρ,φ)差下三阶像差表示为式(2):
其中,H为归一化视场矢量,ρ为归一化光瞳矢量,φ为视场矢量与光瞳矢的夹角,j表示光学表面的序号;W040为球差系数,W131为彗差系数,W222为像散系数,W222为场曲系数,W311为畸变系数;为像差场偏移矢量,取决于元件的偏心与倾斜;像差场偏移矢量用来描述像差场中心相对于系统视场中心的偏移;元件的位姿误差不会影响系统的球差,但对彗差、像散会有影响;
步骤102:建立主动校正元件位姿误差与对应离焦PSF图像的数据集:基于步骤101中的光学系统,向光学系统中引入不同的次镜位姿误差,即X、Y方向的偏心、倾斜、沿Z轴平移,在固定视场上获取相应的离焦面PSF图像与对应的位姿误差作为数据集;
步骤103:建立CNN网络模型:根据离焦PSF对次镜位姿误差的预测属于回归任务;使用的卷积神经网络以离焦PSF图像作为输入,离焦PSF图像对应的次镜位姿误差作为卷积神经网络的输出;根据输入和输出搭建回归卷积神经网络;
步骤104:使用步骤102的产生的数据集训练步骤103中搭建的CNN网络模型;
步骤105:获取校正样本:基于步骤101的光学系统,向系统中引入主镜面形误差、次镜位姿误差与三镜位姿误差,获取固定视场上对应的离焦PSF,步骤105的视场设置应与步骤102保持一致;
步骤106:计算主动校正元件的调整量:将步骤105中的离焦PSF作为输入,送入步骤104中已训练好的卷积神经网络中,得到卷积神经网络的输出;
步骤107:将步骤106中神经网络的输出的负值作为主动校正元件的调整量,将调整量带入步骤105中存在主镜面形误差、次镜位姿误差、三镜位姿误差的系统中,完成TMA望远镜的像差校正,提高TMA望远镜的成像质量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487161.2A CN114994859B (zh) | 2022-05-06 | 2022-05-06 | 基于cnn的tma望远镜面形、位姿误差在轨校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210487161.2A CN114994859B (zh) | 2022-05-06 | 2022-05-06 | 基于cnn的tma望远镜面形、位姿误差在轨校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114994859A true CN114994859A (zh) | 2022-09-02 |
CN114994859B CN114994859B (zh) | 2023-05-12 |
Family
ID=83026074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210487161.2A Active CN114994859B (zh) | 2022-05-06 | 2022-05-06 | 基于cnn的tma望远镜面形、位姿误差在轨校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114994859B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116609942A (zh) * | 2023-07-18 | 2023-08-18 | 长春理工大学 | 一种分孔径压缩感知偏振超分辨率成像系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112880986A (zh) * | 2021-03-26 | 2021-06-01 | 北京理工大学 | 基于卷积神经网络的拼接式望远镜平移误差检测方法 |
CN113031201A (zh) * | 2021-03-15 | 2021-06-25 | 中国科学院长春光学精密机械与物理研究所 | 一种在轨补偿主镜曲率半径误差影响的调整方法 |
CN113066021A (zh) * | 2021-03-15 | 2021-07-02 | 中国科学院长春光学精密机械与物理研究所 | 基于图像特征匹配的空间望远镜在轨像差补偿方法 |
CN113568151A (zh) * | 2021-07-27 | 2021-10-29 | 西安航空学院 | 一种用于实现高分辨的大口径拼接主镜光学系统 |
-
2022
- 2022-05-06 CN CN202210487161.2A patent/CN114994859B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113031201A (zh) * | 2021-03-15 | 2021-06-25 | 中国科学院长春光学精密机械与物理研究所 | 一种在轨补偿主镜曲率半径误差影响的调整方法 |
CN113066021A (zh) * | 2021-03-15 | 2021-07-02 | 中国科学院长春光学精密机械与物理研究所 | 基于图像特征匹配的空间望远镜在轨像差补偿方法 |
CN112880986A (zh) * | 2021-03-26 | 2021-06-01 | 北京理工大学 | 基于卷积神经网络的拼接式望远镜平移误差检测方法 |
CN113568151A (zh) * | 2021-07-27 | 2021-10-29 | 西安航空学院 | 一种用于实现高分辨的大口径拼接主镜光学系统 |
Non-Patent Citations (1)
Title |
---|
刘柱: "离轴望远镜失调误差检测技术研究", 《中国博士学位论文数据库》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116609942A (zh) * | 2023-07-18 | 2023-08-18 | 长春理工大学 | 一种分孔径压缩感知偏振超分辨率成像系统及方法 |
CN116609942B (zh) * | 2023-07-18 | 2023-09-22 | 长春理工大学 | 一种分孔径压缩感知偏振超分辨率成像方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114994859B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6481149B2 (ja) | 調整機能を最適化した投影露光装置 | |
CN109031654A (zh) | 一种基于卷积神经网络的自适应光学校正方法及系统 | |
CN1987547B (zh) | 一种利用望远镜次镜自动校正望远镜像差的装置 | |
CN110207835A (zh) | 一种基于离焦图像训练的波前校正方法 | |
CN113066021B (zh) | 基于图像特征匹配的空间望远镜在轨像差补偿方法 | |
CN111507049B (zh) | 一种镜头像差仿真及优化方法 | |
US11386246B2 (en) | Method for designing hybrid surface optical system | |
US20180210180A1 (en) | Off-axis hybrid surface three-mirror optical system | |
CN114994859B (zh) | 基于cnn的tma望远镜面形、位姿误差在轨校正方法 | |
WO2020181151A1 (en) | System and method of wavefront sensing with engineered images | |
CN110764257A (zh) | 光学系统初始结构生成方法 | |
Feng et al. | A wide-FoV athermalized infrared imaging system with a two-element lens | |
CN111694016A (zh) | 一种非干涉合成孔径超分辨成像重构方法 | |
Liu et al. | Misalignment calculation on off-axis telescope system via fully connected neural network | |
Roberts et al. | Performance of the adaptive optics system for Laser Communications Relay Demonstration’s Ground Station 1 | |
CN115933159A (zh) | 一种实时高精度波前畸变相位补偿系统 | |
CN110673331B (zh) | 一种大口径望远镜主动光学自适应加力方法及装置 | |
CN117406429A (zh) | 自由曲面光学系统的降敏设计方法 | |
CN117268259A (zh) | 一种基于cnn的大动态范围次镜位置误差检测方法 | |
Li et al. | Active compensation for perturbed coaxial reflecting space telescope using defocus point spread function and convolutional neural network | |
Kim et al. | Model predictive control of time-varying aberrations for sensorless adaptive optics | |
CN114859552B (zh) | 一种基于深度学习的离轴望远镜低阶像差校正方法 | |
CN113834443B (zh) | 基于虚拟干涉仪法的瑞奇-康芒检测方法及系统 | |
CN116699838A (zh) | 一种基于点扩散函数的望远镜像差校正方法 | |
CN116841204A (zh) | 一种基于深度学习的自适应光学系统自主控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |