CN112880986A - 基于卷积神经网络的拼接式望远镜平移误差检测方法 - Google Patents

基于卷积神经网络的拼接式望远镜平移误差检测方法 Download PDF

Info

Publication number
CN112880986A
CN112880986A CN202110328594.9A CN202110328594A CN112880986A CN 112880986 A CN112880986 A CN 112880986A CN 202110328594 A CN202110328594 A CN 202110328594A CN 112880986 A CN112880986 A CN 112880986A
Authority
CN
China
Prior art keywords
layer
cnn
network
activation function
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110328594.9A
Other languages
English (en)
Other versions
CN112880986B (zh
Inventor
赵伟瑞
王浩
张璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110328594.9A priority Critical patent/CN112880986B/zh
Publication of CN112880986A publication Critical patent/CN112880986A/zh
Application granted granted Critical
Publication of CN112880986B publication Critical patent/CN112880986B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0271Testing optical properties by measuring geometrical properties or aberrations by using interferometric methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于卷积神经网络的拼接式望远镜平移误差检测方法,属于光电测量技术领域。本发明首先通过随机设置参考子镜与测试镜的piston值,进而收集一定数量的系统焦面上的光强分布图像即点扩散函数(PointSpreadFunction,PSF)图像,将这些图像作为数据集分别对一个分类CNN和一个回归CNN进行训练,训练完成后的分类CNN能够根据单张PSF图像输出子镜间piston误差的大致范围,实现对待测子镜的粗调,回归CNN可以通过输入单张PSF图像准确输出子镜间piston误差的值,实现对待测子镜的精调。将两个CNN配合使用,可实现对大范围的子镜间平移误差的高精度的检测。

Description

基于卷积神经网络的拼接式望远镜平移误差检测方法
技术领域
本发明涉及一种基于卷积神经网络的拼接式望远镜平移误差检测方法,属于光电测量技术领域。
背景介绍
随着对太空探索的需求不断增加,所需望远镜的分辨率也越来越高。为了获得高分辨率,必须增大望远镜的口径。目前,受到光学材料、加工工艺、镜面检测、成本等多方面因素的限制,制造10m以上的单口径主镜望远镜非常困难。当前,大多数大型望远镜使用分块主镜来获得高分辨率,如欧洲超大型望远镜(E-ELT)的主镜直径为42m,由984块子镜组成;三十米望远镜(TMT)主镜由492个外接圆直径为1.4m的六边形子镜拼接而成。
拼接主镜式望远镜虽具有高分辨性能的实现,但需各子镜之间共相位拼接以接近衍射极限成像,为了获得与单片镜相当的空间分辨率,子镜之间的光程差(OPD)应至少减小到λ/40RMS(Root Mean Square)。针对共相位误差检测各界均展开了深入研究,并提出了许多检测方法。2001年,天文学家Esposito S和Devaney N提出用金字塔波前传感器检测拼接子镜间的piston误差,其基本原理是:相邻两子镜间存在piston误差时,像面(出瞳共轭面)对应位置处光强发生跃变,幅值与piston误差成正弦函数关系。但是,该方法受到2π不定性的影响,测量范围仅限于±λ/4以内,并且当piston误差较大时,信号幅值与piston呈现出严重的非线性。2012年,JWST空间望远镜采用色散条纹法实现粗共相位误差检测。该方法在夏克-哈特曼检测光路中引入色散元件,将采集到的不同波长的衍射光斑沿平行于子镜交界方向进行色散,干涉条纹进行过光源光谱修正、探测器光谱响应修正等预处理后,用最小二乘法拟合可得到piston误差与焦面光强分布的函数关系,该方法的测量范围通常为100μm,精度优于100nm。但当piston误差小于0.25λ时,由于每一行的光强变化很小,参数拟合十分困难。2020年,北京理工大学的惠梅和李伟倩提出一种采用基于深度学习策略的不依赖成像目标的拼接镜共相位误差检测方法,该方法利用焦面强度图像和离焦面图像构建神经网络的数据集,训练后的网络能够根据输入强度图像直接输出子镜间的piston误差值。此方法精度优于50nm,且不受成像目标的影响,但是该方法没有能够消除2π歧义,仅在一个波长范围内有效,无法实现大的误差测量范围。现有piston检测方法难以在不依靠复杂硬件设备的情况同时实现大范围并且高精度的测量,因此有必要提出一种操作简便、不依靠硬件设备的高精度大范围的piston检测方法。
发明内容
本发明的目的是为了解决现有方法在不添加额外复杂硬件设备的情况下难以同时保证测量范围和精度的问题,提供一种基于卷积神经网络的拼接式望远镜平移误差检测方法,该方法首先通过随机设置参考子镜与测试镜的piston值,进而收集一定数量的系统焦面上的光强分布图像即点扩散函数(Point Spread Function,PSF)图像,将这些图像作为数据集分别对一个分类卷积神经网络和一个回归CNN进行训练,训练完成后的分类CNN能够根据单张PSF图像输出子镜间piston误差的大致范围,实现对待测子镜的粗测,回归CNN可以通过输入单张PSF图像准确输出子镜间piston误差的值,实现对待测距离的精测。将两个CNN配合使用,可实现对大范围的子镜间平移误差的高精度的测量。该方法能够实现等同于输入光源相干长度的测量范围以及亚纳米量级的测量精度。
基于卷积神经网络的拼接式望远镜平移误差检测方法,包括如下步骤:
步骤一、获取PSF图像。宽光谱平行光光源发出的光束,部分照射到参考子镜,作为参考光,部分照射到待测子镜,作为检测光。参考光和检测光经过望远镜次镜反射后进入准直透镜,在参考子镜的共轭面上放置具有离散圆孔的光阑,各圆孔与各子镜相对应,准直透镜出射的光束经过所述光阑后,由聚焦透镜聚焦在焦平面上,焦平面上的光强分布图像即为点扩散函数PSF图像。
步骤二、搭建并训练分类CNN。首先,根据输入及输出的特点,搭建性能良好的分类CNN;然后,通过计算宽光谱光源的相干长度确定分类CNN的最大检测区间,将所述最大检测区间划分为n个子区间,将[-0.4λ,0.4λ]作为中心区间,以0.8λ为步长向两侧延伸进行区间划分,两端子区间的区间长度若不足0.8λ,则以具体数值为准;每个子区间对应着分类CNN的一个输出类别,则分类CNN的输出包含n个类别;然后,在每个子区间内设置m个随机piston值,调整参考子镜和待测子镜间的平移量后,利用步骤一获取各piston值对应的PSF图像;最后,将m×n张PSF图像和相应的类别作为数据集对分类CNN进行迭代训练,直至网络的分类准确率达到预期。
所述根据输入及输出的特点,搭建性能良好的分类CNN的具体实现方式为:
本发明所述分类CNN的输入是PSF图像的像素矩阵、输出是piston值所属区间类别。分类CNN所需实现的功能为:通过分析从CCD上获取的PSF图像进而输出相应piston值的大致范围。PSF图像上包含衍射光斑以及干涉条纹,待测子镜和参考子镜之间存在piston误差会引起干涉条纹的移动,干涉条纹的移动量能够直接反映piston值的大小,因此,网络需要能够准确学习到干涉条纹移动量这一特征与piston值之间的映射关系。CNN是通过卷积层中的卷积核去过滤提取图片中的局部特征,感受野越大图像的空间位置特征能够更好地被提取,因此搭建分类CNN时需要使用大的卷积核来提升感受野。根据以上分析,分类CNN的结构设计如下:
第一部分,卷积层C1+激活函数+池化层P1+归一化层。
·卷积层C1,对输入的像素矩阵进行初次特征提取,此层采用较大的卷积核以获取较大的感受野。
·激活函数,将卷积层输出的特征图输入到激活函数中,激活函数用来加入非线性因素从而增加模型的表达能力。
·池化层P1,池化层可以有效的缩小参数矩阵的尺寸,从而加快计算速度并且能够防止过拟合。池化方式有最大值池化和平均值池化。
·归一化层,采用归一化层能够对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,进而增强模型的泛化能力。
第二部分,卷积层C2+激活函数+池化层P2+归一化层。
·卷积层C2,对输入的特征图进行第二次特征提取,考虑到网络的参数量和运算速度,此层采用的卷积核应小于卷积层C1。
·激活函数,用来加入非线性因素从而增加模型的表达能力。
·池化层P2,进一步缩小参数矩阵的尺寸。
·归一化层,增强模型的泛化能力。
第三部分,卷积层C3+激活函数
·卷积层C3,对输入的特征图进行第二次特征提取,考虑到网络的参数量和运算速度,此层采用的卷积核应略小于卷积层C2。
·激活函数,加入非线性因素。
第四部分,全连接层+激活函数+Dropout层
·全连接层,将前面经过多次卷积后高度抽象化的局部特征进行整合。使用全局卷积的方式实现全连接运算,即在该层使用X个尺寸的卷积核对特征图进行卷积运算,本层使用的卷积核尺寸与卷积层C3输出的特征图的尺寸相同,卷积运算后的特征图尺寸变为X×1×1,也即X个神经元。
·激活函数,X个神经元通过ReLU激活函数生成X个值。
·Dropout层,在网络训练过程中按照一定概率暂时切断部分神经元的连接,进而抑制过拟合。
第五部分,输出层(全连接层+softmax层)
·全连接层,piston误差的大检测区间被划分为n个子区间,相应地分类CNN的输出包含n个类别。将上一层输出的X个数据与n个神经元进行全连接,经过训练后会输出n个浮点类型的值。
·softmax层,softmax函数表达式为:
Figure BDA0002995510600000041
利用softmax函数将n个浮点值y映射为n个概率值P,概率值最大的类别即为分类CNN最终预测结果。
步骤三、搭建并训练回归CNN。根据输入及输出的特点,搭建性能良好的回归CNN。在区间[-0.4λ,0.4λ]内选取w个随机piston值,调整参考子镜和待测子镜间的平移量后,利用步骤1获取各piston值对应的PSF图像,将这w张PSF图像和相应的piston值作为回归CNN的数据集对其进行迭代训练,直至网络的预测精度达到预期。
所述根据输入及输出的特点,设计性能良好的回归CNN的具体实现方式为:
本发明所述回归CNN的输入是PSF图像的像素矩阵、输出是piston值。回归CNN所需实现的功能是:通过分析从CCD上获取的PSF图像进而输出精确的piston值。较之分类CNN,回归CNN需要输出的是一个连续值而不是离散值,回归CNN需要更深的网络以实现更高的精度,而随着网络层数的加深,模型的参数量和计算量会大幅增加,因此搭建回归CNN时不仅要提升网络的预测精度,还需尽可能减少网络计算成本、提升网络收敛速度。根据以上分析,回归CNN的结构设计如下:
第一部分,卷积层C1+BN层+激活函数+卷积层C2+BN层+激活函数+池化层P1。
·卷积层C1,对输入的像素矩阵进行初次特征提取,此层采用较小的卷积核来减少参数量、提升计算速度。
·BN层,随着网络的深度增加,每层特征值分布会逐渐的向激活函数的饱和区间靠近,这样继续下去就会导致梯度消失,BN的作用是将该层特征值分布重新拉回标准正态分布,特征值将落在激活函数对于输入较为敏感的区间,从而避免了梯度的消失,同时也可加快网络收敛。
·激活函数,用来加入非线性因素从而增加模型的表达能力。
·卷积层C2,对输入的特征图进行再一次的抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·池化层P1,缩小参数矩阵的尺寸。
第二部分,卷积层C3+BN层+激活函数+卷积层C4+BN层+激活函数+池化层P2+Dropout。
·卷积层C3,对输入的特征图进行第3次抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·卷积层C4,对输入的特征图进行再一次抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·池化层P2,再一次缩小参数矩阵的尺寸。
·Dropout层,切断部分神经元的连接,进而抑制过拟合。
第三部分,全连接层N1+BN层+激活函数+全连接层N2+BN层+激活函数
·全连接层N1,将前面经过多次卷积后高度抽象化的局部特征进行整合。使用全局卷积的方式实现全连接运算,即在该层使用Y个卷积核对特征图进行卷积运算,本层使用的卷积核尺寸与池化层P2输出的特征图的尺寸相同,卷积运算后的特征图尺寸变为Y×1×1,也即Y个神经元。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·全连接层N2,将上一层输出的Y个数据与Z个神经元进行全连接运算,Z=Y/2。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
第四部分,输出层
·回归CNN可以同时检测多块子镜,回归CNN网络的输出个数等于检测子镜的个数Q。将上一层的Z个神经元与Q个神经元进行全连接,经过训练后会输出Q个浮点类型的值,然后利用线性函数wx+b将网络预测的Q个piston值输出
注:第一部分和第二部分都使用了2个尺寸相同的的小卷积核来代替大的卷积核,这样做能够在保证具有相同感受野的情况下减少30%的参数量,同时还能够提升网络的深度以增强网络的学习能力;第三部分使用了两个全连接层,随着全连接层数的加深,模型非线性表达能力得以提高,从而增强了模型的学习能力。这两种做法都是在尽可能不大量增加参数量的情况下,增加网络的深度,使得回归CNN能够同时兼顾网络预测的精度和运算速度。
步骤四、检测参考子镜与待测子镜之间的piston误差。获取待测望远镜系统的PSF图像,并将其输入至步骤二训练后的分类CNN,根据分类CNN输出的piston误差范围调整测试子镜的位置,调整后再次获取PSF图像并输入分类CNN进行测试,以确保调整后的piston值位于区间[-0.4λ,0.4λ];再次获取调整后的系统的PSF图像,将其输入至回归CNN后得到准确的piston值。
有益效果
1、检测范围大、精度高。本发明利用了分类CNN和回归CNN的各自优势实现了大范围、高精度的分块镜piston误差检测。通过在参考子镜的共轭面上放置具有离散圆孔的光阑在子镜之间引入干涉,这使得PSF数据集包括更多的piston误差细节,从而提高了网络的识别能力。通过选择合适的检测范围,回归CNN可以充分发挥作用,以达到亚纳米水平的检测精度。分类网络仅需几次迭代就可以减小活塞误差范围,从而在不影响算法准确性的基础上扩大了测量范围。
2、简便。本发明不依赖额外的硬件设备,可极大地降低光学系统的复杂性,并且在CCD上获取的PSF图像可直接输入网络,无需对图片进行预先处理;
3、快速。在使用前,预先训练好网络,使用时只需将PSF图像输入网络即可快速得到结果,无需涉及迭代过程;
附图说明
图1为测量分块镜共相位误差光路原理图;
图2为系统点扩散函数;
图3为分类CNN网络结构图;
图4为分类CNN训练过程中准确率变化曲线;
图5为分类CNN测试结果的混淆矩阵;
图6为回归CNN网络结构图;
图7为回归CNN训练过程中损失函数变化曲线;
图8为回归CNN测试结果统计图,其中图(a)为散点图;图(b)为概率直方图;
图9为校正子镜间piston误差的流程图。
具体实施方式
下面结合附图和一个具体实例对本发明进行详细说明。应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
实施例1
本发明的方法用于校正具有拼接主镜式望远镜子镜间的piston误差,光路原理图如图1所示。本例中使用宽带光作为系统的输入光源,光源的中心波长λ0=550nm,谱宽Δλ=100nm。
步骤1,选择其中一个子镜作为参考子镜,入射平行光被参考子镜和待测子镜反射,具有一定的光程差的两反射光波再次被望远镜次镜反射,反射光经过准直透镜变为两束平行光波。在望远镜的共轭面设置带有两个离散圆孔的光阑,两束平行光波分别通过两光阑孔和聚焦透镜,透过聚焦透镜后发生干涉衍射,在聚焦透镜的焦平面上放置探测器,探测器上探测到的光强分布图即为PSF图像,如图2所示。
步骤2,根据干涉原理,当piston误差超过光学成像系统中使用的光的相干长度时,干涉因子将消失,故piston误差的捕获范围受到输入光的相干长度的限制,相干长度Lc的表达式为:
Figure BDA0002995510600000071
将λ0=550nm、Δλ=100nm代入(1)式可得Lc≈3μm,故分类网络的最大检测范围为[-5.2λ,5.2λ],将此区间[-5.2λ,5.2λ]划分为13个子区间,在每个子区间内随机选取2400个piston值,利用步骤1可相应获得PSF图像。子区间的划分情况及分类CNN数据集分布情况见表1,其中k为各个子区间对应的类别。
表1.Piston子区间分布及分类CNN数据集分布表
Figure BDA0002995510600000072
图3为本实例所用的分类CNN的主体结构图,分类网络主干为三个个卷积层、两个最大池化层以及一个全连接层。网络的输入层为PSF图像的像素矩阵,矩阵的形状为(128,128,1)。对应piston值的13个子区间,网络的输出共包含13个类别。本实例中分类CNN的结构具体设计如下:
第一部分,卷积层C1+激活函数+池化层P1+归一化层。
·卷积层C1,输入为128×128×1的像素矩阵,卷积核大小为11×11,卷积核个数为64,卷积移动步长为4,并作了边缘填充,卷积得到的特征图尺寸为128×128×64。
·激活函数,使用ReLU函数作为激活函数。
·池化层P1,池化方式选用最大值池化,使用尺寸为3×3步长为2的池化单元,输出特征图尺寸为64×64×64。
·归一化层,采用LRN(Local Response Normalization,局部响应归一化)层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,进而增强模型的泛化能力。参数设定为:k=2,n=5,α=10-4,β=0.75。输出特征图尺寸仍为64×64×64。
第二部分,卷积层C2+激活函数+池化层P2+归一化层。
·卷积层C2,输入为64×64×64的特征图,卷积核大小为5×5,卷积核个数为192,卷积移动步长为1,并作了边缘填充,卷积得到的特征图尺寸为64×64×192。
·激活函数,使用ReLU函数作为激活函数,将卷积层输出的特征图输入到ReLU函数中。
·池化层P2,池化方式选用最大值池化,使用尺寸为3×3步长为2的池化单元,输出特征图尺寸为32×32×192。
·归一化层,采用LRN层。参数设定为:k=2,n=5,α=10-4,β=0.75。输出特征图尺寸仍为32×32×192。
第三部分,卷积层C3+激活函数
·卷积层C3,输入为32×32×192的特征图,卷积核大小为3×3,卷积核个数为384,卷积移动步长为1,并作了边缘填充,卷积得到的特征图尺寸为32×32×384。
·激活函数,使用ReLU函数作为激活函数,将卷积层输出的特征图输入到ReLU函数中。
第四部分,全连接层+激活函数+Dropout层
·全连接层,输入为32×32×384的特征图,使用全局卷积的方式实现全连接运算,即在该层使用4096个尺寸为32×32×384的卷积核对特征图进行卷积运算,卷积运算后的特征图尺寸变为4096×1×1,也即4096个神经元。
·激活函数,使用ReLU函数作为激活函数,4096个神经元通过ReLU激活函数生成4096个值。
·Dropout层,概率值P设定为0.5。
第五部分,输出层(全连接层+softmax层)
·全连接层,piston误差的大检测区间被划分为13个子区间,相应地分类CNN的输出包含13个类别。将上一层输出的4096个数据与13个神经元进行全连接,经过训练后会输出13个浮点类型的值。
·softmax层,
利用softmax函数将13个浮点值映射为13个概率值P,概率值最大的类别即为分类CNN最终预测结果。
训练过程中应用的损失函数为交叉熵损失函数(Categorical-crossentropy),优化函数选择Adam算法,网络训练环境为python3.7,tensorflow-gpu2.1.0以及keras-gpu2.3.1,训练所用计算机处理器为Intel(R)Core(TM)i7-8750H CPU@2.20GHz,显卡型号为NVIDIA GeForce GTX1060。设置学习率为0.0003、批次大小(Batch-size)为128、最大迭代次数(Epoch)为500。训练过程中准确率的变化曲线如图4所示。训练完成后,利用测试集对网络性能进行测试,测试结果的混淆矩阵如图5所示,分类网络预测的准确率为98.1%。
步骤3,在区间[-0.4λ,0.4λ]内随机选取10000个piston值,利用步骤1可相应获得10000张PSF图像,其中8000张用作回归网络的训练集,2000张用作测试集。回归CNN的网络主体结构如图6所示,网络包含4个卷积层、2个最大池化层、2个全连接层以及6个批量归一化层。网络输入层仍为PSF图像的像素矩阵,网络的输出则是piston值。本实例中回归CNN的结构具体设计如下:
第一部分,卷积层C1+BN层+激活函数+卷积层C2+BN层+激活函数+池化层。
·卷积层C1,输入为128×128×1的像素矩阵,卷积核大小为3×3,卷积核个数为32,卷积移动步长为4,并作了边缘填充,卷积得到的特征图尺寸为128×128×32。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·卷积层C2,输入为128×128×32的特征图,卷积核大小为3×3,卷积核个数为32,卷积移动步长为1,并作了边缘填充,卷积得到的特征图尺寸为128×128×32。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·池化层,池化方式选用最大值池化,使用尺寸为2×2步长为2的池化单元,输出特征图尺寸为64×64×32。
第二部分,卷积层C3+BN层+激活函数+卷积层C4+BN层+激活函数+池化层+Dropout。
·卷积层C3,输入为64×64×32的特征图,卷积核大小为3×3,卷积核个数为64,卷积移动步长为1,并作了边缘填充,卷积得到的特征图尺寸为64×64×64。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·卷积层C4,输入为64×64×64的特征图,卷积核大小为3×3,卷积核个数为64,卷积移动步长为1,并作了边缘填充,卷积得到的特征图尺寸为64×64×64。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·池化层,池化方式选用最大值池化,使用尺寸为2×2步长为2的池化单元,输出特征图尺寸为32×32×64。
·Dropout层,切断部分神经元的连接,进而抑制过拟合,概率值P设定为0.25。
第三部分,全连接层N1+BN层+激活函数+全连接层N2+BN层+激活函数
·全连接层N1,将前面经过多次卷积后高度抽象化的局部特征进行整合。输入为32×32×64的特征图,使用全局卷积的方式实现全连接运算,即在该层使用1024个尺寸为32×32×64的卷积核对特征图进行卷积运算,卷积运算后的特征图尺寸变为1024×1×1,也即1024个神经元。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·全连接层N2,将上一层输出的1024个数据与512个神经元进行全连接运算。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
第四部分,输出层
·回归CNN可以同时检测多块子镜,将上一层的512个神经元与1个神经元进行全连接,经过训练后会输1个浮点类型的值,然后利用线性函数wx+b将网络预测的piston值输出
训练过程中应用的损失函数为均方误差(MSE),优化函数选择Adam算法,网络训练环境以及计算机处理器与分类网络相同。设置学习率为0.00005、批次大小(Batch-size)为256、最大迭代次数(Epoch)为350。训练过程中损失函数(loss)曲线下降情况如图7所示。训练完成后,利用测试集对回归网络的预测精度进行测试,训练结果的散点图以及分布直方图如图8所示。训练集2000个样本对应piston的设定值与网路预测值的误差RMS仅为0.46nm,最大误差不超过1.6nm。
步骤4,经过步骤2和步骤3,两个CNN都已经具备了很好的预测能力,对一个子镜间存在piston误差的望远镜系统进行校正时,可以按照如图9所示的流程图进行操作:(1)按照步骤1获取一张待测系统的PSF图像;(2)将图像输入分类CNN中进行预测,若预测结果为k=0(即piston误差在[-0.4λ,0.4λ]内),则直接进行下一步;若预测结果k≠0,则将测试子镜平移-0.8kλ,调整子镜后再次获取PSF图像并将其输入分类CNN,重复此步骤,直至分类网络预测结果为k=0;(3)将分类网络预测结果为k=0的PSF图像输入回归网络,根据回归网络输出的piston值去精准校正测试子镜,至此操作完成。
操作(2)中仅当分类CNN预测结果为k=0时才会进行下一步操作。观察图5中混淆矩阵的第7列可知:当预测值为0时,网络的预测准确率为100%。故按照此流程进行操作,分类网络1.9%的分类错误率可以被避免。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.基于卷积神经网络的拼接式望远镜平移误差检测方法,其特征在于:包括如下步骤:
步骤一、获取PSF图像;
宽光谱平行光光源发出的光束,部分照射到参考子镜,作为参考光,部分照射到待测子镜,作为检测光;参考光和检测光经过望远镜次镜反射后进入准直透镜,在参考子镜的共轭面上放置具有离散圆孔的光阑,各圆孔与各子镜相对应,准直透镜出射的光束经过所述光阑后,由聚焦透镜聚焦在焦平面上,焦平面上的光强分布图像即为点扩散函数PSF图像;
步骤二、搭建并训练分类CNN;
首先,根据输入及输出的特点,搭建性能良好的分类CNN;
然后,通过计算宽光谱光源的相干长度确定分类CNN的最大检测区间,将所述最大检测区间划分为n个子区间,将[-0.4λ,0.4λ]作为中心区间,以0.8λ为步长向两侧延伸进行区间划分,两端子区间的区间长度若不足0.8λ,则以具体数值为准;每个子区间对应着分类CNN的一个输出类别,则分类CNN的输出包含n个类别;然后,在每个子区间内设置m个随机piston值,利用步骤一获取各piston值对应的PSF图像;最后,将m×n张PSF图像和相应的类别作为数据集对分类CNN进行迭代训练,直至网络的分类准确率达到预期;
步骤三、搭建并训练回归CNN;
根据输入及输出的特点,搭建性能良好的回归CNN;
在区间[-0.4λ,0.4λ]内选取w个随机piston值,利用步骤1获取各piston值对应的PSF图像,将所述w张PSF图像和相应的piston值作为回归CNN的数据集对其进行迭代训练,直至网络的预测精度达到预期;
步骤四、检测参考子镜与待测子镜之间的piston误差;
获取待测望远镜系统的PSF图像,并将其输入至步骤二训练后的分类CNN,根据分类CNN输出的piston误差范围调整测试子镜的位置,调整后再次获取PSF图像并输入分类CNN进行测试,以确保调整后的piston值位于区间[-0.4λ,0.4λ];再次获取调整后的系统的PSF图像,将其输入至回归CNN后得到准确的piston值。
2.如权利要求1所述的基于卷积神经网络的拼接式望远镜平移误差检测方法,其特征在于:步骤二所述根据输入及输出的特点,搭建性能良好的分类CNN的具体实现方式为:
所述分类CNN的输入是PSF图像的像素矩阵、输出是piston值所属区间类别。分类CNN所需实现的功能为:通过分析从CCD上获取的PSF图像进而输出相应piston值的大致范围。PSF图像上包含衍射光斑以及干涉条纹,待测子镜和参考子镜之间存在piston误差会引起干涉条纹的移动,干涉条纹的移动量能够直接反映piston值的大小,因此,网络需要能够准确学习到干涉条纹移动量这一特征与piston值之间的映射关系。CNN是通过卷积层中的卷积核去过滤提取图片中的局部特征,感受野越大图像的空间位置特征能够更好地被提取,因此搭建分类CNN时需要使用大的卷积核来提升感受野。根据以上分析,分类CNN的结构设计如下:
第一部分,卷积层C1+激活函数+池化层P1+归一化层。
·卷积层C1,对输入的像素矩阵进行初次特征提取,此层采用较大的卷积核以获取较大的感受野。
·激活函数,将卷积层输出的特征图输入到激活函数中,激活函数用来加入非线性因素从而增加模型的表达能力。
·池化层P1,池化层可以有效的缩小参数矩阵的尺寸,从而加快计算速度并且能够防止过拟合。池化方式有最大值池化和平均值池化。
·归一化层,采用归一化层能够对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,进而增强模型的泛化能力。
第二部分,卷积层C2+激活函数+池化层P2+归一化层。
·卷积层C2,对输入的特征图进行第二次特征提取,考虑到网络的参数量和运算速度,此层采用的卷积核应小于卷积层C1。
·激活函数,用来加入非线性因素从而增加模型的表达能力。
·池化层P2,进一步缩小参数矩阵的尺寸。
·归一化层,增强模型的泛化能力。
第三部分,卷积层C3+激活函数
·卷积层C3,对输入的特征图进行第二次特征提取,考虑到网络的参数量和运算速度,此层采用的卷积核应略小于卷积层C2。
·激活函数,加入非线性因素。
第四部分,全连接层+激活函数+Dropout层
·全连接层,将前面经过多次卷积后高度抽象化的局部特征进行整合。使用全局卷积的方式实现全连接运算,即在该层使用X个尺寸的卷积核对特征图进行卷积运算,本层使用的卷积核尺寸与卷积层C3输出的特征图的尺寸相同,卷积运算后的特征图尺寸变为X×1×1,也即X个神经元。
·激活函数,X个神经元通过ReLU激活函数生成X个值。
·Dropout层,在网络训练过程中按照一定概率暂时切断部分神经元的连接,进而抑制过拟合。
第五部分,输出层(全连接层+softmax层)
·全连接层,piston误差的大检测区间被划分为n个子区间,相应地分类CNN的输出包含n个类别。将上一层输出的X个数据与n个神经元进行全连接,经过训练后会输出n个浮点类型的值。
·softmax层,softmax函数表达式为:
Figure FDA0002995510590000031
利用softmax函数将n个浮点值y映射为n个概率值P,概率值最大的类别即为分类CNN最终预测结果。
3.如权利要求1所述的基于卷积神经网络的拼接式望远镜平移误差检测方法,其特征在于:步骤三所述根据输入及输出的特点,设计性能良好的回归CNN的具体实现方式为:
所述回归CNN的输入是PSF图像的像素矩阵、输出是piston值。回归CNN所需实现的功能是:通过分析从CCD上获取的PSF图像进而输出精确的piston值。较之分类CNN,回归CNN需要输出的是一个连续值而不是离散值,回归CNN需要更深的网络以实现更高的精度,而随着网络层数的加深,模型的参数量和计算量会大幅增加,因此搭建回归CNN时不仅要提升网络的预测精度,还需尽可能减少网络计算成本、提升网络收敛速度。根据以上分析,回归CNN的结构设计如下:
第一部分,卷积层C1+BN层+激活函数+卷积层C2+BN层+激活函数+池化层P1。
·卷积层C1,对输入的像素矩阵进行初次特征提取,此层采用较小的卷积核来减少参数量、提升计算速度。
·BN层,随着网络的深度增加,每层特征值分布会逐渐的向激活函数的饱和区间靠近,这样继续下去就会导致梯度消失,BN的作用是将该层特征值分布重新拉回标准正态分布,特征值将落在激活函数对于输入较为敏感的区间,从而避免了梯度的消失,同时也可加快网络收敛。
·激活函数,用来加入非线性因素从而增加模型的表达能力。
·卷积层C2,对输入的特征图进行再一次的抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·池化层P1,缩小参数矩阵的尺寸。
第二部分,卷积层C3+BN层+激活函数+卷积层C4+BN层+激活函数+池化层P2+Dropout。
·卷积层C3,对输入的特征图进行第3次抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·卷积层C4,对输入的特征图进行再一次抽象提取,本层所用的卷积核尺寸与卷积层C1相同。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,加入非线性因素从而增加模型的表达能力。
·池化层P2,再一次缩小参数矩阵的尺寸。
·Dropout层,切断部分神经元的连接,进而抑制过拟合。
第三部分,全连接层N1+BN层+激活函数+全连接层N2+BN层+激活函数
·全连接层N1,将前面经过多次卷积后高度抽象化的局部特征进行整合。使用全局卷积的方式实现全连接运算,即在该层使用Y个卷积核对特征图进行卷积运算,本层使用的卷积核尺寸与池化层P2输出的特征图的尺寸相同,卷积运算后的特征图尺寸变为Y×1×1,也即Y个神经元。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
·全连接层N2,将上一层输出的Y个数据与Z个神经元进行全连接运算,Z=Y/2。
·BN层,解决梯度弥散问题,提升网络收敛速度。
·激活函数,使用ReLU函数作为激活函数。
第四部分,输出层
·回归CNN可以同时检测多块子镜,回归CNN网络的输出个数等于检测子镜的个数Q。将上一层的Z个神经元与Q个神经元进行全连接,经过训练后会输出Q个浮点类型的值,然后利用线性函数wx+b将网络预测的Q个piston值输出
注:第一部分和第二部分都使用了2个尺寸相同的的小卷积核来代替大的卷积核,这样做能够在保证具有相同感受野的情况下减少30%的参数量,同时还能够提升网络的深度以增强网络的学习能力;第三部分使用了两个全连接层,随着全连接层数的加深,模型非线性表达能力得以提高,从而增强了模型的学习能力。这两种做法都是在尽可能不大量增加参数量的情况下,增加网络的深度,使得回归CNN能够同时兼顾网络预测的精度和运算速度。
CN202110328594.9A 2021-03-26 2021-03-26 基于卷积神经网络的拼接式望远镜平移误差检测方法 Active CN112880986B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110328594.9A CN112880986B (zh) 2021-03-26 2021-03-26 基于卷积神经网络的拼接式望远镜平移误差检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110328594.9A CN112880986B (zh) 2021-03-26 2021-03-26 基于卷积神经网络的拼接式望远镜平移误差检测方法

Publications (2)

Publication Number Publication Date
CN112880986A true CN112880986A (zh) 2021-06-01
CN112880986B CN112880986B (zh) 2021-12-21

Family

ID=76042539

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110328594.9A Active CN112880986B (zh) 2021-03-26 2021-03-26 基于卷积神经网络的拼接式望远镜平移误差检测方法

Country Status (1)

Country Link
CN (1) CN112880986B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506233A (zh) * 2021-07-08 2021-10-15 西安电子科技大学 基于深度学习的sar自聚焦方法
CN114117904A (zh) * 2021-11-22 2022-03-01 中国科学院光电技术研究所 一种基于卷积神经网络的共相误差校正方法
CN114994859A (zh) * 2022-05-06 2022-09-02 北京理工大学 基于cnn的tma望远镜面形、位姿误差在轨校正方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107894326A (zh) * 2017-10-31 2018-04-10 中国科学院光电技术研究所 一种基于多波长相位调制的拼接主镜共相误差探测方法
CN109668526A (zh) * 2019-01-29 2019-04-23 北京理工大学 基于光学传递函数的高精度测量倾斜角的方法
CN111551351A (zh) * 2020-06-09 2020-08-18 中国科学院长春光学精密机械与物理研究所 一种相邻拼接镜间piston误差检测系统
CN111553866A (zh) * 2020-05-11 2020-08-18 西安工业大学 一种大视场自适应光学系统点扩散函数估计方法
US20200302249A1 (en) * 2019-03-19 2020-09-24 Mitsubishi Electric Research Laboratories, Inc. Systems and Methods for Multi-Spectral Image Fusion Using Unrolled Projected Gradient Descent and Convolutinoal Neural Network
CN112508904A (zh) * 2020-12-02 2021-03-16 长春理工大学 基于bp神经网络的拼接型望远镜平移像差检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107894326A (zh) * 2017-10-31 2018-04-10 中国科学院光电技术研究所 一种基于多波长相位调制的拼接主镜共相误差探测方法
CN109668526A (zh) * 2019-01-29 2019-04-23 北京理工大学 基于光学传递函数的高精度测量倾斜角的方法
US20200302249A1 (en) * 2019-03-19 2020-09-24 Mitsubishi Electric Research Laboratories, Inc. Systems and Methods for Multi-Spectral Image Fusion Using Unrolled Projected Gradient Descent and Convolutinoal Neural Network
CN111553866A (zh) * 2020-05-11 2020-08-18 西安工业大学 一种大视场自适应光学系统点扩散函数估计方法
CN111551351A (zh) * 2020-06-09 2020-08-18 中国科学院长春光学精密机械与物理研究所 一种相邻拼接镜间piston误差检测系统
CN112508904A (zh) * 2020-12-02 2021-03-16 长春理工大学 基于bp神经网络的拼接型望远镜平移像差检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG, HAO, ZHAO, WEIRUI, ZHANG, LU: "High-precision piston detection method for segments based on a single convolutional neural network", 《PROCEEDINGS OF SPIE》 *
赵伟瑞 等: "分块镜共相位误差的电学检测方法", 《红外与激光工程》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506233A (zh) * 2021-07-08 2021-10-15 西安电子科技大学 基于深度学习的sar自聚焦方法
CN113506233B (zh) * 2021-07-08 2024-04-19 西安电子科技大学 基于深度学习的sar自聚焦方法
CN114117904A (zh) * 2021-11-22 2022-03-01 中国科学院光电技术研究所 一种基于卷积神经网络的共相误差校正方法
CN114994859A (zh) * 2022-05-06 2022-09-02 北京理工大学 基于cnn的tma望远镜面形、位姿误差在轨校正方法

Also Published As

Publication number Publication date
CN112880986B (zh) 2021-12-21

Similar Documents

Publication Publication Date Title
CN112880986B (zh) 基于卷积神经网络的拼接式望远镜平移误差检测方法
CN110044498B (zh) 一种基于深度学习的哈特曼波前传感器模式波前复原方法
WO2017053592A1 (en) Deep learning in label-free cell classification and machine vision extraction of particles
CN1987547B (zh) 一种利用望远镜次镜自动校正望远镜像差的装置
CN111551129B (zh) 大口径平面镜的中、低阶面形检测装置、系统及存储介质
CN106802233B (zh) 一种微透镜阵列测试装置及方法
CN111579097B (zh) 基于神经网络的高精度光学散射补偿方法
CN113158487B (zh) 一种基于长短期记忆深度网络的波前相位差探测方法
CN112508904A (zh) 基于bp神经网络的拼接型望远镜平移像差检测方法
CN113340418B (zh) 基于卷积神经网络的光束轨道角动量谱测量方法与系统
Zhao et al. Piston detection in segmented telescopes via multiple neural networks coordination of feature-enhanced images
Gu et al. High-precision wavefront reconstruction from Shack-Hartmann wavefront sensor data by a deep convolutional neural network
Wang et al. Multichannel left-subtract-right feature vector piston error detection method based on a convolutional neural network
CN101285712B (zh) 基于分立光强测量器件的线性相位反演波前传感器
CN110794576A (zh) 一种基于相位调制的光学合成孔径成像望远镜阵列偏心误差探测方法
CN210893429U (zh) 一种离焦型光场相机波前传感器
CN113654670B (zh) 一种基于神经网络的缺光子孔径质心位移估计方法
CN112097682B (zh) 凸透镜的凸面面形检测方法、装置及系统
Allan et al. Deep neural networks to improve the dynamic range of Zernike phase-contrast wavefront sensing in high-contrast imaging systems
CN210293456U (zh) 一种基于反射式随机衍射片的光谱测量装置
Xie et al. Deep learning for estimation of Kirkpatrick–Baez mirror alignment errors
CN116187395A (zh) 一种基于卷积神经网络的分块镜平移和倾斜误差检测方法
Frostig et al. Stray light analysis and reduction for IFU spectrograph LLAMAS
CN112179503A (zh) 基于稀疏子孔径夏克-哈特曼波前传感器的深度学习波前复原方法
Ge et al. Target-independent dynamic wavefront sensing method based on distorted grating and deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant