CN110332990A - 一种基于深度学习的大气湍流实时补偿方法及系统 - Google Patents
一种基于深度学习的大气湍流实时补偿方法及系统 Download PDFInfo
- Publication number
- CN110332990A CN110332990A CN201910438477.0A CN201910438477A CN110332990A CN 110332990 A CN110332990 A CN 110332990A CN 201910438477 A CN201910438477 A CN 201910438477A CN 110332990 A CN110332990 A CN 110332990A
- Authority
- CN
- China
- Prior art keywords
- light
- atmospheric turbulance
- polarization direction
- real
- indicate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000010287 polarization Effects 0.000 claims abstract description 104
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 23
- 239000000523 sample Substances 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 8
- 238000004088 simulation Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 4
- 230000001869 rapid Effects 0.000 claims description 2
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000399 optical microscopy Methods 0.000 description 1
- 238000010587 phase diagram Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J1/4257—Photometry, e.g. photographic exposure meter using electric radiation detectors applied to monitoring the characteristics of a beam, e.g. laser beam, headlamp beam
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/28—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Polarising Elements (AREA)
Abstract
本发明公开了一种基于深度学习的大气湍流实时补偿方法及系统,所述方法包括以下步骤:将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;对合束的光中X偏振方向的光和Y偏振方向的光上分别加载相同的大气湍流相位屏后进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏并取反后加载到合束的光上,以对X偏振方向的光进行实时的大气湍流补偿。由于卷积神经网络经过训练后对湍流相位屏具有比较好的预测能力,能够对涡旋光进行实时的湍流相位补偿。相比传统的湍流补偿方案,本发明的湍流实时补偿方法具有实施过程简单、方便以及直观等特点,适用于高速、高精度的任意湍流条件下的实时补偿。
Description
技术领域
本发明涉及人工智能以及信息光学领域,尤其涉及的是一种基于深度学习的大气湍流实时补偿方法及系统。
背景技术
轨道角动量(Orbital Angular Momentum,OAM)光束是一种具有空间螺旋相位的结构化光束。由于其相位奇点的存在,OAM光束呈现出类似“甜甜圈”的强度分布。OAM光束的螺旋型相位分布可用相位函数exp(ilθ)来描述,每一光子上携带有的轨道角动量,其中l为涡旋光的拓扑荷数,θ是方位角,是普朗克常数除以2π。也就是说,一束单色OAM光束的每一光子理论上可同时携带自旋角动量(SAM)和轨道角动量(OAM),它们分别影响着涡旋光的偏振和空间分布。理论上,OAM光束的拓扑荷l可以取任意的整数值,并且不同OAM光束的模态是完全正交的,这就使得OAM光束具有许多显著的光学特性,在光学捕获、光学显微成像、量子信息和光学通信等领域有着广阔的应用前景。另外许多研究工作已经证实,OAM光束相比普通高斯光束存在额外的调控自由度,可以利用OAM进行复用调制来提高通信能力和频谱效率。但是因为大气湍流的存在,引起OAM光束在传输过程中的畸变,这种畸变会对信息的传输造成严重串扰,现有的湍流校正技术无法进一步提升通信系统的性能。
因此,现有技术还有待于改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于深度学习的大气湍流实时补偿方法及系统,旨在更好的解决大气湍流对信息的传输造成严重串扰的问题。
本发明解决技术问题所采用的技术方案如下:
一种基于深度学习的大气湍流实时补偿方法,其中,包括以下步骤:
将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;
对合束的光中X偏振方向的光和Y偏振方向上的光分别加载相同的大气湍流相位屏;
将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;
根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;
将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿。
所述的基于深度学习的大气湍流实时补偿方法,其中,所述训练好的卷积神经网络采用如下步骤得到:
将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练;
当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
所述的基于深度学习的大气湍流实时补偿方法,其中,所述损失函数为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,Relu(·)表示激活函数,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号。
所述的基于深度学习的大气湍流实时补偿方法,其中,所述预测到的大气湍流相位屏为:
其中,表示预测到的大气湍流相位屏,θopt=min(L(f(x,θ),y)),min表示取最小操作。
所述的基于深度学习的大气湍流实时补偿方法,其中,所述将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束步骤具体包括:
将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束。
一种基于深度学习的大气湍流实时补偿系统,其中,包括:
涡旋光和参考光产生装置,用于将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;
湍流相位屏加载装置,用于对合束的光中X偏振方向上的光和Y偏振方向上的光分别加载相同的大气湍流相位屏;
光强检测装置,用于将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;
湍流预测和补偿装置,用于根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;并将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿。
所述的基于深度学习的大气湍流实时补偿系统,其中,所述湍流预测和补偿装置还用于将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练;且当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
所述的基于深度学习的大气湍流实时补偿系统,其中,所述损失函数为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,Relu(·)表示激活函数,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号。
所述的基于深度学习的大气湍流实时补偿系统,其中,所述预测到的大气湍流相位屏为:
其中,表示预测到的大气湍流相位屏,θopt=min(L(f(x,θ),y)),min表示取最小操作。
所述的基于深度学习的大气湍流实时补偿系统,其中,所述涡旋光和参考光产生装置具体用于将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束。
有益效果:由于卷积神经网络经过训练后对湍流相位屏具有比较好的预测能力,能够对涡旋光进行实时的湍流相位补偿。相比传统的湍流补偿方案,本发明的湍流实时补偿方法具有实施过程简单、方便以及直观等特点,适用于高速、高精度的任意湍流条件下的实时补偿。
附图说明
图1是本发明中基于深度学习的大气湍流实时补偿系统的结构示意图。
图2是本发明中卷积神经网络CNN模型架构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请同时参阅图1-图2,本发明提供了一种基于深度学习的大气湍流实时补偿系统的一些实施例。
如图1-图2所示,本发明的一种基于深度学习的大气湍流实时补偿系统,包括:
涡旋光和参考光产生装置,用于将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;
湍流相位屏加载装置,用于对合束的光中X偏振方向的光和Y偏振方向上的光分别加载相同的大气湍流相位屏;
光强检测装置,用于将带有相同的大气湍流相位信息的合束的光进行分束,并检测分束的光中Y偏振方向上的光的光强分布图;
湍流预测和补偿装置,用于根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;并将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿。
在本发明的一个较佳实施例中,所述涡旋光和参考光产生装置具体用于将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束。
具体地,涡旋光和参考光产生装置包括:第一光源1、第二光源4、第一起偏器2、第二起偏器5、漩涡光产生装置3以及合束装置6;合束装置6位于两个光源的相交点上,第一光源1、第一起偏器2、漩涡光产生装置3以及合束装置6依次排列,第二光源4、第二起偏器5以及合束装置6依次排列。
两个光源均采用波长为1550nm的激光器,两个起偏器分别为X方向、Y方向偏振的格兰棱镜,本实施例中,以第一起偏器2为X方向起偏器,以第二起偏器5为Y方向起偏器。第一光源1发出的高斯光经X方向起偏器后产生X偏振方向的高斯光,然后通过涡旋光产生装置生成X偏振方向的涡旋光。第二光源4发出的高斯光经Y方向起偏器后,产生Y偏振方向的高斯光,并作为探针光束,或者说是Y方向偏振的参考光。
X偏振方向的漩涡光可近似表示为:
其中r为径向分量,θ为角向分量,w0为束腰半径,w(z)为z处的束腰大小,为缔合拉盖尔多项式,l为拓扑荷大小,p为径向参数,zr为瑞利距离,z为光束传输距离,k为波矢,相位因子exp(-ilθ)表示该光束具有螺旋结构,i为虚数单位。
湍流相位屏加载装置位于合束的光的方向上,本实施例中,合束的光的方向与第一光源1发出的光的方向(即水平方向)一致。湍流相位屏加载装置包括:依次设置的X偏振方向敏感的湍流加载装置7和Y偏振方向敏感的湍流加载装置8,X偏振方向敏感的湍流加载装置7采用只对X偏振方向响应的透射式相位型空间光调制器,Y偏振方向敏感的湍流加载装置8采用只对Y偏振方向响应的透射式相位型空间光调制器。合束的光经过湍流相位屏加载装置后使得X偏振方向的涡旋光和Y偏振方向的参考光带有相同的大气湍流相位信息。
相同的大气湍流相位屏采用Hill-Andrews模型模拟,可表示为:
其中φ(x,y)为一个N×N的相位屏,FFT(·)表示傅里叶变换,C为随机复矩阵,ΔL为相位屏的间隔距离,波矢k0=2π/λ,λ为光束的波长,Δz为湍流长度,Φn(kx,ky)为k空间中的相位谱,是反映湍流强度的折射率结构常数,kl=3.3/l0,l0和L0分别是湍流的内尺度和外尺度。
光强检测装置包括:分束装置9和光强检测器10,分束装置9将带有相同的大气湍流相位屏的合束的光进行分束,本实施例中,分束装置9位于第一光源1发出的光的水平方向上,具体地,将合束的光分束成X偏振方向和Y偏振方向的分束的光,光强检测器10检测得到分束的光中Y偏振方向上的光的光强分布图。光强检测器10采用1550nmCCD相机,光强检测器10位于竖直方向上。
X偏振方向的涡旋光和Y偏振方向的参考光被分束装置9分束后形成两路,一路(竖直方向)带有大气湍流相位信息的Y偏振方向的参考光被光强检测器10检测其光强分布得到Y偏振方向上的光的光强分布图,另一路(水平方向)用来传输进行大气湍流补偿的X偏振方向的涡旋光束,以观察补偿前和补偿后的效果。
湍流预测和补偿装置11为计算机,也以采用其他包括存储器和处理器的装置。根据探测到的带有大气湍流相位信息的Y偏振方向的参考光光强分布图,可用湍流预测及补偿装置对大气湍流屏进行预测,预测到的湍流相位屏取反再加载回X偏振敏感的湍流加载装置7(该装置只对X偏振方向响应并加载大气湍流相位屏)上,对带有大气湍流相位信息的X偏振方向的涡旋光进行实时的大气湍流补偿。
值得说明的是,本系统的卷积神经网络经过训练后对湍流相位屏具有比较好的预测能力,能够对涡旋光进行实时的湍流相位补偿,更好地解决大气湍流对信息的传输造成严重串扰的问题。相比传统的湍流补偿方案,本发明的湍流实时补偿系统具有实施过程简单、方便以及直观等特点,适用于高速、高精度的任意湍流条件下的实时补偿。
在本发明的一个较佳实施例中,如图1所示,所述湍流预测和补偿装置11还用于将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练;且当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
具体地,如图2所示,用大量高斯探针光束光强分布图(包括未经和经过大气湍流扰动的)作为样本对计算机上的卷积神经网络CNN进行训练。然后利用训练好的卷积神经网络CNN来预测产生大气湍流相位屏,同时将预测产生的大气湍流相位屏反相后加载到空间光调制器上,实现对涡旋光实时的湍流相位补偿。其中,需要训练的卷积神经网络CNN模型框架包括:输入层、中间层和输出层,这是一个输入单元的信息经过一个或多个中间隐藏单元之后最终到达输出单元的过程。本发明采用的是一个14层(输入层+中间层)的深度卷积神经网络,模型训练的具体流程如下:
输入层:将参考光光强分布探测装置探测得到的受湍流影响的高斯光光强分布图及未受湍流影响的标准高斯光光强分布图12作为神经网络的输入,对CNN模型进行学习训练,每个图片的大小为64*64,按其最大灰度值进行归一化。
中间层:CNN网络包含有13个中间隐藏层,其中包括10个卷积层和3个反卷积层,第一个卷积层13采用5*5的卷积核,其余卷积层14、15、16、17、18、19、20、24、25以及反卷积层21、22、23均采用3*3的卷积核,卷积核就相当于一个滤波器,对输入图片进行特征的提取,其中卷积层14、15、16经过卷积运算之后还进行了最大池化操作,对特征图片进行再次特征提取,提高CNN网络的泛化能力。
输出层:经过大量样本训练的CNN模型预测产生大气湍流相位图26,图片的大小为64*64,最后输出结果被归一化为[0,1];
除最后输出层使用Sigmoid函数外,其他所有层均使用Relu函数作为激活函数。神经网络中激活函数的使用,旨在加入非线性因素,使网络具有更好地解决较为复杂问题的能力。
在CNN模型训练的过程当中,用损失函数来表征模型训练的好坏,随着迭代次数的增加,要求损失函数值越低越好,最好接近于0,来表明我们训练得到的CNN模型精度最高,效果最佳。损失函数可表示为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,激活函数Relu(·)=max(x,0),max(·)表示取最大操作,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号。(yi-f(xi,θ))2用来使网络的输出接近真实值,Relu(yi-f(xi,θ)-a)和Relu(f(xi,θ)-yi-a)用来惩罚相位误差较大的像素,最终可以用θopt=min(L(f(x,θ),y))来得到最佳的参数,min(·)表示取最小操作。最佳参数得到之后,就可以根据高斯探针光的光强分布图x来预测得到大气湍流相位屏
本实施例所述的基于深度学习的大气湍流实时补偿系统,成功利用深度学习中的卷积神经网络CNN模型对大气湍流相位屏进行预测,同时用预测到的大气湍流相位屏对涡旋光进行实时的湍流补偿。
在上述基于深度学习的大气湍流实时补偿系统的基础上,本发明还提供了一种基于深度学习的大气湍流实时补偿方法的较佳实施例:
本发明实施例所述一种基于深度学习的大气湍流实时补偿方法,包括以下步骤:
步骤S100、将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束。
具体地,步骤S100具体包括:
S110、将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束,具体如上所述。
步骤S200、对合束的光中X偏振方向的光和Y偏振方向上的光分别加载相同的大气湍流相位屏,具体如上所述。
步骤S300、将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图,具体如上所述。
步骤S400、根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏。
具体地,所述训练好的卷积神经网络采用如下步骤得到:
步骤S410、将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练。
步骤S420、当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
所述损失函数为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,激活函数Relu(·)=max(x,0),max(·)表示取最大操作,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号,具体如上所述。
所述预测到的大气湍流相位屏为:
其中,表示预测到的大气湍流相位屏,x表示高斯探针光的光强分布图,θopt=min(L(f(x,θ),y)),具体如上所述。
步骤S500、将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿,具体如上所述。
综上所述,本发明所提供的一种基于深度学习的大气湍流实时补偿方法及系统,所述方法包括以下步骤:将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;对合束的光中X偏振方向的光和Y偏振方向的光上分别加载相同的大气湍流相位屏;将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向的光进行实时的大气湍流补偿。由于卷积神经网络经过训练后对湍流相位屏具有比较好的预测能力,能够对涡旋光进行实时的湍流相位补偿。相比传统的湍流补偿方案,本发明的湍流实时补偿方法具有实施过程简单、方便以及直观等特点,适用于高速、高精度的任意湍流条件下的实时补偿。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.一种基于深度学习的大气湍流实时补偿方法,其特征在于,包括以下步骤:
将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;
对合束的光中X偏振方向的光和Y偏振方向上的光分别加载相同的大气湍流相位屏;
将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;
根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;
将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿。
2.根据权利要求1所述的基于深度学习的大气湍流实时补偿方法,其特征在于,所述训练好的卷积神经网络采用如下步骤得到:
将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练;
当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
3.根据权利要求2所述的基于深度学习的大气湍流实时补偿方法,其特征在于,所述损失函数为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,Relu(·)表示激活函数,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号。
4.根据权利要求3所述的基于深度学习的大气湍流实时补偿方法,其特征在于,所述预测到的大气湍流相位屏为:
其中,表示预测到的大气湍流相位屏,θopt=min(L(f(x,θ),y)),min表示取最小操作。
5.根据权利要求1所述的基于深度学习的大气湍流实时补偿方法,其特征在于,所述将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束步骤具体包括:
将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束。
6.一种基于深度学习的大气湍流实时补偿系统,其特征在于,包括:
涡旋光和参考光产生装置,用于将两束光分别处理生成X偏振方向的涡旋光和Y偏振方向的参考光后合束;
湍流相位屏加载装置,用于对合束的光中X偏振方向的光和Y偏振方向上的光分别加载相同的大气湍流相位屏;
光强检测装置,用于将带有相同的大气湍流相位信息的合束的光进行分束,并检测得到分束的光中Y偏振方向上的光的光强分布图;
湍流预测和补偿装置,用于根据分束的光中Y偏振方向上的光的光强分布图,利用训练好的卷积神经网络对大气湍流相位屏进行预测得到预测到的大气湍流相位屏;并将预测到的大气湍流相位屏取反并加载到合束的光上,以对X偏振方向上的光进行实时的大气湍流补偿。
7.根据权利要求6所述的基于深度学习的大气湍流实时补偿系统,其特征在于,所述湍流预测和补偿装置还用于将受湍流影响的高斯光光强分布图和未受湍流影响的标准高斯光光强分布图作为卷积神经网络的输入,对卷积神经网络进行训练;且当损失函数值达到预设阈值时,得到训练好的卷积神经网络。
8.根据权利要求7所述的基于深度学习的大气湍流实时补偿系统,其特征在于,所述损失函数为:
其中,L(·)表示损失函数,θ表示权值参数,x表示高斯探针光的光强分布图,xi表示第i个高斯探针光的光强分布图,y表示数值仿真的大气湍流相位屏,yi表示第i个数值仿真的大气湍流相位屏,f(·)表示预测的大气湍流相位屏,Relu(·)表示激活函数,a表示常数因子,m表示高斯探针光的光强分布图的数目,∑表示求和符号。
9.根据权利要求8所述的基于深度学习的大气湍流实时补偿系统,其特征在于,所述预测到的大气湍流相位屏为:
其中,表示预测到的大气湍流相位屏,θopt=min(L(f(x,θ),y)),min表示取最小操作。
10.根据权利要求6所述的基于深度学习的大气湍流实时补偿系统,其特征在于,所述涡旋光和参考光产生装置具体用于将一束光依次经过X方向起偏器、涡旋光产生装置得到X偏振方向的涡旋光,将另一束光经过Y方向起偏器后得到Y偏振方向的参考光,并将X偏振方向的涡旋光和Y偏振方向的参考光合束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910438477.0A CN110332990B (zh) | 2019-05-24 | 2019-05-24 | 一种基于深度学习的大气湍流实时补偿方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910438477.0A CN110332990B (zh) | 2019-05-24 | 2019-05-24 | 一种基于深度学习的大气湍流实时补偿方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110332990A true CN110332990A (zh) | 2019-10-15 |
CN110332990B CN110332990B (zh) | 2021-08-24 |
Family
ID=68139415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910438477.0A Active CN110332990B (zh) | 2019-05-24 | 2019-05-24 | 一种基于深度学习的大气湍流实时补偿方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110332990B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110729628A (zh) * | 2019-10-22 | 2020-01-24 | 中国人民解放军国防科技大学 | 一种活塞相位控制系统及方法 |
CN111272277A (zh) * | 2020-01-21 | 2020-06-12 | 中国工程物理研究院激光聚变研究中心 | 一种基于神经网络的激光脉冲波形测量畸变校正方法及系统 |
CN112179506A (zh) * | 2020-08-17 | 2021-01-05 | 深圳大学 | 一种混合阶或分数阶涡旋光束模态识别装置及方法 |
CN113225130A (zh) * | 2021-03-25 | 2021-08-06 | 中国人民解放军国防科技大学 | 一种基于机器学习的大气湍流等效相位屏预测方法 |
CN113225136A (zh) * | 2021-03-25 | 2021-08-06 | 中国人民解放军国防科技大学 | 能够实现自适应相位补偿的自由空间量子密钥分发系统 |
CN113239614A (zh) * | 2021-04-22 | 2021-08-10 | 西北工业大学 | 一种大气湍流相位时空预估算法 |
CN114338011A (zh) * | 2021-12-31 | 2022-04-12 | 武汉光谷信息光电子创新中心有限公司 | 一种信号处理装置、方法、设备及存储介质 |
CN114499660A (zh) * | 2021-12-30 | 2022-05-13 | 山东师范大学 | 涡旋光束相位畸变校正方法、系统及通信装置 |
CN116068511A (zh) * | 2023-03-09 | 2023-05-05 | 成都理工大学 | 一种基于深度学习的InSAR大尺度系统误差改正方法 |
US11650351B2 (en) * | 2020-02-12 | 2023-05-16 | Nec Corporation | Semi-supervised deep model for turbulence forecasting |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016022309A1 (en) * | 2014-08-08 | 2016-02-11 | Nxgen Partners Ip, Llc | Systems and methods for focusing beams with mode division multiplexing |
CN108983412A (zh) * | 2018-07-09 | 2018-12-11 | 北京邮电大学 | 一种无波前检测自适应光学系统及光束相位调整方法 |
-
2019
- 2019-05-24 CN CN201910438477.0A patent/CN110332990B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016022309A1 (en) * | 2014-08-08 | 2016-02-11 | Nxgen Partners Ip, Llc | Systems and methods for focusing beams with mode division multiplexing |
CN108983412A (zh) * | 2018-07-09 | 2018-12-11 | 北京邮电大学 | 一种无波前检测自适应光学系统及光束相位调整方法 |
Non-Patent Citations (1)
Title |
---|
REN YONGXIONG 等: "Adaptive optics compensation of multiple orbital angular momentum beams propagating through emulated atmospheric turbulence", 《OPTICS LETTERS》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110729628B (zh) * | 2019-10-22 | 2021-05-25 | 中国人民解放军国防科技大学 | 一种活塞相位控制系统及方法 |
CN110729628A (zh) * | 2019-10-22 | 2020-01-24 | 中国人民解放军国防科技大学 | 一种活塞相位控制系统及方法 |
CN111272277A (zh) * | 2020-01-21 | 2020-06-12 | 中国工程物理研究院激光聚变研究中心 | 一种基于神经网络的激光脉冲波形测量畸变校正方法及系统 |
US11650351B2 (en) * | 2020-02-12 | 2023-05-16 | Nec Corporation | Semi-supervised deep model for turbulence forecasting |
CN112179506A (zh) * | 2020-08-17 | 2021-01-05 | 深圳大学 | 一种混合阶或分数阶涡旋光束模态识别装置及方法 |
CN112179506B (zh) * | 2020-08-17 | 2021-11-23 | 深圳大学 | 一种混合阶或分数阶涡旋光束模态识别装置及方法 |
CN113225136B (zh) * | 2021-03-25 | 2022-09-16 | 中国人民解放军国防科技大学 | 能够实现自适应相位补偿的自由空间量子密钥分发系统 |
CN113225130A (zh) * | 2021-03-25 | 2021-08-06 | 中国人民解放军国防科技大学 | 一种基于机器学习的大气湍流等效相位屏预测方法 |
CN113225136A (zh) * | 2021-03-25 | 2021-08-06 | 中国人民解放军国防科技大学 | 能够实现自适应相位补偿的自由空间量子密钥分发系统 |
CN113239614A (zh) * | 2021-04-22 | 2021-08-10 | 西北工业大学 | 一种大气湍流相位时空预估算法 |
CN114499660A (zh) * | 2021-12-30 | 2022-05-13 | 山东师范大学 | 涡旋光束相位畸变校正方法、系统及通信装置 |
CN114338011A (zh) * | 2021-12-31 | 2022-04-12 | 武汉光谷信息光电子创新中心有限公司 | 一种信号处理装置、方法、设备及存储介质 |
CN114338011B (zh) * | 2021-12-31 | 2024-05-07 | 武汉光谷信息光电子创新中心有限公司 | 一种信号处理装置、方法、设备及存储介质 |
CN116068511A (zh) * | 2023-03-09 | 2023-05-05 | 成都理工大学 | 一种基于深度学习的InSAR大尺度系统误差改正方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110332990B (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110332990A (zh) | 一种基于深度学习的大气湍流实时补偿方法及系统 | |
Liu et al. | Deep learning based atmospheric turbulence compensation for orbital angular momentum beam distortion and communication | |
Wang et al. | One-step robust deep learning phase unwrapping | |
Klug et al. | Robust structured light in atmospheric turbulence | |
Divitt et al. | Spatial coherence of sunlight and its implications for light management in photovoltaics | |
Bae et al. | Modeling light propagation through bacterial colonies and its correlation with forward scattering patterns | |
Vannier et al. | Active polarimetric imager with near infrared laser illumination for adaptive contrast optimization | |
Orban De Xivry et al. | Focal plane wavefront sensing using machine learning: performance of convolutional neural networks compared to fundamental limits | |
Védrenne et al. | Laser beam complex amplitude measurement by phase diversity | |
Neary et al. | Machine learning-based signal degradation models for attenuated underwater optical communication OAM beams | |
Fu et al. | Measuring OAM by the hybrid scheme of interference and convolutional neural network | |
Berezhnyy et al. | Time-resolved Mueller matrix imaging polarimetry | |
Wu et al. | PredictionNet: a long short-term memory-based attention network for atmospheric turbulence prediction in adaptive optics | |
CN106644104B (zh) | 一种基于谱反演法的离散雨滴介质的相位屏建模方法 | |
Wang et al. | Comparison between non-modulation four-sided and two-sided pyramid wavefront sensor | |
Boruah et al. | Susceptibility to and correction of azimuthal aberrations in singular light beams | |
Li et al. | Fundamental performance of transverse wind estimator from Shack-Hartmann wave-front sensor measurements | |
Naglič et al. | OpenCL framework for fast estimation of optical properties from spatial frequency domain images | |
LeMaster et al. | Joint object classification and turbulence strength estimation using convolutional neural networks | |
Zhu et al. | More Zernike modes’ open-loop measurement in the sub-aperture of the Shack–Hartmann wavefront sensor | |
Wu et al. | VMFNet: visual-microwave dual-modality real-time target detection model for detecting damage to curved radar absorbing materials | |
Vishniakou et al. | Differentiable optimization of the Debye-Wolf integral for light shaping and adaptive optics in two-photon microscopy | |
Montera et al. | Processing wave-front-sensor slope measurements using artificial neural networks | |
Lv et al. | Identification of diffracted vortex beams at different propagation distances using deep learning | |
Gao et al. | Atmospheric turbulence strength estimation using convolution neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |