CN111222538B - 一种涡旋光束模态识别方法、智能终端及存储介质 - Google Patents

一种涡旋光束模态识别方法、智能终端及存储介质 Download PDF

Info

Publication number
CN111222538B
CN111222538B CN201911152800.4A CN201911152800A CN111222538B CN 111222538 B CN111222538 B CN 111222538B CN 201911152800 A CN201911152800 A CN 201911152800A CN 111222538 B CN111222538 B CN 111222538B
Authority
CN
China
Prior art keywords
vortex beam
vortex
mode identification
beam mode
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911152800.4A
Other languages
English (en)
Other versions
CN111222538A (zh
Inventor
李瑛�
熊文杰
王佩佩
刘俊敏
贺炎亮
陈书青
赵改清
高艳霞
范滇元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201911152800.4A priority Critical patent/CN111222538B/zh
Publication of CN111222538A publication Critical patent/CN111222538A/zh
Application granted granted Critical
Publication of CN111222538B publication Critical patent/CN111222538B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本发明提供了一种涡旋光束模态识别方法、智能终端及存储介质,所述方法包括:获取待识别涡旋光束的衍射图样;将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数。本发明通过湍流条件下的衍射图样迭代训练预先建立的卷积神经网络模型得到涡旋光束模态识别模型,然后基于涡旋光束模态识别模型对涡旋光束模态进行识别。涡旋光束模态识别模型具有很强的网络泛化能力,能够快速且准确的检测出湍流条件下畸变涡旋光束的模态,相比于传统模态检测方法具有操作更加简单方便,检测结果效率高等优点,在轨道角动量通信等方面具有广阔的应用前景。

Description

一种涡旋光束模态识别方法、智能终端及存储介质
技术领域
本发明涉及人工智能以及光学技术领域,尤其涉及的是一种涡旋光束模态识别方法、智能终端及存储介质。
背景技术
涡旋光束因其在各种应用中的潜在优势而受到广泛关注。具有螺旋相位的涡旋光束可以用方位角相位因子exp(ilθ)来表征,并且它的每个光子携带轨道角动量(Orbitalangular momentum,OAM),其中l是表征OAM模式的拓扑电荷,θ表示柱坐标系中的方位角。由于光束截面的相位奇异性,涡旋光束呈现出“暗中空”的强度分布。这些空间变化的光场分布使得涡旋光束具有许多独特的光学性质,在粒子捕获和操纵、量子信息以及光通信等领域具有很大的潜力。特别是在光通信领域,涡旋光束的OAM模式理论上无限并且相互正交,这意味着携带OAM的光束可以提供额外的物理自由度来提升通信容量和调制能力。
目前很多研究工作已经证明OAM模式能用来提升OAM复用通信中的容量密度。然而,表现为OAM模式快速切换的位移键控通信由于缺乏有效的识别方法而使其应用受到严重阻碍。现有的OAM模式检测技术包括干涉法和衍射法。这类方法可以得到涡旋光束的干涉和衍射图样并通过人眼观测来实现OAM模式的检测。然而由于人眼分辨率的限制,致使OAM模式检测精度、速率不高,检测范围也很有限。并且在自由空间光通信中,涡旋光束的螺旋相位极易受到大气湍流的影响,这将会导致涡旋光束的OAM模式更难识别。
因此,现有技术有待于进一步的改进。
发明内容
鉴于上述现有技术中的不足之处,本发明的目的在于提供一种涡旋光束模态识别方法、智能终端及存储介质,克服现有得到涡旋光束的干涉和衍射图样后通过人眼观测来实现OAM模式的检测,致使OAM模式检测精度、速率不高,检测范围有限;涡旋光束的螺旋相位极易受到大气湍流的影响,导致涡旋光束的OAM模式识别更加困难的缺陷。
本发明所公开的第一实施例为一种涡旋光束模态识别方法,其中,包括:
获取待识别涡旋光束的衍射图样;
将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数;所述涡旋光束模态识别模型是基于所述衍射图样与所述涡旋光束模态数的对应关系训练而成。
所述的涡旋光束模态识别方法,其中,所述涡旋光束模态识别模型的训练步骤包括:
获取待训练和待测试的涡旋光束衍射图样;
将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型;
将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;若是,则得到已训练的涡旋光束模态识别模型。
所述的涡旋光束模态识别方法,其中,所述获取待训练和待测试的涡旋光束衍射图样的步骤包括:
将激光器产生的杂偏基模高斯光转变为水平偏振的涡旋光束;
对所述水平偏振的涡旋光束进行湍流相位加载和远场衍射,得到待训练和待测试的涡旋光束衍射图样。
所述的涡旋光束模态识别方法,其中,所述将激光器产生的杂偏基模高斯光转变为水平偏振的涡旋光束的步骤包括:
将激光器产生的杂偏基模高斯光转变为水平偏振方向的高斯光;
将所述水平偏振方向的高斯光转变为水平偏振的涡旋光束。
所述的涡旋光束模态识别方法,其中,所述对所述水平偏振的涡旋光束进行湍流相位加载和远场衍射,得到待训练和待测试的涡旋光束衍射图样的步骤包括:
对所述水平偏振的涡旋光束进行湍流相位加载,得到相位畸变的涡旋光束;
对所述相位畸变的涡旋光束进行远场衍射,得到待训练和待测试的涡旋光束衍射图样。
所述的涡旋光束模态识别方法,其中,所述将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型的步骤具体包括:
将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型中,经过信息前向传播过程得到涡旋光束模态数的预测值;
根据所述涡旋光束模态数的预测值和所述涡旋光束模态数的真实值得到损失值,并判断所述损失值是否小于预设第二阈值;
若否,则通过误差反向传播过程对所述卷积神经网络模型的参数进行更新直到所述损失值小于预设第二阈值,得到初始训练的涡旋光束模态识别模型。
所述的涡旋光束模态识别方法,其中,所述将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;若是,则得到已训练的涡旋光束模态识别模型的步骤还包括:
将待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,获取待测试的涡旋光束模态数的预测值;
将所述待测试的涡旋光束模态数的预测值与所述待测试的涡旋光束模态数的真实值进行比较,判断初始训练的涡旋光束模态识别模型的模态识别误差是否在预设第一阈值内;
若是,则将初始训练的涡旋光束模态识别模型作为已训练的涡旋光束模态识别模型。
所述的涡旋光束模态识别方法,其中,所述损失值所对应的损失函数为:
L(f(X,θ),Y)=-∑yi ln f(xi,θ)
其中,θ表示网络权值参数,X表示涡旋光束的远场衍射图样,f(·)为模型的输出,Y表示网络的理想输出即涡旋光束的真实模态数,xi表示第i个涡旋光束的远场衍射图样,yi表示第i个涡旋光束的真实模态数。
一种智能终端,其中,包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述任一项所述的涡旋光束模态识别方法的步骤。
一种存储介质,其中,所述存储介质上存储有涡旋光束模态识别方法的控制程序,所述涡旋光束模态识别方法的控制程序被处理器执行时实现任一项所述的涡旋光束模态识别方法的步骤。
有益效果,本发明提供了一种涡旋光束模态识别方法、智能终端及存储介质,通过湍流条件下的衍射图样迭代训练预先建立的卷积神经网络模型得到涡旋光束模态识别模型,然后基于涡旋光束模态识别模型对涡旋光束模态进行识别,涡旋光束模态识别模型具有很强的网络泛化能力,能够快速且准确的检测出湍流条件下畸变涡旋光束的模态,相比于传统模态检测方法具有操作更加简单方便,检测结果效率高等优点,在轨道角动量通信等方面具有广阔的应用前景。
附图说明
图1是本发明所提供的涡旋光束模态识别方法较佳实施例的流程图;
图2是本发明所提供的获取待识别涡旋光束的衍射图样及训练和测试涡旋光束模态识别模型的装置结构示意图;
图3是本发明所提供的预设卷积神经网络模型的结构示意图;
图4是本发明智能终端的功能原理图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供的一种涡旋光束模态识别方法,可以应用于终端中。其中,终端可以但不限于是各种个人计算机、笔记本电脑、手机、平板电脑、车载电脑和便携式可穿戴设备。本发明的终端采用多核处理器。其中,终端的处理器可以为中央处理器(Central ProcessingUnit,CPU),图形处理器(Graphics Processing Unit,GPU)、视频处理单元(VideoProcessing Unit,VPU)等中的至少一种。
为了解决现有技术中得到涡旋光束的干涉和衍射图样后通过人眼观测来实现OAM模式的检测,致使OAM模式检测精度、速率不高,检测范围有限;涡旋光束的螺旋相位极易受到大气湍流的影响,导致涡旋光束的OAM模式识别更加困难的问题,本发明提供了一种涡旋光束模态识别方法。
请参照图1,图1是本发明提供的一种涡旋光束模态识别方法的较佳实施例的流程图。
在实施例一中,所述涡旋光束模态识别方法有两个步骤:
S100、获取待识别涡旋光束衍射图样;
S200、将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数;所述涡旋光束模态识别模型是基于所述衍射图样与所述涡旋光束模态数的对应关系训练而成。
在一具体实施方式中,由于不同OAM模式的涡旋光束的衍射图样呈现不同的特征,例如衍射图样上的条纹数不同或者条纹方向不同。当需要对涡旋光束的模态进行识别时,首先通过对所述待识别涡旋光束进行远场衍射,获取所述待识别涡旋光束的衍射图样。在一具体实施例中,本发明将待识别涡旋光束通过柱透镜对待识别涡旋光束进行远场衍射,并用电荷耦合器件采集所述待识别涡旋光束的衍射图样以便后续步骤中对待识别涡旋光束的模态进行识别。
在一具体实施方式中,由于现有涡旋光束模态通过肉眼识别,识别速度慢、精度低。为了克服上述问题,本实施例中预先构建卷积神经网络模型,并基于涡旋光束的衍射图样和所述涡旋光束模态数的对应关系对所述卷积神经网络模型进行训练,得到已训练的涡旋光束模态识别模型。然后将前述步骤中得到的待识别涡旋光束的衍射图样输入已训练的涡旋光束模态识别模型,由于所述涡旋光束模态识别模型是基于衍射图样和涡旋光束模态数的对应关系训练而成的,将待识别涡旋光束的衍射图样输入到涡旋光束模态识别模型中就能得到待识别涡旋光束模态数,而涡旋光束模态数与涡旋光束模态对应,即实现了对待识别涡旋光束的模态识别,识别方法简单,速度快,识别精度高。
在一具体实施方式中,步骤S200中所述涡旋光束模态识别模型的训练步骤包括:
S210、获取待训练和待测试的涡旋光束衍射图样;
S220、将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型;
S230、将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;若是,则得到已训练的涡旋光束模态识别模型。
在一具体实施方式中,为了得到已训练的涡旋光束模态识别模型,需要预先构建卷积神经网络模型,然后获取待训练和待测试的涡旋光束衍射图样,通过待训练的涡旋光束衍射图样对卷积神经网络模型进行迭代训练,并通过待测试的涡旋光束衍射图样对初始训练的涡旋光束模态识别模型进行测试,直到待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中预测得到的模态识别结果的测试误差满足预设第一阈值,结束训练最优模型的评估,将最终得到的已训练和测试的卷积神经网络模型作为涡旋光束模态识别模型。
在一具体实施方式中,所述步骤S210具体包括:
S211、将激光器产生的杂偏基模高斯光转变为水平偏振的涡旋光束;
S212、对所述水平偏振的涡旋光束进行湍流相位加载和远场衍射,得到待训练和待测试的涡旋光束衍射图样。
在一具体实施方式中,为了得到待训练和待测试的涡旋光束衍射图样,本实施例中通过激光器产生杂偏基模高斯光,然后将杂偏基模高斯光转变为水平偏振的涡旋光束。由于涡旋光束的螺旋相位极易受到大气湍流的影响,得到水平偏振的涡旋光束后进行湍流相位加载和远场衍射,得到受大气湍流影响的涡旋光束衍射图样,然后将这些涡旋光束衍射图样分为训练集和样本集,由于待训练和待测试的涡旋光束衍射图样是受大气湍流影响的涡旋光束衍射图样,使得利用已训练的涡旋光束模态识别模型进行模态识别更加精确。在一具体实施例中,经过湍流相位加载和远场衍射得到的涡旋光束衍射图样的70%作为训练集,30%作为样本集。
具体实施时,获取待训练和待测试的涡旋光束衍射图样的装置如图2所示,激光器21产生的杂偏基模高斯光经过起偏器22转变为水平偏振方向的高斯光,进一步通过涡旋光产生模块23将水平偏振方向的高斯光转变为水平偏振的涡旋光束。在一具体实施例中,激光器21的波长为633nm,起偏器22为水平偏振方向的格兰棱镜,涡旋光产生模块23为只对水平偏振方向响应的空间光调制器。得到的水平偏振的涡旋光束的远场分布可近似表示为:
Figure BDA0002284011950000081
其中,ω0表示高基光束的束腰,r表示柱坐标系下的径向分量,l表示OAM模式的拓扑电荷,θ表示柱坐标系中的角向分量,i表示虚数单位。
在一具体实施方式中,获取水平偏振的涡旋光束后,进一步使涡旋光束通过湍流相位加载模块24转变为畸变的涡旋光束,然后通过衍射模块25对涡旋光束进行远场衍射形成相对应的衍射图样,并通过衍射图样记录模块26对产生的衍射图样进行记录。在一具体实施例中,所述湍流相位加载模块24为只对水平方向响应的空间光调制器,所述衍射模块25为633nm波段的柱透镜,所述衍射图样记录模块26为633nm波段的电荷耦合器件。
在一具体实施方式中,步骤S220具体包括:
S221、将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型中,经过信息前向传播过程得到涡旋光束模态数的预测值;
S222、根据所述涡旋光束模态数的预测值和所述涡旋光束模态数的真实值得到损失值,并判断所述损失值是否小于预设第二阈值;
S223、若否,则通过误差反向传播过程对所述卷积神经网络模型的参数进行更新直到所述损失值小于预设第二阈值,得到初始训练的涡旋光束模态识别模型。
在一具体实施例中,预先构建待训练的卷积神经网络模型,所述卷积神经模型依次包括对输入的衍射图样进行处理的输入层、预设多个卷积层和最大池化层、全连接层及输出层。在一具体实施例中,所述卷积神经网络模型为9层的深度神经网络,包括8个中间隐藏层和1个输出层,其中8个中间隐藏层包括4个卷积层、3个最大池化层以及1个全连接层。如图3所示为卷积神经网络模型的结构示意图,隐藏层31为采用5*5卷积核的第一卷积层,隐藏层32为采用3*3卷积核的第二卷积层和第一池化层,隐藏层33为采用3*3卷积核的第三卷积层和第二池化层,隐藏层34为采用3*3卷积核的第四卷积层和第三池化层,隐藏层35为由1024个一维的神经元堆叠的全连接层。其中,卷积层用卷积核对输入的衍射图样进行特征提取,池化层用于对卷积层输出的特征图进行特征压缩来提高卷积神经网络模型的泛化能力,全连接层35将二维特征映射成一维特征并作为输出层36的输入,输出层36用于输出涡旋光束模态数的预测值。
在一具体实施方式中,所述卷积神经网络隐藏层采用的激活函数包括:输出层使用Softmax函数作为激活函数,其余各层采用ReLu函数(Relu(·)=max(x,0),其中max(·)表示取最大操作)作为激活函数。神经网络中激活函数的使用,旨在引入非线性因素,使网络能够更好地解决较为复杂的问题。其中Softmax分类函数可表示为:
Figure BDA0002284011950000091
其中,xi表示第i个涡旋光束的远场衍射条纹图样,θ表示网络的权值参数,zi表示第i类模式的输出,j表示网络所有模式类别。
具体实施时,在卷积神经网络模型训练的过程中,用损失函数来表征模型训练的好坏,随着网络迭代次数的增加,要求损失函数值越低越好,最好接近于0,来表明我们训练得到的涡旋光束模态识别模型精度最高,效果最佳。Softmax函数的输出结果是f(xi,θ),它可以通过最小化交叉熵损失函数来训练以逼近实际输出。交叉熵损失函数可表示为:
L(f(X,θ),Y)=-∑yi ln f(xi,θ)
其中,θ表示网络权值参数,X表示涡旋光束的远场衍射图样,f(·)为模型的输出,Y表示网络的理想输出即涡旋光束的真实模态数,xi表示第i个涡旋光束的远场衍射图样,yi表示第i个涡旋光束的真实模态数。
在一具体实施方式中,由于电荷耦合器件26记录的衍射图样为畸变的衍射图样,在输入预设的卷积神经网络模型之前,需要将畸变的衍射图样经过网络输入模块27进行预处理,然后输入搭建有卷积神经网络模型的计算机28中。输入卷积神经网络模型的每个衍射图样尺寸为128*128,并按起最大灰度值进行归一化,然后将归一化的衍射图样依次输入4个卷积层和3个池化层进行特征提取及对卷积层提取出的特征图进行特征压缩来提高网络的泛化能力。随后经过全连接层将二维特征映射成一维特征并经过输出层输出涡旋光束模态数的预测值。
在一具体实施方式中,获取到涡旋光束模态数的预测值后,根据涡旋光束模态数的预测值和涡旋光束模态数的真实值得到损失值,前述步骤中提到损失函数对应的损失值越小,则表明已训练的涡旋光束模态识别模型的识别精确度越高。因此,获得损失值后进一步判断损失值是否小于预设第二阈值,若否,则通过误差反向过程对卷积神经网络模型的参数进行更新,具体为对卷积神经网络的网络权值参数进行更新,并通过更新后的卷积神经网络模型对涡旋光束模态数进行预测得到模态数的预测值,根据模态数的预测值和真实值得到损失值,再次判断损失值是否小于预设第二阈值。若否,则重复前述卷积神经网络模型参数更新,模态数预测及损失值计算过程,直到损失值小于预设第二阈值,得到初始训练的涡旋光束模态识别模型。
在一具体实施方式中,步骤S230还包括:
S231、将待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,获取待测试的涡旋光束模态数的预测值;
S232、将所述待测试的涡旋光束模态数的预测值与所述待测试的涡旋光束模态数的真实值进行比较,判断初始训练的涡旋光束模态识别模型的模态识别误差是否在预设第一阈值内;
S233、若是,则将初始训练的涡旋光束模态识别模型作为已训练的涡旋光束模态识别模型。
在一具体实施方式中,为了验证初始训练的涡旋光束模态识别模型识别准确性,得到初始训练的涡旋光束模态识别模型后,进一步将前述步骤中获取的待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,通过初始训练的涡旋光束模态识别模型对待测试的涡旋光束衍射图样进行模态识别,得到待测试的涡旋光束模态数的预测值。将待测试的涡旋光束模态数的预测值与待测试的涡旋光束模态数的真实值进行比较,判断初始训练的涡旋光束模态识别模型的识别误差是否在预设第一阈值内;若是,则说明初始训练的涡旋光束模态识别模型已经能够满足用户的识别需求,即可以将初始训练的涡旋光束模态识别模型作为已训练的涡旋光束模态识别模型对待识别涡旋光束的衍射图样进行模态识别。其中,所述卷积神经网络模型的识别误差=识别正确个数/识别总数。例如,假设预设卷积神经网络模型的识别误差范围为5%,测试样本集总数为100,输出模态数的预测值与其真实值相同的有96个,不同的有4个,则确定初始训练的涡旋光束模态识别模型的识别误差为4%,在预设的识别误差范围内,则将初始训练的涡旋光束模态识别模型作为涡旋光束模态识别模型;否则,继续对初始训练的涡旋光束模态识别模型进行迭代训练,直到得到的初始训练的涡旋光束模态识别模型的识别误差在预设范围内。
实施例2
基于上述实施例,本发明还提供了一种智能终端,其原理如图4所示。该智能终端包括通过系统总线连接的处理器、存储器、网络接口、显示屏和温度传感器。其中,该智能终端的处理器用于提供计算和控制能力。该智能终端的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该智能终端的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种涡旋光束模态识别方法。该智能终端的显示屏可以是液晶显示屏或者电子墨水显示屏,该智能终端的温度传感器是预先在智能终端内部设置,用于检测内部设备的当前运行温度。
本领域技术人员可以理解,图4中示出的原理框图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所述系统应用于其上的智能终端的限定,具体的智能终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种智能终端,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时至少可以实现以下步骤:
获取待识别涡旋光束的衍射图样;
将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数;所述涡旋光束模态识别模型是基于所述衍射图样与所述涡旋光束模态数的对应关系训练而成。
在其中的一个实施例中,该处理器执行计算机程序时还可以实现:获取待训练和待测试的涡旋光束衍射图样;将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型;将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;若是,则得到已训练的涡旋光束模态识别模型。
在其中的一个实施例中,该处理器执行计算机程序时还可以实现:将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型中,经过信息前向传播过程得到涡旋光束模态数的预测值;根据所述涡旋光束模态数的预测值和所述涡旋光束模态数的真实值得到损失值,并判断所述损失值是否小于预设第二阈值;若否,则通过误差反向传播过程对所述卷积神经网络模型的参数进行更新直到所述损失值小于预设第二阈值,得到初始训练的涡旋光束模态识别模型。
在其中的一个实施例中,该处理器执行计算机程序时还可以实现:将待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,获取待测试的涡旋光束模态数的预测值;将所述待测试的涡旋光束模态数的预测值与所述待测试的涡旋光束模态数的真实值进行比较,判断初始训练的涡旋光束模态识别模型的模态识别误差是否在预设第一阈值内;若是,则将初始训练的涡旋光束模态识别模型作为已训练的涡旋光束模态识别模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
综上所述,本发明提供了一种涡旋光束模态识别方法、智能终端及存储介质,所述方法包括:获取待识别涡旋光束的衍射图样;将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数。本发明通过湍流条件下的衍射图样迭代训练预先建立的卷积神经网络模型得到涡旋光束模态识别模型,然后基于涡旋光束模态识别模型对涡旋光束模态进行识别,涡旋光束模态识别模型具有很强的泛化能力,能够快速且准确的检测出湍流条件下畸变涡旋光束的模态,相比于传统模态检测方法具有操作更加简单方便,检测结果效率高等优点,在轨道角动量通信等方面具有广阔的应用前景。
应当理解的是,本发明的系统应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (6)

1.一种涡旋光束模态识别方法,其特征在于,包括:
获取待识别涡旋光束的衍射图样;
将所述衍射图样输入已训练的涡旋光束模态识别模型中,通过所述涡旋光束模态识别模型得到所述待识别涡旋光束模态数;所述涡旋光束模态识别模型是基于所述衍射图样与所述涡旋光束模态数的对应关系训练而成;
所述涡旋光束模态识别模型的训练步骤包括:
获取待训练和待测试的涡旋光束衍射图样;
将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型;
将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;
若是,则得到已训练的涡旋光束模态识别模型;
所述获取待训练和待测试的涡旋光束衍射图样的步骤包括:
将激光器产生的杂偏基模高斯光转变为水平偏振的涡旋光束;
对所述水平偏振的涡旋光束进行湍流相位加载和远场衍射,得到待训练和待测试的涡旋光束衍射图样;
所述将激光器产生的杂偏基模高斯光转变为水平偏振的涡旋光束的步骤包括:
将激光器产生的杂偏基模高斯光转变为水平偏振方向的高斯光;
将所述水平偏振方向的高斯光转变为水平偏振的涡旋光束;
所述对所述水平偏振的涡旋光束进行湍流相位加载和远场衍射,得到待训练和待测试的涡旋光束衍射图样的步骤包括:
对所述水平偏振的涡旋光束进行湍流相位加载,得到相位畸变的涡旋光束;
对所述相位畸变的涡旋光束进行远场衍射,得到待训练和待测试的涡旋光束衍射图样;
所述水平偏振的涡旋光束的远场分布表示为:
Figure FDA0004110544270000011
其中,所述ω0为高基光束的束腰,所述r为柱坐标系下的径向分量,所述l为OAM模式的拓扑电荷,所述θ为柱坐标系中的角向分量,所述i为虚数单位;
所述将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型之前,还包括:
预先构建待训练的卷积神经网络模型,所述卷积神经模型依次包括输入层、卷积层、最大池化层、全连接层及输出层;
其中,所述输入层用于对输入的衍射图样进行处理,所述卷积层用卷积核对输入的衍射图样进行特征提取,所述池化层用于对卷积层输出的特征图进行特征压缩来提高卷积神经网络模型的泛化能力,所述全连接层将二维特征映射成一维特征并作为输出层的输入,所述输出层用于输出涡旋光束模态数的预测值。
2.根据权利要求1所述的涡旋光束模态识别方法,其特征在于,所述将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型进行迭代训练,得到初始训练的涡旋光束模态识别模型的步骤具体包括:
将所述待训练的涡旋光束衍射图样输入预设的卷积神经网络模型中,经过信息前向传播过程得到涡旋光束模态数的预测值;
根据所述涡旋光束模态数的预测值和所述涡旋光束模态数的真实值得到损失值,并判断所述损失值是否小于预设第二阈值;
若否,则通过误差反向传播过程对所述卷积神经网络模型的参数进行更新直到所述损失值小于预设第二阈值,得到初始训练的涡旋光束模态识别模型。
3.根据权利要求1所述的涡旋光束模态识别方法,其特征在于,所述将所述待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,得到所述待测试的涡旋光束的模态识别结果,并判断所述模态识别结果是否满足预设第一阈值;若是,则得到已训练的涡旋光束模态识别模型的步骤还包括:
将待测试的涡旋光束衍射图样输入初始训练的涡旋光束模态识别模型中,获取待测试的涡旋光束模态数的预测值;
将所述待测试的涡旋光束模态数的预测值与所述待测试的涡旋光束模态数的真实值进行比较,判断初始训练的涡旋光束模态识别模型的模态识别误差是否在预设第一阈值内;
若是,则将初始训练的涡旋光束模态识别模型作为已训练的涡旋光束模态识别模型。
4.根据权利要求2所述的涡旋光束模态识别方法,其特征在于,所述损失值所对应的损失函数为:
L(f(X,θ),Y)=-∑yilnf(xi,θ)
其中,θ表示网络权值参数,X表示涡旋光束的远场衍射图样,f(·)为模型的输出,Y表示网络的理想输出即涡旋光束的真实模态数,xi表示第i个涡旋光束的远场衍射图样,yi表示第i个涡旋光束的真实模态数。
5.一种智能终端,其特征在于,包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述权利要求1-4任一项所述的涡旋光束模态识别方法的步骤。
6.一种存储介质,其特征在于,所述存储介质上存储有涡旋光束模态识别方法的控制程序,所述涡旋光束模态识别方法的控制程序被处理器执行时实现如权利要求1-4中任一项所述的涡旋光束模态识别方法的步骤。
CN201911152800.4A 2019-11-22 2019-11-22 一种涡旋光束模态识别方法、智能终端及存储介质 Active CN111222538B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911152800.4A CN111222538B (zh) 2019-11-22 2019-11-22 一种涡旋光束模态识别方法、智能终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911152800.4A CN111222538B (zh) 2019-11-22 2019-11-22 一种涡旋光束模态识别方法、智能终端及存储介质

Publications (2)

Publication Number Publication Date
CN111222538A CN111222538A (zh) 2020-06-02
CN111222538B true CN111222538B (zh) 2023-05-23

Family

ID=70830605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911152800.4A Active CN111222538B (zh) 2019-11-22 2019-11-22 一种涡旋光束模态识别方法、智能终端及存储介质

Country Status (1)

Country Link
CN (1) CN111222538B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112179506B (zh) * 2020-08-17 2021-11-23 深圳大学 一种混合阶或分数阶涡旋光束模态识别装置及方法
CN112508185B (zh) * 2020-10-26 2022-03-22 深圳技术大学 基于衍射深度神经网络的光学轨道角动量模式光学系统
CN112465137B (zh) * 2020-10-26 2023-09-15 深圳技术大学 一种基于光子神经网络的涡旋光束模态识别系统及方法
CN112861634B (zh) * 2021-01-11 2024-04-09 南京大学 一种基于神经网络的多模涡旋光束解复用方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186559A (zh) * 2019-04-19 2019-08-30 深圳大学 一种涡旋光束轨道角动量模态的检测方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186559A (zh) * 2019-04-19 2019-08-30 深圳大学 一种涡旋光束轨道角动量模态的检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄良辉 ; 康祖超 ; 张昌凡 ; 程涛 ; .基于轻量级卷积神经网络的人脸识别方法.湖南工业大学学报.2019,(02),第49-53页. *

Also Published As

Publication number Publication date
CN111222538A (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN111222538B (zh) 一种涡旋光束模态识别方法、智能终端及存储介质
Liu et al. Tanet: Robust 3d object detection from point clouds with triple attention
CN111242199B (zh) 图像分类模型的训练方法及分类方法
US11875424B2 (en) Point cloud data processing method and device, computer device, and storage medium
WO2022193335A1 (zh) 点云数据处理方法、装置、计算机设备和存储介质
Wang et al. A novel GCN-based point cloud classification model robust to pose variances
CN110245683B (zh) 一种少样本目标识别的残差关系网络构建方法及应用
CN114998638A (zh) 基于动静态卷积融合神经网络的多视图三维点云分类方法
Yao et al. Enhanced supervised descent learning technique for electromagnetic inverse scattering problems by the deep convolutional neural networks
CN114898357B (zh) 缺陷识别方法、装置、电子设备及计算机可读存储介质
Wang et al. A SAR image target recognition approach via novel SSF-Net models
Wang et al. Toward structural learning and enhanced YOLOv4 network for object detection in optical remote sensing images
CN110889290B (zh) 文本编码方法和设备、文本编码有效性检验方法和设备
Liang et al. A feature fusion-net using deep spatial context encoder and nonstationary joint statistical model for high resolution SAR image classification
Wang et al. Calyolov4: lightweight yolov4 target detection based on coordinated attention
CN116258960A (zh) 基于结构化电磁散射特征的sar目标识别方法及装置
Kang Research on ssd base network
Yao et al. Matching wide-baseline stereo images with weak texture using the perspective invariant local feature transformer
Qi et al. Multigranularity semantic labeling of point clouds for the measurement of the rail tanker component with structure modeling
Zhang et al. Speeding-up and compression convolutional neural networks by low-rank decomposition without fine-tuning
Zhen et al. Local Neighborhood Embedding for Unsupervised Nonlinear Dimension Reduction.
Dawood et al. Sparsely encoded distinctive visual features for object recognition
CN109447057A (zh) 图像特征识别方法、相关装置及存储介质
Peng et al. Vehicle Classification System with Mobile Edge Computing Based on Broad Learning
CN116863433B (zh) 一种基于点云采样和加权融合的目标检测方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant