CN112488159B - 一种基于神经网络的尾涡识别方法 - Google Patents

一种基于神经网络的尾涡识别方法 Download PDF

Info

Publication number
CN112488159B
CN112488159B CN202011269486.0A CN202011269486A CN112488159B CN 112488159 B CN112488159 B CN 112488159B CN 202011269486 A CN202011269486 A CN 202011269486A CN 112488159 B CN112488159 B CN 112488159B
Authority
CN
China
Prior art keywords
laser radar
velocity range
array
wake
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011269486.0A
Other languages
English (en)
Other versions
CN112488159A (zh
Inventor
潘卫军
殷浩然
张衡衡
罗玉明
韩帅
王昊
王玄
王润东
左青海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civil Aviation Flight University of China
Original Assignee
Civil Aviation Flight University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Civil Aviation Flight University of China filed Critical Civil Aviation Flight University of China
Priority to CN202011269486.0A priority Critical patent/CN112488159B/zh
Publication of CN112488159A publication Critical patent/CN112488159A/zh
Application granted granted Critical
Publication of CN112488159B publication Critical patent/CN112488159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及航空技术领域,特别涉及一种基于神经网络的尾涡识别方法。方法步骤包括:S1,获取尾涡探测激光雷达数据;S2,根据激光雷达数据计算径向速度极差数组、角度速度极差数组和平均背景风场速度;S3,提取出径向速度极差数组中的最大值作为数组的径向速度极差特征参数,以及提取出角度速度极差数组中的最大值作为数组的角度速度极差特征参数;S4,将数组的径向速度极差特征参数、数组的角度速度极差特征参数和平均背景风场速度代入预先训练好的尾涡识别神经网络模型中,得出有尾涡或无尾涡的判定。由于采用激光雷达探测数据进行尾涡识别,识别模型迭代次数相对较少,识别效果比较好,运行速度更快。

Description

一种基于神经网络的尾涡识别方法
技术领域
本发明涉及航空技术领域,特别涉及一种基于神经网络的尾涡识别方法。
背景技术
尾涡也就是尾流,是指在飞行时,由于翼尖处上下表面的空气动力压力差,产生一对绕着翼尖的闭合涡旋,通常尾涡在飞机起飞前轮抬起时产生,在着陆时前轮接地即结束。当后面的飞机进入前面飞机的尾涡区时,会出现飞机抖动、下沉、改变飞行状态、发动机停车甚至翻转等现象。小型飞机尾随大型飞机起飞或着陆时,若进入前机尾流中,处置不当还会发生事故。因此,在飞机起飞和降落时,对飞机尾涡的准确识别对飞机起降的安全性相当重要。
作为本领域最接近的现有技术中,专利《基于卷积神经网络的航空器尾涡识别方法及系统》(公开号CN110210568A)将采集到的尾涡探测图像输入到预先训练好的卷积神经网络模型中,对尾涡探测图像进行识别,输出识别到尾涡的概率值和未识别到尾涡的概率值;若识别到尾涡的概率值大于未识别到尾涡的概率值,则识别出所述待识别的航空器尾涡探测图像中存在尾涡,反之则识别出所述待识别的航空器尾涡探测图像中不存在尾涡。虽然该专利的技术方案识别准确度高,但是,存在以下问题:由于用于判别的数据是图像,基于图像的运算量大,识别速度相对也较慢,用于判断尾涡是否存在的数据也较为单一。
发明内容
本发明的目的在于,为了克服上述识别速度相对较慢,用于判断尾涡是否存在的数据也较为单一的问题,对现有的基于神经网络模型尾涡判别方法进行了改进,基于激光雷达数据,进行数据处理和识别,提出了一种基于神经网络的尾涡识别方法。
为了实现上述发明目的,本发明提供了以下技术方案:
一种基于神经网络的尾涡识别方法,包括以下步骤:
S1,获取尾涡探测激光雷达数据,所述激光雷达数据包括激光雷达探测的距离值、激光雷达探测的俯仰角值以及径向速度;
S2,根据所述激光雷达数据计算径向速度极差数组、角度速度极差数组和平均背景风场速度;
S3,提取出所述径向速度极差数组中最大径向速度极差特征参数作为数组的径向速度极差特征参数,并提取出所述角度速度极差数组中最大角度速度极差特征参数值作为数组的角度速度极差特征参数;
S4,将所述数组的径向速度极差特征参数、数组的角度速度极差特征参数和平均背景风场速度代入预先训练好的尾涡识别神经网络模型中,得出有尾涡或无尾涡的判定。
作为本发明的优选方案,步骤S4中所述尾涡识别神经网络模型的训练过程,包括以下步骤:
S41,将获取的尾涡的激光雷达数据进行标注,得到标注的激光雷达数据,标注内容包括:数据的ID号、是否存在尾涡的标签以及特征值标记;
S42,根据所述标注的激光雷达数据计算输入特征参数,所述输入特征参数包括径向速度极差、角度速度极差和平均背景风场速度;
S43,将所述输入特征参数输入BP神经网络,输出是否有尾涡的输出值;
S44,根据所述输出值和所述是否存在尾涡的标签,获取正确识别尾涡的比率,并更新所述BP神经网络的参数;
S45,循环执行步骤S43-S44,当所述正确识别尾涡的比率大于预设判定阈值时,所述尾涡识别神经网络模型收敛。
作为本发明的优选方案,步骤S44中,所述获取正确识别尾涡的比率的计算公式为:
Figure BDA0002777246710000031
其中,ACC是正确识别尾涡的比率,TP为真正,表示把有尾涡的数据识别正确,TN为真负,表示把无尾涡的数据识别正确,FP为假正,表示把无尾涡的数据识别为有尾涡,FN为假负,表示把有尾涡数据识别为无尾涡。
作为本发明的优选方案,步骤S2中,所述径向速度极差数组的计算包括以下步骤:
A21,以所述激光雷达探测的距离值相同为前提,从所述激光雷达数据中获取所述激光雷达探测的俯仰角值对应的径向速度,构成预处理径向速度极差数组;
A22,将所述预处理径向速度极差数组代入径向速度极差公式,计算出每一个所述激光雷达探测的距离值对应的径向速度极差特征参数;
A23,各激光雷达探测的距离值对应的径向速度极差特征参数构成径向速度极差数组。
作为本发明的优选方案,步骤A22中,所述径向速度极差公式为:
Figure BDA0002777246710000041
其中,Dr(ri)表示径向速度极差,max(vr(rij))表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最大速度值,min(vr(rij)表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最小速度值,m表示激光雷达探测的俯仰角值的数量。
作为本发明的优选方案,步骤S2中,角度速度极差数组的计算包括以下步骤:
B21,以所述激光雷达探测的俯仰角值相同为前提,从所述激光雷达数据中获取所述激光雷达探测的距离值对应的径向速度,构成预处理角度速度极差数组;
B22,将所述预处理角度速度极差数组代入角度速度极差公式,计算出每一个所述激光雷达探测的俯仰角值对应的角度速度极差特征参数;
B23,各激光雷达探测的俯仰角值对应的角度速度极差特征参数构成径向速度极差数组。
作为本发明的优选方案,步骤B22中,所述径向速度极差公式为:
Figure BDA0002777246710000042
Daj)表示角度速度极差,max(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最大速度值,min(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最小速度值,n表示激光雷达探测的距离值的数量。
作为本发明的优选方案,步骤S2中,所述平均背景风场速度的计算公式为:
Figure BDA0002777246710000051
其中,
Figure BDA0002777246710000052
表示平均背景风场速度,VRij)表示距离为ρi,扫描角度为θj时的风速值,m表示激光雷达探测的俯仰角值的数量,n表示激光雷达探测的距离值的数量。
作为本发明的优选方案,步骤S1中还包括尾涡的激光雷达数据可视化方法,具体包括以下步骤:
S11,通过所述激光雷达探测的距离值和激光雷达探测的俯仰角值计算可视化图像中的X轴坐标和Y轴坐标;
S12,将所述激光雷达探测的距离值和激光雷达探测的俯仰角值对应的径向速度作为所述X轴坐标和Y轴坐标构成的二维平面上的点;
S13,将所述X轴坐标、Y轴坐标和二维平面上的点通过画图函数呈现在二维平面上,构成激光雷达数据的可视化图像。
基于相同的构思,本发明还提出了一种基于神经网络的尾涡识别系统,包括至少一个处理器,以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,所述指令被至少一个处理器执行,以使至少一个处理器能够执行上述任一项的方法。
与现有技术相比,本发明的有益效果:
1、基于现有技术中,通过图像识别的神经网络模型进行尾涡识别的方法,本发明的方法由于采用的是激光雷达探测数据,与图像数据不同,该尾涡识别神经网络模型迭代次数相对较少就能有效识别尾涡数据,识别效果比较好,运行速度更快。
2、相对于图像数据,本发明中的激光雷达探测数据更容易进行调整,并且基于激光雷达探测数据可以计算更多的特征参数。
附图说明
图1为本发明实施例1中的一种基于神经网络的尾涡识别方法流程图;
图2为本发明实施例1中的处理过后的存在尾涡特征的可视化图片;
图3为本发明实施例1中的处理过后不存在尾涡特征的可视化图片;
图4为本发明实施例1中BP神经网络的网络结构模型;
图5为本发明实施例2中BP神经网络中的人工神经元模型;
图6为本发明实施例2中准确率随网络迭代次数变化的折线图;
图7为本发明实施例2中损失函数的值随迭代次数变化的折线图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
一种基于神经网络的尾涡识别方法,流程图如图1所示,包括以下步骤:
S1,获取尾涡探测激光雷达数据,激光雷达数据包括激光雷达探测的距离值、激光雷达探测的俯仰角值以及径向速度。一种具体的尾涡探测激光雷达数据如表1所示,距离单位为m,径向速度为m/s。其中,激光雷达探测的数据采集距离值依次为500m、515m、530m、545m……,相邻数据采集距离值之间间隔15米。当探测距离为各距离值时,相应的探测俯仰角依次为3°、2.9°、2.8°、2.7°、2.6°、2.5°……,以0.1°为步进进行探测俯仰角的设置,表中填写的值是每一个距离值和探测俯仰角对应的径向速度。
表1尾涡探测激光雷达数据一
Figure BDA0002777246710000071
作为优选方案,可将多普勒激光雷达通过RHI模式探测到的尾涡探测激光雷达数据,并进行可视化。首先将多普勒激光雷达数据进行预处理,筛选出有效数据,利用编程语言读取激光雷达探测的俯仰角值,记为θ,探测角的范围为0°至10°之间,以0.1°/s周期上下扫动。读取激光雷达探测的距离值,记为ρ,探测距离范围为45米到870米,以15米为一个间隔点。通过探测的俯仰角值和探测的距离值可以求得图像上显示的X、Y轴的坐标值,X=ρ*cosθ,Y=ρ*sinθ,读取对应X、Y轴上的径向速度值,利用pcolormesh函数将三维数据(X、Y、XY上对应的径向速度值)呈现在一个二维平面上,径向速度的大小用色标值来表现。图2为处理过后的存在尾涡特征的图片,图3为处理过后不存在尾涡特征的图片。
S2,根据激光雷达数据计算径向速度极差数组、角度速度极差数组和平均背景风场速度。
作为优选方案,径向速度极差数组的计算包括以下步骤:
A21,以激光雷达探测的距离值相同为前提,从激光雷达数据中获取激光雷达探测的俯仰角值对应的径向速度,构成预处理径向速度极差数组;
A22,将预处理径向速度极差数组代入径向速度极差公式,计算出每一个激光雷达探测的距离值对应的径向速度极差特征参数;
A23,各激光雷达探测的距离值对应的径向速度极差特征参数构成径向速度极差数组。
所述径向速度极差公式为:
Figure BDA0002777246710000081
其中,Dr(ri)表示径向速度极差,max(vr(rij))表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最大径向速度值,min(vr(rij)表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最小速度值,m表示激光雷达探测的俯仰角值的数量。
以表1的数据为例,将探测距离为500米的一列径向速度作为预处理径向速度极差数组,扫描俯仰角为3°时,径向速度值最大,为4.7691;扫描俯仰角为2°时,径向速度值最小,为2.7342,将该列径向速度的最大值和最小值代入公式(1)计算得到径向速度极差Dr(ri)=4.7691-2.7342=2.0349。同理,可以得到探测距离为515米、530米、545米等的径向速度极差值。同理可得到探测距离为515米、530米、545米等的径向速度极差值,得到径向速度极差数组:Dr(ri)=[2.0349、3.7843、4.5732、1.4808、3.7384、1.3012、0.3839、0.7930、0.9431]。
作为优选方案,角度速度极差数组的计算包括以下步骤:
B21,以激光雷达探测的俯仰角值相同为前提,从激光雷达数据中获取激光雷达探测的距离值对应的径向速度,构成预处理角度速度极差数组;
B22,将预处理角度速度极差数组代入角度速度极差公式,计算出每一个激光雷达探测的俯仰角值对应的角度速度极差特征参数;
B23,各激光雷达探测的俯仰角值对应的角度速度极差特征参数构成径向速度极差数组。
径向速度极差公式为:
Figure BDA0002777246710000091
Daj)表示角度速度极差,max(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最大径向速度值,min(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最小径向速度值,n表示激光雷达探测的距离值的数量。
表2尾涡探测激光雷达数据二
Figure BDA0002777246710000101
以表2的数据为例,将扫描俯仰角为3°的一行径向速度作为预处理角度速度极差数组,探测距离为515时,径向速度值最大,为5.9153;探测距离为560时,径向速度值最小,为2.9904,将该行径向速度的最大值和最小值代入公式(2)计算得到角度速度极差Daj)=5.9153-2.9904=2.9249。同理,可以得到扫描俯仰角为2.9°、2.8°、2.7°等的角度速度极差值,得到角度速度极差数组:Daj)=[2.9249、3.3214、2.6033、1.5913、1.3382、1.1818、1.3224、2.0261、3.0332、4.7291、4.4369]。
作为优选方案,步骤S2中,平均背景风场速度的计算公式为:
Figure BDA0002777246710000102
其中,
Figure BDA0002777246710000103
表示平均背景风场速度,VRij)表示距离为ρi,扫描角度为θj时的风速值,m表示激光雷达探测的俯仰角值的数量,n表示激光雷达探测的距离值的数量。
以表3的数据为例,计算出该批次数据中的平均背景风场速度为3.8869m/s。
表3尾涡探测激光雷达数据三
Figure BDA0002777246710000111
S3,提取出径向速度极差数组中最大径向速度极差特征参数的作为数组的径向速度极差特征参数,并提取出角度速度极差数组中最大角度速度极差特征参数值作为数组的角度速度极差特征参数。
以表1的数据为例,计算出径向速度极差数组:Dr(ri)=[2.0349、3.7843、4.5732、1.4808、3.7384、1.3012、0.3839、0.7930、0.9431],取径向速度极差数组中的最大值4.5732作为数组的径向速度极差特征参数。计算得到角度速度极差数组:Daj)=[2.9249、3.3214、2.6033、1.5913、1.3382、1.1818、1.3224、2.0261、3.0332、4.7291、4.4369],取角度速度极差数组中的最大值4.7291作为数组的角度速度极差特征参数。
S4,将数组的径向速度极差特征参数、数组的角度速度极差特征参数和平均背景风场速度代入预先训练好的尾涡识别神经网络模型中,得出有尾涡或无尾涡的判定。
步骤S4中尾涡识别神经网络模型的训练过程,包括以下步骤:
S41,将获取的尾涡探测激光雷达数据进行标注,得到标注的激光雷达数据,标注内容包括:数据的ID号、是否存在尾涡的标签以及特征值标记。
尾涡探测激光雷达数据是由多普勒激光雷达探测的实地数据,将多普勒激光雷达探测到的航空器尾涡数据进行预处理,首先将数据进行筛选,将超过或低于阈值范围内的数据进行剔除,保留有效数据。
以扫描的数据为一组扫射剖面,选取其中1000组数据,分为500组有尾涡,500组无尾涡数据,将尾涡数据进行标注,数据标注包括每组数据的标识、特征值以及标签的值。标识是每组数据的ID号,用于识别各组数据,特征值是多普勒激光雷达探测的径向速度,标签是用于判断是否存在尾涡,存在尾涡为1,不存在尾涡为0。
S42,根据标注的激光雷达数据计算输入特征参数,所述输入特征参数包括径向速度极差、角度速度极差和平均背景风场速度。此处的速度极差特征参数即为步骤S3中的数组的径向速度极差特征参数,计算方法与前述的数组的径向速度极差特征参数相同;此处的角度速度极差特征参数即为步骤S3中的数组的角度速度极差特征参数,计算方法与前述的数组的角度速度极差特征参数相同。此处平均背景风场速度与步骤S2中的平均背景风场速度的计算方法相同,不再赘述。
S43,将输入特征参数输入BP神经网络,输出是否有尾涡的输出值。
神经网络模型分为前馈神经网络、反馈神经网络以及自组织网络,本方法采用其中的BP学习算法的前反馈型神经网络即BP神经网络,BP神经网络的网络结构模型如图4所示,BP神经网络由三层网络结构组成,包括输入层、中间层和输出层。BP神经网络主要包括两部分,第一部分为向前传输,每个神经单元算法如上面人工神经元介绍的算法一致,输出层满足精度或阈值就输出数据。不满足精度或阈值就需要进行第二部分,即反向传播,表现为通过真实值与输出值之间的误差,动态调整各个连接节点之间的权重值,最终得到一个最优的网络模型。
BP神经网络中的人工神经元模型如图5所示,图中x1~xn表示其他神经元传入的信号,wij表示从神经元i到神经元j的连接权值,θ表示一个阈值。神经元输出与输入的关系式为:
Figure BDA0002777246710000131
yi表示神经元的i的输出,函数f为激活函数,如将阈值看作是一个权重值,X表示输入向量,W表示权重向量即:
X=[x0,x1,x2,……xn]
Figure BDA0002777246710000132
神经元输出yi可表示为:
yi=f(neti)=f(XW) (5)
该人工神经元模型为神经网络的一个处理单元。
在计算出特征参数后,由于数据间的大小不一致,如果直接带入较大数值的特征参数往往会对整体的结果影响较大,为了避免这种情况,对于每一种数据,采用归一化的算法,将数据缩放到[0,1]之间,归一化的算法具体包括如下步骤:
首先,计算特征参数点的值,计算公式为:
featurei=(featurei-mini)/(maxi-mini) (6)
featurei表示特征参数点的值,maxi mini表示对应特征参数的最大值和最小值。将归一化的特征参数作为输入的数据输入到BP神经网络中。
输入层与中间层之间有权重值wij,偏置设为bi设中间层有三个神经元。
中间层的输出值为A1,A2,A3,f()为激活函数。
A1=f(X1*w11+X2*w12+X3*w13+b1)
A2=f(X1*w21+X2*w22+X3*w23+b2)
A3=f(X1*w31+X2*w32+X3*w33+b3) (7)
中间层与输出层之间的权重值gij,偏置为zi,设输出层有两个神经元。
输出层的输出值为Y1,Y2。
Y1=f(A1*g11+A2*g12+A3*g13+z1)
Y2=f(A1*g21+A2*g22+A3*g23+z2) (8)
输出层的输出值与真实值之间会存在误差,构造均方误差函数,利用梯度下降法动态调节各结点的权重值。
计算均方误差函数的公式为:
Figure BDA0002777246710000141
式中,Yi为输出值,Yti为真实值。
S44,根据所述输出值和所述是否存在尾涡的标签,获取正确识别尾涡的比率,并更新BP神经网络的参数。
获取正确识别尾涡的比率的计算公式为:
Figure BDA0002777246710000151
其中,ACC是正确识别尾涡的比率,TP为真正,表示把有尾涡的数据识别正确,TN为真负,表示把无尾涡的数据识别正确,FP为假正,表示把无尾涡的数据识别为有尾涡,FN为假负,表示把有尾涡数据识别为无尾涡。
S45,循环执行步骤S43-S44,当正确识别尾涡的比率大于预设判定阈值时,所述尾涡识别神经网络模型收敛。
从实际的模型训练数据来看,如图6所示,准确率随网络迭代次数的变化,从图中可以看出迭代次数到达700左右,算法收敛,准确率达到94%。如图7所示,损失函数的值随迭代次数的变化,从图中可以看出迭代次数到达700次左右,算法收敛,网络之间的权重值确定,损失函数值到达最小。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于神经网络的尾涡识别方法,其特征在于,包括以下步骤:
S1,获取尾涡探测激光雷达数据,所述激光雷达数据包括激光雷达探测的距离值、激光雷达探测的俯仰角值以及径向速度;
S2,根据所述激光雷达数据计算径向速度极差数组、角度速度极差数组和平均背景风场速度;
S3,提取出所述径向速度极差数组中最大径向速度极差特征参数作为数组的径向速度极差特征参数,并提取出所述角度速度极差数组中最大角度速度极差特征参数值作为数组的角度速度极差特征参数;
S4,将所述数组的径向速度极差特征参数、数组的角度速度极差特征参数和平均背景风场速度代入预先训练好的尾涡识别神经网络模型中,得出有尾涡或无尾涡的判定;
步骤S4中所述尾涡识别神经网络模型的训练过程,包括以下步骤:
S41,将获取的尾涡的激光雷达数据进行标注,得到标注的激光雷达数据,标注内容包括:数据的ID号、是否存在尾涡的标签以及特征值标记;
S42,根据所述标注的激光雷达数据计算输入特征参数,所述输入特征参数包括径向速度极差、角度速度极差和平均背景风场速度;
S43,将所述输入特征参数输入BP神经网络,输出是否有尾涡的输出值;
S44,根据所述输出值和所述是否存在尾涡的标签,获取正确识别尾涡的比率,并更新所述BP神经网络的参数;
S45,循环执行步骤S43-S44,当所述正确识别尾涡的比率大于预设判定阈值时,所述尾涡识别神经网络模型收敛;
步骤S2中,所述径向速度极差数组的计算包括以下步骤:
A21,以所述激光雷达探测的距离值相同为前提,从所述激光雷达数据中获取所述激光雷达探测的俯仰角值对应的径向速度,构成预处理径向速度极差数组;
A22,将所述预处理径向速度极差数组代入径向速度极差公式,计算出每一个所述激光雷达探测的距离值对应的径向速度极差特征参数;
A23,各激光雷达探测的距离值对应的径向速度极差特征参数构成径向速度极差数组;
步骤A22中,所述径向速度极差公式为:
Figure FDA0003770823980000021
其中,Dr(ri)表示径向速度极差,max(vr(rij))表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最大速度值,min(vr(rij)表示激光雷达探测的距离值相同时,不同扫描仰角下对应的最小速度值,m表示激光雷达探测的俯仰角值的数量;
步骤S2中,角度速度极差数组的计算包括以下步骤:
B21,以所述激光雷达探测的俯仰角值相同为前提,从所述激光雷达数据中获取所述激光雷达探测的距离值对应的径向速度,构成预处理角度速度极差数组;
B22,将所述预处理角度速度极差数组代入角度速度极差公式,计算出每一个所述激光雷达探测的俯仰角值对应的角度速度极差特征参数;
B23,各激光雷达探测的俯仰角值对应的角度速度极差特征参数构成径向速度极差数组;
步骤B22中,所述径向速度极差公式为:
Figure FDA0003770823980000031
Daj)表示角度速度极差,max(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最大速度值,min(vr(rij))表示激光雷达探测的俯仰角值相同时,不同扫描距离下对应的最小速度值,n表示激光雷达探测的距离值的数量。
2.如权利要求1所述的一种基于神经网络的尾涡识别方法,其特征在于,步骤S44中,所述获取正确识别尾涡的比率的计算公式为:
Figure FDA0003770823980000032
其中,ACC是正确识别尾涡的比率,TP为真正,表示把有尾涡的数据识别正确,TN为真负,表示把无尾涡的数据识别正确,FP为假正,表示把无尾涡的数据识别为有尾涡,FN为假负,表示把有尾涡数据识别为无尾涡。
3.如权利要求1所述的一种基于神经网络的尾涡识别方法,其特征在于,步骤S2中,所述平均背景风场速度的计算公式为:
Figure FDA0003770823980000033
其中,
Figure FDA0003770823980000041
表示平均背景风场速度,VRij)表示距离为ρi,扫描角度为θj时的风速值,m表示激光雷达探测的俯仰角值的数量,n表示激光雷达探测的距离值的数量。
4.如权利要求1-3任一所述的一种基于神经网络的尾涡识别方法,其特征在于,步骤S1中还包括尾涡的激光雷达数据可视化方法,具体包括以下步骤:
S11,通过所述激光雷达探测的距离值和激光雷达探测的俯仰角值计算可视化图像中的X轴坐标和Y轴坐标;
S12,将所述激光雷达探测的距离值和激光雷达探测的俯仰角值对应的径向速度作为所述X轴坐标和Y轴坐标构成的二维平面上的点;
S13,将所述X轴坐标、Y轴坐标和二维平面上的点通过画图函数呈现在二维平面上,构成激光雷达数据的可视化图像。
5.一种基于神经网络的尾涡识别系统,其特征在于,包括至少一个处理器,以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,所述指令被至少一个处理器执行,以使至少一个处理器能够执行权利要求1-4所述任一项的方法。
CN202011269486.0A 2020-11-13 2020-11-13 一种基于神经网络的尾涡识别方法 Active CN112488159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011269486.0A CN112488159B (zh) 2020-11-13 2020-11-13 一种基于神经网络的尾涡识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011269486.0A CN112488159B (zh) 2020-11-13 2020-11-13 一种基于神经网络的尾涡识别方法

Publications (2)

Publication Number Publication Date
CN112488159A CN112488159A (zh) 2021-03-12
CN112488159B true CN112488159B (zh) 2022-10-21

Family

ID=74930473

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011269486.0A Active CN112488159B (zh) 2020-11-13 2020-11-13 一种基于神经网络的尾涡识别方法

Country Status (1)

Country Link
CN (1) CN112488159B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111103905A (zh) * 2019-12-26 2020-05-05 南京航空航天大学 一种基于电机积分鲁棒控制驱动的加油软管振动抑制方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6177888B1 (en) * 1999-09-08 2001-01-23 The Boeing Company Wake turbulence warning and caution system and method
CN108387885B (zh) * 2018-03-01 2020-07-17 中国人民解放军国防科技大学 基于激光雷达探测的晴空条件下飞机尾流特征参数反演方法
CN110210568A (zh) * 2019-06-06 2019-09-06 中国民用航空飞行学院 基于卷积神经网络的航空器尾涡识别方法及系统
CN111551959B (zh) * 2020-04-22 2022-06-10 中国民用航空飞行学院 飞机尾涡识别方法、装置、可读介质及电子设备
CN111736166B (zh) * 2020-08-24 2020-11-27 中国人民解放军国防科技大学 一种基于相干激光探测空中尾涡的单/多目标判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111103905A (zh) * 2019-12-26 2020-05-05 南京航空航天大学 一种基于电机积分鲁棒控制驱动的加油软管振动抑制方法

Also Published As

Publication number Publication date
CN112488159A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN111091105B (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN111258231B (zh) 仿猛禽视觉导航的自主空中加油对接半物理系统及其方法
CN110782481A (zh) 无人艇智能决策方法及系统
CN105844602B (zh) 一种基于体元的机载lidar点云三维滤波方法
CN103697855B (zh) 一种基于海天线检测的船体水平姿态测量方法
Sanchez-Lopez et al. Toward visual autonomous ship board landing of a VTOL UAV
CN113031005B (zh) 基于激光雷达的吊车动态障碍物识别方法
CN110008851A (zh) 一种车道线检测的方法及设备
CN111444769B (zh) 一种基于多尺度自适应随机森林的激光雷达检测人腿方法
CN114880784B (zh) 一种基于飞机尾涡扫描特性的涡核位置估算方法
CN112465006A (zh) 一种图神经网络目标跟踪方法及装置
CN111508282A (zh) 低空无人机农田作业飞行障碍物冲突检测方法
CN111650673A (zh) 一种利用风场资料订正低涡中心位置的方法
CN113570005A (zh) 一种基于机载光子雷达的远距离舰船类型识别方法
CN116659396A (zh) 一种基于点光源检测的直升机机载旋翼桨尖位移测量方法
CN110222638B (zh) 一种基于素描图候选框策略和Fast R-CNN的飞机目标检测方法
CN112488159B (zh) 一种基于神经网络的尾涡识别方法
US20230267841A1 (en) Aircraft wake sensing
CN112836581B (zh) 一种基于相关性分析的敏感故障特征提取方法及装置
Saeed Unmanned aerial vehicle for automatic detection of concrete crack using deep learning
CN109738897B (zh) 基于多普勒速度极差的晴空飞机尾流特征参数估计方法
CN116127846A (zh) 一种减摇技术的智能评估方法及系统
Martin et al. Design and Evaluation of a Realtime, Microcontroller Based Gust Sensing System for a Small Unmanned Aerial Vehicle
CN116964472A (zh) 用于借助于雷达传感器系统的反射信号来探测环境的至少一个对象的方法
CN115685222B (zh) 一种基于激光点云数据的电力线塔架自动检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant