CN113495575A - 一种基于注意力机制的无人机自主着陆视觉引导方法 - Google Patents

一种基于注意力机制的无人机自主着陆视觉引导方法 Download PDF

Info

Publication number
CN113495575A
CN113495575A CN202110946641.6A CN202110946641A CN113495575A CN 113495575 A CN113495575 A CN 113495575A CN 202110946641 A CN202110946641 A CN 202110946641A CN 113495575 A CN113495575 A CN 113495575A
Authority
CN
China
Prior art keywords
runway
image
ultra
aerial vehicle
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110946641.6A
Other languages
English (en)
Other versions
CN113495575B (zh
Inventor
潘晓
刘胜同
刘震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110946641.6A priority Critical patent/CN113495575B/zh
Publication of CN113495575A publication Critical patent/CN113495575A/zh
Application granted granted Critical
Publication of CN113495575B publication Critical patent/CN113495575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开一种基于注意力机制的无人机自主着陆视觉引导方法,包括基于侧向卷积的注意力机制,能够充分融合图像通道和空间特征信息,且不增加额外参数与计算量,有效提升户外复杂环境下跑道检测准确性;赋权IOU损失函数,通过对小目标赋予更高的损失函数权重,实现远距条件下跑道的准确检测;基于检测出跑道信息,根据透视投影模型计算出偏航角,实现无人机自主着陆中的视觉引导;基于侧向卷积的注意力机制与赋权IOU损失函数嵌入到常规检测网络中,具有通用性,有效提升户外复杂环境中小目标检测精度,并适用于机载嵌入式环境;提高户外复杂光线环境下机场远/中距离跑道的定位能力,增强无人机远距离视觉导航的可靠性和稳定性。

Description

一种基于注意力机制的无人机自主着陆视觉引导方法
技术领域
本发明涉及无人机视觉导航的技术领域,具体涉及一种基于注意力机制的无人机自主着陆视觉导航方法。
背景技术
无人机由远距离飞行到着陆区的整个过程中,当无人机在当前视图中检测到目标跑道时,可根据跑道在图像中的位置调整飞行方向,确保着陆前保持正确飞行方向。因此,跑道的实时定位和航向估计是实现无人机视觉导航的前提。基于传统特征的跑道检测已经不能满足各种复杂场景的应用需求。基于深层特征的目标检测算法已经被广泛应用于工业缺陷检测等领域。然而基于深度学习的跑道检测仍然具有挑战性。由于外界环境干扰和光线变化,跑道颜色保真度和对比度会丧失,因此跑道特征会变得模糊不清。同时各种图像尺寸和成像角度会改变跑道原有特征信息,从而导致探测器漏检或误检跑道。在远距离下的跑道具有小目标特征,许多详细特征丢失,只能提供有限的特征。这些因素阻碍了可靠实用的无人机视觉导航系统的实现。
无人机远程视觉导航分为三个部分,图像采集、跑道检测和偏航角计算,主要目的是在复杂环境下准确高效地检测出跑道,并计算无人机偏航角用于无人机自主着陆视觉引导。其中跑道目标检测由两部分构成,分别为侧向注意力机制和和赋权IoU损失函数组成,偏航角计算基于检测得到跑到目标在图像中位置信息计算得出目前无人机相对跑道坐标系下偏航角,最后无人机利用该偏航角来调整自身姿态参数。现有注意力机制使检测器聚焦于目标的本质特征,以有效提高模型的抗干扰能力,它们有助于增强相关特征的表述能力,即关注基本特征,同时抑制不必要的特征。然而现有注意力机制仍然有缺点:第一,大多数现有通道注意力模块都经过全局池化,如“Squeeze-and-excitation networks”和“Sa-net:Shuffle attention for deep convolutional neural networks”,然后使用各种策略进行特征转换或加强,但它们不可避免地会导致大量特征的丢失;第二,大多数现有空间注意力模块,如“CBAM:Convolutional block attention module”和“SA-Net:Shuffleattention for deep convolutional neural networks”,是通过压缩通道信息或使用空间统计来构建的。它们是使用单一维度构建的,没有结合来自其他维度的相邻信息;第三,现有注意力机制不能同时将参数和计算量保持在较低的水平,从而限制了在资源有限的嵌入式平台中的应用。
综上,采用现有注意力机制的无人机自主着陆视觉引导方法在现场复杂光线环境的情况下尤其跑道在远距离即跑道目标占图像比例较小时的检测精度较低。
发明内容
本发明解决的技术问题包括,提供一种基于侧向注意力机制的无人机自主着陆视觉引导方法,充分融合图像通道和空间特征信息,且不增加额外参数与计算量,能够在现场复杂光线环境的情况下尤其跑道实现远/中距离条件下的高精度检测,进而完成无人机自主着陆中远/中距离下的视觉导航,有效提升户外复杂环境下跑道检测准确性。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于注意力机制的无人机自主着陆视觉引导方法,该方法包括:
步骤一、机载平台安装超低照度夜视宽光谱相机(光谱响应范围达400nm-1200nm),辅以图像采集与处理端,实现对待降落跑道进行昼间、傍晚和黑夜环境下高清成像,得到跑道在不同姿态、背景及光线下的图像,得到超低照度夜视宽光谱相机采集的跑道图像,并用于后续的图像处理和偏航估计;
步骤二、基于步骤一中超低照度夜视宽光谱相机采集的跑道图像,利用深度卷积神经网络对跑道图像进行跑道目标的检测,采用基于侧向卷积的注意力机制对跑道图像特征信息进行提取,所述跑道图像特征信息包括跑道在不同距离即不同尺度跑道图像特征信息提取,得到并融合跑道特征图中的通道和空间特征信息,使得跑道图像特征提取网络更注重于对跑道目标通道和空间特征提取,增强跑道目标检测模型的抗复杂背景的能力,提升跑道目标的检测精度;
步骤三、基于步骤二中提取的跑道图像特征信息,采用赋权IOU(Intersection ofUnion)损失函数对跑道目标进行位置回归,通过对不同尺度跑道目标赋予不同权重,提高跑道目标检测模型对远距离(1km-5km)以及中距离(0.2km-1km)条件下跑道目标检测性能,实现在远距离条件下跑道目标的准确检测,并得到跑道目标在图像中的位置信息;
步骤四、基于步骤三得到的跑道目标在图像中的位置信息,利用跑道中轴线和透视投影原理计算出无人机沿跑道目标着陆区域的偏航角,进而辅助无人机在中距离和远距离下自主着陆中的视觉导航。
所述步骤一中,在机载平台的吊舱中安装超低照度夜视宽光谱相机,能够实现对待降落跑道进行全天候高动态成像,包括白天、傍晚以及黑夜各类复杂环境下均能够实现高清晰度成像,辅以集成高速并行图像采集与嵌入式智能处理终端,实现对跑道目标进行图像采集与数据处理,具有小型化、低功耗、高吞吐量优点,适用于机载等嵌入式;无人机待降落的跑道目标进入超低照度夜视宽光谱相机可视范围内开启超低照度夜视宽光谱相机与处理终端,实现对待着陆跑道目标实时成像,为后续跑道定位与视觉导航奠定基础。
所述步骤二中,基于侧向卷积的注意力机制,采用卷积的空间通用性和通道特异性来重建跑道图像特征图,从而实现通道-空间或空间内的重新排列,并利用卷积实现通道和空间特征的有效融合方法如下:
(1)基于侧向卷积的注意力机制几乎不增加模型的参数和计算量,同时保留丰富的特征并有效融合通道和空间特征,主要包括两个注意力模块:通道注意力模块(CAM)和空间注意力模块(PAM);
(2)通道注意力模块中通过对特征图进行池化,将特征图分别在横纵方向分组,转置后对其进行卷积得到其在通道方向的权重映射,整合两组权重对特征通道赋予不同权重来强化相关特征信息通道并抑制无关特征信息通道,进而模型实现通道特征响应的自适应调整;
(3)空间注意力模块中通过对特征图分别沿横纵方向上进行池化分组,转置后对齐进行卷积得到在横纵方向上的最大响应值,整合两组权重对特征图进行加权融合。空间注意力模块能够结合周边信息和相邻通道信息提高对感兴趣区域的表述能力;
(4)提出的基于侧向卷积的方式来构建通道注意力机制,在几乎不增加原模型参数量和计算量的前提下实现对大量特征信息的充分利用。
所述基于侧向卷积的注意力机制由通道注意力模块和空间注意力模块两个模块构成;两个模块分别实现对通道特征和空间特征的自适应提取与调整,采用两个模块并联的方式进行连接,通过跑道目标检测模型的不断学习确定两个模块的权重分布,两个模块均利用特征图重组、转置以及卷积来实现特征图中的通道特征和空间特征的融合和利用;通道注意力模块首先利用池化来降低模块整体的复杂度,再通过对特征图分别沿着长、宽两个方向分别进行不同的特征图重组,实现特征图内空间特征的重构,再经过卷积、归一化操作得到两组空间特征在通道方向上的不同的权重映射,并利用跑道目标检测模型的不断学习和整合两组权重映射;通过通道注意力模块,实现跑道目标检测模型对特征图中通道特征的自适应调整,增强特征图中与跑道定位相关的特征通道的重要性;
空间注意力模块同样采用池化操作,为保留特征图在长或宽方向上的维度信息,分别对特征图在单一宽和长方向上进行池化操作,然后分别对特征图沿着宽和长方向进行特征图重构,实现特征图内空间信息到通道信息的转化,在经过卷积、归一化操作得到特征图分别在宽和长方向上的权重映射,并通过向量运算得到整体特征图在空间上的权重映射结果;通过空间注意力模块,实现跑道目标检测模型对特征图中空间特征的自适应调整,增强特征图中与跑道定位相关的空间特征的重要性。
所述步骤二中,赋权IOU损失函数,实现不同尺度目标权重的自适应调节;
(1)借鉴了n范数损失中损失函数与目标尺寸大小具有关联性,基于此设计了权重参数的计算模式;
(2)WIOU充分考虑目标大小与损失函数的关联性,确保小目标的赋予更大权重;
所述赋权IOU损失函数WIOU如下:
WIoU=1-β·IOU
其中WIoU为所提出的赋权IoU损失函数,β是所提出的自适应调整的权重系数,公式表示为:
Figure BDA0003216960890000041
其中Y为真实标签值,f(X)代表跑道目标检测模型的预测结果,α是所设定的超参数,设置为0.5,用于避免模型在训练初期由于预测结果和真实标签差异太大导致无法收敛。
WIOU方便移植到已有IOU类损失框架中,实现损失函数自适应调节,WIOU具有以下性质:
(1)设计包含自适应参数的赋权IOU损失函数,实现不同尺度目标权重的自适应调节;
(2)借鉴了n范数损失中损失函数与目标尺寸大小具有关联性,基于此设计了权重参数的计算模式;
(3)WIOU充分考虑目标大小与损失函数的关联性,确保小目标的赋予更大权重;
(4)WIOU具有通用性,可以有效、方便的嵌入到已有的IOU类损失框架中。
所述步骤四中,基于步骤三得到的跑道目标在图像中的位置信息,进而提取跑道中轴线图像坐标,根据超低照度夜视宽光谱相机内参数,参考跑道图像在相机中理想位置下的信息,解算出无人机在跑道坐标下的偏航角度,实现无人机远/中距离自主着陆视觉导航,具体过程如下所下:
设跑道坐标系为OXYZ,xcocyc为超低照度夜视宽光谱相机坐标系,跑道起始点与终点坐标分别为qb、qe;跑道起始与终点对应成像点分别为pb、pe,分别可以近似为预测检测框的下边界中点和上边界中点,理想跑道成像点为p1、p2,这里取其坐标为图像中心线处坐标即p1=[0,H/2]T,p2=[0,-H/2]T,其中W和H分别代表图像的宽度和高度;
跑道目标中轴线起始点在超低照度夜视宽光谱相机坐标系下方向向量为
Figure BDA0003216960890000042
Figure BDA0003216960890000043
其中oc为超低照度夜视宽光谱相机坐标系原点,pb为跑道目标中轴线的起始点图像坐标,pe为跑道目标在图像位置中轴线的终点坐标;理想跑道中轴线起始点在超低照度夜视宽光谱相机坐标系方向向量为
Figure BDA0003216960890000051
其中p1为理想跑道中轴线起始点图像坐标,p2为理想跑道中轴线终点图像坐标;
相应地,令v=v1×v2,u=u1×u2,矩阵R为实际跑道到理想跑道位置处变换矩阵,且二者满足v=R·u,其中绕超低照度夜视宽光谱相机坐标系yc轴旋转角度即超低照度夜视宽光谱相机需要调整的偏航角度;
设绕超低照度夜视宽光谱相机坐标系x轴旋转角为ψ,绕y轴旋转角为θ,绕z轴旋转角为φ,可以得到旋转矩阵R。超低照度夜视宽光谱相机坐标系下,
Figure BDA0003216960890000052
Figure BDA0003216960890000053
其中f代表焦距,得到v是沿着x轴的向量:v=k(1,0,0)T
由于跑道目标在远距离时成像所占整个图像比例较小,因此近似为:
Figure BDA0003216960890000054
Figure BDA0003216960890000055
其中h为跑道目标在图像中位置区域的预测框的大小,f代表超低照度夜视宽光谱相机焦距。令u为超低照度夜视宽光谱相机坐标系内方向向量:u=(xu,0,zu)T,可得到,
ψ=φ=0
R退化为,
Figure BDA0003216960890000056
通过结合上述公式v=R·u得到偏航角θ:
Figure BDA0003216960890000057
本发明与现有技术相比的优点在于:
(1)本发明首先提出一种基于侧向卷积的注意力机制,大多数先进的通道注意力模块都经过全局池化,然后使用各种策略进行特征转换或加强,但它们不可避免地会导致大量特征的丢失,而在构建侧向卷积的注意力机制时,避免使用全局池和全连接层,利用卷积块的空间通用性和通道特异性来利用更多特征。第二,大多数先进的空间注意力模块,是通过压缩通道信息或使用空间统计来构建的。它们是使用单一维度构建的,没有结合来自其他维度的相邻信息。而侧向卷积的注意力机制进行了通道特征和空间特征的重排列和空间特征内部的重排列,有利于多维度信息的融合。第三,先进的注意力机制不能同时将参数和计算量保持在较低的水平,从而限制了它们在资源有限的嵌入式平台中的应用。而侧向卷积的注意力机制则同时可以将计算量和参数量平衡在较低的水平。
(2)本发明提出一种赋权IOU损失函数(Weighted IOU Loss),当前已有方法利用IOU的尺度不变特征赋予模型对目标大小变化具有较好的鲁棒性,但在对于小目标检测时仍然存在不足。本发明中借鉴了n范数损失中损失函数与目标尺寸大小具有关联性,通过对小目标赋予更高的损失函数权重,可实现在远距离下对小目标的定位,使得模型对小目标的检测性能得到进一步的提升。
(3)基于上述方法实现在复杂背景下对远距离跑道的定位,再根据透视投影模型计算出偏航角,可实现无人机自主着陆中的视觉引导。基于传统特征的跑道检测已经不能满足各种复杂场景的应用需求。基于深层特征的目标检测算法已经被广泛应用于工业缺陷检测等领域。然而基于深度学习的跑道检测仍然具有挑战性。由于外界环境干扰和光线变化,跑道颜色保真度和对比度会丧失,因此跑道特征会变得模糊不清。同时各种图像尺寸和成像角度会改变跑道原有特征信息,从而导致探测器漏检或误检跑道。在远距离下的跑道具有小目标特征,许多详细特征丢失,只能提供有限的特征。这些因素阻碍了可靠实用的无人机视觉导航系统的实现。而所提方法可有效提升户外复杂环境中小目标检测精度,并可适用于机载嵌入式环境;同时该技术可提高户外复杂光线环境下机场中距离和远距离下对跑道目标的定位能力,增强无人机远距离视觉导航的准确性和稳定性。
附图说明
图1为本发明一种基于注意力机制的无人机自主着陆视觉引导方法流程图;
图2为无人机自主着陆远程视觉导航过程框架图;
图3为侧向注意力机制示意图;
图4为通道注意力模块结构图示意图;
图5为空间注意力模块结构图示意图;
图6为偏航角计算原理示意图。
具体实施方式
本发明的基本思想是:提出一种基于侧向卷积的注意力机制,能够充分融合图像通道和空间特征信息,且不增加额外参数与计算量,有效提升户外复杂环境下跑道检测准确性;其次提出一种赋权IOU损失函数(Weighted IOU Loss),通过对小目标赋予更高的损失函数权重,可实现远距条件下跑道的准确检测;最后基于检测出跑道信息,根据透视投影模型计算出偏航角,可实现无人机自主着陆中的视觉引导。
下面以无人机自主着陆视觉导航系统为例,对本发明作进一步详细说明。
如图1所示,本发明基于注意力机制的无人机自主着陆视觉引导方法流程主要包括以下步骤:
步骤11:在机载平台吊舱安装超低照度夜视宽光谱相机,可实现全天候高动态成像,辅以集成高速并行图像采集与嵌入式智能处理终端;待飞机降落前跑道目标可视范围内开启超低照度夜视宽光谱相机与处理终端,实现对待着陆跑道目标的实时成像。在获取包含跑道的图像后,利用定位模块实现对跑道区域的定位,并将定位结果输入到视觉导航模块中,为无人机的偏航角的计算与修正奠定基础,实现整体视觉导航流程。
这里采用FPGA并行图像采集与智能处理终端,作为无人机自主着陆视觉引导系统的处理核心装置;采用超低照度夜视宽光谱相机,实现机场跑道的全天候成像,确保在复杂天气环境下能够及时捕获机场跑道,为后续自主着陆视觉引导奠定重要基础。
步骤12:图像特征提取过程中为了给模型训练提供更为有效的训练方案,采用与CenterNet“X.Zhou,D.Wang,and P.Kr¨ahenb¨uhl,“Objects as points,”arXiv preprintarXiv:1904.07850,2019.”作者完全一样方式的数据增强,具体来说将输入图像resize为512×512分辨率,然后进行随机翻转、随机缩放(0.6-1.3)、裁剪和颜色抖动等。初始学习率的设置与梯度下降参考CenterNet进行设置,训练批次设置为16,并进行800个周期的训练,在第300、500和650个周期时设置学习速率下降10倍。
步骤13:如图3所示为基于侧向卷积的注意力机制,其中包括通道注意力模块与空间注意力模块,两个模块采用并联的方式进行连接,并最终通过模型的不断学习确定两个模块的权重分布。两个模块均利用了卷积的空间通用性和通道特异性来重建特征图,从而实现通道-空间或空间内的重新排列,并利用卷积实现通道和空间特征的有效融合。
步骤131:如图4所示为通道注意力模块结构图。对特征图的池化和分组操作是保证模型参数和计算量优于现有方法的关键,从图中可以看到给定输入特征图A∈RC×H×W,首先通过池化操作和分组操作得到可以A2∈RC×(Hg/p)×(w/gp)和A3∈RC×(H/gp)×(wg/p),通过池化和分组操作可以将模型的数量减小到原来1/pg,计算量降低到原来的1/p2,有效降低了模型的复杂度。
将A2、A3转置分别得到新的特征图B∈R(W/gp)×(Hg/p)×C以及D∈R(H/gp)×(Wg/p)×C。以特征图B计算流程为例,对特征图B沿着原W方向进行卷积:
E=σ(W3×3*B+b) (1)
其中W3×3表示可训练参数,b代表偏差,σ代表relu激活函数。
将特征图E沿着H方向计算最大响应值得到特征图B在C方向上的最大响应F∈R1×C
Figure BDA0003216960890000071
Fi代表矩阵F第i列的数值,
Figure BDA0003216960890000072
代表矩阵E第二维度序列为i第三维度序列为j的列元素,F中每个数值代表了在充分结合空间和通道信息后对应特征层内特征的最大响应。
再通过softmax计算最终在C方向上的映射为G∈RC×1×1
Figure BDA0003216960890000081
Gn表示经过softmax归一化后第n层特征图对应的特征响应。
特征图D的计算流程与特征图B计算流程类似,可以得到在C方向上的映射J∈RC ×1×1,引入两个可变化的影响因子将G与J进行加权后和处理,采用残差结构将经过通道处理后的特征图与原特征图A进行结合,得到最终经过通道注意力机制的输出K∈RC×H×W
Km=Am1·Gm2·Jm)+Am(m=1,2,3…C) (4)
其中Km是经过通道注意力机制调整后的第m层特征图的输出结果,Am是第m层原始输入特征图,Gm和Jm是分别通过不同通道后第m层的特征响应值,α1和α2是分别对应特征响应通道G和J的权重因子,初始化均设置为0,随着模型的不断学习得到最优值。通过对特征通道赋予不同权重来强化相关特征信息通道并抑制无关特征信息通道,进而模型实现通道特征响应的自适应调整。
步骤132:如图5所示为空间注意力模块,与通道注意力模块不同,为了不损失在H方向上的权重系数,只将特征图A∈RC×H×W沿着W方向进行池化操作后进行分组得到A2∈R(Cg)×H×(w/pg),同理可得到特征图A4∈R(Cg)×(H/pg)×W。A2、A4通过两种不同的转置方式分别得到两个新的特征图B∈R(W/pg)×H×Cg以及D∈R(H/pg)×W×Cg,通过对B和D的卷积、softmax等一系列操作后分别获得特征图在H和W方向上的权重分布。以计算H方向的权重分布为例,对特征图B沿着原W方向进行卷积:
E=σ(W3×3*B+b) (5)
其中f表示可训练参数,b代表偏差,σ代表relu激活函数。
将特征图E沿着原C方向计算最大响应值,得到特征图B在H方向上的最大响应值F∈RH×1
Figure BDA0003216960890000082
这里Fi代表矩阵F第i行的数值,
Figure BDA0003216960890000083
代表矩阵E第一维度序列为i且第三维度序列为j的行元素。F中每个数值代表了特征图A在充分结合空间和通道信息后对应H方向的特征的最大响应。
最后利用softmax来计算最终在H方向上的映射为G∈R1×H
Figure BDA0003216960890000084
Gn表示经过softmax归一化后在H方向上对应的特征响应。
特征图D在W方向上的映射计算方法与H方向上计算映射类似,可得到W方向上的映射为J∈RW×1,通过矩阵运算可以得到空间权重图S∈RH×W,将该权重图与特征图A相乘提高目标在局部特征上的表述能力。同时引入一个可变参数因子,采用残差结构将经过空间自适应处理后的特征图与原始特征图A进行结合,最终的输出结果K∈RC×H×W
Km=α·(S·Am)+Am(k=1,2,3…C) (8)
其中Km是经过空间注意力机制调整后的第m层特征图的输出结果,Am是原始第m层输入特征图,S是空间权重分布图,α是可学习的参数,初始值设为0。空间注意力模块能够结合周边信息和相邻通道信息提高对感兴趣区域的表述能力。
步骤14:加载赋权IOU损失函数。损失函数有助于精确回归,这直接决定了最终的检测效果。n范数损失函数通常用于包围盒回归,但是它们对不同的尺度较为敏感。因此,本发明提出了一种Weighted IoU Loss(WIoU)损失函数,WIoU根据惩罚项的不同还可以扩展为WGIoU、WDIoU等。WIoU损失函数对于基于CenterNet以及一些包含预定位的目标检测算法具有较好友好性,且具有一定通用性。基于WIOU的损失函数定义为:
L(β)=1-WIOU=1-β(IOU-R(B,Bgt) (10)
其中β为引入的权重因子,它需要同时满足以下几个条件:
(1)损失函数L(β)非负,即β(IOU-R(B,Bgt))≤1;
(2)β应该同时满足Ls(β)>Lb(β)且βs<βb,即IOU-R(B,Bgt)≥0;
(3)当两个检测框B与Bgt非常接近时,β→1,即
Figure BDA0003216960890000091
借鉴了n范数损失中损失函数与目标尺寸大小具有关联性,基于此设计了
Figure BDA0003216960890000092
其中Y为真实标签,f(X)为对样本的预测值,α是超参数,避免模型在训练初期由于f(X)过小导致无法收敛的问题。
WIoU作为新的度量具有以下性质:
(1)WIoU保留了原有度量的所有性质,如非负性、不可辨识性、可对称性以及三角形不等式等;
(2)WIoU充分考虑到被测目标的大小与损失函数的关联性;
(3)WIoU方便移植到已有的IoU类损失框架上;
(4)WIoU具有通用性,可以有效、方便的嵌入到已有的IOU类损失框架中。
步骤15:基于步骤12-14实现跑道数据集的训练后,代入新采集跑道图像进行跑道目标检测,返回跑道在图像中的位置信息。
步骤16:如图6为偏航角计算与远程视觉引导过程。基于已检测到的跑道信息,远程视觉导航就开始在无人机自主着陆中发挥重要作用。其中偏航角在整个过程中起着至关重要的作用,因为它决定了着陆的方向,并确保无人机最终将在准确的区域着陆。因此,在远程视觉导航中,计算偏航比计算俯仰和滚转更重要。
设跑道坐标系为OXYZ,xcocyc为超低照度夜视宽光谱相机坐标系,跑道起始点与终点坐标分别为qb、qe;跑道起始与终点对应成像点分别为pb、pe,分别可以近似为预测检测框的下边界中点和上边界中点,理想跑道成像点为p1、p2,这里取其坐标为图像中心线处坐标即p1=[0,H/2]T,p2=[0,-H/2]T,其中H为图像高度;
令跑道成像在超低照度夜视宽光谱相机坐标系下方向向量为
Figure BDA0003216960890000101
理想跑道点在超低照度夜视宽光谱相机坐标系方向向量为
Figure BDA0003216960890000102
令v=v1×v2,u=u1×u2,矩阵R为实际跑道到理想跑道位置处变换矩阵,且二者满足v=R·u,其中绕超低照度夜视宽光谱相机坐标系yc轴旋转角度即超低照度夜视宽光谱相机需要调整的偏航角度。
设绕着x轴旋转ψ角,绕y轴旋转θ角,绕z轴旋转φ角,可以得到旋转矩阵R定义为:
Figure BDA0003216960890000103
上述分析可知在超低照度夜视宽光谱相机坐标系下,
Figure BDA0003216960890000104
其中f代表焦距,得到v是沿着x轴的向量:v=k(1,0,0)T
由于远距离时被测检测框较小,因此可以近似认为
Figure BDA0003216960890000105
Figure BDA0003216960890000106
其中W和H分别代表图像的宽度和高度,h代表预测框的大小,f代表焦距。可以得到u是在xcocyc内方向向量:u=(xu,0,zu)T,可得,
ψ=φ=0 (14)
R退化为,
Figure BDA0003216960890000107
通过结合公式(12)-(16),根据v=R·u可得,
Figure BDA0003216960890000108

Claims (5)

1.一种基于注意力机制的无人机自主着陆视觉引导方法,其特征在于,包括步骤如下:
步骤一、机载平台安装超低照度夜视宽光谱相机,辅以图像采集与处理端,实现对待降落跑道进行昼间、傍晚和黑夜环境下高清成像,得到跑道在不同姿态、背景及光线下的图像,得到超低照度夜视宽光谱相机采集的跑道图像,并用于后续的图像处理和偏航估计;
步骤二、基于步骤一中超低照度夜视宽光谱相机采集的跑道图像,利用深度卷积神经网络对跑道图像进行跑道目标的检测,采用基于侧向卷积的注意力机制对跑道图像特征信息进行提取,所述跑道图像特征信息包括跑道在不同距离即不同尺度跑道图像特征信息提取,得到并融合跑道特征图中的通道和空间特征信息,使得跑道图像特征提取网络更注重于对跑道目标通道和空间特征提取,增强跑道目标检测模型的抗复杂背景的能力,提升跑道目标的检测精度;
步骤三、基于步骤二中提取的跑道图像特征信息,采用赋权IOU(Intersection ofUnion)损失函数对跑道目标进行位置回归,通过对不同尺度跑道目标赋予不同权重,提高跑道目标检测模型对远距离即1km-5km以及中距离即0.2km-1km条件下跑道目标检测性能,实现在远距离条件下跑道目标的准确检测,并得到跑道目标在图像中的位置信息;
步骤四、基于步骤三得到的跑道目标在图像中的位置信息,利用跑道中轴线和透视投影原理计算出无人机沿跑道目标着陆区域的偏航角,进而辅助无人机在中距离和远距离下自主着陆中的视觉导航。
2.根据权利要求1所述的基于注意力机制的无人机自主着陆视觉引导方法,其特征在于:步骤一中,在机载平台的吊舱中安装超低照度夜视宽光谱相机,能够实现对待降落跑道进行全天候高动态成像,包括白天、傍晚以及黑夜各类复杂环境下均能够实现高清晰度成像,辅以集成高速并行图像采集与嵌入式智能处理终端,实现对跑道目标进行图像采集与数据处理;无人机待降落的跑道目标进入超低照度夜视宽光谱相机可视范围内开启超低照度夜视宽光谱相机与处理终端,实现对待着陆跑道目标实时成像。
3.根据权利要求1所述的基于注意力机制的无人机自主着陆视觉引导方法,其特征在于:所述步骤二中,基于侧向卷积的注意力机制由通道注意力模块和空间注意力模块两个模块构成;两个模块分别实现对通道特征和空间特征的自适应提取与调整,采用两个模块并联的方式进行连接,通过跑道目标检测模型的不断学习确定两个模块的权重分布,两个模块均利用特征图重组、转置以及卷积来实现特征图中的通道特征和空间特征的融合和利用;通道注意力模块首先利用池化来降低模块整体的复杂度,再通过对特征图分别沿着长、宽两个方向分别进行不同的特征图重组,实现特征图内空间特征的重构,再经过卷积、归一化操作得到两组空间特征在通道方向上的不同的权重映射,并利用跑道目标检测模型的不断学习和整合两组权重映射;通过通道注意力模块,实现跑道目标检测模型对特征图中通道特征的自适应调整,增强特征图中与跑道定位相关的特征通道的重要性;
空间注意力模块采用池化操作,为保留特征图在长或宽方向上的维度信息,分别对特征图在单一宽和长方向上进行池化操作,然后分别对特征图沿着宽和长方向进行特征图重构,实现特征图内空间信息到通道信息的转化,在经过卷积、归一化操作得到特征图分别在宽和长方向上的权重映射,并通过向量运算得到整体特征图在空间上的权重映射结果;通过空间注意力模块,实现跑道目标检测模型对特征图中空间特征的自适应调整,增强特征图中与跑道定位相关的空间特征的重要性。
4.根据权利要求1所述的基于注意力机制的无人机自主着陆视觉引导方法,其特征在于:步骤二中,所述赋权IOU损失函数WIOU如下:
WIoU=1-β·IOU
其中WIoU为所提出的赋权IoU损失函数,β是所提出的自适应调整的权重系数,公式表示为:
Figure FDA0003216960880000021
其中Y为真实标签值,f(X)代表跑道目标检测模型的预测结果,α是所设定的超参数,设置为0.5。
5.根据权利要求1所述的基于注意力机制的无人机自主着陆视觉引导方法,其特征在于:所述步骤四具体实现过程如下:
设跑道坐标系为OXYZ,ocxcyczc为超低照度夜视宽光谱相机坐标系,跑道起始点与终点坐标分别为qb、qe;跑道起始与终点对应成像点分别为pb、pe,分别近似为预测检测框的下边界中点和上边界中点,理想跑道成像点为p1、p2,这里取其坐标为图像中心线处坐标即p1=[0,H/2]T,p2=[0,-H/2]T,其中W和H分别代表图像的宽度和高度;
跑道目标中轴线起始点在超低照度夜视宽光谱相机坐标系下方向向量为
Figure FDA0003216960880000022
Figure FDA0003216960880000023
其中oc为超低照度夜视宽光谱相机坐标系原点,pb为跑道目标中轴线的起始点图像坐标,pe为跑道目标在图像位置中轴线的终点坐标;理想跑道中轴线起始点在超低照度夜视宽光谱相机坐标系方向向量为
Figure FDA0003216960880000024
其中p1为理想跑道中轴线起始点图像坐标,p2为理想跑道中轴线终点图像坐标;
相应地,令v=v1×v2,u=u1×u2,矩阵R为实际跑道到理想跑道位置处变换矩阵,且二者满足v=R·u,其中绕超低照度夜视宽光谱相机坐标系yc轴旋转角度即超低照度夜视宽光谱相机需要调整的偏航角度;
设绕超低照度夜视宽光谱相机坐标系x轴旋转角为ψ,绕y轴旋转角为θ,绕z轴旋转角为φ,得到矩阵R;超低照度夜视宽光谱相机坐标系下,
Figure FDA0003216960880000031
其中f代表焦距,得到v是沿着x轴的向量:v=k(1,0,0)T
Figure FDA0003216960880000032
Figure FDA0003216960880000033
其中h为跑道目标在图像中位置区域的预测框的大小,f代表超低照度夜视宽光谱相机焦距,u为超低照度夜视宽光谱相机坐标系内方向向量:u=(xu,0,zu)T,得到,
ψ=φ=0
R退化为,
Figure FDA0003216960880000034
通过结合上述公式v=R·u得到偏航角θ:
Figure FDA0003216960880000035
CN202110946641.6A 2021-08-18 2021-08-18 一种基于注意力机制的无人机自主着陆视觉引导方法 Active CN113495575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110946641.6A CN113495575B (zh) 2021-08-18 2021-08-18 一种基于注意力机制的无人机自主着陆视觉引导方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110946641.6A CN113495575B (zh) 2021-08-18 2021-08-18 一种基于注意力机制的无人机自主着陆视觉引导方法

Publications (2)

Publication Number Publication Date
CN113495575A true CN113495575A (zh) 2021-10-12
CN113495575B CN113495575B (zh) 2023-05-23

Family

ID=77996836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110946641.6A Active CN113495575B (zh) 2021-08-18 2021-08-18 一种基于注意力机制的无人机自主着陆视觉引导方法

Country Status (1)

Country Link
CN (1) CN113495575B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429633A (zh) * 2022-01-28 2022-05-03 北京百度网讯科技有限公司 文本识别方法、模型的训练方法、装置、电子设备及介质
CN114719848A (zh) * 2022-01-25 2022-07-08 西安微电子技术研究所 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN114719848B (zh) * 2022-01-25 2024-05-03 西安微电子技术研究所 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104340371A (zh) * 2013-07-24 2015-02-11 空中客车营运有限公司 自主且自动的着陆方法和系统
US9174746B1 (en) * 2014-06-26 2015-11-03 Rockwell Collins, Inc. Visual aid generating system, device, and method
CN112797982A (zh) * 2020-12-25 2021-05-14 中国航空工业集团公司沈阳飞机设计研究所 一种基于机器视觉的无人机自主着陆测量方法
US11036240B1 (en) * 2018-06-18 2021-06-15 Amazon Technologies, Inc. Safe landing of aerial vehicles upon loss of navigation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104340371A (zh) * 2013-07-24 2015-02-11 空中客车营运有限公司 自主且自动的着陆方法和系统
US9174746B1 (en) * 2014-06-26 2015-11-03 Rockwell Collins, Inc. Visual aid generating system, device, and method
US11036240B1 (en) * 2018-06-18 2021-06-15 Amazon Technologies, Inc. Safe landing of aerial vehicles upon loss of navigation
CN112797982A (zh) * 2020-12-25 2021-05-14 中国航空工业集团公司沈阳飞机设计研究所 一种基于机器视觉的无人机自主着陆测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈磊;陈宗基;: "基于视觉的无人作战飞机自主着陆导航方案", 北京航空航天大学学报 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN114719848A (zh) * 2022-01-25 2022-07-08 西安微电子技术研究所 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN114719848B (zh) * 2022-01-25 2024-05-03 西安微电子技术研究所 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN114429633A (zh) * 2022-01-28 2022-05-03 北京百度网讯科技有限公司 文本识别方法、模型的训练方法、装置、电子设备及介质
CN114429633B (zh) * 2022-01-28 2023-10-27 北京百度网讯科技有限公司 文本识别方法、模型的训练方法、装置、电子设备及介质

Also Published As

Publication number Publication date
CN113495575B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN113359810B (zh) 一种基于多传感器的无人机着陆区域识别方法
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN108596101B (zh) 一种基于卷积神经网络的遥感图像多目标检测方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN112884760B (zh) 近水桥梁多类型病害智能检测方法与无人船设备
CN110163187B (zh) 基于f-rcnn的远距离交通标志检测识别方法
CN108242079B (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
CN111507271B (zh) 一种机载光电视频目标智能化检测与识别方法
US10410120B1 (en) Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same
CN113657388B (zh) 一种融合图像超分辨率重建的图像语义分割方法
CN110889324A (zh) 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN106529538A (zh) 一种飞行器的定位方法和装置
CN110189304B (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN113495575A (zh) 一种基于注意力机制的无人机自主着陆视觉引导方法
CN110070025A (zh) 基于单目图像的三维目标检测系统及方法
CN110910327B (zh) 一种基于掩模增强网络模型的无监督深度补全方法
CN111536970B (zh) 一种用于低能见度大尺度场景的红外惯性组合导航方法
CN110647909A (zh) 一种基于三维密集卷积神经网络的遥感图像分类方法
CN114943757A (zh) 基于单目景深预测和深度增强学习的无人机森林探索系统
Ding et al. Building detection in remote sensing image based on improved YOLOv5
CN112268564B (zh) 一种无人机降落空间位置和姿态端到端估计方法
CN116580324A (zh) 一种基于YOLOv5的无人机对地目标检测方法
CN115187959B (zh) 一种基于双目视觉的飞行汽车山地着陆方法及系统
CN114550016B (zh) 一种基于上下文信息感知的无人机定位方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant