CN108820233B - 一种固定翼无人机视觉着陆引导方法 - Google Patents
一种固定翼无人机视觉着陆引导方法 Download PDFInfo
- Publication number
- CN108820233B CN108820233B CN201810730693.8A CN201810730693A CN108820233B CN 108820233 B CN108820233 B CN 108820233B CN 201810730693 A CN201810730693 A CN 201810730693A CN 108820233 B CN108820233 B CN 108820233B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- angle
- landing
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D45/04—Landing aids; Safety measures to prevent collision with earth's surface
- B64D45/08—Landing aids; Safety measures to prevent collision with earth's surface optical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/25—Fixed-wing aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/60—Take-off or landing of UAVs from a runway using their own power
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Abstract
本发明提供一种固定翼无人机视觉着陆引导方法,包括:使用3D CNN提取固定翼无人机着陆阶段成像设备采集到的视频中相邻多帧图像的时空域特征点,通过计算相邻多帧图像能够相互匹配的特征点之间的位置变化信息,控制无人机自主着陆。本发明提出的基于卷积神经网络的固定翼无人机视觉着陆引导方法,主要研究的图像信息由机载视觉系统获取,跑道的识别不借助于地面辅助标志,主要依靠的技术包括计算机视觉和深度学习技术。利用成像设备作为被动传感器采集丰富的着陆场景信息,成像设备重量轻,很适用于无人机承载能力弱的特点;同时,本发明算法不借助于地面辅助标志实现,不依赖运行环境,从而将大大提高固定翼无人机视觉着陆引导的可靠性。
Description
技术领域
本发明涉及固定翼无人机自主着陆引导技术领域,尤其涉及固定翼无人机视觉着陆引导方法。
背景技术
无人机(Unmanned Aerial Vehicle,UAV)是一种按程序控制飞行的非载人飞行器。无人机技术已广泛应用于军事、通信、测绘、环境、交通等多个领域。为了进一步推动无人机技术朝着自动化和智能化的方向发展,自主控制成为当前无人机技术研究的热点。
无人机的飞行任务包括三个阶段:起飞、飞行和着陆阶段。起飞和飞行阶段的工作相对于着陆阶段更容易完成,当起飞条件满足时,通过较简单程序控制就可以实现起飞,对系统的自主性要求并不高;在导航系统的引导下,飞行阶段也相对简单。而着陆阶段则比较复杂,由于无人机在着陆时高速运动,操纵复杂,地面干扰因素多,使得该阶段发生事故的概率往往高于其他两个阶段。为了进一步推动智能化,并结合安全因素的考量,自主着陆成为迫切需要解决的难题之一,对自主着陆过程关键技术的研究具有很大的价值。
无人机按照机体结构的特点主要分为两种类型:固定翼无人机和旋翼无人机。对于采用轮式起落架滑跑方式起降的固定翼无人机,对着陆过程中的导航精度、可靠性、安全性的要求很高。据有关统计,虽然着陆阶段只占整个飞行任务2%到3%的时间,但发生的故障数却约占整个飞行任务中故障总数的80%左右,因此提高着陆的可靠性和引导精度,已成为一项重要的研究任务。
无人机自主着陆技术的研究现状:
当前全球使用的符合国际民航组织(ICAO)要求的自主飞行着陆系统主要有微波仪表着陆系统(MLS)、联合精密自主着陆系统(JPALS)和毫米波单脉冲二次雷达引导系统(PLS)。
微波着陆系统(MLS)
MLS的工作原理是由机载设备接收地面设备发射的引导信号,然后由机载设备计算出飞机相对于跑道的位置关系进行着陆导引。MLS采用相控阵天线,设备昂贵,未来发展方向主要集中于设备的小型化和降低成本。
毫米波二次雷达着陆系统(PLS)
PLS主要用于无人机的起降引导,由机载设备和地面设备两部分组成。在美国,PLS已经广泛应用于无人机中。我国的PLS目前还处于实验阶段,尚未有成熟的装备。
PLS的优点有:
1引导精度高,测角精度与距离无关;
2设备尺寸较小,安装架设方便,适于机动和战时使用。
PLS的缺点有:
1受天气影响大。受雨雾影响比较明显,在恶劣气象条件下,作用距离会大大减少;
2由地面设备计算出导航信息,通过数据链传送给飞机,引导信息时间延迟较大。
联合精密自主着陆着陆系统(JPALS)
JPALS是由美国开发的军用高精度自主着陆引导系统,可在能见度为零的条件下引导飞机自主着陆。JPALS以GPS为基础,垂直精度可达0.3m,大大高于民航三类盲降系统所要求的指标。目前,美军已成功地将JPALS集成在战斗机上,未来将改进对无人机的支持。
基于视觉的无人机自主着陆技术
基于视觉的自主着陆技术成为了近年来的研究热点,将是我国追赶国际先进技术的一个突破口。
基于视觉的无人机自主着陆技术主要利用成像系统获取图像信息,通过智能计算系统完成信息分析,导引着陆。
目前,视觉自主引导技术在智能车辆导航中的应用最为成熟,其图像采集装置安装于车辆上,图像采集装置的高度、俯仰角和滚转角都是固定已知的,未知变量仅仅是相对于道路中心线的侧偏角。
相对于其它自主着陆方案,基于视觉的无人机自主着陆技术具有设备简单、信息无源、能够应对电子对抗等优势,但是,在无人机自主着陆过程中,侧偏角、俯仰角和滚转角都不是固定不变的,而这些变化参数又存在相互影响,因此算法的难度要远高于智能车辆导航。
无人机按照机体结构的特点主要分为两种类型:固定翼无人机和旋翼无人机。
旋翼无人机通常具有任意位置悬停、直角平面转弯和垂直升降等方面的能力,一般利用垂直自主着陆的方法进行回收处理。主要工作流程为:首先,在导航系统的引导下飞行至着陆场上方,然后利用垂直起降实现着陆。因此,旋翼无人机的视觉着陆方案较为容易实现。
固定翼无人机自主着陆的主要工作流程为:到达目标空域后,进行跑道搜索,计算无人机与跑道之间的位置关系,提供给飞控系统进行位姿控制,滑跑着陆。期间若出现不能识别跑道情况或者无人机位姿达不到安全着陆要求,应立即拉高无人机,重新进行跑道搜索,否则,可能影响无人机的安全。
国内外研究机构代表性的研究成果有:
2004年,Cherian Anoop等通过机器学习方法,将图像的纹理和高度信息映射起来,对无人机着陆时的高度进行估计。
2008年,Sukhatme等人采用组合导航的方式,利用拓展卡尔曼滤波将视觉信息和惯导信息进行融合,以获取更精确的无人机位置和姿态参数。
2008年,Kelly等采用了立体视觉测量与惯导传感器融合的方式设计了基于自然地标的无人机导航系统。
2010年,Wenzel等人利用微型红外热像仪探测地面上的斑点,从而对无人机的相对位置进行解算。
2012年,Vladimir等人提出了基于感兴趣区域Hough变换的直线跟踪方法引导无人机自主着陆。
2014年,韩国航天工程部提出一种应用于小型无人机上的视觉引导着陆系统,通过视觉引导无人机飞行至安装在地面上的红色圆拱形安全气袋中。无人机通过颜色识别,获得着陆安全气袋的位置。
通过上述分析,对研究现状总结如下:
1.MLS在我国军用领域使用广泛,主要用于有人机着陆,其产品、技术已经成熟,主要性能指标能够满足无人机着陆引导需求。MLS优点是引导精度高,缺点是:价格昂贵,地面设备体积大,安装架设对场地环境要求较高,无法完成快速安装和架设。
2.PLS设备体积小、便于携带,在无人机着陆方面具有突出的优势,美国已广泛使用。但是我国的PLS目前还处于实验阶段,尚未有成熟的装备。
3.美军已经成功地将JPALS集成在战斗机上,下一步将改进对无人机的支持。目前我国在基于GPS的着陆系统的研发方面和美军JPALS差距较大。
4.基于视觉的固定翼无人机着陆技术研究方面,研究机构虽已取得不少成果,但距离工程实现仍需要深入研究。固定翼无人机的整个着陆过程相对于旋翼机速度更快,需要更长的空间距离,因此对其着陆过程中算法的实时性和精确性要求高,这些成为固定翼无人机利用视觉技术完成自主着陆的难点。
基于视觉的无人机自主着陆技术是近些年来的研究热点,可能会成为我国追赶国际先进自主飞行着陆技术的一个突破口。
跑道区域识别属于图像分类技术的研究范畴。图像分类技术的主要应用领域包括:图像自动标注、基于内容的图像检索、视频监控、医学影像处理等。尽管近些年大量涌现出很多高效的算法,不断提高图像分类的准确率,但是,仍然存在“语义鸿沟”问题,即图像的底层视觉信息难以准确表达为人类可理解的高层语义;难以用同一个特征提取方法对不同来源的图像进行描述等问题。
常用的图像分类方法包括基于图像空间的方法和基于特征空间的方法。目前,基于视觉的无人机自主着陆研究方案中,大部分采用的是基于特征空间的图像分类方法,针对真实跑道目标的识别方案,多数通过借助于地面辅助标志实现,这些方案对运行环境存在很大的依赖,只有处于特定环境条件之下才能使得算法的可靠性提高。基于特征空间的图像分类方法能够降低计算复杂度,但是准确率取决于特征提取的好坏。传统的图像分类方法只能针对某类具体的分类任务,当需要分类的数据发生变化时需要花费大量的精力来找到新的解决办法,不具有良好的泛化性。
发明内容
本发明针对上述不足,提出采用3D卷积神经网络(Convolutional NeuralNetwork,CNN)方法解决跑道区域跟踪问题。CNN是近年发展起来,并引起广泛重视的一种高效识别方法。CNN的特征检测层通过训练数据进行学习得到分类特征,可以避免显式的特征提取,并且可以使用GPU或者FPGA等并行加速硬件进行训练加速。对于视频信息处理来说,2D CNN存在如下缺点:2D CNN专注于单帧图像的描述,不能提取到相邻帧图像之间的时序关系,当处理时序信息敏感的问题时,由于2D CNN只进行二维卷积与池化,导致模型丢失了时间信息。本发明采用的C3D卷积神经网络,是一种常用的3D CNN,在每次卷积或池化过程中,同时考虑相邻几帧图像的局部信息,使得视频信息中的时序关系能够逐层传递下去。因此本文选择C3D卷积神经网络提取着陆视频中的特征点。
一种固定翼无人机视觉着陆引导方法,包括:使用3D CNN提取固定翼无人机着陆阶段成像设备采集到的视频中相邻多帧图像的时空域特征点,通过计算相邻多帧图像能够相互匹配的特征点之间的位置变化信息,控制无人机自主着陆。
进一步地,如上所述的方法,包括:基于3D CNN的位姿控制参数修正和基于3D CNN的近距离跑道跟踪两部分;
所述基于3D CNN的位姿控制参数修正为:针对采集到的相邻帧对应的图像使用基于3D CNN的方法对位姿控制参数进行修正;所述位姿控制参数包括:基于相邻帧匹配特征点的侧偏角、滚转角、俯仰角;
所述基于3D CNN的近距离跑道跟踪为:对采集到的视频中连续帧采用所述基于3DCNN的方法对位姿控制参数进行时实修正。
进一步地,如上所述的方法,所述侧偏角修正算法由以下公式表示:
αnew=αold+δα
其中,k为调整系数,通过大量视频训练得到,δα是侧偏角的修正角;d是视频的相邻帧中匹配特征点的横向偏移,h是视频的相邻帧中匹配特征点的纵向偏移,α为侧偏角,αnew为修正后的侧偏角,αold为修正前的侧偏角。
进一步地,如上所述的方法,滚转角修正算法由以下公式表示:
δβ=-lλ
βnew=βold+δβ
其中,l为调整系数,通过大量视频训练得到,β为滚转角,δβ为滚转角的修正角,βnew为修正后的滚转角,βold为修正前的滚转角,λ为视频的相邻帧中匹配特征点之间的相对旋转角度。
进一步地,如上所述的方法,所述俯仰角修正算法由以下公式表示:
δγ=-mh
γnew=γold+δγ
其中,m为调整系数,通过大量视频训练得到;h为视频的相邻帧中匹配特征点的纵向偏移,δγ为俯仰角的修正角,γnew为修正后的俯仰角,γold为修正前的俯仰角。
有益效果:
本发明提出的基于卷积神经网络的固定翼无人机视觉着陆引导方法,主要研究的图像信息将由机载视觉系统获取的,跑道的识别将不借助于地面辅助标志,主要依靠的技术包括计算机视觉和深度学习技术。利用成像设备作为被动传感器采集丰富的着陆场景信息,成像设备重量轻,很适用于无人机承载能力弱的特点;同时,本发明算法不借助于地面辅助标志实现,不依赖运行环境,从而将大大提高固定翼无人机视觉着陆引导的可靠性。
附图说明
图1固定翼无人机主轴与跑道的侧偏角α;
图2侧偏角和俯仰角引起的视频的相邻帧中匹配的特征点偏移,d为视频的相邻帧中匹配的特征点的横向偏移,h为视频的相邻帧中匹配的特征点的纵向偏移;
图3固定翼无人机的滚转角β;
图4滚转角β引起的视频的相邻帧中匹配的特征点旋转图;
图5着陆过程流程图;
图6固定翼无人机的俯仰角γ;
图7为本发明固定翼无人机视觉着陆引导方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图7所示,本发明提供的固定翼无人机视觉着陆引导方法,包括:使用3D CNN提取固定翼无人机着陆阶段成像设备采集到的视频中相邻多帧图像的时空域特征点,通过计算相邻多帧图像能够相互匹配的特征点之间的位置变化信息,控制无人机自主着陆。
具体地,固定翼无人机在自主着陆阶段具有如下特点:由于着陆过程中距离跑道很近,且飞行速度较旋翼机快,机载摄像机采集到的视频图像只是前进方向跑道的一部分,图像随着无人机的前进迅速变化,每一帧图像只和前一帧图像部分重合。由于3D CNN能够将卷积核应用到时空域,使用3D CNN可以提取到相邻多帧图像的特征点。在提取到相邻多帧图像的特征点之后,通过特征点匹配算法,计算得到相邻多帧图像重合部分的能够相互匹配的特征点,通过这些特征点之间的位置关系信息,即可得到自主着陆阶段控制固定翼无人机位姿所需参数。
本发明采用的3D CNN为C3D卷积神经网络。C3D卷积神经网络可以通过在CNN的卷积层进行3D卷积,提取到时间和空间维度都具有区分性的特征。
进一步地,本发明提供的固定翼无人机视觉着陆引导方法包括:基于3D CNN的位姿控制参数修正和基于3D CNN的近距离跑道跟踪两部分;
所述基于3D CNN的位姿控制参数修正为:针对采集到的相邻帧对应的图像使用基于3D CNN的方法对位姿控制参数进行修正;
所述基于3D CNN的近距离跑道跟踪为:对采集到的视频中连续帧采用所述基于3DCNN的方法对位姿控制参数进行时实修正。
此处需要说明的是:“基于3D CNN的位姿控制参数修正方法”是针对相邻帧的校正算法,操作对象是两幅图像;“基于3D CNN的近距离跑道跟踪方法”,是根据视频的连续性,在整个着陆过程中,连续使用“基于3D CNN的位姿控制参数修正方法”,操作对象是整个着陆过程视频。
其中,所述位姿控制参数是指:固定翼无人机主轴与跑道方向的侧偏角,下面简称侧偏角;固定翼无人机的滚转角,下面简称滚转角;固定翼无人机的俯仰角,下面简称俯仰角。在固定翼无人机自主着陆初始阶段,应保证侧偏角和滚转角接近于零,俯仰角在安全着陆范围内,才能开始自主着陆过程。
所述位姿控制参数修正方法为基于相邻帧匹配特征点的侧偏角、滚转角、俯仰角修正方法。
所述基于相邻帧匹配特征点的侧偏角修正方法为:根据侧偏角引起的视频的相邻帧中匹配的特征点的横向和纵向偏移,计算修正值对侧偏角进行实时修正。
所述基于相邻帧匹配特征点的滚转角修正方法为:根据滚转角引起的视频的相邻帧中匹配的特征点之间的旋转角度,计算修正值对滚转角进行实时修正。
所述基于相邻帧匹配特征点的俯仰角修正方法为:根据俯仰角引起的视频的相邻帧中匹配的特征点纵向偏移,计算修正值对俯仰角进行实时修正。
所述基于3D CNN的近距离跑道跟踪方法为:在固定翼无人机自主着陆过程中,使用基于3D CNN的位姿控制参数修正方法对侧偏角、滚转角、俯仰角进行实时修正,由于在固定翼无人机自主着陆过程中,视频具有多帧之间的连续性,因此修正相邻帧之间的位姿控制参数,就可以保证整个自主着陆过程位姿控制参数满足安全着陆条件。
如图1-6所示:
定义一:定义固定翼无人机视觉自主着陆前提(简称着陆前提)为:在开始着陆阶段,侧偏角α、滚转角β都为零。对于每种机型,都会有能够保证安全着陆的俯仰角范围,设为[γ0,γ1]。
定义二:定义固定翼无人机视觉自主着陆安全着陆条件(简称着陆条件)为:侧偏角α、滚转角β的值趋近于零,即:
α∈[-εα,+εα],εα→0 (1)
β∈[-εβ,+εβ],εβ→0 (2)
俯仰角γ的范围为
γ∈[γ0,γ1] (3)
在整个着陆过程中,必须保证满足定义二中定义的着陆条件,如果侧偏角α、滚转角β、俯仰角γ出现偏离安全着陆条件的情况,必须及时修正,避免偏差累积扩大。
侧偏角修正算法
侧偏角α的偏移修正算法可以由(4)式和(5)式表示如下:
αnew=αold+δα (5)
k为调整系数,通过大量视频训练得到,原则是保持侧偏角α满足(1)式,δα是侧偏角的修正角;arctan为反正切函数,d是视频的相邻帧中匹配特征点的横向偏移,h是视频的相邻帧中匹配特征点的纵向偏移,αnew为修正后的侧偏角,αold为修正前的侧偏角。
当无人机在着陆过程中,发生侧偏时,引起图2所示的视频的相邻帧中匹配的特征点偏移,根据(4)式计算修正角δα,然后使用(5)式对侧偏角α进行修正,使得侧偏角α满足安全着陆条件(1)式。从(4)式和(5)式可以看出,由于arctan是单调增函数,因此,修正角和d是正比例关系,和h是反比例关系。
滚转角修正算法
滚转角β的偏移修正算法可以由(6)式和(7)式表示如下:
δβ=-lλ (6)
βnew=βold+δβ (7)
l为调整系数,通过大量视频训练得到,原则是保持滚转角β满足(2)式。δβ为滚转角的修正角,βnew为修正后的滚转角,βold为修正前的滚转角,λ为视频的相邻帧中匹配特征点之间的相对旋转角度。
当无人机在着陆过程中,发生滚转时,引起图4所示的视频的相邻帧中匹配的特征点偏移,根据(6)式计算修正角δβ,然后使用(7)式对滚转角β进行修正,使得滚转角β满足安全着陆条件(2)式。
俯仰角修正算法
俯仰角γ的偏移修正算法可以由(8)式和(9)式表示如下:
δγ=-mh (8)
γnew=γold+δγ (9)
m为调整系数,通过大量视频训练得到,原则是保持俯仰角γ满足(3)式。h为视频的相邻帧中匹配特征点的纵向偏移,δγ为俯仰角的修正角,γnew为修正后的俯仰角,γold为修正前的俯仰角。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (2)
1.一种固定翼无人机视觉着陆引导方法,其特征在于,包括:使用3D CNN提取固定翼无人机着陆阶段成像设备采集到的视频中相邻多帧图像,通过计算相邻多帧图像能够相互匹配的特征点之间的位置变化信息,控制无人机自主着陆;
包括:基于3D CNN的位姿控制参数修正和基于3D CNN的近距离跑道跟踪两部分;
所述基于3D CNN的位姿控制参数修正为:针对采集到的相邻帧对应的图像使用基于3DCNN的方法对位姿控制参数进行修正;所述位姿控制参数包括:基于相邻帧匹配特征点的侧偏角、滚转角、俯仰角;
所述基于3D CNN的近距离跑道跟踪为:对采集到的视频中连续帧采用所述基于3D CNN的方法对位姿控制参数进行时实修正;
所述侧偏角修正算法由以下公式表示:
αnew=αold+δα
其中,k为调整系数,通过大量视频训练得到,δα是侧偏角的修正角;d是视频的相邻帧中匹配特征点的横向偏移,h是视频的相邻帧中匹配特征点的纵向偏移,arctan为反正切函数,α为侧偏角,αnew为修正后的侧偏角,αold为修正前的侧偏角;
滚转角修正算法由以下公式表示:
δβ=-lλ
βnew=βold+δβ
其中,l为调整系数,通过大量视频训练得到,β为滚转角,δβ为滚转角的修正角,βnew为修正后的滚转角,βold为修正前的滚转角,λ为视频的相邻帧中匹配特征点之间的相对旋转角度。
2.根据权利要求1所述的方法,其特征在于,所述俯仰角修正算法由以下公式表示:
δγ=-mh
γnew=γold+δγ
其中,m为调整系数,通过大量视频训练得到,h为视频的相邻帧中匹配特征点的纵向偏移,δγ为俯仰角的修正角,γnew为修正后的俯仰角,γold为修正前的俯仰角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730693.8A CN108820233B (zh) | 2018-07-05 | 2018-07-05 | 一种固定翼无人机视觉着陆引导方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730693.8A CN108820233B (zh) | 2018-07-05 | 2018-07-05 | 一种固定翼无人机视觉着陆引导方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108820233A CN108820233A (zh) | 2018-11-16 |
CN108820233B true CN108820233B (zh) | 2022-05-06 |
Family
ID=64135588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810730693.8A Active CN108820233B (zh) | 2018-07-05 | 2018-07-05 | 一种固定翼无人机视觉着陆引导方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108820233B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109341700B (zh) * | 2018-12-04 | 2023-06-30 | 中国航空工业集团公司西安航空计算技术研究所 | 一种低能见度下固定翼飞机视觉辅助着陆导航方法 |
CN109712185B (zh) * | 2018-12-07 | 2022-11-08 | 天津津航计算技术研究所 | 基于深度学习的直升机降落过程中位姿估计方法 |
CN110109469A (zh) * | 2019-03-19 | 2019-08-09 | 南京理工大学泰州科技学院 | 一种具有颜色、识别、定位、跟踪功能的四旋翼无人机的控制系统 |
CN110543182B (zh) * | 2019-09-11 | 2022-03-15 | 济宁学院 | 一种小型无人旋翼机自主着陆控制方法及系统 |
CN110631588B (zh) * | 2019-09-23 | 2022-11-18 | 电子科技大学 | 一种基于rbf网络的无人机视觉导航定位方法 |
CN110673642B (zh) * | 2019-10-28 | 2022-10-28 | 深圳市赛为智能股份有限公司 | 无人机着陆控制方法、装置、计算机设备及存储介质 |
CN112241180B (zh) * | 2020-10-22 | 2021-08-17 | 北京航空航天大学 | 一种无人机移动平台降落引导的视觉处理方法 |
CN112797982A (zh) * | 2020-12-25 | 2021-05-14 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种基于机器视觉的无人机自主着陆测量方法 |
CN113011557B (zh) * | 2021-02-22 | 2021-09-21 | 山东航空股份有限公司 | 基于卷积神经网络的飞机不稳定进近判断方法及系统 |
CN113067157B (zh) * | 2021-03-25 | 2022-02-01 | 北京理工大学 | 基于深度强化学习的共形相控阵天线设计系统及设计方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874849A (zh) * | 2017-01-09 | 2017-06-20 | 北京航空航天大学 | 基于视频的飞鸟检测方法及装置 |
CN107451552A (zh) * | 2017-07-25 | 2017-12-08 | 北京联合大学 | 一种基于3d‑cnn和卷积lstm的手势识别方法 |
CN107909014A (zh) * | 2017-10-31 | 2018-04-13 | 天津大学 | 一种基于深度学习的视频理解方法 |
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
-
2018
- 2018-07-05 CN CN201810730693.8A patent/CN108820233B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108820233A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108820233B (zh) | 一种固定翼无人机视觉着陆引导方法 | |
Al-Kaff et al. | Survey of computer vision algorithms and applications for unmanned aerial vehicles | |
Kong et al. | Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system | |
CN110426046B (zh) | 一种无人机自主着陆跑道区域障碍物判断与跟踪方法 | |
CN105759829A (zh) | 基于激光雷达的微型无人机操控方法及系统 | |
CN104808685A (zh) | 用于无人机自主降落的视觉辅助装置及视觉辅助方法 | |
CN105352495B (zh) | 加速度与光流传感器数据融合无人机水平速度控制方法 | |
Marut et al. | ArUco markers pose estimation in UAV landing aid system | |
CN105644785A (zh) | 一种基于光流法和地平线检测的无人机着陆方法 | |
CN105501457A (zh) | 基于红外视觉的固定翼无人机自动着陆引导方法及系统 | |
CN101109640A (zh) | 基于视觉的无人驾驶飞机自主着陆导航系统 | |
US20160027314A1 (en) | Context-aware landing zone classification | |
Xu et al. | Use of land’s cooperative object to estimate UAV’s pose for autonomous landing | |
CN106200672A (zh) | 一种基于光流的无人机避障方法 | |
Li et al. | UAV autonomous landing technology based on AprilTags vision positioning algorithm | |
Al-Kaff et al. | Intelligent vehicle for search, rescue and transportation purposes | |
Zarandy et al. | A novel algorithm for distant aircraft detection | |
CN112596071A (zh) | 无人机自主定位方法、装置及无人机 | |
CN114689030A (zh) | 一种基于机载视觉的无人机辅助定位方法及系统 | |
CN114564042A (zh) | 一种基于多传感器融合的无人机着陆方法 | |
CN112380933B (zh) | 无人机识别目标的方法、装置及无人机 | |
Xia et al. | Integrated emergency self-landing method for autonomous uas in urban aerial mobility | |
US20220258880A1 (en) | Method for aircraft localization and control | |
Gong et al. | A survey of techniques for detection and tracking of airport runways | |
CN115755575A (zh) | 一种基于ros的双云台无人机自主降落方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |