CN113534849A - 集成机器视觉的飞行组合导引系统、方法和介质 - Google Patents

集成机器视觉的飞行组合导引系统、方法和介质 Download PDF

Info

Publication number
CN113534849A
CN113534849A CN202111083695.0A CN202111083695A CN113534849A CN 113534849 A CN113534849 A CN 113534849A CN 202111083695 A CN202111083695 A CN 202111083695A CN 113534849 A CN113534849 A CN 113534849A
Authority
CN
China
Prior art keywords
guidance
information
navigation system
flight
runway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111083695.0A
Other languages
English (en)
Inventor
刘利朝
张向阳
万赟
王东伟
宗军耀
许浩楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commercial Aircraft Corp of China Ltd
Original Assignee
Commercial Aircraft Corp of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commercial Aircraft Corp of China Ltd filed Critical Commercial Aircraft Corp of China Ltd
Priority to CN202111083695.0A priority Critical patent/CN113534849A/zh
Publication of CN113534849A publication Critical patent/CN113534849A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本申请涉及一种集成机器视觉的飞行组合导引系统,包括:传统导航系统,被配置为确定飞机的位置并接收地面的引导信号来提供传统导引信息;视觉导航系统,被配置为采集有关机场的图像数据,并通过对所述图像数据进行图像识别以生成跑道结果信息;数据融合和引导系统,被配置为接收来自所述传统导航系统的所述传统导引信息以及来自所述视觉导航系统的所述跑道结果信息,并将这些信息进行数据融合;以及自动飞行控制系统,被配置为根据来自所述数据融合和引导系统的经融合的数据,生成相应的飞行导引指令。

Description

集成机器视觉的飞行组合导引系统、方法和介质
技术领域
本申请涉及一种民用飞机的飞行导引领域。更具体而言,涉及一种集成了机器视觉系统的飞行组合导引系统、方法和介质。
背景技术
目前,民用飞机在自动起降过程中,主要依赖于飞行管理系统、自动飞行控制系统、仪表着陆系统(ILS)、全球卫星着陆(GLS)系统等各种机载系统,以实现从起飞到降落过程中的自动飞行,其中在起飞阶段依然依赖机组手动操纵飞行,上述这些机载系统仅仅提供参考数据。而在进近和降落阶段则可以通过ILS/GLS和飞管着陆系统(FLS)进行导引,并且在配备自动着陆系统的飞机上已经可以全程引导飞机实现自动着陆。但是,目前的这种自动起降系统,不仅需要飞机自身配备自动着陆系统的引导信号接收设备,而且还要求机场方面安装配套的引导信号发射设备。这导致其严重依赖地面辅助导航设施,飞机在条件落后的机场运行性较差。
随着人工智能的快速发展,相关自动化导航技术已在其他领域取得了较好的应用,包括无人机和汽车自动驾驶领域。同时,研究发现基于机器视觉的导航导引技术在民用飞机领域也已经具有了一定的实际应用,能够实现初步的起飞和降落导引。人工智能在目前的飞机自动驾驶中主要利用了机器视觉技术。机器视觉技术通过将视觉传感器、图像处理设备和人工智能算法相结合,可以在地面滑行、起飞和降落过程中识别飞机相对于跑道和滑行道位置,从而实现飞机导引。但是,单独依赖机器视觉系统难以提供高可靠性的完整导航导引。因此,单纯依赖于机器视觉系统来引导飞机的自动起降技术在可靠性上存在很大的问题,导致其无法如汽车自动驾驶那样被广泛开发和应用。
因此,存在一种需求,希望能够将基于机器视觉的自动起降功能与传统机载导航技术进行融合以便即使是在简陋的机场环境下还是能提升飞机的整个飞行过程的自动化起降的可靠性,为民用飞机的单人驾驶提供有力支持。
发明内容
本申请涉及一种集成了机器视觉系统的飞行组合导引系统、利用机器视觉系统的飞行组合导引方法以及存储所述飞行组合导引方法的计算机存储介质。
根据本申请的第一方面,提供了一种集成机器视觉的飞行组合导引系统,包括:传统导航系统,被配置为确定飞机的位置并接收地面的引导信号来提供传统导引信息;视觉导航系统,被配置为采集有关机场的图像数据,并通过对所述图像数据进行图像识别以生成跑道结果信息;数据融合和引导系统,被配置为接收来自所述传统导航系统的所述传统导引信息以及来自所述视觉导航系统的所述跑道结果信息,并将这些信息进行数据融合;以及自动飞行控制系统,被配置为根据来自所述数据融合和引导系统的经融合的数据,生成相应的飞行导引指令。
根据本申请的第二方面,提供了一种利用机器视觉的飞行组合导引方法,包括:使用传统导航系统确定飞机的位置并接收地面的引导信号以生成传统导引信息;使用视觉导航系统采集有关机场的图像数据;通过使用图像识别算法模型对所述图像数据进行图像识别生成跑道结果信息;接收来自所述传统导航系统的所述传统导引信息以及来自所述视觉导航系统的所述跑道结果信息,并将这些信息进行数据融合;以及根据经融合的数据,生成相应的飞行导引指令。
根据本申请的第三方面,提供了一种存储有指令的计算机可读存储介质,当所述指令被执行时使得机器执行如第二方面所述的方法。
提供本概述以便以简化的形式介绍以下在详细描述中进一步描述的一些概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。
附图说明
为了描述可获得本发明的上述和其它优点和特征的方式,将通过参考附图中示出的本发明的具体实施例来呈现以上简要描述的本发明的更具体描述。可以理解,这些附图只描绘了本发明的各典型实施例,并且因此不被认为是对其范围的限制,将通过使用附图并利用附加特征和细节来描述和解释本发明,在附图中:
图1示出了根据本申请的一个实施例的飞行自动起降系统的示例环境框图。
图2示出了用于根据本申请的一个实施例的飞行组合导引系统的飞行自动起降方案的示例流程图。
图3示出了根据本申请的一个实施例的可从机场图像中识别出的各个示例深度特征点的轮廓图。
图4示出了用于集成机器视觉的飞行组合导引系统的导引面板的示意图。
具体实施方式
如前所述,现有的飞机自动导航导引技术存在以下问题:
1)目前的盲降导引技术需要在地面安装专门的导航设施,以支持实现高精度和可靠性的着陆要求,此技术对地面设施的性能依赖严重;
2)气象条件差时,飞机起降过程中能见度低下,机组对周围环境的态势感知较差,容易引发安全性事故;
3)由于机器视觉的应用本身存在一定缺陷(特别是可靠性方面),单纯依赖此技术难以实现高可靠性的导航导引。
因此,本申请中所公开的方案在已有的传统导航导引系统基础上,通过将其与机器视觉的技术进行组合,从而实现飞机的自动起降导引。结合了机器视觉的组合导引方案与传统的导航导引方案相比,具有明显的非相似性,能够减少对地面导航设施的依赖性,同时提高飞机整体的自动化水平和可靠性。
具体而言,本申请公开一种集成机器视觉的飞行组合导引系统和方法,该方案在传统导航导引技术的基础上引入了视觉导航系统,通过对两者进行信息融合,为飞机提供高可靠性的自动起降导引功能。视觉导航系统通过可见光和红外成像技术形成对机场跑道的态势感知。机载人工智能系统中的神经网络算法模型需要与地面云端的人工智能系统同步。通过将图像传感器采集的图像数据输入到人工智能算法模型中来提取深度特征以生成跑道结果信息,并将跑道的这些深度特征与传统导航导引信息进行融合以生成正确的飞行导引指令。其中,当视觉导航系统的算法模型准确率较高时,可将视觉导航的信息与传统导航的信息进行数据融合并生成相应的飞行导引指令;而当视觉导航系统的算法模型准确率较低时,可以仅将视觉识别出的结果提供到驾驶舱屏幕进行显示,而不与传统导航导引技术融合,进而提高了机组对周围环境的态势感知。
图1示出了根据本申请的一个实施例的飞行自动起降系统的示例环境框图。
如图所示,所述飞行自动起降系统100可以分为飞行计划和轨迹预测系统110、飞行组合导引系统 120、地面人工智能系统130以及机组显示告警系统140这几个部分。
飞行计划和轨迹预测系统110,被配置为基于飞行计划和导航数据库来对飞机的航迹进行预测,并将预测结果提供给飞行组合导引系统 120。
飞行组合导引系统 120,被配置为基于将传统导航系统提供的信息与来自视觉导航系统的信息融合在一起,并生成相应的飞行导引指令来控制飞机的飞行,或者将视觉导航系统的信息直接提供给机组显示告警系统140。
地面人工智能系统130,被配置为根据从视觉导航系统124中的图像采集单元(例如摄像头或红外线摄像机)中采集的在大量不同场景(不同的光照、能见度、视角等)中的机场照片对配置在其上的本地人工智能模型(例如图像识别算法模型)进行不断模拟训练,并将训练好的人工智能模型与飞机上的机载人工智能系统中的对应模型进行模型同步,以使得所述机载的人工智能模型能够不断更新和优化。
机组显示告警系统140,被配置为将从飞行组合导引系统 120接收到的视觉导航系统的信息显示在驾驶舱的屏幕上,以提高机组人员对周围环境的态势感知。
在其中,所述飞行计划和轨迹预测系统110是飞行系统的常用部件,其结构和功能也可以利用这些常用部件来实现,而机组显示告警系统140 则可以利用传统的驾驶舱显示屏、扬声器、蜂鸣器等来实现。因此,在下面的具体示例中不再对上述部件进行详细描述。本领域技术人员可以利用现有的相应部件来实现上述这些系统。
这些系统可以通过有线电缆或无线链路来彼此进行数据通信。特别是所述地面人工智能系统130可以利用诸如航空数据链(ATC、AOC)、4G/5G/WiFI、卫星通信链路等等无线传输技术来与飞机上的视觉导航系统124进行数据通信。
而飞行组合导引系统 120则是本申请的核心部件,它主要由传统导航系统122、视觉导航系统124、数据融合与引导系统126以及自动飞行控制系统128四部分组成。
传统导航系统122是指现有的民航飞机常用的导航系统,它一般包括着陆系统(XLS/FLS)、卫星导航系统以及大气数据和惯性基准系统。这些系统通过确定飞机的位置并接收地面的引导信号来提供传统导引信息以引导飞机按预定航线飞行。通常,它需要与地面上的引导信号发射设备配合才能实现自动起降功能。所述传统导航系统122可以直接采用现有的民航飞机系统所采用的飞行导航系统来实现。
视觉导航系统124,被配置为采集有关机场的图像数据,对所述图像数据进行几何修正,并利用机载人工智能系统中的图像识别算法模型对所述图像数据进行深度特征识别以获得跑道结果信息,作为导引信息。其主要包括图像采集单元、图像处理单元以及机载人工智能系统。
具体而言,在机载端装载有一个或多个图像采集传感器,用于采集大量的图像数据。所述图像采集单元可以是采集可见光的图像采集单元,例如摄像头、相机等等,其可用于在飞机外部环境能见度较高时工作以采集机场的图像数据。另一方面,所述图像采集单元还可以包括例如红外线摄像机、热成像仪等等的红外图像采集单元,以在飞机外部环境能见度较低的情况下采集机场的红外图像数据以供分析。
随后,所述图像数据可以被发送给视觉导航系统124的图像处理单元进行预处理。图像处理单元利用从传统导航系统122输出的姿态信息对图像数据进行几何修正,随后,所述经修正的图像数据被输出给机载人工智能系统以进一步分析处理。
另一方面,在将所述图像数据发送给图像处理单元的同时,其也可以作为数据样本通过无线通信链路发送给地面人工智能系统以对本地的图像识别算法模型进行训练。而训练后的图像识别算法模型又可以通过无线链路与飞机上的机载人工智能系统中的图像识别算法模型进行模型同步,从而使得机载人工智能系统中的人工智能模型能够不断地被更新和优化。
之所以不直接使用机载人工智能系统进行模型的训练和优化是由于机载人工智能系统所依托的飞机的计算设备(例如机载计算机)的算力有限,难以胜任对从图像采集单元采集的大量数据样本的长期实时处理和分析要求,无法及时训练所述人工智能系统以保持最优,并且还会耗费飞机的大量有限资源(例如有限的空间和电力资源)。而将计算任务繁重的训练任务转移到地面人工智能系统,就能充分发挥地面人工智能系统的强大运算能力。所述人工智能系统可以是具有强大运算能力的服务器、计算机或由其构成的计算网络。并且地面上的算力扩展可以通过不停增加和升级地面服务器的数量来很容易的实现,不受空间和能耗的限制),不仅大大提高了训练的速度和效率,也提供了更高的可靠性。
随后,机载人工智能系统对由图像处理单元所提供的经几何修正的图像数据进行深度特征识别以从中提取出所需的各种深度特征并生成跑道结果信息。在所述机载和地面人工智能系统中预先安装有用于图像识别的图像识别算法模型。如前所述,在地面处的人工智能系统中的所述图像识别算法模型可以通过接收大量的数据样本进行优化和训练以提高图像识别(跑道深度特征)的准确率。而经优化的图像识别算法模型可以通过模型同步来对在机载人工智能系统上的对应的图像识别算法模型进行更新优化。
经机载人工智能系统识别并提取的跑道结果信息,由传统导航系统122提供的飞机位置、姿态等传统导引信息,或者还可以加上由飞行计划和轨迹预测系统110提供的期望飞行轨迹,被一起提供给数据融合与导引系统126。
所述数据融合与导引系统126通过对这些特征和导引信息进行数据融合和组合之后,从中获得例如飞机当前的水平偏差和垂直偏差信息,并将其分别发送给自动飞行控制系统128的相应控制模块。
自动飞行控制系统128根据所述水平偏差和垂直偏差信息生成并输出相应的飞行导引指令(例如其中的水平导引模块基于水平偏差生成水平导引指令,而垂直导引模块基于垂直偏差信息生成垂直导引指令)以控制飞机的起降状态。
至此,通过结合基于机器视觉功能与传统机载导航功能实现了即使是在简陋的机场环境下(例如地面传统导航设备不完善的情况)还是能提升飞机的整个飞行过程的自动化起降的可靠性,为民用飞机的单人驾驶提供有力支持。
下面,结合图2来具体描述一下用于根据本申请的一个实施例的飞行组合导引系统的飞行自动起降方案的示例流程图。需要注意的是所述示例方案包含了引导飞机自动起降的完整过程,而真正的结合了机器视觉的飞行组合导引方法只是该方案其中的一部分。
如图所示,在步骤202,获得飞机的当前位置信息。所述当前位置信息可以利用例如传统导航系统的卫星导航系统的定位信息来确定。
在步骤204,基于所述当前位置信息,判断飞机所处的飞行阶段。如前所述,本申请的方案主要是针对飞机的自动起降方案的改进,因此,一般只有当飞机进入到“起飞”阶段或者进入到“进近降落”阶段,才会执行本申请的方案。因此,在该步骤中,基于所述当前位置信息,所述判断步骤可能存在三个结果,即判定飞机处于“起飞”阶段、判定飞机处于“进近降落”阶段或者判定飞机处于“巡航”阶段。
如果判定飞机处于“巡航”阶段,则意味着飞机并没有处于需要触发自动起降功能的场景,因此,整个流程可以就此结束。随后可以例如以固定周期重新执行所述流程以进行新一轮的判断。
如果判定飞机处于“起飞”阶段,则流程进入到“起飞”分支流程。在该流程中:
首先,在步骤206,利用所述视觉导航系统实时识别跑道的信息,例如跑道边界、跑道中心线、滑行道中心线、滑行道边界等等信息。这些信息可以由机载人工智能系统从图像采集单元所采集的图像数据中实时识别出。在现有技术中已经存在很多识别所述信息的方案,在此,不再详述。
随后,在步骤208,将所识别出的跑道结果信息通过例如机组显示告警系统140显示给飞行员以为他们提供参考信息。
接着,在步骤210,在数据融合与引导系统126处,根据所述跑道的信息和位置信息,计算当前航向与跑道中心线的偏差信息。
随后,在步骤212,自动飞行控制系统128根据所述偏差信息生成相应的水平导引指令以将飞机引导到中心位置避免偏离跑道。
至此,起飞分支流程结束。
另一方面,如果判定飞机处于“进近降落”阶段,则流程进入到“降落”分支流程。
首先,在步骤214处,判断当前机场的能见度是否高于阈值。所述能见度可以利用能见度仪来测量。如果测量到的大气能见距离低于或等于阈值,则说明此时机场的周边环境的能见度很低,视觉导引系统中的基于可见光的图像采集单元(例如摄像头)很可能无法正常工作,因此,流程进入步骤216以启用红外传感器来采集图像数据。而如果测量到的大气能见距离高于阈值,则说明此时机场的周边环境的能见度良好,流程进入步骤220以启用视觉导引系统中的基于可见光的图像采集单元(例如摄像头)来采集图像数据。
先讨论能见度低于或等于阈值的情况,流程行进至步骤216,启用红外传感器来采集机场的图像数据。
随后,在步骤218,由于能见度没有满足阈值要求,因此,此时来自红外传感器的图像数据的可信度并不高,只能给出比较模糊的识别信息。因此,在该步骤,所述图像数据通过机组显示告警系统140,被显示在驾驶舱的屏幕上,以提高机组人员对周围环境的态势感知,而不会将其用于与传统导航系统的信息融合。至此,流程结束。
而当判定当前机场的能见度高于阈值时,则说明视觉导引系统的视觉导引信息具有足够的可信度,可以通过与传统导航系统的信息融合和组合来实现本申请的飞行组合导引方案。因此,在此,流程开始正式进入到飞行组合导引方案的示例具体流程。
首先,在步骤220,视觉导引系统启用可见光传感器进行图像采集。
随后,在完成图像采集之后,流程进入步骤222,从传统导航系统中获取当前姿态信息。
在步骤224,图像处理单元基于所述当前姿态信息对采集的图像数据进行几何修正。所述几何修正可以包括:利用深度学习算法对图像进行区域分割提取区域特征,将提取的特征作为该区域修正图像中的修正权值,根据像素所属区域的融合权值,通过自适应加权平均得到最终的修正图像。
随后,在步骤226中,机载人工智能系统对经几何修正的图像数据进行图像识别以生成跑道结果信息。所述机载人工智能系统可以使用图像识别算法模型来进行深度特征识别。具体而言,所述机载人工智能系统可以将从传统导航系统中输出的位置信息和来自图像处理器的经几何修正的图像数据都输入到机载人工智能系统的图像识别算法模型中,通过将训练好的参数用于该算法模型来完成对机场环境的深度特征特性(例如跑道边界、跑道中心线、滑行道中心线、滑行道边界、地面车辆、人员、建筑物、异常入侵等等信息)的提取和分类。例如,在图3中示出了根据传统导航系统中输出的位置信息可以从经修正的图像中识别出的各个深度特征点的示例轮廓图。如该图所示,图像中的机场中心线、跑道边界、机场一侧的建筑物轮廓等各个特征点都可以利用所述模型被准确识别出来。这些识别出的跑道结果信息可以用于之后的处理。
机载人工智能系统的图像识别算法模型可以是一种深度学习模型,如前所述,所述图像数据可以同时被传送给地面的人工智能系统,以利用梯度下降法反向训练模型的参数,随后,在地面人工智能系统和机载智能系统之间执行模型同步,从而,使得机载人工智能系统不断被更新和优化。
在生成所述跑道结果信息之后,经机载人工智能系统识别并提取的跑道结果信息,由传统导航系统122提供的飞机位置、姿态等信息,或者还可以加上由飞行计划和轨迹预测系统110提供的期望飞行轨迹,被一起提供给数据融合与引导系统126以进行数据融合和导引组合。在此,所述流程可以被分成两个子流程,即针对水平方向的分析处理和针对垂直方向的分析处理。
在水平方向的分析处理中,包括:在步骤228,根据所述跑道结果信息和位置信息,计算当前航向与跑道中心线的偏差信息。
在步骤230, 判断是否有来自传统导航系统122的传统水平导引信息可用。
如果不存在传统水平导引信息(例如所要降落的机场设施陈旧并没有安装合适的地面起降导引设备),则数据融合与引导系统126直接将所述偏差信息发送给自动飞行控制系统128,以在步骤234中生成并输出水平导引指令。也就是说,当传统导航系统122无法进行自动导航时,本方案可以直接根据来自视觉导航系统的数据来生成水平导引指令。
而如果判定存在来自传统导航系统122的传统水平导引信息时,在步骤232所述数据融合与引导系统126可以通过下述方式通过数据融合实现这两个系统的组合引导:在进行组合导引时,根据传统导航系统和机器视觉系统的自身精度和可靠性由其提供的导引信息赋予不同置信度(例如不同的权重),并通过对这些信息进行加权平均来实现数据融合,随后,将数据融合信息发送给自动飞行控制系统128,以在步骤234中生成并输出(经融合)的水平导引指令。例如,在能见度较好的情况下,视觉导航系统采集后识别的特征元素准确率高,在进行上述导引数据融合时来自视觉导航系统的导引数据将占有较大的权重。
相对应地,在垂直方向的分析处理中,则包括:在步骤236,根据所述跑道结果信息与标准降落图片的比对确定与跑道的距离。
在步骤238, 判断是否有来自传统导航系统122的传统垂直导引信息可用。
如果不存在传统垂直导引信息(例如所要降落的机场设施陈旧并没有安装合适的地面起降导引设备),则数据融合与引导系统126直接将所述与跑道的距离信息发送给自动飞行控制系统128,以在步骤242中生成并输出垂直导引指令。也就是说,当传统导航系统122无法进行自动导航时,本方案可以直接根据来自视觉导航系统的数据来生成垂直导引指令。
而如果判定存在来自传统导航系统122的传统垂直导引信息时,则在步骤240处,所述数据融合与引导系统126则可以通过下述方式通过数据融合实现这两个系统的组合引导:在进行组合导引时,根据传统导航系统和视觉导航系统的自身精度和可靠性,通过构建专家评估系统对传统导航系统的导航性能评估参数(如位置估计不确定度、完整性和连续性)和视觉导航系统的性能评估参数(关键对象识别精度、核心算法验证数据集、算法可信度)进行合评估。专家评估系统可基于传统导航系统和视觉导航系统的性能评估参数为各自提供的导引信息赋于不同的权重。在进行导引信息融合的过程中,需要通过深度学习模型从传统导航和视觉导航提供的导引信息中进行特征提取(包括水平方向的偏航距、偏航角信息和垂直方向的高度偏差、轨迹角偏差等信息)以改善整体的导引性能。
随后,将数据融合信息发送给自动飞行控制系统128,以在步骤242中生成并输出(经融合)的垂直导引指令。例如,在能见度较好的情况下,视觉导航系统采集后识别的特征元素准确率高,在进行上述导引数据融合时来自视觉导航系统的导引数据将占有较大的权重。
当自动飞行控制系统128生成并输出了所述水平和垂直导引指令后,所述自动起降流程全部结束。
在一个实施例中,尽管未示出,但在将来自所述视觉导航系统124的导引信息与来自传统导航系统122的导引信息进行融合的同时,所述来自所述视觉导航系统的导引信息(即从图像数据中所识别的跑道深度特征)也可以被提供给机组显示告警系统140,以显示在驾驶舱的屏幕上,以提高机组人员对周围环境的态势感知。
应该理解,上述图2中所示出的示例流程涉及到了飞机的自动起降的完整方案流程,事实上,真正涉及到传统机载导航导引系统与机器视觉导航系统的导引组合内容的仅仅是该方案流程的一部分。并且,所述方案流程仅仅是示例性的,技术人员可以根据实际需求添加更多步骤、减少部分步骤或者改变部分步骤执行顺序。这都在本申请的保护范围中。
图4示出了用于集成机器视觉的飞行组合导引系统的导引面板的示意图。如图所示,除了由系统自动决定导引模式之外,飞行员也可以利用所述导引面板来从多种不同的导引模式中选择合适的模式,如混合-1表示视觉导航系统(CVS)与仪表着陆系统(ILS)的组合导引的模式,同时显示当前导引模式的性能状态:高(即可靠性高);而混合-2表示视觉导航系统(CVS)与全球卫星着陆系统(GLS)的组合导引的模式,同时显示当前导引模式的性能状态:中;同样,混合-3表示视觉导航系统(CVS)与飞管着陆系统(GLS)的组合导引的模式,同时显示当前导引模式的性能状态:低。上述三种模式都可以被认为是视觉导航系统与各种类型的传统导航系统的组合,飞行员可以利用该面板来手动选择想要的混合模式。当然,除了各种混合模式之外,面板还提供了“视觉导航系统”模式,也即仅开启视觉导航系统。
通过使用上述飞行组合导引方案,可以实现以下改进:
-在传统机载导航导引系统的基础上,增加了机器视觉导航系统(CVS),其包括图像采集单元、图像处理单元和人工智能训练单元。此方法与现有技术形成非相似冗余设计,可以有效提高自动导引水平和系统可靠性;
-根据人工智能系统的图像识别算法模型的可信度制定不同的导引策略,在其可信度较高时通过与传统的导航导引进行融合提供更高性能的飞行导引;
-采用对可见光和红外成像技术进行融合处理,在恶劣气象条件下提高了飞行导引的可靠性;
-通过利用来自机上摄像头所采集的图像数据在地面人工智能系统中不断地对所述算法模型进行训练并与机载人工智能系统中的对应模型保持模型同步,提高了图像识别算法模型的识别精度。
虽然以上描述了不同的实施例,但应当理解的是它们只是作为示例而非限制。(诸)相关领域的技术人员将领会,在不偏离如所附权利要求书所定义的本发明的精神和范围的情况下,可以在形式和细节方面进行各种修改。因此,此处所公开的本发明的宽度和范围不应被上述所公开的示例性实施例所限制,而应当仅根据所附权利要求书及其等同替换来定义。

Claims (15)

1.一种集成机器视觉的飞行组合导引系统,包括:
传统导航系统,被配置为确定飞机的位置并接收地面的引导信号来提供传统导引信息;
视觉导航系统,被配置为采集有关机场的图像数据,并通过对所述图像数据进行图像识别以生成跑道结果信息;
数据融合和引导系统,被配置为接收来自所述传统导航系统的所述传统导引信息以及来自所述视觉导航系统的所述跑道结果信息,并将这些信息进行数据融合;以及
自动飞行控制系统,被配置为根据来自所述数据融合和引导系统的经融合的数据,生成相应的飞行导引指令。
2.如权利要求1所述的飞行组合导引系统,其特征在于,所述视觉导航系统包括:
图像采集单元,被配置为采集机场的图像数据;
图像处理单元,被配置为根据来自所述传统导航系统的当前姿态信息对所述图像数据进行几何修正;以及
机载人工智能系统,被配置为使用图像识别算法模型对经几何修正的图像数据进行深度特征识别,以生成所述跑道结果信息。
3.如权利要求2所述的飞行组合导引系统,其特征在于,所述视觉导航系统还被配置为:
将所采集的图像数据传输给地面人工智能系统,所述地面人工智能系统被配置为利用所述图像数据对本地图像识别算法模型进行训练,并将经训练的本地图像识别算法模型与所述机载人工智能系统中的所述图像识别算法模型进行模型同步。
4.如权利要求2所述的飞行组合导引系统,其特征在于,所述数据融合包括:根据所述传统导航系统和所述视觉导航系统的自身精度和可靠性,利用专家评估系统为由其所提供的各导引信息赋予不同的权重,并通过深度学习模型从这些导引信息中提取深度特征作为融合权值来实现数据融合。
5.如权利要求2所述的飞行组合导引系统,其特征在于,所述图像采集单元包括:
可见光图像采集单元,被配置为在能见度良好时工作以采集机场的图像数据;以及
红外光图像采集单元,被配置为在能见度低下时工作以采集机场的图像数据。
6.如权利要求5所述的飞行组合导引系统,其特征在于,还包括机组显示告警系统,被配置为在能见度低下时,将从所述红外光图像采集单元所采集的图像数据中识别出的跑道结果信息通过所述机组显示告警系统直接显示给飞行员以供参考。
7.一种利用机器视觉的飞行组合导引方法,包括:
使用传统导航系统确定飞机的位置并接收地面的引导信号以生成传统导引信息;
使用视觉导航系统采集有关机场的图像数据;
通过使用图像识别算法模型对所述图像数据进行图像识别生成跑道结果信息;
接收来自所述传统导航系统的所述传统导引信息以及来自所述视觉导航系统的所述跑道结果信息,并将这些信息进行数据融合;以及
根据经融合的数据,生成相应的飞行导引指令。
8.如权利要求7所述的飞行组合导引方法,其特征在于,所述方法还包括:
根据来自所述传统导航系统的当前姿态信息对采集的所述图像数据进行几何修正,所述几何修正包括:利用深度学习算法对图像进行区域分割以提取区域特征,将提取的特征作为该区域修正图像中的修正权值,根据像素所属区域的融合权值,通过自适应加权平均得到最终的修正图像。
9.如权利要求8所述的飞行组合导引方法,其特征在于,所述通过使用图像识别算法模型对所述图像数据进行图像识别生成跑道结果信息的步骤包括:
对经几何修正的图像数据进行深度特征识别以从中提取和分类深度特征;
其中所述深度特征包括:跑道边界、跑道中心线、滑行道中心线、滑行道边界、地面车辆、人员、建筑物、异常入侵以及其他与跑道相关的特征。
10.如权利要求7所述的飞行组合导引方法,其特征在于,还包括:
将采集的图像数据传输给地面人工智能系统以利用所述图像数据对本地图像识别算法模型进行训练,并将经训练的本地图像识别算法模型与所述图像识别算法模型进行模型同步。
11.如权利要求7所述的飞行组合导引方法,其特征在于,所述数据融合包括:
在水平方向的分析处理中:
根据所述跑道结果信息和位置信息,计算当前航向与跑道中心线的偏差;
确定传统水平导引信息是否可用,
如果所述传统水平导引信息不可用,则将所述偏差直接输出给自动飞行控制系统;或
如果所述传统水平导引信息可用,则将所述当前航向与跑道中心线的偏差和来自所述传统导航系统的传统水平导引信息融合;以及
在垂直方向的分析处理中:
比较所述跑道结果信息与标准降落图片以确定与跑道的距离;
确定传统垂直导引信息是否可用,
如果所述传统垂直导引信息不可用,则将所述与跑道的距离直接输出给自动飞行控制系统;或
如果所述传统垂直导引信息可用,则将所述与跑道的距离和来自所述传统导航系统的传统垂直导引信息融合。
12.如权利要求7所述的飞行组合导引方法,其特征在于,所述数据融合包括:
根据传统导航系统和视觉导航系统的自身精度和可靠性,利用专家评估系统为由所述传统导航系统和视觉导航系统所提供的各导引信息赋予不同的权重,并通过深度学习模型从这些导引信息中提取深度特征作为融合权值来实现数据融合。
13.如权利要求7所述的飞行组合导引方法,其特征在于,还包括:
确定机场的能见度是否高于阈值;
如果所述能见度高于所述阈值,则所述视觉导航系统使用可见光图像采集单元采集机场的图像数据;或者
如果所述能见度低于或等于所述阈值,则所述视觉导航系统使用红外光图像采集单元采集机场的图像数据。
14.如权利要求13所述的飞行组合导引方法,其特征在于,还包括:
如果所述能见度低于或等于所述阈值,则对由所述红外光图像采集单元采集机场的图像数据进行图像识别,并将识别后的跑道结果信息通过机组显示告警系统直接显示给飞行员以供参考。
15.一种存储有指令的计算机可读存储介质,当所述指令被执行时使得机器执行如权利要求7所述的方法。
CN202111083695.0A 2021-09-16 2021-09-16 集成机器视觉的飞行组合导引系统、方法和介质 Pending CN113534849A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111083695.0A CN113534849A (zh) 2021-09-16 2021-09-16 集成机器视觉的飞行组合导引系统、方法和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111083695.0A CN113534849A (zh) 2021-09-16 2021-09-16 集成机器视觉的飞行组合导引系统、方法和介质

Publications (1)

Publication Number Publication Date
CN113534849A true CN113534849A (zh) 2021-10-22

Family

ID=78093284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111083695.0A Pending CN113534849A (zh) 2021-09-16 2021-09-16 集成机器视觉的飞行组合导引系统、方法和介质

Country Status (1)

Country Link
CN (1) CN113534849A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
JP2015001450A (ja) * 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
CN106910188A (zh) * 2017-02-16 2017-06-30 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像中机场跑道的检测方法
WO2018171976A1 (en) * 2017-03-21 2018-09-27 Deutsche Telekom Ag Monitoring system and method for monitoring an unmanned aerial vehicle
CN110473192A (zh) * 2019-04-10 2019-11-19 腾讯医疗健康(深圳)有限公司 消化道内镜图像识别模型训练及识别方法、装置及系统
CN110569911A (zh) * 2019-09-11 2019-12-13 深圳绿米联创科技有限公司 图像识别方法、装置、系统、电子设备及存储介质
CN112560922A (zh) * 2020-12-10 2021-03-26 中国航空工业集团公司沈阳飞机设计研究所 一种基于视觉的雾天飞机自主着陆方法及系统
CN112597926A (zh) * 2020-12-28 2021-04-02 广州辰创科技发展有限公司 基于fod影像对飞机目标的识别方法、设备、存储介质
CN113155124A (zh) * 2021-04-27 2021-07-23 涵涡智航科技(玉溪)有限公司 一种多源辅助导航方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
JP2015001450A (ja) * 2013-06-14 2015-01-05 株式会社トプコン 飛行体誘導システム及び飛行体誘導方法
CN106910188A (zh) * 2017-02-16 2017-06-30 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像中机场跑道的检测方法
WO2018171976A1 (en) * 2017-03-21 2018-09-27 Deutsche Telekom Ag Monitoring system and method for monitoring an unmanned aerial vehicle
CN110473192A (zh) * 2019-04-10 2019-11-19 腾讯医疗健康(深圳)有限公司 消化道内镜图像识别模型训练及识别方法、装置及系统
CN110569911A (zh) * 2019-09-11 2019-12-13 深圳绿米联创科技有限公司 图像识别方法、装置、系统、电子设备及存储介质
CN112560922A (zh) * 2020-12-10 2021-03-26 中国航空工业集团公司沈阳飞机设计研究所 一种基于视觉的雾天飞机自主着陆方法及系统
CN112597926A (zh) * 2020-12-28 2021-04-02 广州辰创科技发展有限公司 基于fod影像对飞机目标的识别方法、设备、存储介质
CN113155124A (zh) * 2021-04-27 2021-07-23 涵涡智航科技(玉溪)有限公司 一种多源辅助导航方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭延宁: "行星车视觉导航与自主控制进展与展望", 《宇航学报》 *

Similar Documents

Publication Publication Date Title
CN110723303B (zh) 辅助决策的方法、装置、设备、存储介质及系统
US11270596B2 (en) Autonomous path planning
US6952632B2 (en) Method of guiding an aircraft in the final approach phase and a corresponding system
KR20170111921A (ko) 무인 비행체 제어 방법 및 시스템
CN111915930B (zh) 机载空管增强协处理系统及方法
US11440657B2 (en) Aerial vehicles with machine vision
US20200168111A1 (en) Learning method for a neural network embedded in an aircraft for assisting in the landing of said aircraft and server for implementing such a method
CN113286081B (zh) 机场全景视频的目标识别方法、装置、设备及介质
WO2022231952A1 (en) Updating airspace awareness for unmanned aerial vehicles
US20200168112A1 (en) Device and method for landing assistance for an aircraft in conditions of reduced visibility
CN113286121A (zh) 机场场面视频的增强监视方法、装置、设备及介质
EP4235627A1 (en) Learning based system and method for visual docking guidance to detect new approaching aircraft types
US20230073120A1 (en) Method for Controlling an Unmanned Aerial Vehicle for an Inspection Flight to Inspect an Object and Inspection Unmanned Aerial Vehicle
JP6429347B1 (ja) 視界表示システムおよび移動体
CN113534849A (zh) 集成机器视觉的飞行组合导引系统、方法和介质
EP3905223A1 (en) Aircraft display systems and methods for identifying target traffic
US20220406040A1 (en) Method and device for generating learning data for an artificial intelligence machine for aircraft landing assistance
CN111746816B (zh) 一种飞机降落辅助装置及降落方法
US20200285828A1 (en) Method and system for automatically updating at least one airport database
Korn et al. Enhanced and synthetic vision: increasing pilot's situation awareness under adverse weather conditions
CN113917948A (zh) 一种低可视环境无人机地基辅助降落方法
US20220309786A1 (en) Method for training a supervised artificial intelligence intended to identify a predetermined object in the environment of an aircraft
Delezenne et al. Autonomous Navigation with Taxiway Crossings Identification using Camera Vision and Airport Map
US20230023069A1 (en) Vision-based landing system
US11851215B2 (en) Systems and methods for calibrating a synthetic image on an avionic display

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination