CN111310695A - 一种迫降方法、装置及电子设备 - Google Patents

一种迫降方法、装置及电子设备 Download PDF

Info

Publication number
CN111310695A
CN111310695A CN202010119892.2A CN202010119892A CN111310695A CN 111310695 A CN111310695 A CN 111310695A CN 202010119892 A CN202010119892 A CN 202010119892A CN 111310695 A CN111310695 A CN 111310695A
Authority
CN
China
Prior art keywords
image
forced landing
analyzed
landing
forced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010119892.2A
Other languages
English (en)
Other versions
CN111310695B (zh
Inventor
牛三库
马罡
刘子铭
刘春桃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cool High Technology Beijing Co ltd
Original Assignee
Cool High Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cool High Technology Beijing Co ltd filed Critical Cool High Technology Beijing Co ltd
Priority to CN202010119892.2A priority Critical patent/CN111310695B/zh
Publication of CN111310695A publication Critical patent/CN111310695A/zh
Application granted granted Critical
Publication of CN111310695B publication Critical patent/CN111310695B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种迫降方法、装置及电子设备,在无人驾驶航空器迫降过程中,可以根据实时获取的待分析图像的图像分析结果,来选取出适合迫降的目标迫降场地,无人驾驶航空器就可以迫降在该目标迫降场地,进而可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。并且,本发明可以适用于任何区域的迫降场地的分析,提高了未知迫降场地分析的准确性。

Description

一种迫降方法、装置及电子设备
技术领域
本发明涉及数据处理领域,更具体的说,涉及一种迫降方法、装置及电子设备。
背景技术
无人驾驶航空器,简称无人机、无人航空器,广义上指不需要驾驶员登机驾驶的各式遥控或自主智能航空器。
无人驾驶航空器在飞行过程中,会受到极端天气等影响而自主迫降,在迫降过程中,如果能够选取出适合于无人驾驶航空器的迫降场地,就可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。
发明内容
有鉴于此,本发明提供一种迫降方法、装置及电子设备,以解决在无人驾驶航空器迫降过程中,亟需选取出适合于无人驾驶航空器的迫降场地的问题。
为解决上述技术问题,本发明采用了如下技术方案:
一种迫降方法,包括:
实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
可选地,在所述基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地之后,还包括:
控制所述无人驾驶航空器迫降至所述目标迫降场地。
可选地,基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地,包括:
获取当前的待分析图像的图像分析结果;
若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像,并确定所述目标图像对应的地面迫降场地,并作为所述目标迫降场地;
若当前的所述待分析图像的图像分析结果为不适合迫降,则获取下一时刻采集的待分析图像的图像分析结果,并作为当前的待分析图像的图像分析结果,返回执行所述若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像这一步骤,直至得到所述目标迫降场地。
可选地,所述图像处理模型的生成过程包括:
获取图像样本集合;所述图像样本集合中包含了预先标注了图像采集信息的图像样本;所述图像样本的迫降类型为适合迫降;所述图像采集信息至少包括所述采集信息;
利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型。
可选地,获取图像样本集合,包括:
获取虚拟场景;所述虚拟场景包括降落跑道的三维图像数据以及所述降落跑道周围区域的三维图像数据;
从所述虚拟场景中提取出符合预设降落条件的目标图像;
获取所述目标图像的图像采集信息;
基于提取出的所述目标图像以及所述目标图像对应的图像采集信息,构建得到所述图像样本集合。
可选地,从所述虚拟场景中提取出符合预设降落条件的目标图像,包括:
从所述虚拟场景中确定出符合预设降落条件的目标区域;所述预设降落条件包括位于所述降落跑道周围区域且符合所述无人驾驶航空器的最小降落长度、最小降落宽度和落差;
提取出所述目标区域的图像,并对提取的图像进行图像增强处理,得到所述目标图像。
可选地,获取图像样本集合,包括:
获取通过航拍设备采集的符合预设降落条件的地面迫降样本场地的图像样本,并构建得到图像样本集合。
可选地,在所述利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型之后,还包括:
获取测试样本;
基于所述测试样本对所述图像处理模型进行测试,得到测试结果;
若所述测试结果为不适合迫降,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
可选地,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值,包括:
获取再训练图像样本集;所述再训练图像样本集中的图像样本的数量大于所述图像样本集合中的图像样本的数量;
依据所述再训练图像样本集对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
一种迫降场地确定装置,包括:
数据获取模块,用于实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
图像分析模块,用于调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
一种电子设备,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
相较于现有技术,本发明具有以下有益效果:
本发明提供了一种迫降方法、装置及电子设备,在无人驾驶航空器迫降过程中,可以采集地面迫降场地的待分析图像以及获取该待分析图像的采集信息,然后基于预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果。由于图像处理模型的训练样本标注有迫降类型,则可以使用图像处理模型分析得到当前获取的待分析图像对应的地面迫降场地是否适合迫降。在无人驾驶航空器迫降过程中,就可以根据实时获取的待分析图像的图像分析结果,来选取出适合迫降的目标迫降场地,无人驾驶航空器就可以迫降在该目标迫降场地,进而可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。并且,本发明可以适用于任何区域的迫降场地的分析,提高了未知迫降场地分析的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种迫降方法的方法流程图;
图2为本发明实施例提供的另一种迫降方法的方法流程图;
图3为本发明实施例提供的再一种迫降方法的方法流程图;
图4为本发明实施例提供的一种迫降装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
无人驾驶航空器,简称无人机、无人航空器,广义上指不需要驾驶员登机驾驶的各式遥控或自主智能航空器。
无人驾驶航空器在飞行过程中,会受到极端天气、其他设备干扰等影响而自主迫降,在迫降过程中,如果能够选取出适合于无人驾驶航空器的迫降场地,就可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。
可以采集机场跑道周围的航拍数据,即地形地貌数据,然后基于一定的跑道选取准则对机场跑道周围的区域进行筛选,筛选出适合无人驾驶航空器降落的区域,则后期在无人驾驶航空器飞行过程中,若受到极端天气、其他设备干扰等影响而自主迫降,在迫降过程中可以选择上述的某一固定的区域进行迫降,但是在实际过程中,无人驾驶航空器飞行路线不固定,若增加了一条航线,或者是行驶方向偏移航线,在迫降过程中,不能降落到上述固定的迫降区域时,则无法选择出适合迫降的区域,进而则会降低无人驾驶航空器的迫降成功率以及无人驾驶航空器的降落安全性。
为此,可以通过图像样本集合训练得到图像处理模型,其中,由于图像处理模型的训练样本均是标注了图像采集信息以及迫降类型,其中迫降类型可以是适合迫降,则可以使用图像处理模型分析得到当前获取的待分析图像对应的地面迫降场地是否适合迫降。这样就可以在无人驾驶航空器迫降过程中,实时采集地面迫降场地的待分析图像以及获取该待分析图像的采集信息,输入到上述的图像处理模型中得到该地面迫降场地是否可以迫降的结果,进而就可以选取出适合迫降的目标迫降场地,从而提高了无人驾驶航空器的迫降成功率以及无人驾驶航空器的降落安全性。
具体的,参照图1,一种迫降方法可以包括:
S11、实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息。
所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度。其中,在获取到采集信息时,采集信息携带有时间戳,该时间戳表征该采集信息的获取时间,也即为待分析图像的采集时间。
本实施例中的执行主体可以是设置在无人驾驶航空器中的处理器(也可以称为控制器),也可以是独立于处理器中的一个设备,如AI(Artificial Intelligence,人工智能)设备。
无人驾驶航空器在飞行过程中,由于受到极端天气、其他设备干扰等影响而自主迫降,在迫降过程中,无人驾驶航空器会选择出适合迫降的迫降场地,此时,无人驾驶航空器需要采集无人驾驶航空器下方区域的图像,为了描述方便,该区域称为地面迫降场地,无人驾驶航空器在迫降过程中,实时或每隔固定时间采集一次下方区域(即当前的地面迫降场地)的图像,则会实时采集到地面迫降场地的图像,该图像称为待分析图像,会依据待分析图像实时分析该待分析图像对应的地面迫降场地是否适合迫降,若适合,则迫降在该地面迫降场地,若不适合,则继续寻找适合迫降的迫降场地。其中,适合迫降的迫降场地,可以称为目标迫降场地。
无人驾驶航空器设置有图像采集设备,如摄像头等,该图像采集设备可以采集无人驾驶航空器下方区域(地面迫降场地)的图像,并且在采集过程中,还会获取到图像采集设备采集的采集高度以及采集角度,如高度为500米,角度为3°。该采集高度和采集角度作为该图像的采集信息,该信息可以标注在图像中,也可以独立存在。
S12、调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地。
所述图像处理模型是利用图像样本集合进行训练后得到的,所述图像样本集合中包含了预先标注了图像采集信息以及迫降类型的图像样本;迫降类型可以为适合迫降,即所述图像样本对应的区域适合无人驾驶航空器迫降,也就是说本实施例中的图像样本均是正样本。
本实施例中,预先使用标注有图像采集信息以及迫降类型的图像样本对初始模型进行训练,得到图像处理模型。本实施例中的图像采集信息可以是上述的采集信息,即高度和角度,此外,图像采集信息还可以包括土地类型,如沙地类型、硬土质类型、草地类型和公路类型等。本实施例中,标注土地类型是由于无人驾驶航空器在不同土地类型上降落需要不同的最小降落长度、最小降落宽度和落差等,举例来说,一款无人驾驶航空器,起飞距离为150-180米,降落距离为150-170米,通用跑道宽度为30米,落差2米。设计跑道长度为540米(3倍的最大起飞及降落距离),跑道宽度为20,跑道落差2米。若该无人驾驶航空器在上述不同类型的土地上降落,则需要依据土地类型调整跑道的长度、宽度和落差,如若土地类型为公路类型,由于公路与跑道质地差距较小,则在公路上的长度、宽度和落差与跑道上的长度、宽度和落差类似,若土地类型为沙土类型,由于沙土与跑道质地差距较大,则在沙土上的长度、宽度和落差与跑道上的长度、宽度和落差差距较大。
上述的图像处理模型可以识别出一标注有采集信息的待分析图像的图像分析结果,图像分析结果可以是适合迫降或不适合迫降,该图像分析结果代表了该待分析图像对应的地面迫降场地适不适合迫降的结果,若适合迫降,则该无人驾驶航空器可以选择在该区域迫降,若不适合迫降,则无人驾驶航空器在迫降过程中,不断采集新的待分析图像并调用图像处理模型进行处理,直至选择出适合迫降的目标迫降场地时停止。
在实际应用中,基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地可以包括:
1)获取当前的待分析图像的图像分析结果;
2)若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像,并确定所述目标图像对应的地面迫降场地,并作为所述目标迫降场地;
3)若当前的所述待分析图像的图像分析结果为不适合迫降,则获取下一时刻采集的待分析图像的图像分析结果,并作为当前的待分析图像的图像分析结果,返回执行所述若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像这一步骤,直至得到所述目标迫降场地。
本实施例中,采集到一张待分析图像且获取该待分析图像的采集信息后,就调用图像处理模型进行处理,得到图像分析结果,若为适合迫降,则将该待分析图像作为目标图像,并确定出该目标图像是采集的哪一地面迫降场地,确定了地面迫降场地之后,将该地面迫降场地作为目标迫降场地,并执行迫降到该目标迫降场地的操作,若不适合迫降,则继续采集下一张待分析图像,并执行上述处理过程。由于无人驾驶航空器在迫降过程中,飞行高度在不断改变,飞行角度也在不断改变,则采集的图像也会发生改变,进而每张图像的图像分析结果也会不同,若当前采集的图像对应的迫降场地不适合迫降,但是随着无人驾驶航空器不断降落,可能适合迫降的迫降区域会逐渐出现在无人驾驶航空器的下方,从而可以成功迫降。
在基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地之后,可以控制所述无人驾驶航空器迫降至所述目标迫降场地。
若本实施例中的执行主体为AI设备,则AI设备可以输出该目标迫降场地至无人驾驶航空器中的处理器,处理器依据该目标迫降场地确定行驶轨迹,并依据该行驶轨迹调节无人驾驶航空器的行驶方向,以使无人驾驶航空器飞行至该目标迫降场地。
若本实施例中的执行主体为处理器,则处理器直接依据该目标迫降场地确定行驶轨迹,并依据该行驶轨迹调节无人驾驶航空器的行驶方向,以使无人驾驶航空器飞行至该目标迫降场地。
本实施例中,在无人驾驶航空器迫降过程中,可以采集地面迫降场地的待分析图像以及获取该待分析图像的采集信息,然后基于预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果。由于图像处理模型的训练样本标注有迫降类型,如均为适合迫降,即均是适合迫降的样本,则可以使用图像处理模型分析得到当前获取的待分析图像对应的地面迫降场地是否适合迫降。在无人驾驶航空器迫降过程中,就可以根据实时获取的待分析图像的图像分析结果,来选取出适合迫降的目标迫降场地,无人驾驶航空器就可以迫降在该目标迫降场地,进而可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。
并且,本发明可以适用于任何区域的迫降场地的分析,提高了未知迫降场地分析的准确性。
上述提及了图像处理模型,现对图像处理模型的生成过程进行介绍,参照图2,所述图像处理模型的生成过程可以包括:
S21、获取图像样本集合。
所述图像样本集合中包含了预先标注了图像采集信息的图像样本;所述图像样本的迫降类型(也可称为样本类型)为适合迫降;所述图像采集信息至少包括所述采集信息。
本实施例中的图像样本的图像采集信息可以是人工标定,图像样本的图像采集信息已经在上述进行了介绍,请参照上述相应内容。
图像样本可以是采用航拍设备对跑道周围的区域进行拍摄,得到该图像样本,具体的,通过航拍设备(飞行器)采集的符合预设降落条件的地面迫降样本场地的图像样本,并构建得到图像样本集合。此外,为了减少航拍成本,可以从包括降落跑道的三维图像数据以及所述降落跑道周围区域的三维图像数据的虚拟场景中获取。
具体的,参照图3,步骤S21可以包括:
S31、获取虚拟场景。
所述虚拟场景包括降落跑道的三维图像数据以及所述降落跑道周围区域的三维图像数据。
本实施例中的虚拟场景可以是谷歌地图Google Earth中的虚拟场景,GoogleEarth中包括全球大部分各类型的机场跑道图片数据,从Google Earth中直接获取图像可以减少由于航拍带来的成本。
通过Google Earth中选取截取下视角为3°、3.5°、4°、4.5°、5°、5.5°和6°,高度分别为500、400、300、200、100、90、80、70、60、50、40、30、20以及10米的截取跑道图像,就可以得到图像样本。如分别截取若干张下视角为3°,高度分别为500、400、300、200、100、90、80、70、60、50、40、30、20以及10米的跑道图像,对其他的下视角做同样处理。
除了限定上述的下视角以及高度之外,还可以采集不同土地类型的图像样本,土地类型包括上述的沙地类型、硬土质类型、草地类型和公路类型,由于公路类型、硬土质类型、草地类型以及沙地类型出现的频率依次降低,则可以设置不同类型的图像样本的数量比例为1:5:2:10,此外,还可以设置成其他比例,对此不作限定。
S32、从所述虚拟场景中提取出符合预设降落条件的目标图像。
本实施例中,可以预先设置所述预设降落条件,具体的,为上述每一土地类型设置一预设降落条件。不同的土地类型对应的预设降落条件不同。需要说明的是,本实施例中的预设降落条件以及图像处理模型均是针对一种无人驾驶航空器设定的,不同的无人驾驶航空器的降落要求不同,需要设定不同的预设降落条件以及图像处理模型。
在实际应用中,步骤S32具体可以包括:
1)从所述虚拟场景中确定出符合预设降落条件的目标区域。
所述预设降落条件包括位于所述降落跑道周围区域且符合所述无人驾驶航空器的最小降落长度、最小降落宽度和落差。
本实施例中的应用场景为迫降场景,只有在无法降落到正常跑道上时才认为是迫降,则迫降的区域必然是降落跑道周围区域,并且能够实现无人驾驶航空器的迫降,则必然需要满足无人驾驶航空器的最小降落长度、最小降落宽度和落差。
由于每一土地类型对应一预设降落条件,则在选取目标区域时,需要考虑虚拟场景中的区域对应的土地类型,并判断是否满足该土地类型对应的预设降落条件,若满足,则可以确定为目标区域。
2)提取出所述目标区域的图像,并对提取的图像进行图像增强处理,得到所述目标图像。
在确定了目标区域之后,就可以对该目标区域进行提取,得到该目标区域的图像,进一步,对图像进行增强处理,以便于后期对图像更好地识别,图像增强处理完成后,即可得到目标图像。
S33、获取所述目标图像的图像采集信息。
本实施例中的,图像样本的图像采集信息已经在上述进行了介绍,请参照上述相应内容。
S34、基于提取出的所述目标图像、所述目标图像对应的图像采集信息,构建得到所述图像样本集合。
将目标图像、目标图像对应的图像采集信息进行组合,就可以得到该图像样本集合。
S22、利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型。
本实施例中,初始模型可以是改进后的VGGNet-E CNN神经网络模型,模型中的各个参数的初始参数值由人工确定。
表1神经网络内部参数表
Figure BDA0002392624840000111
Figure BDA0002392624840000121
本实施例中使用的改进后的VGGNet-E CNN神经网络模型共有29层,以27、28和29层为例说明参数总量,第27层的参数总量为7*7*512*4096,第28层的参数总量为4096*4096,第29层的参数总量为4096*4096。
在确定了上述的深度学习神经网络之后,选用16块显卡GTX 1080 Ti使用上述的图像样本集合进行神经网络的训练,就可以得到图像处理模型,后续就可以通过该图像处理模型去识别待分析图像对应的迫降场地是否可以迫降。
对于需要水平行驶的无人驾驶航空器,按照上述的方法训练图像处理模型,但是对于垂直起降飞行器,比如涵道飞行器,不需要水平距离较长的跑道,只需要选择尺寸合适的能供起降的场地。获取起降场地的图像相对来说是静态的,不会随着飞行器的降落过程而不断地发生变化,因而深度神经网络训练过程相对简单。
图像处理模型训练完成后,该图像处理模型就可以上线,且可以用于迫降场地的确定过程,但是为了使得图像处理模型在上线之前更优,还可以对该图像处理模型进行测试,以验证图像处理模型的图像识别准确度。若识别准确度不高,则还可以进一步训练该图像处理模型。具体的,在所述利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型之后,还包括:
1)获取测试样本。
本实施例中,在完成深度学习神经网络训练后,应用航拍测绘的无人航空器在无人驾驶航空器的航线周边采集预设时常或者是预设距离的航程对应的跑道以及跑道周边区域的图像,并作为测试样本。其中,预设时常可以是30分钟,预设距离可以是70km。
测试样本均是符合无人驾驶航空器降落的跑道周围区域的图像,在确定了测试样本之后,使用该测试样本对图像处理模型进行测试。
本实施例中,对测试样本的数量不做限定,但优选是数量越多越好,这样可以对图像处理模型的测试更全面。
2)基于所述测试样本对所述图像处理模型进行测试,得到测试结果。
将测试样本输入到图像处理模型中,即可得到测试结果,测试结果与图像分析结果相同,也分为适合迫降和不适合迫降两种。
3)若所述测试结果为不适合迫降,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
由于选取的均是适合迫降的区域对应的图像,因此,测试结果理想状态下应是适合迫降,但是在实际应用总,模型训练可能不准确,得到的测试结果并不一定是适合迫降,若出现不适合迫降,则认为该图像处理模型识别结果不准确。此时需要对图像处理模型再训练,再训练的结束条件为训练后的图像处理模型的识别准确度大于预设阈值。预设阈值可以是人工根据具体使用场景进行设定。
在图像处理模型对测试样本进行测试的过程中,由于图像处理模型均是使用的适合迫降的图像样本,即图像样本对应的迫降场地满足无人驾驶航空器的最小降落长度、最小降落宽度和落差,并且也限定了图像样本对应的土地类型,则图像处理模型在对测试样本进行分析时,会从土地类型、无人驾驶航空器的最小降落长度、最小降落宽度和落差四个角度进行评估,得到最终的是否适合迫降的结果。
若测试样本的测试结果为不适合迫降,在对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值时,具体可以通过下述步骤实现:
1)获取再训练图像样本集;所述再训练图像样本集中的图像样本的数量大于所述图像样本集合中的图像样本的数量。
本实施例中可以获取新的图像样本,并添加到所述图像样本集合中,得到再训练图像样本集。
本实施例中的新的图像样本可以是上述中对应的测试结果为不适合迫降的测试样本,并且需要标注上测试样本的图像采集信息。
新的图像样本还可以是从上述的Google Earth选取的新的图像,并且也需要标注上测试样本的图像采集信息。
此外,还可以是重新获取与图像样本集合中的图像样本完全不同的图像样本构建得到再训练图像样本集。
2)依据所述再训练图像样本集对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
再训练的过程同图像处理模型第一次训练时的过程,在此不再赘述。
本实施例中,若每增加一处跑道场地,可以采集该跑道场地周围区域,并且得到新的测试样本,此时训练集中的数据会更新一次,深度学习神经网络会更新训练一次。即只需添加少量的测试集航拍数据即可更新神经网络训练,并且随着验证场地数量的增加,深度学习神经网络的训练和矫正会逐步得到强化。
本实施例中,给出了图像处理模型的训练、测试以及再训的过程,保证了图像处理模型的识别准确度。进而可以使用训练好的图像处理模型识别待分析图像,辅助无人驾驶航空器找到迫降场地,保证无人驾驶航空器迫降的安全性。
可选地,在上述迫降方法的实施例的基础上,本发明的另一实施例提供了一种迫降场地确定装置,参照图4,可以包括:
数据获取模块11,用于实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;
图像分析模块12,用于调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
进一步,还包括迫降控制模块,用于控制所述无人驾驶航空器迫降至所述目标迫降场地。
进一步,图像分析模块12包括:
结果获取子模块,用于获取当前的待分析图像的图像分析结果;
图像确定子模块,用于若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像,并确定所述目标图像对应的地面迫降场地,并作为所述目标迫降场地;
结果获取子模块,还用于若当前的所述待分析图像的图像分析结果为不适合迫降,则获取下一时刻采集的待分析图像的图像分析结果,并作为当前的待分析图像的图像分析结果,直至图像确定子模块得到所述目标迫降场地。
本实施例中,在无人驾驶航空器迫降过程中,可以采集迫降场地的待分析图像以及获取该待分析图像的采集信息,然后基于预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果。由于图像处理模型的训练样本标注有迫降类型,则可以使用图像处理模型分析得到当前获取的待分析图像对应的地面迫降场地是否适合迫降。在无人驾驶航空器迫降过程中,就可以根据实时获取的待分析图像的图像分析结果,来选取出适合迫降的目标迫降场地,无人驾驶航空器就可以迫降在该目标迫降场地,进而可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。
并且,本发明可以适用于任何区域的迫降场地的分析,提高了未知迫降场地分析的准确性。
需要说明的是,本实施例中的各个模块的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选地,在上述迫降场地确定装置的实施例的基础上,还包括模型生成模块,模型生成模块可以包括:
第一样本获取子模块,用于获取图像样本集合;所述图像样本集合中包含了预先标注了图像采集信息的图像样本;所述图像样本的迫降类型为适合迫降;所述图像采集信息至少包括所述采集信息;
训练子模块,用于利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型。
进一步,样本获取子模块可以包括:
场景获取单元,用于获取虚拟场景;所述虚拟场景包括降落跑道的三维图像数据以及所述降落跑道周围区域的三维图像数据;
图像提取单元,用于从所述虚拟场景中提取出符合预设降落条件的目标图像;
信息获取单元,用于获取所述目标图像的图像采集信息;
样本整合单元,用于基于提取出的所述目标图像以及所述目标图像对应的图像采集信息,构建得到所述图像样本集合。
进一步,图像提取单元用于从所述虚拟场景中提取出符合预设降落条件的目标图像时,具体用于:
从所述虚拟场景中确定出符合预设降落条件的目标区域;所述预设降落条件包括位于所述降落跑道周围区域且符合所述无人驾驶航空器的最小降落长度、最小降落宽度和落差;
提取出所述目标区域的图像,并对提取的图像进行图像增强处理,得到所述目标图像。
进一步,第一样本获取子模块具体用于:
获取通过航拍设备采集的符合预设降落条件的地面迫降样本场地的图像样本,并构建得到图像样本集合。
进一步,模型生成模块还可以包括:
第二样本获取子模块,用于获取测试样本;
测试子模块,用于基于所述测试样本对所述图像处理模型进行测试,得到测试结果;
再训练子模块,用于若所述测试结果为不适合迫降,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
进一步,再训练子模块用于对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值时,具体用于:
获取再训练图像样本集;所述再训练图像样本集中的图像样本的数量大于所述图像样本集合中的图像样本的数量;
依据所述再训练图像样本集对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
本实施例中,给出了图像处理模型的训练、测试以及再训的过程,保证了图像处理模型的识别准确度。进而可以使用训练好的图像处理模型识别待分析图像,辅助无人驾驶航空器找到迫降场地,保证无人驾驶航空器迫降的安全性。
需要说明的是,本实施例中的各个模块、子模块和单元的工作过程,请参照上述实施例中的相应说明,在此不再赘述。
可选地,在上述迫降方法及装置的实施例的基础上,本发明的另一实施例提供了一种电子设备,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
本实施例中,在无人驾驶航空器迫降过程中,可以采集迫降场地的待分析图像以及获取该待分析图像的采集信息,然后基于预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果。由于图像处理模型的训练样本标注有迫降类型,则可以使用图像处理模型分析得到当前获取的待分析图像对应的地面迫降场地是否适合迫降。在无人驾驶航空器迫降过程中,就可以根据实时获取的待分析图像的图像分析结果,来选取出适合迫降的目标迫降场地,无人驾驶航空器就可以迫降在该目标迫降场地,进而可以提高无人驾驶航空器的迫降成功率以及提高无人驾驶航空器的降落安全性。
并且,本发明可以适用于任何区域的迫降场地的分析,提高了未知迫降场地分析的准确性。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (11)

1.一种迫降方法,其特征在于,包括:
实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
2.根据权利要求1所述的迫降方法,其特征在于,在所述基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地之后,还包括:
控制所述无人驾驶航空器迫降至所述目标迫降场地。
3.根据权利要求1所述的迫降方法,其特征在于,基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地,包括:
获取当前的待分析图像的图像分析结果;
若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像,并确定所述目标图像对应的地面迫降场地,并作为所述目标迫降场地;
若当前的所述待分析图像的图像分析结果为不适合迫降,则获取下一时刻采集的待分析图像的图像分析结果,并作为当前的待分析图像的图像分析结果,返回执行所述若当前的所述待分析图像的图像分析结果为适合迫降,则将当前的所述待分析图像确定为目标图像这一步骤,直至得到所述目标迫降场地。
4.根据权利要求1所述的迫降方法,其特征在于,所述图像处理模型的生成过程包括:
获取图像样本集合;所述图像样本集合中包含了预先标注了图像采集信息的图像样本;所述图像样本的迫降类型为适合迫降;所述图像采集信息至少包括所述采集信息;
利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型。
5.根据权利要求4所述的迫降方法,其特征在于,获取图像样本集合,包括:
获取虚拟场景;所述虚拟场景包括降落跑道的三维图像数据以及所述降落跑道周围区域的三维图像数据;
从所述虚拟场景中提取出符合预设降落条件的目标图像;
获取所述目标图像的图像采集信息;
基于提取出的所述目标图像以及所述目标图像对应的图像采集信息,构建得到所述图像样本集合。
6.根据权利要求5所述的迫降方法,其特征在于,从所述虚拟场景中提取出符合预设降落条件的目标图像,包括:
从所述虚拟场景中确定出符合预设降落条件的目标区域;所述预设降落条件包括位于所述降落跑道周围区域且符合所述无人驾驶航空器的最小降落长度、最小降落宽度和落差;
提取出所述目标区域的图像,并对提取的图像进行图像增强处理,得到所述目标图像。
7.根据权利要求4所述的迫降方法,其特征在于,获取图像样本集合,包括:
获取通过航拍设备采集的符合预设降落条件的地面迫降样本场地的图像样本,并构建得到图像样本集合。
8.根据权利要求4所述的迫降方法,其特征在于,在所述利用所述图像样本集合对初始模型进行训练,得到所述图像处理模型之后,还包括:
获取测试样本;
基于所述测试样本对所述图像处理模型进行测试,得到测试结果;
若所述测试结果为不适合迫降,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
9.根据权利要求8所述的迫降方法,其特征在于,对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值,包括:
获取再训练图像样本集;所述再训练图像样本集中的图像样本的数量大于所述图像样本集合中的图像样本的数量;
依据所述再训练图像样本集对所述图像处理模型进行再训练,直至训练后的图像处理模型的识别准确度大于预设阈值。
10.一种迫降场地确定装置,其特征在于,包括:
数据获取模块,用于实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
图像分析模块,用于调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
11.一种电子设备,其特征在于,包括:存储器和处理器;
其中,所述存储器用于存储程序;
处理器调用程序并用于:
实时获取迫降过程中采集的待分析图像,以及所述待分析图像的采集信息;所述采集信息包括采集所述待分析图像的图像采集设备的采集角度以及采集高度;所述待分析图像为地面迫降场地的图像;
调用预先训练的图像处理模型对标注有采集信息的所述待分析图像进行处理,得到所述待分析图像的图像分析结果,并基于实时获取的所述待分析图像的图像分析结果,确定无人驾驶航空器迫降的目标迫降场地;
所述图像分析结果为所述待分析图像对应的地面迫降场地适合迫降的分析结果;所述图像处理模型利用图像样本训练得到,所述图像样本预先标注了图像采集信息和迫降类型;所述图像采集信息至少包括所述采集信息。
CN202010119892.2A 2020-02-26 2020-02-26 一种迫降方法、装置及电子设备 Active CN111310695B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010119892.2A CN111310695B (zh) 2020-02-26 2020-02-26 一种迫降方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010119892.2A CN111310695B (zh) 2020-02-26 2020-02-26 一种迫降方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111310695A true CN111310695A (zh) 2020-06-19
CN111310695B CN111310695B (zh) 2023-11-24

Family

ID=71147766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010119892.2A Active CN111310695B (zh) 2020-02-26 2020-02-26 一种迫降方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111310695B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105405165A (zh) * 2015-10-21 2016-03-16 北京航空航天大学 一种通用型无人机飞行中地貌分析及迫降区域提取仿真系统
KR20170111921A (ko) * 2016-03-30 2017-10-12 팅크웨어(주) 무인 비행체 제어 방법 및 시스템
CN107450590A (zh) * 2017-08-07 2017-12-08 深圳市科卫泰实业发展有限公司 一种无人机辅助降落方法
WO2019223361A1 (zh) * 2018-05-23 2019-11-28 北京国双科技有限公司 一种视频分析方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105405165A (zh) * 2015-10-21 2016-03-16 北京航空航天大学 一种通用型无人机飞行中地貌分析及迫降区域提取仿真系统
KR20170111921A (ko) * 2016-03-30 2017-10-12 팅크웨어(주) 무인 비행체 제어 방법 및 시스템
CN107450590A (zh) * 2017-08-07 2017-12-08 深圳市科卫泰实业发展有限公司 一种无人机辅助降落方法
WO2019223361A1 (zh) * 2018-05-23 2019-11-28 北京国双科技有限公司 一种视频分析方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刁灿;王英勋;王金提;苗淼;: "辅助自动着陆技术", 系统仿真学报, no. 1 *
程晨;吴瑞玉;蒋少良;华佳峰;: "交通管理用无人驾驶航空器系统检测方法研究与实现", 中国标准化, no. 18 *

Also Published As

Publication number Publication date
CN111310695B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN108037770B (zh) 基于人工智能的无人机输电线路巡检系统和方法
CN107918776B (zh) 一种基于机器视觉的用地规划方法、系统及电子设备
CN106909886B (zh) 一种基于深度学习的高精度交通标志检测方法及系统
CN107481292A (zh) 车载摄像头的姿态误差估计方法和装置
CN106356757A (zh) 一种基于人眼视觉特性的电力线路无人机巡检方法
CN111666855B (zh) 基于无人机的动物三维参数提取方法、系统及电子设备
CN112560623B (zh) 一种基于无人机的红树植物种类快速识别方法
CN112464766A (zh) 一种农田地头自动识别方法及系统
CN114089786A (zh) 一种基于无人机视觉的沿山区公路自主巡检系统
Faheem et al. Uav emergency landing site selection system using machine vision
CN116719339A (zh) 一种基于无人机的电力线路巡检控制方法及系统
CN116310891A (zh) 一种云边协同输电线路缺陷智能检测系统和方法
CN114037895A (zh) 一种无人机杆塔巡检图像识别方法
CN115909096A (zh) 无人机巡航管道隐患分析方法、装置及系统
CN114972646A (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
CN117193347B (zh) 无人机飞行高度控制方法、装置、电子设备及存储介质
CN113569644A (zh) 一种基于机器视觉的机场鸟类目标检测方法
CN109977884B (zh) 目标跟随方法和装置
CN111310695B (zh) 一种迫降方法、装置及电子设备
CN117197676A (zh) 一种基于特征融合的目标检测识别方法
CN112542800A (zh) 一种输电线路故障识别的方法及其系统
Majidi et al. Real time aerial natural image interpretation for autonomous ranger drone navigation
CN115311680A (zh) 人体图像质量检测方法、装置、电子设备及存储介质
CN112634610A (zh) 自然驾驶数据采集方法、装置、电子设备以及存储介质
Chaoying et al. A cross-border detection algorithm for agricultural spraying UAV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant