CN113759984B - 一种竞速无人机的数据智能交互方法、装置及设备 - Google Patents

一种竞速无人机的数据智能交互方法、装置及设备 Download PDF

Info

Publication number
CN113759984B
CN113759984B CN202111316782.6A CN202111316782A CN113759984B CN 113759984 B CN113759984 B CN 113759984B CN 202111316782 A CN202111316782 A CN 202111316782A CN 113759984 B CN113759984 B CN 113759984B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
landing
scene
control unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111316782.6A
Other languages
English (en)
Other versions
CN113759984A (zh
Inventor
赵伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Tianyada New Material Technology Co ltd
Original Assignee
Shandong Tianyada New Material Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Tianyada New Material Technology Co ltd filed Critical Shandong Tianyada New Material Technology Co ltd
Priority to CN202111316782.6A priority Critical patent/CN113759984B/zh
Publication of CN113759984A publication Critical patent/CN113759984A/zh
Application granted granted Critical
Publication of CN113759984B publication Critical patent/CN113759984B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

本发明涉及一种竞速无人机的数据智能交互方法、装置及设备,包括以下步骤:获取失控无人机周围区域的实时视频帧信息;计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;基于所述场景变化量确定失控无人机的着陆区域;获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;从所述着陆导航路线中确定失控无人机的着陆路线。本发明能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR场景进行选择着陆区域,解决了民用无人机在失控时无法自行控制的着陆的技术问题,而且能够从实时的视频帧选择空旷的着陆区域,使得失控无人机着陆路线更加合理。

Description

一种竞速无人机的数据智能交互方法、装置及设备
技术领域
本发明涉及无人机技术领域,尤其涉及一种竞速无人机的数据智能交互方法、装置及设备。
背景技术
无人机是现代创新科技研究应用热点,应用领域越来越广泛,民用无人机以小巧、灵活、性价比高、方便二次开发等特点,受到市场青睐,发展快速。民用无人机可广泛应用于娱乐、农业、测绘、应急救灾、公共安全、巡查监管、影视等领域。民用人机系统综合了传感器、电子、控制、材料、能源、通信和安全管理等技术。
但是民用无人机还是有许多问题尚未解决,如民用无人机容易被人为磁电波恶意干扰,导致民用无人机在表演失控时,此时民用无人机无法通过无人机远程控制终端继续控制,导致民用无人机形成高空抛物,由于表演时大都在城市的繁华地带,形成高空抛物后容易伤及无辜以及损害他人利益。另一方面,现有技术中,无法在选择着陆区域时根据实时状况来进行选择着陆区域,在行人知情的情况下还可以进行躲避,在行人不知情的情况下,容易伤及无辜。
发明内容
本发明克服了现有技术的不足,提供了一种竞速无人机的数据智能交互方法、装置及设备。
为了达到上述目的,本发明采用的技术方案为:
本发明第一方面提供了一种竞速无人机的数据智能交互方法,包括以下步骤:
获取失控无人机周围区域的实时视频帧信息;
计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
基于所述场景变化量确定失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
从所述着陆导航路线中确定失控无人机的着陆路线。
进一步地,本发明的一个较佳实施例中,还包括以下步骤:
获取失控无人机失控时的地理位置;
基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
从所述区域场景分布图中确定出失控无人机的着陆区域。
进一步地,本发明的一个较佳实施例中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。
进一步地,本发明的一个较佳实施例中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
获取每一条着陆导航路线路程长度值;
基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
若存在,则调整其中一架或者多架失控无人机的着陆路线。
进一步地,本发明的一个较佳实施例中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
进一步地,本发明的一个较佳实施例中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
进一步地,本发明的一个较佳实施例中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
从所述实时视频帧信息中识别特征信息;
将所述特征信息与预设特征信息对比,得到偏差率;
判断所述偏差率是否大于预设偏差率阈值;
若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
本发明第二方面提供了一种竞速无人机的数据智能交互装置,所述装置包括存储器与处理器,所述存储器中包括竞速无人机的轨道智能交互方法程序,所述竞速无人机的轨道智能交互方法程序被所述处理器执行时,实现如下步骤:
获取失控无人机周围区域的实时视频帧信息;
计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
基于所述场景变化量确定失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
从所述着陆导航路线中确定失控无人机的着陆路线。
进一步地,本发明的一个较佳实施例中,还包括以下步骤:
获取失控无人机失控时的地理位置;
基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
从所述区域场景分布图中确定出失控无人机的着陆区域。
本发明第三方面提供了一种竞速无人机的数据智能交互设备,所述竞速无人机的轨道智能定位设备包括:
获取模块,获取失控无人机周围区域的实时视频帧信息;
计算模块,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
确定模块,基于所述场景变化量确定失控无人机的着陆区域;
导航模块,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
规划模块,从所述着陆导航路线中确定失控无人机的着陆路线。
本发明解决了背景技术中存在的缺陷,能够达到如下的技术效果:无人机通过设置该方法,能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR场景进行选择着陆区域,解决了民用无人机在失控时无法自行控制的着陆的技术问题,而且能够从实时的视频帧中选择空旷的着陆区域,使得失控无人机着陆路线更加合理,避免了失控无人机形成高空抛物砸伤行人的事件发生;另一方面,能够在失控无人机的地理位置对应的AR地图中检索出最近的着陆区域,而且本方法从另一个层面来说实现了无人机的管理、监管更加合理以及高效。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他实施例的附图。
图1示出了一种竞速无人机的数据智能交互方法的方法流程图;
图2示出了确定着陆区域的方法流程图;
图3示出了失控无人机着陆导航路线规划的方法流程图;
图4示出了调整失控无人机着陆导航路线规划的方法流程图;
图5示出了提取特征信息的方法流程图;
图6示出了一种竞速无人机的数据智能交互装置的装置框图;
图7示出了一种竞速无人机的数据智能交互设备的模块示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了一种竞速无人机的数据智能交互方法的方法流程图;
本发明第一方面提供了一种竞速无人机的数据智能交互方法,包括以下步骤:
S102:获取失控无人机周围区域的实时视频帧信息;
S104:计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
S106:基于所述场景变化量确定失控无人机的着陆区域;
S108:获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
S110:从所述着陆导航路线中确定失控无人机的着陆路线。
需要使用的是,可以在失控无人机上设置视频采集设备,如摄像头、红外成像仪等,以获取在无人机失控时的周围区域的视频帧,进而对获取的视频帧来进行场景变化量的计算,利用高斯模型获得视频帧的运动目标的速度值,其中从视频帧中获得运动目标的特征像素点,如汽车的轮廓、人体轮廓,对轮廓中的其中一个特征像素点在一定的时间内进行追踪,从而得到该运动目标的运动速度值,其中运动速度值(即场景变化量)满足高斯模型:
Figure 214067DEST_PATH_IMAGE001
其中,t为运动的时间;
Figure 709770DEST_PATH_IMAGE002
为像素点
Figure 832447DEST_PATH_IMAGE003
在运动时间t内的运动距离;V为在t 时刻的运动速度值,
Figure 130661DEST_PATH_IMAGE004
为像素点
Figure 47802DEST_PATH_IMAGE003
的初始速度,S为在运动距离
Figure 296380DEST_PATH_IMAGE005
过程中运动速度值的方 差值。
而在运动距离
Figure 832535DEST_PATH_IMAGE005
过程中运动速度值的方差值满足:
Figure 584590DEST_PATH_IMAGE006
其中,k为方差系数,一般取值为1;
Figure 203791DEST_PATH_IMAGE007
为将运动时间t分为等量的时间间隔值;
Figure 877348DEST_PATH_IMAGE008
Figure 341828DEST_PATH_IMAGE009
、…、
Figure 151652DEST_PATH_IMAGE010
为等量间隔时间
Figure 941754DEST_PATH_IMAGE007
内的运动距离,
Figure 899345DEST_PATH_IMAGE008
Figure 42882DEST_PATH_IMAGE009
、…、
Figure 831846DEST_PATH_IMAGE010
之和与运动距离相等。
计算出在t时刻的运动速度值V后,对该速度值进行频率值计算,如汽车的轮廓、行人,通过该运动速度值以及汽车的轮廓、行人外形特征进一步,确定是否为汽车、行人的概率,并根据该频率值作为无人机能否着陆的区域评价标准,其中该频率值满足:
Figure 668215DEST_PATH_IMAGE011
其中P为目标物的经过该区域的频率值,V为该目标物的运动速度值,
Figure 175420DEST_PATH_IMAGE004
为目标物 的初始速度值,S为目标物在一定运动距离过程中运动速度的方差值。
需要说明的是,当该频率值接近于1时,说明为目标物的行动区域(如汽车的行驶区域、行人的活动区域等)的概率值大,当该频率值接近于0时,说明该区域可作为失控无人机的着陆区域。并且从AR场景地图中获取该区域的位置坐标以及该区域的空间面积。在计算的过程中,可选取一段目标物的运动距离,从而得到该目标物的运动速度,而初始速度值可为0,初始速度值不为0时通过常规的速度公式即可获得,从而选取出频率值接近于0的区域场景的场景变化量作为最终的场景变化量。
图2示出了确定着陆区域的方法流程图;
进一步地,本发明的一个较佳实施例中,还包括以下步骤:
S202:获取失控无人机失控时的地理位置;
S204:基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
S206:从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
S208:若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
S210:从所述区域场景分布图中确定出失控无人机的着陆区域。
需要说明的是,在无人机失控前,无人机模块上可设置有定位仪,在无人机失控时,该地理位置可被无人机人身识别,其中地理位置具体为经度、纬度、海拔高度所形成的坐标值,该地理坐标值有对应特定的AR场景图,无人机中设置有定位仪中设置数据库,该数据中存储有对应地理位置的AR场景图,在无人机执行任务失控时,失控无人机在所在的地理位置搜索AR场景中的空旷区域,并将该空旷区域作为目标降落区域,将参考视频帧中的场景变化量整合到空旷场景中,形成实时的场景化,如空旷的场景中增加了汽车行驶的场景、人行道场景中增加了行人的场景等。其中区域场景分布图可为:如汽车的行驶区域、行人的活动区域、无行人的活动区域、停车区域等区域的划分,为无人机的着陆选择一个合理的降落区域,不会降落在正在有行人的活动区域场景、汽车的行驶区域场景、狭窄的区域场景等,使得失控无人机降落在空旷的区域场景中,这样能够避免伤及无辜、损害他人利益,以及将失控无人机都着陆在空旷的区域之中,有利于失控无人机的管理。其中空旷的区域场景为:能够容纳无人机最大占用面积的场景区域。
图3示出了失控无人机着陆导航路线规划的方法流程图;
进一步地,本发明的一个较佳实施例中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
S302:将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
S304:从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
S306:连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。
需要说明的是,AR场景相当于一个三维模型场景数据库,如包含各个地理位置对应的高楼的3D模型、路灯的3D模型等,此类都可作为障碍物,此类3D模型的轮廓点在AR场景中均可用坐标来表示,通过利用AR场景中的此类3D模型对失控无人机的着陆导航路线进行规划,当发现起点以及终点之间导航线存在障碍物时,改变起点的位置,实现无障碍降落,避免了失控无人机在着陆过程中损坏,通过坐标与坐标之间的常规计算,即可得到着陆导航路线的路程。
图4示出了调整失控无人机着陆导航路线规划的方法流程图;
进一步地,本发明的一个较佳实施例中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
S402:获取每一条着陆导航路线路程长度值;
S404:基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
S406:获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
S408:若存在,则调整其中一架或者多架失控无人机的着陆路线。
需要说明的是,由于从AR地图中筛选出了多个着陆区域,此时有一个或者多个着陆区域。因此,失控无人机的着陆路线就形成了多条,从多条着陆路线中选取出飞行路程更短的着陆路线,使得失控无人机能够在最短的时间内安全着陆在着陆区域之内,保证了无人机能够及时以及安全地着陆在指定的着陆区域之中。
需要说明的是,在着陆路线中可能存在失控无人机着陆区域的终点位置重合的情况,当出现该情况时,调整其中一架或者多架的失控无人机的着陆路线,从而改变其中一架或者多架失控无人机着陆的终点位置,其中调整路线时,按照优先级着陆导航路线序列表中原着陆路线的路程长度值之外的下一优先级的路程长度值作为着陆路线,其中虽然无人机远程控制终端失控了,但是由于多架民用无人机之间进行活动时,离得较近,依然可以进行通讯,如可通过通信器件进行通讯。
进一步地,本发明的一个较佳实施例中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
进一步地,本发明的一个较佳实施例中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
需要说明的是,其中,预设场景变化量为上述无目标物的经过该区域的频率值,该频率值取值为0或1,当接近0时,说明该区域没有目标物经过,该区域能够选作为失控无人机着陆的区域,当接近于1,说明该区域为有物体经过,该区域不能选为失控无人机的着陆区域。
图5示出了提取特征信息的方法流程图;
进一步地,本发明的一个较佳实施例中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
S502:从所述实时视频帧信息中识别特征信息;
S504:将所述特征信息与预设特征信息对比,得到偏差率;
S506:判断所述偏差率是否大于预设偏差率阈值;
S508:若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
需要说明的是,利用中值滤波法对采集的视频帧中的图像对特征信息进行识别,其中特征信息为人物的外形特征、汽车的外形特征、动物的外形特征、建筑物的外形特征、室外停车场外形特征等,通过与数据库中的外形特征对比,从而能够得到该特征信息为何种物体的特征,从而能够根据视频帧中的场景变化量有效地筛选出有效的失控无人机的着陆区域。
综上所述,发明通过设置该方法,能够实现失控无人机根据实时的视频帧以及无人机失控前的地理位置对应的AR场景进行选择着陆区域,解决了民用无人机在失控时无法自行控制的着陆的技术问题,而且能够从实时的视频帧中选择空旷的着陆区域,使得失控无人机着陆路线更加合理,避免了失控无人机形成高空抛物砸伤行人的事件发生;另一方面,能够在失控无人机的地理位置对应的AR地图中检索出最近的着陆区域,而且本方法从另一个层面来说实现了无人机的管理、监管更加合理以及高效。
此外,本方法还可以包括以下步骤:
获取失控无人机着陆时的最大占用面积值;
从AR场景信息中获得着陆区域的面积值,并基于所述失控无人机着陆时的最大占用面积值以及所述着陆区域的面积值计算得到着陆区域可容纳的无人机数量;
获取当前失控无人机的数量,判断所述着陆区域可容纳的无人机数量是否不小于所述失控无人机的数量;
若小于,则生成第一失控无人机着陆区域图,并得到所述无人机着陆区域图的地理位置,并从所述区域场景分布图中寻找出距离所述第一失控无人机着陆区域图最近的着陆区域,生成第二失控无人机着陆区域图,并得到所述第二失控无人机着陆区域图的地理位置;
若不小于,则生成第一失控无人机着陆区域图,并得到所述无人机着陆区域图的地理位置。
需要说明的是,在民用无人机使用时(无人机之间的距离都间隔不远),由于表演过程中失控了,此时有多架无人机失控,而失控无人机内部的数据库存储有无人机本身着陆时占用的最大面积,而此时,着陆区域可能选取出多个,由于着陆区域的使用面积有限,着陆区域所能容纳的无人机数量也是一定的。因此,着陆路线中的最短路程的着陆区域存在不能容纳全部失控无人机的数量的可能性,从所述区域场景分布图中寻找出距离所述第一无人机着陆区域图最近的着陆区域,生成第二失控无人机着陆区域图。按照此方式可以生成第n个失控无人机着陆区域图。因此,本方法可设置在远程控制终端对无人机失控时进行模拟,在失控无人机着陆时,即可获得到失控无人机的着陆区域,进而对失控无人机进行回收。
此外,还可以包括以下步骤:
获取无人机反馈的通讯信号;
判断所述无人机远程控制终端在预设时间内能否接收到所述无人机反馈的通讯信号;
若否,则说明无人机的控制状态为失控状态;
若能,则进一步判断无人机远程控制终端在预设时间内所接收到的所述无人机反馈的通讯信号是否存在间断的情况;
若存在,则得到在预设时间内通讯信号间断的次数,并判断间断的次数是否大于预设间断的次数;
若大于,则说明无人机的控制状态为失控状态。
需要说明的是,其中,无人机远程控制终端可为遥控器、计算机、计算机程序等,无人机远程控制终端在远程控制无人机时,通过远程控制终端接收无人机反馈的通讯信号,进而判定无人机是否为失控状态,使得无人机在使用的过程中更具备安全性能。
此外,还可以包括以下步骤:
获取失控无人机失控时的剩余燃料值;
根据所述失控无人机的着陆导航路线得到每一条着陆导航路线的燃料损耗值;
比较所述每一条着陆导航路线的燃料损耗值,以得到着陆导航路线中的最小燃料损耗值,并判断所述着陆导航路线中的最小燃料损耗值是否小于无人机失控时的剩余燃料值;
若小于,则从AR场景中检索出距离失控无人机的地理位置最近的楼顶平台,并将楼顶平台作为着陆区域;
若不小于,将该最小燃料损耗值的着陆导航路线作为最终的着陆导航路线。
需要说明的是,失控无人机本身设置有数据库,该数据库能够实时获得无人机的剩余燃料值。其中,每一条着陆导航路线都有着一定的燃料损耗值,其中燃料损耗值满足:
Figure 919385DEST_PATH_IMAGE012
其中Q为着陆导航路线的燃料损耗值,F为无人机飞行时在飞行方向上自身的牵引 力;
Figure 969381DEST_PATH_IMAGE013
为第二导航路线的线性长度值,
Figure 835705DEST_PATH_IMAGE014
为第三导航路线的线性长度值。
需要说明的是,在无人机着陆导航的过程中选择的为匀速降落的过程,无人机的控制人员可设置一个匀速降落的速度值,以应对该无人机失控时进行降落的速度值。而利用坐标与坐标之间的计算,从而得到第二导航路线的线性长度值以及第三导航路线的线性长度值。当着陆导航路线中的最小燃料损耗值小于无人机失控时的剩余燃料值,从AR场景中选择出距离失控无人机的地理位置最近的楼顶平台作为着陆区域,进一步考虑该情况,能够进一步避免伤及无辜以及损害他人利益的情况发生。
图6示出了一种竞速无人机的数据智能交互装置的装置框图;
本发明第二方面提供了一种竞速无人机的数据智能交互装置,所述装置包括存储器41与处理器62,所述存储器41中包括竞速无人机的轨道智能交互方法程序,所述竞速无人机的轨道智能交互方法程序被所述处理器62执行时,实现如下步骤:
获取失控无人机周围区域的实时视频帧信息;
计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
基于所述场景变化量确定失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
从所述着陆导航路线中确定失控无人机的着陆路线。
对于本实施例而言,可以在失控无人机上设置视频采集设备,如摄像头、红外成像仪等,以获取在无人机失控时的周围区域的视频帧,进而对获取的视频帧来进行场景变化量的计算,利用高斯模型获得视频帧的运动目标的速度值,其中从视频帧中获得运动目标的特征像素点,如汽车的轮廓、人体轮廓,对轮廓中的其中一个特征像素点在一定的时间内进行追踪,从而得到该运动目标的运动速度值,其中运动速度值(即场景变化量)满足高斯模型:
Figure 971152DEST_PATH_IMAGE001
其中,t为运动的时间;
Figure 315545DEST_PATH_IMAGE002
为像素点
Figure 220047DEST_PATH_IMAGE003
在运动时间t内的运动距离;V为在t 时刻的运动速度值,
Figure 257274DEST_PATH_IMAGE004
为像素点
Figure 676754DEST_PATH_IMAGE003
的初始速度,S为在运动距离
Figure 965784DEST_PATH_IMAGE005
过程中运动速度值的方 差值。
而在运动距离
Figure 849426DEST_PATH_IMAGE005
过程中运动速度值的方差值满足:
Figure 192639DEST_PATH_IMAGE006
其中,k为方差系数,一般取值为1;
Figure 896153DEST_PATH_IMAGE007
为将运动时间t分为等量的时间间隔值;
Figure 723295DEST_PATH_IMAGE008
Figure 727023DEST_PATH_IMAGE009
、…、
Figure 778156DEST_PATH_IMAGE010
为等量间隔时间
Figure 109911DEST_PATH_IMAGE007
内的运动距离,
Figure 865377DEST_PATH_IMAGE008
Figure 598978DEST_PATH_IMAGE009
、…、
Figure 148908DEST_PATH_IMAGE010
之和与运动距离相等。
计算出在t时刻的运动速度值V后,对该速度值进行频率值计算,如汽车的轮廓、行人,通过该运动速度值以及汽车的轮廓、行人外形特征进一步,确定是否为汽车、行人的概率,并根据该频率值作为无人机能否着陆的区域评价标准,其中该频率值满足:
Figure 967960DEST_PATH_IMAGE011
其中P为目标物的经过该区域的频率值,V为该目标物的运动速度值,
Figure 933642DEST_PATH_IMAGE004
为目标物 的初始速度值,S为目标物在一定运动距离过程中运动速度的方差值。
在本实施例中,当该频率值接近于1时,说明为目标物的行动区域(如汽车的行驶区域、行人的活动区域等)的概率值大,当该频率值接近于0时,说明该区域可作为失控无人机的着陆区域。并且从AR场景地图中获取该区域的位置坐标以及该区域的空间面积。在计算的过程中,可选取一段目标物的运动距离,从而得到该目标物的运动速度,而初始速度值可为0,初始速度值不为0时通过常规的速度公式即可获得。
进一步地,本发明的一个较佳实施例中,还包括以下步骤:
获取失控无人机失控时的地理位置;
基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
若在,并将所述参考视频帧的场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
从所述区域场景分布图中确定出失控无人机的着陆区域。
其中,在无人机失控前,无人机模块上可设置有定位仪,在无人机失控时,该地理位置可被无人机人身识别,其中地理位置具体为经度、纬度、海拔高度所形成的坐标值,该地理坐标值有对应特定的AR场景图,无人机中设置有定位仪中设置数据库,该数据中存储有对应地理位置的AR场景图,在无人机执行任务失控时,失控无人机在所在的地理位置搜索AR场景中的空旷区域,并将该空旷区域作为目标降落区域,将参考视频帧中的场景变化量整合到空旷场景中,形成实时的场景化。其中区域场景分布图可为:如汽车的行驶区域、行人的活动区域、无行人的活动区域、停车区域等区域的划分,为无人机的着陆选择一个合理的降落区域,不会降落在正在有行人的活动区域场景、汽车的行驶区域场景、狭窄的区域场景等,使得失控无人机降落在空旷的区域场景中,这样能够避免伤及无辜、损害他人利益,以及将失控无人机都着陆在空旷的区域之中,有利于失控无人机的管理。
其中,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。
在本实施例中,AR场景相当于一个三维模型数据库,如包含高楼的3D模型、路灯的3D模型等,此类都可作为障碍物,此类3D模型的轮廓在AR场景中均可用坐标来表示,通过利用AR场景中的此类3D模型对失控无人机的着陆导航路线进行规划,当发现起点以及终点之间导航线存在障碍物时,改变起点的位置,实现无障碍降落,避免了失控无人机在着陆过程中损坏。
其中,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
获取每一条着陆导航路线路程长度值;
基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
若存在,则调整其中一架或者多架失控无人机的着陆路线。
在本实施例中,由于从AR地图中筛选出了多个着陆区域,此时有一个或者多个着陆区域。因此,失控无人机的着陆路线就形成了多条,从多条着陆路线中选取出飞行路程更短的着陆路线,使得失控无人机能够在最短的时间内安全着陆在着陆区域之内,保证了无人机能够及时以及安全地着陆在指定的着陆区域之中。
在本实施例中,在着陆路线中可能存在失控无人机着陆区域的终点位置重合的情况,当出现该情况时,调整其中一架或者多架的失控无人机的着陆路线,从而改变其中一架或者多架失控无人机着陆的终点位置,其中调整路线时,按照优先级着陆导航路线序列表中原着陆路线的路程长度值之外的下一优先级的路程长度值作为着陆路线。
其中,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
其中,基于所述场景变化量确定失控无人机的着陆区域,具体为:
将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
在本实施例中,其中,预设场景变化量为上述无目标物的经过该区域的频率值,该频率值取值为0或1,当接近0时,说明该区域没有目标物经过,该区域能够选作为失控无人机着陆的区域,当接近于1,说明该区域为有物体经过,该区域不能选为失控无人机的着陆区域。
其中,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
从所述实时视频帧信息中识别特征信息;
将所述特征信息与预设特征信息对比,得到偏差率;
判断所述偏差率是否大于预设偏差率阈值;
若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
在本实施例中,其中特征信息为人物的外形特征、汽车的外形特征、动物的外形特征、建筑物的外形特征、室外停车场外形特征等,通过与数据库中的外形特征对比,从而能够得到该特征信息为何种物体的特征,从而能够根据视频帧中的场景变化量有效地筛选出有效的失控无人机的着陆区域。
图7示出了一种竞速无人机的数据智能交互设备的模块示意图。
本发明第三方面提供了一种竞速无人机的数据智能交互设备,所述竞速无人机的轨道智能定位设备包括:
获取模块10,获取失控无人机周围区域的实时视频帧信息;
计算模块20,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
确定模块30,基于所述场景变化量确定失控无人机的着陆区域;
导航模块40,获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
规划模块50,从所述着陆导航路线中确定失控无人机的着陆路线。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。

Claims (6)

1.一种竞速无人机的数据智能交互方法,其特征在于,包括以下步骤:
获取失控无人机周围区域的实时视频帧信息;
计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
基于所述场景变化量确定失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
从所述着陆导航路线中确定失控无人机的着陆路线;
还包括以下步骤:
获取失控无人机失控时的地理位置;
基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
若在,并将所述场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
从所述区域场景分布图中确定出失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。
2.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,从所述着陆导航路线中确定失控无人机的着陆路线,具体包括:
获取每一条着陆导航路线路程长度值;
基于所述路程长度值的大小进行从小到大排序,得到优先级着陆导航路线序列表,选取最高优先级的路程长度值作为失控无人机的着陆路线;
获取每一架最终失控无人机的着陆路线的终点位置,并判断是否存在终点位置重合的情况
若存在,则调整其中一架或者多架失控无人机的着陆路线。
3.根据权利要求2所述的一种竞速无人机的数据智能交互方法,其特征在于,若存在,则调整其中一架或者多架失控无人机的着陆路线,具体为:
选取最高优先级的路程长度值之外的下一优先级的路程长度值作为最终失控无人机的着陆路线。
4.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,基于所述场景变化量确定失控无人机的着陆区域,具体为:
将所述场景变化量小于预设场景变化量阈值的视频帧作为参考视频帧,并将所述参考视频帧所在的地理位置区域作为失控无人机的着陆区域。
5.根据权利要求1所述的一种竞速无人机的数据智能交互方法,其特征在于,计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量,具体为:
从所述实时视频帧信息中识别特征信息;
将所述特征信息与预设特征信息对比,得到偏差率;
判断所述偏差率是否大于预设偏差率阈值;
若大于,则在预设时间内追踪轮廓特征点的移动轨迹,并计算出移动速度值,将所述移动速度值作为场景变化量。
6.一种竞速无人机的数据智能交互装置,其特征在于,所述装置包括存储器与处理器,所述存储器中包括竞速无人机的轨道智能交互方法程序,所述竞速无人机的轨道智能交互方法程序被所述处理器执行时,实现如下步骤:
获取失控无人机周围区域的实时视频帧信息;
计算所述实时视频帧信息在预设时间内的两个视频帧之间的场景变化量;
基于所述场景变化量确定失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线;
从所述着陆导航路线中确定失控无人机的着陆路线;
还包括以下步骤:
获取失控无人机失控时的地理位置;
基于所述失控无人机失控时的地理位置得到该地理位置的AR场景信息;
从所述AR场景信息中得到在预设场景范围内的空旷区域场景,并判断所述场景变化量是否在所述空旷区域场景中;
若在,并将所述场景变化量整合到所述空旷区域场景中,得到区域场景分布图;
从所述区域场景分布图中确定出失控无人机的着陆区域;
获取所述失控无人机的着陆区域的位置信息,基于所述失控无人机的着陆区域的位置信息为失控无人机规划着陆导航路线,具体包括:
将失控无人机失控时的地理位置作为第一起点,失控无人机的着陆区域作为终点位置,连接所述第一起点以及终点位置以得到第一导航路线;
从AR场景信息中判断所述第一导航路线中是否存在障碍物,若存在,则调整第一起点位置,得到第二起点;
连接第二起点以及终点位置得到第二导航路线,连接第一起点以及第二起点得到第三导航路线,并将所述第二导航路线以及第三导航路线组合作为失控无人机的着陆导航路线。
CN202111316782.6A 2021-11-09 2021-11-09 一种竞速无人机的数据智能交互方法、装置及设备 Active CN113759984B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111316782.6A CN113759984B (zh) 2021-11-09 2021-11-09 一种竞速无人机的数据智能交互方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111316782.6A CN113759984B (zh) 2021-11-09 2021-11-09 一种竞速无人机的数据智能交互方法、装置及设备

Publications (2)

Publication Number Publication Date
CN113759984A CN113759984A (zh) 2021-12-07
CN113759984B true CN113759984B (zh) 2022-02-08

Family

ID=78784614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111316782.6A Active CN113759984B (zh) 2021-11-09 2021-11-09 一种竞速无人机的数据智能交互方法、装置及设备

Country Status (1)

Country Link
CN (1) CN113759984B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722697A (zh) * 2012-05-16 2012-10-10 北京理工大学 一种无人飞行器视觉自主导引着陆的目标跟踪方法
DE102014014446A1 (de) * 2014-09-26 2016-03-31 Airbus Defence and Space GmbH Redundantes Bestimmen von Positionsdaten für ein automatisches Landesystem
CN106364683A (zh) * 2016-09-13 2017-02-01 上海顺砾智能科技有限公司 无人机自主迫降方法
CN107291093A (zh) * 2017-07-04 2017-10-24 西北工业大学 基于视觉slam的复杂环境下无人机自主降落区域选择方法
WO2018111075A1 (es) * 2016-12-16 2018-06-21 Rodarte Leyva Eduardo Sistema de aterrizaje automático con alta velocidad de descenso para drones
CN109460066A (zh) * 2017-08-25 2019-03-12 极光飞行科学公司 用于航空器的虚拟现实系统
CN111324145A (zh) * 2020-02-28 2020-06-23 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN111913492A (zh) * 2019-05-09 2020-11-10 顺丰科技有限公司 无人机安全降落方法和装置
KR102199680B1 (ko) * 2020-05-26 2021-01-07 김용철 자율 착륙을 위한 드론 제어 방법 및 장치
CN112672314A (zh) * 2020-12-23 2021-04-16 武汉量宇智能科技有限公司 一种飞行器安全可信发射控制方法
CN113359810A (zh) * 2021-07-29 2021-09-07 东北大学 一种基于多传感器的无人机着陆区域识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109144096A (zh) * 2018-08-15 2019-01-04 东汉太阳能无人机技术有限公司 一种无人机着陆的控制方法及无人机
CN110426046B (zh) * 2019-08-21 2023-11-24 西京学院 一种无人机自主着陆跑道区域障碍物判断与跟踪方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722697A (zh) * 2012-05-16 2012-10-10 北京理工大学 一种无人飞行器视觉自主导引着陆的目标跟踪方法
DE102014014446A1 (de) * 2014-09-26 2016-03-31 Airbus Defence and Space GmbH Redundantes Bestimmen von Positionsdaten für ein automatisches Landesystem
CN106364683A (zh) * 2016-09-13 2017-02-01 上海顺砾智能科技有限公司 无人机自主迫降方法
WO2018111075A1 (es) * 2016-12-16 2018-06-21 Rodarte Leyva Eduardo Sistema de aterrizaje automático con alta velocidad de descenso para drones
CN107291093A (zh) * 2017-07-04 2017-10-24 西北工业大学 基于视觉slam的复杂环境下无人机自主降落区域选择方法
CN109460066A (zh) * 2017-08-25 2019-03-12 极光飞行科学公司 用于航空器的虚拟现实系统
CN111913492A (zh) * 2019-05-09 2020-11-10 顺丰科技有限公司 无人机安全降落方法和装置
CN111324145A (zh) * 2020-02-28 2020-06-23 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
KR102199680B1 (ko) * 2020-05-26 2021-01-07 김용철 자율 착륙을 위한 드론 제어 방법 및 장치
CN112672314A (zh) * 2020-12-23 2021-04-16 武汉量宇智能科技有限公司 一种飞行器安全可信发射控制方法
CN113359810A (zh) * 2021-07-29 2021-09-07 东北大学 一种基于多传感器的无人机着陆区域识别方法

Also Published As

Publication number Publication date
CN113759984A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
US20200400443A1 (en) Systems and methods for localization
US10401866B2 (en) Methods and systems for lidar point cloud anomalies
EP3703028A1 (en) Operation of a vehicle in the event of an emergency
US10095234B2 (en) Planning for unknown objects by an autonomous vehicle
KR102542970B1 (ko) 데이터 기반 규칙 북
KR102527245B1 (ko) 드론 및 그 제어 방법
US11473917B2 (en) System for augmenting autonomous vehicle perception using smart nodes
CN113176537A (zh) 警笛信号的检测和分类以及警笛信号源的定位
JP2020135234A (ja) 迎車管理装置、迎車制御方法、およびプログラム
US11822334B2 (en) Information processing apparatus, information processing method, and program for control of a moving body capable of autonomous movement
WO2020226085A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220017115A1 (en) Smart node network for autonomous vehicle perception augmentation
US11403943B2 (en) Method and system for vehicle navigation using information from smart node
KR102476931B1 (ko) LiDAR 정보와 카메라 정보의 병합
US20220019225A1 (en) Smart node for autonomous vehicle perception augmentation
DE112022002339T5 (de) Pfadermittlung zu einem Fahrzeughalteort in einer überladenen Umgebung
DE102022103428A1 (de) Methoden zum auffinden von und zugang zu fahrzeugen
WO2022015797A1 (en) Method and system for augmenting autonomous vehicle perception using smart nodes
CN113759984B (zh) 一种竞速无人机的数据智能交互方法、装置及设备
CN111837012A (zh) 车辆控制系统、车辆控制方法、程序及信息处理装置
CN113196356A (zh) 交通灯估计
JP2019095875A (ja) 車両制御装置、車両制御方法、およびプログラム
DE102022103060A1 (de) Automatisches detektieren von verkehrssignalen unter verwendung von sensordaten
CN113870421A (zh) 一种竞速无人机的轨道智能定位方法、装置及设备
CN114938674A (zh) 基于活动来对感知对象进行分类

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant