CN111831010A - 一种基于数字空间切片的无人机避障飞行方法 - Google Patents

一种基于数字空间切片的无人机避障飞行方法 Download PDF

Info

Publication number
CN111831010A
CN111831010A CN202010680174.2A CN202010680174A CN111831010A CN 111831010 A CN111831010 A CN 111831010A CN 202010680174 A CN202010680174 A CN 202010680174A CN 111831010 A CN111831010 A CN 111831010A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
digital space
picture
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010680174.2A
Other languages
English (en)
Inventor
雷俊锋
程志钦
眭海刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010680174.2A priority Critical patent/CN111831010A/zh
Publication of CN111831010A publication Critical patent/CN111831010A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Abstract

本发明公开了一种基于数字空间切片的无人机避障飞行方法,该方法包括:步骤1:获取无人机拍摄的图片;步骤2:调节图片的分辨率并处理得到灰度图;步骤3:对单张灰度图使用数字空间切片算法,在图片的不同区域提取出多个切片组成集合I;步骤4:将集合I中的切片图片集合同时输入到神经网络中,输出对应的障碍物标定信息组成集合R;步骤5:根据集合R,估计障碍的位置和方向;步骤6:规划无人机的飞行方式,设置偏航角和速度;步骤7:无人机的飞行控制系统根据获取到的速度和偏航角信息,进行运动控制。本发明在林下环境对树木的检测有很好的效果,该方法采用的硬件质量轻,且能耗小,可适合于小型无人机上使用。

Description

一种基于数字空间切片的无人机避障飞行方法
技术领域
本发明涉及无人机避障飞行技术领域,尤其涉及一种基于数字空间切片的无人机避障飞行方法。
背景技术
在过去的几十年里,无人机避障的方法已经有了广泛的研究,包括飞行时的障碍检测和飞行决策,即无人机如何飞行来避开障碍物。目前检测障碍的技术有基于激光雷达的点云处理、基于深度相机的深度信息处理和基于视觉SLAM的无人机定位导航算法。
由于激光雷达质量较大,挂载在无人机上面时会严重影响无人机的飞行,无人机在飞行时更加地笨重。同时对激光雷达和深度相机的数据进行处理时需要极大的计算量,因此对电量的消耗较大。此时,为了保证无人机的飞行时间,需要增大电池的容量。而高容量的电池,质量更高。因此既要保证无人机的质量,又要增加无人机的续航时间是一对矛盾的选择。因此在小型无人机上采用激光雷达和深度相机是不现实的。
若采用SLAM的方法,需要先控制无人机在待测环境中进行数据收集,将环境的虚拟地图建构出来。这样无人机在执行任务时,可以根据当前采集到的特征和之前的数据进行匹配,从而获取到无人机当前的位置。当环境里面的物体较多时,构建地图时需要得到更多的细节,因此需要控制无人机进行多次数据采集,这样就降低了效率。同时无人机在飞行时需要将提取的特征与之前的数据进行匹配,当细节较多时,匹配的精度也会降低,无人机定位也会有很大的影响。若环境复杂多变,且存在运动的目标,无人机在飞行时,检测到的当前信息难以和之前的数据匹配,仍然需要其它的方式对运动目标重新检测。
同时,在复杂环境进行飞行时,由于环境中的障碍目标太多且难以分类,而且目标种类繁多,采用目标检测的方法达不到较好的效果。
综上所述,现阶段的方法难以在小型无人机上实现,且当环境复杂多变时效果较差。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于数字空间切片的无人机避障飞行方法,直接将视角内的物体分为两类:是否是障碍物。该方案仅使用一个摄像头获取周围的信息,质量较小,同时消耗的电量较小,适合在小型无人机上使用。同时该方法采用实时的障碍检测方式,不需要提前建立好地图,可在飞行时检测各种各样的障碍物,从而直接更新飞行策略。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种基于数字空间切片的无人机避障飞行方法,该方法包括以下步骤:
步骤1:获取无人机的相机采集到的视频,从视频中提取图片信息;
步骤2:调节图片的分辨率,并对图片进行灰度化处理得到灰度图;
步骤3:对单张灰度图使用数字空间切片算法,在图片的不同区域提取出多个切片,组成切片图片集合,记作集合I;
步骤4:构建神经网络,并对神经网络进行训练;将集合I中的切片图片集合同时输入到神经网络中,输出对应的障碍物标定信息,组成障碍物标定信息集合,记作集合R;
步骤5:根据步骤4得到的集合R,估计障碍的位置和方向;
步骤6:根据步骤5得到的障碍物位置和方向信息,规划无人机的飞行方式,设置偏航角和速度;
步骤7:无人机的飞行控制系统根据获取到的速度和偏航角信息,进行运动控制。
进一步地,本发明的步骤3中对单张灰度图使用数字空间切片算法,将图片切割为9个图片切片,提取出9个不同方向的图片切片。
进一步地,本发明的步骤4中构建神经网络的方法具体为:
将灰度图输入5x5的卷积层和3x3的池化层,紧接着的是3个ResNext模块,之后将得到的结果矩阵变形成一个向量,最后通过全连接层得到碰撞的概率,然后设置一定的阈值,将碰撞的概率进行二分类,分为0或1。
进一步地,本发明的构建神经网络时设定阈值的方法具体为:
根据无人机飞行的速度,为了减小远处的障碍物的干扰,结合在数据上的试验结果,将此阈值设置为0.6。
进一步地,本发明的步骤4中训练神经网络的方法具体为:
(1)数据集制作:使用无人机的相机录制视频,根据肉眼观察及障碍物的实际距离,将图片标记为0或1,其中1表示前方有障碍,0表示前方无障碍;
(2)数据预处理:将收集到的数据转换为灰度图,并选取图片中央的200x200的区域,将其转化为200x200x1的矩阵,并输入网络;
(3)网络训练:每次输入网络的数据为32组,进行并行计算;使用交叉熵函数作为损失函数,进行迭代计算,直至网络收敛;训练结束后,保存网络模型参数。
进一步地,本发明的训练神经网络的方法具体为:
每次从数据集中选取32个数据样本(Ii,yi),i=1,2,3…,32;根据网络计算每一个样本I的预测结果y′;对损失函数-[yilny′+(1-yi)ln(1-y′)]使用梯度下降算法进行迭代计算;多次循环地从数据集中选取数据进行计算,随着迭代次数的增加,减小学习速率;当2000次遍历数据后,得到最终的网络模型参数。
进一步地,本发明的步骤2中的数字空间切片算法具体为:
将数字空间切片算法从网络模型中剥离,将网络模型作为一个中间件;将原始的数据变为600x600的分辨率,然后进行空间切片得到9个200x200的子图片,然后将多个子图片并行输入神经网络,得到多个结果。
本发明产生的有益效果是:本发明提出了一种基于数字空间切片的无人机避障飞行方法,使无人机在飞行过程中可利用单目相机获取的视觉信息判断前方是否有障碍物,完成自主避障任务。本发明制作了林下环境的数据集,提供了良好的训练数据。本发明采用轻量级的网络,能够在机载的嵌入式开发板上运行,为神经网络在嵌入式开发板上的移植而保障计算速度提供了可能性。本发明将数字空间切片与神经网络进行解耦,并行输入多张图片而得到多个结果,为其他方法提供了不同算法的耦合案例。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的算法流程图;
图2是本发明实施例的避障飞行方案系统框架图;
图3是本发明实施例的障碍检测神经网络结构图;
图4是本发明实施例的ResNext模块结构图;
图5是本发明实施例的林下场景的障碍检测结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的基于数字空间切片的无人机避障飞行方法,包括以下步骤:
步骤1:获取相机当前拍摄的环境的图片信息。
步骤2:对图片进行预处理,调节图片的大小,适合进行数字空间切片;同时对图片进行灰度化的处理;得到图片Img。
步骤3:步骤2得到的图片的大小为600x600的分辨率,使用数字空间切片算法,对图片进行切片,得到9个200x200分辨率的图片切片。这9个切片分别位于Img原图的左上角,右上角,左下角,右下角,上端,下端,左端,右端以及正中间。这9个切片构成一个大小200x200x9的矩阵,这个图片集合为I。
步骤4:将集合I中的9张图片切片同时输入到神经网络中,神经网络会得到一个9x1的向量。其中每一个元素的值为0或1。1表示区域有障碍物,0表示区域安全,可以飞行。这个1x9的向量组成障碍物的集合R。
(a):神经网络的结构如图3所示。该神经网络采用Resnet的思路,由3个ResNext模块构成,ResNext模块的结构图如图4所示。将一张200x200x1的图片输入网络,最后输出图片中障碍物的概率,然后设置一定的阈值,将这个概率进行二分类,标记为0或1。这样,将9个切片输入网络,可以得到9个值,每个值有0或1两种情况。
(b):训练神经网络的方式如下:首先进行数据收集,使用无人机的相机录制视频,手拿着相机在树林下面、路边行走,这样就会得到比较多的数据。然后对数据进行标记,根据前方是否有障碍物,将图片标记为0或1。训练网络时,将图片调成灰度图,并在正中间裁剪出200x200的图片,将200x200x1的矩阵输入网络。使用交叉熵函数作为损失函数,设置学习速率,迭代次数。经过训练后将网络参数保存下来。
步骤5:由于步骤4会得到9x1的向量,将9x1的向量转换成3x3的矩阵,这样就能够和图片的各个区域进行一一对应。根据图片的各个区域得到的障碍物信息,可以判断障碍物在哪个方向,比如左边,右边,中间。
步骤6:根据步骤5得到的结果,计算无人机的飞行速度和偏航角。当障碍位于左边时,无人机将向右偏航;当障碍物位于右边时向左偏航。根据没有障碍的区域的障碍参考值调整无人机的速度。
步骤7:根据步骤6得到的速度和偏航角,将其转化为控制指令发送给无人机飞控系统,实现无人机的避障飞行。
以下是发明人提供的实施例,以对本发明的技术方案作进一步解释说明。
遵循本发明的技术方案,使用如图2所示的系统架构在无人机上进行实验。其中进程1、2和3都在rk3399pro型号的嵌入式开发板上执行。地面站作为初始化和紧急停止的工具。
在树下进行飞行时取得了较好的效果,其中树木障碍检测的部分中间结果如图5所示,左边的图片中,能够检测到图片中位于两边的树,此时无人机将向正前方飞行;中间的图片中,无人机能够检测到图片中位于左边的树,此时无人机将向右转向进行飞行;在最右边的图中,无人机能够检测到图片中位于右边的树,此时无人机将向左转向飞行。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,以上仅为本发明的较佳实例而已,并非用于限定本发明的保护范围。本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (7)

1.一种基于数字空间切片的无人机避障飞行方法,其特征在于,该方法包括以下步骤:
步骤1:获取无人机的相机采集到的视频,从视频中提取图片信息;
步骤2:调节图片的分辨率,并对图片进行灰度化处理得到灰度图;
步骤3:对单张灰度图使用数字空间切片算法,在图片的不同区域提取出多个切片,组成切片图片集合,记作集合I;
步骤4:构建神经网络,并对神经网络进行训练;将集合I中的切片图片集合同时输入到神经网络中,输出对应的障碍物标定信息,组成障碍物标定信息集合,记作集合R;
步骤5:根据步骤4得到的集合R,估计障碍的位置和方向;
步骤6:根据步骤5得到的障碍物位置和方向信息,规划无人机的飞行方式,设置偏航角和速度;
步骤7:无人机的飞行控制系统根据获取到的速度和偏航角信息,进行运动控制。
2.根据权利要求1所述的基于数字空间切片的无人机避障飞行方法,其特征在于,步骤3中对单张灰度图使用数字空间切片算法,将图片切割为9个图片切片,提取出9个不同方向的图片切片。
3.根据权利要求2所述的基于数字空间切片的无人机避障飞行方法,其特征在于,步骤4中构建神经网络的方法具体为:
将灰度图输入5x5的卷积层和3x3的池化层,紧接着的是3个ResNext模块,之后将得到的结果矩阵变形成一个向量,最后通过全连接层得到碰撞的概率,然后设置一定的阈值,将碰撞的概率进行二分类,分为0或1。
4.根据权利要求3所述的基于数字空间切片的无人机避障飞行方法,其特征在于,构建神经网络时设定阈值的方法具体为:
根据无人机飞行的速度,为了减小远处的障碍物的干扰,结合在数据上的试验结果,将此阈值设置为0.6。
5.根据权利要求1所述的基于数字空间切片的无人机避障飞行方法,其特征在于,步骤4中训练神经网络的方法具体为:
(1)数据集制作:使用无人机的相机录制视频,根据肉眼观察及障碍物的实际距离,将图片标记为0或1,其中1表示前方有障碍,0表示前方无障碍;
(2)数据预处理:将收集到的数据转换为灰度图,并选取图片中央的200x200的区域,将其转化为200x200x1的矩阵,并输入网络;
(3)网络训练:每次输入网络的数据为32组,进行并行计算;使用交叉熵函数作为损失函数,进行迭代计算,直至网络收敛;训练结束后,保存网络模型参数。
6.根据权利要求5所述的基于数字空间切片的无人机避障飞行方法,其特征在于,训练神经网络的方法具体为:
每次从数据集中选取32个数据样本(Ii,yi),i=1,2,3…,32;根据网络计算每一个样本I的预测结果y′;对损失函数-[yilny′+(1-yi)ln(1-y′)]使用梯度下降算法进行迭代计算;多次循环地从数据集中选取数据进行计算,随着迭代次数的增加,减小学习速率;当2000次遍历数据后,得到最终的网络模型参数。
7.根据权利要求1所述的基于数字空间切片的无人机避障飞行方法,其特征在于,步骤2中的数字空间切片算法具体为:
将数字空间切片算法从网络模型中剥离,将网络模型作为一个中间件;将原始的数据变为600x600的分辨率,然后进行空间切片得到9个200x200的子图片,然后将多个子图片并行输入神经网络,得到多个结果。
CN202010680174.2A 2020-07-15 2020-07-15 一种基于数字空间切片的无人机避障飞行方法 Pending CN111831010A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010680174.2A CN111831010A (zh) 2020-07-15 2020-07-15 一种基于数字空间切片的无人机避障飞行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010680174.2A CN111831010A (zh) 2020-07-15 2020-07-15 一种基于数字空间切片的无人机避障飞行方法

Publications (1)

Publication Number Publication Date
CN111831010A true CN111831010A (zh) 2020-10-27

Family

ID=72924218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010680174.2A Pending CN111831010A (zh) 2020-07-15 2020-07-15 一种基于数字空间切片的无人机避障飞行方法

Country Status (1)

Country Link
CN (1) CN111831010A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419555A (zh) * 2021-05-20 2021-09-21 北京航空航天大学 一种基于单目视觉的无人机低功耗自主避障方法及系统
CN114401544A (zh) * 2022-03-25 2022-04-26 武汉大学 基于合同理论的无人机通信网络能量收获方法及系统
CN115826628A (zh) * 2023-02-22 2023-03-21 成都航空职业技术学院 基于NeRF神经网络的异构无人机视觉避障系统及方法
CN117475090A (zh) * 2023-12-27 2024-01-30 粤港澳大湾区数字经济研究院(福田) 一种轨迹生成模型、轨迹生成方法、装置、终端及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961286A (zh) * 2018-06-27 2018-12-07 武汉大学 一种顾及建筑物三维及边缘形状特征的无人机影像分割方法
CN109960278A (zh) * 2019-04-09 2019-07-02 岭南师范学院 一种基于lgmd的无人机仿生避障控制系统和方法
CN109960269A (zh) * 2019-04-04 2019-07-02 武汉大学 一种服务于无人机自主导航的简化环境建模方法
CN110825101A (zh) * 2019-12-26 2020-02-21 电子科技大学 一种基于深度卷积神经网络的无人机自主降落方法
CN110908399A (zh) * 2019-12-02 2020-03-24 广东工业大学 一种基于轻量型神经网络的无人机自主避障方法及系统
CN111399505A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于神经网络的移动机器人避障方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961286A (zh) * 2018-06-27 2018-12-07 武汉大学 一种顾及建筑物三维及边缘形状特征的无人机影像分割方法
CN109960269A (zh) * 2019-04-04 2019-07-02 武汉大学 一种服务于无人机自主导航的简化环境建模方法
CN109960278A (zh) * 2019-04-09 2019-07-02 岭南师范学院 一种基于lgmd的无人机仿生避障控制系统和方法
CN110908399A (zh) * 2019-12-02 2020-03-24 广东工业大学 一种基于轻量型神经网络的无人机自主避障方法及系统
CN110825101A (zh) * 2019-12-26 2020-02-21 电子科技大学 一种基于深度卷积神经网络的无人机自主降落方法
CN111399505A (zh) * 2020-03-13 2020-07-10 浙江工业大学 一种基于神经网络的移动机器人避障方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419555A (zh) * 2021-05-20 2021-09-21 北京航空航天大学 一种基于单目视觉的无人机低功耗自主避障方法及系统
CN113419555B (zh) * 2021-05-20 2022-07-19 北京航空航天大学 一种基于单目视觉的无人机低功耗自主避障方法及系统
CN114401544A (zh) * 2022-03-25 2022-04-26 武汉大学 基于合同理论的无人机通信网络能量收获方法及系统
CN114401544B (zh) * 2022-03-25 2022-06-17 武汉大学 基于合同理论的无人机通信网络能量收获方法及系统
CN115826628A (zh) * 2023-02-22 2023-03-21 成都航空职业技术学院 基于NeRF神经网络的异构无人机视觉避障系统及方法
CN115826628B (zh) * 2023-02-22 2023-05-09 成都航空职业技术学院 基于NeRF神经网络的异构无人机视觉避障系统及方法
CN117475090A (zh) * 2023-12-27 2024-01-30 粤港澳大湾区数字经济研究院(福田) 一种轨迹生成模型、轨迹生成方法、装置、终端及介质

Similar Documents

Publication Publication Date Title
US20220197281A1 (en) Intelligent decision-making method and system for unmanned surface vehicle
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN111831010A (zh) 一种基于数字空间切片的无人机避障飞行方法
Lee et al. Deep learning-based monocular obstacle avoidance for unmanned aerial vehicle navigation in tree plantations: Faster region-based convolutional neural network approach
CN111326023A (zh) 一种无人机航线预警方法、装置、设备及存储介质
US20100305857A1 (en) Method and System for Visual Collision Detection and Estimation
CN113485441A (zh) 结合无人机高精度定位和视觉跟踪技术的配网巡检方法
WO2020103108A1 (zh) 一种语义生成方法、设备、飞行器及存储介质
CN112861755A (zh) 一种目标多类别实时分割方法及系统
Fu et al. Online learning-based robust visual tracking for autonomous landing of Unmanned Aerial Vehicles
Huang et al. Image-based sense and avoid of small scale UAV using deep learning approach
Zhai et al. Target detection of low-altitude uav based on improved yolov3 network
CN112380933B (zh) 无人机识别目标的方法、装置及无人机
CN105760813A (zh) 一种基于植物枝根演化行为的无人机目标检测方法
Guptha M et al. Generative adversarial networks for unmanned aerial vehicle object detection with fusion technology
Chen et al. Vision based target recognition for cage aquaculture detection
Zhou et al. A vision-based autonomous detection scheme for obstacles on the runway
Li et al. Object recognition through UAV observations based on YOLO and generative adversarial network
Tang et al. sUAS and Machine Learning Integration in Waterfowl Population Surveys
Sunarya et al. The Detection of a Single Wet Rice Field Bund on Unmanned Aerial Vehicle Image Using a Convolutional Neural Network
Araújo et al. AirCSI–remotely criminal investigator
Aswini et al. Drone Object Detection Using Deep Learning Algorithms
Araújo Jr et al. Towards autonomous investigation of crime scene by using drones
CN116820132B (zh) 基于远距视觉传感器的飞行避障预警提示方法及其系统
Delplanque et al. Counting African mammal herds in aerial imagery using deep learning: are anchor-based algorithms the most suitable?

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201027