CN113391642B - 一种基于单目视觉的无人机自主避障方法及系统 - Google Patents
一种基于单目视觉的无人机自主避障方法及系统 Download PDFInfo
- Publication number
- CN113391642B CN113391642B CN202110593821.0A CN202110593821A CN113391642B CN 113391642 B CN113391642 B CN 113391642B CN 202110593821 A CN202110593821 A CN 202110593821A CN 113391642 B CN113391642 B CN 113391642B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- obstacle
- suspected
- expansion rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单目视觉的无人机自主避障方法及系统,该系统主要有硬件组成和软件组成两大部分,硬件部分包括搭载单目相机的无人机、5G数据传输模块和远端服务器三大部分,软件部分主要包括障碍物检测和无人机控制指令生成两大部分。本发明提出的基于单目视觉的无人机自主避障方法利用无人机搭载的单目相机采集到的图像进行障碍物的检测,并根据障碍物的视觉膨胀率、障碍物区域位置和当前无人机的飞行速度等信息生成适当的无人机控制指令,控制无人机避开障碍物,使无人机具备自主避障的能力。本发明提出的方法将5G网络作为无人机与远端服务器间数据传输的媒介,能够突破传统数据传输方法的距离限制,增加无人机的使用范围。
Description
技术领域
本发明涉及无人机技术领域,具体涉及一种基于单目视觉的无人机自主避障方法及系统。
背景技术
目前市面上的无人机大多需要飞行人员通过遥控装置来控制无人机的飞行。在一些特殊应用场景下,比如需要进行超视距飞行或在强信号干扰环境下进行飞行时,飞行人员难以对无人机周围的环境做出实时判断,遥控信号可能会因受到环境的干扰而变得不稳定。在这种情况下,无人机极易与环境中的障碍物发生碰撞,造成无人机的损坏。
现有的无人机大多通过WIFI与地面站进行数据传输,地面站与无人机之间的距离有严格的限定,无人机到地面站的距离太远可能会导致无人机与地面站之间的数据传输受阻,造成数据的丢失。
此外,现有的无人机自主避障技术大多基于双目视觉,由于双目视觉能够获得场景的深度信息,有利于计算无人机与障碍物之间的距离。但是基于双目视觉的自主避障方法所需的计算量较大,对地面站的处理能力要求较高。此外,市面上的无人机大多搭载单目相机,无法获得双目图像。
因此亟需一种能够突破传统数据传输方法的距离限制,增加无人机的使用范围,而且具备较好自主避障能力的无人机系统及方法。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于单目视觉的无人机自主避障方法及系统,解决了上述背景技术中提到的问题。
为实现上述目的,本发明提供如下技术方案:一种基于单目视觉的无人机自主避障方法,包括如下步骤:
首先进行程序初始化,程序初始化后通过障碍物检测模块对疑似障碍物区域进行检测,所述的疑似障碍物区域检测包括疑似障碍物区域定位和疑似障碍物视觉膨胀率计算,然后无人机控制指令生成模块根据障碍物位置、障碍物视觉膨胀率和无人机飞行速度信息生成无人机控制指令,控制无人机避开障碍物。
优选的,所述的疑似障碍物区域定位是通过YOLO-v3目标检测神经网络来实现的,通过预训练后的YOLO-v3目标检测神经网络实时检测图像中可能存在的障碍物并生成疑似障碍物区域的分类标签,计算出疑似障碍物区域的位置。
优选的,所述的疑似障碍物视觉膨胀率计算具体是:首先对疑似障碍物进行特征点提取,然后在相邻图像中的疑似障碍物对之间进行特征点的匹配,对匹配成功的特征点进行视觉膨胀率的计算,得到疑似障碍物的视觉膨胀率。
优选的,所述的得到疑似障碍物的视觉膨胀率具体是指:对匹配成功的特征点进行视觉膨胀率的计算后再根据所有匹配成功的特征点的膨胀率计算平均膨胀率,然后将视觉膨胀率低于平均膨胀率的特征点舍去,剩余特征点的平均视觉膨胀率作为疑似障碍物的视觉膨胀率。
优选的,所述的相邻图像中的疑似障碍物对匹配方法具体是指:根据YOLO-v3检测定位的疑似障碍物区域计算每个疑似障碍物区域的中心,在相邻图像帧中,若两个疑似障碍物区域中心之间的偏移量在给定的阈值以内,且两个疑似障碍物的分类标签相同,则认为这两个疑似障碍物区域在相邻图像帧中是匹配的;反之,则不匹配。
优选的,所述的给定偏移量阈值的计算方法具体是指:对相邻的两帧图像进行特征点提取,然后将提取到的特征点进行匹配,计算匹配成功的特征点在两帧图像中的平均位置偏移量,计算得到的平均位置偏移量即是给定偏移量阈值。
优选的,所述的无人机控制指令生成还包括判断无人机前进方向上的障碍物个数,如当前无人机行进方向上只有一个障碍物,则判断障碍物的中心与无人机采集到的图像中心的关系,如障碍物的中心位于图像中心的左侧,则控制无人机向右飞行,如障碍物的中心位于图像中心的右侧,则控制无人机向左飞行;如当前无人机行进方向上有多个障碍物,则检测当前图像中的最大无障碍区域,如最大无障碍区的宽度大于给定的阈值,将最大无障碍区域的中心作为无人机的目标航向,控制无人机跟踪该目标,如最大无障碍区的最大宽度小于给定的阈值,则将多个障碍物合并为一个障碍物,并按照单个障碍物的情景重新规划路径。
优选的,所述的无障碍区宽度阈值按公式表达如下:
d=k*D(0<k<1)。
一种基于单目视觉的无人机自主避障系统,所述系统包括硬件部分和软件部分,所述的硬件部分包括:
搭载单目相机的无人机:搭载单目相机的无人机作为数据采集机构和执行机构,主要用于实时采集无人机行进方向上的环境信息,同时按照远端服务器生成的控制指令飞行;
5G数据传输模块:5G数据传输模块用于无人机和远端服务器之间的数据传输;
远端服务器:远端服务器是整个系统的核心部分,用于运行障碍物检测和无人机控制指令生成两大模块的程序,实时检测无人机行进方向上的障碍物并生成适当的无人机控制指令,远端服务器采用配置有公网IP地址的服务器;
所述的软件部分包括:
障碍物检测模块:障碍物检测模块主要包含疑似障碍物区域定位和疑似障碍物视觉膨胀率计算两个部分;
无人机控制指令生成模块:无人机控制指令生成模块的功能是根据检测到的障碍物分布信息、障碍物视觉膨胀率和当前无人机的飞行速度等信息生成适当的无人机控制指令。
本发明的有益效果是:
1)本发明提出的基于单目视觉的无人机自主避障方法,利用YOLO-v3进行疑似障碍物区域的定位,利用视觉膨胀原理进行障碍物的判定,利用无人机搭载的单目相机采集到的图像进行障碍物的检测,并根据障碍物的视觉膨胀率、障碍物区域位置和当前无人机的飞行速度等信息生成适当的无人机控制指令,控制无人机避开障碍物,使无人机具备自主避障的能力,且YOLO-v3神经网络推理速度快,能够满足无人机对于障碍物检测的实时性要求。
2)本发明提出的基于单目视觉的无人机自主避障方法通过5G网络进行无人机和远端服务器之间的数据传输,这种数据传输方式不受距离的限制,能够突破传统数据传输方法的距离限制,增加无人机的使用范围。提出的自主避障方法能够检测无人机行进方向上的障碍物,并生成适当的无人机控制指令,使无人机具备自主避障的能力,可在没有飞行人员的遥控下飞行。
附图说明
图1为本发明系统构成示意图;
图2为本发明实施例障碍物检测流程示意图;
图3为本发明障碍物检测架构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明提出的基于单目视觉的无人机自主避障方法可分为硬件部分和软件部分。组成部分框图如图1所示,硬件部分主要由搭载单目相机的无人机、5G数据传输模块、远端服务器三大部分组成。软件部分则由障碍物检测模块、无人机控制指令生成模块两大部分组成。
搭载单目相机的无人机作为数据采集机构和执行机构,主要用于实时采集无人机行进方向上的环境信息,同时按照远端服务器生成的控制指令飞行。
5G数据传输模块用于无人机和远端服务器之间的数据传输。
远端服务器是整个系统的核心部分,用于运行障碍物检测和无人机控制指令生成两大模块的程序,为整个系统的数据处理和控制中心,以实时检测无人机行进方向上的障碍物并生成适当的无人机控制指令。为降低本方法的实施复杂性,远端服务器采用配置有公网IP地址的服务器。远端服务器生成的无人机控制指令保存在服务器指定位置,无人机定时访问该指定位置,以获得控制信息。
障碍物检测模块主要包含疑似障碍物区域定位和疑似障碍物视觉膨胀率计算两个部分。
疑似障碍物区域定位通过YOLO-v3目标检测神经网络实现,通过预训练后的YOLO-v3目标检测神经网络实时检测图像中可能存在的障碍物并生成疑似障碍物区域的分类标签,计算出疑似障碍物区域的位置。YOLO-v3神经网络预先用大量障碍物图片进行训练,训练时需要将障碍物分为不同的类别,并为每一个类别打上标签。
疑似障碍物视觉膨胀率的计算方法是:对疑似障碍物进行特征提取,接着在相邻图像中的疑似障碍物对之间进行特征点的匹配,然后对匹配成功的特征点进行视觉膨胀率的计算,根据所有匹配成功的特征点的膨胀率计算平均膨胀率,然后将视觉膨胀率低于平均膨胀率的特征点舍去,剩余特征点的平均视觉膨胀率作为疑似障碍物的视觉膨胀率。
相邻图像间的疑似障碍物对匹配方法是:根据YOLO-v3检测定位的疑似障碍物区域计算每个疑似障碍物区域的中心,在相邻图像帧中,若两个疑似障碍物区域中心之间的偏移量在给定的阈值以内,并且两个疑似障碍物的分类标签相同,则认为这两个疑似障碍物区域在相邻图像帧中是匹配的。否则,两个疑似障碍物区域在相邻图像之间不是匹配的。
给定偏移量阈值的计算方法是:对相邻的两帧图像进行特征点提取,然后将提取到的特征点进行匹配,计算匹配成功的特征点在两帧图像中的平均位置偏移量。计算得到的平均位置偏移量即是给定偏移量阈值。
无人机控制指令生成模块主要功能是根据检测到的障碍物分布信息、障碍物视觉膨胀率和当前无人机的飞行速度等信息生成适当的无人机控制指令。
本发明提出的无人机控制指令生成策略是:若当前无人机行进方向上只有一个障碍物,则判断障碍物的中心与无人机采集到的图像中心的关系,若障碍物的中心位于图像中心的左侧,则控制无人机向右飞行;若障碍物的中心位于图像中心的右侧,则控制无人机向左飞行。若当前无人机行进方向上有多个障碍物,则检测当前图像中的最大无障碍区域,若最大无障碍区的宽度大于给定的阈值,将最大无障碍区域的中心作为无人机的目标航向,控制无人机跟踪该目标。若最大无障碍区的最大宽度小于给定的阈值,则将多个障碍物合并为一个障碍物,并按照单个障碍物的情景重新规划路径。
上述无障碍区宽度阈值按照如下公式进行设定:
d=k*D(0<k<1)
其中,d表示无障碍区的宽度;k表示一个与无人机飞行速度、障碍物视觉膨胀率成正比的变量;D表示无人机获取图像的宽度。
本发明所提出的障碍物检测流程如图2所示,首先进行程序初始化,用于加载训练好的YOLO-v3神经网络模型、完成特征提取算法参数初始化等工作。初始化完成后,利用YOLO-v3对输入图像进行疑似障碍物区域的提取。接着在相邻图像帧之间进行疑似障碍物区域的匹配,匹配成功后分别对匹配成功的疑似障碍物区域进行特征提取。接着对提取到的特征点进行匹配,利用匹配成功的特征点计算疑似障碍物的平均膨胀率,再根据疑似障碍物平均膨胀率对其进行判定。最后综合障碍物位置、障碍物视觉膨胀率和无人机飞行速度等信息生成适当的无人机控制指令。
本发明所提出的障碍物检测架构如图3所示,利用YOLO-v3检测输入图像中的疑似障碍物,生成若干个疑似障碍物区域,同时通过多线程技术对输入图像进行特征提取,以计算整幅图像的平均偏移量。然后对疑似障碍物区域进行匹配,生成若干疑似障碍物对。接着对所有疑似障碍物对进行视觉膨胀计算,判定障碍物的状态。
为进一步提高本发明方法的实时性,在进行连续图像中障碍物对间的视觉膨胀计算操作时(对应图3中的“视觉膨胀计算”操作),采用多线程技术,同时对多个障碍物对进行处理,进一步节省处理时间,提高方法的实时性。
本发明提出的基于单目视觉的无人机自主避障方法通过5G网络进行无人机和远端服务器之间的数据传输,这种数据传输方式不受距离的限制。本发明提出的自主避障方法能够检测无人机行进方向上的障碍物,并生成适当的无人机控制指令,使无人机具备自主避障的能力,可在没有飞行人员的遥控下飞行。此外,本方法中用到的YOLO-v3神经网络推理速度快,能够满足无人机对于障碍物检测的实时性要求。
相较于现有方法和技术,本发明提出的基于单目视觉的无人机自主避障方法能够利用无人机搭载的单目相机有效检测无人机行进方向上的障碍物并根据障碍物的分布、无人机飞行速度等信息生成适当的控制指令,使无人机具备自主避障的能力。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于单目视觉的无人机自主避障方法,其特征在于,包括如下步骤:
首先进行程序初始化,程序初始化后通过障碍物检测模块对疑似障碍物区域进行检测,所述的疑似障碍物区域检测包括疑似障碍物区域定位和疑似障碍物视觉膨胀率计算,然后无人机控制指令生成模块根据障碍物位置、障碍物视觉膨胀率和无人机飞行速度信息生成无人机控制指令,控制无人机避开障碍物;
所述的疑似障碍物视觉膨胀率计算具体是:首先对疑似障碍物进行特征点提取,然后在相邻图像中的疑似障碍物对之间进行特征点的匹配,对匹配成功的特征点进行视觉膨胀率的计算,得到疑似障碍物的视觉膨胀率;
所述在相邻图像中的疑似障碍物对之间进行特征点的匹配具体是指:根据YOLO-v3检测定位的疑似障碍物区域计算每个疑似障碍物区域的中心,在相邻图像帧中,若两个疑似障碍物区域中心之间的偏移量在给定的偏移量阈值以内,且两个疑似障碍物的分类标签相同,则认为这两个疑似障碍物区域在相邻图像帧中是匹配的;反之,则不匹配。
2.根据权利要求1所述的基于单目视觉的无人机自主避障方法,其特征在于:所述的疑似障碍物区域定位是通过YOLO-v3目标检测神经网络来实现的,通过预训练后的YOLO-v3目标检测神经网络实时检测图像中可能存在的障碍物并生成疑似障碍物区域的分类标签,计算出疑似障碍物区域的位置。
3.根据权利要求1所述的基于单目视觉的无人机自主避障方法,其特征在于:所述的得到疑似障碍物的视觉膨胀率具体是指:对匹配成功的特征点进行视觉膨胀率的计算后再根据所有匹配成功的特征点的膨胀率计算平均膨胀率,然后将视觉膨胀率低于平均膨胀率的特征点舍去,剩余特征点的平均视觉膨胀率作为疑似障碍物的视觉膨胀率。
4.根据权利要求1所述的基于单目视觉的无人机自主避障方法,其特征在于:所述给定的偏移量阈值的计算方法具体是指:对相邻的两帧图像进行特征点提取,然后将提取到的特征点进行匹配,计算匹配成功的特征点在两帧图像中的平均位置偏移量,计算得到的平均位置偏移量即是给定偏移量阈值。
5.根据权利要求1所述的基于单目视觉的无人机自主避障方法,其特征在于:所述的生成无人机控制指令还包括判断无人机前进方向上的障碍物个数,如当前无人机行进方向上只有一个障碍物,则判断障碍物的中心与无人机采集到的图像中心的关系,如障碍物的中心位于图像中心的左侧,则控制无人机向右飞行,如障碍物的中心位于图像中心的右侧,则控制无人机向左飞行;如当前无人机行进方向上有多个障碍物,则检测当前图像中的最大无障碍区域,如最大无障碍区的宽度大于给定的无障碍区宽度阈值,将最大无障碍区域的中心作为无人机的目标航向,控制无人机跟踪该目标,如最大无障碍区的最大宽度小于给定的无障碍区宽度阈值,则将多个障碍物合并为一个障碍物,并按照单个障碍物的情景重新规划路径。
6.根据权利要求5所述的基于单目视觉的无人机自主避障方法,其特征在于:所述的无障碍区宽度阈值按公式表达如下:
d=k*D(0<k<1)。
7.一种根据权利要求1-6任一项所述的基于单目视觉的无人机自主避障方法的系统,其特征在于:所述系统包括硬件部分和软件部分,所述的硬件部分包括:
搭载单目相机的无人机:搭载单目相机的无人机作为数据采集机构和执行机构,主要用于实时采集无人机行进方向上的环境信息,同时按照远端服务器生成的控制指令飞行;
5G数据传输模块:5G数据传输模块用于无人机和远端服务器之间的数据传输;
远端服务器:远端服务器是整个系统的核心部分,用于运行障碍物检测和无人机控制指令生成两大模块的程序,实时检测无人机行进方向上的障碍物并生成适当的无人机控制指令,远端服务器采用配置有公网IP地址的服务器;
所述的软件部分包括:
障碍物检测模块:障碍物检测模块主要包含疑似障碍物区域定位和疑似障碍物视觉膨胀率计算两个部分;
无人机控制指令生成模块:无人机控制指令生成模块的功能是根据检测到的障碍物分布信息、障碍物视觉膨胀率和当前无人机的飞行速度等信息生成适当的无人机控制指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593821.0A CN113391642B (zh) | 2021-05-28 | 2021-05-28 | 一种基于单目视觉的无人机自主避障方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110593821.0A CN113391642B (zh) | 2021-05-28 | 2021-05-28 | 一种基于单目视觉的无人机自主避障方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113391642A CN113391642A (zh) | 2021-09-14 |
CN113391642B true CN113391642B (zh) | 2022-06-03 |
Family
ID=77619513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110593821.0A Active CN113391642B (zh) | 2021-05-28 | 2021-05-28 | 一种基于单目视觉的无人机自主避障方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113391642B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114879704B (zh) * | 2022-07-11 | 2022-11-25 | 山东大学 | 一种机器人绕障控制方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103455034A (zh) * | 2013-09-16 | 2013-12-18 | 苏州大学张家港工业技术研究院 | 一种基于最近距离向量场直方图的避障路径规划方法 |
US8825259B1 (en) * | 2013-06-21 | 2014-09-02 | Google Inc. | Detecting lane closures and lane shifts by an autonomous vehicle |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012153324A (ja) * | 2011-01-28 | 2012-08-16 | Daihatsu Motor Co Ltd | 軌道算出装置 |
CN104299244B (zh) * | 2014-09-26 | 2017-07-25 | 东软集团股份有限公司 | 基于单目相机的障碍物检测方法及装置 |
WO2016050274A1 (en) * | 2014-09-30 | 2016-04-07 | Nec Europe Ltd. | Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles |
CN112859899A (zh) * | 2014-10-31 | 2021-05-28 | 深圳市大疆创新科技有限公司 | 用于利用视觉标记进行监视的系统和方法 |
US10134135B1 (en) * | 2015-08-27 | 2018-11-20 | Hrl Laboratories, Llc | System and method for finding open space efficiently in three dimensions for mobile robot exploration |
CN106695790B (zh) * | 2017-01-09 | 2018-04-17 | 广东宝乐机器人股份有限公司 | 一种机器人的移动控制方法及机器人 |
CN106951847B (zh) * | 2017-03-13 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
US10705525B2 (en) * | 2017-04-07 | 2020-07-07 | Nvidia Corporation | Performing autonomous path navigation using deep neural networks |
CN107194339A (zh) * | 2017-05-15 | 2017-09-22 | 武汉星巡智能科技有限公司 | 障碍物识别方法、设备及无人飞行器 |
CN108037768A (zh) * | 2017-12-13 | 2018-05-15 | 常州工学院 | 无人机避障控制系统、避障控制方法和无人机 |
EP3889721A4 (en) * | 2018-12-29 | 2022-01-26 | Great Wall Motor Company Limited | METHOD AND SYSTEM FOR AVOIDING OBSTACLES DURING AUTOMATIC DRIVING OF A VEHICLE, AND VEHICLE |
CN109725331B (zh) * | 2019-03-18 | 2023-04-07 | 燕山大学 | 一种基于激光雷达的无人艇避障方法 |
CN110442145A (zh) * | 2019-08-22 | 2019-11-12 | 台州学院 | 基于双目视觉的多旋翼无人机云台避障系统及方法 |
CN110673632A (zh) * | 2019-09-27 | 2020-01-10 | 中国船舶重工集团公司第七0九研究所 | 一种基于视觉slam的无人机自主避障方法及装置 |
CN110689578A (zh) * | 2019-10-11 | 2020-01-14 | 南京邮电大学 | 一种基于单目视觉的无人机障碍物识别方法 |
CN110850890A (zh) * | 2019-11-20 | 2020-02-28 | 中山飞旋天行航空科技有限公司 | 光伏电站无人机巡检系统及其控制方法 |
CN112101374B (zh) * | 2020-08-01 | 2022-05-24 | 西南交通大学 | 基于surf特征检测和isodata聚类算法的无人机障碍物检测方法 |
CN112364741B (zh) * | 2020-11-02 | 2023-04-18 | 湖南航天宏图无人机系统有限公司 | 无人机单目远距离障碍检测方法、装置及无人机 |
CN112650272B (zh) * | 2020-11-24 | 2022-11-01 | 太原理工大学 | 基于5g的煤矿井下无人机巡视信息感知方法及其感知系统 |
CN112418118A (zh) * | 2020-11-27 | 2021-02-26 | 招商新智科技有限公司 | 一种无监督桥下行人入侵检测方法及装置 |
-
2021
- 2021-05-28 CN CN202110593821.0A patent/CN113391642B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8825259B1 (en) * | 2013-06-21 | 2014-09-02 | Google Inc. | Detecting lane closures and lane shifts by an autonomous vehicle |
CN103455034A (zh) * | 2013-09-16 | 2013-12-18 | 苏州大学张家港工业技术研究院 | 一种基于最近距离向量场直方图的避障路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113391642A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9465997B2 (en) | System and method for detection and tracking of moving objects | |
US11269332B2 (en) | Multi-perspective system and method for behavioral policy selection by an autonomous agent | |
CN110007675B (zh) | 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法 | |
CN104794731B (zh) | 用于球机控制策略的多目标检测跟踪方法 | |
US10007836B2 (en) | Bird detection device, bird detection system, bird detection method, and program extracting a difference between the corrected images | |
CN111932588A (zh) | 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法 | |
CN112154455B (zh) | 数据处理方法、设备和可移动平台 | |
US11302110B2 (en) | Pedestrian action recognition and localization using RGB images | |
CN110610512B (zh) | 基于bp神经网络融合卡尔曼滤波算法的无人机目标跟踪方法 | |
US11529966B2 (en) | Risk prediction on a peer-to-peer network | |
CN114925747A (zh) | 车辆异常行驶检测方法、电子设备、存储介质 | |
CN113391642B (zh) | 一种基于单目视觉的无人机自主避障方法及系统 | |
Jain et al. | Relative vehicle velocity estimation using monocular video stream | |
CN112419790B (zh) | 一种飞机泊位离港状态检测方法 | |
CN109977884B (zh) | 目标跟随方法和装置 | |
EP3896651A1 (en) | Method and apparatus for evaluating temporal characteristics of semantic image segmentation | |
CN111376904B (zh) | 一种自动跟车方法及装置 | |
CN115346155A (zh) | 一种面向视觉特征非连续性干扰的船舶图像航迹提取方法 | |
KR20190086334A (ko) | 촬영 이미지에서 확률 기반으로 led를 추적하는 방법 및 장치 | |
McCraith et al. | Real Time Monocular Vehicle Velocity Estimation using Synthetic Data | |
CN115909173B (zh) | 物体跟踪方法、跟踪模型训练方法、装置、设备和介质 | |
CN115100565B (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 | |
Lin et al. | Real-time objects recognition and obstacles avoidance for mobile robot | |
CN114596708B (zh) | 智能调度系统、方法、装置及计算机程序产品 | |
Unnisa et al. | Obstacle detection for self driving car in Pakistan's perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |