CN109034018B - 一种基于双目视觉的低空小型无人机障碍物感知方法 - Google Patents
一种基于双目视觉的低空小型无人机障碍物感知方法 Download PDFInfo
- Publication number
- CN109034018B CN109034018B CN201810764574.4A CN201810764574A CN109034018B CN 109034018 B CN109034018 B CN 109034018B CN 201810764574 A CN201810764574 A CN 201810764574A CN 109034018 B CN109034018 B CN 109034018B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- image
- frame
- dimensional space
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于双目视觉的低空小型无人机障碍物感知方法,属于机器视觉技术领域。首先采用基于YOLOv2的深度学习目标检测与识别方法,对双目相机的左相机采集到的图像进行障碍物检测与识别,得到障碍物在图像中的像素位置、像素尺寸与障碍物种类信息。然后针对以上信息,采用KCF目标跟踪算法进行目标障碍物的实时跟踪,同时对双目相机的左右相机实时采集到的每帧环境图像进行三维重构,得到环境中障碍物的空间信息。最后结合上述所有信息,对每帧图像中的障碍物进行提取,得到环境中所有障碍物的空间位置、物理尺寸与障碍物种类。本发明大大减小了数据集采集制作复杂度,能够得到丰富的障碍物信息,为无人机避障提供保障。
Description
技术领域
本发明属于机器视觉技术领域,具体是一种基于双目视觉的低空小型无人机障碍物感知方法。
背景技术
近年来无人机在低空领域的应用越来越多,比如在安防监控,农业植保和电力巡检等领域扮演着越来越重要的角色。但随着无人机作业高度的降低,无人机面临的障碍物也越来越复杂,包括树木,电力塔架和建筑物等,极大的限制了无人机的低空作业。因此无人机感知与避障的能力在未来低空无人机发展中起着非常重要的作用。其中无人机对环境的感知能力是关键难点与关注焦点。
目前国内外针对低空环境的无人机障碍物感知方法研究较少,大部分处于理论验证阶段,其实用性与有效性有待验证。目前典型避障传感器包括超声波传感器、红外传感器、激光传感器、雷达传感器以及视觉传感器,每个传感器各自有不同的原理及特点。超声波传感器与红外传感器作用距离短,易受环境干扰,一般仅作为辅助感知手段;毫米波雷达与激光雷达具有较好的感知效果,但体积与重量较大并且价格昂贵,不适合小型旋翼无人机使用。视觉传感器能获得最丰富的环境信息,并且价格便宜,重量轻和体积小的特点使得视觉传感器非常适合在小型四旋翼无人机上使用,如今随着摄像头性能的不断提升与处理器的快速发展,基于视觉环境感知技术愈加成熟,输出信息丰富并且硬件成本较低,成为人工智能领域的热门。
目前无人机环境感知方案的研究多采用多传感器融合的方法,比如毫米波雷达、超声波雷达与视觉融合感知,该方法获得的环境信息丰富,并且可靠性高,但存在硬件成本高,重量体积大,系统结构复杂等缺陷,使得该方法难以实际应用。仅采用视觉传感器进行感知的研究较少,主要原因有技术不成熟、计算量大难以达到实时性要求等。
发明内容
本发明为了解决现有技术中存在的问题,提出一种基于双目视觉的低空小型无人机障碍物感知方法;仅采用一个双目摄像机对无人机飞行环境中典型障碍物进行实时感知,能够得到丰富的环境障碍物信息,包括障碍物的空间位置,物理尺寸与障碍物种类,并且抗环境干扰能力强,对遮挡目标和小目标具有较好的检测效果,同时还能够对环境实时感知。
包括以下几个步骤:
步骤一:采用基于YOLOv2的深度学习目标检测与识别方法,对双目相机的左相机采集到的图像进行障碍物检测与识别,得到障碍物在图像中的像素位置、像素尺寸与障碍物种类信息。
YOLOv2算法对左相机实时采集的每帧图像,间隔选取某帧图像进行障碍物检测与识别,步骤如下:
首先,针对选中的输入帧图像,将该图像划分网格;对于每个网格,深度神经网络都预测2个边框,网络输出每个边框的位置,目标的置信度以及在C个类别上的概率;然后,根据目标的置信度去除置信度比较低的边框,最后利用极大值抑制算法去除冗余窗口,即得到最终的检测结果:边框的位置,大小和边框属于的类别,分别对应障碍物在图像中的像素位置,像素尺寸和障碍物种类信息。
步骤二:针对障碍物在该帧图像中的像素位置、像素尺寸与障碍物种类信息,采用KCF目标跟踪算法进行目标障碍物的实时跟踪。
KCF目标跟踪主要流程为:将YOLOv2算法针对该帧图像的检测结果作为初始检测框,对周围的图片进行循环采样,将采样得到的图片作为训练数据训练目标检测器,目标检测器对下一帧图片进行检测得到目标检测结果,然后将目标检测结果又作为新的初始框进行循环,实现对目标的跟踪效果。
步骤三:同时,对双目相机的左右相机实时采集到的每帧环境图像进行三维重构,得到环境中障碍物的空间信息。
具体过程为:对双目相机的左右相机采用张正友标定算法进行双目标定,得到相机内外参数与畸变参数。然后,对左右相机同时采集的每帧图像,分别采用bouguet算法进行立体校正,消除畸变影响的同时使得左右图像只存在列向差异。最后,对校正之后的左右图像采用SGBM块匹配算法进行像素匹配得到全局的视差图,最后对视差进行3D恢复即可获得全局三维空间位置。
步骤四:结合上述所有信息,对每帧图像中的障碍物进行提取,得到环境中所有障碍物的空间位置、物理尺寸与障碍物种类。
提取策略如下:
首先,对每一帧图像,将三维重构出的三维空间坐标图的深度通道进行分离,得到该图像的障碍物深度图;
然后,利用YOLOv2算法或KCF目标跟踪算法检测出的矩形框位置,去除障碍物深度图中矩形框之外的所有深度值,同时去除矩形框内深度值大于深度感知范围阈值的深度值,对每个环境障碍物深度图进行简化;
深度感知范围阈值可根据实际应用场景改变;
最后,对简化后的每个环境障碍物深度图中每个矩形框依次执行下面的操作:
步骤I、针对当前选择的简化的环境深度图,依次选取该图中单个矩形框作为当前矩形框,获取两条中轴线上的所有深度值,并进行四舍五入取整,计算众数。
步骤II、去除当前矩形框内的,所有深度值与众数值的差值超过障碍物尺寸阈值的像素点,保留深度值与众数相差在障碍物尺寸阈值以内的像素点。
障碍物尺寸阈值根据应用场景障碍物尺寸选取。
步骤III、判断当前矩形框两条中轴线上像素点的个数是否大于比例阈值倍的中轴线长度,如果是,则进行步骤IV、否则进入下一个矩形框并返回步骤I重新计算。
比例阈值根据实际情况调整。
步骤IV、将矩形框内中轴线最上方、最下方、最左方和最右方的像素点位置处的原三维空间恢复图中的三维空间位置坐标输出。
步骤V、根据四个三维空间位置坐标计算出当前矩形框中障碍物的中心位置坐标与障碍物长宽,并记录当前矩形框所表示的障碍物种类。
障碍物的中心位置坐标与障碍物长宽计算方法如下:
其中,(BotPointx,BotPointy,BotPointz)表示最下方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(TopPointx,TopPointy,TopPointz)表示最上方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(LeftPointx,LeftPointy,LeftPointz)表示最左方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(RightPointx,RightPointy,RightPointz)表示最右方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(Xcenter,Ycenter,Zcenter)表示当前障碍物中心位置空间三维坐标;W表示计算出的障碍物实际长度。H表示计算出的障碍物实际宽度。
步骤VI、将每个矩形框循环执行上述步骤后,得到该帧图像中每个障碍物的中心空间位置、障碍物宽高和障碍物的种类;
步骤VII,同理,对每帧图像重复上述步骤,得到各图像的每个障碍物的中心空间位置,障碍物宽高和种类,最终完成对所有障碍物的感知,为后续无人机避障等应用做好准备。
本发明的优点在于:
(1)一种基于双目视觉的低空小型无人机障碍物感知方法,采用基于深度学习的目标检测与识别技术,使得感知系统具有较高的鲁棒性与抗环境干扰能力,并且深度学习的训练集采用unity3D搭建的逼真仿真环境采集,大大减小了数据集采集制作复杂度。
(2)一种基于双目视觉的低空小型无人机障碍物感知方法,采用目标跟踪算法与目标检测算法相结合,使得系统能够实时对环境障碍物进行检测。
(3)一种基于双目视觉的低空小型无人机障碍物感知方法,仅采用价格便宜,重量轻体积小的视觉传感器完成对环境中障碍物的感知。
(4)一种基于双目视觉的低空小型无人机障碍物感知方法,能够得到丰富的障碍物信息,包括障碍物位置、尺寸和种类等信息,为无人机避障提供更丰富的信息。
附图说明
图1是本发明一种基于双目视觉的低空小型无人机障碍物感知方法流程框图;
图2是本发明针对YOLOv2算法流程给出的实例示意图;
图3是本发明unity3D仿真系统采集的部分数据集;
图4是本发明采用YOLOv2目标检测与识别算法得到的检测效果图;
图5是本发明KCF目标跟踪算法流程框图;
图6是本发明基于双目视觉的三维重构流程图;
图7是本发明障碍物信息提取算法流程框图;
图8是本发明视景仿真界面及障碍物检测实施例的提取效果图。
图8a是本发明仿真系统主界面;
图8b是YOLOv2目标检测与KCF目标跟踪效果;
图8c是本发明双目恢复视差图;
图8d是本发明障碍物提取效果图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的详细说明。
本发明一种基于双目视觉的低空小型无人机障碍物感知方法,使得无人机仅搭载一个重量轻、体积小和价格便宜等优点的双目摄像机即可完成无人机飞行环境中典型障碍物的三维感知,具有成本低、鲁棒性强和获取障碍物信息丰富等优点。
如图1所示,具体步骤如下:
步骤一:采用基于YOLOv2的深度学习目标检测与识别方法,对无人机搭载的双目相机的左相机采集到的图像进行障碍物检测与识别,得到障碍物在图像中的像素位置、像素尺寸与障碍物种类信息。
YOLOv2算法对左相机实时采集的每帧图像,间隔选取某帧图像进行障碍物检测与识别,如图2所示,首先,针对选中的一帧输入图像,将图像划分成7*7的网格。然后,对于每个网格,深度神经网络都预测2个边框,因此一共7*7*2个边框;网络输出每个边框的位置(每个边框用边框中心位置x和y以及边框长宽w和h四个参数表示),目标的置信度以及在C个类别上的概率;因此网络最终输出为7*7*(2*5+C)个值。最后,根据目标置信度去除置信度比较低的边框,然后利用极大值抑制算法去除冗余窗口,即可得到最终的检测结果:边框的位置,大小和边框属于的类别;分别对应障碍物在图像中的像素位置,像素尺寸和障碍物种类信息。
无人机飞行环境数据集的好坏直接决定了YOLOv2算法应用到实际场景中的表现,因此为了方便制作训练集,本发明采用基于unity3d的虚拟视景仿真系统搭建了逼真的无人机飞行环境作为算法的训练样本,部分样本展示如图3所示,训练样本保证样本的随机性和多样性,包括多种天气,障碍物种类和地形场景等,以提高网络泛化能力。
最终将训练样本输入YOLOv2算法的深度神经网络模型,得到各个图像的检测结果;部分检测结果展示如图4所示,具有较好的泛化能力与鲁棒性能,不仅对虚拟仿真环境有较好的检测效果,并且对真实的环境障碍物、遮挡目标、小目标都具有较好的检测效果,具有传统图像检测算法不能比拟的优势。
步骤二:针对深度学习检测到的障碍物,采用KCF目标跟踪算法进行实时目标跟踪。
尽管YOLOv2目标检测与识别算法的速度较快,但感知系统中还包含多个其他耗时的任务,比如双目立体三维重构和障碍物信息提取等任务,因此采用快速的目标跟踪算法来跟踪YOLOv2目标检测与识别算法的检测结果来提高系统实时性。
在步骤一采用深度学习检测算法检测到障碍物后,采用快速的KCF目标跟踪算法对检测到的障碍物进行跟踪,保证每个时刻都能完成障碍物的检测。
如图5所示,KCF目标跟踪方法对初始检测框周围的图片进行循环采样,将采样得到的图片作为训练数据训练的一个目标检测器,目标检测器对下一帧图片进行检测得到目标检测结果,这个检测结果又作为新的初始框进行循环,实现对目标的跟踪效果。
其中初始检测框由YOLOv2算法检测结果给出,并每隔一定周期更新此初始检测框。具体实现方法是目标跟踪算法实时运行,基于深度学习的目标检测算法每隔数秒运行一次,每次检测结果更新目标跟踪算法初始框。
步骤三:同时,对双目相机的左相机与右相机采集到的每帧环境图像进行三维重构,得到环境中障碍物的空间信息。
如图6所示:首先,对左右相机采用张正友标定算法进行双目离线标定,得到相机内外参数与畸变参数。然后,对两相机同时采集的两帧图像,分别采用bouguet算法进行立体校正,消除畸变影响的同时使得左右图只存在列向差异。最后,对校正之后的左右图采用SGBM块匹配算法进行像素匹配得到全局的视差图,最后对视差进行3D恢复即可获得全局三维空间位置。
步骤四:结合上述三步得到的所有信息,提取出环境中所有障碍物的空间位置、物理尺寸与障碍物种类。
前三个步骤已经得到了障碍物在图像中的像素位置、像素尺寸和障碍物种类,以及障碍物的空间恢复信息。结合这些信息提取障碍物的空间位置、物理尺寸与障碍物种类。
提取策略如图7所示:首先,对每一帧图像,将双目视觉三位重构出的三维空间坐标图的深度通道分离出来,得到障碍物深度图;
然后为了去除不必要的干扰,结合YOLOv2算法或者KCF跟踪算法检测出的矩形框位置,去除深度图中障碍物矩形框之外的所有深度值(即将深度图中矩形框之外的像素值全赋值为255),同时为了简化感知过程和降低计算复杂度,去除矩形框内深度值大于深度感知范围阈值的深度值(深度感知范围阈值可根据实际应用场景改变,在本发明中取80m),因此得到了简化的环境障碍物深度图;
最后,对简化后的每个环境障碍物深度图中每个矩形框依次执行下面的操作:
1)、获取简化的环境深度图中当前矩形框两条中轴线上的所有深度值。
2)、将上步得到的深度值四舍五入取整,并计算它们的众数。
3)、去除当前矩形框内所有深度值与众数值的差超过障碍物尺寸阈值的所有像素点,保留与众数相差在障碍物尺寸阈值以内的像素点。
障碍物尺寸阈值根据应用场景障碍物尺寸选取,本发明中选为5m。
4)、判断当前矩形框两条中轴线上像素点个数是否大于比例阈值倍的中轴线长度,如果大于则进行步骤(5),否则进入下一个矩形框并回到步骤(1)重新计算。
比例阈值可根据实际情况调整,一般选在0.2-0.8范围内;
5)、得到步骤(4)矩形框内中轴线最上方、最下方、最左方和最右方的像素点,并输出这些像素点位置处的原三维空间恢复图中的三维空间位置坐标。
6)、根据四个三维空间位置坐标计算出障碍物的中心位置坐标与障碍物长宽,并记录当前矩形框所表示的障碍物种类。
这里障碍物的中心位置坐标与障碍物长宽计算方法如下:
其中,(BotPointx,BotPointy,BotPointz)表示最下方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(TopPointx,TopPointy,TopPointz)表示最上方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(LeftPointx,LeftPointy,LeftPointz)表示最左方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(RightPointx,RightPointy,RightPointz)表示最右方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(Xcenter,Ycenter,Zcenter)表示当前障碍物中心位置空间三维坐标;W表示计算出的障碍物实际长度。H表示计算出的障碍物实际宽度。
7)、对每个矩形框循环执行上述步骤后,即可得到每个障碍物的中心空间位置、障碍物宽高和障碍物的种类;
8)、同理,对每帧图像重复上述步骤,得到各图像的每个障碍物的中心空间位置,障碍物宽高和种类,完成对障碍物的感知,为后续无人机避障等应用做好准备。
在本发明中,搭建了逼真的视景仿真系统进行验证,视景仿真系统界面与障碍物检测提取效果如图8所示。以树木为例,在无人机飞行至距离树木18m-60m之间任取六组感知结果与实际值进行对比,对比结果如表1所示。
表1
可以看出中心位置的X坐标误差在1m以内,Y坐标误差在0.6m以内,Z坐标误差在4m以内,长宽均在2m以内,且随着距离的靠近误差逐渐降低,因此可以看出本发明具有较好的感知精度。
Claims (5)
1.一种基于双目视觉的低空小型无人机障碍物感知方法,其特征在于,包括以下几个步骤:
步骤一:采用基于YOLOv2的深度学习目标检测与识别方法,对双目相机的左相机采集到的图像进行障碍物检测与识别,得到障碍物在图像中的像素位置、像素尺寸与障碍物种类信息;
步骤二:针对障碍物在左相机采集到的图像中的像素位置、像素尺寸与障碍物种类信息,采用KCF目标跟踪算法进行目标障碍物的实时跟踪;
步骤三:同时,对双目相机的左右相机实时采集到的每帧环境图像进行三维重构,得到环境中障碍物的空间信息;
步骤四:结合上述所有信息,对每帧图像中的障碍物进行提取,得到环境中所有障碍物的空间位置、物理尺寸与障碍物种类;
所述上述所有信息包括:障碍物在图像中的像素位置、像素尺寸与障碍物种类信息以及环境中障碍物的空间信息;
提取策略如下:
首先,对每一帧图像,将三维重构出的三维空间坐标图的深度通道进行分离,得到该图像的环境障碍物深度图;
然后,利用YOLOv2算法或KCF目标跟踪算法检测出的矩形框位置,去除环境障碍物深度图中矩形框之外的所有深度值,同时去除矩形框内深度值大于深度感知范围阈值的深度值,对每个环境障碍物深度图进行简化;
最后,对简化后的每个环境障碍物深度图中每个矩形框依次执行下面的操作:
步骤I、针对当前选择的简化的环境障碍物深度图,依次选取该图中单个矩形框作为当前矩形框,获取当前矩形框的两条中轴线上的所有深度值,将得到的深度值进行四舍五入取整,得到众数;
步骤II、去除当前矩形框内的,所有深度值与众数值的差值超过障碍物尺寸阈值的像素点,保留深度值与众数相差在障碍物尺寸阈值以内的像素点;
步骤III、判断当前矩形框两条中轴线上像素点的个数是否大于比例阈值倍的中轴线长度,如果是,则进行步骤IV、否则进入下一个矩形框并返回步骤I重新计算;
步骤IV、将矩形框内中轴线最上方、最下方、最左方和最右方的像素点位置处的原三维空间坐标图中的三维空间位置坐标输出;
步骤V、根据四个三维空间位置坐标计算出当前矩形框中障碍物的中心位置坐标与障碍物长宽,并记录当前矩形框所表示的障碍物种类;
步骤VI、将每个矩形框循环执行上述步骤后,得到该帧图像中每个障碍物的中心空间位置、障碍物宽高和障碍物的种类;
步骤VII,同理,对每帧图像重复上述步骤,得到各图像的每个障碍物的中心空间位置,障碍物宽高和种类,最终完成对所有障碍物的感知,为后续无人机避障做好准备。
2.如权利要求1所述的一种基于双目视觉的低空小型无人机障碍物感知方法,其特征在于,所述的YOLOv2算法对左相机实时采集的每帧图像,间隔选取某帧图像进行障碍物检测与识别,步骤如下:
首先,针对选中的输入帧图像,将该图像划分网格;对于每个网格,深度神经网络都预测2个边框,网络输出每个边框的位置,目标的置信度以及在C个类别上的概率;然后,根据目标的置信度去除置信度低的边框,最后利用极大值抑制算法去除冗余窗口,即得到最终的检测结果:边框的位置,大小和边框属于的类别,分别对应障碍物在图像中的像素位置,像素尺寸和障碍物种类信息。
3.如权利要求1所述的一种基于双目视觉的低空小型无人机障碍物感知方法,其特征在于,所述的KCF目标跟踪算法的主要流程为:将YOLOv2算法针对该帧图像的检测结果作为初始检测框,对周围的图片进行循环采样,将采样得到的图片作为训练数据训练目标检测器,目标检测器对下一帧图片进行检测得到目标检测结果,然后将目标检测结果又作为新的初始框进行循环,实现对目标的跟踪效果。
4.如权利要求1所述的一种基于双目视觉的低空小型无人机障碍物感知方法,其特征在于,步骤三所述的三维重构具体过程为:对双目相机的左右相机采用张正友标定算法进行双目标定,得到相机内外参数与畸变参数;然后,对左右相机同时采集的每帧图像,分别采用bouguet算法进行立体校正,消除畸变影响的同时使得左右图像只存在列向差异;最后,对校正之后的左右图像采用SGBM块匹配算法进行像素匹配得到全局的视差图,最后对视差进行3D恢复,获得全局三维空间位置。
5.如权利要求1所述的一种基于双目视觉的低空小型无人机障碍物感知方法,其特征在于,步骤V中所述的障碍物的中心位置坐标与障碍物长宽计算方法如下:
其中,(BotPointx,BotPointy,BotPointz)表示最下方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(TopPointx,TopPointy,TopPointz)表示最上方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(LeftPointx,LeftPointy,LeftPointz)表示最左方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(RightPointx,RightPointy,RightPointz)表示最右方的像素点位置处原三维空间恢复图中的三维空间位置坐标;
(Xcenter,Ycenter,Zcenter)表示当前障碍物中心位置空间三维坐标;W表示计算出的障碍物实际长度;H表示计算出的障碍物实际宽度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810764574.4A CN109034018B (zh) | 2018-07-12 | 2018-07-12 | 一种基于双目视觉的低空小型无人机障碍物感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810764574.4A CN109034018B (zh) | 2018-07-12 | 2018-07-12 | 一种基于双目视觉的低空小型无人机障碍物感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109034018A CN109034018A (zh) | 2018-12-18 |
CN109034018B true CN109034018B (zh) | 2022-01-21 |
Family
ID=64641121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810764574.4A Active CN109034018B (zh) | 2018-07-12 | 2018-07-12 | 一种基于双目视觉的低空小型无人机障碍物感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109034018B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10937325B2 (en) | 2018-12-27 | 2021-03-02 | Intel Corporation | Collision avoidance system, depth imaging system, vehicle, obstacle map generator, and methods thereof |
CN113776503B (zh) * | 2018-12-29 | 2024-04-12 | 深圳市道通智能航空技术股份有限公司 | 一种深度图处理方法、装置和无人机 |
CN111754542B (zh) * | 2019-03-27 | 2023-08-04 | 丰翼科技(深圳)有限公司 | 目标对象确定方法、跟踪方法、装置、设备及其存储介质 |
CN111768449B (zh) * | 2019-03-30 | 2024-05-14 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN110398986A (zh) * | 2019-04-28 | 2019-11-01 | 清华大学 | 一种多源数据迁移的无人机密集树林感知技术 |
CN110109457A (zh) * | 2019-04-29 | 2019-08-09 | 北方民族大学 | 一种智能语音导盲机器人控制方法及控制系统 |
CN110244756B (zh) * | 2019-04-29 | 2021-09-24 | 福州大学 | 无人机快速追踪协同避障方法 |
CN110211152A (zh) * | 2019-05-14 | 2019-09-06 | 华中科技大学 | 一种基于机器视觉的内窥镜器械跟踪方法 |
CN110132243A (zh) * | 2019-05-31 | 2019-08-16 | 南昌航空大学 | 一种基于深度学习与测距的模块化定位系统 |
CN110232711B (zh) * | 2019-06-05 | 2021-08-13 | 中国科学院自动化研究所 | 面向海产品抓取的双目视觉实时感知定位方法、系统、装置 |
CN111192289B (zh) * | 2019-11-27 | 2022-06-14 | 武汉华中天经通视科技有限公司 | 一种飞行器目标自动跟踪方法 |
CN110991336B (zh) * | 2019-12-02 | 2023-04-28 | 深圳大学 | 一种基于感官替代的辅助感知方法和系统 |
WO2021114031A1 (zh) * | 2019-12-09 | 2021-06-17 | 深圳市大疆创新科技有限公司 | 一种目标检测方法和装置 |
CN111275733A (zh) * | 2020-02-27 | 2020-06-12 | 赛特斯信息科技股份有限公司 | 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法 |
CN113283273B (zh) * | 2020-04-17 | 2024-05-24 | 上海锐明轨交设备有限公司 | 基于视觉技术的前方障碍物实时检测方法及系统 |
CN111611869B (zh) * | 2020-04-25 | 2021-06-01 | 哈尔滨理工大学 | 一种基于串行深度神经网络的端到端单目视觉避障方法 |
CN111627064B (zh) * | 2020-04-25 | 2021-07-09 | 哈尔滨理工大学 | 一种行人交互友好型的单目避障方法 |
CN111627057B (zh) * | 2020-05-26 | 2024-06-07 | 孙剑 | 一种距离测量方法、装置及服务器 |
CN111982127A (zh) * | 2020-08-31 | 2020-11-24 | 华通科技有限公司 | LightWeight-3D避障方法 |
CN112162550B (zh) * | 2020-09-02 | 2021-07-16 | 北京航空航天大学 | 一种用于汽车主动安全防撞的三维目标跟踪方法 |
CN112859907A (zh) * | 2020-12-25 | 2021-05-28 | 湖北航天飞行器研究所 | 少样本条件下基于三维特效仿真的火箭残骸高空检测方法 |
CN113269838B (zh) * | 2021-05-20 | 2023-04-07 | 西安交通大学 | 一种基于fira平台的障碍物视觉检测方法 |
CN113780078B (zh) * | 2021-08-05 | 2024-03-19 | 广州西威科智能科技有限公司 | 无人驾驶视觉导航中故障物快速精准识别方法 |
CN114089364A (zh) * | 2021-11-18 | 2022-02-25 | 智能移动机器人(中山)研究院 | 一种集成化的感知系统装置及实现方法 |
CN114608522B (zh) * | 2022-03-21 | 2023-09-26 | 沈阳理工大学 | 一种基于视觉的障碍物识别与测距方法 |
CN115440094B (zh) * | 2022-07-21 | 2023-11-07 | 南京航空航天大学 | 用于直升机近地告警的障碍物探测方法、装置和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230392A (zh) * | 2018-01-23 | 2018-06-29 | 北京易智能科技有限公司 | 一种基于imu的视觉障碍物检测虚警剔除方法 |
-
2018
- 2018-07-12 CN CN201810764574.4A patent/CN109034018B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230392A (zh) * | 2018-01-23 | 2018-06-29 | 北京易智能科技有限公司 | 一种基于imu的视觉障碍物检测虚警剔除方法 |
Non-Patent Citations (1)
Title |
---|
"High-Speed Tracking with";Joao F. Henriques et al.;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20150303;第37卷(第3期);第583-596页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109034018A (zh) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034018B (zh) | 一种基于双目视觉的低空小型无人机障碍物感知方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN113359810B (zh) | 一种基于多传感器的无人机着陆区域识别方法 | |
CN107481315A (zh) | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 | |
CN111583337A (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
CN111213155A (zh) | 图像处理方法、设备、可移动平台、无人机及存储介质 | |
CN110675418A (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN113673444B (zh) | 一种基于角点池化的路口多视角目标检测方法及系统 | |
CN110672088B (zh) | 一种仿信鸽地貌感知归巢机制的无人机自主导航方法 | |
CN115032651A (zh) | 一种基于激光雷达与机器视觉融合的目标检测方法 | |
CN116258817B (zh) | 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和系统 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与系统 | |
CN113566825B (zh) | 基于视觉的无人机导航方法、系统及存储介质 | |
CN112883850A (zh) | 一种基于卷积神经网络的多视角空天遥感图像匹配方法 | |
CN115273034A (zh) | 一种基于车载多传感器融合的交通目标检测与跟踪方法 | |
CN115451948A (zh) | 一种基于多传感器融合的农业无人车定位里程计方法及系统 | |
CN114170535A (zh) | 目标检测定位方法、装置、控制器及存储介质和无人机 | |
CN115809986A (zh) | 一种多传感器融合的输电走廊智能外破检测方法 | |
CN116843636A (zh) | 基于改进YOLOv7算法的雾天场景下绝缘子缺陷检测方法 | |
CN114842340A (zh) | 一种机器人双目立体视觉障碍物感知方法与系统 | |
CN115272493B (zh) | 一种基于连续时序点云叠加的异常目标检测方法及装置 | |
Lim et al. | MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks | |
CN115482282A (zh) | 自动驾驶场景下具有多目标追踪能力的动态slam方法 | |
CN117557599B (zh) | 一种3d运动物体追踪方法及系统、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |