CN113031648A - 一种基于实感深度相机的旋翼无人机避障的方法 - Google Patents
一种基于实感深度相机的旋翼无人机避障的方法 Download PDFInfo
- Publication number
- CN113031648A CN113031648A CN202110218530.3A CN202110218530A CN113031648A CN 113031648 A CN113031648 A CN 113031648A CN 202110218530 A CN202110218530 A CN 202110218530A CN 113031648 A CN113031648 A CN 113031648A
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- image
- camera
- obstacle avoidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000001953 sensory effect Effects 0.000 title claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000004891 communication Methods 0.000 claims description 19
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000004888 barrier function Effects 0.000 claims description 4
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 7
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于实感深度相机的旋翼无人机避障的方法,包括以下步骤:1)、实感深度相机获取深度图像;2)、对深度图像进行处理,以获取障碍物的三维坐标3)、建立避障系统,生成自动避障决策指令,控制无人机飞行。本发明根据实感深度相机获取的深度图像来提取障碍物的位置信息,产生相应的避障指令以控制无人机的飞行。与搜索整个图像来找到可行区域相比,该方法根据获取的信息直接生成避障指令,有助于飞行控制器的快速计算和实时处理,从而有效解决了无人机因无法快速准确避障而导致的撞机问题。
Description
技术领域
本发明涉及旋翼无人机检测障碍和避障的技术领域,尤其是指一种基于实感深度相机的旋翼无人机避障的方法。
背景技术
随着信息技术的不断发展,无人机自主避障技术也得到了飞速发展。如何检测和避开飞行过程中的障碍物是无人机的重要难题,国内外学者为此提出了许多方法。
Milton C.P.Santos提出了一种用于室内无人机导航的避障策略,该策略能够在发现碰撞风险时计算障碍点。Marcin Odelga提出了一种无碰撞的室内导航算法,该算法可跟踪无人机局部环境中的障碍物并预测障碍物的未来状态,不过需要进行复杂的计算。Anoop Velayudhan提出了一种针对移动机器人的自主导航系统,该系统可在非结构化和未知的室内环境中使用,使用Kinect捕获数据来开发避障算法。但是,Kinect体积庞大,不适合装在小型无人机上。王一凡(Wang Yifan,Chen Derong,Zhang Liyan.A fast disparityrange finding method for obstacle avoidance of small UAVs[J].China TestingTechnology,2008,34(3):114-116(in Chinese).)使用三个安装在无人机上的相机来获取环境数据,然后通过相机之间坐标系的转换获得深度距离计算公式,从而提出了小型无人机的避障策略。杨伟(Yang Wei,Zhu Wenqiu,Zhang Changlong.A fast autonomousobstacle avoidance algorithm based on RGB-D camera[J].Journal of HunanUniversity of Technology,2015,29(6):74-79(in Chinese).)提出了一种高效的多旋翼无人机自主避障算法,使用RGB-D相机获取深度图像,然后对这些深度图像进行区域搜索,以找出无人机的避障路径。但是,该算法仅通过仿真实验得到验证。
本发明提供一种基于实感深度相机的旋翼无人机避障的方法,根据实感深度相机获取的深度图像来提取障碍物的位置信息,产生相应的避障指令以控制无人机的飞行。与搜索整个图像来找到可行区域相比,该方法根据获取的信息直接生成避障指令,有助于飞行控制器的快速计算和实时处理,从而有效解决了无人机因无法快速准确避障而导致的撞机问题。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于实感深度相机的旋翼无人机避障的方法,突破传统无人机避障要么准确度高但时间慢,要么时间快但准确度不高的问题,根据实感深度相机获取的深度图像来提取障碍物的位置信息,根据位置信息直接产生相应的避障指令控制无人机飞行,具有良好的实时性和准确性,解决了无人机因无法快速准确避障而导致的撞机问题。
本发明至少通过如下技术方案之一实现。
一种基于实感深度相机的旋翼无人机避障的方法,包括以下步骤:
1)、实感深度相机获取深度图像;
2)、对深度图像进行处理,以获取障碍物的三维坐标
3)、建立无人机避障系统,生成自动避障决策指令,控制无人机飞行。
优选的,所述实感深度相机为RealSense R200,包括图像处理器、彩色图像传感器、结构红外投光器和两个红外图像传感器;实感深度相机的有效距离为0.5-4m;红外图像传感器用于感测场景的深度并将其转换为m×n像素的深度图像。
优选的,所述实感深度相机的图像坐标系具有两种表示方法:
第一种表示方法的坐标原点为O(u0,v0),以米为单位;
第二种表示方法为像素坐标系,其中v轴指向下方,而u轴指向右侧,(x,y)坐标系用于表示相机和图像之间的投影关系,(u,v)坐标系存储相机获取的图像的对应点的灰度值,坐标原点和像素坐标系之间的关系如下:
式中,dx和dy分别表示x轴和y轴的单位像素宽度;
由Xc、Yc、Zc轴组成的坐标系称为相机坐标系,图像坐标系和相机坐标系之间的关系如下:
式中,f和θ是通过相机校准获得的相机内部参数;(x,y,z)是图像坐标系的x轴、y轴、z轴的坐标点;(Xc,Yc,Zc)是相机坐标系的x轴,y轴,z轴的坐标点;
相机坐标系和世界坐标系之间的关系如下:
优选的,步骤2)包括以下步骤:
2.1)使用Matlab软件拟合数据,得到深度图像中灰度值与实际距离之间的公式:h=d×0.06375,式中,h是灰度值,d是实际距离;
2.2)根据深度图像中每个点的灰度值将图像分为三层,分别为:盲区层、避障决策层和安全层;
2.3)通过Blob分析对深度图像进行分割,从背景中分离出图像中的障碍物,根据图像坐标和相机参数计算出障碍物的三维坐标。
优选的,所述盲区层包括RealSense r200的盲区为h米;该区域中的所有物体的深度值为零,如果无人机处于此层,则应立即将无人机挂起;
所述避障决策层为当无人机与障碍物之间的距离在0.5-2m范围内时,应采取避障措施;
所述安全层为当无人机与障碍物之间的距离超过2米时,无人机将处于安全飞行区域并且能自由飞行。
优选的,所述无人机避障系统包括地面站、图像处理模块、飞行控制模块和无人机定位模块;
所述图像处理模块使用机载图像处理板(TK1)获取并处理深度图像,并将障碍物的距离和位置信息发送给飞行控制模块;
所述飞行控制模块Pixhawk在接收到障碍物的距离和位置信息后,生成避障指令,以控制无人机避开障碍物;地面站与TK1通信,地面站接收到无人机获取的图像,并将用户指令传输到Pixhawk进行远程控制;
所述无人机定位模块使用Vicon系统提供无人机当前位置信息;
终端用户使用地面站通过无线通信信道监视无人机以及向无人机发送指令。
优选的,所述地面站分为三层:MAVLink层、MAV抽象层、用户界面层;
所述MAVLink层是硬件层,用于生成与飞行器通信的数据帧,确保消息格式的稳定性并负责与飞行器的直接通信;
所述MAV抽象层中包含MAV目标函数,允许把MAVLink用于不同的自动驾驶系统;
顶层是用户界面层,包括2D地图界面和平视显示器(HUD)。
优选的,所述无人机避障系统的通信协议包括MAVLink协议,用于地面站和无人机的通信协议、以及传输无人机的方向、位置和速度信息。
优选的,所述MAVLink协议通过串口通信、无线调制解调器、用户数据报协议(UDP)和WIFI802.11bgn进行地面站和飞行器的通信连接。
优选的,飞行控制模块的底层直接与地面通信的数据格式层,顶层包括自动驾驶数据结构和任务库。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明提出了一种简单快速的避障方法,解决了传统避障算法中计算量大的问题;
2、本发明方法中主要的时间花费在图像处理上,而图像处理所需的时间约为1毫秒,因此具有很高的实时性;
3、本发明方法在无人机检测障碍和避障系统中具有广泛的使用空间,简单快速、实时性高,在解决无人机撞机问题上有广阔前景。
附图说明
图1为本实施例基于实感深度相机的旋翼无人机避障的方法流程;
图2为本实施例实感深度相机获取的深度图像示意图;
图3为本实施例避障系统的总体设计图;
图4为本实施例避障流程示意图;
图5为本实施例无人机通过两个平行的障碍物的飞行路线图;
图6为本实施例无人机通过在同一侧的两个障碍物的飞行路线图;
图7为本实施例无人机通过两个交错的障碍物的飞行路线图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所述的基于实感深度相机的旋翼无人机避障的方法,使用实感深度相机、四旋翼无人机、Matlab软件等作为辅助设备,其包括以下步骤:
1)如图2所示,实感深度相机获取深度图像,其中,障碍物与相机之间的距离由深度图像中的灰度值表示,黑色是灰度的原色,图像以不同饱和度的黑色来显示。
本发明使用的实感深度相机是RealSense R200,是由Intel开发的3D体感相机,由图像处理器,彩色图像传感器,结构红外投光器和两个红外图像传感器组成。相机的有效距离为0.5-4m,红外传感器用于感测场景的深度并将其转换为640×480像素的深度图像。
实感相机的测距原理是红外发射器发射红外结构光,在障碍物反射之后,红外传感器接收到此结构光。由于从障碍物表面反射的红外光具有不同的距离,因此红外接收器获取的结构光图案的位置和形状也会发生变化,可以计算物体的空间信息,然后根据三角剖分原理进行深入的计算。
实感深度相机的图像坐标系具有两种表示方法。第一种表示方法的坐标原点为O(u0,v0),以米为单位。第二种表示方法称为像素坐标系,其中v轴指向下方,而u轴指向右侧。(x,y)坐标系用于表示相机和图像之间的投影关系。(u,v)坐标系存储相机获取的图像的对应点的灰度值。两个坐标系之间的关系如下:
式中,dx和dy分别表示x轴和y轴的单位像素宽度。
由Xc,Yc,Zc轴组成的坐标系称为相机坐标系。图像坐标系和相机坐标系之间的关系如下:
式中,f和θ是可以通过相机校准获得的相机内部参数。
世界坐标系描述相机和物体在环境中的位置。空间中的任何点都可以用作建立三维坐标系的原点。相机坐标系和世界坐标系之间的关系如下:
式中,R是一个3×3的旋转矩阵,t是一个三维的平移向量,0=(0,0,0)T。(x,y,z)是图像坐标系的x轴,y轴,z轴;(Xc,Yc,Zc)是相机坐标系的x轴,y轴,z轴。
2)对实感深度相机获取的深度图像进行处理,以获取障碍物的三维坐标,包括以下步骤:
2.1)使用Matlab软件拟合数据,可以得到深度图像中灰度值与实际距离之间的计算公式:h=d×0.06375
式中,h是灰度值,d是实际距离;
2.2)根据深度图像中每个点的灰度值(相机的距离)将图像分为三层:
第一层:盲区层。RealSense r200的盲区为0.5m。该区域中的所有物体的深度值为零。如果无人机处于此层,则应立即将其挂起。
第二层:避障决策层。当无人机与障碍物之间的距离在0.5-2m范围内时,应采取避障措施。
第三层:安全层。当无人机与障碍物之间的距离超过2米时,无人机将处于安全飞行区域并且可以自由飞行。
2.3)通过Blob分析对深度图像进行分割,从背景中分离出图像中的障碍物,以便无人机可以识别图像中的障碍物。
在计算机视觉中,连通域是指图像中具有相似颜色,纹理等特征的一块连接区域。Blob分析是对图像进行二值化和分割,以获得前景和背景,然后检测连接区域以获取Blob块。将目标像素标记为1,背景像素标记为0,将图像分为目标像素和背景像素,再分析图像的连通性,最终,将目标图像聚合到目标像素或点的连接器中。
障碍物质心的深度值和图像坐标可以通过图像分割获得,根据图像坐标和相机参数计算出障碍物的三维坐标。
3)建立避障系统。如图3所示,所述无人机避障系统地面站、图像处理模块、飞行控制模块和无人机定位模块。
图像处理模块使用机载图像处理板(TK1)来获取并处理深度图像,并将障碍物的距离和位置信息发送给飞行控制模块。
TK1是最小的超级计算机,可为嵌入式系统应用程序的运行提供帮助,以缓解GPU的压力。它的浮点运算速度可达每秒326亿次。
飞行控制模块Pixhawk在接收到障碍物的距离和位置信息后,生成避障指令,以控制无人机避开障碍物。地面站与TK1通信,可以接收到无人机获取的图像,并将用户指令传输到Pixhawk进行远程控制。
无人机定位模块使用Vicon系统提供无人机当前位置信息。
整个避障程序都是在机器人操作系统(ROS)上实现的,ROS系统的节点之间的通信由消息传递机制控制。在ROS系统中,主题用于存储消息,节点通过订阅和发布主题来传递消息。
避障系统的通信协议。使用地面站,终端用户可以通过无线通信信道监视无人机以及向无人机发送指令。
MAVLink协议是用于地面站和无人机的通信协议,用于传输无人机的方向,位置和速度信息。MAVLink分为两部分:地面站和飞行器,可以通过串口通信,无线调制解调器,UDP(用户数据报协议)和WIFI802.11bgn进行连接。
所述地面站分为三层:MAVLink层,MAV抽象层,用户界面层。MAVLink层是硬件层,它生成与飞行器通信的数据帧,从而确保消息格式的稳定性并负责与飞行器的直接通信。
所述MAV抽象层中包含各种MAV目标函数,从而允许把MAVLink用于不同的自动驾驶系统。顶层是用户界面层,包括2D地图界面和HUD(平视显示器)。
所述飞行器包含两层。底层是直接与地面通信的数据格式层。顶层包括自动驾驶数据结构和任务库(任务库包括有距离单位参数、速度单位参数、遥测速率参数、航点等)。任务库是快速执行参数和路由协议的保证。MAVLink有两个优点:速度和安全性。它可以用于检查丢失的数据包,但是每个消息需要6个字节的额外开销。
所述避障系统生成自动避障决策指令。首先,无人机以0.1m/s的初始速度向前飞行,而实感相机以30帧/s的速度提供场景的深度图像。深度图像的尺寸为640×480,相机对应于图像的中心(320,240)。通过处理深度图像来获得障碍物的质心坐标,当质心坐标的横坐标小于320时,无人机以0.25m/s的速度向右飞行以避开障碍物,同时向前飞行的速度还是0.1m/s,大于320时,无人机以相同的速度向左飞行,向前飞行的速度仍保持不变。避开障碍物后,无人机返回其初始速度向前飞行。避障流程示意图如图4所示。
对本发明方法进行实验验证以及对实验结果进行分析,包括以下步骤:
4.1)本次实验使用的是四旋翼无人机,并将TK1,Pixhawk和相机固定在无人机上。无人机使用了Vicon定位系统,并在无人机前后各放置一个纸箱以模拟实验中的障碍物。无人机以0.1m/s的初始速度前进,并以1米的高度飞行。记录下无人机飞行路线的数据,从中可以看出无人机的飞行路线会随着障碍物的位置而变化。
4.2)如图5所示,将两个障碍物平行放置,相距1m,无人机在自主飞行过程中会出现机体漂移,飞行路线在直线的基础上略带一些弧度。实验结果表明,一米是无人机穿过平行障碍物的最小距离。如图6所示,在无人机同一侧放置两个障碍物时,无人机的飞行路线总体呈两条相连的弧线。如图7所示,在交错位置上放置两个障碍物,并将这两个障碍物的宽度增大时,无人机的飞行路线呈现出多段相连的弧线。在避障过程中,无人机与障碍物之间的距离始终大于0.5米,因此不会发生碰撞。由于室内环境中其他物体的存在以及无人机飞行的不稳定性,因此飞行路线会在很小的范围内波动,但这不会影响避障过程。
实验结果表明,该避障系统可以确保无人机成功避障,处理图像所需的时间约为1毫秒,表明这种方法同时也具有很高的实时性。
综上所述,在采用以上方案后,本发明为无人机检测障碍和避障提供了新方法,实现了快速准确的避障,能够有效解决无人机因无法快速准确避障而导致的撞机问题,有效推动了无人机应用领域的发展。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (10)
1.一种基于实感深度相机的旋翼无人机避障的方法,其特征在于,包括以下步骤:
1)、实感深度相机获取深度图像;
2)、对深度图像进行处理,以获取障碍物的三维坐标
3)、建立无人机避障系统,生成自动避障决策指令,控制无人机飞行。
2.根据权利要求1所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于,
所述实感深度相机为RealSense R200,包括图像处理器、彩色图像传感器、结构红外投光器和两个红外图像传感器;实感深度相机的有效距离为0.5-4m;红外图像传感器用于感测场景的深度并将其转换为m×n像素的深度图像。
3.根据权利要求2所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于,
所述实感深度相机的图像坐标系具有两种表示方法:
第一种表示方法的坐标原点为O(u0,v0),以米为单位;
第二种表示方法为像素坐标系,其中v轴指向下方,而u轴指向右侧,(x,y)坐标系用于表示相机和图像之间的投影关系,(u,v)坐标系存储相机获取的图像的对应点的灰度值,坐标原点和像素坐标系之间的关系如下:
式中,dx和dy分别表示x轴和y轴的单位像素宽度;
由Xc、Yc、Zc轴组成的坐标系称为相机坐标系,图像坐标系和相机坐标系之间的关系如下:
式中,f和θ是通过相机校准获得的相机内部参数;(x,y,z)是图像坐标系的x轴、y轴、z轴的坐标点;(Xc,Yc,Zc)是相机坐标系的x轴,y轴,z轴的坐标点;
相机坐标系和世界坐标系之间的关系如下:
4.根据权利要求3所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于,步骤2)包括以下步骤:
2.1)使用Matlab软件拟合数据,得到深度图像中灰度值与实际距离之间的公式:h=d×0.06375,式中,h是灰度值,d是实际距离;
2.2)根据深度图像中每个点的灰度值将图像分为三层,分别为:盲区层、避障决策层和安全层;
2.3)通过Blob分析对深度图像进行分割,从背景中分离出图像中的障碍物,根据图像坐标和相机参数计算出障碍物的三维坐标。
5.根据权利要求4所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于,所述盲区层包括RealSense r200的盲区为h米;该区域中的所有物体的深度值为零,如果无人机处于此层,则应立即将无人机挂起;
所述避障决策层为当无人机与障碍物之间的距离在0.5-2m范围内时,应采取避障措施;
所述安全层为当无人机与障碍物之间的距离超过2米时,无人机将处于安全飞行区域并且能自由飞行。
6.根据权利要求5所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于:所述无人机避障系统包括地面站、图像处理模块、飞行控制模块和无人机定位模块;
所述图像处理模块使用机载图像处理板(TK1)获取并处理深度图像,并将障碍物的距离和位置信息发送给飞行控制模块;
所述飞行控制模块Pixhawk在接收到障碍物的距离和位置信息后,生成避障指令,以控制无人机避开障碍物;地面站与TK1通信,地面站接收到无人机获取的图像,并将用户指令传输到Pixhawk进行远程控制;
所述无人机定位模块使用Vicon系统提供无人机当前位置信息;
终端用户使用地面站通过无线通信信道监视无人机以及向无人机发送指令。
7.根据权利要求6所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于:所述地面站分为三层:MAVLink层、MAV抽象层、用户界面层;
所述MAVLink层是硬件层,用于生成与飞行器通信的数据帧,确保消息格式的稳定性并负责与飞行器的直接通信;
所述MAV抽象层中包含MAV目标函数,允许把MAVLink用于不同的自动驾驶系统;
顶层是用户界面层,包括2D地图界面和平视显示器(HUD)。
8.根据权利要求7所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于:所述无人机避障系统的通信协议包括MAVLink协议,用于地面站和无人机的通信协议、以及传输无人机的方向、位置和速度信息。
9.根据权利要求8所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于:所述MAVLink协议通过串口通信、无线调制解调器、用户数据报协议(UDP)和WIFI802.11bgn进行地面站和飞行器的通信连接。
10.根据权利要求9所述的一种基于实感深度相机的旋翼无人机避障的方法,其特征在于:
飞行控制模块的底层直接与地面通信的数据格式层,顶层包括自动驾驶数据结构和任务库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110218530.3A CN113031648A (zh) | 2021-02-26 | 2021-02-26 | 一种基于实感深度相机的旋翼无人机避障的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110218530.3A CN113031648A (zh) | 2021-02-26 | 2021-02-26 | 一种基于实感深度相机的旋翼无人机避障的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113031648A true CN113031648A (zh) | 2021-06-25 |
Family
ID=76461818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110218530.3A Pending CN113031648A (zh) | 2021-02-26 | 2021-02-26 | 一种基于实感深度相机的旋翼无人机避障的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113031648A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106681353A (zh) * | 2016-11-29 | 2017-05-17 | 南京航空航天大学 | 基于双目视觉与光流融合的无人机避障方法及系统 |
CN108711166A (zh) * | 2018-04-12 | 2018-10-26 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN111990929A (zh) * | 2020-08-26 | 2020-11-27 | 北京石头世纪科技股份有限公司 | 一种障碍物探测方法、装置、自行走机器人和存储介质 |
-
2021
- 2021-02-26 CN CN202110218530.3A patent/CN113031648A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106681353A (zh) * | 2016-11-29 | 2017-05-17 | 南京航空航天大学 | 基于双目视觉与光流融合的无人机避障方法及系统 |
CN108711166A (zh) * | 2018-04-12 | 2018-10-26 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN111990929A (zh) * | 2020-08-26 | 2020-11-27 | 北京石头世纪科技股份有限公司 | 一种障碍物探测方法、装置、自行走机器人和存储介质 |
Non-Patent Citations (1)
Title |
---|
JIA HU,ET AL: "Obstacle avoidance methods for rotor UAVs using RealSense camera", 《2017 CHINESE AUTOMATION CONGRESS (CAC)》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11218689B2 (en) | Methods and systems for selective sensor fusion | |
US11704812B2 (en) | Methods and system for multi-target tracking | |
CN106681353B (zh) | 基于双目视觉与光流融合的无人机避障方法及系统 | |
Shen et al. | Vision-based state estimation for autonomous rotorcraft MAVs in complex environments | |
US10665115B2 (en) | Controlling unmanned aerial vehicles to avoid obstacle collision | |
CN107850902B (zh) | 可移动物体上的相机配置 | |
Saha et al. | A real-time monocular vision-based frontal obstacle detection and avoidance for low cost UAVs in GPS denied environment | |
EP3123260B1 (en) | Selective processing of sensor data | |
CN113168186A (zh) | 碰撞规避系统、深度成像系统、交通工具、地图生成器及其方法 | |
Martínez et al. | On-board and ground visual pose estimation techniques for UAV control | |
Hu et al. | Obstacle avoidance methods for rotor UAVs using RealSense camera | |
Eynard et al. | UAV altitude estimation by mixed stereoscopic vision | |
CN105759829A (zh) | 基于激光雷达的微型无人机操控方法及系统 | |
Garcia et al. | High-speed vision-based autonomous indoor navigation of a quadcopter | |
WO2021238743A1 (zh) | 一种无人机飞行控制方法、装置及无人机 | |
Kehoe et al. | State estimation using optical flow from parallax-weighted feature tracking | |
Sanket et al. | Morpheyes: Variable baseline stereo for quadrotor navigation | |
Dubey et al. | Droan-disparity-space representation for obstacle avoidance: Enabling wire mapping & avoidance | |
von Stumberg et al. | Autonomous exploration with a low-cost quadrocopter using semi-dense monocular slam | |
Dubey et al. | Droan—disparity-space representation for obstacle avoidance | |
Ha et al. | Vision-based Obstacle Avoidance Based on Monocular SLAM and Image Segmentation for UAVs. | |
Yuan et al. | Visual steering of UAV in unknown environments | |
CN113031648A (zh) | 一种基于实感深度相机的旋翼无人机避障的方法 | |
Gomez-Balderas et al. | Vision-based autonomous hovering for a miniature quad-rotor | |
Dinaux et al. | FAITH: Fast iterative half-plane focus of expansion estimation using optic flow |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210625 |
|
RJ01 | Rejection of invention patent application after publication |