CN110197489A - 一种无人机降落区域的选择方法和装置 - Google Patents

一种无人机降落区域的选择方法和装置 Download PDF

Info

Publication number
CN110197489A
CN110197489A CN201910286903.3A CN201910286903A CN110197489A CN 110197489 A CN110197489 A CN 110197489A CN 201910286903 A CN201910286903 A CN 201910286903A CN 110197489 A CN110197489 A CN 110197489A
Authority
CN
China
Prior art keywords
alternative area
alternative
unmanned plane
area set
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910286903.3A
Other languages
English (en)
Other versions
CN110197489B (zh
Inventor
张鑫龙
周荣坤
马磊
樊锐
徐永正
吴琨
杨婷
田全才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Electronics Technology Group Corp CETC
Electronic Science Research Institute of CTEC
Original Assignee
China Electronics Technology Group Corp CETC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Electronics Technology Group Corp CETC filed Critical China Electronics Technology Group Corp CETC
Priority to CN201910286903.3A priority Critical patent/CN110197489B/zh
Publication of CN110197489A publication Critical patent/CN110197489A/zh
Application granted granted Critical
Publication of CN110197489B publication Critical patent/CN110197489B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种无人机降落区域的选择方法和装置,通过分别进行激光雷达传感器扫描和光电传感器扫描两种地面扫描方式,在确定无人机的最佳降落区域时,融合根据上述两种方式的扫描结果确定的备选区域,根据备选区域的重合情况,选择满足第一预设条件的备选区域为无人机的降落区域,使无人机在运行过程可以自主进行降落区域选择,无需人为进行干预,达到了无人机远程应急迫降的需求,实现了无人机真正的无人化和智能化。

Description

一种无人机降落区域的选择方法和装置
技术领域
本发明涉及无人机领域,特别是涉及一种无人机降落区域的选择方法和装置。
背景技术
目前无人机在起降、飞行环节仍需人为干预,未能实现无人化和智能化,难以实现无人机自主降落地点选择,无法实现无人机远程应急迫降的需求。
发明内容
本发明提供一种无人机降落区域的选择方法和装置,用以解决现有技术难以实现无人机自主降落地点选择,无法实现无人机远程应急迫降的需求的问题。
为解决上述技术问题,一方面,本发明提供一种无人机降落区域的选择方法,包括:根据激光雷达传感器的地面扫描结果确定第一备选区域集合;根据光电传感器的地面扫描结果确定第二备选区域集合;确定所述第一备选区域集合和所述第二备选区域集合之间的交集区域,得到第三备选区域集合;从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
进一步,所述根据激光雷达传感器的地面扫描结果确定第一备选区域集合,包括:对点云数据进行滤波处理,其中,所述点云数据为所述激光雷达传感器的地面扫描结果;对滤波后的点云数据进行格子化降采样处理;对格子化降采样处理后的点云数据进行平坦区域拟合;从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合。
进一步,根据光电传感器的地面扫描结果确定第二备选区域集合,包括:提取光电影像的景深图像,其中,所述光电影像为所述光电传感器的地面扫描结果;对所述景深图像进行分割;从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合。
进一步,确定所述第一备选区域集合和第二备选区域集合之间的交集区域,得到第三备选区域集合,包括:将所述第一备选区域集合中的每一个备选区域与所述第二备选区域集合中的每一个备选区域进行交集处理;确定所述交集处理后得到的所有交集区域,将所述所有交集区域作为第三备选区域集合的元素。
进一步,所述第一预设条件至少包括:所述备选区域的面积大于所述无人机的垂直投影面积;所述无人机的垂直投影的长边的长度duav小于预设倍数的所述备选区域的内接圆半径R;所述备选区域的所有点到所述备选区域的拟合平面的距离差值小于预设距离,其中,所述备选区域的拟合平面为根据所述备选区域中曲率最小的点的邻域点进行拟合确定;所述备选区域的拟合平面的法线与水平面的法线最接近。
另一方面,本发明还提供一种无人机降落区域的选择装置,包括:第一确定模块,用于根据激光雷达传感器的地面扫描结果确定第一备选区域集合;第二确定模块,用于根据光电传感器的地面扫描结果确定第二备选区域集合;融合处理模块,用于确定所述第一备选区域集合和所述第二备选区域集合之间的交集区域,得到第三备选区域集合;选择模块,用于从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
进一步,所述第一确定模块,具体用于:对点云数据进行滤波处理,其中,所述点云数据为所述激光雷达传感器的地面扫描结果;对滤波后的点云数据进行格子化降采样处理;对格子化降采样处理后的点云数据进行平坦区域拟合;从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合。
进一步,所述第二确定模块,具体用于:提取光电影像的景深图像,其中,所述光电影像为所述光电传感器的地面扫描结果;对所述景深图像进行分割;从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合。
进一步,所述融合处理模块,具体用于:将所述第一备选区域集合中的每一个备选区域与所述第二备选区域集合中的每一个备选区域进行交集处理;确定所有交集区域,作为第三备选区域集合的元素。
进一步,所述第一预设条件至少包括:所述备选区域的面积大于所述无人机的垂直投影面积;所述无人机的垂直投影的长边的长度duav小于预设倍数的所述备选区域的内接圆半径R;所述备选区域的所有点到所述备选区域的拟合平面的距离差值小于预设距离,其中,所述备选区域的拟合平面为根据所述备选区域中曲率最小的点的邻近点进行拟合确定;所述备选区域的拟合平面的法线与水平面的法线最接近。
本发明通过分别进行激光雷达传感器扫描和光电传感器扫描两种地面扫描方式,在确定无人机的最佳降落区域时,融合根据上述两种方式的扫描结果确定的备选区域,根据备选区域的重合情况,选择满足第一预设条件的备选区域为无人机的降落区域,使无人机在运行过程可以自主进行降落区域选择,无需人为进行干预,达到了无人机远程应急迫降的需求,实现了无人机真正的无人化和智能化。
附图说明
图1是本发明第一实施例中无人机降落区域的选择方法的流程图;
图2是本发明第一实施例中根据激光雷达传感器的地面扫描结果确定第一备选区域集合的步骤流程图;
图3是本发明第一实施例中根据光电传感器的地面扫描结果确定第二备选区域集合的步骤流程图;
图4是本发明第二实施例中无人机降落区域的选择装置的结构示意图。
具体实施方式
为了解决现有技术难以实现无人机自主降落地点选择,无法实现无人机远程应急迫降的需求的问题,本发明提供了一种无人机降落区域的选择方法和装置,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不限定本发明。
本发明的第一实施例提供了一种无人机降落区域的选择方法,主要应用于无人机,且该无人机上应当携带有激光雷达传感器和双目光电传感器,其流程图如图1所示,主要包括步骤S101至步骤S104:
S101,根据激光雷达传感器的地面扫描结果确定第一备选区域集合。
无人机在实现本方法时,首先通过其自身携带的激光雷达传感器对当前激光雷达传感器可扫描范围内的地面情况进行扫描,其地面扫描结果为一系列的点云数据,在根据上述点云数据确定第一备选区域集合时,无人机具体执行以下步骤,如图2所示:
S1011,对点云数据进行滤波处理,主要用于对点云数据中大尺度的离散噪声点进行过滤;
S1012,对滤波后的点云数据进行格子化降采样处理;
S1013,对格子化降采样处理后的点云数据进行平坦区域拟合,以得到多个连续的具有相似平滑度表面的平坦区域;
S1014,从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合;这里的第二预设条件是指作为备选区域的平坦区域的法向量与竖直方向的夹角应小于预设夹角,以及作为备选区域的平坦区域内所有点与估计平面的距离小于预设距离的异常点个数小于预设数量,其中,估计平面为每个平坦区域内三个不共线的点对应的平面。
通过上述步骤,无人机通过携带的激光雷达传感器进行地面扫描,并根据扫描结果得到第一备选区域集合,达到在当前扫面范围内,识别出一个或多个连续的可供无人机进行降落的备选区域。
S102,根据光电传感器的地面扫描结果确定第二备选区域集合。
随后,无人机通过其自身携带的双目光电传感器对当前激光雷达传感器可扫描范围内的地面情况进行扫描,其地面扫描结果为两幅地面的光电影像,在根据上述光电影像确定第二备选区域集合时,无人机具体执行以下步骤,如图3所示:
S1021,提取光电影像的景深图像;具体地,首先对光电影像进行滤除和去噪操作后,通过对两幅光电图像进行左右区域匹配,得到匹配点对,并在原始光电影像中找到匹配点对应的位置,随后根据双目光电传感器的焦距、间距等参数,计算得到景深图像;
S1022,对景深图像进行分割,得到景深图像中的多个平坦区域;
S1023,从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合,这里的第二预设条件与步骤S1014中的第二预设条件相同。
通过上述步骤,无人机通过携带的双目光电传感器进行地面扫描,并根据扫描结果得到第二备选区域集合,达到在当前扫面范围内,识别出一个或多个连续的可供无人机进行降落的备选区域。
应当了解的是,步骤S101和步骤S102是两个并列的步骤,在实际执行是可以同时执行,本实施例中只是给出了一种实施方式,并不具体限定步骤S101和步骤S102的执行顺序。
S103,确定第一备选区域集合和第二备选区域集合之间的交集区域,得到第三备选区域集合。
具体地,第一备选区域集合和第二备选区域集合中分别有数量不定的多个备选区域,在进行交集区域确定时,要将第一备选区域集合中的每一个备选区域分别与第二备选区域集合中的每一个备选区域进行交集处理,将得到的所有交集区域作为元素,形成第三备选区域集合,以实现激光雷达传感器扫描和光电传感器扫描两种扫描方式的结果融合,保证降落区域的选择更加可靠。
S104,从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
第三备选区域集合中是经过激光雷达识别和光电影像识别两种识别方式同时识别并符合条件的备选区域,在此基础上,符合第一预设条件的备选区域即可以作为无人机的降落区域。具体地,第一预设条件主要包括以下内容,只有同时符合以下所有条件的备选区域才可以作为降落区域进行无人机降落:
(1)备选区域的面积大于无人机的垂直投影面积;
(2)无人机的垂直投影的长边的长度duav小于预设倍数的备选区域的内接圆半径R,通常预设倍数选择也可将预设倍数设置为2或3,具体以实际情况为准;
(3)备选区域的所有点到备选区域的拟合平面的距离差值小于预设距离,其中,备选区域的拟合平面为根据备选区域中曲率最小的点的邻域点进行拟合确定;
(4)备选区域的拟合平面的法线与水平面的法线最接近。
在实际进行降落区域选择实现时,可以根据上述条件依次进行备选区域的筛选。例如,备选区域的面积计算量较小,则在进行筛选时,可首先通过备选区域面积进行筛选,若当前某一备选区域的面积小于无人机的垂直投影面积,则无需进行其他计算量大的条件的判断,即可确定该备选区域无法作为降落区域,可进一步减少无人机的计算量,提升降落区域的筛选速度。
本实施例通过分别进行激光雷达传感器扫描和光电传感器扫描两种地面扫描方式,在确定无人机的最佳降落区域时,融合根据上述两种方式的扫描结果确定的备选区域,根据备选区域的重合情况,选择满足第一预设条件的备选区域为无人机的降落区域,使无人机在运行过程可以自主进行降落区域选择,无需人为进行干预,达到了无人机远程应急迫降的需求,实现了无人机真正的无人化和智能化。
下面结合计算公式和具体实施算法对上述无人机降落区域的选择方法的实现过程进行详细的说明。
S1,利用包围球滤波器和统计分析法滤除激光雷达点云数据中的大尺度离散噪声点,还可进一步使用三维点云边滤波方法再次进行滤波处理;
S2,对滤波后的点云数据进行格子化降采样,得到排列整齐、分布均匀的稀疏点云,在输入的稀疏点云中创建3D体素网格,然后在每个体素中,利用降采样的思想将体素内的点用其质心替换;
S3,对格子化降采样处理后的点云数据中所有点进行法线和曲率的计算,并根据曲率大小进行排序;
S4,取格子化降采样处理后的点云数据中曲率最小的点作为种子点添加至种子集合Ac中,并建立当前区域集合Tc;
S5,从Ac中取出一个种子点,使用K最邻近搜索方法寻找出该种子点在空间上最接近的邻域点,再计算所有邻域点的法线与当前种子点的法线之间的角度,若角度小于阈值θ=5°,则将对应的邻域点添加到Tc中;
S6,在S5添加至Tc的邻域点中,若任意一邻域点的曲率值小于预设曲率值α=5,则将该邻域点作为新的种子点添加至Ac中;
S7,重复执行步骤S5至S6,直到种子集合Ac为空集,此时当前区域集合Tc中即为分割出的块区域;
S8,从点云数据中删除已经分割出的块区域点集,并重复执行步骤S4至S7,直至将激光雷达点云数据分割为多个连续的具有相似平滑度表面的平坦区域;
S9,对于分割出的每一个平坦区域,从中任选3个不共线的点,计算出其对应的估计平面方程ax+by+cz=d,其中,x,y,z分别为任选的三个点的坐标,a,b,c,d为代表估计平面的参数;
S10,计算每个平坦区域内的所有点到该平坦区域对应的估计平面的距离Hi,i代表该平坦区域内不同的点,其中,Hi=|axi+byi+czi-d|,并计算Hi的标准差σi;设置距离阈值σt=2σi,若Hit,则该i点为异常点,记录每个平坦区域内异常点总数M和非异常点总数N;
S11,重复执行步骤S9和S10共计T=100次,按照每个平坦区域的N值从大到小进行排序,选取N的值前几位的平坦区域为备选区域,若同时该平坦区域的M>M+N/10,则该区域为不可降落区域,需从备选区域中剔除;
S12,计算每个作为备选区域的平坦区域的法向量与竖直方向(z方向)的夹角γj,j的数值不同代表不同的作为备选区域的平坦区域,若γj>4°,则保留该平坦区域作为备选区域,否则将该平坦区域剔除出备选区域,剩余的备选区域即构成第一备选区域集合;
S13,读入当前双目广电传感器的光电影像,对左右两幅光电影像进行滤除和去噪操作;
S14,对左右目标区域对进行SIFT精匹配,得到匹配点对,并利用RANSCA算法在原始图像帧中找到匹配点的对应位置;
S15,假设双目光电传感器左右两个传感器相机的中心位置分别为E1和E2,其间距为u,双目光电传感器的两个传感器相机的焦距均为f,特征点P在左右传感器影响平面上的投影分别为P1和P2,而P与E1E2间的距离为g,过E1E2垂线的垂足分别为Q1和Q2,P点图像面垂涎的垂足为S,令|Q1P1|=l1,|Q2P2|=l2,|P2S|=v,景深
S16,离散二维熵双阈值分割法对景深图像分割;
S17,对于分割出的每一块区域,从中任选3个不共线的像点,依据S9至S12相同的计算方式,确定第二备选区域集合;
S18,在光电传感器和激光雷达传感器定标且坐标系统一的基础上,判断激光雷达点云数据获取的备选区域重合情况,将第一备选区域集合中的每一个备选区域分别与第二备选区域集合中的每一个备选区域进行交集处理,将得到的所有交集区域作为元素,形成第三备选区域集合;
S19,剔除面积小于无人机的垂直投影面积的第三备选区域集合中的备选区域;
S20,对第三备选区域集合中剩余备选区域进行内接圆确定,且R为备选区域的内接圆半径,duav为无人机的垂直投影的长边的长度,若√2R>duav,则剔除该内接圆对应的备选区域;
S21,备选区域的所有点到备选区域的拟合平面的距离差值α0若小于预设距离0.1m,则保留该备选区域,其中,备选区域的拟合平面为根据备选区域中曲率最小的点的邻域点进行拟合确定;
S22,选择备选区域的拟合平面的法线与水平面的法线最接近的备选区域作为最佳的备选区域,即无人机的降落区。
在实际使用时,若当前扫描的地面范围内不存在可供降落的降落区域,则无人机可继续飞行并扫描下一地面范围,直至选出可供降落的区域即可。
本发明的第二实施例提供了一种无人机降落区域的选择装置,该选择装置被安置在无人机上,且该无人机上应同时携带有激光雷达传感器和双目光电传感器,并与选择装置连接通信。该选择装置的结构示意图如图4所示,主要包括:第一确定模块100,用于根据激光雷达传感器的地面扫描结果确定第一备选区域集合;第二确定模块200,用于根据光电传感器的地面扫描结果确定第二备选区域集合;融合处理模块300,分别与第一确定模块100和第二确定模块200耦合,用于确定第一备选区域集合和第二备选区域集合之间的交集区域,得到第三备选区域集合;选择模块400,与融合处理模块300耦合,用于从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
无人机在进行降落区域选择时,首先需要通过自身携带的激光雷达传感器对当前激光雷达传感器可扫描范围内的地面情况进行扫描,也可以同时使用其自身携带的双目光电传感器对同一片区域进行扫描,激光雷达传感器和双目光电传感器的扫描结果均输出至选择装置中,以实现降落区域选择。
第一确定模块100用于对激光雷达传感器的扫描结果进行处理以得到第一备选区域集合,并主要实现以下操作:对点云数据进行滤波处理,其中,所述点云数据为所述激光雷达传感器的地面扫描结果;对滤波后的点云数据进行格子化降采样处理;对格子化降采样处理后的点云数据进行平坦区域拟合;从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合。
第二确定模块200用于对双目光电传感器的扫描结果进行处理以得到第二备选区域集合,并主要实现以下操作:提取光电影像的景深图像,其中,所述光电影像为所述光电传感器的地面扫描结果;对所述景深图像进行分割;从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合。
应当了解的是,激光雷达传感器和双目光电传感器的扫描操作可以是同时进行,也可以按不同顺序扫描,因此,第一确定模块200和第二确定模块200在进行各自的备选区域集合确定时,可以根据各自输入数据的不同同时进行处理,也可以根据输入数据先后的不同进行不同时的处理,本实施例只是提供一种较佳的实施方式,并不限定其处理顺序。
在第一确定模块100和第二确定模块200确定第一备选区域集合和第二备选区域集合后,由融合处理模块300进行融合处理,主要通过将所述第一备选区域集合中的每一个备选区域与所述第二备选区域集合中的每一个备选区域进行交集处理,对交集处理后得到的所有交集区域作为第三备选区域集合的元素,实现激光雷达传感器扫描和光电传感器扫描两种扫描方式的结果融合,保证降落区域的选择更加可靠。
第三备选区域集合中是经过激光雷达识别和光电影像识别两种识别方式同时识别并符合条件的备选区域,在此基础上,选择模块400从中筛选出符合第一预设条件的备选区域即可以作为无人机的降落区域。具体地,第一预设条件主要包括以下内容,只有同时符合以下所有条件的备选区域才可以作为降落区域进行无人机降落:
(1)备选区域的面积大于无人机的垂直投影面积;
(2)无人机的垂直投影的长边的长度duav小于预设倍数的备选区域的内接圆半径R,通常预设倍数选择
(3)备选区域的所有点到备选区域的拟合平面的距离差值小于预设距离,其中,备选区域的拟合平面为根据备选区域中曲率最小的点的邻域点进行拟合确定;
(4)备选区域的拟合平面的法线与水平面的法线最接近。
在选择模块400实际进行降落区域选择实现时,可以根据上述条件依次进行备选区域的筛选。例如,备选区域的面积计算量较小,则在进行筛选时,可首先通过备选区域面积进行筛选,若当前某一备选区域的面积小于无人机的垂直投影面积,则无需进行其他计算量大的条件的判断,即可确定该备选区域无法作为降落区域,可进一步减少无人机的计算量,提升降落区域的筛选速度。
本实施例通过分别进行激光雷达传感器扫描和光电传感器扫描两种地面扫描方式,在确定无人机的最佳降落区域时,融合根据上述两种方式的扫描结果确定的备选区域,根据备选区域的重合情况,选择满足第一预设条件的备选区域为无人机的降落区域,使无人机在运行过程可以自主进行降落区域选择,无需人为进行干预,达到了无人机远程应急迫降的需求,实现了无人机真正的无人化和智能化。
尽管为示例目的,已经公开了本发明的优选实施例,本领域的技术人员将意识到各种改进、增加和取代也是可能的,因此,本发明的范围应当不限于上述实施例。

Claims (10)

1.一种无人机降落区域的选择方法,其特征在于,包括:
根据激光雷达传感器的地面扫描结果确定第一备选区域集合;
根据光电传感器的地面扫描结果确定第二备选区域集合;
确定所述第一备选区域集合和所述第二备选区域集合之间的交集区域,得到第三备选区域集合;
从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
2.如权利要求1所述的选择方法,其特征在于,所述根据激光雷达传感器的地面扫描结果确定第一备选区域集合,包括:
对点云数据进行滤波处理,其中,所述点云数据为所述激光雷达传感器的地面扫描结果;
对滤波后的点云数据进行格子化降采样处理;
对格子化降采样处理后的点云数据进行平坦区域拟合;
从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合。
3.如权利要求1所述的选择方法,其特征在于,根据光电传感器的地面扫描结果确定第二备选区域集合,包括:
提取光电影像的景深图像,其中,所述光电影像为所述光电传感器的地面扫描结果;
对所述景深图像进行分割;
从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合。
4.如权利要求1所述的选择方法,其特征在于,确定所述第一备选区域集合和第二备选区域集合之间的交集区域,得到第三备选区域集合,包括:
将所述第一备选区域集合中的每一个备选区域与所述第二备选区域集合中的每一个备选区域进行交集处理;
确定所述交集处理后得到的所有交集区域,将所述所有交集区域作为第三备选区域集合的元素。
5.如权利要求1至4中任一项所述的选择方法,其特征在于,所述第一预设条件至少包括:
所述备选区域的面积大于所述无人机的垂直投影面积;
所述无人机的垂直投影的长边的长度duav小于预设倍数的所述备选区域的内接圆半径R;
所述备选区域的所有点到所述备选区域的拟合平面的距离差值小于预设距离,其中,所述备选区域的拟合平面为根据所述备选区域中曲率最小的点的邻域点进行拟合确定;
所述备选区域的拟合平面的法线与水平面的法线最接近。
6.一种无人机降落区域的选择装置,其特征在于,包括:
第一确定模块,用于根据激光雷达传感器的地面扫描结果确定第一备选区域集合;
第二确定模块,用于根据光电传感器的地面扫描结果确定第二备选区域集合;
融合处理模块,用于确定所述第一备选区域集合和所述第二备选区域集合之间的交集区域,得到第三备选区域集合;
选择模块,用于从第三备选区域集合中选择符合第一预设条件的备选区域作为无人机的降落区域。
7.如权利要求6所述的选择装置,其特征在于,所述第一确定模块,具体用于:
对点云数据进行滤波处理,其中,所述点云数据为所述激光雷达传感器的地面扫描结果;
对滤波后的点云数据进行格子化降采样处理;
对格子化降采样处理后的点云数据进行平坦区域拟合;
从拟合得出的平坦区域中筛选出符合第二预设条件的备选区域,得到第一备选区域集合。
8.如权利要求6所述的选择装置,其特征在于,所述第二确定模块,具体用于:
提取光电影像的景深图像,其中,所述光电影像为所述光电传感器的地面扫描结果;
对所述景深图像进行分割;
从分割后的景深图像中筛选出符合第二预设条件的备选区域,得到第二备选区域集合。
9.如权利要求6所述的选择装置,其特征在于,所述融合处理模块,具体用于:
将所述第一备选区域集合中的每一个备选区域与所述第二备选区域集合中的每一个备选区域进行交集处理;
确定所有交集区域,作为第三备选区域集合的元素。
10.如权利要求6至9中任一项所述的选择装置,其特征在于,所述第一预设条件至少包括:
所述备选区域的面积大于所述无人机的垂直投影面积;
所述无人机的垂直投影的长边的长度duav小于预设倍数的所述备选区域的内接圆半径R;
所述备选区域的所有点到所述备选区域的拟合平面的距离差值小于预设距离,其中,所述备选区域的拟合平面为根据所述备选区域中曲率最小的点的邻近点进行拟合确定;
所述备选区域的拟合平面的法线与水平面的法线最接近。
CN201910286903.3A 2019-04-11 2019-04-11 一种无人机降落区域的选择方法和装置 Active CN110197489B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910286903.3A CN110197489B (zh) 2019-04-11 2019-04-11 一种无人机降落区域的选择方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910286903.3A CN110197489B (zh) 2019-04-11 2019-04-11 一种无人机降落区域的选择方法和装置

Publications (2)

Publication Number Publication Date
CN110197489A true CN110197489A (zh) 2019-09-03
CN110197489B CN110197489B (zh) 2021-11-16

Family

ID=67751853

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910286903.3A Active CN110197489B (zh) 2019-04-11 2019-04-11 一种无人机降落区域的选择方法和装置

Country Status (1)

Country Link
CN (1) CN110197489B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115016545A (zh) * 2022-08-05 2022-09-06 四川腾盾科技有限公司 无人机着陆的着陆点自主选择方法、设备及介质
EP4102332A1 (de) * 2021-06-11 2022-12-14 Spleenlab GmbH Verfahren zum steuern einer flugbewegung eines fluggeräts zum landen oder zum abwerfen einer ladung sowie fluggerät
CN116721118A (zh) * 2023-08-11 2023-09-08 之江实验室 一种基于点云的飞行器安全降落点的选择方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700551A (zh) * 2016-01-27 2016-06-22 浙江大华技术股份有限公司 无人机降落区域确定方法、无人机降落方法及相关装置
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN106054903A (zh) * 2016-07-27 2016-10-26 中南大学 一种多旋翼无人机自适应降落方法及系统
CN107278282A (zh) * 2016-09-29 2017-10-20 深圳市大疆创新科技有限公司 路径规划的方法、装置、飞行控制系统、全方位避障系统与无人机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700551A (zh) * 2016-01-27 2016-06-22 浙江大华技术股份有限公司 无人机降落区域确定方法、无人机降落方法及相关装置
CN105892489A (zh) * 2016-05-24 2016-08-24 国网山东省电力公司电力科学研究院 一种基于多传感器融合的自主避障无人机系统及控制方法
CN106054903A (zh) * 2016-07-27 2016-10-26 中南大学 一种多旋翼无人机自适应降落方法及系统
CN107278282A (zh) * 2016-09-29 2017-10-20 深圳市大疆创新科技有限公司 路径规划的方法、装置、飞行控制系统、全方位避障系统与无人机

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
WEIWEI KONG 等: "Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system", 《W2013 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
万富华: "基于多传感器的无人机定位和避障技术研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 *
袁斌: "视觉辅助无人直升机自主着降技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
黄建宇 等: "无人飞行器自主降落区识别方法研究", 《液晶与显示》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4102332A1 (de) * 2021-06-11 2022-12-14 Spleenlab GmbH Verfahren zum steuern einer flugbewegung eines fluggeräts zum landen oder zum abwerfen einer ladung sowie fluggerät
US20220397913A1 (en) * 2021-06-11 2022-12-15 Spleenlab GmbH Method for Controlling a Flight Movement of an Aerial Vehicle for Landing or for Dropping a Cargo, and Aerial Vehicle
CN115016545A (zh) * 2022-08-05 2022-09-06 四川腾盾科技有限公司 无人机着陆的着陆点自主选择方法、设备及介质
CN116721118A (zh) * 2023-08-11 2023-09-08 之江实验室 一种基于点云的飞行器安全降落点的选择方法及装置
CN116721118B (zh) * 2023-08-11 2024-01-09 之江实验室 一种基于点云的飞行器安全降落点的选择方法及装置

Also Published As

Publication number Publication date
CN110197489B (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
CN112489212B (zh) 一种基于多源遥感数据的建筑物智能化三维测图方法
Hosni et al. Local stereo matching using geodesic support weights
CN106846344B (zh) 一种基于边缘完备度的图像分割最优识别方法
JP6706788B2 (ja) 画像認識方法、画像認識装置およびプログラム
CN110197489A (zh) 一种无人机降落区域的选择方法和装置
Li et al. An overlapping-free leaf segmentation method for plant point clouds
CN106951905A (zh) 一种基于tof相机的树上苹果识别与定位方法
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN108460780A (zh) 一种基于背景骨架特征的粘连米粒图像分割方法
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
CN108596187A (zh) 商品纯净度检测方法及展示柜
CN108919295A (zh) 机载LiDAR点云道路信息提取方法及装置
CN109829881A (zh) 基于深度学习的鸟巢检测方法及系统
CN106327576B (zh) 一种城市场景重建方法及系统
CN109785307A (zh) 一种基于矢量引导的无人机影像道路损毁评估方法
CN114648637B (zh) 一种基于机器视觉的混凝土自动振捣方法及系统
CN105203778A (zh) 三维重建式矿石品位分析装置及方法
CN106415606B (zh) 一种基于边缘的识别、系统和方法
Smits et al. Individual tree identification using different LIDAR and optical imagery data processing methods
CN106600552A (zh) 纹理图像补全方法及装置
CN108846364A (zh) 一种基于fpga的视频特征检测方法和系统
CN113867410A (zh) 一种无人机航拍数据的采集模式识别方法和系统
CN112760756B (zh) 一种基于人工智能的纺织过程自适应清棉系统
CN106228602A (zh) 三维车辆备选区域的确定方法、装置及车载设备
CN116258958B (zh) 一种同源高分辨率影像和dsm数据的建筑物提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant