CN110243381B - 一种陆空机器人协同感知监测方法 - Google Patents

一种陆空机器人协同感知监测方法 Download PDF

Info

Publication number
CN110243381B
CN110243381B CN201910624661.4A CN201910624661A CN110243381B CN 110243381 B CN110243381 B CN 110243381B CN 201910624661 A CN201910624661 A CN 201910624661A CN 110243381 B CN110243381 B CN 110243381B
Authority
CN
China
Prior art keywords
robot
map
ground
air
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910624661.4A
Other languages
English (en)
Other versions
CN110243381A (zh
Inventor
岳裕丰
王美玲
骆健恒
翟朝阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201910624661.4A priority Critical patent/CN110243381B/zh
Publication of CN110243381A publication Critical patent/CN110243381A/zh
Application granted granted Critical
Publication of CN110243381B publication Critical patent/CN110243381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种陆空机器人协同感知监测方法,空中机器人和地面机器人通过处理原始图像和点云数据构建三维地图,提取高维特征用于构建地图增广描述子,先利用陆空机器人各自提取的描述子进行初步定位,再将初步定位结果作为陆空机器人的初始姿态,再利用三维概率地图进行密集匹配,实现精确定位,最终实现全局地图精确融合;由于本发明的陆空机器人之间只发送三维栅格概率地图,因此不要求高带宽网络,提高了环境感知的效率和鲁棒性。

Description

一种陆空机器人协同感知监测方法
技术领域
本发明属于智能机器人技术领域,具体涉及一种陆空机器人协同感知监测方法。
背景技术
公共安全领域涉及自然灾害和安全事故等领域,急需对场地进行全方位的态势感知和实时监测,全面迅速探明情况。当前的公共安全感知预警主要依赖于固定摄像机,对突发事件、摄像头无法覆盖等情况缺乏实时感知能力。
应用智能机器人可提供移动的实时感知监测能力,在近两年受到社会各界的广泛关注。现有的智能机器人平台均为单一载体的解决方案,比如无人车或无人机。单一机器人平台在面临快速响应、机动部署和复杂环境等综合任务时往往面临着巨大的挑战。无人车具备了载荷充足,执行时间长的优势,但机动性能不足且视野有限。空中无人机在具有广域监控,灵活机动,快速部署等优点,但受到续航不足和载荷有限的限制。并且,在有限带宽通讯的情况下,难以实现对原始数据的实时传输,必须提取高维特征地图来表征环境。当前主流陆空协同监测方法均假设通讯带宽没有限制,通过共享原始数据的方式获取全局信息。因此,迫切需要一个系统去结合无人机和无人车的各自优势,使公共安全感知进入空地协同一体化的时代。
发明内容
有鉴于此,本发明的目的是提供一种陆空机器人协同感知监测方法,可实现全局地图精确融合。
一种陆空机器人协同感知监测方法,包括如下步骤:
步骤1、空中机器人通过相机获取监测区域的图像信息,地面机器人通过三维激光获取监测区域的激光点云信息;
步骤2、空中机器人利用图像信息生成空中机器人三维栅格概率地图muav,地面机器人利用激光点云信息生成三维栅格概率地图mugv
步骤3、空中机器人与地面机器人之间将各自的三维栅格概率地图发送给对方;
步骤4、空中机器人与地面机器人对自身和从对方机器人接收的三维栅格概率地图中每个三维栅格的几何特征进行提取,其中第i个栅格的几何特征表示为feature(i)=[xi,yi,zi,αi,βi,γi,pi];[xi,yi,zi]代表第i个栅格的几何坐标,[αi,βi,γi]表示第i个栅格的三维栅格边界轮廓,pi为第i个栅格的栅格概率;将空中机器人三维栅格概率地图提取的所有几何特征构建成空中机器人的增广描述子集合guav;将地面机器人三维栅格概率地图提取的所有几何特征构建成地面机器人的增广描述子集合gugv
步骤5、将步骤4提取的空中机器人增广描述子guav与地面机器人增广描述子gugv进行匹配,则地图匹配概率为:
Figure BDA0002126694680000021
其中T表示空中机器人与地面机器人之间的姿态转换矩阵;求得满足式(1)所示条件的姿态转换矩阵,记为Tinitial
Tinitial=min(-log p(gugv|T,guav)) (1)
步骤6,将步骤5获得的姿态转换矩阵Tinitial作为陆空机器人之间的初始姿态转换矩阵,再对空中机器人三维栅格概率地图muav和地面机器人三维栅格概率地图mugv进行匹配,则栅格匹配概率为:
Figure BDA0002126694680000031
然后求得满足式(2)所示条件的姿态转换矩阵,记为Tfinal
Tfinal=min(-log p(mugv|T,(Tinitial×muav)) (2);
步骤7、利用步骤6获得的姿态转换矩阵Tfinal,将空中机器人三维栅格概率地图转移到地面机器人的坐标系中:Tfinal×muav;然后空中机器人三维栅格概率地图Tfinal×muav和地面机器人三维栅格概率地图mugv进行地图融合,得到全局地图。
较佳的,所述步骤5中,采用梯度下降的优化算法,通过对转换矩阵T进行不断更新,获得满足所述公式(1)的姿态转换矩阵Tinitial
较佳的,所述步骤6中,采用梯度下降的优化算法,通过对转换矩阵T进行不断更新,获得满足所述公式(2)的姿态转换矩阵Tfinal
进一步的,所述步骤7中,在地图融合之前,利用相对熵值滤波器计算空中机器人和地面机器人三维栅格概率地图中两个对应栅格之间的KL-差异值,如果KL-差异值小于设定值时,则对应栅格进行融合;反之两个对应栅格不进行融合,最后融合地图中仍保留两个对应栅格的值。
较佳的,所述步骤7中,所述设定值取0.1.
较佳的,所述对应栅格进行融合时,将两个对应栅格的概率值求平均,作为最后的融合值,保存在融合后全局地图中。
较佳的,三维栅格概率地图的栅格概率为当前时刻概率和上一时刻概率之和。
本发明具有如下有益效果:
本发明的一种陆空机器人协同感知监测方法,空中机器人和地面机器人通过处理原始图像和点云数据构建三维地图,提取高维特征用于构建地图增广描述子,先利用陆空机器人各自提取的描述子进行初步定位,再将初步定位结果作为陆空机器人的初始姿态,再利用三维概率地图进行密集匹配,实现精确定位,最终实现全局地图精确融合;由于本发明的陆空机器人之间只发送三维栅格概率地图,因此不要求高带宽网络,提高了环境感知的效率和鲁棒性。
具体实施方式
针对当前陆空感知方法均假设通讯带宽充足并直接传输原始数据,导致在低带宽通讯环境下无法实现实时数据传输和感知。为解决该问题,本发明提供一种陆空机器人协同感知监测方法,空中机器人和地面机器人通过处理原始图像和点云数据构建三维地图,提取高维特征用于构建地图增广描述子,应用多层次概率定位框架实现精确定位并使用基于相对熵值滤波器的地图融合技术实现全局地图融合,提供全局感知信息。为使本发明的目的、技术方案和优势更加清晰,以下结合具体实施案例对本发明进一步详细说明。
步骤1,多源传感器融合:从空中机器人、地面机器人平台上的多种机载传感器获取原始数据,具体的讲,空中机器人通过相机获取图像信息,地面机器人通过三维激光获取激光点云信息。
步骤2,单机地图构建:将从步骤1生产的图像和激光点云原始数据处理后构建单机器人三维栅格概率地图。具体的步骤是将机器人平台r生成的三维栅格概率地图表征为mr,该概率地图由三维栅格组成mr,i,i=1,2,...,N,N表示三维栅格的个数;zi 1:t表示该机器人平台从时刻1:t得到的对应i栅格的原始数据观测(图像或激光点云),三维栅格概率地图通过融合原始观测数据构建,其概率
Figure BDA0002126694680000041
由过去时刻
Figure BDA0002126694680000042
和当前时刻
Figure BDA0002126694680000043
概率更新而成,即
Figure BDA0002126694680000051
通过此过程可生成地面机器人三维栅格概率地图mugv和空中机器人三维栅格概率地图muav。与传统基于原始数据的环境表征方式不同,该概率地图具备跟随环境变化实时更新的特点,具有良好的动态环境适应性。此外,相比于占据大量存储空间的原始数据,该三位地图具有数据占空间小的优势适合在多机器人之间通讯共享。
步骤3,分布式数据传输:空中机器人与地面机器人在不依靠地面中转基站的情况下,空中机器人与地面机器人之间进行实时信息共享。该方式的主要特点为仅传递陆空机器人地图mugv和muav,不传递原始图像和激光数据,极大的减少了通讯冗余量,保证机器人之间实现实时通讯。
步骤4,增广描述子提取:
针对每一个机器人,对自身以及从对方机器人接收的三维栅格概率地图分别进行高维几何特征提取,每一幅三维栅格概率地图对应提取到各个三维栅格的几何特征feature(i),每个特征feature(i)=[xi,yi,zi,αi,βi,γi,pi]使用七维向量描述,通过遍历地图中每个栅格mr,i计算对应feature(i)。具体的讲,[xi,yi,zi]代表该栅格的几何坐标系,可直接从三维栅格概率地图中提取;[αi,βi,γi]代表是三维边界轮廓,可通过
Figure BDA0002126694680000052
进行计算(j表示i栅格的相邻序号);pi为栅格概率,可通过
Figure BDA0002126694680000053
得到。在得到每个特征feature(i)的基础上,将提取的所有feature(i)构建地图的增广描述子集合gm={feature(i)},其中,空中机器人的增广描述子集合用guav表示,地面机器人利用增广描述子集合用gugv表示。该步骤的主要特点在使用gm用以表征三维地图的高维几何特征,而传统方法仅通过几何坐标系[xi,yi,zi]表征三维地图。
步骤5,陆空协同初步定位:采用步骤4提取的增广描述子集合用于表征地图,利用概率匹配框架使空中机器人与地面机器人利用增广描述子gugv和guav进行初步定位,求得空中机器人与地面机器人之间的位置转换矩阵T。传统算法通常是基于坐标系绝对误差距离,缺乏概率表征特性。。陆空机器人地图间的匹配概率为
Figure BDA0002126694680000061
其中,
Figure BDA0002126694680000062
表示其概率大小反比于匹配误差,即匹配误差越小,概率越大。该匹配算法的创新特点在于使用梯度下降的优化算法,对陆空机器人地图间的匹配概率进行迭代。迭代过程将会执行1:N次,在第n次迭代过程中陆空机器人之间的定位误差将会不断减小,在每一次迭代过程中其姿态转换矩阵T将得到更新,并得到新的匹配概率。随后,第n次迭代过程输出的姿态转换矩阵T,将会作为第n+1次迭代过程转换矩阵T的输入。该匹配算法将会迭代执行,直到匹配概率误差低于规定阈值时停止迭代,并通过计算获得姿态转换矩阵Tinitial
Tinitial=min(-log p(gugv|T,guav))
步骤6,陆空协同高精定位:根据步骤5获得的陆空机器人此时的姿态转换矩阵Tinitial,得到该姿态转换下陆空机器人的初步定位的关系。此时,该算法将姿态转换矩阵Tinitial作为输入,继续进行三维地图mugv和muav间栅格的密集匹配,该匹配算法通过搜索最邻近节点并建立概率关联
Figure BDA0002126694680000063
使用梯度下降的优化算法使地图之间的匹配误差不断减小,实现精确定位达到毫米级。迭代过程将会执行1:K次,在第k次迭代过程中陆空机器人之间的定位误差将会不断减小,在每一次迭代过程中其相对姿态转换矩阵T将得到更新,并得到新的匹配概率。随后,第k次迭代过程输出的转换矩阵T,将会作为第k+1次迭代过程转换矩阵T的输入。通过提出步骤5-6的多层次概率定位算法,可以在不依赖原始数据的基础上,通过使用增广描述子和栅格提高定位算法的收敛速度,并提高定位精度。
Tfinal=min(-log p(mugv|T,(Tinitial×muav))
步骤7,全局地图融合:在获取精确定位信息Tfinal的基础上,利用转移矩阵关系Tfinnal×muav将空中机器人地图转移到地面机器人的坐标系mugv中并进行地图融合(也可利用转移矩阵关系Tfinal -1×mugv将地面机器人地图转移到空中机器人的坐标系muav)。在地图融合的过程中,该算法采用相对熵值滤波器计算空中机器人地图栅格muav,i和地面机器人地图栅格mugv,j(mugv,j表示相对于空中机器人地图栅格muav,i的匹配对)的差异值
Figure BDA0002126694680000071
该KLi,j值用于表征两个概率地图概率栅格muav,i,mugv,j之间的差异性。该阈值大小可根据对地图融合的容错度来设定,通常情况下可设置为0.1。全局融合地图M={Ml}l=(1:Z)(Z表示全局地图栅格个数)当差异性KLi,j小于某阈值时,将两个栅格进行融合并使
Figure BDA0002126694680000072
若差异值大于某阈值,则拒绝对应栅格,并将两个栅格直接输入全局地图中,使Ml,l+1={mugv,j,muav,i}。最终,M表示最终融合生成的全局三维概率栅格地图。该步骤的创新在于拒绝融合熵值增大的匹配队并接受使融合熵值减小的匹配队,相比传统方法可进一步通过滤波实现的全局地图获得最小平均熵值。
本发明的算法的硬件平台可选为空中机器人和地面机器人。其中,空中机器人平台包括无人机平台,微型处理器,卫星定位系统,飞控系统,照相机,二维激光雷达,电池系统,通讯设备等;地面机器人平台包括无人车平台,中央处理器,图形处理器,卫星定位系统,双目视觉相机,三维激光雷达,电池系统,通讯设备等。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种陆空机器人协同感知监测方法,其特征在于,包括如下步骤:
步骤1、空中机器人通过相机获取监测区域的图像信息,地面机器人通过三维激光获取监测区域的激光点云信息;
步骤2、空中机器人利用图像信息生成空中机器人三维栅格概率地图muav,地面机器人利用激光点云信息生成三维栅格概率地图mugv
步骤3、空中机器人与地面机器人之间将各自的三维栅格概率地图发送给对方;
步骤4、空中机器人与地面机器人对自身和从对方机器人接收的三维栅格概率地图中每个三维栅格的几何特征进行提取,其中第i个栅格的几何特征表示为feature(i)=[xi,yi,zi,αi,βi,γi,pi];[xi,yi,zi]代表第i个栅格的几何坐标,[αi,βi,γi]表示第i个栅格的三维栅格边界轮廓,pi为第i个栅格的栅格概率;将空中机器人三维栅格概率地图提取的所有几何特征构建成空中机器人的增广描述子集合guav;将地面机器人三维栅格概率地图提取的所有几何特征构建成地面机器人的增广描述子集合gugv
步骤5、将步骤4提取的空中机器人增广描述子guav与地面机器人增广描述子gugv进行匹配,则地图匹配概率为:
Figure FDA0002647062090000011
其中T表示空中机器人与地面机器人之间的姿态转换矩阵;求得满足式(1)所示条件的姿态转换矩阵,记为Tinitial
Tinitial=min(-log p(gugv|T,guav)) (1)
步骤6,将步骤5获得的姿态转换矩阵Tinitial作为陆空机器人之间的初始姿态转换矩阵,再对空中机器人三维栅格概率地图muav和地面机器人三维栅格概率地图mugv进行匹配,则栅格匹配概率为:
Figure FDA0002647062090000021
然后求得满足式(2)所示条件的姿态转换矩阵,记为Tfinal
Tfinal=min(-log p(mugv|T,(Tinitial×muav)) (2);
步骤7、利用步骤6获得的姿态转换矩阵Tfinal,将空中机器人三维栅格概率地图转移到地面机器人的坐标系中:Tfinal×muav;然后空中机器人三维栅格概率地图Tfinal×muav和地面机器人三维栅格概率地图mugv进行地图融合,得到全局地图;
其中,在地图融合之前,利用相对熵值滤波器计算空中机器人和地面机器人三维栅格概率地图中两个对应栅格之间的KL-差异值,如果KL-差异值小于设定值时,则对应栅格进行融合,将两个对应栅格的概率值求平均,作为最后的融合值,保存在融合后全局地图中;反之两个对应栅格不进行融合,最后融合地图中仍保留两个对应栅格的值。
2.如权利要求1所述的陆空机器人协同感知监测方法,其特征在于,所述步骤5中,采用梯度下降的优化算法,通过对转换矩阵T进行不断更新,获得满足所述公式(1)的姿态转换矩阵Tinitial
3.如权利要求1所述的陆空机器人协同感知监测方法,其特征在于,所述步骤6中,采用梯度下降的优化算法,通过对转换矩阵T进行不断更新,获得满足所述公式(2)的姿态转换矩阵Tfinal
4.如权利要求1所述的陆空机器人协同感知监测方法,其特征在于,所述步骤7中,所述设定值取0.1。
5.如权利要求1所述的陆空机器人协同感知监测方法,其特征在于,三维栅格概率地图的栅格概率为当前时刻概率和上一时刻概率之和。
CN201910624661.4A 2019-07-11 2019-07-11 一种陆空机器人协同感知监测方法 Active CN110243381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910624661.4A CN110243381B (zh) 2019-07-11 2019-07-11 一种陆空机器人协同感知监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910624661.4A CN110243381B (zh) 2019-07-11 2019-07-11 一种陆空机器人协同感知监测方法

Publications (2)

Publication Number Publication Date
CN110243381A CN110243381A (zh) 2019-09-17
CN110243381B true CN110243381B (zh) 2020-10-30

Family

ID=67891879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910624661.4A Active CN110243381B (zh) 2019-07-11 2019-07-11 一种陆空机器人协同感知监测方法

Country Status (1)

Country Link
CN (1) CN110243381B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110898353A (zh) * 2019-12-09 2020-03-24 国网智能科技股份有限公司 变电站消防机器人全景监控与联动控制方法及系统
CN110975194A (zh) * 2019-12-09 2020-04-10 国网智能科技股份有限公司 一种变电站消防机器人辅助方法及系统
CN111401779B (zh) * 2020-03-31 2021-10-08 上海擎朗智能科技有限公司 机器人的定位部署方法、装置、设备及存储介质
CN112380935B (zh) * 2020-11-03 2023-05-26 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
CN112419461A (zh) * 2020-11-16 2021-02-26 北京理工大学 一种协同无人系统联合语义建图方法
CN115204500B (zh) * 2022-07-21 2023-08-22 同济大学 面向虫害监测的多检测机器人数字孪生管理系统及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
WO2016033797A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN206709853U (zh) * 2017-04-06 2017-12-05 南京航空航天大学 一种多旋翼无人机室内同步定位与建图系统
EP3306346A1 (en) * 2016-10-07 2018-04-11 Leica Geosystems AG Flying sensor
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109579843A (zh) * 2018-11-29 2019-04-05 浙江工业大学 一种空地多视角下的多机器人协同定位及融合建图方法
CN109615698A (zh) * 2018-12-03 2019-04-12 哈尔滨工业大学(深圳) 基于互回环检测的多无人机slam地图融合算法
CN109934868A (zh) * 2019-03-18 2019-06-25 北京理工大学 一种基于三维点云与卫星图匹配的车辆定位方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803270A (zh) * 2017-01-13 2017-06-06 西北工业大学深圳研究院 无人机平台基于单目slam的多关键帧协同地面目标定位方法
CN109459023B (zh) * 2018-09-18 2021-07-16 武汉三体机器人有限公司 一种基于无人机视觉slam的辅助地面机器人导航方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
WO2016033797A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
EP3306346A1 (en) * 2016-10-07 2018-04-11 Leica Geosystems AG Flying sensor
CN206709853U (zh) * 2017-04-06 2017-12-05 南京航空航天大学 一种多旋翼无人机室内同步定位与建图系统
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109579843A (zh) * 2018-11-29 2019-04-05 浙江工业大学 一种空地多视角下的多机器人协同定位及融合建图方法
CN109615698A (zh) * 2018-12-03 2019-04-12 哈尔滨工业大学(深圳) 基于互回环检测的多无人机slam地图融合算法
CN109934868A (zh) * 2019-03-18 2019-06-25 北京理工大学 一种基于三维点云与卫星图匹配的车辆定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Framework for automated registration of UAV and UGV point clouds using local features in images;Jisoo Park, Pileun Kim, Yong K. Cho, Junsuk Kang;《Automation in Construction》;20190228;全文 *
Lane Detection and Classification for Forward Collision Warning System Based on Stereo Vision;Song W , Yang Y , Fu M , et al;《 IEEE Sensors Journal》;20181231;全文 *
低成本激光和视觉相结合的同步定位与建图研究;尹磊等;《集成技术》;20190331;第8卷(第2期);全文 *

Also Published As

Publication number Publication date
CN110243381A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110243381B (zh) 一种陆空机器人协同感知监测方法
CN113359810B (zh) 一种基于多传感器的无人机着陆区域识别方法
CN105865454B (zh) 一种基于实时在线地图生成的无人机导航方法
CN102190081B (zh) 基于视觉的飞艇定点鲁棒控制方法
CN109739254B (zh) 一种电力巡检中采用视觉图像定位的无人机及其定位方法
WO2022077817A1 (zh) 一种基于视觉与性能约束的多无人机协同控制方法及系统
CN108759826B (zh) 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法
JP2022077976A (ja) 画像ベースの測位方法及びシステム
Bao et al. Vision-based horizon extraction for micro air vehicle flight control
WO2022193106A1 (zh) 一种通过惯性测量参数将gps与激光雷达融合定位的方法
CN111913492A (zh) 无人机安全降落方法和装置
CN110706273A (zh) 一种基于无人机的实时塌方区域面积的测量方法
Mittal et al. Vision-based autonomous landing in catastrophe-struck environments
Doitsidis et al. 3d surveillance coverage using maps extracted by a monocular slam algorithm
Warren et al. High altitude stereo visual odometry
CN115797256A (zh) 基于无人机的隧道岩体结构面信息的处理方法以及装置
Rojas-Perez et al. Real-time landing zone detection for UAVs using single aerial images
CN113807435A (zh) 一种基于多传感器的遥感图像特征点高程获取方法
CN208128294U (zh) 一种无人机基站式交互系统
CN115755950A (zh) 一种基于激光雷达和相机数据融合的无人机定点降落方法
Li et al. Prediction of wheat gains with imagery from four-rotor UAV
CN115144879A (zh) 一种多机多目标动态定位系统及方法
CN114459467A (zh) 一种未知救援环境中基于vi-slam的目标定位方法
Yang et al. An optimization-based selection approach of landing sites for swarm unmanned aerial vehicles in unknown environments
Alamouri et al. The joint research project ANKOMMEN–Exploration using automated UAV and UGV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant