CN113140004B - 一种基于激光雷达的无人系统快速重定位方法和装置 - Google Patents

一种基于激光雷达的无人系统快速重定位方法和装置 Download PDF

Info

Publication number
CN113140004B
CN113140004B CN202110440727.1A CN202110440727A CN113140004B CN 113140004 B CN113140004 B CN 113140004B CN 202110440727 A CN202110440727 A CN 202110440727A CN 113140004 B CN113140004 B CN 113140004B
Authority
CN
China
Prior art keywords
point cloud
feature
feature description
matrix
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110440727.1A
Other languages
English (en)
Other versions
CN113140004A (zh
Inventor
赖际舟
温烨贝
吕品
何洪磊
李志敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110440727.1A priority Critical patent/CN113140004B/zh
Publication of CN113140004A publication Critical patent/CN113140004A/zh
Application granted granted Critical
Publication of CN113140004B publication Critical patent/CN113140004B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开一种基于激光雷达的无人系统快速重定位方法和装置,包括:采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿,形成点云存储单元进行存储,构建点云特征资源池;基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位。采用本发明的技术方案,通过特征描述矩阵以及特征描述向量实现对查询点云的快速搜索,实现初始定位。相比传统算法具有查找效率、可靠性高的优点。

Description

一种基于激光雷达的无人系统快速重定位方法和装置
技术领域
本发明属于自主导航领域,具体涉及一种基于激光雷达的无人系统快速重定位方法和装置。
背景技术
针对机器人的室内导航问题,当前工程上主流的导航方案为:首先通过多源信息融合算法构建高精度激光点云地图,随后将无人设备实时激光雷达数据与构建的先验地图匹配从而获得机体位姿。该过程首先需将机体系与地图系对齐,实现机体位姿初始化。因此,在机器人应用中,载体的全局初始定位是一个重要的问题。初始定位可以为基于高精度地图定位的无人系统提供精准的初始位姿,便于点云初始配准的快速收敛。然而当前工业上尚没有较为成熟的基于激光雷达的无人系统全局初始定位方案,各厂商采取的主要方案为通过固定车房、充电桩等已知位置信息的标志物作为无人系统自主定位的起点。此外还有视觉中基于“词袋”模型的全局初始位姿识别方案,然而,由于光照变化以及场景短期(如移动物体)或长期(如季节)的变化,视觉的场景识别存在固有的困难。相似的环境可能发生在不同的位置,经常导致感知混淆。
与视觉传感器相比,激光雷达由于其对感知差异的强不变性可以有效避免该问题。但是激光点云特征丰富性不及视觉,只能依靠结构特征信息进行匹配。在结构特征较为丰富的场景下,可以通过点云粗配准的方法进行机体的初始定位,然而受限于特征配准的收敛性,该方法不适用于位姿差异过大的两帧点云。
发明内容
针对上述现有技术的缺陷,本发明提供一种基于激光雷达的无人系统快速重定位方法和装置,通过特征描述矩阵以及特征描述向量实现对查询点云的快速搜索,实现初始定位。相比传统算法具有查找效率、可靠性高的优点。
本发明为解决上述技术问题采用以下技术方案:
一种基于激光雷达的无人系统快速重定位方法,包括:
步骤1、采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
步骤2、基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位。
作为优选,步骤1具体包括:
步骤11、构建特征描述矩阵
根据激光雷达环境探测的结构特征,设点云三维坐标为(px,py,pz),按照下式构建点云特征描述矩阵Sc
Sc(prow,pcol)=maxpz
其中,prow表示该点的归一化深度,pcol表示该点归一化角度;
步骤12、构建特征描述向量,即
其中,Srow为特征描述向量,为特征矩阵列向量,Nc为特征描述矩阵的列数;
步骤13、在激光雷达数据采集过程中获取点云位姿;
步骤14、构建点云存储单元结构,即,其中,Sc,k表示第k帧点云的特征描述矩阵,Srow,k表示特征描述向量以及Pk表示点云位姿。
作为优选,步骤2具体包括:
步骤21、通过特征描述向量实现候选点云的快速聚类
计算查询点云特征向量与资源池中点云特征向量/>的距离disrow
步骤22、通过特征描述矩阵从候选点云中选取最优匹配解通过如下式所示距离函数计算两特征描述矩阵之间的最小偏差:
其中,是由/>列向量偏移n位后形成的特征描述矩阵,并且:
其中,分别表示目标点云与输入点云特征矩阵的第k列向量,
获取距离最小点云的位姿即为无人系统的初始位姿。
作为优选,还包括:步骤3、对特征存储资源池的更新。
作为优选,步骤3具体包括:
步骤31、根据建图环境的水平空间尺寸大小lx×ly,以及设定的空间分辨率Δl,申请并维护大小为lm×ln的哈希表用以存储点云特征,
步骤32、通过哈希表内每个存储空间hk存储一个点云特征其中,kx、ky对应第kx行ky列网格化后的地图空间;
步骤33、当获取新的点云特征,并且在哈希表中该位置已有特征存储,则根据步骤二中距离函数计算两特征描述矩阵之间的偏差,判断新点云特征矩阵与原存储点云特征矩阵的距离,当大于设定的阈值λ时,对该存储空间的内容进行更新。
本发明还提供一种基于激光雷达的无人系统快速重定位装置,包括:
构建模块,用于采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
定位模块,用于基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位。
作为优选,还包括:更新模块,用于对特征存储资源池的更新。
与现有技术相比,本发明具有以下有益效果:
通过本发明,可以解决传统初始定位算法易陷入局部最优,从而带来的初始定位效率低、可靠性差的问题。与传统初始定位算法相比,本发明加快了初始定位的速度,提高了定位的准确度。同时,本发明定位效果的稳定性好,可靠程度高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于激光雷达的无人系统快速重定位方法的流程示意图;
图2为本发明基于激光雷达的无人系统快速重定位装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供一种基于激光雷达的无人系统快速重定位方法,包括:
步骤1、采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
步骤2、基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位。
进一步,步骤1具体包括:
步骤11、构建特征描述矩阵
根据激光雷达环境探测的结构特征,按照下式构建点云特征描述矩阵Sc
Sc(prow,pcol)=maxpz
其中:
其中,prow表示该点的归一化深度,pcol表示该点归一化角度;Nr、Nc分别表示矩阵的行数与列数,(px,py,pz)表示点云三维坐标,dismax表示激光雷达最大探测距离,[*]表示取整符号。
步骤12、构建特征描述向量
特征描述向量构建方法如下式所示:
其中,Srow为特征描述向量,为特征矩阵列向量,Nc为特征描述矩阵的列数;通过求取特征描述矩阵列向量的平均值,特征描述向量。
步骤13、获取点云位姿
在激光雷达数据采集过程中通过其他量测传感器或通过激光SLAM算法获取点云位姿。
步骤14、设计点云存储单元结构
设计点云特征的存储结构为其中,Sc,k表示第k帧点云的特征描述矩阵,Srow,k表示特征描述向量以及Pk表示点云位姿。
进一步,步骤2包括:
步骤21、通过特征描述向量实现候选点云的快速聚类
计算查询点云特征向量与资源池中点云特征向量/>的距离disrow
保留disrow最小的n个点云特征最为最优解。并且为了提高搜索效率,保留人为预置区间Λ的设定,从而减小搜索范围,提高效率。
步骤22、通过特征描述矩阵从候选点云中选取最优匹配解通过如下式所示距离函数计算两特征描述矩阵之间的最小偏差:
其中,是由/>列向量偏移n位后形成的特征描述矩阵,并且:
其中,分别表示目标点云与输入点云特征矩阵的第k列向量。
获取距离最小点云的位姿即为无人系统的初始位姿。
本发明基于激光雷达的无人系统快速重定位方法,还包括:步骤3、对特征存储资源池的更新。
步骤3具体包括:
步骤31、地图网格化处理
通过基于哈希表的点云特征资源池更新维护方法进行空间维护。根据建图环境的水平空间尺寸大小lx×ly(单位:米),以及设定的空间分辨率Δl(单位:米),申请并维护大小为lm×ln的哈希表用以存储点云特征。
步骤32、地图特征存储
表内每个存储空间hk存储一个点云特征因哈希表是一维存储,因此可以通过下式对特征位置的存储空间进行定位。
其中,kx、ky对应第kx行ky列网格化后的地图空间,可通过特征的水平位置tx、ty进行计算。
步骤33、地图存储更新
当获取新的点云特征,并且在哈希表中该位置已有特征存储,则根据步骤二中距离函数计算两特征描述矩阵之间的偏差,判断新点云特征矩阵与原存储点云特征矩阵的距离,当大于设定的阈值λ时,对该存储空间的内容进行更新。
本发明基于激光雷达的无人系统快速重定位方法,以特征描述子为基础,构建激光雷达点云的特征存储资源池,并设计相应的存储与更新方法。随后利用特征资源池实现点云的快速搜索,从而实现无人系统的全局初始定位。本发明相比于传统初始定位算法,提高了算法的运行效率,并且有效避免了点云匹配过程中的局部最优问题,保证了算法的可靠性。
如图2所示,本发明还提供一种基于激光雷达的无人系统快速重定位装置,实现上述基于激光雷达的无人系统快速重定位方法,包括:
构建模块,用于采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
定位模块,用于基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位;
更新模块,用于对特征存储资源池的更新。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (5)

1.一种基于激光雷达的无人系统快速重定位方法,其特征在于,包括:
步骤1、采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
步骤2、基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位;
步骤1具体包括:
步骤11、构建特征描述矩阵
根据激光雷达环境探测的结构特征,设点云三维坐标为(px,py,pz),按照下式构建点云特征描述矩阵Sc
Sc(prow,pcol)=maxpz
其中,prow表示该点的归一化深度,pcol表示该点归一化角度;
步骤12、构建特征描述向量,即
其中,Srow为特征描述向量,为特征矩阵列向量,Nc为特征描述矩阵的列数;
步骤13、在激光雷达数据采集过程中获取点云位姿;
步骤14、构建点云存储单元结构,即,其中,Sc,k表示第k帧点云的特征描述矩阵,Srow,k表示特征描述向量以及Pk表示点云位姿;
步骤2具体包括:
步骤21、通过特征描述向量实现候选点云的快速聚类
计算查询点云特征向量与资源池中点云特征向量/>的距离disrow
步骤22、通过特征描述矩阵从候选点云中选取最优匹配解
通过如下式所示距离函数计算两特征描述矩阵之间的最小偏差:
其中,是由/>列向量偏移n位后形成的特征描述矩阵,并且:
其中,分别表示目标点云与输入点云特征矩阵的第k列向量,
获取距离最小点云的位姿即为无人系统的初始位姿。
2.如权利要求1所述的基于激光雷达的无人系统快速重定位方法,其特征在于,还包括:步骤3、对特征存储资源池的更新。
3.如权利要求2所述的基于激光雷达的无人系统快速重定位方法,其特征在于,步骤3具体包括:
步骤31、根据建图环境的水平空间尺寸大小lx×ly,以及设定的空间分辨率Δl,申请并维护大小为lm×ln的哈希表用以存储点云特征,
步骤32、通过哈希表内每个存储空间hk存储一个点云特征其中,kx、ky对应第kx行ky列网格化后的地图空间;
步骤33、当获取新的点云特征,并且在哈希表中该位置已有特征存储,则根据步骤二中距离函数计算两特征描述矩阵之间的偏差,判断新点云特征矩阵与原存储点云特征矩阵的距离,当大于设定的阈值λ时,对该存储空间的内容进行更新。
4.一种实现如权利要求1至3任意一项的基于激光雷达的无人系统快速重定位方法的基于激光雷达的无人系统快速重定位装置,其特征在于,包括:
构建模块,用于采集激光雷达点云,获取每帧点云的特征描述矩阵、特征描述向量以及点云位姿;将特征描述矩阵,特征描述向量,点云位姿三者组合成点云存储单元并进行存储,构建点云特征资源池;
定位模块,用于基于点云特征资源池通过特征描述匹配实现对查询点云的快速搜索,从而获取查询点云的初始位姿,实现无人系统的全局初始定位。
5.如权利要求4所述的基于激光雷达的无人系统快速重定位装置,其特征在于,还包括:
更新模块,用于对特征存储资源池的更新。
CN202110440727.1A 2021-04-23 2021-04-23 一种基于激光雷达的无人系统快速重定位方法和装置 Active CN113140004B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110440727.1A CN113140004B (zh) 2021-04-23 2021-04-23 一种基于激光雷达的无人系统快速重定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110440727.1A CN113140004B (zh) 2021-04-23 2021-04-23 一种基于激光雷达的无人系统快速重定位方法和装置

Publications (2)

Publication Number Publication Date
CN113140004A CN113140004A (zh) 2021-07-20
CN113140004B true CN113140004B (zh) 2024-04-23

Family

ID=76813703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110440727.1A Active CN113140004B (zh) 2021-04-23 2021-04-23 一种基于激光雷达的无人系统快速重定位方法和装置

Country Status (1)

Country Link
CN (1) CN113140004B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN111505662A (zh) * 2020-04-29 2020-08-07 北京理工大学 一种无人驾驶车辆定位方法及系统
CN112014857A (zh) * 2020-08-31 2020-12-01 上海宇航系统工程研究所 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN112486171A (zh) * 2020-11-30 2021-03-12 中科院软件研究所南京软件技术研究院 一种基于视觉的机器人避障方法
CN112596064A (zh) * 2020-11-30 2021-04-02 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN111505662A (zh) * 2020-04-29 2020-08-07 北京理工大学 一种无人驾驶车辆定位方法及系统
CN112014857A (zh) * 2020-08-31 2020-12-01 上海宇航系统工程研究所 用于智能巡检的三维激光雷达定位导航方法及巡检机器人
CN112486171A (zh) * 2020-11-30 2021-03-12 中科院软件研究所南京软件技术研究院 一种基于视觉的机器人避障方法
CN112596064A (zh) * 2020-11-30 2021-04-02 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
合作环境下基于惯性/里程计/Lidar融合的UGV导航方法;付相可;《导航定位与授时》;20201112;第94-101页 *
复杂环境下微小飞行器惯性/激光雷达Robust-SLAM方法;石鹏;《导航定位与授时》;20181224;第14-21页 *

Also Published As

Publication number Publication date
CN113140004A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
WO2021233029A1 (en) Simultaneous localization and mapping method, device, system and storage medium
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
WO2021232470A1 (zh) 基于多传感器融合的slam制图方法、系统
US20210390329A1 (en) Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium
CN108242079B (zh) 一种基于多特征视觉里程计和图优化模型的vslam方法
CN106092104B (zh) 一种室内机器人的重定位方法及装置
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN114862949B (zh) 一种基于点线面特征的结构化场景视觉slam方法
CN109523589B (zh) 一种更鲁棒的视觉里程计的设计方法
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
CN108534782A (zh) 一种基于双目视觉系统的地标地图车辆即时定位方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN110517284B (zh) 一种基于激光雷达和ptz摄像机的目标追踪方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN114088081B (zh) 一种基于多段联合优化的用于精确定位的地图构建方法
CN111383205A (zh) 一种基于特征点和三维模型的图像融合定位方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN111862200B (zh) 一种煤棚内无人机定位方法
CN111429571B (zh) 一种基于时空图像信息联合相关的快速立体匹配方法
CN111462241B (zh) 一种基于单目视觉的目标定位方法
CN113239072A (zh) 一种终端设备定位方法及其相关设备
CN113447014A (zh) 室内移动机器人、建图方法、定位方法以及建图定位装置
CN116128966A (zh) 一种基于环境物体的语义定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant