CN111242996A - 一种基于Apriltag标签与因子图的SLAM方法 - Google Patents

一种基于Apriltag标签与因子图的SLAM方法 Download PDF

Info

Publication number
CN111242996A
CN111242996A CN202010017116.1A CN202010017116A CN111242996A CN 111242996 A CN111242996 A CN 111242996A CN 202010017116 A CN202010017116 A CN 202010017116A CN 111242996 A CN111242996 A CN 111242996A
Authority
CN
China
Prior art keywords
coordinate system
factor
carrier
pose
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010017116.1A
Other languages
English (en)
Other versions
CN111242996B (zh
Inventor
郭轩
程楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan Descartes Robot Technology Co.,Ltd.
Original Assignee
郭轩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 郭轩 filed Critical 郭轩
Priority to CN202010017116.1A priority Critical patent/CN111242996B/zh
Publication of CN111242996A publication Critical patent/CN111242996A/zh
Application granted granted Critical
Publication of CN111242996B publication Critical patent/CN111242996B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于Apriltag标签与因子图的SLAM方法,包括:首先读取预设数据并构建坐标系;以预设数据为因子,初始化因子图;使用相机采集标签图像;利用相机标定畸变参数对标签图像进行预处理;提取Apriltag标签角点与ID;以Apriltag标签角点的图像坐标值为映射因子更新因子图;判断是否提供相机载体的里程计(Odom);采集载体里程计数据;以载体里程计数据为相对位姿因子更新因子图;优化因子图,计算物体,Apriltag标签,载体,相机的位姿,最后更新地图。利用本发明能够提供高精度的载体位姿数据,并构建高精度的地图信息。

Description

一种基于Apriltag标签与因子图的SLAM方法
技术领域
本发明属于机器人自主导航技术领域,涉及一种基于Apriltag标签与因子图的机器人同步定位与制图(SLAM)方法。
背景技术
SLAM技术是机器人自主导航领域的关键与研究热点,是实现机器人环境感知的关键基础技术,在工业,物流,服务等领域有广泛的应用前景。Apriltag是一种视觉基准标定(fiducial marker)系统,提供标签(Tag)与相机之间空间位姿关系以及自身ID信息。目前基于标签定位技术大多采用PnP法实现,此类技术缺少整体优化与回环检测,位姿估算受测量误差影响大。
目前多数视觉SLAM技术直接从图像中提取自然特征点进行匹配来实现定位与制图。传统特征点提取存在数据量大,易丢失,匹配计算复杂,抗干扰能力差等缺点;同时,此类SLAM技术依赖于网格化生成算法来感知空间物体存在,易受点云噪声干扰。此类技术存在计算复杂,制图信息不完整的缺点。
发明内容
本发明的目的:本发明提供一种基于Apriltag标签(简称标签)与因子图的SLAM方法,以解决现有SLAM技术计算量大,空间物体感知能力差,构建地图不完整且误差大的问题;通过本发明公开的方法,利用人工设定的特征点(标签角点),预先有限设定的空间数据以及因子图,能够实现载体的高精度定位,空间物体建模,以及获得完整精确的地图。
技术方案:本发明所述的基于Apriltag标签与因子图的SLAM方法包括:
步骤1,读取预设数据,构建世界(World)坐标系,物体(Object)坐标系,标签(Apriltag)坐标系,载体(Robot)坐标系,和相机(Camera)坐标系;
其中,所述的构建世界坐标系,物体坐标系,标签坐标系,载体坐标系,和相机坐标系的具体方法为:
步骤1.1,定义李代数
Figure BDA0002359064440000011
位姿
Figure BDA0002359064440000012
和李群sE(3)变换矩阵
Figure BDA0002359064440000013
其中
Figure BDA0002359064440000014
是平移(translation)向量,
Figure BDA0002359064440000015
是旋转(rotation)向量;
其中,位姿ξ与变换矩阵T存在映射公式:
Figure BDA0002359064440000016
Figure BDA0002359064440000017
步骤1.2,如图2所示,以初始时刻某点的位置为原点构建世界坐标系;以物体某顶点为原点构建物体坐标系;以标签的第一个角点为原点,所在平面为X-O-Y平面构建标签坐标系;以载体中心为原点构建载体坐标系;以相机焦点为原点构建相机坐标系;设物体在世界坐标系下位姿为
Figure BDA0002359064440000018
标签在物体坐标系下位姿为
Figure BDA0002359064440000019
相机在载体坐标系下位姿为
Figure BDA00023590644400000110
载体在时刻t在世界坐标系下位姿为
Figure BDA00023590644400000111
标签在时刻t在相机坐标系下位姿为
Figure BDA00023590644400000112
Figure BDA00023590644400000113
为对应变换矩阵;
其中,所述的预设数据为人工测量数据和设定数据,其包括:
设定
Figure BDA0002359064440000021
为物体在世界坐标系下,标签在物体坐标系下或相机在载体坐标系下的位姿测量值,对应变换矩阵
Figure BDA0002359064440000022
∑为协方差矩阵;
设定ZΔξ为两个实体x1和x2之间的相对位姿测量值;其中,实体是物体,标签和载体的统称;x1和x2的位姿是ξ1和ξ2;相对位姿测量值可以表示为物体-物体之间,标签-标签之间,载体在两个时间点之间的相对位姿差;对应变换矩阵设为T1,T2
Figure BDA00023590644400000214
∑为协方差矩阵;
设定Zt={to,t1,...,tn}为在标签坐标系下标签角点的坐标设定值;
设定Zo={p1,p2...,pn}为在物体坐标系下物体的顶点坐标集合,以网格化的形式体现物体的空间存在;
设定d={dx,dy,dz}为一个位姿旋转矩阵的旋转轴方向,∑为协方差矩阵;
设定K是相机内参矩阵;
步骤2,以预设数据为因子(Factot),初始化因子图;
其中,所述的因子图是在给定观测Z的情况下,估计未知状态变量X的位姿。所述因子图是以X为节点,以条件概率P(X|Z)为因子约束位姿。本发明采用最大后验概率估计(MAP)最大化因子势能,以公式表述:
Figure BDA0002359064440000023
其中,条件概率pi(Xi|Z)用高维高斯分布
Figure BDA0002359064440000024
来描述,以公式表述:
Figure BDA0002359064440000025
其中,设ξx是Xi的位姿,
Figure BDA0002359064440000026
是以观测Z为均值
Figure BDA0002359064440000027
的位姿,变换矩阵
Figure BDA0002359064440000028
变换矩阵
Figure BDA0002359064440000029
因子势能取负对数,优化问题转化为最小化非线性最小二乘(nonlinear least-square)的和:
Figure BDA00023590644400000210
其中,所述的因子包括:
位姿因子pp:依所述步骤1中测量的物体,标签,相机位姿数据构建位姿因子:
Figure BDA00023590644400000211
相对位姿因子pr:依所述步骤1中测量实体相对位姿数据构建相对位姿因子:
Figure BDA00023590644400000212
方向因子pd:依所述步骤1中实体位姿ξ旋转矩阵的旋转轴方向设定数据构建方向因子:
Figure BDA00023590644400000213
其中,φ是位姿ξ的旋转向量;
步骤3,使用相机采集标签图像;
步骤4,利用相机标定畸变参数对标签图像进行预处理;
步骤5,获取图像中标签角点坐标与标签ID信息;
如图3所示,Zu={u0,u1,...,un}为标签角点在图像坐标系中的二维坐标测量值;角点为标签边角的顶点。标签可以是单张Apriltag标签或者为多张Apriltag标签的组合。∑为协方差矩阵;
步骤6,以标签角点为映射因子更新因子图;
所述的映射因子,是依标签角点在图像坐标系中的坐标计算值与步骤5中标签角点在图像坐标系中的坐标测量值为数据构建的因子,以公式表述:
Figure BDA0002359064440000031
其中,标签角点在图像坐标系中的坐标计算值计算方法,依据公式:
Figure BDA0002359064440000032
Figure BDA0002359064440000033
其中,
Figure BDA0002359064440000034
为标签角点在时刻t在相机坐标系下的位姿,
Figure BDA0002359064440000035
Figure BDA0002359064440000036
的平移向量,u′n为计算所得角点在图像坐标系下的坐标值;Z是
Figure BDA0002359064440000037
的z轴数据;
步骤7,采集载体的里程计数据;
其中,所述的载体里程计数据
Figure BDA0002359064440000038
可以是轮子编码器(wheelodometry)的里程计数据。
进一步的,所述的载体里程计数据
Figure BDA0002359064440000039
可以是视觉里程计(visual odometry)数据。
步骤8,以载体的里程计数据为相对位姿因子更新因子图;
其中,所述的因子为步骤2所述的相对位姿因子:
Figure BDA00023590644400000310
其中,
Figure BDA00023590644400000311
是载体在当前时间t和上次记录时间tpre位姿的变换矩阵。
步骤9,优化因子图,计算出物体,标签,载体,相机的位姿,最后更新地图;
其中,所述的因子图优化方法选自高斯-牛顿迭代法和列文伯格-马夸尔特迭代法中的一种;
采用因子图优化方法,优化因子图,获得优化了的
Figure BDA00023590644400000312
通过采用步骤1.1中映射公式计算出物体,标签的位姿,载体与相机在t时刻在的位姿;采用步骤1中设定物体顶点坐标集合,在世界坐标系中构建关于物体的占据栅格地图(Occupancy GridMap)和体素栅格地图(Voxel Grid Map);
步骤10,跳转至步骤3。
有益效果:本发明与现有技术相比,其显著优点是:使用本发明公开的方法,能够有效结合人工先验数据与系统优化结果;通过预先输入物体顶点数据结合系统优化了的物体位姿,可以完整构建空间地图;以人工设置的标签为基础构建因子图,有效降低运算数量级,且具有特征点不易丢失,运算结果精度高的特点,通过图优化可以获得高精度载体导航信息,并构建精准地图。另外需要特别指出的是,步骤2中位姿因子,相对位姿因子与方位因子用于进一步优化计算结果,可以获得更佳的技术效果,实施中因子可做有限必要设定,确保系统优化效果即可,未设定的实体位姿可通过图优化获得。
附图说明
图1是本发明所涉及方法的流程示意图。
图2是本发明因子图示意图。
图3是本发明Apriltag标签角点,在标签坐标系,图像坐标系,及相机坐标系下应对关系图
具体实施方式
以下实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
实施例一:如图1所示,本实施例提供的基于Apriltag标签与因子图的SLAM方法包括:
步骤1:读取预设数据,构建世界(World)坐标系,物体(Object)坐标系,标签(Apriltag)坐标系,载体(Robot)坐标系,相机(Camera)坐标系;
其中,构建世界(World)坐标系,物体(Object)坐标系,标签(Apriltag)坐标系,载体(Robot)坐标系,相机(Camera)坐标系的方法:
步骤1.1:定义李代数
Figure BDA0002359064440000041
位姿
Figure BDA0002359064440000042
和李群sE(3)变换矩阵
Figure BDA0002359064440000043
Figure BDA0002359064440000044
其中
Figure BDA0002359064440000045
是平移(translation)向量,
Figure BDA0002359064440000046
是旋转(rotation)向量;
步骤1.2:如图2所示,以初始时刻某点的位置为原点构建世界坐标系;以物体某顶点为原点构建物体坐标系;以标签的第一个角点为原点,所在平面为X-O-Y平面构建标签坐标系;以载体中心为原点构建载体坐标系;以相机焦点为原点构建相机坐标系;设物体在世界坐标系下位姿为
Figure BDA0002359064440000047
标签在物体坐标系下位姿为
Figure BDA0002359064440000048
相机在载体坐标系下位姿为
Figure BDA0002359064440000049
载体在时刻t在世界坐标系下位姿为
Figure BDA00023590644400000410
标签在时刻t在相机坐标系下位姿为
Figure BDA00023590644400000411
Figure BDA00023590644400000412
为对应变换矩阵;空间点P在任意两坐标系A,B下PA,PB存在转换关系:
Figure BDA00023590644400000413
其中,步骤1中所述的预设数据为人工测量数据和设定数据,其包括:
Figure BDA00023590644400000414
为物体在世界坐标系下,标签在物体坐标系下或相机在载体坐标系下的位姿测量值,对应变换矩阵
Figure BDA00023590644400000415
∑为协方差矩阵;
Figure BDA00023590644400000416
是对物体,标签,相机初始位置的先验;
设ZΔξ为两个实体x1和x2之间的相对位姿测量值;其中,实体是物体,标签和载体的统称;x1和x2的位姿是ξ1和ξ2;相对位姿测量值可以表示为物体-物体之间,标签-标签之间,载体在两个时间点之间的相对位姿;对应变换矩阵设为T1,T2
Figure BDA00023590644400000417
∑为协方差矩阵;ZΔξ可以是两个物体原点的位姿差;两个标签原点的位姿差;载体里程计测量的位移量;
设Zt={t0,t1,...,tn}为标签角点在标签坐标系中的坐标设定值;
设Zo={p1,p2,...,pn}为在物体坐标系下物体的顶点坐标集合,以网格化的形式体现物体的空间存在;
设d={dx,dy,dz}为一个位姿旋转矩阵的旋转轴方向;∑为协方差矩阵;d是对位姿旋转轴方向的约束;如图2所示,d={0,0,1}可表示为实体(Object_1)旋转轴方向与z轴同向,即实体俯仰角,横滚角为0;约束物体在世界坐标系里空间竖直,将空间竖直这一先验知识引入因子图;
设定K是相机内参矩阵;
步骤2:以预设数据为因子(Factor),初始化因子图;
其中,构建因子图的方法:
步骤2.1:在给定观测Z的情况下,估计未知状态变量X的位姿。所述因子图是以X为节点,以条件概率P(X|Z)为因子约束位姿。本发明采用最大后验概率估计(MAP)最大化因子势能,以公式表述:
Figure BDA0002359064440000051
步骤2.2:以条件概率pi(Xi|Z)用高维高斯分布
Figure BDA0002359064440000052
来描述,以公式表述:
Figure BDA0002359064440000053
其中,设ξx是Xi的位姿,
Figure BDA0002359064440000054
是以观测Z为均值
Figure BDA0002359064440000055
的位姿,变换矩阵
Figure BDA0002359064440000056
变换矩阵
Figure BDA0002359064440000057
步骤2.3:对因子势能取负对数,优化问题转化为最小化非线性最小二乘(nonlinear least-square)的和:
Figure BDA0002359064440000058
步骤2.4:依步骤1所述预设数据添加因子:
步骤2.4.1:如图2所示,依所述步骤1中所测量的物体,标签,相机位姿数据构建位姿因子:
Figure BDA0002359064440000059
步骤2.4.2:如图2所示,依所述步骤1中测量实体相对位姿数据构建相对位姿因子:
Figure BDA00023590644400000510
步骤2.4.3:如图2所示,依所述步骤1中实体位姿ξ旋转矩阵的旋转轴方向设定数据构建方向因子:
Figure BDA00023590644400000511
其中,φ是位姿ξ的旋转向量;
步骤3:使用相机采集标签图像;
步骤4:利用相机标定畸变参数对标签图像进行预处理;
步骤5:获取图像中标签角点坐标与标签ID信息;
其中,获取图像中标签角点坐标与标签ID信息的步骤:
步骤5.1根据梯度检测出图像中的各种边缘,获取二值化边缘图像;
步骤5.2对二值化边缘图像使用道格拉斯-普克算法获取标签边际点;
步骤5.3对边际点组成的四边形图像进行编码与解码;
步骤5.4查询编码库获取标签ID与汉明距离;
步骤5.5如果汉明距离小于预设最大值Hmax,返回角点集合Zu与标签ID;
如图3所示,Zu={u0,u1,...,un}为标签角点在图像坐标系中的二维坐标测量值;角点为标签边角的顶点。标签可以是单张Apriltag标签或者为多张Apriltag标签的组合。∑为协方差矩阵;
步骤6:以标签角点为映射因子更新因子图;
所述的映射因子,是依标签角点在图像坐标系中的坐标计算值与步骤5中标签角点在图像坐标系中的坐标测量值为数据构建的因子,以公式表述:
Figure BDA0002359064440000061
其中,标签角点在图像坐标系中的坐标计算值计算方法,依据公式:
Figure BDA0002359064440000062
Figure BDA0002359064440000063
其中,设
Figure BDA0002359064440000064
为标签角点在时刻t在相机坐标系下的位姿,
Figure BDA0002359064440000065
Figure BDA0002359064440000066
的平移向量,u′n为计算所得角点在图像坐标系下的坐标值;Z是
Figure BDA0002359064440000067
的z轴数据;
步骤7:判断是否提供载体里程计数据;如果不存在里程计数据,则转至步骤9;如果存在里程计数据,采集载体的里程计数据;
其中所述的载体里程计数据
Figure BDA0002359064440000068
是轮子编码器(wheelodometry)的里程计数据。
步骤8:以载体里程计数据为相对位姿因子更新因子图;
其中,以载体位移为相对位姿因子更新因子图的方法为:
步骤8.1:如图2所示,以
Figure BDA0002359064440000069
为观测数据,载体在当前时间t和上次记录时间tpre位姿的变换矩阵
Figure BDA00023590644400000610
为节点构建相对位姿因子:
Figure BDA00023590644400000611
步骤9:优化因子图;计算出物体,标签,载体,相机的位姿,最后更新地图。
其中,所述的因子图优化方法可采用列文伯格-马夸尔特迭代法;
采用因子图优化方法,优化因子图,获得优化了的
Figure BDA00023590644400000612
通过采用映射公式计算出物体,标签的位姿,载体与相机在t时刻在的位姿;采用步骤1中设定物体顶点坐标集合,在世界坐标系中构建关于物体的占据栅格地图(Occupancy Grid Map)和体素栅格地图(Voxel Grid Map)。
实施例二:在实施例一基础上进行优化,特别之处在于:
所述的步骤7中所述的载体里程计数据
Figure BDA00023590644400000613
是视觉里程计(visual odometry)数据;
所述的步骤9中所述的因子图优化方法采用高斯-牛顿迭代法。

Claims (6)

1.一种基于Apriltag标签与因子图的SLAM方法,其特征在于,包括以下步骤:
步骤1.读取预设数据,构建世界(World)坐标系,物体(Object)坐标系,标签(Apriltag)坐标系,载体(Robot)坐标系,和相机(Camera)坐标系;
其中,预设数据包括:物体在世界坐标系下,标签在物体坐标系下,相机在载体坐标系下的位姿测量值;实体之间的相对位姿测量值;标签角点在标签坐标系中的坐标设定值;物体的顶点坐标集合;实体位姿旋转矩阵的旋转轴方向;相机内参矩阵;
步骤2.以预设数据为因子(Factor),初始化因子图;
其中,因子图是在给定观测Z的情况下,估计未知状态变量X的位姿;依据公式:
Figure FDA0002359064430000011
步骤3.使用相机采集标签图像;
步骤4.利用相机标定畸变参数对标签图像进行预处理;
步骤5.获取图像中标签角点坐标与标签ID信息;
步骤6.以标签角点为映射因子更新因子图;
步骤7.采集载体的里程计数据;
步骤8.以载体的里程计数据为相对位姿因子更新因子图;
步骤9.优化因子图,计算出物体,Apriltag标签,载体,相机的位姿,最后更新地图;
步骤10.跳转至步骤3。
2.根据权利要求1所述的方法,其特征在于,所述步骤2中,所述因子具体包括:
依所述步骤1中测量的物体,标签,相机位姿测量数据构建位姿因子:
Figure FDA0002359064430000012
依所述步骤1中实体相对位姿测量数据构建相对位姿因子:
Figure FDA0002359064430000013
依所述步骤1中实体位姿旋转矩阵的旋转轴方向设定数据构建方向因子:
Figure FDA0002359064430000014
3.根据权利要求1所述的方法,其特征在于,所述步骤6中,依据标签角点在标签坐标系中的坐标设定值计算出标签角点在图像坐标系中的坐标计算值,依据公式:
Figure FDA0002359064430000015
Figure FDA0002359064430000016
依据标签角点在图像坐标系中的坐标计算值与步骤5中标签角点的测量值构建映射因子,依据公式:
Figure FDA0002359064430000017
4.根据权利要求1所述的方法,其特征在于,所述步骤8中,以载体的里程计数据为相对位姿因子,依据公式:
Figure FDA0002359064430000021
5.根据权利要求1所述的方法,其特征在于,所述步骤9中,因子图优化方法选自高斯-牛顿迭代法和列文伯格-马夸尔特迭代法中的一种。
6.根据权利要求1所述的方法,其特征在于,所述步骤9中,更新地图的方法:
采用因子图优化方法,优化因子图,获得优化了的
Figure FDA0002359064430000022
依据公式ξ=ln(T)获得物体,标签,相机,载体在t时刻的位姿;采用步骤1中设定物体顶点坐标集合,在世界坐标系中构建关于物体的占据栅格地图(Occupancy Grid Map)和体素栅格地图(VoxelGrid Map)。
CN202010017116.1A 2020-01-08 2020-01-08 一种基于Apriltag标签与因子图的SLAM方法 Active CN111242996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010017116.1A CN111242996B (zh) 2020-01-08 2020-01-08 一种基于Apriltag标签与因子图的SLAM方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010017116.1A CN111242996B (zh) 2020-01-08 2020-01-08 一种基于Apriltag标签与因子图的SLAM方法

Publications (2)

Publication Number Publication Date
CN111242996A true CN111242996A (zh) 2020-06-05
CN111242996B CN111242996B (zh) 2021-03-16

Family

ID=70863945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010017116.1A Active CN111242996B (zh) 2020-01-08 2020-01-08 一种基于Apriltag标签与因子图的SLAM方法

Country Status (1)

Country Link
CN (1) CN111242996B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111735446A (zh) * 2020-07-09 2020-10-02 上海思岚科技有限公司 一种激光、视觉定位融合的方法及设备
CN112699267A (zh) * 2021-01-13 2021-04-23 招商局重庆交通科研设计院有限公司 车辆车型的识别方法
CN112762938A (zh) * 2020-12-24 2021-05-07 哈尔滨工程大学 一种基于旋转矩阵的因子图协同定位方法
CN114543807A (zh) * 2022-01-14 2022-05-27 安徽海博智能科技有限责任公司 一种极端场景下slam算法的高精度评价方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN107180215A (zh) * 2017-05-31 2017-09-19 同济大学 基于库位和二维码的停车场自动建图与高精度定位方法
CN109211251A (zh) * 2018-09-21 2019-01-15 北京理工大学 一种基于激光和二维码融合的即时定位与地图构建方法
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
WO2019099605A1 (en) * 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US20190212730A1 (en) * 2018-01-05 2019-07-11 Irobot Corporation Mapping, controlling, and displaying networked devices with a mobile cleaning robot

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN107180215A (zh) * 2017-05-31 2017-09-19 同济大学 基于库位和二维码的停车场自动建图与高精度定位方法
WO2019099605A1 (en) * 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US20190212730A1 (en) * 2018-01-05 2019-07-11 Irobot Corporation Mapping, controlling, and displaying networked devices with a mobile cleaning robot
CN109345588A (zh) * 2018-09-20 2019-02-15 浙江工业大学 一种基于Tag的六自由度姿态估计方法
CN109211251A (zh) * 2018-09-21 2019-01-15 北京理工大学 一种基于激光和二维码融合的即时定位与地图构建方法
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ERIK LEITINGER ET AL: "Factor graph based simultaneous localization and mapping using multipath channel information", 《 2017 IEEE INTERNATIONAL CONFERENCE ON COMMUNICATIONS WORKSHOPS (ICC WORKSHOPS)》 *
王忠立 等: "大规模环境下基于图优化SLAM的图构建方法", 《哈尔滨工业大学学报》 *
赵立军 等: "室内环境下同步定位与地图创建改进算法", 《机器人》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111735446A (zh) * 2020-07-09 2020-10-02 上海思岚科技有限公司 一种激光、视觉定位融合的方法及设备
CN111735446B (zh) * 2020-07-09 2020-11-13 上海思岚科技有限公司 一种激光、视觉定位融合的方法及设备
CN112762938A (zh) * 2020-12-24 2021-05-07 哈尔滨工程大学 一种基于旋转矩阵的因子图协同定位方法
CN112699267A (zh) * 2021-01-13 2021-04-23 招商局重庆交通科研设计院有限公司 车辆车型的识别方法
CN112699267B (zh) * 2021-01-13 2022-09-02 招商局重庆交通科研设计院有限公司 车辆车型的识别方法
CN114543807A (zh) * 2022-01-14 2022-05-27 安徽海博智能科技有限责任公司 一种极端场景下slam算法的高精度评价方法
CN114543807B (zh) * 2022-01-14 2023-10-20 安徽海博智能科技有限责任公司 一种极端场景下slam算法的高精度评价方法

Also Published As

Publication number Publication date
CN111242996B (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN111242996B (zh) 一种基于Apriltag标签与因子图的SLAM方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Behley et al. Efficient Surfel-Based SLAM using 3D Laser Range Data in Urban Environments.
CN109147038B (zh) 基于三维点云处理的管道三维建模方法
Grant et al. Point-to-plane registration of terrestrial laser scans
Li et al. A monocular SLAM system leveraging structural regularity in Manhattan world
CN111060888B (zh) 一种融合icp和似然域模型的移动机器人重定位方法
CN105760811B (zh) 全局地图闭环匹配方法及装置
Zhou et al. T-loam: truncated least squares lidar-only odometry and mapping in real time
Gong et al. A Frustum-based probabilistic framework for 3D object detection by fusion of LiDAR and camera data
CN114332348A (zh) 一种融合激光雷达与图像数据的轨道三维重建方法
CN115014371A (zh) 一种用于智慧粮库粮食转运车的定位与建图方法、装置及存储介质
CN110688440B (zh) 一种适用于子地图重叠部分较少的地图融合方法
CN113822996B (zh) 机器人的位姿估计方法及装置、电子设备、存储介质
Lu et al. A lightweight real-time 3D LiDAR SLAM for autonomous vehicles in large-scale urban environment
Nielsen et al. Survey on 2d lidar feature extraction for underground mine usage
Pan et al. PIN-SLAM: LiDAR SLAM Using a Point-Based Implicit Neural Representation for Achieving Global Map Consistency
Mi et al. 3D reconstruction based on the depth image: A review
Song et al. Registration for 3D LiDAR Datasets using Pyramid Reference Object
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
Sohn et al. Sequential modelling of building rooftops by integrating airborne LiDAR data and optical imagery: preliminary results
CN113379915B (zh) 一种基于点云融合的行车场景构建方法
Qiu et al. DSMNet: Deep high-precision 3D surface modeling from sparse point cloud frames
Chen et al. Point cloud modeling using algebraic template
CN112612788A (zh) 一种无导航卫星信号下的自主定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210507

Address after: H II (A-C) (201-207) - 71, torch Park, high tech Zone, 1789 Xinfei Avenue, Xinxiang City, Henan Province, 453000

Patentee after: Henan Descartes Robot Technology Co.,Ltd.

Address before: 453000 floor 3, unit 3, West Building 22, Mingyuan community, 538 Renmin East Road, Hongqi District, Xinxiang City, Henan Province

Patentee before: Guo Xuan

TR01 Transfer of patent right