CN107463871A - 一种基于角特征加权的点云匹配方法 - Google Patents
一种基于角特征加权的点云匹配方法 Download PDFInfo
- Publication number
- CN107463871A CN107463871A CN201710462330.6A CN201710462330A CN107463871A CN 107463871 A CN107463871 A CN 107463871A CN 201710462330 A CN201710462330 A CN 201710462330A CN 107463871 A CN107463871 A CN 107463871A
- Authority
- CN
- China
- Prior art keywords
- mrow
- laser
- msub
- mtd
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于角特征加权的点云匹配方法,首先对激光雷达的激光点云数据进行预处理,再进行角特征检测,根据角特征对激光点云数据进行分类,计算每类激光点数据的权值,建立基于角特征的加权匹配模型进行点云匹配。在特征稀疏环境下,相对于Hector SLAM匹配模型,通过本发明公开的加权匹配方法能够有效提高状态估计精度。
Description
技术领域
本发明属于机器人自主导航技术领域,尤其涉及一种激光雷达Hector SLAM算法中基于角特征加权的点云匹配方法。
背景技术
同步定位与地图(SLAM,Simultaneous Localization and Mapping)技术是机器人自主导航技术领域中的一大研究热点。在无GPS(Global Positioning System)环境中,SLAM方法能够帮助机器人实现在陌生环境中的导航与定位,是机器人实际应用中的关键技术。
根据使用的传感器不同,目前主要的SLAM方法可以分为两类:激光雷达SLAM和视觉SLAM。相对于视觉SLAM中使用的视觉传感器——摄像头,激光雷达的使用不依赖于外界的光照条件,并且能够获取高精度的测距信息,可靠性更高。在2011年,StefanKohlbrecher在论文《A Flexible and Scalable SLAM System with Full 3D MotionEstimation》中提出Hector SLAM方法,Hector SLAM是目前最为广泛应用的一种激光雷达SLAM法,该方法只需要激光雷达数据,不需要里程计等额外传感器,能够同时应用于空中无人机和地面无人车中,且具有较好的定位精度,运算耗时少。
在激光雷达SLAM方法中,根据激光雷达采集的点云信息进行实时定位与地图构建,其中激光点云的匹配是一个关键问题。Hector SLAM中通过概率模型将激光点云与已构建的地图进行全局匹配,具有较好的定位与构图效果;但是,在特征稀疏环境中该匹配方法的误差较大。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于角特征加权的点云匹配方法,以解决激光雷达Hector SLAM在特征稀疏环境中定位与构图效果差的问题;本发明提高了激光雷达Hector SLAM中点云与已构建的地图之间的匹配精度。
为达到上述目的,本发明的技术方案为:
一种基于角特征加权的点云匹配方法,包括步骤如下:
(1)对激光点云数据进行预处理,根据不同型号激光雷达的测距有效范围,将测距信息超出该有效范围的数据剔除;
(2)对激光点云进行角特征检测;
(3)根据步骤(2)中得到的角特征,对激光点云数据进行分类;
(4)计算激光点云中每类激光点数据的匹配权值;
(5)利用高斯牛顿迭代方法进行激光雷达的点云匹配计算。
优选地,上述的步骤(3)中对激光点云数据进行分类的方法如下:步骤(2)中得到角特征的数量记为ncorner,检测每个角特征的角点,以这些角点为中心,cj为描述第j个角特征所用的激光点数量,j=1,2,…ncorner,选取cj个激光点为一类激光点数据,记为gj,j=1,2,…ncorner,描述第j个角特征,其中cj根据不同情况选取合适的数值,且以此方法将描述每个角特征的激光点分别划分为一类激光点数据;剩余的其它所有的激光点为未描述角特征的一类激光点数据,记为g0,其激光点的数量记为c0。
优选地,上述的步骤(4)中计算每类激光点数据的匹配权值的方法如下:经过步骤(1)预处理后激光点的数量为n,描述角特征的激光点数据的权值大于1,其余激光点的权值不大于1;其中第gj类激光点数据的权值为其中,j=1,2,…ncorner,k为比例因子,根据不同情况选取合适的数值,且k>1;第g0类激光点数据的权值为
优选地,上述的步骤(5)中,建立如下基于角特征加权的点云匹配模型,基于角特征加权的点云匹配目标函数如下:
其中每个激光点数据的权值为λi,i=1,2,…n,ξ为激光雷达所在载体的状态,包括在激光雷达SLAM全局坐标系下的航向角ψ和位置坐标(px,py),T表示转置,其具体表达式如下:
ξ=(ψ px py)T
Si(ξ)为激光雷达的第i个激光点在全局坐标系下的坐标,式中si,x和si,y为第i个激光点在激光雷达载体坐标系下的坐标值,Si(ξ)x和Si(ξ)y为第i个激光点在全局坐标系下的坐标值,如下所示:
M(Si(ξ))为激光雷达的第i个激光点占据坐标Si(ξ)所对应栅格的概率值,具体表达式参考Hector SLAM方法中利用线性插值计算激光点坐标的概率的公式。
本发明的有益效果:
本发明在特征稀疏的环境中能够有效提高Hector SLAM中激光雷达点云与已构建的地图之间的匹配精度,改善Hector SLAM方法的定位与构图的效果。
附图说明
图1为本发明方法的流程图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种基于角特征加权的点云匹配方法,包括步骤如下:
步骤一:按照如下方法对激光点云数据进行预处理:
根据不同型号激光雷达的测距有效范围,将测距信息超出该有效范围的数据剔除。例如采用Hokuyo utm-30lx型号激光雷达,将激光点云中距离大于30米的激光点数据剔除;
步骤二:对激光点云进行角特征检测;
步骤三:根据步骤二中得到的角特征,对激光点云数据进行分类:
ncorner为上述步骤二中得到角特征的数量,检测每个角特征的角点,以这些角点为中心,cj(j=1,2,…ncorner)为描述第j个角特征所用的激光点数量,选取cj个激光点分一类激光点数据,记为gj(j=1,2,…ncorner),描述第j个角特征,其中cj根据不同情况选取合适的数值,且以此方法将描述每个角特征的激光点分别划分为一类激光点数据;剩余的其它所有的激光点为未描述角特征的一类激光点数据,记为g0,其激光点的数量记为c0。
步骤四:计算激光点云中每类激光点数据的匹配权值:
经过上述步骤一预处理后激光点的数量为n,描述角特征的激光点数据的权值大于1,其余激光点的权值不大于1;其中第gj(j=1,2,…ncorner)类激光点数据的权值为其中k为比例因子,可根据不同情况选取合适的数值,且k>1;第g0类激光点数据的权值为
步骤五:按照如下方法进行激光雷达的点云匹配计算:
基于角特征加权的点云匹配目标函数如下:
其中每个激光点数据的权值为λi(i=1,2,…n),ξ为激光雷达所在载体的状态,包括在激光雷达SLAM全局坐标系下的航向角ψ和位置坐标(px,py),上标“T”表示转置,其具体表达式如下:
ξ=(ψ px py)T
Si(ξ)为激光雷达的第i个激光点在全局坐标系下的坐标,式中si,x和si,y为第i个激光点在激光雷达载体坐标系下的坐标值,Si(ξ)x和Si(ξ)y为第i个激光点在全局坐标系下的坐标值,如下所示:
M(Si(ξ))为激光雷达的第i个激光点占据坐标Si(ξ)所对应栅格的概率值,具体表达式参考Hector SLAM方法中利用线性插值计算激光点坐标的概率的公式。
利用高斯牛顿迭代法求解激光雷达载体的最优估计状态ξ*,具体方法如下:
建立误差函数e:
以ξ为迭代初值,利用状态增量Δξ对目标函数进行迭代求解,使得误差函数e的值不断趋近于0,迭代3~5次后即可停止迭代,上式中Si(ξ+Δξ)为以ξ+Δξ为状态量计算的第i个激光点全局坐标系下的坐标,M(Si(ξ+Δξ))为第i个激光点占据坐标Si(ξ+Δξ)所对应的栅格概率值。
迭代计算中Δξ为:
H表达式如下:
上述表达式中,为函数求偏导的符号,为Si(ξ)对ξ的求导:
为M(Si(ξ))对Si(ξ)的求导,具体表达式可参考Hector SLAM方法中坐标概率求导计算公式。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (4)
1.一种基于角特征加权的点云匹配方法,其特征在于,包括步骤如下:
(1)对激光点云数据进行预处理,根据不同型号激光雷达的测距有效范围,将测距信息超出该有效范围的数据剔除;
(2)对激光点云进行角特征检测;
(3)根据步骤(2)中得到的角特征,对激光点云数据进行分类;
(4)计算激光点云中每类激光点数据的匹配权值;
(5)利用高斯牛顿迭代方法进行激光雷达的点云匹配计算。
2.根据权利要求1所述的基于角特征加权的点云匹配方法,其特征在于,上述的步骤(3)中对激光点云数据进行分类的方法如下:步骤(2)中得到角特征的数量记为ncorner,检测每个角特征的角点,以这些角点为中心,cj为描述第j个角特征所用的激光点数量,j=1,2,…ncorner,选取cj个激光点为一类激光点数据,记为gj,j=1,2,…ncorner,描述第j个角特征,其中cj根据不同情况选取合适的数值,且以此方法将描述每个角特征的激光点分别划分为一类激光点数据;剩余的其它所有的激光点为未描述角特征的一类激光点数据,记为g0,其激光点的数量记为c0。
3.根据权利要求2所述的基于角特征加权的点云匹配方法,其特征在于,上述的步骤(4)中计算每类激光点数据的匹配权值的方法如下:经过步骤(1)预处理后激光点的数量为n,描述角特征的激光点数据的权值大于1,其余激光点的权值不大于1;其中第gj类激光点数据的权值为其中,j=1,2,…ncorner,k为比例因子,根据不同情况选取合适的数值,且k>1;第g0类激光点数据的权值为
4.根据权利要求1所述的基于角特征加权的点云匹配方法,其特征在于,上述的步骤(5)中,建立如下基于角特征加权的点云匹配模型,基于角特征加权的点云匹配目标函数如下:
<mrow>
<msup>
<mi>&xi;</mi>
<mo>*</mo>
</msup>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<mi>&xi;</mi>
</munder>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>&lambda;</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<mn>1</mn>
<mo>-</mo>
<mi>M</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>(</mo>
<mi>&xi;</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
其中每个激光点数据的权值为λi,i=1,2,…n,ξ为激光雷达所在载体的状态,包括在激光雷达SLAM全局坐标系下的航向角ψ和位置坐标(px,py),T表示转置,其具体表达式如下:
ξ=(ψ px py)T
Si(ξ)为激光雷达的第i个激光点在全局坐标系下的坐标,式中si,x和si,y为第i个激光点在激光雷达载体坐标系下的坐标值,Si(ξ)x和Si(ξ)y为第i个激光点在全局坐标系下的坐标值,如下所示:
<mrow>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>&xi;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<msub>
<mrow>
<mo>(</mo>
<mi>&xi;</mi>
<mo>)</mo>
</mrow>
<mi>x</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<msub>
<mrow>
<mo>(</mo>
<mi>&xi;</mi>
<mo>)</mo>
</mrow>
<mi>y</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>cos</mi>
<mrow>
<mo>(</mo>
<mi>&psi;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mi>&psi;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>sin</mi>
<mrow>
<mo>(</mo>
<mi>&psi;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mrow>
<mo>(</mo>
<mi>&psi;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>*</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>x</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>p</mi>
<mi>x</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>p</mi>
<mi>y</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
M(Si(ξ))为激光雷达的第i个激光点占据坐标Si(ξ)所对应栅格的概率值,具体表达式参考Hector SLAM方法中利用线性插值计算激光点坐标的概率的公式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710462330.6A CN107463871A (zh) | 2017-06-19 | 2017-06-19 | 一种基于角特征加权的点云匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710462330.6A CN107463871A (zh) | 2017-06-19 | 2017-06-19 | 一种基于角特征加权的点云匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107463871A true CN107463871A (zh) | 2017-12-12 |
Family
ID=60546023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710462330.6A Pending CN107463871A (zh) | 2017-06-19 | 2017-06-19 | 一种基于角特征加权的点云匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107463871A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109186601A (zh) * | 2018-07-05 | 2019-01-11 | 南京理工大学 | 一种基于自适应无迹卡尔曼滤波的激光slam算法 |
CN109959937A (zh) * | 2019-03-12 | 2019-07-02 | 广州高新兴机器人有限公司 | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 |
CN111113422A (zh) * | 2019-12-30 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 机器人定位方法、装置、计算机可读存储介质及机器人 |
CN111257909A (zh) * | 2020-03-05 | 2020-06-09 | 安徽意欧斯物流机器人有限公司 | 一种多2d激光雷达融合建图与定位方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103500338A (zh) * | 2013-10-16 | 2014-01-08 | 厦门大学 | 基于车载激光扫描点云的道路斑马线自动提取方法 |
CN104123746A (zh) * | 2014-07-10 | 2014-10-29 | 上海大学 | 一种三维扫描点云中实时法向量的计算方法 |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105427317A (zh) * | 2015-11-25 | 2016-03-23 | 武汉大学 | 一种适用于多视角自动化配准多站地面激光点云数据的方法 |
CN105487535A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于ros的移动机器人室内环境探索系统与控制方法 |
EP3064899A1 (en) * | 2015-03-06 | 2016-09-07 | Airbus DS GmbH | Tracking in an indoor environment |
-
2017
- 2017-06-19 CN CN201710462330.6A patent/CN107463871A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103500338A (zh) * | 2013-10-16 | 2014-01-08 | 厦门大学 | 基于车载激光扫描点云的道路斑马线自动提取方法 |
CN104123746A (zh) * | 2014-07-10 | 2014-10-29 | 上海大学 | 一种三维扫描点云中实时法向量的计算方法 |
CN105487535A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于ros的移动机器人室内环境探索系统与控制方法 |
EP3064899A1 (en) * | 2015-03-06 | 2016-09-07 | Airbus DS GmbH | Tracking in an indoor environment |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105427317A (zh) * | 2015-11-25 | 2016-03-23 | 武汉大学 | 一种适用于多视角自动化配准多站地面激光点云数据的方法 |
Non-Patent Citations (4)
Title |
---|
JUN XIE 等: ""Fine registration of 3D point clouds fusing structural and photometric information using an RGB-D camer"", 《JOURNAL OF VISUAL COMMUNICATION AND IMAGE REPRESENTATION》 * |
JUNHUA SUN 等: ""An automatic 3D point cloud registration method based on regional curvature maps"", 《IMAGE AND VISION COMPUTING》 * |
朱德海: "《点云库PCL学习教程》", 31 October 2012, 北京航空航天大学出版社 * |
王永青 等: ""基于粒子群算法的三维扫描点云数据在机配准"", 《组合机床与自动化加工技术》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109186601A (zh) * | 2018-07-05 | 2019-01-11 | 南京理工大学 | 一种基于自适应无迹卡尔曼滤波的激光slam算法 |
CN109959937A (zh) * | 2019-03-12 | 2019-07-02 | 广州高新兴机器人有限公司 | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 |
CN109959937B (zh) * | 2019-03-12 | 2021-07-27 | 广州高新兴机器人有限公司 | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 |
CN111113422A (zh) * | 2019-12-30 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 机器人定位方法、装置、计算机可读存储介质及机器人 |
CN111113422B (zh) * | 2019-12-30 | 2021-10-29 | 深圳市优必选科技股份有限公司 | 机器人定位方法、装置、计算机可读存储介质及机器人 |
CN111257909A (zh) * | 2020-03-05 | 2020-06-09 | 安徽意欧斯物流机器人有限公司 | 一种多2d激光雷达融合建图与定位方法及系统 |
CN111257909B (zh) * | 2020-03-05 | 2021-12-07 | 安徽意欧斯物流机器人有限公司 | 一种多2d激光雷达融合建图与定位方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107239076B (zh) | 基于虚拟扫描与测距匹配的agv激光slam方法 | |
CN109945856A (zh) | 基于惯性/雷达的无人机自主定位与建图方法 | |
CN102419178B (zh) | 基于红外路标的移动机器人定位系统和方法 | |
CN109345574A (zh) | 基于语义点云配准的激光雷达三维建图方法 | |
CN107315171B (zh) | 一种雷达组网目标状态与系统误差联合估计算法 | |
Xiao et al. | Monocular vehicle self-localization method based on compact semantic map | |
CN107463871A (zh) | 一种基于角特征加权的点云匹配方法 | |
CN110008851A (zh) | 一种车道线检测的方法及设备 | |
CN103413352A (zh) | 基于rgbd多传感器融合的场景三维重建方法 | |
CN110132284B (zh) | 一种基于深度信息的全局定位方法 | |
CN110570449A (zh) | 一种基于毫米波雷达与视觉slam的定位与建图方法 | |
Wu et al. | Robust LiDAR-based localization scheme for unmanned ground vehicle via multisensor fusion | |
CN109425348A (zh) | 一种同时定位与建图的方法和装置 | |
CN113763549B (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113960614A (zh) | 一种基于帧-地图匹配的高程图构建方法 | |
CN110927765B (zh) | 激光雷达与卫星导航融合的目标在线定位方法 | |
CN109799513A (zh) | 一种基于二维激光雷达数据中直线特征的室内未知环境定位方法 | |
CN105389819A (zh) | 一种鲁棒的半标定下视图像极线校正方法及系统 | |
Fu et al. | Semantic Map-based Visual Localization with Consistency Guarantee | |
Xue et al. | Visual-marker based localization for flat-variation scene | |
CN107330934A (zh) | 低维度的集束调整计算方法与系统 | |
Kupervasser et al. | Robust positioning of drones for land use monitoring in strong terrain relief using vision-based navigation | |
CN110766154B (zh) | 一种行人航迹推断方法、装置、设备及存储介质 | |
CN110148218A (zh) | 一种大批量机载LiDAR点云数据整体优化的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171212 |