CN104657981B - 一种移动机器人运动中三维激光测距数据动态补偿方法 - Google Patents
一种移动机器人运动中三维激光测距数据动态补偿方法 Download PDFInfo
- Publication number
- CN104657981B CN104657981B CN201510006980.0A CN201510006980A CN104657981B CN 104657981 B CN104657981 B CN 104657981B CN 201510006980 A CN201510006980 A CN 201510006980A CN 104657981 B CN104657981 B CN 104657981B
- Authority
- CN
- China
- Prior art keywords
- grid
- point cloud
- laser
- dimensional laser
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 5
- 230000008447 perception Effects 0.000 abstract description 2
- 238000005056 compaction Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 241000905510 Scena Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002567 autonomic effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种面向动态过程中的三维激光数据动态补偿方法,属于移动机器人自主环境感知技术领域;本发明最大的创新点在于改善了在运动过程中三维激光数据采集方式,且通过合理的数据精简方法,提高算法的执行效率;为此本发明采用动态数据匹配方法,矫正由里程计引入的机器人位姿误差,提高动态过程中获得三维激光数据的精度,另一方面,采用平面提取方法滤除杂乱的激光数据,降低匹配激光点数量,使得所提方法可以在线实时运行;本发明可用在移动机器人结构化场景重构等领域。
Description
技术领域
本发明涉及移动机器人自主环境感知技术领域,主要用于移动机器人在未知动态环境实时定位以及场景重构,特别涉及到对移动机器人在运动过程中通过三维激光测距传感器获取的测距数据的动态补偿方法。本发明以移动机器人为运动载体,以三维激光测距平台及里程计为测量装置,以车载计算机为数据收集及处理平台,对运动中移动机器人获取的三维激光测距数据进行动态补偿。
背景技术
激光传感器是移动机器人领域最重要的感知设备之一,具有测量精度高、受环境干扰小等优点,但随着移动机器人技术的不断发展,基于单点或二维平面的测量方式已经无法满足移动机器人的应用需求,如何获取精确的三维激光测距数据成为该领域的一个研究热点。
目前,获取三维激光测距数据的方法主要分为三种。一种方法是通过对激光点列进行高速旋转获取三维激光数据,其优点是可以保证三维数据的实时获取,缺点是数据稀疏,垂直方向的视角有限。文献(Yu Y,Gao Z,Zhu B,et al.Recognition andClassification of Vehicle Target Using the Vehicle-Mounted Velodyne LIDAR[R].SAE Technical Paper,2014.;Huang P S,Hong W B,Chien H J,et al.Extrinsiccalibration of a multi-beam LiDAR system with improved intrinsic laserparameters using v-shaped planes and infrared images[C]//IVMSP Workshop,2013IEEE 11th.IEEE,2013:1-4.)中所使用的是Velodyne HDL-64E型三维激光测距传感器,该设备能在水平方向以最快15Hz的频率进行高速旋转,在垂直方向上每个激光点列仅由64个激光点组成,使得获取的三维激光数据比较稀疏,无法满足场景重构、环境理解等应用需求,因此在使用时需要通过机器人位姿信息对多组三维激光数据进行整合。
第二种获取三维数据的方法利用旋转平台给高精度二维激光增加一维旋转,这种方法虽然可以保证测量系统的可视范围和数据密度,但是受二维激光本身特性的限制,旋转云台的转速不能太快,从而导致三维激光数据采集速度较慢。文献(Hao Men,BirukGebre,Kishore Pochiraju.Color Point Cloud Registration with 4D ICP Algorithm[C].Proceedings of IEEE International Conference on Robotics and Automation,Shanghai,China,2011,1511-1516.;Jorge L.Martínez,Antonio J.Reina,Anthony Mandow,Jesús Morales.3D registratin of laser range scenes by coincidence ofcourse binary cubes[J].Machine Vision and Applications,2012,23:857-867.)使用二维SICK激光传感器配合横向或纵向旋转云台定点采集三维激光数据,再依靠惯导系统、GPS定位系统或匹配算法对多个定点三维激光数据进行融合,从而获得完整的环境信息。这种定点式的扫描方法破坏了机器人运动的连贯性,且由于云台旋转需要一定的时间,降低了机器人的工作效率。
第三种方法是将二维激光系统以一定角度固定在机器人平台上,在机器人运动的同时积累二维激光数据,组成三维激光点云。该方法成本较低,实现简便,但是三维点的精度完全依靠于每组二维激光数据采集时刻的机器人位姿精度。如文献(Jan Elseberg,Dorit Borrmann and Andureas Nüchter.Algorithmic Solutions for ComputingPrecise Maximum Li kelihood 3D Point Clouds from Mobile Laser ScanningPlatforms[J].Remot Sensing,2013,5(11):5871-5906.;José-Luis Blanco-Claraco,Francisco-and Javier González-Jiménez.The Málaga urbandataset:High-rate stereo and LiDAR in a rea listic urban scena rio[J].International Journal of Robotics Research,2014,33(2):207-214.)采用固定角度激光传感器结合里程计、惯导系统等定位传感器采集室外环境的三维激光点云,为了获得高精度的环境数据,对定位传感器的定位精度有较高的要求,而高精度定位系统会大大增加整个系统的构建成本。
对于移动机器人来说,获取准确详细的环境信息是其实现地图构建、场景理解、路径规划等后续任务的先决条件,而数据的连续采集往往是决定任务成败的关键因素。仅仅依靠三维激光传感器很难从数据密度、采集连贯性、系统成本等多个方面满足移动机器人的多种应用需求。基于上述情况,本发明提出了一种适用于移动机器人运动过程中三维激光测距数据动态补偿方法,实现移动机器人持续运动过程中对三维环境的扫描,提高了机器人运行效率,并且以价格相对低廉的设备获取精确的三维激光数据。
发明内容
本发明提出了一种里程计初步分段校正结合三维激光测距数据配准的方法,具体技术方案如下:
(1)获取三维数据匹配模板
移动机器人在初始位姿利用360度全景三维激光测距传感器对环境进行扫描,获取三维环境的激光测距数据,通过坐标变换将激光测距数据变换到全局坐标系下构成点云作为匹配模板。
(2)连续数据分段
在移动机器人运动过程中,设旋转云台旋转半周时间为一个周期,将每个周期分割成5等份,在每一小段时间内利用移动机器人的里程计数据推算机器人位姿,并利用预测的机器人位姿对运动过程中构建的点云进行初步校正。此分段校正方法利用里程计短距离准确数据保证每小段时间内的激光点云局部形状的准确性。
(3)提取平面特征
本发明采用基于区域扩张的平面特征提取方法。先拟合局部邻域平面,然后将局部平面合并得到完整的平面特征。具体的,每个激光点有8个邻居(边界除外),直接反映了激光在空间的邻域关系。定义一个k×k的邻域,将邻域内的激光点进行平面拟合。k可以根据实际情况取不同的值,取k>3。每个邻域包含p1,p2,...pN共N个激光点,(邻域中可能出现无效扫描点,故N不一定等于k×k,)每个点pi=[x,y,z]T用向量表示。设它们的重心为m有:
设拟合后平面的法向量为单位化的n,i=1,2,...,N,N为邻域内激光点个数,拟合的目标是使得下式取得最小值:
引入邻域点集的协方差矩阵:
则可以得到:
D=nTAn (4)
由于n是单位化的,即有下式:
nTn=1 (5)
欲使D最小,引入拉格朗日乘子λ,使用拉格朗日乘子法可得:
由此可得:
An=λn (7)
将上式代回到公式(4)中,可得:
D=nTλn=λnTn=λ (8)
于是有,D能达到的最小值,恰恰是协方差矩阵A的最小特征值,而使D能取得该最小值的法向量n,就是A的最小特征值所对应的特征向量。另外,D能达到最小值的大小,又可以用来描述该平面拟合的好坏。
在实际的计算和实现中,需要设定一个阈值Pthresh,如果求出A的最小特征值λmin小于Pthresh,则认为拟合成功,将该点做上标志,并同时保存与λmin对应的A的特征向量作为该点的拟合法向量n。否则,认为拟合失败,它们将不在参与到后续的计算当中。为验证点云平面特征的提取方法,采集原始激光点云,如图2所示,该场景为一个实验室,内部有一些桌椅和实验设备,对原始激光点云提取平面特征得到的属于平面的点云如图3所示。
(4)合并邻域平面
邻域平面只是一个平面的片段,相邻的k×k邻域平面需要合并,以提取出完整的平面。两个相邻的k×k邻域如果都是平面则考虑它们是否可以合并。合并的条件是两邻域平面的法向夹角足够小。定义二维数组Nbr存储k×k邻域内的点,定义一个Planes容器存储平面。于是邻域平面合并算法的伪代码可以如下所示:
(5)基于栅格的数据匹配
将保留的点云进行栅格化处理。根据映射到每个栅格中的激光数据计算出栅格内点云形状参数,并构建含有形状参数的向量用于栅格匹配。具体的,栅格为边长为0.5米的正方体。包含激光点数目少于10个的栅格将被删除。计算栅格内点云重心:
其中M为栅格激光点的数目,qi为栅格内第i个激光点。描述适应点云二次曲面形状的参数:
二次曲面的各轴线相对长度用来决定栅格结构和平面的相似度。二阶矩阵S的特征值与特征向量为二次曲面轴线的长度和方向。比较直观的,当最小的特征值远小于另外两个特征值,则激光点云呈现平面形状。由矩阵S的三个特征值λ1≤λ2≤λ3,得到:
为点云的平面相似度,取值为0到1,P越接近1平面越平整。
构建用于栅格匹配的向量其中v1是S特征值最小的特征向量,即平面法向量。α用来修正栅格内点云重心位置和局部形状之间的权重,这里取经验值10倍栅格分辨率。这个取值意味着在10个栅格距离之内认为形状匹配相对较好的栅格比在相同位置但是形状匹配不好的栅格要近。
点云配准基于最近点迭代(ICP)算法。首先在模板点云中找到与机器人运动过程中获取的点云栅格匹配对。具体的,设机器人运动过程中获取点云中一个栅格为voxel,在同一坐标系下,在模板点云栅格中取与voxel距离为10倍栅格距离内的所有栅格voxeli′(其中i=1,2...m,m为10倍栅格距离内栅格数目)。计算voxel栅格形状向量与voxeli′中栅格形状向量之间的欧几里得距离:
取最小欧几里得距离相对应的voxel′Dmin作为voxel的匹配栅格。为了避免方向不确定问题,特征向量v1正方向置为指向传感器方向。
每次迭代过程中,计算出一个机器人位姿校正值δT=(δR,δt),其中[μ]×表示μ的斜对称矩阵,δr为旋转分量,δt为平移分量。线性化校正值采用对旋转分量进行一阶泰勒展开:
δR=I+[δr]× (13)
其中[δr]×是斜对称矩阵,有如下性质:
[δr]×v=δr×v=-[v]×δr (14)
其中向量δr与斜对称矩阵[δr]×转换关系为:设则配准约束如式(15)所示:
CT(μa-μb)=0 (15)
其中μa,μb为匹配的栅格a与栅格b的重心,特征值λ1和特征向量v1通过栅格a和栅格b的二阶矩阵和Sab(其中Sab=Sa+Sb)求得。引入(非线性)校正,式(15)变成:
CT(μa-(δRμb+δt))=0 (16)
根据等式(13),(14)线性化(16)得到:
CT(-[μb]×δr+δt)=CT(μa-μb) (17)
对每对匹配的栅格套用上式,利用最小二乘方法求出两幅点云之间的旋转平移关系,校正机器人位姿,进而对三维激光测距数据进行补偿。
附图说明
图1为SmartROB-2自主移动机器人及三维激光传感器示意图。
图2为室内场景三维激光点云示意图。
图3为提取平面特征后的室内场景数据。
图4为里程计补偿后三维激光测距数据重构的实验室场景。
图5为图4中激光数据经过动态补偿后的实验室场景。
图6为里程计补偿后三维激光测距数据重构的走廊场景。
图7为图6中激光数据经过动态补偿后的走廊场景。
具体实施方式
以下结合技术方案(和附图)详细叙述本发明的具体实施方式。
本实验利用移动机器人在运动过程中采集的激光测距数据重构出实验场景。通过对比仅用里程计补偿的方法和应用所提补偿方法重构出的三幅场景验证本方法的有效性。利用图1的SmartROB-2自主移动机器人系统进行实验。激光传感器采用UTM-30LX型激光传感器,其平面扫描角度为0到270度,测量距离为0.1到30米,角度分辨率为0.25度,扫描频率为每秒40帧。激光传感器安装在旋转云台上,云台的内置电机带动激光在水平面上进行360度旋转,且旋转过程中激光扫描平面一直与水平面保持垂直关系。云台旋转一周时间为8秒,设置UTM-30LX型激光传感器的扫描平面为270度,故云台旋转半周即可获取整个场景的点云,整幅点云激光点数目为4×40×270÷0.25=172800。下面结合设备来说明本发明的具体实施方式。
将移动机器人放置在实验场景中,对设备上电并完成初始化。启动后,移动机器人会按照设置好的路径行驶,在行驶过程中激光测距传感器会采集三维激光测距数据,里程计系统也会记录移动机器人的位置信息,这些数据信息都将传送到计算机。分别针对不同情况,给出两种数据采集结果。第一种仅使用里程计信息对采集的激光测距数据进行补偿,重构出场景如图4和图6所示。第二种应用所提出的基于平面特征的三维激光数据匹配的方法对里程计补偿过的数据进一步补偿,利用补偿后数据再重构出实验场景如图5和图7所示,图中间空白处的数据为机器人运动轨迹。图4和图5为封闭的实验室数据,机器人从房间的左侧运动到右侧,再运动到房间的中间位置。通过对比两幅场景图可以发现图4所示场景图扭曲较大,特别是房间的左侧,由于里程计误差及车轮滑动影响,使得在运动过程中不同时刻采集的数据出现分层现象,而图5所示的经过动态补偿后的场景图准确地还原了实验场景。为了验证算法的有效性,在开放式走廊环境也进行相应实验,图6和图7为开放式的走廊实验数据,机器人沿走廊内一个直角拐角运动,图6中直角拐角处的墙壁发生较大的扭曲,图7中的激光数据经过动态补偿后可以还原真实实验场景。
Claims (1)
1.一种移动机器人运动中三维激光测距数据动态补偿方法,其特征在于:先获取三维环境的点云作为匹配模板;对平面点云进行栅格化处理并计算各栅格内点云形状参数,构建含有形状参数的向量,基于最小二乘法计算两幅点云之间的变换关系,校正机器人位姿,进而对三维激光测距数据进行补偿;具体步骤如下:
a)移动机器人在初始位姿利用360度全景三维激光测距传感器对环境进行扫描,获取三维环境的激光测距数据,通过坐标变换将激光测距数据变换到全局坐标系下构成点云作为匹配模板;
b)在移动机器人运动过程中,设旋转云台旋转半周时间为一个周期,将每个周期分割成5等份,在每一小段时间内利用移动机器人的里程计数据推算机器人位姿,并利用预测的机器人位姿对运动过程中构建的点云进行初步校正;
c)定义一个k×k的邻域,将邻域内的激光点进行平面拟合,取k>3;拟合的目标是使得取得最小值,其中pi=[x,y,z]T为一个激光点,m为激光点重心,n为拟合后平面的单位化法向量,i=1,2,...,N,N为邻域内激光点个数;引入邻域点集的协方差矩阵得到D=nTAn,欲使D最小,引入拉格朗日乘子λ,使用拉格朗日乘子法得由此可得An=λn,从而得到D=nTλn=λnTn=λ,D能达到的最小值,恰恰是协方差矩阵A的最小特征值,而使D能取得该最小值的法向量n,就是A的最小特征值所对应的特征向量;设定一个阈值Pthresh,如果求出A的最小特征值λmin小于Pthresh,则认为平面拟合成功,否则,认为拟合失败,删除局部邻域拟合平面失败的点云;
d)对保留的点云进行栅格化处理,计算栅格内的形状参数P为栅格内点云平面相似度,λ1,λ2,λ3为适应点云二次曲面形状的参数的三个特征值且λ1≤λ2≤λ3,其中M为栅格激光点的数目,qi为栅格内第i个激光点,μ为栅格内点云重心,i=1,2,...,M;为每个栅格构建含有其形状参数的向量其中ν1是S特征值最小的特征向量,即平面法向量,α用来修正栅格内点云重心位置和局部形状之间的权重;基于向量间的欧几里得距离最小准则完成栅格匹配,结合配准约束CT(-[μ]×δr+δt),其中[μ]×表示μ的斜对称矩阵,δr为旋转分量,δt为平移分量;利用最小二乘方法求出两幅点云之间的旋转平移关系,校正机器人位姿,进而校正三维激光测距数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510006980.0A CN104657981B (zh) | 2015-01-07 | 2015-01-07 | 一种移动机器人运动中三维激光测距数据动态补偿方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510006980.0A CN104657981B (zh) | 2015-01-07 | 2015-01-07 | 一种移动机器人运动中三维激光测距数据动态补偿方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104657981A CN104657981A (zh) | 2015-05-27 |
CN104657981B true CN104657981B (zh) | 2017-05-24 |
Family
ID=53249057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510006980.0A Active CN104657981B (zh) | 2015-01-07 | 2015-01-07 | 一种移动机器人运动中三维激光测距数据动态补偿方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104657981B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105547288A (zh) * | 2015-12-08 | 2016-05-04 | 华中科技大学 | 一种煤矿井下移动设备自主定位的方法及系统 |
CN105787933B (zh) * | 2016-02-19 | 2018-11-30 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN106154287A (zh) * | 2016-09-28 | 2016-11-23 | 深圳市普渡科技有限公司 | 一种基于双轮里程计与激光雷达的地图构建方法 |
CN106908052B (zh) * | 2017-02-09 | 2020-06-02 | 北京光年无限科技有限公司 | 用于智能机器人的路径规划方法及装置 |
CN108731679A (zh) * | 2017-04-18 | 2018-11-02 | 深圳市丰巨泰科电子有限公司 | 移动机器人环境特征定位方法 |
CN107121128B (zh) * | 2017-05-27 | 2022-04-05 | 中国北方车辆研究所 | 一种足式机器人地形参数的测量方法及系统 |
CN108334080B (zh) * | 2018-01-18 | 2021-01-05 | 大连理工大学 | 一种针对机器人导航的虚拟墙自动生成方法 |
CN109186463B (zh) * | 2018-09-04 | 2021-12-07 | 浙江梧斯源通信科技股份有限公司 | 应用于可移动机器人的防跌落方法 |
CN110379044B (zh) * | 2018-09-13 | 2023-01-31 | 北京京东乾石科技有限公司 | 一种运动误差补偿的方法和装置 |
CN109506624B (zh) * | 2018-10-31 | 2021-11-02 | 台州职业技术学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN110058594A (zh) * | 2019-04-28 | 2019-07-26 | 东北大学 | 基于示教的多传感器的移动机器人定位导航系统及方法 |
CN112643664B (zh) | 2019-10-10 | 2022-09-23 | 深圳市优必选科技股份有限公司 | 定位误差消除方法、装置、机器人及存储介质 |
CN111352420B (zh) * | 2020-03-03 | 2021-08-10 | 厦门大学 | 一种激光导航agv高精度定位及目标对准控制方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103257342A (zh) * | 2013-01-11 | 2013-08-21 | 大连理工大学 | 三维激光传感器与二维激光传感器的联合标定方法 |
CN104236521A (zh) * | 2013-06-14 | 2014-12-24 | 科沃斯机器人科技(苏州)有限公司 | 用于自移动机器人的线激光测距方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8918209B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
-
2015
- 2015-01-07 CN CN201510006980.0A patent/CN104657981B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103257342A (zh) * | 2013-01-11 | 2013-08-21 | 大连理工大学 | 三维激光传感器与二维激光传感器的联合标定方法 |
CN104236521A (zh) * | 2013-06-14 | 2014-12-24 | 科沃斯机器人科技(苏州)有限公司 | 用于自移动机器人的线激光测距方法 |
Non-Patent Citations (2)
Title |
---|
3-D-Laser-Based Scene Measurement and Place Recognition for Mobile Robots in Dynamic Indoor Environments;Yan Zhuang et al;《IEEE Transactions on Instrumentation & Measurement》;20130228;第62卷(第2期);438-450 * |
庄严 等.移动机器人基于三维激光测距的室内场景认知.《自动化学报》.2011,第37卷(第10期),1232-1240. * |
Also Published As
Publication number | Publication date |
---|---|
CN104657981A (zh) | 2015-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104657981B (zh) | 一种移动机器人运动中三维激光测距数据动态补偿方法 | |
Wu et al. | Integration of aerial oblique imagery and terrestrial imagery for optimized 3D modeling in urban areas | |
Zlot et al. | Efficient large‐scale three‐dimensional mobile mapping for underground mines | |
CN111046776B (zh) | 基于深度相机的移动机器人行进路径障碍物检测的方法 | |
Wefelscheid et al. | Three-dimensional building reconstruction using images obtained by unmanned aerial vehicles | |
Zhou et al. | S4-SLAM: A real-time 3D LIDAR SLAM system for ground/watersurface multi-scene outdoor applications | |
Wang et al. | DV-LOAM: Direct visual lidar odometry and mapping | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
Ge et al. | Surface-based matching of 3D point clouds with variable coordinates in source and target system | |
CN104809759A (zh) | 基于小型无人直升机的大面积非结构化场景三维建模方法 | |
Zang et al. | An accurate TLS and UAV image point clouds registration method for deformation detection of chaotic hillside areas | |
CN103512579A (zh) | 一种基于热红外摄像机和激光测距仪的地图构建方法 | |
Xie et al. | Multi-scene building height estimation method based on shadow in high resolution imagery | |
Mandow et al. | Fast range-independent spherical subsampling of 3D laser scanner points and data reduction performance evaluation for scene registration | |
CN102589530A (zh) | 基于二维相机和三维相机融合的非合作目标位姿测量方法 | |
CN110864696A (zh) | 一种基于车载激光惯导数据的三维高精地图绘制方法 | |
CN115451948A (zh) | 一种基于多传感器融合的农业无人车定位里程计方法及系统 | |
Hammoudi et al. | Extracting building footprints from 3D point clouds using terrestrial laser scanning at street level | |
Fasiolo et al. | Comparing LiDAR and IMU-based SLAM approaches for 3D robotic mapping | |
Yuan et al. | Dense image-matching via optical flow field estimation and fast-guided filter refinement | |
Cai et al. | An accurate geocoding method for gb-sar images based on solution space search and its application in landslide monitoring | |
Huang et al. | Multi-view large-scale bundle adjustment method for high-resolution satellite images | |
Pohjavirta et al. | Automated registration of wide-baseline point clouds in forests using discrete overlap search | |
Zhang et al. | Accurate real-time SLAM based on two-step registration and multimodal loop detection | |
Al-Durgham | The registration and segmentation of heterogeneous Laser scanning data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |