CN116202509A - 一种面向室内多层建筑的可通行地图生成方法 - Google Patents
一种面向室内多层建筑的可通行地图生成方法 Download PDFInfo
- Publication number
- CN116202509A CN116202509A CN202310258476.4A CN202310258476A CN116202509A CN 116202509 A CN116202509 A CN 116202509A CN 202310258476 A CN202310258476 A CN 202310258476A CN 116202509 A CN116202509 A CN 116202509A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- passable
- laser radar
- map
- wheel speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000005259 measurement Methods 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 16
- 238000012216 screening Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 3
- 238000005295 random walk Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 7
- 230000004927 fusion Effects 0.000 abstract description 7
- 230000015556 catabolic process Effects 0.000 abstract description 6
- 238000006731 degradation reaction Methods 0.000 abstract description 6
- 230000008859 change Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种面向室内多层建筑的可通行地图生成方法,包括以下步骤:将激光雷达、惯性传感器和轮速里程计安装到无人车上;基于激光雷达、惯性传感器和轮速里程计建立坐标系,并基于所述坐标系获得误差状态;构建测量模型,通过测量模型对多层建筑进行测量,获得点云数据和无人车位姿数据;通过获得的误差状态对无人车位姿数据进行数据更新,获得更新位姿数据;根据所述点云数据和更新位姿数据生成可通行地图。本方法采用紧耦合多传感器融合的方式进行定位,可以有效提高系统的鲁棒性与定位精度,针对如长廊,隧道等的结构退化环境,利用紧耦合多传感器融合的方式可以有效解决环境退化问题。
Description
技术领域
本发明属于路径规划技术领域,尤其涉及一种面向室内多层建筑的可通行地图生成方法。
背景技术
传统三维点云地图通过定位模块给出的位姿将实时点云或者关键帧投影至全局坐标系,这样构建出来的室内场景下点云地图可读性较差,地图使用者难以从点云地图中获取关键的信息。二维地图虽然结构清晰,可读性强,但是当无人车运行在有坡度地面或者多楼层环境时,无法使用。而且传统激光雷达与IMU/轮速里程计融合首先通过激光雷达的匹配过程获取一个初步位姿,然后将获得的位姿与IMU、里程计进行融合。此种方式为松耦合融合,当激光雷达处于退化环境时,此时点云匹配错误,松耦合融合会继续使用错误的匹配结果进行融合,此时定位精度会不可避免的降低。
发明内容
为解决上述技术问题,本发明提出了一种面向室内多层建筑的可通行地图生成方法,以解决退化环境下定位失效的问题。
为实现上述目的,本发明提供了一种面向室内多层建筑的可通行地图生成方法,包括以下步骤:
将激光雷达、惯性传感器和轮速里程计安装到无人车上;
基于激光雷达、惯性传感器和轮速里程计建立坐标系,并基于所述坐标系获得误差状态;
构建测量模型,通过测量模型对多层建筑进行测量,获得点云数据和无人车位姿数据;
通过获得的误差状态对无人车位姿数据进行数据更新,获得更新位姿数据;
根据所述点云数据和更新位姿数据生成可通行地图。
优选地,所述建立坐标系的方法包括:
建立激光雷达坐标系、惯性传感器坐标系、轮速里程计坐标系和全局坐标系,并将所述激光雷达坐标系和轮速里程计坐标系转换到惯性传感器坐标系中;
激光雷达坐标系的坐标系原点位于激光雷达扫描中心,X轴指向激光雷达正前向扫描方向,Z轴沿着激光雷达旋转轴竖直向上,Y轴指向激光雷达左向;
惯性传感器坐标系的坐标系原点位于惯性传感器中心,X轴指向无人车正前方向,Z轴竖直向上,Y轴指向无人车左向;
轮速里程计坐标系的坐标系原点位于无人车中心,X轴指向无人车正前方向,Z轴竖直向上,Y轴指向无人车左向;
全局坐标系为开始测量时刻的惯性传感器坐标系。
优选地,所述获得误差状态的方法包括:
通过陀螺仪的输出和加速度计的输出获得系统输入;
通过陀螺仪与加速度计的量测噪声和陀螺仪与加速度计的随机游走过程获得系统噪声;
基于所述系统输入和系统噪声获取位姿变换关系;
通过位姿变换关系推导得出误差量的关系,并基于误差量的关系得到误差状态。
优选地,所述构建测量模型的方法包括构建轮速里程计量测模型和构建激光雷达量测模型;
所述构建轮速里程计量测模型的方法包括:通过惯性传感器坐标系在全局坐标系下的速度得到轮速里程计的量测信息,根据所述量测信息获得观测值,基于所述观测值获得轮速里程计的观测矩阵,所述观测矩阵结合量测噪声得到轮速里程计的观测方程,基于轮速里程计的观测方程构建轮速里程计量测模型。
优选地,所述构建激光雷达量测模型的方法包括:
通过激光雷达对多层建筑进行扫描,获得三维点云,通过三维点云获取特征点集,所述特征点集结合激光雷达的观测值获得激光雷达的观测方程,基于激光雷达的观测方程构建激光雷达量测模型。
优选地,所述生成可通行地图的过程包括:
根据点云数据进行可通行区域检测获得可通行区域,可通行区域结合更新位姿数据构建可通行地图,可通行区域检测包括地面可通行区域检测和楼梯检测;
所述地面可通行区域检测的过程包括:根据激光雷达的安装高度对点云数据进行裁剪处理,获得裁剪后的点云数据,以俯视图的视角将点云数据进行扇形分割,分割角度为激光雷达水平分辨率,将区域内的点由直角坐标系转换成柱坐标系描述的数据结构,对同一分割角的射线按照半径大小进行排序得到顺序数据集,比较射线相邻三点获得相邻三点的坡度,根据坡度判断检测区域是否为地面可通行区域。
优选地,所述楼梯检测的过程包括:
筛选出非地面可通行区域数据集,将非地面可通行区域数据集由柱坐标系转换为直角坐标系得到点云集合,基于楼梯的踢面、踏面和楼梯宽度对点云集合进行楼梯平面查找,得到初始楼梯平面,再通过直线拟合对初始楼梯平面进行筛选,得到楼梯区域。
优选地,所述生成可通行地图的过程包括:
基于octomap构建栅格地图,对可通行区域点云进行八叉树地图光线追踪,得到全局可通行区域栅格地图中新增的栅格与消失的栅格,新增栅格与消失栅格结合无人车在全局系下的位姿生成可通行地图。
与现有技术相比,本发明具有如下优点和技术效果:
本发明所述的面向室内多层建筑的可通行地图生成方法,本方法采用紧耦合的方式通过三种传感器的组合测量有效的解决了环境退化后精确度降低的问题,并且通过八叉树地图光线追踪方法进行地图更新,有效的减少了数据地图的数据存储量。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例的可通行地图生成方法流程图;
图2为本发明实施例的传感器的坐标系与位置图;
图3为本发明实施例的扇形划分示意图;
图4为本发明实施例的楼梯特征示意图;
图5为本发明实施例的楼梯点云投影示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例1
如图1所示,本发明提出了一种面向室内多层建筑的可通行地图生成方法,包括以下步骤:
将激光雷达、惯性传感器和轮速里程计安装到无人车上;
基于激光雷达、惯性传感器和轮速里程计建立坐标系,并基于所述坐标系获得误差状态;
构建测量模型,通过测量模型对多层建筑进行测量,获得点云数据和无人车位姿数据;
通过获得的误差状态对无人车位姿数据进行数据更新,获得更新位姿数据;
根据所述点云数据和更新位姿数据生成可通行地图。
进一步的优化方案,构建的无人车坐标系如图2所示,
其中t时刻激光雷达坐标系FL,t定义如下:坐标系原点位于激光雷达扫描中心,X轴指向激光雷达正前向扫描方向,Z轴沿着激光雷达旋转轴竖直向上,Y轴指向激光雷达左向,X、Y、Z轴符合右手定则,惯性传感器(IMU)输出当前时刻其自身坐标系的角速度(陀螺仪)和比力(加速度计输出),设在t时刻陀螺仪输出ωm,t,加速度计输出为am,t,所在坐标系为t时刻IMU系FI,t,轮速里程计输出当前车体的前向运动速度,一般坐标系FO,t位于车体的中心位置,t时刻轮速里程计的输出为vodo,t,t时刻无人车的前向速度通常表示为sovodo,t,其中so为轮速里程计的标度因数,全局坐标系FG定义为0时刻的IMU坐标系FI,0。
进一步的优化方案,各传感器之间的关系如下:
由于各种传感器安装位置不同,其所在坐标系之间并不完全重合,设t时刻各种传感器的坐标系与位置如图2所示,本文所有的数据处理均在IMU坐标系下。
所以
进一步的优化方案,对运算符号进行如下定义:
ln(·)为Exp(·)的逆映射。
进一步的优化方案,误差状态的计算方法如下:
设系统的输入为u,则
其中ωm为陀螺仪的输出,am为加速度计的输出。
设系统的噪声均为高斯过程的白噪声,则系统的噪声建模如下:
其中nω、na为陀螺仪与加速度计的量测噪声,nbω、nba为陀螺仪与加速度计的随机游走过程。
由IMU的运动模型,设i时刻的系统输入与噪声分别为ui与wi,则从i时刻到i+1时刻的位姿变换关系为:
其中,Δti=ti+1-ti为i时刻到i+1时刻的时间步长,
根据i时刻与i+1时刻x的关系,推导两个时刻误差量的关系,有如下步骤:
之后根据i时刻的状态最佳估计值xi,推导出i+1时刻的状态最佳估计值xi+1
则i+1时刻的误差状态可表示为:
其中Fx与Fw的推导过程如下:
首先根据式18可知
同理可得:
将上面两式非线性部分进行线性化处理得到:
其中,Jr为右乘BCH近似雅可比矩阵,
此时即可得到Fx与Fw分别为:
设Q=wwT为噪声w的协方差矩阵,则误差状态的协方差矩阵Pi+1为:
Pi+1=FxPiFx T+FwQFwT 31
进一步的优化方案,轮速里程计量测模型构造方法如下:”
则sovodo,i+1用如下状态量表示:
用误差状态量表示各个状态量,
所以sovodo,i+1可表示为:
将sovodo,i+1线性化可得:
设轮速里程计的量测噪声为nO,则观测方程表示如下:
基于观测方程构建轮速里程计量测模型。
激光雷达量测模型构造过程如下
用状态量表示残差并线性化得到:
理想情况下残差的值应该为0,但实际情况考虑到量测噪声nf,j,故特征残差可表示如下:
则观测方程为:
当取所有特征点的量测时,令
因此激光雷达的观测方程表示如下,
基于激光雷达的观测方程构建激光雷达量测模型。
进一步的优化方案,对无人车状态更新
根据已经获得IMU的误差状态方程与轮速历程计/激光雷达误差量测方程,因此根据卡尔曼滤波的增益方程i+1时刻的滤波增益K为
进一步的优化方案,生成可通行地图的过程包括:
根据点云数据进行可通行区域检测获得可通行区域,可通行区域结合更新位姿数据构建可通行地图,可通行区域检测包括地面可通行区域检测和楼梯检测;
本申请基于射线几何的方法进行地面可通行区域检测:
其中h1与h2是设定的裁剪高度阈值。
将分别划分给不同区域S0,S1...Sj...S2π/α,α为分割角度通常为激光雷达水平分辨率。现以扇形区域Sj为例进行可通行区域检测。首先将该区域内的点pSj(xSj,ySj,zSj)由直角坐标系转换成柱坐标系描述的数据结构gcol(rcol,θcol,zSj),其中rcol与θcol分别为:
由于所设的分割角度α较小,因此可以将Sj内的点看成一条直线,对同一夹角的射线按照半径大小进行排序得到数据集Gcol。
此时Gcol可表示为
Gcol={gcol,0,gcol,1...gcol,j...gcol,m|rcol,0<rcol,1<...rcol,j<...rcol,m} 57
设pcol,j,pcol,j-1,pcol,j-2为射线相邻三点,nj-1为pcol,j-2与pcol,j-1两点之间的向量,nj为pcol,j-1与pcol,j两点之间的向量,则pcol,j与pcol,j-1的坡度βj为:
此时判断射线前后两点的坡度是否大于一定的角度阈值ε即可判断改点是否为地面可通行区域点,故Sj区域里的地面点可表示为:
因此可得当前扫描点云的地面可通行区域Pground为:
将由柱坐标系转换为直角坐标系得到点云集合Pup,之后对Pup进行楼梯平面查找。在查找过程中注意以下特征。一阶楼梯分为踢面Pr与踏面Pt两部分,而踢面和踏板平面的法线分别与激光雷达X轴的方向平行和垂直,且通常楼梯的宽度小于w,Pr与Pt的高度延申小于hr或者深度延申小于dr,如图4所示。
针对上述特征Pup中筛选出合适的平面集合Pplane={Pplane,1,Pplane,2,...Pplane,j,...Pplane,l},其中l为平面数量。此时Pplane会包含一些干扰平面的点云,因此需要对楼梯点云进行二次筛选。
首先需要将第一次查找的楼梯平面点云Pplane投影至XZ轴平面得到点云集合Pline={pline(xline,yline,zline)|yline=0,pline∈Pplane},如图5所示。
由图5可以看出,投影至XZ轴平面得到点云Pline近似为一条直线,因此利用最小二乘法对点云Pline进行直线拟合得到直线的表达式为:
Alinex+Blinez+Cline=0 62
其中Aline,Bline,Cline为拟合直线的参数,利用拟合的直线对楼梯平面进行二次筛选。
首先获取Pplane每个平面的中心点坐标nplane,j=(xplane,j,yplane,j,zplane,j),j=1,2,...l,计算nplane,j到拟合直线的距离dline,j为:
dline,j小于设定的距离阈值dth为楼梯点云Pstair,Pstair可表示为:
Pstair={Pplane,j|dline,j<dth,Pplane,j∈Pplane} 64
其中距离阈值dth与楼梯的特征有关,通常小于1m。
其中为本次观测对应的不确定度。由上式可知当较大时,对环境变化的灵敏度较高,此时环境变化检测较快,但是容易收到噪声干扰;当较小时,对环境的变化灵敏度较低,此时环境变化检测较为稳定,但是检测速度较慢。对当前时刻所有可通行区域点云进行光线追踪,可以得到全局可通行区域八叉树地图On中新增的栅格{Vinc,i}与消失的栅格{Vdis,i}:
{Vinc,i}={vi|l(ov,i)>0.5,l(ov,i-1)<0.5} 67
{Vdis,i}={vi|l(ov,i)<0.5,l(ov,i-1)>0.5} 68
此时全局可通行区域八叉树地图On每个栅格的状态也得到了更新,当需要将地图数据从无人车传输至其他终端时,每次地图传输只需要传输On中变化的部分{Vchange}与无人车在全局系下的位姿其中{Vchange}可表示为:
{Vchange,i}={{Vinc},{Vdis}} 69
根据第一次的传输数据和每次变化的部分结合无人车在全局系下的位姿构建可通行区域地图。
综上可见,本发明与现有技术相比的显著优势概括如下:
1)本发明通过多传感器融合的方式可以有效解决环境退化问题;
2)本发明利用八叉树进行地图更新可是实现增量式地图更新,有效减少数据地图数据的存储量;
3)本发明采取紧耦合的融合方式,将IMU/轮速里程计与原始特征点云数据进行融合,在点云匹配过程中考虑IMU与轮速里程计提供的量测信息,构建关于三者的综合目标函数,获取更精确的位姿估计结果。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (8)
1.一种面向室内多层建筑的可通行地图生成方法,其特征在于,包括以下步骤:
将激光雷达、惯性传感器和轮速里程计安装到无人车上;
基于激光雷达、惯性传感器和轮速里程计建立坐标系,并基于所述坐标系获得误差状态;
构建测量模型,通过测量模型对多层建筑进行测量,获得点云数据和无人车位姿数据;
通过获得的误差状态对无人车位姿数据进行数据更新,获得更新位姿数据;
根据所述点云数据和更新位姿数据生成可通行地图。
2.根据权利要求1所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述建立坐标系的方法包括:
建立激光雷达坐标系、惯性传感器坐标系、轮速里程计坐标系和全局坐标系,并将所述激光雷达坐标系和轮速里程计坐标系转换到惯性传感器坐标系中;
激光雷达坐标系的坐标系原点位于激光雷达扫描中心,X轴指向激光雷达正前向扫描方向,Z轴沿着激光雷达旋转轴竖直向上,Y轴指向激光雷达左向;
惯性传感器坐标系的坐标系原点位于惯性传感器中心,X轴指向无人车正前方向,Z轴竖直向上,Y轴指向无人车左向;
轮速里程计坐标系的坐标系原点位于无人车中心,X轴指向无人车正前方向,Z轴竖直向上,Y轴指向无人车左向;
全局坐标系为无人车开始运行时刻的惯性传感器坐标系。
3.根据权利要求1所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述获得误差状态的方法包括:
通过陀螺仪的输出和加速度计的输出获得系统输入;
通过陀螺仪与加速度计的量测噪声和陀螺仪与加速度计的随机游走过程获得系统噪声;
基于所述系统输入和系统噪声获取位姿变换关系;
通过位姿变换关系推导得出误差量的关系,并基于误差量的关系得到误差状态。
4.根据权利要求1所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述构建测量模型的方法包括构建轮速里程计量测模型和构建激光雷达量测模型;
所述构建轮速里程计量测模型的方法包括:通过惯性传感器坐标系在全局坐标系下的速度得到轮速里程计的量测信息,根据所述量测信息获得观测值,基于所述观测值获得轮速里程计的观测矩阵,所述观测矩阵结合量测噪声得到轮速里程计的观测方程,基于轮速里程计的观测方程构建轮速里程计量测模型。
5.根据权利要求4所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述构建激光雷达量测模型的方法包括:
通过激光雷达对多层建筑进行扫描,获得三维点云,通过三维点云获取特征点集,所述特征点集结合激光雷达的观测值获得激光雷达的观测方程,基于激光雷达的观测方程构建激光雷达量测模型。
6.根据权利要求1所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述生成可通行地图的过程包括:
根据点云数据进行可通行区域检测获得可通行区域,可通行区域结合更新位姿数据构建可通行地图,可通行区域检测包括地面可通行区域检测和楼梯检测;
所述地面可通行区域检测的过程包括:根据激光雷达的安装高度对点云数据进行裁剪处理,获得裁剪后的点云数据,以俯视图的视角将点云数据进行扇形分割,分割角度为激光雷达水平分辨率,将区域内的点由直角坐标系转换成柱坐标系描述的数据结构,对同一分割角的射线按照半径大小进行排序得到顺序数据集,比较射线相邻三点获得相邻三点的坡度,根据坡度判断检测区域是否为地面可通行区域。
7.根据权利要求6所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述楼梯检测的过程包括:
筛选出非地面可通行区域数据集,将非地面可通行区域数据集由柱坐标系转换为直角坐标系得到点云集合,基于楼梯的踢面、踏面和楼梯宽度对点云集合进行楼梯平面查找,得到初始楼梯平面,再通过直线拟合对初始楼梯平面进行筛选,得到楼梯区域。
8.根据权利要求1所述的面向室内多层建筑的可通行地图生成方法,其特征在于,所述生成可通行地图的过程包括:
基于octomap构建栅格地图,对可通行区域点云进行八叉树地图光线追踪,得到全局可通行区域栅格地图中新增的栅格与消失的栅格,新增栅格与消失栅格结合无人车在全局系下的位姿生成可通行地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310258476.4A CN116202509A (zh) | 2023-03-17 | 2023-03-17 | 一种面向室内多层建筑的可通行地图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310258476.4A CN116202509A (zh) | 2023-03-17 | 2023-03-17 | 一种面向室内多层建筑的可通行地图生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116202509A true CN116202509A (zh) | 2023-06-02 |
Family
ID=86511240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310258476.4A Pending CN116202509A (zh) | 2023-03-17 | 2023-03-17 | 一种面向室内多层建筑的可通行地图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116202509A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117146829A (zh) * | 2023-10-30 | 2023-12-01 | 江苏云幕智造科技有限公司 | 基于双目与三维点云的多姿态人形机器人环境导航方法 |
CN117664101A (zh) * | 2023-10-20 | 2024-03-08 | 威海广泰空港设备股份有限公司 | 一种基于激光雷达的机场无人车语义slam建图方法 |
-
2023
- 2023-03-17 CN CN202310258476.4A patent/CN116202509A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117664101A (zh) * | 2023-10-20 | 2024-03-08 | 威海广泰空港设备股份有限公司 | 一种基于激光雷达的机场无人车语义slam建图方法 |
CN117146829A (zh) * | 2023-10-30 | 2023-12-01 | 江苏云幕智造科技有限公司 | 基于双目与三维点云的多姿态人形机器人环境导航方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN109211251B (zh) | 一种基于激光和二维码融合的即时定位与地图构建方法 | |
CN112268559B (zh) | 复杂环境下融合slam技术的移动测量方法 | |
Su et al. | GR-LOAM: LiDAR-based sensor fusion SLAM for ground robots on complex terrain | |
CN112083725B (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位系统 | |
CN116202509A (zh) | 一种面向室内多层建筑的可通行地图生成方法 | |
Barczyk et al. | Invariant EKF design for scan matching-aided localization | |
CN113654555A (zh) | 一种基于多传感器数据融合的自动驾驶车辆高精定位方法 | |
CN114323033B (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN113933818A (zh) | 激光雷达外参的标定的方法、设备、存储介质及程序产品 | |
CN114111818B (zh) | 一种通用视觉slam方法 | |
CN108195376A (zh) | 小型无人机自主导航定位方法 | |
CN110895408B (zh) | 一种自主定位方法、装置及移动机器人 | |
CN113052855B (zh) | 一种基于视觉-imu-轮速计融合的语义slam方法 | |
Zhou et al. | A lidar odometry for outdoor mobile robots using ndt based scan matching in gps-denied environments | |
Bai et al. | A sensor fusion framework using multiple particle filters for video-based navigation | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
Li et al. | Aerial-triangulation aided boresight calibration for a low-cost UAV-LiDAR system | |
Anousaki et al. | Simultaneous localization and map building of skid-steered robots | |
CN117387604A (zh) | 基于4d毫米波雷达和imu融合的定位与建图方法及系统 | |
Deusch et al. | Improving localization in digital maps with grid maps | |
Emter et al. | Stochastic cloning for robust fusion of multiple relative and absolute measurements | |
Pereira | On the utilization of Simultaneous Localization and Mapping (SLAM) along with vehicle dynamics in Mobile Road Mapping Systems | |
CN115711617B (zh) | 近岸复杂水域的强一致性里程计及高精度建图方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |