CN111060099B - 一种无人驾驶汽车实时定位方法 - Google Patents
一种无人驾驶汽车实时定位方法 Download PDFInfo
- Publication number
- CN111060099B CN111060099B CN201911200115.4A CN201911200115A CN111060099B CN 111060099 B CN111060099 B CN 111060099B CN 201911200115 A CN201911200115 A CN 201911200115A CN 111060099 B CN111060099 B CN 111060099B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- time
- unmanned vehicle
- positioning
- motion model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种无人驾驶汽车实时定位方法,涉及人工智能领域,包括运动模型预测模块、点云配准模块与状态校正模块,所述系统的硬件部分包括上位机、惯性元件传感器、3D激光雷达。本发明所述的一种无人驾驶汽车实时定位方法,可以在室外的厂区、道路、城镇等场景中为无人车实时提供当前状态信息,并在场景地图中动态显示出来,能够在先验地图点云较稀疏时仍能保持好的定位效果,且不依赖GPS或RTK就能实现实时局部定位,当3D激光雷达和惯性元件传感器的输入信息有一个消失时仍能在一定精度范围内完成实时定位,保证了系统较强的鲁棒性,为无人车的安全提供了保障,具备一定的使用前景。
Description
技术领域
本发明涉及人工智能领域,具体为一种无人驾驶汽车实时定位方法。
背景技术
随着《中国制造2025》的稳步推进,国家各地方政策对人工智能产业的积极引导,以及学术和产业界传感与感知技术的突破,智能驾驶技术迎来了飞速发展的阶段。而L4和L5级别的自动驾驶作为智能驾驶技术的理想目标,是人工智能皇冠中各国和各厂商奋力竞争摘取的最璀璨的明珠,是无人驾驶市场领域高效的生产力,对提高我国高新产业发展,加快我国经济结构改革,奠定我国在未来新兴产业国际市场的地位具有十分重要的意义。无论是在景区、厂区,还是在码头、城市等无人驾驶应用场景,无人车定位技术是智能驾驶系统的核心基础功能。
然而,我国移动机器人产业发展较慢,无人驾驶产业更是起步较晚,近些年才得到重视,获得了较快发展,但相比于发展较早的美国还有一些距离需要追赶。本发明专利通过融合实时点云和惯性信息,在先验3D点云地图基础上,借助点云匹配和卡尔曼滤波器等技术,可以实现无人车的实时定位,为进一步的导航规划奠定了基础,在无人驾驶汽车的导航规划与控制时,无人车的状态估计是关键的基础工作,目前成熟通用的无人车实时定位技术方案较少,为此,我们提出了一种无人驾驶汽车实时定位方法。
发明内容
本发明要解决的技术问题是克服现有的缺陷,提供一种无人驾驶汽车实时定位方法,可以在室外的厂区、道路、城镇等场景中为无人车实时提供当前状态信息,并在场景地图中动态显示出来,所述状态信息主要包括无人车的位置坐标、姿态、速度。
为实现上述目的,本发明提供如下技术方案:一种无人驾驶汽车实时定位方法,包括运动模型预测模块、点云配准模块与状态校正模块,所述系统的硬件部分包括上位机、惯性元件传感器、3D激光雷达,所述运动模型预测模块根据当前时刻惯性元件传感器的观测数据和前一时刻的无人车状态,通过建立的运动模型预测当前时刻的无人车状态,所述点云配准模块以运动模型预测模型的预测结果作为猜测值,将先验点云地图与当前扫描得到的场景点云进行点云匹配,得到当前扫描点云和场景之间的坐标变换矩阵,利用此变换矩阵对匹配前的猜测值进行转换,输出为匹配后的点云和无人车的位姿信息,所述状态校正模块根据运动模型预测模块的结果和点云配准模块的输出结果,校正得到新的无人车状态高斯分布,取分布的均值作为最终的定位结果。
优选的,所述上位机为工控机型号为科拉德IPC-805A,所述惯性元件传感器型号为迈普时空M39,所述3D激光雷达型号为北科天绘R-Fans-16M。
优选的,以0时刻惯性元件传感器确定的坐标系作为世界坐标系,3D激光雷达坐标系也已和惯性元件传感器坐标系做好了标定,无人车在任意时刻的状态定义为:x=[pt,qt,vt]T,所述pt表示位置,qt表示方向四元数,vt表示速度,并且认为任意时刻的无人车车状态都服从高斯分布。
优选的,所述无人车状态预测方程为
xt=[pt-1+Δt·vt-1qt-1·Δqt,vt-1+Δt·at-1],所述Δt是到t-1时刻的时间间隔,at-1是t-1时刻的惯性元件传感器的加速度测量值,Δqt是在Δt时间间隔内产生的旋转,用四元数表示为 是t时刻惯性元件传感器的绕X轴的角速度测量值。
优选的,所述运动模型预测模块中的运动模型采用里程计运动模型,表述为xt=f(μt,xt-1),为当前时刻惯性元件传感器的测量值,包括角速度信息和加速度信息,所述先验点云地图为在定位应用的场景中,利用3D激光雷达的采集数据和激光SLAM系统生成的该场景下的点云地图,定位应用中,对地图点云的稀疏性没有要求,所述点云配准方法采用的是正态分布换(NDT)法。
与现有技术相比,本发明的有益效果是:
本发明在先验地图点云较稀疏时仍能保持好的定位效果,且不依赖GPS或RTK就能实现实时局部定位,当3D激光雷达和惯性元件传感器的输入信息有一个消失时仍能在一定精度范围内完成实时定位,保证了系统较强的鲁棒性,为无人车的安全提供了保障。
附图说明
图1为本发明中无人驾驶汽车实时定位方法流程图;
图2为本发明中运动模型预测模块流程图;
图3为本发明中点云配准模块流程图;
图4为本发明中状态校正模块流程图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种无人驾驶汽车实时定位方法,包括运动模型预测模块、点云配准模块与状态校正模块,系统的硬件部分包括上位机、惯性元件传感器、3D激光雷达,运动模型预测模块根据当前时刻惯性元件传感器的观测数据和前一时刻的无人车状态,通过建立的运动模型预测当前时刻的无人车状态,点云配准模块以运动模型预测模型的预测结果作为猜测值,将先验点云地图与当前扫描得到的场景点云进行点云匹配,得到当前扫描点云和场景之间的坐标变换矩阵,利用此变换矩阵对匹配前的猜测值进行转换,输出为匹配后的点云和无人车的位姿信息,状态校正模块根据运动模型预测模块的结果和点云配准模块的输出结果,校正得到新的无人车状态高斯分布,取分布的均值作为最终的定位结果。
本发明的系统框架流程如附图1所示,运动模型预测模块的功能是根据前一时刻的状态和当前的惯性元件传感器的测量值,通过运动模型预测出当前时刻的状态信息服从高斯分布,INS为观测无人车惯性状态的惯导系统即惯性元件传感器,其将观测得到的角速度信息、加速度信息传递给状态预测组件处理,状态预测组件以接收到的惯性状态信息更新运动模型,然后通过更新后的运动模型和前一时刻的状态做出状态预测,前一时刻的状态是指在前一时刻时状态校正模块中的校正结果,点云配准模块的功能是以运动模型预测模块的状态预测结果中的位姿信息为无人车位姿真值的猜测值,在先验点云地图上,以猜测值为初始位姿,对当前3D激光雷达扫描到的场景点云信息进行配准,配准完成后再根据配准结果得到3D激光雷达观测下的无人车状态服从的高斯分布,Range为3D激光雷达实时扫描得到的当前时刻场景的点云信息,Map为过去通过3D激光雷达采集得到场景点云信息生成的先验点云地图,利用的是Lego-Loam激光SLAM方法,状态校正模块以运动模型预测模块和点云配准模块的结果为输入,分别作为状态转移概率和测量概率,最终计算出无人车状态的后验高斯分布。
运动模型预测模块流程图如附图2所示,输入量INS为惯性元件传感器测量值,作为运动模型的控制量,表示为ctr=[occ,gyr]T其中acc和gyr分别代表惯性元件传感器中加速度计和陀螺仪的读数,即无人车加速度和角速度的测量值,输入量状态为上一时刻校正得到的无人车状态,表示为x-1=[pt-1,qt-1,vt-1]T其中py-1、qt-1、vt-1分别代表上一时刻无人车的位置、姿态和速度信息,首先对部分参数初始化,确定当前时刻的噪声协方差Rt和惯性元件的偏置参数bt,Rt表示测量过程中环境和系统等不可测变量对测量结果造成的干扰所服从的高斯分布的协方差矩阵,由经验赋值;bt表示所用惯性元件传感器在理想状态使用中的测量值均值和真值的固定偏差,由人工标定确定;该两个变量和所用设备及应用环境有关,故不能给出确切值,由于后续环节需要对状态分布的协方差参数∑进行求根操作,故应保证其为正定的,确保协方差正定的方法是对协方差进行求取特征值确定的对角阵D和特征向量V,然后限制D的对角元素值在一定阈值以上,该阈值取值为e=109,然后重新确定协方差的值:
∑=VDVT
然后对输入的前一时刻状态进行采样,采样数量为2n+1,n是状态的维数,本方案中状态维数为10,采样点x[t]的确认规则是:
x[0]=μ
式中,λ=a2(n+k)-n,α和k为确定o点分布在均值多远的范围内的比例系数,然后通过运动模型xt=f(μt,xt-1)进行采样点的状态转移,运动模型函数f表述为:
μt为当前时刻的惯性元件传感器测量值,Δqt是在Δt时间间隔内产生的旋转,用四元数表示为:
是t时刻惯性元件传感器的绕X轴的角速度测量值,对该模型输入采样点后,得到新的预测态的均值和协方差,每个采样点有两个与之相关的权值,一个权值/>计算均值时使用,另一个权值/>计算高斯协方差时使用。权值的确定策略如下:
预测状态的高斯模型的均值和协方差如下:
点云配准模块的流程图如附图3所示,输入量为3D激光雷达的实时扫描场景点云Range、先验的场景点云地图Map,并分别进行设置源点云、设置目标点云操作,即以Range为源点云在Map上进行配准,然后输入运动模型预测模块的预测结果作为点云配准的初始猜测值,然后进行点云配准,点云配准采用的是正态分布转换(NDT)法,在点云库(PCL)中有集成好的NDT算法模块,使用中可以在设置好参数后直接调用,然后获取点云转换矩阵,即实现源点云和目标点云的转换关系,然后根据转换矩阵在预测结果的基础上计算出配准状态,最后发布配准点云显示出来,得到最后的配准结果,即无人车的位置、姿态在点云配准后的状态值。
状态校正模块的流程图如附图4所示,首先以运动模型预测模块的结果预测状态为输入,采取和运动模型预测模块同样操作的确保协方差正定、计算采样点,然后通过观测模型映射提取采样点的位置和姿态信息提取采样点的位置和姿态信息的原因是因为预测状态的输入维度为10,包括无人车的位置、姿态、速度,而配准结果的状态维度为6,包括无人车的位置、姿态,故为了统一需要进行提取操作,然后对提取的采样点加权统计计算采样均值/>采样协方差得到观测状态st,所用方法和运动模型观测模块的预测状态均值、预测状态协方差相统一,然后确定预测状态/>和前一步得到的观测状态/>的互协
方差,公式如下:
然后计算卡尔曼增益Kt,公式如下:
最后根据上述计算结果,得到最终的校正状态均值和对应的协方差:
式中zt为点云配准后的状态均值;至此,得到对当前时刻无人车状态分布的均值和协方差的预测值。
综上所述是本发明的优选实施方式,并不限于本发明,对于本领域的技术人员来说,本发明可以有多种变形。凡在本发明的精神和原则之内,所作的任何修改、等同转换、改进,均赢包含在本发明的保护范围之内。
Claims (5)
1.一种无人驾驶汽车实时定位系统,其特征在于:所述定位系统的硬件部分包括上位机、惯性元件传感器、3D激光雷达;所述系统的软件部分包括运动模型预测模块、点云配准模块与状态校正模块;所述运动模型预测模块根据当前时刻惯性元件传感器的观测数据和前一时刻的无人车状态,通过建立的运动模型预测当前时刻的无人车状态,所述点云配准模块以运动模型预测模型的预测结果作为猜测值,将先验点云地图与当前扫描得到的场景点云进行点云匹配,得到当前扫描点云和场景之间的坐标变换矩阵,利用此变换矩阵对匹配前的猜测值进行转换,输出为匹配后的点云和无人车的位姿信息,所述状态校正模块根据运动模型预测模块的结果和点云配准模块的输出结果,校正得到新的无人车状态高斯分布,取分布的均值作为最终的定位结果。
2.根据权利要求1所述的一种无人驾驶汽车实时定位方法,其特征在于:所述上位机为工控机型号为科拉德IPC-805A,所述惯性元件传感器型号为迈普时空M39,所述3D激光雷达型号为北科天绘R-Fans-16M。
3.根据权利要求1所述的一种无人驾驶汽车实时定位方法,其特征在于:以0时刻惯性元件传感器确定的坐标系作为世界坐标系,3D激光雷达坐标系也已和惯性元件传感器坐标系做好了标定,无人车在t时刻的状态定义为xt=[pt,qt,vt]T,所述pt表示t时刻位置,qt表示t时刻方向四元数,vt表示t时刻速度,并且认为任意时刻的无人车状态都服从高斯分布。
4.根据权利要求1所述的一种无人驾驶汽车实时定位方法,其特征在于:所述无人车状态预测方程为:
xt=[pt-1+Δt·vt-1qt-1·Δqt,vt-1+Δt·at-1],pt-1表示t-1时刻位置,qt-1表示t-1时刻方向四元数,vt-1表示t-1时刻速度所述Δt是t-1时刻到t时刻的时间间隔,at-1是t-1时刻的惯性元件传感器的加速度测量Δqt值,是在Δt时间间隔内产生的旋转,用四元数表示为:
是t时刻惯性元件传感器的绕X轴的角速度测量值。
5.根据权利要求1所述的一种无人驾驶汽车实时定位方法,其特征在于:所述运动模型预测模块中的运动模型采用里程计运动模型,表述为xt=f(μt,xt-1),xt-1与xt分别为t-1和t时刻的无人车状态,μt为当前时刻惯性元件传感器的测量值,包括角速度信息和加速度信息;所述先验点云地图为在定位应用的场景中,利用3D激光雷达的采集数据和激光SLAM系统生成的该场景下的点云地图,定位应用中,对地图点云的稀疏性没有要求;所述点云配准模块中采用的是正态分布换法NDT进行点云匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911200115.4A CN111060099B (zh) | 2019-11-29 | 2019-11-29 | 一种无人驾驶汽车实时定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911200115.4A CN111060099B (zh) | 2019-11-29 | 2019-11-29 | 一种无人驾驶汽车实时定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111060099A CN111060099A (zh) | 2020-04-24 |
CN111060099B true CN111060099B (zh) | 2023-08-04 |
Family
ID=70299138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911200115.4A Active CN111060099B (zh) | 2019-11-29 | 2019-11-29 | 一种无人驾驶汽车实时定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111060099B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113916243B (zh) * | 2020-07-07 | 2022-10-14 | 长沙智能驾驶研究院有限公司 | 目标场景区域的车辆定位方法、装置、设备和存储介质 |
CN112414403B (zh) * | 2021-01-25 | 2021-04-16 | 湖南北斗微芯数据科技有限公司 | 一种机器人的定位定姿方法、设备及存储介质 |
CN113766634B (zh) * | 2021-08-31 | 2023-08-04 | 深圳Tcl新技术有限公司 | 基于5g的定位方法、装置、计算机设备和存储介质 |
CN113807239B (zh) * | 2021-09-15 | 2023-12-08 | 京东鲲鹏(江苏)科技有限公司 | 一种点云数据的处理方法、装置、存储介质及电子设备 |
CN114720993A (zh) * | 2022-03-30 | 2022-07-08 | 上海木蚁机器人科技有限公司 | 机器人定位方法、装置、电子设备以及存储介质 |
CN116124161A (zh) * | 2022-12-22 | 2023-05-16 | 东南大学 | 一种基于先验地图的LiDAR/IMU融合定位方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106541945A (zh) * | 2016-11-15 | 2017-03-29 | 广州大学 | 一种基于icp算法的无人车自动泊车方法 |
CN109459734A (zh) * | 2018-10-30 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | 一种激光雷达定位效果评估方法、装置、设备及存储介质 |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN110389590A (zh) * | 2019-08-19 | 2019-10-29 | 杭州电子科技大学 | 一种融合2d环境地图和稀疏人工地标的agv定位系统及方法 |
CN110501712A (zh) * | 2019-09-05 | 2019-11-26 | 北京百度网讯科技有限公司 | 用于确定位置姿态数据的方法、装置、设备和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108732603B (zh) * | 2017-04-17 | 2020-07-10 | 百度在线网络技术(北京)有限公司 | 用于定位车辆的方法和装置 |
CN109781119B (zh) * | 2017-11-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 一种激光点云定位方法和系统 |
-
2019
- 2019-11-29 CN CN201911200115.4A patent/CN111060099B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106541945A (zh) * | 2016-11-15 | 2017-03-29 | 广州大学 | 一种基于icp算法的无人车自动泊车方法 |
CN109459734A (zh) * | 2018-10-30 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | 一种激光雷达定位效果评估方法、装置、设备及存储介质 |
CN109945856A (zh) * | 2019-02-18 | 2019-06-28 | 天津大学 | 基于惯性/雷达的无人机自主定位与建图方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN110389590A (zh) * | 2019-08-19 | 2019-10-29 | 杭州电子科技大学 | 一种融合2d环境地图和稀疏人工地标的agv定位系统及方法 |
CN110501712A (zh) * | 2019-09-05 | 2019-11-26 | 北京百度网讯科技有限公司 | 用于确定位置姿态数据的方法、装置、设备和介质 |
Non-Patent Citations (1)
Title |
---|
基于惯性测量单元的激光雷达点云融合方法;张艳国等;《系统仿真学报》;20181108(第11期);第311-316页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111060099A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111060099B (zh) | 一种无人驾驶汽车实时定位方法 | |
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN105973145B (zh) | 移动式三维激光扫描系统及移动式三维激光扫描方法 | |
CN110988894B (zh) | 一种面向港口环境的多源数据融合的无人驾驶汽车实时定位方法 | |
CN112987065B (zh) | 一种融合多传感器的手持式slam装置及其控制方法 | |
JP4984659B2 (ja) | 自車両位置推定装置 | |
CN108362288B (zh) | 一种基于无迹卡尔曼滤波的偏振光slam方法 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN108387236B (zh) | 一种基于扩展卡尔曼滤波的偏振光slam方法 | |
CN110488818B (zh) | 一种基于激光雷达的机器人定位方法、装置和机器人 | |
Zhang et al. | Lidar-IMU and wheel odometer based autonomous vehicle localization system | |
CN110412596A (zh) | 一种基于图像信息和激光点云的机器人定位方法 | |
CN114323033A (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN113763549B (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
CN112967392A (zh) | 一种基于多传感器触合的大规模园区建图定位方法 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN114964236A (zh) | 一种针对地下停车场环境的建图与车辆定位系统及方法 | |
CN113188557A (zh) | 一种融合语义特征的视觉惯性组合导航方法 | |
CN114608568B (zh) | 一种基于多传感器信息即时融合定位方法 | |
CN115218889A (zh) | 一种基于点线特征融合的多传感器室内定位方法 | |
CN113052855B (zh) | 一种基于视觉-imu-轮速计融合的语义slam方法 | |
CN117387604A (zh) | 基于4d毫米波雷达和imu融合的定位与建图方法及系统 | |
CN110333513B (zh) | 一种融合最小二乘法的粒子滤波slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |