CN110081880A - 一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 - Google Patents
一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 Download PDFInfo
- Publication number
- CN110081880A CN110081880A CN201910294570.9A CN201910294570A CN110081880A CN 110081880 A CN110081880 A CN 110081880A CN 201910294570 A CN201910294570 A CN 201910294570A CN 110081880 A CN110081880 A CN 110081880A
- Authority
- CN
- China
- Prior art keywords
- local
- module
- vehicle
- lane line
- course
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241001417527 Pempheridae Species 0.000 title claims abstract description 46
- 230000004438 eyesight Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 57
- 230000001133 acceleration Effects 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种融合视觉、轮速与惯导的清扫车局部定位系统及方法,系统包括信号源子系统、局部地图子系统以及融合子系统,信号源子系统中视觉模块提供车辆相对车道线的航向和距车道线的距离信息,惯导模块提供加速度和角速度信息,车辆信息模块提供轮速信息;局部地图子系统提供车道线的局部地图信息;融合子系统中初始化模块根据车辆的初始位置进行初始区域判定,车辆区域判断模块则根据初始化的信息进行车辆行驶区域判断;航向融合模块对航向信息进行融合得到最优航向值,位置融合模块融合得到最优位置。与现有技术相比,本发明无需价格昂贵的GNSS定位设备以及激光雷达设备,成本较低,且能够在固定区域内实现定位。
Description
技术领域
本发明涉及一种无人驾驶清扫车局部定位方法,尤其是涉及一种融合视觉、轮速与惯导的清扫车局部定位系统及方法。
背景技术
无人驾驶清扫车能够在封闭园区内按照固定路线和固定区域独立自主地完成清扫作业,而定位模块则为清扫车的正常运行提供位置信息。一般的定位系统采用GNSS定位设备实现对车辆的准确定位,而清扫车在作业过程当中经常会遇到树荫等遮挡工况进而导致GNSS信号减弱或失效,不能够实现准确的定位。因此如何在无人驾驶清扫车上实现准确的定位成为研究的重难点。
目前车辆上常用的定位方法主要有:1、GNSS与惯导融合进行定位,在空旷环境GNSS信号良好的情况下定位效果较好,但是当GNSS信号失效时,定位效果较差;2、激光雷达建图定位,不受GNSS信号的影响,但是需要昂贵的激光雷达设备,成本较高。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种融合视觉、轮速与惯导的清扫车局部定位系统及方法。
本发明的目的可以通过以下技术方案来实现:
一种融合视觉、轮速与惯导的清扫车局部定位系统,用以对无人驾驶清扫车进行局部定位,该系统包括:
信号源子系统:
视觉模块,用于获取车道线的航向以及距车道线距离的信息;
惯导模块,用于获取清扫车加速度和角速度信息;
车辆信息模块,用于获取清扫车的轮速信息;
局部地图子系统:
局部车道线坐标采集模块,用于采集车道线局部坐标;
局部车道线地图建立模块,用于根据车道线各个点的坐标建立车道线地图并划分行驶区域;
融合子系统:
初始化模块,用于根据给定车辆的初始位置和粗略航向的信息、局部地图子系统提供的车道线信息对车辆进行初始区域判定,并获取车辆初始的局部航向值;
车辆区域判断模块,用于根据初始化模块提供的局部航向信息和初始区域信息,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆行驶的区域进行检测,获取局部航向的测量值,并将该区域内视觉模块能够检测到的车道线作为反馈车道线;
航向融合模块,用于根据车辆区域判断模块提供的局部航向的测量值对清扫车的航向进行修正;
位置融合模块,用于根据航向融合模块修正后的航向值以及车速获取车辆的最优融合位置信息。
所述的视觉模块为清扫车辆上用于检测行人与障碍物的摄像头,所述的惯导模块为清扫车辆上低精度三轴加速度计和陀螺仪,所述的车辆信息模块获取的车辆信息由车辆CAN总线上获得。
一种融合视觉、轮速与惯导的清扫车局部定位系统的定位方法,该方法包括下列步骤:
(一)、局部地图子系统对车道线坐标进行采集,建立局部地图并对局部地图进行划分。具体包括以下步骤:
11)局部车道线坐标采集模块对车道线的坐标进行采集,获取车道线的局部坐标;
12)采用最小二乘拟合的方法,对清扫车行驶区域内的不同的车道线分别进行建模,获取车道线在局部坐标系下的方程;
13)局部车道线地图建立模块根据车道线各个点的坐标建立车道线地图,并根据清扫车的行驶区域,对局部地图进行区域划分。
(二)、局部地图子系统将车道线的局部地图信息发送至融合子系统。
(三)、视觉模块将获取的车道线的航向以及距车道线距离的信息发送至融合子系统,惯导模块将获取的车辆加速度和角速度信息发送至融合子系统,车辆信息模块将获取的轮速信息发送至融合子系统。
(四)、融合子系统根据获取的各项信息进行融合,获取最优局部位置和航向信息。具体包括以下步骤:
41)在车辆初次运行时,操作人员将设定的车辆初始位置和航向值输入初始化模块,初始化模块根据信号源子系统提供的信息及局部地图子系统提供的车道线信息获取车辆初始局部航向值φL,ini和车辆初始局部位置值xL,ini,yL,ini,并对车辆进行初始区域判定;
42)车辆区域判断模块根据初始化模块提供的车辆初始局部航向值φL,ini和车辆初始局部位置值xL,ini,yL,ini,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆行驶的区域进行检测,并选择在该区域内视觉模块能够检测到的车道线作为反馈车道线;
43)车辆区域判断模块将局部航向的测量值φL,Mea发送至航向融合模块,并将当前时刻用作测量的车道线Lactive以及测得的距车道线Lactive的距离dr发送至位置融合模块。
测得的距车道线Lactive的距离dr的表达式为:
φL,Mea=φL,Line+φr
式中,φL,Line为车道线Lactive在局部地图坐标系下的航向值,Φr为视觉模块测得的相对车道线的航向值。
航向融合模块以局部航向的测量值φL,Mea作为量测值,对清扫车的航向进行修正,当不存在航向测量值φL,Mea时,则根据惯导模块的角速度ωz积分得到航向值φL,Fus:
φL,Fus=φL,INS+kφ·Δφ,
Δφ=φL,Mea-φL,INS,
式中,Δφ为航向测量值φL,Mea和INS积分航向值ΦL,INS的差值,kφ为航向误差的反馈增益,取值范围为0~1;
位置融合模块根据航向融合模块的航向值φL,Fus以及车速V,通过积分获取k时刻车辆在局部坐标系下的位置xL,k和yL,k分别为:
xL,k=xL,k-1+Vx·ΔT,
yL,k=yL,k-1+Vy·ΔT,
式中,ΔT为离散系统的采样时间,Vx和Vy分别为车辆在局部坐标系下的沿x和y方向的速度,其计算公式如下:
Vx=V·cos(φL),
Vy=V·sin(φL).
式中,φL为车辆在局部坐标系下真实的航向值,实际计算时用最优估计值φL,Fus作为真实值。计算当前车辆位置到用作测量的车道线Lactive的距离dINS,假设车道线Lactive在局部坐标系下的方程为yLine-kLinexLine-bLine=0,则dINS的表达式为:
式中,xL和yL分别为车辆的真实位置,实际计算时采用最优估计值xL,Fus和yL,Fus替代,以视觉模块测得的侧向距离作为dr量测值,对车辆的侧向距离进行修正,得到融合后的车辆距车道线的侧向距离dFus:
dFus=dINS+kd·Δd,
Δd=dr-dINS,
式中,Δd为侧向距离测量值和INS积分位置计算得到的侧向距离之间的差值,kd为侧向距离误差的反馈增益。
将融合后的侧向距离误差ΔdFus=dFus-dr,采用融合后的侧向距离误差ΔdFus对位置进行修正得到最优的融合位置:
xL,Fus=xL,k+ΔdFus·sin(φL,Fus),
yL,Fus=yL,k+ΔdFus·cos(φL,Fus)。
式中,ΦL,Fus为融合后的局部航向值。
与现有技术相比,本发明具有以下优点:
一、本发明利用视觉、轮速与惯导融合的方式能够避免遮挡工况对清扫车GNSS信号的减弱或失效,能够实现清扫车在固定路线或固定区域内的准确定位;
二、本发明无需价格昂贵的GNSS定位设备以及激光雷达设备,其中视觉模块为智能清扫车辆上用于检测行人与障碍物的摄像头,惯导模块为清扫车辆上的低精度的三轴加速度计和陀螺仪,车辆信息则可以直接由车辆CAN总线上获得,大大降低了成本。
附图说明
图1为本发明基于视觉、轮速与惯导融合的清扫车局部定位方法的原理框图;
图中标号所示:
1、局部地图子系统,2、信号源子系统,3、融合子系统。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
本发明涉及一种融合视觉、轮速与惯导的清扫车局部定位系统,该系统包括信号源子系统、局部地图子系统以及融合子系统三部分。
信号源子系统包括视觉模块、惯导模块和车辆信息模块。视觉模块用于获取车道线的航向以及距车道线距离的信息,视觉模块为清扫车辆上用于检测行人与障碍物的摄像头。惯导模块用于获取清扫车加速度和角速度信息,惯导模块为清扫车辆上低精度的三轴加速度计和陀螺仪。车辆信息模块用于获取清扫车的轮速信息,车辆信息由车辆CAN总线上获得。
局部地图子系统包括局部车道线坐标采集模块以及局部车道线地图建立模块。
融合子系统包括初始化模块、车辆区域判断模块、航向融合模块、位置融合模块。
本发明还涉及一种融合视觉、轮速与惯导的清扫车局部定位方法,该方法包括如下步骤:
步骤一、局部地图子系统向融合子系统提供车道线的局部地图信息。
局部地图子系统首先需要通过局部车道线坐标采集模块采集车道线的坐标,得到局部坐标系下车道线上各个点的坐标,之后采用最小二乘拟合的方法,对清扫车行驶区域内的不同的车道线分别进行建模,得到车道线在局部坐标系下的方程,并根据清扫车的行驶区域,对局部地图进行区域划分。
步骤二、视觉模块向融合子系统提供相对车道线的航向以及距车道线距离的信息,惯导模块给融合子系统提供加速度和角速度信息,车辆信息模块提供给融合子系统轮速信息。
步骤三、融合子系统综合融合以上信息得到最优的全局位置和航向信息。具体内容包括:
整个融合子系统开始工作之前,需要外界给定车辆的初始位置和粗略航向的信息,此时初始化模块根据以上的信息和局部地图子系统提供的车道线信息,对车辆进行初始区域判定,并得到车辆初始的局部航向值φL,ini和位置值xL,ini,yL,ini。
车辆首次初始化以后,车辆区域判断模块根据初始化模块提供的局部航向信息φL,ini和初始位置信息xL,ini,yL,ini,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆行驶的区域进行检测,并选择在该区域内视觉模块能够检测到的车道线作为反馈车道线;而当车辆正常运行时,根据融合子系统上一时刻融合得到的最优航向值φL,Fus和位置xL,Fus,yL,Fus,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆当前时刻所在的区域进行检测,并选择在该区域内视觉模块能够检测到的车道线作为反馈车道线。最终车辆区域判断模块提供给航向融合模块局部航向的测量值φL,Mea,提供给位置融合模块当前时刻用作测量的车道线Lactive,以及测得的距车道线Lactive的距离dr:
φL,Mea=φL,Line+φr
其中,φL,Line为车道线Lactive在局部地图坐标系下的航向值,Φr为视觉模块测得的相对车道线的航向值。
航向融合模块以局部航向的测量值φL,Mea作为量测值,对清扫车的航向进行修正,而当由于不存在车道线或者因其他原因导致不存再航向测量值φL,Mea时,则根据惯导模块的角速度ωz积分得到航向值φL,Fus。
φL,Fus=φL,INS+kφ·Δφ,
Δφ=φL,Mea-φL,INS,
其中,Δφ为航向测量值φL,Mea和INS积分航向值ΦL,INS的差值,称之为航向误差;kφ为航向误差的反馈增益,取值范围为0~1。
随后,位置融合模块根据航向融合模块的航向值φL,Fus,以及车速V,积分得到车辆的位置信息:
xL,k=xL,k-1+Vx·ΔT,
yL,k=yL,k-1+Vy·ΔT,
其中,xL,k和yL,k分别为k时刻车辆在局部坐标系下的位置,xL,k-1和yL,k-1分别为k-1时刻车辆在局部坐标系下的位置,ΔT为离散系统的采样时间,Vx和Vy分别为车辆在局部坐标系下的沿x和y方向的速度,其计算公式如下:
Vx=V·cos(φL),
Vy=V·sin(φL).
其中,φL为车辆在局部坐标系下真实的航向值,实际计算时用最优估计值φL,Fus作为真实值。计算当前车辆位置到用作测量的车道线Lactive的距离dINS,假设车道线Lactive在局部坐标系下的方程为yLine-kLinexLine-bLine=0,则dINS的表达式为:
其中,xL和yL分别为车辆的真实位置,实际计算时用最优估计值xL,Fus和yL,Fus替代。以视觉模块测得的侧向距离作为dr量测值,对车辆的侧向距离进行修正,得到融合后的车辆距车道线的侧向距离dFus:
dFus=dINS+kd·Δd,
Δd=dr-dINS,
其中,Δd为侧向距离测量值和INS积分位置计算得到的侧向距离之间的差值,称之为侧向距离误差;kd为侧向距离误差的反馈增益,取值范围为0~1。最终得到融合后的侧向距离误差ΔdFus=dFus-dr,采用融合后的侧向距离误差ΔdFus对位置进行修正得到最优的融合位置:
xL,Fus=xL,k+ΔdFus·sin(φL,Fus),
yL,Fus=yL,k+ΔdFus·cos(φL,Fus)。
式中,ΦL,Fus为融合后的局部航向值。
本发明利用视觉、轮速与惯导融合的方式能够避免遮挡工况对清扫车GNSS信号的减弱或失效,能够实现清扫车在固定路线或固定区域内的准确定位。此外,本发明无需价格昂贵的GNSS定位设备以及激光雷达设备,大大降低了成本。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种融合视觉、轮速与惯导的清扫车局部定位系统,用以对无人驾驶清扫车进行局部定位,其特征在于,包括:
信号源子系统:
视觉模块,用于获取车道线的航向以及距车道线距离的信息;
惯导模块,用于获取清扫车加速度和角速度信息;
车辆信息模块,用于获取清扫车的轮速信息;
局部地图子系统:
局部车道线坐标采集模块,用于采集车道线局部坐标;
局部车道线地图建立模块,用于根据车道线各个点的坐标建立车道线地图并划分行驶区域;
融合子系统:
初始化模块,用于根据给定车辆的初始位置和粗略航向的信息、局部地图子系统提供的车道线信息对车辆进行初始区域判定,并获取车辆初始的局部航向值;
车辆区域判断模块,用于根据初始化模块提供的局部航向信息和初始区域信息,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆行驶的区域进行检测,获取局部航向的测量值,并将该区域内视觉模块能够检测到的车道线作为反馈车道线;
航向融合模块,用于根据车辆区域判断模块提供的局部航向的测量值对清扫车的航向进行修正;
位置融合模块,用于根据航向融合模块修正后的航向值以及车速获取车辆的最优融合位置信息。
2.根据权利要求1所述的一种融合视觉、轮速与惯导的清扫车局部定位系统,其特征在于,所述的视觉模块为清扫车辆上用于检测行人与障碍物的摄像头,所述的惯导模块为清扫车辆上低精度三轴加速度计和陀螺仪,所述的车辆信息模块获取的车辆信息由车辆CAN总线上获得。
3.一种应用如权利要求1-2任一项所述的一种融合视觉、轮速与惯导的清扫车局部定位系统的定位方法,其特征在于,该方法包括下列步骤:
1)局部地图子系统对车道线坐标进行采集,建立局部地图并对局部地图进行划分;
2)局部地图子系统将车道线的局部地图信息发送至融合子系统;
3)视觉模块将获取的车道线的航向以及距车道线距离的信息发送至融合子系统,惯导模块将获取的车辆加速度和角速度信息发送至融合子系统,车辆信息模块将获取的轮速信息发送至融合子系统;
4)融合子系统根据获取的各项信息进行融合,获取最优局部位置和航向信息。
4.根据权利要求3所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,步骤1)具体包括以下步骤:
11)局部车道线坐标采集模块对车道线的坐标进行采集,获取车道线的局部坐标;
12)采用最小二乘拟合的方法,对清扫车行驶区域内的不同的车道线分别进行建模,获取车道线在局部坐标系下的方程;
13)局部车道线地图建立模块根据车道线各个点的坐标建立车道线地图,并根据清扫车的行驶区域,对局部地图进行区域划分。
5.根据权利要求3所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,步骤4)具体包括以下步骤:
41)在车辆初次运行时,操作人员将设定的车辆初始位置和航向值输入初始化模块,初始化模块根据信号源子系统提供的信息及局部地图子系统提供的车道线信息获取车辆初始局部航向值φL,ini和车辆初始局部位置值xL,ini,yL,ini,并对车辆进行初始区域判定;
42)车辆区域判断模块根据初始化模块提供的车辆初始局部航向值φL,ini和车辆初始局部位置值xL,ini,yL,ini,结合局部地图子系统提供的车道线地图与行驶区域划分的信息,对车辆行驶的区域进行检测,并选择在该区域内视觉模块能够检测到的车道线作为反馈车道线;
43)车辆区域判断模块将局部航向的测量值φL,Mea发送至航向融合模块,并将当前时刻用作测量的车道线Lactive以及测得的距车道线Lactive的距离dr发送至位置融合模块。
6.根据权利要求5所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,测得的距车道线Lactive的距离dr的表达式为:
φL,Mea=φL,Line+φr
式中,φL,Line为车道线Lactive在局部地图坐标系下的航向值,Φr为视觉模块测得的相对车道线的航向值。
7.根据权利要求6所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,航向融合模块以局部航向的测量值φL,Mea作为量测值,对清扫车的航向进行修正,当不存在航向测量值φL,Mea时,则根据惯导模块的角速度ωz积分得到航向值φL,Fus:
φL,Fus=φL,INS+kφ·Δφ,
Δφ=φL,Mea-φL,INS,
式中,Δφ为航向测量值φL,Mea和INS积分航向值ΦL,INS的差值,kφ为航向误差的反馈增益,取值范围为0~1。
8.根据权利要求7所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,位置融合模块根据航向融合模块的航向值φL,Fus以及车速V,通过积分获取k时刻车辆在局部坐标系下的位置xL,k和yL,k分别为:
xL,k=xL,k-1+Vx·ΔT,
yL,k=yL,k-1+Vy·ΔT,
式中,ΔT为离散系统的采样时间,Vx和Vy分别为车辆在局部坐标系下的沿x和y方向的速度,其计算公式如下:
Vx=V·cos(φL),
Vy=V·sin(φL).
式中,φL为车辆在局部坐标系下真实的航向值,实际计算时用最优估计值φL,Fus作为真实值;计算当前车辆位置到用作测量的车道线Lactive的距离dINS,假设车道线Lactive在局部坐标系下的方程为yLine-kLinexLine-bLine=0,则dINS的表达式为:
式中,xL和yL分别为车辆的真实位置,实际计算时采用最优估计值xL,Fus和yL,Fus替代,以视觉模块测得的侧向距离作为dr量测值,对车辆的侧向距离进行修正,得到融合后的车辆距车道线的侧向距离dFus:
dFus=dINS+kd·Δd,
Δd=dr-dINS,
式中,Δd为侧向距离测量值和INS积分位置计算得到的侧向距离之间的差值,kd为侧向距离误差的反馈增益。
9.根据权利要求8所述的一种融合视觉、轮速与惯导的清扫车局部定位方法,其特征在于,将融合后的侧向距离误差ΔdFus=dFus-dr,采用融合后的侧向距离误差ΔdFus对位置进行修正得到最优的融合位置:
xL,Fus=xL,k+ΔdFus·sin(φL,Fus),
yL,Fus=yL,k+ΔdFus·cos(φL,Fus)。
式中,ΦL,Fus为融合后的局部航向值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910294570.9A CN110081880A (zh) | 2019-04-12 | 2019-04-12 | 一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910294570.9A CN110081880A (zh) | 2019-04-12 | 2019-04-12 | 一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110081880A true CN110081880A (zh) | 2019-08-02 |
Family
ID=67414870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910294570.9A Pending CN110081880A (zh) | 2019-04-12 | 2019-04-12 | 一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110081880A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112147632A (zh) * | 2020-09-23 | 2020-12-29 | 中国第一汽车股份有限公司 | 车载激光雷达感知算法的测试方法、装置、设备和介质 |
CN113064193A (zh) * | 2021-03-25 | 2021-07-02 | 上海智能新能源汽车科创功能平台有限公司 | 一种基于车路云协同的组合定位系统 |
CN113687403A (zh) * | 2021-09-09 | 2021-11-23 | 北京斯年智驾科技有限公司 | 一种车辆融合定位系统及方法 |
CN113790726A (zh) * | 2021-09-07 | 2021-12-14 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN113959435A (zh) * | 2021-09-24 | 2022-01-21 | 杭州大数云智科技有限公司 | 一种基于多相机模型的车载环视在线slam系统及方法 |
CN114689044A (zh) * | 2022-03-28 | 2022-07-01 | 重庆长安汽车股份有限公司 | 应对全球导航卫星系统失效场景的融合定位系统及方法 |
EP4438984A1 (en) | 2023-03-27 | 2024-10-02 | Resitec AS | Drying of fine silicon powder in ambient air by empirically establishing powder reactivity |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013149149A1 (en) * | 2012-03-29 | 2013-10-03 | Honda Motor Co., Ltd | Method to identify driven lane on map and improve vehicle position estimate |
CN103940434A (zh) * | 2014-04-01 | 2014-07-23 | 西安交通大学 | 基于单目视觉和惯性导航单元的实时车道线检测系统 |
CN106767853A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院合肥物质科学研究院 | 一种基于多信息融合的无人驾驶车辆高精度定位方法 |
CN106842269A (zh) * | 2017-01-25 | 2017-06-13 | 北京经纬恒润科技有限公司 | 定位方法及系统 |
CN206479647U (zh) * | 2017-01-25 | 2017-09-08 | 北京经纬恒润科技有限公司 | 定位系统及汽车 |
CN107478214A (zh) * | 2017-07-24 | 2017-12-15 | 杨华军 | 一种基于多传感器融合的室内定位方法及系统 |
WO2018063245A1 (en) * | 2016-09-29 | 2018-04-05 | The Charles Stark Draper Laboratory, Inc. | Autonomous vehicle localization |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
CN109239752A (zh) * | 2018-09-29 | 2019-01-18 | 重庆长安汽车股份有限公司 | 车辆定位系统 |
-
2019
- 2019-04-12 CN CN201910294570.9A patent/CN110081880A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013149149A1 (en) * | 2012-03-29 | 2013-10-03 | Honda Motor Co., Ltd | Method to identify driven lane on map and improve vehicle position estimate |
CN103940434A (zh) * | 2014-04-01 | 2014-07-23 | 西安交通大学 | 基于单目视觉和惯性导航单元的实时车道线检测系统 |
WO2018063245A1 (en) * | 2016-09-29 | 2018-04-05 | The Charles Stark Draper Laboratory, Inc. | Autonomous vehicle localization |
CN106767853A (zh) * | 2016-12-30 | 2017-05-31 | 中国科学院合肥物质科学研究院 | 一种基于多信息融合的无人驾驶车辆高精度定位方法 |
CN106842269A (zh) * | 2017-01-25 | 2017-06-13 | 北京经纬恒润科技有限公司 | 定位方法及系统 |
CN206479647U (zh) * | 2017-01-25 | 2017-09-08 | 北京经纬恒润科技有限公司 | 定位系统及汽车 |
CN107478214A (zh) * | 2017-07-24 | 2017-12-15 | 杨华军 | 一种基于多传感器融合的室内定位方法及系统 |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
CN109239752A (zh) * | 2018-09-29 | 2019-01-18 | 重庆长安汽车股份有限公司 | 车辆定位系统 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112147632A (zh) * | 2020-09-23 | 2020-12-29 | 中国第一汽车股份有限公司 | 车载激光雷达感知算法的测试方法、装置、设备和介质 |
CN113064193A (zh) * | 2021-03-25 | 2021-07-02 | 上海智能新能源汽车科创功能平台有限公司 | 一种基于车路云协同的组合定位系统 |
CN113064193B (zh) * | 2021-03-25 | 2022-12-16 | 上海智能新能源汽车科创功能平台有限公司 | 一种基于车路云协同的组合定位系统 |
CN113790726A (zh) * | 2021-09-07 | 2021-12-14 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN113790726B (zh) * | 2021-09-07 | 2024-03-29 | 中国科学院合肥物质科学研究院 | 一种融合相机、轮速计和单uwb信息的机器人室内定位方法 |
CN113687403A (zh) * | 2021-09-09 | 2021-11-23 | 北京斯年智驾科技有限公司 | 一种车辆融合定位系统及方法 |
CN113959435A (zh) * | 2021-09-24 | 2022-01-21 | 杭州大数云智科技有限公司 | 一种基于多相机模型的车载环视在线slam系统及方法 |
CN114689044A (zh) * | 2022-03-28 | 2022-07-01 | 重庆长安汽车股份有限公司 | 应对全球导航卫星系统失效场景的融合定位系统及方法 |
EP4438984A1 (en) | 2023-03-27 | 2024-10-02 | Resitec AS | Drying of fine silicon powder in ambient air by empirically establishing powder reactivity |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110081880A (zh) | 一种融合视觉、轮速与惯导的清扫车局部定位系统及方法 | |
Rose et al. | An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS | |
CN109946732A (zh) | 一种基于多传感器数据融合的无人车定位方法 | |
CN102529975B (zh) | 用于精确的分车道车辆定位的系统和方法 | |
Clanton et al. | A low-cost solution for an integrated multisensor lane departure warning system | |
CN106289275B (zh) | 用于改进定位精度的单元和方法 | |
CN105652305B (zh) | 一种动态环境下轨道检测平台的三维定位定姿方法及系统 | |
CN101793528B (zh) | 使用传感器融合来估计车道路径的系统和方法 | |
CN110208842A (zh) | 一种车联网环境下车辆高精度定位方法 | |
CN110070712A (zh) | 一种低速清扫车全局定位系统及方法 | |
CN106225790A (zh) | 一种无人车定位精度的确定方法及装置 | |
JP2024025803A (ja) | センサを利用して獲得した空間情報を活用する車両、センサを利用して獲得した空間情報を活用するセンシング装置、及びサーバ | |
US11579628B2 (en) | Method for localizing a vehicle | |
CN103492903A (zh) | 状态推定装置 | |
KR20190040818A (ko) | 차량 내부 센서, 카메라, 및 gnss 단말기를 이용한 3차원 차량 항법 시스템 | |
CN114167470A (zh) | 一种数据处理方法和装置 | |
KR100525517B1 (ko) | 차량 항법 시스템 및 그 제어방법 | |
KR102336071B1 (ko) | 차량의 측위 장치 및 방법 | |
KR102336070B1 (ko) | 차량의 측위 장치 및 방법 | |
Hu et al. | Fusion of vision, GPS and 3D gyro data in solving camera registration problem for direct visual navigation | |
CN114889606A (zh) | 一种基于多传感融合的低成本高精定位方法 | |
US11287281B2 (en) | Analysis of localization errors in a mobile object | |
KR101980509B1 (ko) | 차간 거리 추정 방법 및 차간 거리 추정 장치 | |
Pereira et al. | Backward motion for estimation enhancement in sparse visual odometry | |
CN109827569A (zh) | 无人车定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190802 |