CN110515381B - 用于定位机器人的多传感器融合算法 - Google Patents
用于定位机器人的多传感器融合算法 Download PDFInfo
- Publication number
- CN110515381B CN110515381B CN201910780243.4A CN201910780243A CN110515381B CN 110515381 B CN110515381 B CN 110515381B CN 201910780243 A CN201910780243 A CN 201910780243A CN 110515381 B CN110515381 B CN 110515381B
- Authority
- CN
- China
- Prior art keywords
- state variable
- moment
- time
- odometer
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000012937 correction Methods 0.000 claims abstract description 62
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 230000009191 jumping Effects 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims description 8
- 238000005259 measurement Methods 0.000 abstract description 23
- 238000000034 method Methods 0.000 abstract description 16
- 239000011159 matrix material Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种用于定位机器人的多传感器融合算法,包括:S1、获取移动机器人在tk‑1时刻轨迹跟踪控制器输出的tk时刻的控制量以计算第一状态变量的预测值;S2:获取里程计在tk时刻的第二状态变量并运用扩展卡尔曼滤波得到第一校正值;S3、获取陀螺仪在tk时刻的第三状态变量运用扩展卡尔曼滤波得到第二校正值;S4、判断扫码器在tk时刻是否有读数;当步骤S3的判断结果为否时返回至步骤S1;当步骤S3的判断结果为是时跳入步骤S5、获取扫码器在tk时刻的第四状态变量运用扩展卡尔曼滤波得到第三校正值。本发明的有益之处在于提供的用于定位机器人的多传感器融合算法通过扩展卡尔曼滤波器融合多个传感器的测量值使得移动机器人的定位更加精确。
Description
技术领域
本发明涉及一种用于定位机器人的多传感器融合算法。
背景技术
在移动机器人中,任何一个传感器都可能存在误差,单独的依赖某个传感器的读数都无法获得移动机器人精确的位姿信息,如何综合多个传感器的读数以获得更加贴近真实值的一个新的估计值成为了大家研究的重点。
发明内容
本发明提供了一种用于定位机器人的多传感器融合算法,采用如下的技术方案:
一种用于定位机器人的多传感器融合算法,包括以下步骤:
S1:获取移动机器人在tk-1时刻轨迹跟踪控制器输出的tk时刻的控制量,根据轨迹跟踪控制器输出的控制量以及移动机器人在tk-1时刻的第一状态变量计算移动机器人在tk时刻的第一状态变量的预测值;
S2:获取里程计在tk时刻的第二状态变量,并对步骤S1获得的tk时刻第一状态变量的预测值运用扩展卡尔曼滤波进行融合得到第一校正值;
S3:获取陀螺仪在tk时刻的第三状态变量,并对步骤S2获得的第一校正值运用扩展卡尔曼滤波进行融合得到第二校正值;
S4:判断扫码器在tk时刻是否有读数;
当步骤S4的判断结果为否时,将第二校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1;
当步骤S4的判断结果为是时,跳入步骤S5:获取扫码器在tk时刻的第四状态变量,并对步骤S3获得的第二校正值运用扩展卡尔曼滤波进行融合得到第三校正值,并将第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1。
进一步地,控制量包括线速度和角速度;
第一状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角。
进一步地,第一状态变量在tk-1时刻的值为(xk-1,yk-1,θk-1),则第一状态变量在tk时刻的预测值(xk,yk,θk)通过以下公式求得:
其中,vk表示移动机器人在tk时刻的线速度,wk表示移动机器人在tk时刻的角速度。
进一步地,第二状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角;
里程计根据移动机器人的左轮编码器和右轮编码器的脉冲增量更新第二状态变量。
进一步地,第三状态变量包括移动机器人在世界坐标系中的航向角。
进一步地,第四状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角。
进一步地,将里程计的时间戳通过线性插值的方式调整成与轨迹跟踪控制器对齐;
将陀螺仪的时间戳通过线性插值的方式调整成与轨迹跟踪控制器对齐。
进一步地,当扫码器的滞后时间小于等于定位机器人的数据采样周期时,将里程计的时间戳通过线性插值的方式调整成与轨迹跟踪控制器对齐。
进一步地,当扫码器的滞后时间大于定位机器人的数据采样周期时,通过里程计保存的数据对扫码器的第四状态变量进行修正,通过修正后的第四状态变量对步骤S3获得的第二校正值运用扩展卡尔曼滤波进行融合得到第三校正值,并将第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1。
进一步地,将里程计tk时刻的第二状态变量的值替换成修正后的第四状态变量的值。
本发明的有益之处在于提供的用于定位机器人的多传感器融合算法通过扩展卡尔曼滤波器融合多个传感器的测量值,使得移动机器人的定位更加精确。
本发明的有益之处还在于提供的用于定位机器人的多传感器融合算法通过线性插值法将多个传感器的时间戳和步骤S1中的轨迹跟踪控制器的时间戳对齐,提高了移动机器人的定位精度。
本发明的有益之处还在于提供的用于定位机器人的多传感器融合算法通过里程计修正扫码器的读数,解决了扫码器读数滞后的问题,提高了移动机器人的定位精度。
附图说明
图1是本发明的用于定位机器人的多传感器融合算法的流程图;
图2是本发明的移动机器人运动示意图。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
如图1所示为本发明的一种用于定位机器人的多传感器融合算法,包括:S1:获取移动机器人在tk-1时刻轨迹跟踪控制器输出的tk时刻的控制量,根据轨迹跟踪控制器输出的控制量以及移动机器人在tk-1时刻的第一状态变量计算移动机器人在tk时刻的第一状态变量的预测值;S2:获取里程计在tk时刻的第二状态变量,并对步骤S1获得的tk时刻第一状态变量的预测值运用扩展卡尔曼滤波进行融合得到第一校正值;S3:获取陀螺仪在tk时刻的第三状态变量,并对步骤S2获得的第一校正值运用扩展卡尔曼滤波进行融合得到第二校正值;S4:判断扫码器在tk时刻是否有读数;当步骤S4的判断结果为否时,将第二校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1;当步骤S4的判断结果为是时,跳入步骤S5:获取扫码器在tk时刻的第四状态变量,并对步骤S3获得的第二校正值运用扩展卡尔曼滤波进行融合得到第三校正值,并将第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1。
关于多个不同频率的传感器的融合:将多个传感器的测量信息进行依次处理,比如有三个传感器的测量值,接收到第一个传感器的数据时,用第一个传感器的测量值做一次完整的扩展卡尔曼滤波过程(包含预测与校正);接收到第二个传感器的数据时只进行扩展卡尔曼滤波的校正而不进行预测,即直接使用第一次完整卡扩展尔曼滤波过程得到的状态估计结果作为一步预测,然后使用第二个传感器的测量值进行测量更新过程,得到第二次扩展卡尔曼滤波过程的最优状态估计;同样,接收到第三个传感器的数据时只进行扩展卡尔曼滤波的校正而不进行预测,即直接使用第二次扩展卡尔曼滤波过程的最优状态估计作为一步预测,然后使用第三个传感器的测量值进行测量更新过程,得到第三次扩展卡尔曼滤波过程的最优状态估计。在本发明中,传感器的数量为3,具体分别为里程计、陀螺仪和扫码器,以下具体说明上述步骤。
对于步骤S1:获取移动机器人在tk-1时刻轨迹跟踪控制器输出的tk时刻的控制量,根据轨迹跟踪控制器输出的控制量以及移动机器人在tk-1时刻的第一状态变量计算移动机器人在tk时刻的第一状态变量的预测值。
具体而言,控制量包括线速度vk和角速度,第一状态变量包括移动机器人在世界坐标系中的横坐标x、纵坐标y和航向角θ。
如图2所示为移动机器人运动示意图,移动机器人的运动学方程为:
其中,v表示机器人的线速度,ω表示机器人的角速度,其相应的离散方程为:
其中,SamplePeriod为给定的采样周期,在已知移动机器人的采样周期SamplePeriod和tk-1时刻的第一状态变量的情况下,就可以根据上面的离散方程计算移动机器人在tk时刻的第一状态变量的预测值。
对于步骤S2:获取里程计在tk时刻的第二状态变量,并对步骤S1获得的tk时刻第一状态变量的预测值运用扩展卡尔曼滤波进行融合得到第一校正值。
假设系统的过程方程是一个非线性离散随机差分方程,则:
xk=f(xk-1,uk)+wk,
wk~N(0,Qk),
zk=h(xk)+vk,
vk~N(0,Rk),
其中vk表示均值为0、协方差矩阵为Rk且服从正态分布的测量噪声,定义雅可比矩阵:
扩展卡尔曼滤波分为两个步骤,即时间更新和测量更新,时间更新方程又称为预测方程,测量更新方程又称为校正方程。在预测阶段,滤波器使用上一状态的估计,做出对当前状态的预测;在校正阶段,滤波器利用当前状态的测量值修正预测阶段获得的预测值,以获得一个更接进真实值的新估计值。
预测:
计算卡尔曼增益Kk:
校正:
其中为在已知系统第k-1步状态变量的情况下对第k步的状态变量的先验状态估计,xk为已知测量变量zk时对第k步的状态变量的后验状态估计,uk表示系统的输入控制量,Ak是函数f关于x的雅可比矩阵,为先验状态估计的误差的协方差矩阵,Pk为后验状态估计的误差的协方差矩阵,Hk表示函数h关于x的雅可比矩阵,Qk表示过程噪声协方差矩阵,Rk表示测量噪声协方差矩阵,Kk为卡尔曼增益,I为单位矩阵。
在步骤S2中,移动机器人的里程计的第二状态变量包括机器人在世界坐标系中的横坐标、纵坐标、航向角,分别记为xodom,yodom,θodom,当里程计的时间戳和S1中的轨迹跟踪控制器的时间戳不对齐时,采用线性插值来求得与轨迹跟踪控制器的时间戳对齐的里程计的读数。具体而言,假设S1的时间戳为t,最近的里程计的时间戳为tk-1,tk,相应的里程计的第二状态变量分别为xk-1,yk-1,θk-1和xk,yk,θk,利用线性插值我们插值得出t时刻里程计的第二状态变量:
这种线性插值求解时间戳对齐时刻的里程计的第二状态变量的方法在时间间隔很短的情况下精度是很高的。里程计的频率上百赫兹,在时间间隔这么小的情况下,采取线性插值求解时间戳对齐后的里程计的第二状态变量是精确的。
进一步地,移动机器人的运动学方程为:
其对应的离散方程为:
记状态变量X=(x,y,θ)T,控制变量uk=(vk,wk)T,则上式简化为:
Xk=f(Xk-1,uk),
根据步骤S1获得的在tk-1时刻轨迹跟踪控制器输出的控制量uk=(vk,wk)T,我们就可以计算得到tk时刻状态变量X的预测值,并且我们可以求得雅可比矩阵:
里程计的测量方程为:
Zk=h(Xk)=(xk,yk,θk)T,
于是我们可以求得雅可比矩阵:
这样我们就可以使用前面介绍的扩展卡尔曼滤波融合里程计的测量值对状态变量X的预测值进行修正,以获得一个更加接近真实值的新估计值,此处将修正后的值记为第一校正值。
进一步地,在步骤S2中,里程计的第二状态变量x=(xodom,yodom,θodom)T更新方法为:
其中RL,RR分别是左右轮半径。记N是轮子转动一圈时编码器的增量,d是小车轴距,那么[tk-1,tk]时间段内小车移动距离、旋转角度和曲率半径分别为:
里程计的更新方程为:
在已知里程计在tk-1时刻的第二状态变量以及里程计的左轮编码器和右轮编码器在[tk-1,tk]时间段内的脉冲增量的基础上,通过以上公式可以得到里程计在tk时刻的第二状态变量。
对于步骤S3:获取陀螺仪在tk时刻的第三状态变量,并对步骤S2获得的第一校正值运用扩展卡尔曼滤波进行融合得到第二校正值。
具体而言,陀螺仪的第三状态变量指移动机器人在世界坐标系中航向角,记为θgyro,同步骤S3,当陀螺仪的时间戳和S1中的轨迹跟踪控制器的时间戳不对齐时,采用线性插值来求得与轨迹跟踪控制器的时间戳对齐的陀螺仪的读数。具体而言,假设S1的时间戳为t,最近的陀螺仪的时间戳为tk-1,tk,相应的陀螺仪的第三状态变量分别为θk-1和θk,利用线性插值我们插值得出t时刻陀螺仪的第三状态变量:
这种线性插值求解时间戳对齐时刻的陀螺仪的第三状态变量的方法在时间间隔很短的情况下精度是很高的。陀螺仪的频率上百赫兹,在时间间隔这么小的情况下,采取线性插值求解时间戳对齐后的陀螺仪的第三状态变量是精确的。
在步骤S3中,将步骤S2融合里程计测量值后得到的第一校正值作为步骤S3的预测值,再利用陀螺仪的测量值对第一校正值做修正,具体的修正步骤如下:
陀螺仪的观测方程为:
Zk=h(Xk)=θk,
可以求得雅可比矩阵:
Hk=(0 0 1),
这样我们就可以使用前面介绍的扩展卡尔曼滤波融合陀螺仪的测量值对状态变量θ的预测值进行修正,以获得一个更加接近真实值的新估计值,此处将该新的估计值记为第二校正值。
对于步骤S4:判断扫码器在tk时刻是否有读数。
具体而言,在本发明中,扫码器作为移动机器人中的第三个传感器,其只有在扫描到二维码图案时才会产生读数,在移动机器人运动过程中,只有在某些固定的点上设有二维码图案,因此,在移动机器人运行过程中,绝大部分时间扫码器并没有采集到二维码图案。在每个采样校正周期中,在执行完步骤S3后判断扫码器是否有读数,但判断结果为否时,则返回步骤S1执行下一运算周期,此时,将第二校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1执行下一周期的预测和校正。当步骤S3的判断结果为是时,跳入步骤S5。
对于步骤S5:获取扫码器在tk时刻的第四状态变量,并对步骤S3获得的第二校正值运用扩展卡尔曼滤波进行融合得到第三校正值,并将第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1。
在步骤S5中,扫码器的第四状态变量包括机器人在世界坐标系中的横坐标、纵坐标、航向角,分别记为xlandmark,ylandmark,θlandmark:
由于扫码器摄取到二维码到解码需要很长时间,经常会导致扫码器的数据滞后,在扫码器的滞后时间小于等于一个SamplePeriod的情况下,当扫码器的时间戳和S1中的轨迹跟踪控制器的时间戳不对齐时,采用线性插值来求得与轨迹跟踪控制器的时间戳对齐的扫码器的读数。具体而言,假设S1的时间戳为t,最近的扫码器的时间戳为tk-1,tk,相应的扫码器的第四状态变量分别为xk-1,yk-1,θk-1和xk,yk,θk,利用线性插值我们插值得出t时刻陀螺仪的第四状态变量:
这种线性插值求解时间戳对齐时刻的陀螺仪的第四状态变量的方法在时间间隔很短的情况下精度是很高的。
将步骤S3融合陀螺仪的测量值后得到的第二校正值作为步骤S5的预测值,再利用扫码器的测量值做修正,具体的修正步骤如下:
进一步地,扫码器的观测方程为:
Zk=h(Xk)=(xk,yk,θk)T,
于是可以求得雅可比矩阵:
这样就可以使用前面介绍的扩展卡尔曼滤波融合扫码器的测量值对状态变量X=(x,y,θ)T的预测值进行修正,以获得一个更加接近真实值的新估计值,此处记为第三校正值,将第三校正值作为tk时刻的第一状态变量返回至步骤S1执行下一周期的预测和校正。
通常,扫码器的滞后时间为几十毫秒,而一个SamplePeriod一般设为几毫秒,因此,扫码器的滞后时间大于一个SamplePeriod。在移动机器人运行过程中,实时保存里程计之前一段时间的左轮编码器和右轮编码器的脉冲增量信息,该一段时间设置成比扫码器的滞后时间长,在本发明中取200ms。在扫码器的滞后时间大于一个SamplePeriod的情况下,假设当前时刻里程计的时间戳为tk,当前时刻扫码器的时间戳为t0,在里程计存储的过去200ms的里程计的时间戳中找出第一个比扫码器的时间戳t0早的里程计的时间戳t,并用t0时刻的扫码器的第四状态变量的读数作为t时刻的里程计的第二状态变量的值,然后根据t时刻至tk时刻的左轮编码器和右轮编码器的脉冲增量信息依据步骤S2中介绍的里程计更新方程计算得到当前时刻tk里程计一个新的第二状态变量xnew,将该新的第二状态变量xnew作为扫码器当前的第四状态变量的修正值,把步骤S3融合陀螺仪测量值后得到的第二校正值作为步骤S5的预测值,再利用经过里程计修正后的陀螺仪的测量值xnew对第二校正值做修正,具体的修正步骤如下:
扫码器的观测方程为:
Zk=h(Xk)=(xk,yk,θk)T,
于是可以求得雅可比矩阵:
这样就可以使用前面介绍的扩展卡尔曼滤波融合经过里程计校正后的陀螺仪的测量值xnew对状态变量X=(x,y,θ)T的预测值进行修正,以获得一个更加接近真实值的新估计值。此处记为第三校正值,将第三校正值作为tk时刻的第一状态变量返回至步骤S1执行下一周期的预测和校正。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,上述实施例不以任何形式限制本发明,凡采用等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (6)
1.一种用于定位机器人的多传感器融合算法,其特征在于,包括以下步骤:
S1:获取移动机器人在tk-1时刻轨迹跟踪控制器输出的tk时刻的控制量,根据所述轨迹跟踪控制器输出的控制量以及移动机器人在tk-1时刻的第一状态变量计算移动机器人在tk时刻的所述第一状态变量的预测值;
S2:获取里程计在tk时刻的第二状态变量,并对步骤S1获得的tk时刻所述第一状态变量的预测值运用扩展卡尔曼滤波进行融合得到第一校正值;
S3:获取陀螺仪在tk时刻的第三状态变量,并对步骤S2获得的第一校正值运用扩展卡尔曼滤波进行融合得到第二校正值;
S4:判断扫码器在tk时刻是否有读数;
当步骤S4的判断结果为否时,将所述第二校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1;
当步骤S4的判断结果为是时,跳入步骤S5:获取扫码器在tk时刻的第四状态变量,并对步骤S3获得的所述第二校正值运用扩展卡尔曼滤波进行融合得到第三校正值,并将所述第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1;
将所述里程计的时间戳通过线性插值的方式调整成与所述轨迹跟踪控制器对齐;
将所述陀螺仪的时间戳通过线性插值的方式调整成与所述轨迹跟踪控制器对齐;
当所述扫码器的滞后时间小于等于定位机器人的数据采样周期时,将所述里程计的时间戳通过线性插值的方式调整成与所述轨迹跟踪控制器对齐;
当所述扫码器的滞后时间大于定位机器人的数据采样周期时,假设当前时刻所述里程计的时间戳为tk,当前时刻所述扫码器的时间戳为t0,在所述里程计存储的过去预定时间内的所述里程计的时间戳中找出第一个比所述扫码器的时间戳t0早的所述里程计的时间戳t,并用t0时刻的所述扫码器的第四状态变量的读数作为t时刻的所述里程计的第二状态变量的值,并通过该t时刻的所述里程计的第二状态变量的值计算出tk时刻的所述里程计的一个新的所述第二状态变量的值,并将所述里程计的新的所述第二状态变量的值作为所述扫码器的第四状态变量的修正值,再通过所述第四状态变量的修正值对步骤S3获得的所述第二校正值运用扩展卡尔曼滤波进行融合得到所述第三校正值,并将所述第三校正值作为移动机器人在tk时刻的第一状态变量返回至步骤S1。
2.根据权利要求1所述的用于定位机器人的多传感器融合算法,其特征在于,
所述控制量包括线速度和角速度;
所述第一状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角。
4.根据权利要求1所述的用于定位机器人的多传感器融合算法,其特征在于,
所述第二状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角;
所述里程计根据移动机器人的左轮编码器和右轮编码器的脉冲增量更新所述第二状态变量。
5.根据权利要求1所述的用于定位机器人的多传感器融合算法,其特征在于,
所述第三状态变量包括移动机器人在世界坐标系中的航向角。
6.根据权利要求1所述的用于定位机器人的多传感器融合算法,其特征在于,
所述第四状态变量包括移动机器人在世界坐标系中的横坐标、纵坐标和航向角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780243.4A CN110515381B (zh) | 2019-08-22 | 2019-08-22 | 用于定位机器人的多传感器融合算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780243.4A CN110515381B (zh) | 2019-08-22 | 2019-08-22 | 用于定位机器人的多传感器融合算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110515381A CN110515381A (zh) | 2019-11-29 |
CN110515381B true CN110515381B (zh) | 2022-11-25 |
Family
ID=68627596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910780243.4A Active CN110515381B (zh) | 2019-08-22 | 2019-08-22 | 用于定位机器人的多传感器融合算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110515381B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111007863B (zh) * | 2019-12-06 | 2023-05-02 | 广州市申迪计算机系统有限公司 | 一种机器人航向角的测量方法、装置及存储介质 |
CN111638715B (zh) * | 2020-05-29 | 2023-09-01 | 京东科技信息技术有限公司 | 机器人的控制方法、机器人、电子设备及存储介质 |
CN112050809B (zh) * | 2020-10-08 | 2022-06-17 | 吉林大学 | 轮式里程计与陀螺仪信息融合的无人车定向定位方法 |
CN112985426B (zh) * | 2021-03-31 | 2022-09-13 | 天津大学 | 一种用于二轮车的定位方法 |
CN114413885B (zh) * | 2021-12-22 | 2024-05-24 | 华人运通(上海)自动驾驶科技有限公司 | 基于多传感器融合定位的时间同步方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002076912A (ja) * | 2000-08-31 | 2002-03-15 | Sony Corp | 復号装置及び復号方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002076915A (ja) * | 2000-08-31 | 2002-03-15 | Sony Corp | インターリーブ装置及びインターリーブ方法、並びに、復号装置及び復号方法 |
CN101576384B (zh) * | 2009-06-18 | 2011-01-05 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN104848858B (zh) * | 2015-06-01 | 2018-07-20 | 北京极智嘉科技有限公司 | 二维码以及用于机器人的视觉-惯性组合导航系统及方法 |
US9555883B1 (en) * | 2015-06-25 | 2017-01-31 | Amazon Technologies, Inc. | Unmanned aerial vehicle sensor synchronization |
CN105241461A (zh) * | 2015-11-16 | 2016-01-13 | 曾彦平 | 机器人的地图创建及定位方法和机器人系统 |
CN106123890A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院合肥物质科学研究院 | 一种多传感器数据融合的机器人定位方法 |
CN106382934A (zh) * | 2016-11-16 | 2017-02-08 | 深圳普智联科机器人技术有限公司 | 一种高精度移动机器人定位系统和方法 |
CN106969766A (zh) * | 2017-03-21 | 2017-07-21 | 北京品创智能科技有限公司 | 一种基于单目视觉和二维码路标的室内自主导航方法 |
CN107255476B (zh) * | 2017-07-06 | 2020-04-21 | 青岛海通胜行智能科技有限公司 | 一种基于惯性数据和视觉特征的室内定位方法和装置 |
CN107741745B (zh) * | 2017-09-19 | 2019-10-22 | 浙江大学 | 一种实现移动机器人自主定位与地图构建的方法 |
CN108021132A (zh) * | 2017-11-29 | 2018-05-11 | 芜湖星途机器人科技有限公司 | 路径规划方法 |
CN108120438B (zh) * | 2017-12-15 | 2020-05-05 | 北京工商大学 | 一种基于imu和rfid信息融合的室内目标快速跟踪方法 |
CN109959381B (zh) * | 2017-12-22 | 2021-06-04 | 深圳市优必选科技有限公司 | 一种定位方法、装置、机器人及计算机可读存储介质 |
CN110045601A (zh) * | 2018-01-15 | 2019-07-23 | 北京航空航天大学 | 一种基于迭代学习控制的欠驱动移动机器人跟踪方法 |
CN108594822A (zh) * | 2018-05-10 | 2018-09-28 | 哈工大机器人(昆山)有限公司 | 基于二维码的机器人定位方法、机器人充电方法及系统 |
CN109900274B (zh) * | 2019-03-25 | 2022-09-16 | 哈尔滨工业大学 | 一种图像匹配方法及系统 |
-
2019
- 2019-08-22 CN CN201910780243.4A patent/CN110515381B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002076912A (ja) * | 2000-08-31 | 2002-03-15 | Sony Corp | 復号装置及び復号方法 |
Non-Patent Citations (2)
Title |
---|
A Video Analytics-Based Intelligent Indoor Positioning System Using Edge Computing For IoT;Yinghao Xie;《 2018 International Conference on Cyber-Enabled Distributed Computing and Knowledge Discovery (CyberC)》;20190221;全文 * |
精密单点定位用户自主式完备性监测算法;秘金钟;《测绘学报》;20110530;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110515381A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110515381B (zh) | 用于定位机器人的多传感器融合算法 | |
CN110160542B (zh) | 车道线的定位方法和装置、存储介质、电子装置 | |
CN109443392B (zh) | 导航误差确定方法及装置、导航控制方法、装置及设备 | |
CN113311411A (zh) | 一种用于移动机器人的激光雷达点云运动畸变校正方法 | |
CN108036792A (zh) | 一种用于移动机器人的里程计与测量位姿的数据融合方法 | |
CN109059907A (zh) | 轨迹数据处理方法、装置、计算机设备和存储介质 | |
CN103674028A (zh) | 一种室内行进轨迹的定位测试方法及装置 | |
CN109579838A (zh) | Agv小车的定位方法及定位系统 | |
KR20120064048A (ko) | 측위 장치, 측위 방법 및 기억 매체 | |
CN106153069B (zh) | 自主导航系统中的姿态修正装置和方法 | |
CN113029201B (zh) | 双轮差速模型的里程校准方法和装置、设备及存储介质 | |
CN110763224A (zh) | 一种自动导引运输车导航方法及导航系统 | |
CN113203429B (zh) | 一种陀螺仪温度漂移误差的在线估计及补偿方法 | |
CN114413934B (zh) | 一种车辆定位系统校正方法和装置 | |
CN110068334A (zh) | 一种磁导航agv的高精度定位方法 | |
CN109916396A (zh) | 一种基于多维地磁信息的室内定位方法 | |
CN112797979B (zh) | 一种应用于agv的惯性姿态导航系统 | |
CN111812668B (zh) | 绕机检查装置及其定位方法、存储介质 | |
CN117109638B (zh) | 一种在线单舵轮agv参数标定方法、系统、设备及介质 | |
CN112577512A (zh) | 一种基于轮速融合的状态量误差确定方法及车载终端 | |
CN114147717B (zh) | 机器人运动轨迹估计方法、装置、控制器及存储介质 | |
CN112577513A (zh) | 一种状态量误差确定方法及车载终端 | |
CN106092141B (zh) | 一种改善相对位置传感器性能的方法及装置 | |
CN115342830A (zh) | 用于定位装置和里程计的标定方法、程序产品和标定装置 | |
CN114379577A (zh) | 行驶轨迹生成方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |