CN109141411B - 定位方法、定位装置、移动机器人及存储介质 - Google Patents
定位方法、定位装置、移动机器人及存储介质 Download PDFInfo
- Publication number
- CN109141411B CN109141411B CN201810856232.5A CN201810856232A CN109141411B CN 109141411 B CN109141411 B CN 109141411B CN 201810856232 A CN201810856232 A CN 201810856232A CN 109141411 B CN109141411 B CN 109141411B
- Authority
- CN
- China
- Prior art keywords
- covariance
- information
- observed
- predicted
- state quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Abstract
本申请公开了一种定位方法、定位装置、移动机器人及存储介质。该定位方法包括:采集移动机器人的若干定位信息,定位信息包括里程计信息、惯性信息和深度视觉信息;根据定位信息,经卡尔曼滤波法获得移动机器人的三维空间姿态。根据本申请实施例提供的技术方案,通过里程传感器、惯性传感器、三维全景图像采集装置等多种传感器的定位,能够解决传统定位方法的定位精度低下的问题。
Description
技术领域
本公开一般涉及机器人领域,尤其涉及定位方法、定位装置、移动机器人及存储介质。
背景技术
现有的移动机器人定位方法多种多样,有里程计法、惯性导航法、三维全景图像法。其中里程计法通常在移动机器人车轮上装有光电编码器,通过对车轮转动记录实现位姿跟踪。该方法假定初始位置已知,根据以前的位置对当前估计更新。惯性导航法是机器人从一个已知坐标出发,陀螺仪测得角加速度的值,加速度计获得线加速度,通过角加速度和线加速度进行二次积分分别得到角度和位置。前两种方法的缺点存在具有累加过程,逐步累加的过程中,测量值以及计算值都会存在累积误差,使得定位精度下降,因此只适用于短时间或短距离位姿跟踪。另外,还可以通过环境的全景图结合空间点云数据,进行环境的感知和定位工作。该方法仅适用于估计移动机器人的近似位置,而不是移动机器人的准确位置。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种精度高且移动距离较长的定位方法、定位装置、移动机器人及存储介质。
第一方面,提供一种移动机器人的定位方法,方法包括:
采集移动机器人的若干定位信息,定位信息包括里程计信息、惯性信息和深度视觉信息;
根据定位信息,经卡尔曼滤波法获得移动机器人的三维空间姿态。
第二方面,提供一种移动机器人的定位装置,装置包括:
采集装置:配置用于采集移动机器人的若干定位信息,定位信息包括里程计信息、惯性信息和深度视觉信息;
确定装置:配置用于根据定位信息,经卡尔曼滤波法确定移动机器人的三维空间姿态。
第三方面,提供一种移动机器人,包括里程传感装置、惯性传感器、三维全景图像采集装置和处理器,
里程传感器用于采集里程计信息;
惯性传感器用于采集惯性信息;
图像采集装置用于采集深度视觉信息;
存储器,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行时,使得所
述一个或多个处理器执行本申请各实施例所提供的项定位方法。
第四方面,提供一种存储有计算机程序的计算机可读存储介质,该程序被处理器执行时实现如权利要求本申请各实施例所提供的的档位方法。
根据本申请实施例提供的技术方案,通过里程传感器、惯性传感器、三维全景图像采集装置等多种传感器的定位,能够解决传统定位方法的定位精度低下的问题。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了根据本申请实施例的定位方法的示例性流程图;
图2示出了根据本申请实施例的步骤S20的示例性流程图;
图3示出了根据本申请实施例的定位装置的示例性结构框图;
图4示出了根据本申请实施例的移动机器人的示例性结构框图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,图1示出了根据本申请实施例的定位方法的示例性流程图。如图所示,该定位方法包括:
步骤S10:采集移动机器人的若干定位信息,定位信息包括里程计信息、惯性信息和深度视觉信息;
步骤S20:根据定位信息,经卡尔曼滤波法获得移动机器人的三维空间姿态。
本申请通过多传感器的融合,确定移动机器人的三维空间位置。相对传统的采用一种传感器的定位方案,其定位准确度大大提高。本申请的三维空间位置为[x,y,z,pitch,roll,raw]T。其中,x、y、z为物体的三维空间坐标,pitch是围绕X轴旋转,叫做俯仰角,roll是围绕Z轴旋转,叫翻滚角,raw是围绕Y轴旋转,叫偏航角,上述三个变量是三维笛卡尔坐标系中对物体姿态的描述,Yaw为角度信息的描述。
请参考图2,示出了根据本申请实施例的步骤S20的示例性流程图。如图所示,步骤S20包括:
步骤S21:根据里程计信息初始化系统状态量、协方差矩阵,并结合系统状态量和协方差矩阵,基于系统模型进行状态的估计,确定预测状态量与预测协方差矩阵;
步骤S22:根据预测状态量和预测协方差矩阵,在三个所述定位信息中选择任一项作为观测量计算观测协方差,若观测协方差符合更新条件,则更新预测状态量和预测协方差,否则返回步骤S21,通过系统模型估计预测状态量和预测协方差;
步骤S23:根据步骤S22获得的预测状态量和预测协方差矩阵在未被选择的两个定位信息中选择任一项作为观测量计算观测协方差,若观测协方差符合更新条件,则更新预测状态量和预测协方差,否则返回步骤S21,通过系统模型估计预测状态量和预测协方差;
步骤S24:根据步骤S23获得的预测状态量和预测协方差矩阵,将未被选择的定位信息作为观测量计算观测协方差,若观测协方差符合更新条件,则更新预测状态量和预测协方差,并将更新后的预测状态量作为移动机器人的三维空间姿态,否则返回步骤S21,通过系统模型估计预测状态量和预测协方差。
需要理解的是,预测状态量和预测协方差更新过程中,里程计信息、惯性信息和深度视觉信息等定位信息中其选择的顺序不做限定,可根据需求任意排序。
其中,更新条件包括:
当前状态的观测协方差与前一状态的观测协方差进行比较,若不同则更新。可以理解的是,相同并不表示数值上的完全相同,根据应用场景允许存在一定范围的数值差。当前观测协方差矩阵与前一状态的观测协方差比较,若不相同,则更新预测协方差和预测状态量,否则通过系统模型估计预测状态量和预测协方差。
另外,在步骤S21之前基于里程计信息构建系统模型,系统模型如下:
系统状态量为[x,y,z,pitch,roll,raw]T;
系统输入为[u1,u2]T;
系统方程为:
x(t)=x(t-1)+u1(t)*cos(yaw(t-1))
y(t)=y(t-1)+u1(t)*sin(yaw(t-1))
yaw(t)=yaw(t-1)+u2(t)
其中,x、y、z为物体的三维空间坐标描述,pitch是围绕X轴旋转,叫做俯仰角,roll是围绕Z轴旋转,叫翻滚角,raw是围绕Y轴旋转,叫偏航角,上述三个变量是三维笛卡尔坐标系中对物体姿态的描述,Yaw为角度信息的描述。
过程激励协方差矩阵根据实际情况设定,需要对初始时刻、系统状态、系统协方差矩阵进行初始化。以里程计信息对系统状态量进行初始化,系统协方差矩阵初始化非零,系统输入控制量可设定为[0,0]T。
下面介绍各定位信息的观测量和观测矩阵的具体内容。
里程计信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;0 0 0 0 00;0 0 0 0 0 0 1]。
可见,里程计信息中通常为二维姿态,包含机器人平面中的坐标和朝向及方位协方差。针对平面机器人,可忽略z,pitch,roll,raw项。
惯性信息的观测量和观测矩阵的内容如下:
观测量为[pitch,roll,raw]T;
观测矩阵为[0 0 0 1 0 0;0 0 0 0 1 0;0 0 0 0 0 1]。
通常惯性信息包括相对世界坐标系的pitch,roll,raw角度,pitch,roll是绝对角度,raw是相对角度。
深度视觉信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitc,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 1 0 0 0;0 0 0 1 0 0;0 0 0 0 10;0 0 0 0 0 0 1]。
深度视觉信息包含机器人全方向及相应协方差信息。当传感器只测量部分三维信息时,可制定一个较大的协方差来忽略此项数据。
需要说明的是,本申请的定位方法并不限定要采集三种定位信息,根据需要可采用两种定位信息相融合的方案。
本申请还提供一种定位装置。请参考图3,示出了根据本申请实施例的定位装置300的示例性结构框图。如图所示,装置包括:
采集装置310:配置用于采集移动机器人的若干定位信息,定位信息包括里程计信息、惯性信息和深度视觉信息;
确定装置320:配置用于根据定位信息,经卡尔曼滤波法确定移动机器人的三维空间姿态。
图3的定位装置的工作原理可参考图1的定位方法,这里不再赘述。
在一些实施例中,确定装置包括:
估计单元321:配置用于根据里程计信息初始化系统状态量、协方差矩阵,并结合系统状态量和协方差矩阵,基于系统模型进行状态的估计,获得预测状态量与预测协方差矩阵;
第一更新单元322:配置用于根据预测状态量和预测协方差矩阵,在三个所述定位信息中选择任一项作为观测量计算观测协方差,若观测协方差符合更新条件,则更新预测状态量和预测协方差,否则返回步骤通过系统模型估计预测状态量和预测协方差;
第二更新单元323:配置用于根据第一更新单元322获得的预测状态量和预测协方差矩阵,在未被选择的两个定位信息中选择任一项作为观测量计算观测协方差,,若观测协方差符合更新条件,则更新预测状态量和预测协方差,否则通过系统模型估计预测状态量和预测协方差;
第三更新单元324:配置用于根据第二更新单元323获得的预测状态量和预测协方差矩阵,将未被选择的定位信息作为观测量计算观测协方差,若观测协方差符合更新条件,则更新预测状态量和预测协方差,并将更新后的预测状态量作为移动机器人的三维空间姿态,否则通过系统模型估计预测状态量和预测协方差。
图3的定位装置的工作原理还可参考图2的流程,这里不再赘述。
在一些实施例中,系统模型为基于里程计信息建立的模型,系统模型如下:
系统状态量为[x,y,z,pitch,roll,raw]T;
系统输入为[u1,u2]T;
系统方程为:
x(t)=x(t-1)+u1(t)*cos(yaw(t-1))
y(t)=y(t-1)+u1(t)*sin(yaw(t-1))
yaw(t)=yaw(t-1)+u2(t)
其中,x、y、z为物体的三维空间坐标描述,pitch是围绕X轴旋转,叫做俯仰角,roll是围绕Z轴旋转,叫翻滚角,raw是围绕Y轴旋转,叫偏航角,上述三个变量是三维笛卡尔坐标系中对物体姿态的描述,Yaw为角度信息的描述。
在一些实施例中,里程计信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;0 0 0 0 00;0 0 0 0 0 0 1];
惯性信息的观测量和观测矩阵的内容如下:
观测量为[pitch,roll,raw]T;
观测矩阵为[0 0 0 1 0 0;0 0 0 0 1 0;0 0 0 0 0 1];
深度视觉信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 1 0 0 0;0 0 0 1 0 0;0 0 0 0 10;0 0 0 0 0 0 1]。
在一些实施例中,确定单元还包括更新条件单元325:
更新条件单元325配置用于当前状态的观测协方差与前一状态的观测协方差进行比较,若不同则更新。
本申请还包括一种移动机器人。图4示出了根据本申请实施例的移动机器人的示例性结构框图。如图4所示,移动机器人400包括一个或多个中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有系统400操作所需的各种程序和数据。CPU 401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:可包括编码器、惯性传感器、全向图像采集装置等的采集部分406。其中惯性传感器可包括陀螺仪、加速度计等。全向图像采集装置能够采集三维全景图。包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分407;包括硬盘等的存储部分408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
特别地,根据本公开的实施例,上文参考图3描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行定位方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中所述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本申请的定位方法。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种移动机器人的定位方法,其特征在于,所述方法包括:
采集所述移动机器人的若干定位信息,所述定位信息包括里程计信息、惯性信息和深度视觉信息;
根据所述定位信息,经卡尔曼滤波法获得所述移动机器人的三维空间姿态,包括:
步骤A:根据里程计信息初始化系统状态量、协方差矩阵,并结合所述系统状态量和所述协方差矩阵,基于系统模型进行状态的估计,确定预测状态量与预测协方差矩阵;其中,所述系统模型为基于里程计信息建立的模型,所述系统模型如下:
系统状态量为[x,y,z,pitch,roll,raw]T;
系统输入为[u1,u2]T;
系统方程为:
x(t)=x(t-1)+u1(t)*cos(yaw(t-1))
y(t)=y(t-1)+u1(t)*sin(yaw(t-1))
yaw(t)=yaw(t-1)+u2(t)
其中,x、y、z为物体的三维空间坐标,pitch为俯仰角,roll为翻滚角,raw为偏航角,yaw为角度信息;
步骤B:根据所述预测状态量和所述预测协方差矩阵,在三个所述定位信息中选择任一项作为观测量计算观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,否则返回步骤A,通过所述系统模型估计所述预测状态量和所述预测协方差;
步骤C:根据所述步骤B获得的预测状态量和预测协方差矩阵,在未被选择的两个定位信息中选择任一项作为观测量计算所述观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,否则返回步骤A,通过所述系统模型估计所述预测状态量和所述预测协方差;
步骤D:根据所述步骤C获得的预测状态量和预测协方差矩阵,将未被选择的定位信息作为观测量计算所述观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,并将更新后的所述预测状态量作为所述移动机器人的三维空间姿态,否则返回步骤A,通过所述系统模型估计所述预测状态量和所述预测协方差;其中,所述三维空间姿态包括三维空间坐标、俯仰角、翻滚角和偏航角
2.根据权利要求1所述的移动机器人的定位方法,其特征在于,所述里程计信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;00 0 0 0 0 1];
所述惯性信息的观测量和观测矩阵的内容如下:
观测量为[pitch,roll,raw]T;
观测矩阵为[0 0 0 1 0 0;0 0 0 0 1 0;0 0 0 0 0 1];
所述深度视觉信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 1 0 0 0;0 0 0 1 0 0;0 0 0 0 1 0;00 0 0 0 0 1]。
3.根据权利要求1所述的移动机器人的定位方法,其特征在于,所述更新条件包括:
当前状态的观测协方差与前一状态的观测协方差进行比较,若不同则更新。
4.一种移动机器人的定位装置,其特征在于,所述装置包括:
采集装置:配置用于采集所述移动机器人的若干定位信息,所述定位信息包括里程计信息、惯性信息和深度视觉信息;
确定装置:配置用于根据所述定位信息,经卡尔曼滤波法确定所述移动机器人的三维空间姿态,所述三维空间姿态包括三维空间坐标、俯仰角、翻滚角和偏航角;所述确定装置包括:
估计单元:配置用于根据里程计信息初始化系统状态量、协方差矩阵,并结合所述系统状态量和所述协方差矩阵,基于系统模型进行状态的估计,获得预测状态量与预测协方差矩阵;其中,所述系统模型为基于里程计信息建立的模型,所述系统模型如下:
系统状态量为[x,y,z,pitch,roll,raw]T;
系统输入为[u1,u2]T;
系统方程为:
x(t)=x(t-1)+u1(t)*cos(yaw(t-1))
y(t)=y(t-1)+u1(t)*sin(yaw(t-1))
yaw(t)=yaw(t-1)+u2(t)
其中,其中,x、y、z为物体的三维空间坐标,pitch为俯仰角,roll为翻滚角,raw为偏航角,yaw为角度信息;
第一更新单元:配置用于根据所述预测状态量和所述预测协方差矩阵,在三个所述定位信息中选择任一项作为观测量计算观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,否则返回步骤通过所述系统模型估计所述预测状态量和所述预测协方差;
第二更新单元:配置用于根据所述第一更新单元获得的预测状态量和预测协方差矩阵,在未被选择的两个定位信息中选择任一项作为观测量计算所述观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,否则通过所述系统模型估计所述预测状态量和所述预测协方差;
第三更新单元:配置用于根据所述第二更新单元获得的预测状态量和预测协方差矩阵,将未被选择的定位信息作为观测量计算所述观测协方差,若所述观测协方差符合更新条件,则更新所述预测状态量和所述预测协方差,并将更新后的所述预测状态量作为所述移动机器人的三维空间姿态,否则通过所述系统模型估计所述预测状态量和所述预测协方差。
5.根据权利要求4所述的移动机器人的定位装置,其特征在于,所述里程计信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;0 0 0 0 0 0;00 0 0 0 0 1];
所述惯性信息的观测量和观测矩阵的内容如下:
观测量为[pitch,roll,raw]T;
观测矩阵为[0 0 0 1 0 0;0 0 0 0 1 0;0 0 0 0 0 1];
所述深度视觉信息的观测量和观测矩阵的内容如下:
观测量为[x,y,z,pitch,roll,raw]T;
观测矩阵为[1 0 0 0 0 0;0 1 0 0 0 0;0 0 1 0 0 0;0 0 0 1 0 0;0 0 0 0 1 0;00 0 0 0 0 1]。
6.根据权利要求4所述的移动机器人的定位装置,其特征在于,所述确定单元还包括更新条件单元:
所述更新条件单元配置用于当前状态的观测协方差与前一状态的观测协方差进行比较,若不同则更新。
7.一种移动机器人,其特征在于,包括里程传感器、惯性传感器、三维全景图像采集装置和处理器,
所述里程传感器用于采集里程计信息;
所述惯性传感器用于采集惯性信息;
所述图像采集装置用于采集深度视觉信息;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1-3中任一项所述定位方法。
8.一种存储有计算机程序的计算机可读存储介质,其特征在于,该程序被处理器执行时实现如权利要求1-3中任一项所述的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810856232.5A CN109141411B (zh) | 2018-07-27 | 2018-07-27 | 定位方法、定位装置、移动机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810856232.5A CN109141411B (zh) | 2018-07-27 | 2018-07-27 | 定位方法、定位装置、移动机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109141411A CN109141411A (zh) | 2019-01-04 |
CN109141411B true CN109141411B (zh) | 2022-01-21 |
Family
ID=64798524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810856232.5A Active CN109141411B (zh) | 2018-07-27 | 2018-07-27 | 定位方法、定位装置、移动机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109141411B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109506661A (zh) * | 2019-01-11 | 2019-03-22 | 轻客小觅智能科技(北京)有限公司 | 一种机器人的定位方法、装置、机器人及存储介质 |
CN110849392A (zh) * | 2019-11-15 | 2020-02-28 | 上海有个机器人有限公司 | 一种机器人的里程计数据校正方法及机器人 |
CN110986988B (zh) * | 2019-12-20 | 2023-12-08 | 上海有个机器人有限公司 | 融合多传感器数据的轨迹推算方法、介质、终端和装置 |
CN114147717A (zh) * | 2021-12-09 | 2022-03-08 | 乐聚(深圳)机器人技术有限公司 | 机器人运动轨迹估计方法、装置、控制器及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104977004A (zh) * | 2015-07-13 | 2015-10-14 | 湖北航天技术研究院总体设计所 | 一种激光惯组与里程计组合导航方法及系统 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8639426B2 (en) * | 2010-07-15 | 2014-01-28 | George C Dedes | GPS/IMU/video/radar absolute/relative positioning communication/computation sensor platform for automotive safety applications |
US8543266B2 (en) * | 2011-10-03 | 2013-09-24 | The Boeing Company | Modified Kalman filter for generation of attitude error corrections |
-
2018
- 2018-07-27 CN CN201810856232.5A patent/CN109141411B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104977004A (zh) * | 2015-07-13 | 2015-10-14 | 湖北航天技术研究院总体设计所 | 一种激光惯组与里程计组合导航方法及系统 |
CN107869989A (zh) * | 2017-11-06 | 2018-04-03 | 东北大学 | 一种基于视觉惯导信息融合的定位方法及系统 |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109141411A (zh) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111811506B (zh) | 视觉/惯性里程计组合导航方法、电子设备及存储介质 | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
US10788830B2 (en) | Systems and methods for determining a vehicle position | |
Kellner et al. | Instantaneous ego-motion estimation using multiple Doppler radars | |
KR102440358B1 (ko) | 관성 기반 항법 장치 및 상대사전적분에 따른 관성 기반 항법 방법 | |
EP2372656B1 (en) | Method and apparatus for vision aided navigation using image registration | |
US9071829B2 (en) | Method and system for fusing data arising from image sensors and from motion or position sensors | |
EP2856273B1 (en) | Pose estimation | |
WO2012086401A1 (ja) | 運転支援装置 | |
US20160161260A1 (en) | Method for processing feature measurements in vision-aided inertial navigation | |
CN110956665B (zh) | 车辆拐弯轨迹双向计算方法、系统、装置 | |
EP2175237B1 (en) | System and methods for image-based navigation using line features matching | |
US11062475B2 (en) | Location estimating apparatus and method, learning apparatus and method, and computer program products | |
CN111380514A (zh) | 机器人位姿估计方法、装置、终端及计算机存储介质 | |
JP2020169872A (ja) | 慣性航法装置 | |
RU2762143C2 (ru) | Система определения курса и углового пространственного положения, выполненная с возможностью функционирования в полярной области | |
CN110598370B (zh) | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 | |
CN109459769B (zh) | 一种自主定位方法与系统 | |
CN116952229A (zh) | 无人机定位方法、装置、系统和存储介质 | |
US20210074020A1 (en) | Location estimation apparatus | |
CN109737950B (zh) | 基于vio和动力学模型的水下机器人定位系统及方法 | |
KR20230048324A (ko) | 확장된 데드 레커닝 정확성 | |
Yingfei et al. | Solving the localization problem while navigating unknown environments using the SLAM method | |
CN111712855A (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
CN113034538A (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |