CN106153037B - 一种机器人的室内定位方法、装置及系统 - Google Patents
一种机器人的室内定位方法、装置及系统 Download PDFInfo
- Publication number
- CN106153037B CN106153037B CN201610579461.8A CN201610579461A CN106153037B CN 106153037 B CN106153037 B CN 106153037B CN 201610579461 A CN201610579461 A CN 201610579461A CN 106153037 B CN106153037 B CN 106153037B
- Authority
- CN
- China
- Prior art keywords
- location data
- robot
- alignment sensor
- pseudo
- sample time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000005070 sampling Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000007547 defect Effects 0.000 abstract description 5
- 238000005259 measurement Methods 0.000 description 21
- 230000000694 effects Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 241001269238 Data Species 0.000 description 5
- 238000000691 measurement method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种机器人的室内定位方法、装置及系统,该方法包括:接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;判定在当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;若在当前采样时间没有接收到第二定位传感器采集的第二定位数据,则将所述第二定位传感器上一采样时间采集的历史定位数据作为第二定位传感器采集在当前采样时间采集的伪第二定位数据;根据第一定位数据和伪第二定位数据进行机器人的室内定位。本发明解决了由于两种定位传感器的采样速率的不同带来的定位缺陷问题,实现算法相对简单,而且大大的提高了机器人的室内定位的精度。
Description
技术领域
本发明涉及定位技术领域,尤其涉及一种机器人的室内定位方法、装置及系统。
背景技术
室内移动机器人在其工作环境中的定位及运动状态估计,是移动机器人自主定位导航的基础和关键技术之一。由于室内存在着卫星信号屏蔽,因此卫星定位等方法在室内无法发挥其定位快速准确的优势。近几年,室内机器人定位所采用的主要方法有以下几种:基于RFID的方法,基于无线传感网络方法和基于里程计和惯导模块方法。
基于RFID的方法要求在放置RFID标签时,要充分考虑各种可能性,使用不便,精度较低,适合环境简单,且对精度要求不高场合下的定位;基于无线传感网络的方法,如Wi-Fi技术,Zibgee技术等,利用信号强度进行定位,该方法需要架设无线传感网络,成本高,且无线信号易受干扰,精度较差;基于惯导模块的方法利用惯性导航模块,结合里程计,对物体的航向、速度和加速度进行实时记录,累积里程,通过计算得到物体相对于初始位置的坐标。该方法存在累积误差和漂移,时间一长或路况不佳时,精度难以保证。同时,移动机器人所采用的自定位技术与机器人配备的传感器密切相关,目前的移动机器人往往同时装备多种传感器。目前,在移动机器人上使用较多的传感器有视觉传感器、里程计和惯导系统、超声波传感器、激光测距仪等。超声波传感器、激光测距仪等传感器因信息单一、感应周期长,目前逐渐沦为辅助性的定位传感器;视觉传感器因具有信息量大、感应时间短等优点,随着计算机运行速度的提高,在自主移动机器人上应用越来越广泛;里程计是一种广泛使用的方法,由于其使用方便,成本低,跟踪频率高。近几年,将视觉系统与里程计等传感器结合起来进行机器人定位的研究越来越广泛。
在实现本发明过程中,发明人发现现有技术中至少存在以下缺陷:
现有的室内机器人定位方法中并没有考虑到摄像头和里程计的采样速率,由于摄像头和里程计的采样速率不一样,里程计采样速率高,而摄像头采样速率低,使得在没有摄像头采样的时刻,只能靠里程计进行定位,相当于丢失了视觉测量,大大降低了定位的精度。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决或者减缓上述问题的机器人的室内定位方法、装置及系统。
根据本发明的一个方面,提供了一种机器人的室内定位方法,该方法包括:
接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;
判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;
若在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据,则将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;
根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。
可选地,所述方法还包括:
若在所述当前采样时间接收到第二定位传感器采集的第二定位数据,则直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
可选地,在所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,还包括:
根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
可选地,所述方法还包括:
采用归一化最小均方算法对所述预设的自适应参数进行调整。
可选地,所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位,包括:
根据所述第一定位数据和所述伪第二定位数据采用无迹卡尔曼滤波算法进行机器人的室内定位。
可选地,所述第一定位传感器的采样频率不同于所述第二定位传感器的采样频率。
根据本发明的另一个方面,提供了一种机器人的室内定位装置,该装置包括:
接收单元,用于接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;
判断单元,用于判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;
处理单元,用于当所述判断单元的判定结果为在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据时,将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;
定位单元,用于根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。
可选地,所述定位单元,还用于当所述判断单元的判定结果为在所述当前采样时间接收到第二定位传感器采集的第二定位数据时,直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
可选地,所述处理单元,还用于在所述定位单元根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
此外,根据本发明的再一个方面,提供了一种机器人的室内定位系统,该系统包括第一定位传感器、第二定位传感器以及如上所述的机器人的室内定位装置。
本发明提供的机器人的室内定位方法、装置及系统,通过伪测量的方法将由于机器人的两种定位传感器的采样速率不同带来的观测丢失信息进行补偿,在没有第二定位传感器采样的当前时刻,利用已经获取的前一时刻的采样信息,构造了第二定位传感器在当前时刻的伪测量信息,使得两种定位传感器获取的信息数量相同,从而在每一时刻均可以根据两种定位数据进行机器人的室内定位。本发明解决了由于两种定位传感器的采样速率的不同带来的定位缺陷问题,实现算法相对简单,而且大大的提高了机器人的室内定位的精度。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例提出的一种机器人的室内定位方法的流程图;
图2为本发明另一实施例提出的一种机器人的室内定位方法的流程图;
图3为里程计与摄像头的采样频率比δ=5时的位置误差效果对比图;
图4为里程计与摄像头的采样频率比δ=2时的位置误差效果对比图;
图5为测量丢失时的位置误差效果对比图;
图6为本发明实施例提出的一种机器人的室内定位装置的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非被特定定义,否则不会用理想化或过于正式的含义来解释。
图1示出了本发明实施例的一种机器人的室内定位方法的流程图。参照图1,本发明实施例提出的机器人的室内定位方法具体包括以下步骤:
S11、接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据。
S12、判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据。
S13、若在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据,则将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据。
S14、根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。
本发明实施例提供的机器人的室内定位方法,通过伪测量的方法将由于机器人的两种定位传感器的采样速率不同带来的观测丢失信息进行补偿,在没有第二定位传感器采样的当前时刻,利用已经获取的前一时刻的采样信息,构造了第二定位传感器在当前时刻的伪测量信息,使得两种定位传感器获取的信息数量相同,从而在每一时刻均可以根据两种定位数据进行机器人的室内定位。本发明解决了由于两种定位传感器的采样速率的不同带来的定位缺陷问题,实现算法相对简单,而且大大的提高了机器人的室内定位的精度。
本发明实施例中,所述第一定位传感器的采样频率不同于所述第二定位传感器的采样频率。
在一个具体实施例中,所述第一定位传感器可以为机器人上的里程计,所述第二定位传感器可以为安装在机器人上的摄像机。
本发明实施例,通过伪测量的方法来恢复视觉测量,实现摄像头与里程计的采样速率的一致。
为实现上述目的,具体采用如下技术方案实现:
首先,确定机器人动力学模型:
其中,xt与yt分别代表机器人的位置,θt代表机器人在t时刻的运动方向,与分别代表了机器人左右驱动轮行驶的距离,b代表了左右两个驱动轮的距离。在机器人中通过光学编码器来记录与的大小。
在室内机器人的定位系统中,安装在机器人上的摄像头的朝向是垂直于顶部的天花板。由于机器人是不断运动的,所以单一的坐标难以满足整体系统的定位。在本发明实施例中采用了三个坐标系:世界坐标系Ow-XwYwZw,机器人坐标系Or-XrYrZr,摄像头坐标系Oc-XcYcZc。其中,世界坐标系依附在地板上,机器人坐标系固定在驱动轴的中心,摄像头坐标系建立在摄像头的光学中心轴上朝向是垂直于顶部的天花板,并且都是右手坐标系。
基于坐标变换,得到视觉系统的观测模型是:
其中,(u,v)代表图像平面特征的坐标,(u0,v0)代表摄像头初始点的图像坐标,代表从摄像头光学中心到天花板平面的距离,γv与γu代表像素放大因素,(d1,d2)是在机器人坐标系中Oc的坐标,xk,f与yk,f代表了k时刻在世界坐标系中的天花板上某点的位置坐标。
需要注意的是,时刻t与k分别用在了运动模型与观测模型中,分别代表采样频率,并且k大于t,不如设为k=δt,δ>1,并将运动模型与观测模型写成紧凑的形式,如下:
Xt=f(Xt-1,St-1)
其中,Xt=(xt,yt,θt)T,Zk=(u1,v1…uN,vN)T,并且(ui,vi)代表第i步的特征,N代表摄像机观测到的特征总数,f与h代表非线性函数。
然后,通过伪测量方法恢复测量,在没有摄像头采样的当前时刻,利用已经获取的前一时刻的摄像头信息,构造了当前时刻摄像头的伪测量信息,使其与里程计的采样时间相等,以实现根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。
本发明实施例通过一种伪测量的方法将由里程计与摄像机采样时间不同带来的观测丢失进行补偿,在没有摄像头采样的当前时刻,利用已经获取的前一时刻的摄像头信息,构造了当前时刻摄像头的伪测量信息,这样使得摄像头获取的信息数量与里程计获取的信息数量是一样的,从而在每一步滤波过程中都可以实现更新。
在本发明的一个可选实施例中,如图2所示,所述方法还包括以下步骤:
S15、若在所述当前采样时间接收到第二定位传感器采集的第二定位数据,则直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
本发明实施例中,当在当前采样时间接收到第二定位传感器采集的第二定位数据,则无需进行伪测量,可直接根据采样得到的第一定位数据和第二定位数据进行机器人的室内定位。
在本发明的一个可选实施例中,在所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,还包括:根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
进一步地,所述方法还包括:采用归一化最小均方算法对所述预设的自适应参数进行调整。
本发明实施例中,在伪测量中引入一个自适应参数,以根据该自适应参数对所述伪第二定位数据进行自适应调整,并且通过归一化最小均方算法来调整自适应参数。
测量值的恢复算法如下:
其中,α是自适应参数;
λmax是的最大特征值是由摄像头观测到的真实测量值。
进一步地,所以运动模型与观测模型紧凑形式可以写为:
Xt=f(Xt-1,St-1)
本发明实施例,使得摄像头获取的信息数量与里程计获取的信息数量是一样的,从而在每一步滤波过程中都可以实现更新。
本发明实施例通过在伪测量中引入一个自适应参数,并且通过归一化最小均方算法来调整自适应参数来提高测量的鲁棒性,进而提高机器人的室内定位的精度。
在本发明的一个可选实施例中,所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位,包括:
根据所述第一定位数据和所述伪第二定位数据采用无迹卡尔曼滤波算法进行机器人的室内定位。
具体的,通过无迹卡尔曼滤波算法UKF进行机器人定位具体包括:
1.机器人位置的预测,预测方程为:
其中为采样点,Qt-1是过程噪声的协方差矩阵。
2.摄像头的测量数据:
3.机器人位置状态的更新,更新方程如下:
其中,Rt为测量噪声协方差矩阵,通过多次实验来确定其大小。
进而通过给定初始参数与P0|0,就可以实现机器人状态的递推,实现机器人的室内定位。
下面以一个具体的实施例对本发明机器人的室内定位方法的优点进行说明。
本实施例中,考虑了三种情况,第一种是里程计与摄像头的采样频率比δ=2,第二种是里程计与摄像头的采样频率比δ=5,第三种是测量丢失。
试验系统由一个Pioneer 3机器人与Sony D100P摄像头组成,相机的分辨率为640×480,实验场地是5.6m×4.5m,天花板高度为2.5米,在上面规则分布着42个特征点,然后设置合理的相关参数。UKF-PM代表采用伪测量方法,UKF代表没有采用伪测量方法
设置好合理的采样时间,参见附图3-5.可以看出采用伪测量方法的定位效果明显好于原始的定位效果。其中,图3为里程计与摄像头的采样频率比δ=5时的位置误差效果对比图;图4为里程计与摄像头的采样频率比δ=2时的位置误差效果对比图;图5为测量丢失时的位置误差效果对比图。
对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
图6为本发明实施例提出的一种机器人的室内定位装置的结构框图。参照图6,本发明实施例的机器人的室内定位装置具体包括接收单元601、判断单元602、处理单元603以及定位单元604,其中:
接收单元601,用于接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;
判断单元602,用于判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;
处理单元603,用于当所述判断单元的判定结果为在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据时,将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;
定位单元604,用于根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。
本发明实施例提供的机器人的室内定位装置,通过将由于机器人的两种定位传感器的采样速率不同带来的观测丢失信息进行补偿,在没有第二定位传感器采样的当前时刻,利用已经获取的前一时刻的采样信息,构造了第二定位传感器在当前时刻的伪测量信息,使得两种定位传感器获取的信息数量相同,从而在每一时刻均可以根据两种定位数据进行机器人的室内定位,解决了由于两种定位传感器的采样速率的不同带来的定位缺陷问题,实现算法相对简单,而且大大的提高了机器人的室内定位的精度。
在本发明的一个可选实施例中,所述定位单元604,还用于当所述判断单元602的判定结果为在所述当前采样时间接收到第二定位传感器采集的第二定位数据时,直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
在本发明的一个可选实施例中,所述处理单元603,还用于在所述定位单元604根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
进一步地,所述处理单元603,还用于采用归一化最小均方算法对所述预设的自适应参数进行调整。
本发明实施例中,所述定位单元604,具体用于根据所述第一定位数据和所述伪第二定位数据采用无迹卡尔曼滤波算法进行机器人的室内定位。
其中,所述第一定位传感器的采样频率不同于所述第二定位传感器的采样频率。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
此外,本发明另一实施例还提供了一种机器人的室内定位系统,该系统包括第一定位传感器、第二定位传感器以及如上任一实施例所述的机器人的室内定位装置。其中,所述机器人的室内定位装置,以如图3所示为例进行说明,具体包括接收单元601、判断单元602、处理单元603以及定位单元604,其中:接收单元601用于接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;判断单元602用于判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;处理单元603用于当所述判断单元的判定结果为在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据时,将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;定位单元604用于根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位。该系统由于包括上述任意一种实施例中的机器人的室内定位装置,因而可以解决同样的技术问题,并取得相同的技术效果。
综上所述,本发明实施例提供的机器人的室内定位方法、装置及系统,通过伪测量的方法将由于机器人的两种定位传感器的采样速率不同带来的观测丢失信息进行补偿,在没有第二定位传感器采样的当前时刻,利用已经获取的前一时刻的采样信息,构造了第二定位传感器在当前时刻的伪测量信息,使得两种定位传感器获取的信息数量相同,从而在每一时刻均可以根据两种定位数据进行机器人的室内定位。本发明解决了由于两种定位传感器的采样速率的不同带来的定位缺陷问题,实现算法相对简单,而且大大的提高了机器人的室内定位的精度。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可以通过硬件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
本领域技术人员可以理解附图只是一个优选实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域技术人员可以理解实施例中的系统中的模块可以按照实施例描述进行分布于实施例的系统中,也可以进行相应变化位于不同于本实施例的一个或多个系统中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种机器人的室内定位方法,其特征在于,该方法包括:
接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;
判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;
若在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据,则将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;
根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位;
所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,还包括:
根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若在所述当前采样时间接收到第二定位传感器采集的第二定位数据,则直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
采用归一化最小均方算法对所述预设的自适应参数进行调整。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位,包括:
根据所述第一定位数据和所述伪第二定位数据采用无迹卡尔曼滤波算法进行机器人的室内定位。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述第一定位传感器的采样频率不同于所述第二定位传感器的采样频率。
6.一种机器人的室内定位装置,其特征在于,该装置包括:
接收单元,用于接收待定位机器人的第一定位传感器在当前采样时间采集的第一定位数据;
判断单元,用于判定在所述当前采样时间是否接收到待定位机器人的第二定位传感器采集的第二定位数据;
处理单元,用于当所述判断单元的判定结果为在所述当前采样时间没有接收到第二定位传感器采集的第二定位数据时,将所述第二定位传感器上一采样时间采集的历史定位数据作为所述第二定位传感器采集在当前采样时间采集的伪第二定位数据;
定位单元,用于根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位;
所述处理单元,还用于在所述定位单元根据所述第一定位数据和所述伪第二定位数据进行机器人的室内定位之前,根据预设的自适应参数对所述伪第二定位数据进行自适应调整。
7.根据权利要求6所述的装置,其特征在于,所述定位单元,还用于当所述判断单元的判定结果为在所述当前采样时间接收到第二定位传感器采集的第二定位数据时,直接根据所述第一定位数据和所述第二定位数据进行机器人的室内定位。
8.一种机器人的室内定位系统,其特征在于,该系统包括第一定位传感器、第二定位传感器以及如权利要求6-7任一项所述的机器人的室内定位装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610579461.8A CN106153037B (zh) | 2016-07-21 | 2016-07-21 | 一种机器人的室内定位方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610579461.8A CN106153037B (zh) | 2016-07-21 | 2016-07-21 | 一种机器人的室内定位方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106153037A CN106153037A (zh) | 2016-11-23 |
CN106153037B true CN106153037B (zh) | 2019-09-03 |
Family
ID=58060662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610579461.8A Expired - Fee Related CN106153037B (zh) | 2016-07-21 | 2016-07-21 | 一种机器人的室内定位方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106153037B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10328934B2 (en) * | 2017-03-20 | 2019-06-25 | GM Global Technology Operations LLC | Temporal data associations for operating autonomous vehicles |
CN107490784A (zh) * | 2017-09-01 | 2017-12-19 | 青岛海信电器股份有限公司 | 一种基于激光定位的室内定位方法及装置 |
CN109738884B (zh) * | 2018-12-29 | 2022-03-11 | 百度在线网络技术(北京)有限公司 | 对象检测方法、装置和计算机设备 |
CN109877835A (zh) * | 2019-03-13 | 2019-06-14 | 深兰科技(上海)有限公司 | 一种机器人的定位方法、装置、设备及介质 |
DE102019123483B4 (de) * | 2019-09-02 | 2021-12-09 | Audi Ag | Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN102087530B (zh) * | 2010-12-07 | 2012-06-13 | 东南大学 | 基于手绘地图和路径的移动机器人视觉导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN104808232A (zh) * | 2015-04-30 | 2015-07-29 | 北斗导航科技有限公司 | 一种基于北斗rnss的高精度定位方法、装置及系统 |
CN105004336A (zh) * | 2015-07-10 | 2015-10-28 | 中国科学院深圳先进技术研究院 | 一种机器人的定位方法 |
-
2016
- 2016-07-21 CN CN201610579461.8A patent/CN106153037B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN102087530B (zh) * | 2010-12-07 | 2012-06-13 | 东南大学 | 基于手绘地图和路径的移动机器人视觉导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN104808232A (zh) * | 2015-04-30 | 2015-07-29 | 北斗导航科技有限公司 | 一种基于北斗rnss的高精度定位方法、装置及系统 |
CN105004336A (zh) * | 2015-07-10 | 2015-10-28 | 中国科学院深圳先进技术研究院 | 一种机器人的定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106153037A (zh) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106153037B (zh) | 一种机器人的室内定位方法、装置及系统 | |
CN108362281B (zh) | 一种长基线水下潜艇匹配导航方法及系统 | |
CN100562711C (zh) | 运动物体运动估计方法和系统 | |
US9551561B2 (en) | Determining location using magnetic fields from AC power lines | |
Riehle et al. | Indoor magnetic navigation for the blind | |
Lee et al. | Robust mobile robot localization using optical flow sensors and encoders | |
US9851211B2 (en) | Information processing apparatus, computer-readable recording medium, and information processing system | |
CN110100155A (zh) | 用于全局形状匹配轨迹的方法和系统 | |
CN109724603A (zh) | 一种基于环境特征检测的室内机器人导航方法 | |
CN108375370A (zh) | 一种面向智能巡防无人机的复合导航系统 | |
KR101060988B1 (ko) | 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법 | |
CN106814753B (zh) | 一种目标位置矫正方法、装置及系统 | |
CN105931275A (zh) | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 | |
CN109084782A (zh) | 基于摄像头传感器的车道线地图构建方法以及构建系统 | |
CN112665584B (zh) | 一种基于多传感器融合的水下机器人定位与构图方法 | |
CN109643116A (zh) | 用于定位移动物体的系统和方法 | |
CN108535789A (zh) | 一种基于机场跑道的异物识别系统 | |
CN113189613B (zh) | 一种基于粒子滤波的机器人定位方法 | |
Herath et al. | Fusion-dhl: Wifi, imu, and floorplan fusion for dense history of locations in indoor environments | |
KR102209422B1 (ko) | Rtk gnss 기반 운전면허시험 차량의 포지션 결정 장치 | |
CN109764876A (zh) | 无人平台的多模态融合定位方法 | |
Sorensen et al. | On-line optical flow feedback for mobile robot localization/navigation | |
CN111426321B (zh) | 一种室内机器人的定位方法及装置 | |
KR20170119188A (ko) | 자율 주행체의 위치 정보를 획득하는 방법 | |
CN110160527B (zh) | 一种移动机器人导航方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190903 Termination date: 20210721 |
|
CF01 | Termination of patent right due to non-payment of annual fee |