CN109084804B - 机器人定位精准度判定处理方法及装置 - Google Patents

机器人定位精准度判定处理方法及装置 Download PDF

Info

Publication number
CN109084804B
CN109084804B CN201810954673.9A CN201810954673A CN109084804B CN 109084804 B CN109084804 B CN 109084804B CN 201810954673 A CN201810954673 A CN 201810954673A CN 109084804 B CN109084804 B CN 109084804B
Authority
CN
China
Prior art keywords
data
positioning precision
positioning
grid
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810954673.9A
Other languages
English (en)
Other versions
CN109084804A (zh
Inventor
林胜昌
支涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yunji Technology Co Ltd
Original Assignee
Beijing Yunji Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yunji Technology Co Ltd filed Critical Beijing Yunji Technology Co Ltd
Priority to CN201810954673.9A priority Critical patent/CN109084804B/zh
Publication of CN109084804A publication Critical patent/CN109084804A/zh
Application granted granted Critical
Publication of CN109084804B publication Critical patent/CN109084804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本申请公开了一种机器人定位精准度判定处理方法及装置。其中方法包括:获取在当前环境中的实时定位精度数据;建立定位精度栅格图;所述定位精度栅格图中包括:所述地图信息中的各个栅格及每个栅格对应的平均定位精度数据;根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。达到了有效通过多场景参考值协同进行定位精度的辅助评价的目的,从而实现了更够得到更好的机器人定位精度评价的技术效果,进而解决了由于单一场景定位精度数据缺少普适性造成的难以适应多场景进行定位精度评价的技术问题。

Description

机器人定位精准度判定处理方法及装置
技术领域
本申请涉及机器人定位技术领域,具体而言,涉及一种机器人定位精准度判定处理方法及装置。
背景技术
机器人移动导航的前提是在二维地图中保证一定的定位精度,目前主流的定位方式是根据各种传感器进行测量,并获取测量值,采用粒子滤波或EKF(扩展卡尔曼滤波)等方法配合ICP激光数据匹配来实现定位。对于定位精度的评价依据的是滤波器输出位置的协方差,但是单一的协方差值缺乏在不同场景下的普适性。比如在办公室走廊,激光等传感器测量值特征很明显,相应的定位协方差值小;而在餐厅等场景,环境复杂导致传感器测量值特征很少,协方差值较大。因此单一的协方差值难以适应多场景,为了更好的评价机器人定位精度,提供可信的定位偏移报警,需要提供不同场景的参考值来辅助评价定位精度。
针对相关技术中存在的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种机器人定位精准度判定处理方法及装置,以解决相关技术中存在的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种机器人定位精准度判定处理方法。
根据本申请的机器人定位精准度判定处理方法包括:
一种机器人定位精准度判定处理方法,包括:
获取在当前环境中的实时定位精度数据;
建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。
进一步的,如前述的机器人定位精准度判定处理方法,所述获取在当前环境中的实时定位精度数据,包括:
获取当前环境中的第一障碍物数据;
将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;
将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;
根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据。
进一步的,如前述的机器人定位精准度判定处理方法,所述建立定位精度栅格图,包括:
确定各个栅格的所有历史定位精度数据;
根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;
根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
进一步的,如前述的机器人定位精准度判定处理方法,在建立定位精度栅格图之后;还包括:
获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;
根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。
进一步的,如前述的机器人定位精准度判定处理方法,在确定定位偏移概率之后,还包括:
确定行动状态信息;其中所述行动状态信息包括:行程数据、角速度及加速度;
根据所述定位偏移概率确定所述位置范围信息的测量方差值;
根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波进行融合,得到全局定位结果。
为了实现上述目的,根据本申请的另一方面,提供了一种机器人定位精准度判定处理装置。
根据本申请的机器人定位精准度判定处理装置包括:
实时数据获取单元,用于获取在当前环境中的实时定位精度数据;
栅格图建立单元,用于建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
偏移概率确定单元,用于根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。
进一步的,如前述的机器人定位精准度判定处理装置,实时数据获取单元,包括:
障碍物数据获取模块,用于获取当前环境中的第一障碍物数据;
障碍物数据匹配模块,用于将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;
投影模块,用于将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;
定位精度确定模块,用于根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据。
进一步的,如前述的机器人定位精准度判定处理装置,所述栅格图建立单元,包括:
历史精度确定模块,用于确定各个栅格的所有历史定位精度数据;
平均精度确定模块,用于根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;
栅格图建立模块,用于根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
进一步的,如前述的机器人定位精准度判定处理装置,还包括:人腿判定单元;所述人腿判定单元包括:
人腿识别模块,用于获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
数据比对模块,用于将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;
判定模块,用于根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。
进一步的,如前述的机器人定位精准度判定处理装置,还包括:全局定位结果计算单元;所述全局定位结果计算单元包括:
状态确定模块,用于确定行动状态信息;其中所述行动状态信息包括:行程数据、角速度及加速度;
测量方差值确定模块,用于根据所述定位偏移概率确定所述位置范围信息的测量方差值;
数据融合模块,用于根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波进行融合,得到全局定位结果。
在本申请实施例中,采用多场景的参考值进行精度评价的方式,通过获取在当前环境中的实时定位精度数据;建立定位精度栅格图;所述定位精度栅格图中包括:所述地图信息中的各个栅格及每个栅格对应的平均定位精度数据;根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。达到了有效通过多场景参考值协同进行定位精度的辅助评价的目的,从而实现了更够得到更好的机器人定位精度评价的技术效果,进而解决了由于单一场景定位精度数据缺少普适性造成的难以适应多场景进行定位精度评价的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请一种实施例的方法流程示意图;
图2是根据如图1所示步骤S1的一种实施例的方法流程示意图;
图3是根据本申请一种实施例人腿识别的方法流程示意图;
图4是根据本申请一种实施例中系统框架及数据流示意图;以及
图5是根据本申请一种实施例的功能模块结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,提供一种机器人定位精准度判定处理方法,该方法包括如下的步骤S1至步骤S3:
S1.获取在当前环境中的实时定位精度数据;
S2.建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
S3.根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。
如图2所示,在一些实施例中,如前述的机器人定位精准度判定处理方法,所述步骤S1.获取在当前环境中的实时定位精度数据,包括:
S11.获取当前环境中的第一障碍物数据;一般的,通过激光扫描仪进行距离测量,由于激光扫描仪具有较高的测距精度及角度分辨率,较强的环境适应性能够获取直接且良好的获取周围环境的距离数据,并且通过测距数据能够判定相应的位置存在障碍物,因此能够根据多组测距数据得到环境中的所述第一障碍物数据;
S12.将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;优选的,为了获得较高的定位精度,事先获取机器人所工作环境对应的地图信息;该地图信息中的所述第二障碍物数据中的障碍物可以包括:墙壁、家具等实体装置或设备;当所述机器人获取到第一障碍物数据后,可以通过将其转换为图像信息等方式与第二障碍物数据进行比对,进而确定一个机器人当前的位置范围信息,并根据所述第一障碍物数据和第二障碍物数据之间的匹配度得到所述位置匹配度数据;一般的,所述位置范围信息即定位协方差数据;
S13.将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;一般的,通过激光扫描仪进行障碍物检测得到的都是三维的障碍物数据,因此,通过该方法得到的位置范围信息也是XYZ空间的一个位置信息;为了得到XY平面的位置信息,则只需将所述位置范围信息投影到XY平面上,得到平面位置范围信息;一般的,当所述平面位置范围信息所包括的平面面积越小,则表示定位协方差数据越小,定位精度越高;
S14.根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据。一般的,所述位置匹配度数据及所述平面位置范围信息可以通过设置不同的定位精度占比获得所述实时定位精度数据;但无论两者的分别占比为多少,所述位置匹配度数据越高且平面位置范围信息越小则所述实时定位精度数据越高。
在一些实施例中,如前述的机器人定位精准度判定处理方法,所述建立定位精度栅格图,包括:
确定各个栅格的所有历史定位精度数据;一般的,所述栅格为将地图信息分割为大小一致的各个栅格;且所述历史定位精度数据为机器人在历史行动过程中记录的每一次的定位精度数据;
根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;一般的,所述栅格为具有一定大小范围的位置区域,因此机器人往往会经过多次,因此将各个历史定位精度数据进行平均后得到所述平均定位精度数据可以有效减少因为个别不准确数据造成的误差;
根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
如图3所示,在一些实施例中,如前述的机器人定位精准度判定处理方法,在建立定位精度栅格图之后;还包括:
S41.获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
S42.将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;具体的,当所述人腿密度阈值数据为5条每10m2时,且当前人腿识别结果数据为6条每10m2时,则判定所述人腿识别结果数据大于阈值数据;
S43.根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。在所述人腿识别结果数据大于阈值数据时,由于人的活动对机器人检测的环境障碍物的影响过大,因此会造成定位上的较大误差,且精度也会下降,因此不将其作为历史定位精度数据。
结合激光检测人腿结果保证了精度评价准确性,使本申请方法具有多场景普适性。
如图4所示,在一些实施例中,如前述的机器人定位精准度判定处理方法,在确定定位偏移概率之后,还包括:
确定行动状态信息;其中所述行动状态信息包括:行程数据(里程计检测得到)、角速度及加速度(IMU惯性测量单元检测得到);
根据所述定位偏移概率确定所述位置范围信息的测量方差值;
根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波(EKF)进行融合,得到全局定位结果。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本发明实施例,还提供了一种用于实施上述机器人定位精准度判定处理方法的机器人定位精准度判定处理装置,如图5所示,该装置包括:
为了实现上述目的,根据本申请的另一方面,提供了一种机器人定位精准度判定处理装置;包括:
实时数据获取单元1,用于获取在当前环境中的实时定位精度数据;
栅格图建立单元2,用于建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
偏移概率确定单元3,用于根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的机器人定位精准度判定处理装置,实时数据获取单元,包括:
障碍物数据获取模块,用于获取当前环境中的第一障碍物数据;
障碍物数据匹配模块,用于将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;
投影模块,用于将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;
定位精度确定模块,用于根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的机器人定位精准度判定处理装置,所述栅格图建立单元,包括:
历史精度确定模块,用于确定各个栅格的所有历史定位精度数据;
平均精度确定模块,用于根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;
栅格图建立模块,用于根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的机器人定位精准度判定处理装置,还包括:人腿判定单元;所述人腿判定单元包括:
人腿识别模块,用于获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
数据比对模块,用于将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;
判定模块,用于根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的机器人定位精准度判定处理装置,还包括:全局定位结果计算单元;所述全局定位结果计算单元包括:
状态确定模块,用于确定行动状态信息;其中所述行动状态信息包括:行程数据、角速度及加速度;
测量方差值确定模块,用于根据所述定位偏移概率确定所述位置范围信息的测量方差值;
数据融合模块,用于根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波进行融合,得到全局定位结果。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (6)

1.一种机器人定位精准度判定处理方法,其特征在于,包括:
获取在当前环境中的实时定位精度数据;
所述获取在当前环境中的实时定位精度数据,包括:
获取当前环境中的第一障碍物数据;
将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;
将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;
根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据;
建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率;
在建立定位精度栅格图之后;还包括:
获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;
根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。
2.根据权利要求1所述的机器人定位精准度判定处理方法,其特征在于,所述建立定位精度栅格图,包括:
确定各个栅格的所有历史定位精度数据;
根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;
根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
3.根据权利要求1所述的机器人定位精准度判定处理方法,其特征在于,在确定定位偏移概率之后,还包括:
确定行动状态信息;其中所述行动状态信息包括:行程数据、角速度及加速度;
根据所述定位偏移概率确定所述位置范围信息的测量方差值;
根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波进行融合,得到全局定位结果。
4.一种机器人定位精准度判定处理装置,其特征在于,包括:
实时数据获取单元,用于获取在当前环境中的实时定位精度数据;
实时数据获取单元,包括:
障碍物数据获取模块,用于获取当前环境中的第一障碍物数据;
障碍物数据匹配模块,用于将所述第一障碍物数据与所述当前环境所对应的地图信息中的第二障碍物数据进行匹配,得到位置范围信息和位置匹配度数据;
投影模块,用于将所述位置范围信息投影到所述地图信息的XY平面上,得到平面位置范围信息;
定位精度确定模块,用于根据所述位置匹配度数据及所述平面位置范围信息得到所述实时定位精度数据;
栅格图建立单元,用于建立定位精度栅格图;所述定位精度栅格图中包括:所述当前环境对应的地图信息中的各个栅格及每个栅格对应的平均定位精度数据;
偏移概率确定单元,用于根据所述实时定位精度数据与所述平均定位精度数据确定定位精准度数据,并根据所述定位精准度数据确定定位偏移概率;
还包括:人腿判定单元;所述人腿判定单元包括:
人腿识别模块,用于获取当前环境中的人腿识别结果数据;所述人腿识别结果数据用于确定当前环境中的人腿密度数据;
数据比对模块,用于将所述人腿识别结果数据与预先设置的人腿密度阈值数据进行比对,得到比对结果;
判定模块,用于根据所述比对结果判定是否将所述实时定位精度数据作为历史定位精度数据。
5.根据权利要求4所述的机器人定位精准度判定处理装置,其特征在于,所述栅格图建立单元,包括:
历史精度确定模块,用于确定各个栅格的所有历史定位精度数据;
平均精度确定模块,用于根据各个栅格的所有历史定位精度数据确定各个栅格的平均定位精度数据;
栅格图建立模块,用于根据各个栅格的平均定位精度数据建立包括所有栅格的定位精度栅格图。
6.根据权利要求4所述的机器人定位精准度判定处理装置,其特征在于,还包括:全局定位结果计算单元;所述全局定位结果计算单元包括:
状态确定模块,用于确定行动状态信息;其中所述行动状态信息包括:行程数据、角速度及加速度;
测量方差值确定模块,用于根据所述定位偏移概率确定所述位置范围信息的测量方差值;
数据融合模块,用于根据所述测量方差值,将所述位置范围信息以及所述行动状态信息通过扩展卡尔曼滤波进行融合,得到全局定位结果。
CN201810954673.9A 2018-08-21 2018-08-21 机器人定位精准度判定处理方法及装置 Active CN109084804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810954673.9A CN109084804B (zh) 2018-08-21 2018-08-21 机器人定位精准度判定处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810954673.9A CN109084804B (zh) 2018-08-21 2018-08-21 机器人定位精准度判定处理方法及装置

Publications (2)

Publication Number Publication Date
CN109084804A CN109084804A (zh) 2018-12-25
CN109084804B true CN109084804B (zh) 2020-11-10

Family

ID=64794116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810954673.9A Active CN109084804B (zh) 2018-08-21 2018-08-21 机器人定位精准度判定处理方法及装置

Country Status (1)

Country Link
CN (1) CN109084804B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112798020B (zh) * 2020-12-31 2023-04-07 中汽研(天津)汽车工程研究院有限公司 一种用于评估智能汽车定位精度的系统及方法
CN113011517B (zh) * 2021-03-30 2024-09-17 上海商汤临港智能科技有限公司 定位结果检测方法、装置、电子设备及存储介质
CN114442605B (zh) * 2021-12-16 2023-08-18 中国科学院深圳先进技术研究院 定位检测方法、装置、自主移动设备以及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101619985B (zh) * 2009-08-06 2011-05-04 上海交通大学 基于可变形拓扑地图的服务机器人自主导航方法
CN104898660B (zh) * 2015-03-27 2017-10-03 中国科学技术大学 一种提高机器人路径规划效率的室内地图构建方法
US10373338B2 (en) * 2015-05-27 2019-08-06 Kyocera Corporation Calculation device, camera device, vehicle, and calibration method
CN106767788B (zh) * 2017-01-04 2019-07-19 北京航天自动控制研究所 一种组合导航方法和系统

Also Published As

Publication number Publication date
CN109084804A (zh) 2018-12-25

Similar Documents

Publication Publication Date Title
US7627447B2 (en) Method and apparatus for localizing and mapping the position of a set of points on a digital model
CN109084804B (zh) 机器人定位精准度判定处理方法及装置
US9721158B2 (en) 3D terrain mapping system and method
JP2020021326A (ja) 情報処理方法、情報処理装置およびプログラム
WO2015103536A1 (en) Methods and systems for generating a map including sparse and dense mapping information
CN109084749B (zh) 通过环境中物体进行语义定位的方法及装置
EP2175237B1 (en) System and methods for image-based navigation using line features matching
US11847741B2 (en) System and method of scanning an environment and generating two dimensional images of the environment
Ruotsalainen et al. Visual-aided two-dimensional pedestrian indoor navigation with a smartphone
JP2016138788A (ja) 測量データ処理装置、測量データ処理方法およびプログラム
JP5027741B2 (ja) 画像監視装置
CN111373336B (zh) 状态感知方法以及相关设备
CN109191513A (zh) 基于全局优化的电力设备立体匹配方法
CN112823321A (zh) 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法
CN110132275B (zh) 激光避障方法及装置
CN113768419A (zh) 确定扫地机清扫方向的方法、装置及扫地机
CN111380515A (zh) 定位方法及装置、存储介质、电子装置
Sternberg et al. Precise indoor mapping as a basis for coarse indoor navigation
US8244431B2 (en) Determining velocity using multiple sensors
CN110291771A (zh) 一种目标对象的深度信息获取方法及可移动平台
JP6699323B2 (ja) 電車設備の三次元計測装置及び三次元計測方法
Shaik et al. 2D localization in large areas using inexpensive rgbd camera augmented with visual tags
CN112445208A (zh) 机器人、行驶路径的确定方法、装置及存储介质
KR102408478B1 (ko) 경로 추정 방법 및 이를 이용하는 장치
Tang et al. An approach of dynamic object removing for indoor mapping based on UGV SLAM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089

Patentee after: Beijing Yunji Technology Co.,Ltd.

Address before: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089

Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd.