CN110567458A - 一种机器人定位方法及装置和机器人 - Google Patents

一种机器人定位方法及装置和机器人 Download PDF

Info

Publication number
CN110567458A
CN110567458A CN201810569954.2A CN201810569954A CN110567458A CN 110567458 A CN110567458 A CN 110567458A CN 201810569954 A CN201810569954 A CN 201810569954A CN 110567458 A CN110567458 A CN 110567458A
Authority
CN
China
Prior art keywords
sensor data
positioning
robot
sensor
effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810569954.2A
Other languages
English (en)
Inventor
刘宝旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201810569954.2A priority Critical patent/CN110567458A/zh
Publication of CN110567458A publication Critical patent/CN110567458A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

本申请提供一种机器人定位方法及装置、机器人和计算机可读存储介质。其中,机器人定位方法包括:获取机器人的多传感器数据;对多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据;采用选定的定位算法对有效传感器数据进行处理,得到机器人的定位信息。本申请实施例,通过对获取的多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据,使得用于计算定位信息的传感器数据的数量较少,有利于提升定位算法的运行速度,提高定位速度和定位的实时性,且采用选定的定位算法对有效传感器数据进行处理,有利于提高定位的准确性。

Description

一种机器人定位方法及装置和机器人
技术领域
本申请涉及定位技术,尤其涉及一种机器人定位方法及装置、机器人和计算机可读存储介质。
背景技术
随着社会的进步和科技的发展,定位技术在技术手段、定位精度、可用性等方面均取得质的飞越,并且逐步从航海、航天、航空、测绘、军事、自然灾害预防等领域逐步渗透到社会生活的方方面面,成为人们日常中不可或缺的重要应用。其中,按照使用场景可以将定位划分为室内定位和室外定位两大类,因为场景不同,需求也就不同,所以分别采用的定位技术也不尽相同。
随着智能移动机器人逐渐实用化,其对于定位导航的需求也越来越高,为了完成自主驾驶、无人驾驶或无人配送等任务,机器人必须知道自己所处的精确位置,以便于控制底盘运动。
相关技术中,根据激光雷达传感器采集到的数据和编码器数据,构建总体环境地图,然后针对获取的多种传感器数据通过视觉定位算法获得机器人在总体环境中的当前位置,但是该定位方法需要根据所有的传感器数据进行定位,定位速度慢,实时性差。
发明内容
有鉴于此,本申请提供一种机器人定位方法及装置、机器人和计算机可读存储介质。
具体地,本申请是通过如下技术方案实现的:
根据本公开实施例的第一方面,提供一种机器人定位方法,所述方法包括:
获取机器人的多传感器数据;
对所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据;
采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息。
在一实施例中,所述对所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据,包括:
对所述多传感器数据进行分析,获得当前环境估计信息;
根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据。
在一实施例中,所述根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据,包括:
根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据,并根据所述当前环境估计信息获得每个有效传感器数据的权重。
在一实施例中,所述采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息,包括:
根据所述每个有效传感器数据的权重,采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息。
在一实施例中,所述定位算法包括扩展卡尔曼滤波算法、无迹卡尔曼滤波算法或者余弦矩阵计算算法。
在一实施例中,所述多传感器数据由以下至少两种传感器采集:
惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带UWB传感器和编码器。
根据本公开实施例的第二方面,提供一种机器人定位装置,所述装置包括:
获取模块,用于获取机器人的多传感器数据;
分析挑选模块,用于对所述获取模块获取的所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据;
定位模块,用于采用选定的定位算法对所述分析挑选模块挑选出的所述有效传感器数据进行处理,得到所述机器人的定位信息。
在一实施例中,所述分析挑选模块包括:
分析获得子模块,用于对所述多传感器数据进行分析,获得当前环境估计信息;
挑选子模块,用于根据所述分析获得子模块获得的所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据。
根据本公开实施例的第三方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述机器人定位方法。
根据本公开实施例的第四方面,提供一种机器人,包括传感器、处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述机器人定位方法。
在一实施例中,所述传感器包括以下至少两种传感器:惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带UWB传感器和编码器。
本申请实施例,通过对获取的多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据,使得用于计算定位信息的传感器数据的数量较少,有利于提升定位算法的运行速度,提高定位速度和定位的实时性,且采用选定的定位算法对有效传感器数据进行处理,有利于提高定位的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1A是本申请一示例性实施例示出的一种机器人定位方法的流程图;
图1B是本申请一示例性实施例示出的一种挑选出有效传感器数据的流程图;
图1C是本申请一示例性实施例示出的一种挑选出有效传感器数据的过程示意图;
图1D是本申请一示例性实施例示出的另一种挑选出有效传感器数据的过程示意图;
图1E是本申请一示例性实施例示出的另一种挑选出有效传感器数据的过程示意图;
图1F是本申请一示例性实施例示出的另一种挑选出有效传感器数据的过程示意图;
图2是本申请一示例性实施例示出的另一种机器人定位方法的流程图;
图3是本申请一示例性实施例示出的机器人定位装置所在机器人的一种硬件结构图;
图4是本申请一示例性实施例示出的一种机器人定位装置的框图;
图5是本申请一示例性实施例示出的另一种机器人定位装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
图1A是本申请一示例性实施例示出的一种机器人定位方法的流程图,如图1A所示,该机器人定位方法包括:
步骤S101,获取机器人的多传感器数据。
其中,多传感器数据可以由位于机器人中的以下至少两种传感器采集:惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带(UWB)传感器和编码器等。
步骤S102,对多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据。
其中,有效传感器数据是指当前用于计算定位信息的传感器数据。
在该实施例中,如图1B所示,上述步骤S102可以包括:
步骤S1021,对多传感器数据进行分析,获得当前环境估计信息。
其中,环境估计信息可以包括但不局限于户外、室内环境,光照环境和地面光滑度信息等。
例如,可以通过对GPS定位信息进行分析,确定机器人当前是否处于户外。又例如,通过对视觉传感器采集的视觉信息进行分析,获得当前光照环境,以及机器人是否处于室内环境。再例如,通过对编码器采集的脉冲信息进行分析,获得轮速与运动距离,还可以从中获得地面光滑度信息。通过对惯性测量组件传感器的加速度、陀螺仪信息进行分析,获得机器人姿态与旋转角速度信息。通过对激光雷达传感器采集的距离信息进行分析,获得周围环境物体的位置信息,还可以反映出天气、光强信息等。
步骤S1022,根据当前环境估计信息从多传感器数据中挑选出有效传感器数据。
例如,如图1C所示,机器人包括惯性测量组件传感器11、GPS定位传感器12、视觉传感器13、激光雷达传感器14和编码器15,假设机器人对这五种传感器采集的数据进行分析,得到当前环境估计信息为机器人当前处于室内且地面粗糙,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、视觉传感器13、激光雷达传感器14和编码器15的数据,因为在当前环境下,GPS定位传感器12的数据是不够准确的。
假设机器人由室内移动到室外,则如图1D所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外且光照较强,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、GPS定位传感器12和编码器15的数据,因为在当前环境下,视觉传感器13和激光雷达传感器14的数据不适于用于定位融合。
假设机器人又由室外移动到室内,则如图1E所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于室内且地面光滑,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、视觉传感器13和激光雷达传感器14的数据,因为在当前环境下,GPS定位传感器12的数据和编码器15的数据是不够准确的。
假设机器人又由室内移动到室外,则如图1F所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外且阴天,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、GPS定位传感器12、视觉传感器13和编码器15的数据,因为在当前环境下,激光雷达传感器14的数据不适于用于定位融合。
需要说明的是,上述以五种传感器为例描述挑选有效传感器数据的过程仅为示例,在实际中,也可以根据需要调整传感器的数量,例如可以采用两种传感器、三种传感器、六种传感器等等。例如,假设当前采用的传感器为惯性测量组件传感器11和GPS定位传感器12,则当机器人对这两种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11和GPS定位传感器12。假设当前采用的传感器为惯性测量组件传感器11和GPS定位传感器12,则当机器人对这两种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于室内,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11。
该实施例,通过获得当前环境估计信息,并根据当前环境估计信息从多传感器数据中挑选出有效传感器数据,使得挑选出的有效传感器数据具有动态环境下的自适应性。
在该实施例中,由于挑选出的有效传感器数据的数量少于或等于获取的多传感器数据的数量,使得后续用于计算定位信息的传感器数据的数量较少,有利于提高算法运行速度和定位的实时性。
步骤S103,采用选定的定位算法对有效传感器数据进行处理,得到机器人的定位信息。
其中,可以根据当前有效传感器数据的数量和复杂程度选择定位算法,选定的定位算法可以包括但不局限于扩展卡尔曼滤波(EKF)算法、无迹卡尔曼滤波(UKF)算法或者余弦矩阵计算(DCM)算法等,即对于当前有效传感器数据可以根据需要采用EKF算法,也可以采用UKF算法,还可以采用DCM算法进行处理。其中,对有效传感器数据进行处理可以包括但不局限于对有效传感器数据进行融合定位。例如,当前有效传感器数据为惯性传感器数据,则可以采用简单的DCM算法进行融合,以减少计算量、加快计算速度。换言之,本实施例对有效传感器数据进行处理所采用的定位算法可以根据需要进行选定,以减少计算量、加快计算速度和提高定位的准确性。
上述实施例,通过对获取的多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据,使得用于计算定位信息的传感器数据的数量较少,有利于提升定位算法的运行速度,提高定位速度和定位的实时性,且采用选定的定位算法对有效传感器数据进行处理,有利于提高定位的准确性。
图2是本申请一示例性实施例示出的另一种机器人定位方法的流程图,如图2所示,该方法包括:
步骤S201,获取机器人的多传感器数据。
步骤S202,对多传感器数据进行分析,获得当前环境估计信息。
步骤S203,根据当前环境估计信息从多传感器数据中挑选出有效传感器数据,并根据当前环境估计信息获得每个有效传感器数据的权重。
例如,获得的当前环境估计信息中的地面环境为地面光滑,则可以调低有效传感器数据中编码器的权重,又例如,GPS信号强度很高,则可以调高GPS传感器的权重。
步骤S204,根据每个有效传感器数据的权重,采用选定的定位算法对有效传感器数据进行处理,得到机器人的定位信息。
其中,对有效传感器数据进行处理可以包括但不局限于对有效传感器数据进行融合定位。
例如,当前环境估计信息为户外强光照无遮挡环境,则根据当前环境估计信息从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器、GPS传感器和编码器,获得惯性测量组件传感器的权重为1,GPS传感器的权重为2,编码器的权重为0.5,根据挑选出的有效传感器数据数量选择定位算法为EKF算法,则可以根据惯性测量组件传感器的权重、GPS传感器的权重和编码器的权重,采用EKF算法进行处理,得到机器人的定位信息。
上述实施例,根据获得的每个有效传感器数据的权重,采用选定的定位算法对有效传感器数据进行处理,使得得到的定位信息更准确。
与前述机器人定位方法的实施例相对应,本申请还提供了机器人定位装置的实施例。
本申请机器人定位装置的实施例可以应用在机器人上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。如图3所示,为本申请机器人定位装置所在机器人的一种硬件结构图,该机器人包括传感器300、处理器310、存储器320及存储在存储器320上并可在处理器310上运行的计算机程序,该处理器310执行该计算机程序时实现上述机器人定位方法。除了图3所示的处理器310及存储器320之外,实施例中装置所在的电子设备通常根据该机器人定位的实际功能,还可以包括其他硬件,对此不再赘述。
其中,传感器300可以包括但不局限于以下至少两种传感器:惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、UWB传感器和编码器。
图4是本申请一示例性实施例示出的一种机器人定位装置的框图,如图4所示,该机器人定位装置包括:获取模块41、分析挑选模块42和定位模块43。
获取模块41用于获取机器人的多传感器数据。
其中,多传感器数据可以由位于机器人中的以下至少两种传感器采集:惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带(UWB)传感器和编码器等。
分析挑选模块42用于对获取模块41获取的多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据。
其中,有效传感器数据是指当前用于计算定位信息的传感器数据。
在该实施例中,由于挑选出的有效传感器数据的数量少于或等于获取的多传感器数据的数量,使得后续用于计算定位信息的传感器数据的数量较少,有利于提高算法运行速度和定位的实时性。
定位模块43用于采用选定的定位算法对分析挑选模块42挑选出的有效传感器数据进行处理,得到机器人的定位信息。
其中,可以根据当前有效传感器数据的数量和复杂程度选择定位算法,选定的定位算法可以包括但不局限于扩展卡尔曼滤波(EKF)算法、无迹卡尔曼滤波(UKF)算法或者余弦矩阵计算(DCM)算法等,即对于当前有效传感器数据可以根据需要采用EKF算法,也可以采用UKF算法,还可以采用DCM算法进行处理。其中,对有效传感器数据进行处理可以包括但不局限于对有效传感器数据进行融合定位。例如,当前有效传感器数据为惯性传感器数据,则可以采用简单的DCM算法进行融合,以减少计算量、加快计算速度。换言之,本实施例对有效传感器数据进行处理所采用的定位算法可以根据需要进行选定,以减少计算量、加快计算速度和提高定位的准确性。
上述实施例,通过对获取的多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据,使得用于计算定位信息的传感器数据的数量较少,有利于提升定位算法的运行速度,提高定位速度和定位的实时性,且采用选定的定位算法对有效传感器数据进行处理,有利于提高定位的准确性。
图5是本申请一示例性实施例示出的另一种机器人定位装置的框图,如图5所示,在上述图4所示实施例的基础上,分析挑选模块42可以包括:分析获得子模块421和挑选子模块422。
分析获得子模块421用于对多传感器数据进行分析,获得当前环境估计信息。
其中,环境估计信息可以包括但不局限于户外、室内环境,光照环境和地面光滑度信息等。
例如,可以通过对GPS定位信息进行分析,确定机器人当前是否处于户外。又例如,通过对视觉传感器采集的视觉信息进行分析,获得当前光照环境,以及机器人是否处于室内环境。再例如,通过对编码器采集的脉冲信息进行分析,获得轮速与运动距离,还可以从中获得地面光滑度信息。通过对惯性测量组件传感器的加速度、陀螺仪信息进行分析,获得机器人姿态与旋转角速度信息。通过对激光雷达传感器采集的距离信息进行分析,获得周围环境物体的位置信息,还可以反映出天气、光强信息等。
挑选子模块422用于根据分析获得子模块421获得的当前环境估计信息从多传感器数据中挑选出有效传感器数据。
例如,如图1C所示,机器人包括惯性测量组件传感器11、GPS定位传感器12、视觉传感器13、激光雷达传感器14和编码器15,假设机器人对这五种传感器采集的数据进行分析,得到当前环境估计信息为机器人当前处于室内且地面粗糙,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、视觉传感器13、激光雷达传感器14和编码器15的数据,因为在当前环境下,GPS定位传感器12的数据是不够准确的。
假设机器人由室内移动到室外,则如图1D所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外且光照较强,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、GPS定位传感器12和编码器15的数据,因为在当前环境下,视觉传感器13和激光雷达传感器14的数据不适于用于定位融合。
假设机器人又由室外移动到室内,则如图1E所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于室内且地面光滑,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、视觉传感器13和激光雷达传感器14的数据,因为在当前环境下,GPS定位传感器12的数据和编码器15的数据是不够准确的。
假设机器人又由室内移动到室外,则如图1F所示,机器人对这五种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外且阴天,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11、GPS定位传感器12、视觉传感器13和编码器15的数据,因为在当前环境下,激光雷达传感器14的数据不适于用于定位融合。
需要说明的是,上述以五种传感器为例描述挑选有效传感器数据的过程仅为示例,在实际中,也可以根据需要调整传感器的数量,例如可以采用两种传感器、三种传感器、六种传感器等等。例如,假设当前采用的传感器为惯性测量组件传感器11和GPS定位传感器12,则当机器人对这两种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于户外,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11和GPS定位传感器12。假设当前采用的传感器为惯性测量组件传感器11和GPS定位传感器12,则当机器人对这两种传感器采集的数据进行分析后得到的当前环境估计信息为机器人当前处于室内,则从多传感器数据中挑选出的有效传感器数据为惯性测量组件传感器11。
上述实施例,通过获得当前环境估计信息,并根据当前环境估计信息从多传感器数据中挑选出有效传感器数据,使得挑选出的有效传感器数据具有动态环境下的自适应性。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,该计算机程序用于执行机器人定位方法,该机器人定位方法包括:
获取机器人的多传感器数据;
对所述多传感器数据进行分析,以从多传感器数据中挑选出用于定位的有效传感器数据;
采用选定的定位算法对有效传感器数据进行处理,得到机器人的定位信息。
其中,计算机可读存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、光盘只读存储器(CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种机器人,该机器人包括传感器,上述传感器可以包括以下至少两种传感器:惯性测量组件传感器、GPS定位传感器、视觉里程计传感器、激光雷达传感器、超宽带UWB传感器和编码器。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (11)

1.一种机器人定位方法,其特征在于,所述方法包括:
获取机器人的多传感器数据;
对所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据;
采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息。
2.根据权利要求1所述的方法,其特征在于,所述对所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据,包括:
对所述多传感器数据进行分析,获得当前环境估计信息;
根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据,包括:
根据所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据,并根据所述当前环境估计信息获得每个有效传感器数据的权重。
4.根据权利要求3所述的方法,其特征在于,所述采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息,包括:
根据所述每个有效传感器数据的权重,采用选定的定位算法对所述有效传感器数据进行处理,得到所述机器人的定位信息。
5.根据权利要求1所述的方法,其特征在于,所述定位算法包括扩展卡尔曼滤波算法、无迹卡尔曼滤波算法或者余弦矩阵计算算法。
6.根据权利要求1所述的方法,其特征在于,所述多传感器数据由以下至少两种传感器采集:
惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带UWB传感器和编码器。
7.一种机器人定位装置,其特征在于,所述装置包括:
获取模块,用于获取机器人的多传感器数据;
分析挑选模块,用于对所述获取模块获取的所述多传感器数据进行分析,以从所述多传感器数据中挑选出用于定位的有效传感器数据;
定位模块,用于采用选定的定位算法对所述分析挑选模块挑选出的所述有效传感器数据进行处理,得到所述机器人的定位信息。
8.根据权利要求7所述的装置,其特征在于,所述分析挑选模块包括:
分析获得子模块,用于对所述多传感器数据进行分析,获得当前环境估计信息;
挑选子模块,用于根据所述分析获得子模块获得的所述当前环境估计信息从所述多传感器数据中挑选出所述有效传感器数据。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-6任一所述的机器人定位方法。
10.一种机器人,其特征在于,包括传感器、处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-6任一所述的机器人定位方法。
11.根据权利要求10所述的机器人,其特征在于,所述传感器包括以下至少两种传感器:惯性测量组件传感器、GPS定位传感器、视觉传感器、激光雷达传感器、超宽带UWB传感器和编码器。
CN201810569954.2A 2018-06-05 2018-06-05 一种机器人定位方法及装置和机器人 Pending CN110567458A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810569954.2A CN110567458A (zh) 2018-06-05 2018-06-05 一种机器人定位方法及装置和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810569954.2A CN110567458A (zh) 2018-06-05 2018-06-05 一种机器人定位方法及装置和机器人

Publications (1)

Publication Number Publication Date
CN110567458A true CN110567458A (zh) 2019-12-13

Family

ID=68772148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810569954.2A Pending CN110567458A (zh) 2018-06-05 2018-06-05 一种机器人定位方法及装置和机器人

Country Status (1)

Country Link
CN (1) CN110567458A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111290383A (zh) * 2020-02-13 2020-06-16 山东汇贸电子口岸有限公司 控制移动机器人移动的方法、装置及系统
CN112214019A (zh) * 2020-09-21 2021-01-12 国网浙江省电力有限公司 一种无人巡检设备无盲区智能反馈控制系统、方法、终端
WO2022193106A1 (zh) * 2021-03-16 2022-09-22 电子科技大学 一种通过惯性测量参数将gps与激光雷达融合定位的方法
WO2022245246A1 (ru) 2021-05-18 2022-11-24 Общество с ограниченной ответственностью "ЭвоКарго" Способ комплексирования навигационных данных для позиционирования транспортного средства

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160252354A1 (en) * 2015-02-26 2016-09-01 Invensense, Inc. Method and system for multiple pass smoothing
CN106123890A (zh) * 2016-06-14 2016-11-16 中国科学院合肥物质科学研究院 一种多传感器数据融合的机器人定位方法
CN106658420A (zh) * 2016-11-21 2017-05-10 北京金坤科创技术有限公司 基于环境感知的定位终端设计
CN106908821A (zh) * 2017-02-28 2017-06-30 北京交通大学 一种室内外无缝定位切换方法
CN107339990A (zh) * 2017-06-27 2017-11-10 北京邮电大学 多模式融合定位系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160252354A1 (en) * 2015-02-26 2016-09-01 Invensense, Inc. Method and system for multiple pass smoothing
CN106123890A (zh) * 2016-06-14 2016-11-16 中国科学院合肥物质科学研究院 一种多传感器数据融合的机器人定位方法
CN106658420A (zh) * 2016-11-21 2017-05-10 北京金坤科创技术有限公司 基于环境感知的定位终端设计
CN106908821A (zh) * 2017-02-28 2017-06-30 北京交通大学 一种室内外无缝定位切换方法
CN107339990A (zh) * 2017-06-27 2017-11-10 北京邮电大学 多模式融合定位系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伍明: "《未知环境下移动机器人目标跟踪理论与方法》", 31 January 2018, 西北工业大学出版社 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111290383A (zh) * 2020-02-13 2020-06-16 山东汇贸电子口岸有限公司 控制移动机器人移动的方法、装置及系统
CN111290383B (zh) * 2020-02-13 2023-09-19 山东汇贸电子口岸有限公司 控制移动机器人移动的方法、装置及系统
CN112214019A (zh) * 2020-09-21 2021-01-12 国网浙江省电力有限公司 一种无人巡检设备无盲区智能反馈控制系统、方法、终端
WO2022193106A1 (zh) * 2021-03-16 2022-09-22 电子科技大学 一种通过惯性测量参数将gps与激光雷达融合定位的方法
WO2022245246A1 (ru) 2021-05-18 2022-11-24 Общество с ограниченной ответственностью "ЭвоКарго" Способ комплексирования навигационных данных для позиционирования транспортного средства

Similar Documents

Publication Publication Date Title
CN110567458A (zh) 一种机器人定位方法及装置和机器人
CN107436148B (zh) 一种基于多地图的机器人导航方法及装置
US11415986B2 (en) Geocoding data for an automated vehicle
CN109435955B (zh) 一种自动驾驶系统性能评估方法、装置、设备及存储介质
CN108981730A (zh) 用于为操作自动驾驶车辆生成参考路径的方法和系统
JP4984659B2 (ja) 自車両位置推定装置
CN112703368B (zh) 车辆定位的方法和装置、定位图层生成的方法和装置
CN110096054A (zh) 用于使用多个线程生成用于自动驾驶车辆的参考线的方法和系统
US11657572B2 (en) Systems and methods for map generation based on ray-casting and semantic class images
CN108426582B (zh) 行人室内三维地图匹配方法
CN113985429A (zh) 基于三维激光雷达的无人机环境扫描与重构方法
CN112378397B (zh) 无人机跟踪目标的方法、装置及无人机
CN114485619A (zh) 基于空地协同的多机器人定位和导航方法及装置
Augustine et al. Landmark-tree map: a biologically inspired topological map for long-distance robot navigation
CN115183762A (zh) 一种机场仓库内外建图方法、系统、电子设备及介质
CN110264517A (zh) 一种基于三维场景图像确定车辆当前位置信息的方法与系统
Park et al. Terrain trafficability analysis for autonomous navigation: A GIS-based approach
CN113822944A (zh) 一种外参标定方法、装置、电子设备及存储介质
US20200191972A1 (en) SYSTEM AND METHOD FOR DETERMINING OPTIMAL LiDAR PLACEMENT ON AUTONOMOUS VEHICLES
CN112965076B (zh) 一种用于机器人的多雷达定位系统及方法
CN113448340B (zh) 一种无人机的路径规划方法、装置、无人机及存储介质
CN101825473B (zh) 一种导航方法及导航系统
CN115856911A (zh) 一种定位方法及装置
Mandel et al. Particle filter-based position estimation in road networks using digital elevation models
KR102130687B1 (ko) 다중 센서 플랫폼 간 정보 융합을 위한 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191213