CN111486842A - 重定位方法及装置、机器人 - Google Patents

重定位方法及装置、机器人 Download PDF

Info

Publication number
CN111486842A
CN111486842A CN201910085267.8A CN201910085267A CN111486842A CN 111486842 A CN111486842 A CN 111486842A CN 201910085267 A CN201910085267 A CN 201910085267A CN 111486842 A CN111486842 A CN 111486842A
Authority
CN
China
Prior art keywords
particle
particles
matching
global
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910085267.8A
Other languages
English (en)
Other versions
CN111486842B (zh
Inventor
刘志超
张健
熊友军
庞建新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ubtech Technology Co ltd
Original Assignee
Shenzhen Ubtech Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ubtech Technology Co ltd filed Critical Shenzhen Ubtech Technology Co ltd
Priority to CN201910085267.8A priority Critical patent/CN111486842B/zh
Priority to US16/699,765 priority patent/US11474204B2/en
Publication of CN111486842A publication Critical patent/CN111486842A/zh
Application granted granted Critical
Publication of CN111486842B publication Critical patent/CN111486842B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种重定位方法,该方法包括:获取当前帧的多个子图边界点以及多个粒子;将多个子图边界点分别映射到基于每个粒子的全局坐标系中得到每个粒子的多个全局边界点;将粒子的多个全局边界点与已知地图中的静态物体点集进行匹配以在多个全局边界点中寻找匹配边界点;计算粒子的匹配边界点与对应的静态物体点之间的距离,若距离小于预设阈值,则提高匹配边界点的权重;利用粒子的多个全局边界点与已知地图进行匹配以计算粒子的权重;利用多个粒子的权重及位姿估计当前帧的重定位结果。本发明还公开了一种重定位装置、机器人和可读存储介质。通过上述方式,本发明能够提高重定位的鲁棒性和准确度。

Description

重定位方法及装置、机器人
技术领域
本发明涉及定位领域,特别是涉及一种重定位方法及装置、机器人、可读存储介质。
背景技术
机器人、无人飞行器等具有自主运动能力的载体,在工作过程中可以对其上安装的传感器数据进行采集,结合已有的地图数据,生成对载体自身位置姿态(简称位姿)的定位,从而进行自主导航。
导航中,经常需要感知周围环境,根据已知地图确认载体在改地图中的当前位置,例如在初始化时、导航过程中定位错误时,这一过程也可以被称为重定位。
常用的重定位方法为蒙特卡洛定位(Monte Carlo Localization,MCL)方法或自适应蒙特卡洛定位(adaptive Monte Carlo Localization,AMCL)方法,该方法对计算资源要求低,在环境不变且特征明显的情况下,定位精确率较高,耗时短;但在环境变化情况下,精确率低,错误率高,耗时长。实际应用中,环境变化难以控制,重定位可能出错,影响导航的安全。
发明内容
本发明主要解决的技术问题是提供一种重定位方法及装置、机器人、可读存储介质,能够解决现有技术中环境变化的情况下重定位错误率高的问题。
为了解决上述技术问题,本发明提供了一种重定位方法,该方法包括:获取当前帧的多个子图边界点以及多个粒子;将多个子图边界点分别映射到基于每个粒子的全局坐标系中得到每个粒子的多个全局边界点,每个粒子的每个全局边界点相对于粒子的位置信息与对应的子图边界点的位置信息相同;将粒子的多个全局边界点与已知地图中的静态物体点集进行匹配以在多个全局边界点中寻找匹配边界点;计算粒子的匹配边界点与对应的静态物体点之间的距离,若距离小于预设阈值,则提高匹配边界点的权重;利用粒子的多个全局边界点与已知地图进行匹配以计算粒子的权重;利用多个粒子的权重及位姿估计当前帧的重定位结果。
为了解决上述技术问题,本发明提供了一种重定位装置,该装置包括至少一个处理器,单独或协同工作,处理器用于执行指令以实现前述的重定位方法。
为了解决上述技术问题,本发明提供了一种机器人,该机器人包括处理器和距离传感器,处理器连接距离传感器,处理器用于执行指令以实现前述的重定位方法。
为了解决上述技术问题,本发明提供了一种可读存储介质,存储有指令,指令被执行时实现前述的重定位方法。
本发明的有益效果是:在重定位过程中,将粒子的多个全局边界点与已知地图中的静态物体点集进行匹配以在多个全局边界点中寻找匹配边界点,计算粒子的匹配边界点与对应的静态物体点之间的距离,若距离小于预设阈值,则提高匹配边界点的权重,然后利用粒子的多个全局边界点与已知地图进行匹配以计算粒子的权重,在粒子的权重计算过程中需要用到各全局边界点的权重,全局边界点中的匹配边界点的权重被提高,意味着粒子的权重计算更多的考虑与静态物体点的匹配程度,静态物体不会受到环境变化的影响,使得环境变化对重定位的影响减小,从而提高重定位的鲁棒性和准确度。
附图说明
图1是本发明重定位方法一实施例的流程示意图;
图2是粒子滤波的流程示意图;
图3是本发明重定位方法一具体实施例的流程示意图;
图4是本发明重定位装置第一实施例的结构示意图;
图5是本发明机器人第一实施例的结构示意图;
图6是本发明可读存储介质第一实施例的结构示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。以下各实施例中不冲突的可以相互结合。
如图1所示,本发明重定位方法一实施例包括:
S1:获取当前帧的多个子图边界点以及多个粒子。
为便于说明,以下以机器人为例说明载体在导航过程中重定位的过程。实际应用中,载体也可以为其他能够自主运动和导航的设备,例如无人飞行器等。
本实施例的重定位方法可以基于粒子滤波定位,或者说蒙特卡洛定位(MonteCarlo Localization,MCL)。粒子滤波的本质是使用一组有限的加权随机样本(粒子)来近似表征任意状态的后验概率密度。粒子滤波的优势在于对复杂问题的求解上,比如高度的非线性、非高斯动态系统的状态递推估计问题。
如图2所示,粒子滤波的主要步骤包括:
S11:粒子状态获取。
初始的粒子可以是随机生成的,后续可以根据系统的运动模型和前一时刻的粒子状态来预测粒子的当前状态。
S12:粒子权重更新。
每个粒子具有一个权重,用于评价该粒子与系统实际状态的匹配程度。所有粒子的初始权重一般设为都相同,后续可使用测量数据来更新粒子权重,与测量数据匹配程度越高的粒子的权重越高。
S13:粒子重采样。
实际计算中,经过数次循环,只有少数粒子的权值较大,其余粒子的权值可以忽略不计,粒子权值的方差随着时间增大,有效粒子数目减少,这一问题称为权值退化问题。随着无效粒子数目的增加,大量计算浪费在几乎不起作用的粒子上,使得估计性能下降。为避免权值退化问题,可以根据粒子的权重进行重采样,即使用权重较大的粒子的副本来取代权重较小的粒子。
S14:状态估计。
利用粒子的状态和权重来估计系统的当前状态。
S11-S14步骤可循环多次执行,每次执行S11-S14可被称为一次迭代。
机器人可能需要基于粒子滤波进行多次迭代来实现重定位,每次迭代过程可以被称为一帧,当前帧可以是指当前的迭代过程。
机器人定位常用的传感器为距离传感器。机器人可以利用距离传感器扫描周围环境以对周围的物体进行测距得到多个子图边界点。每个子图边界点具有角度和距离信息,提供了该角度上的地图边界(例如障碍物)的信息。距离传感器可以为激光雷达、超声波测距传感器、红外测距传感器等。
每一个粒子都代表了机器人的一个可能位姿。如果当前帧为初始帧,那么可以通过随机生成来获取粒子;如果当前帧不是初始帧,那么可以根据前一帧的粒子和控制指令来预测当前帧的粒子。例如,控制指令让机器人移动0.1米,转动0.7弧度,那么可以让前一帧的每个粒子移动0.1米,转动0.7弧度,并在需要时添加合理的控制噪声以得到当前帧的粒子。
MCL存在一个问题,无法从机器人绑架或全局定位失败中恢复过来。随着迭代次数的增加,粒子会向单一的一个位姿集中,如果这个位姿恰好不正确,算法就无法恢复。这个问题是非常重要的,实际在重采样步骤中可能意外的丢弃所有正确位姿附近的粒子。
为解决这一问题,在本发明一具体实施例中,多个粒子包括至少一个随机注入的粒子,此时的自定位算法是基于自适应蒙特卡洛定位(adaptive Monte CarloLocalization,AMCL)。
与MCL算法相比,AMCL算法中,可以考虑短期似然平均估计wfast和长期似然平均估计wslow来判断是否随机注入粒子,具体的,可以将max(0,1-wfast/wslow)作为随机采样的概率,当wfast<wslow时,按照二者的比值随机注入粒子,否则不随机注入粒子。
S2:将多个子图边界点分别映射到基于每个粒子的全局坐标系中得到每个粒子的多个全局边界点。
在S2-S5的相关内容中,为便于说明,除特意指明的情况之外,仅以一个粒子的权重更新为例来具体描述,实际应用中要为每个粒子计算权重,不同粒子的权重计算过程之间并无先后顺序限制,可以并行。
每个子图边界点的角度和距离是相对于机器人当前位姿的角度和距离,可以确定每个子图边界点在机器人坐标系中的坐标。机器人坐标系是根据机器人当前位姿建立的坐标系。对于单个粒子而言,映射是将子图边界点在机器人坐标系中的坐标变换到基于该粒子的全局坐标系中去得到对应的全局边界点。每个粒子的每个全局边界点相对于粒子的位置信息与对应的子图边界点的位置信息相同,位置信息包括角度和距离。
S3:将粒子的多个全局边界点与已知地图中的静态物体点集进行匹配以在多个全局边界点中寻找匹配边界点。
已知地图,也可以被称为当前地图,是重定位的范围,根据已知地图是否完整,重定位可以分为全局重定位和局部重定位。静态物体点集包括多个静态物体点,静态物体点在已知地图中的静态物体边缘上,静态物体是指固定不动,不会受到环境变化影响的物体,例如门、窗、柱子等。
匹配边界点是指与静态物体点匹配成功的全局边界点。具体的,可以将与静态物体点距离最近的全局边界点作为该静态物体点对应的匹配边界点;或者在已知地图中为全局边界点寻找距离最近的点,若该点为静态物体点,则该全局边界点为匹配边界点。
在执行本步骤之前获取静态物体点集。具体的,可以利用深度学习从已知地图中提取静态物体以获取静态物体点集。或者将已知地图与静态特征进行配准以获取静态物体点集。静态特征是已知的,表示静态物体的特征,可以预先由人在地图上手工提取。例如,在确定局部重定位的已知地图后,将静态特征与已知地图进行最近点迭代(IterativeClosest Point,ICP)配准,找出已知地图中的静态物体点集。
S4:计算粒子的匹配边界点与对应的静态物体点之间的距离,若距离小于预设阈值,则提高匹配边界点的权重。
每个全局边界点具有一个权重,一般是继承自对应的子图边界点。某个匹配边界点与对应的静态物体点之间的距离小于预设阈值,意味着该匹配边界点与对应的静态物体点之间的匹配度高,可以提高该匹配边界点的权重。
若距离大于或等于预设阈值,则可以不调整匹配边界点的权重。
S5:利用粒子的多个全局边界点与已知地图进行匹配以计算粒子的权重。
具体的,可以在已知地图中寻找与每个全局边界点最近的匹配点,然后计算每个全局边界点与其对应的匹配点之间的匹配度(一般与二者之间的距离负相关,简称全局边界点的匹配度),最后以求出所有匹配度的加权平均值作为该粒子的权重。在求匹配度的加权平均值的过程中,每个匹配度的权重就是其对应的全局边界点的权重。
现有技术中,如果出现了环境变化,例如物体的新增、消失、移动等,至少部分非匹配边界点的匹配度会异常的变小,可能给粒子权重的计算结果带来较大的误差。本实施例中,由于匹配边界点的权重被提高,粒子权重的计算结果受匹配边界点的匹配度的影响变大,受到非匹配边界点的匹配度的影响变小,从而减小环境变化对粒子权重的影响。
S6:利用多个粒子的权重及位姿估计当前帧的重定位结果。
可选的,可以选择权重最大的一个粒子的位姿作为重定位结果。此外,可以利用粒子的权重对多个粒子进行重采样。由于重采样不会影响权重最大的粒子,这种情况下重采样和重定位结果之间的执行顺序并无限制。
可选的,可以利用粒子的权重对多个粒子进行重采样,然后计算重采样之后的多个粒子的位姿的加权平均值作为重定位结果。这种情况下重定位结果的计算过程中每个粒子的位姿的权重为该粒子的权重。
上述步骤可循环执行直至得到满足需求的重定位结果。
通过上述实施例的实施,在粒子的权重计算过程中需要用到全局边界点的权重,全局边界点中的匹配边界点的权重被提高,意味着粒子的权重计算更多的考虑与静态物体点的匹配程度,静态物体不会受到环境变化的影响,使得环境变化对重定位的影响减小,从而提高重定位的鲁棒性和准确度。
如图3所示,本发明重定位方法一具体实施例包括两大部分:静态物体标识和改进的AMCL。
静态物体标识部分中,将已知地图与静态特征进行ICP配准,得到静态物体点集SD。
改进的AMCL部分中,首先,在已知地图中获取多个粒子,或者说在已知地图中撒粒子,并且利用激光雷达扫描获取机器人坐标系下的多个子图边界点(也可以被称为激光点云)。接着,对于每个粒子,将子图边界点映射到基于粒子的全局坐标系中得到多个全局边界点,将全局边界点与静态物体标识部分得到的静态物体点集SD进行匹配得到匹配边界点,判断匹配边界点与对应的静态物体点之间的距离是否小于预设阈值,若是,则提高匹配边界点的权重,否则不修改提高匹配边界点的权重。然后计算粒子的权重。完成所有粒子权重的计算之后,进行最大似然估计求得重定位结果,即取多个粒子中权重最大的一个的位姿作为机器人定位的结果。
如图4所示,本发明重定位装置第一实施例包括:处理器110。图中只画出了一个处理器110,实际数量可以更多。处理器110可以单独或者协同工作。
处理器110控制重定位装置的操作,处理器110还可以称为CPU(CentralProcessing Unit,中央处理单元)。处理器110可能是一种集成电路芯片,具有信号序列的处理能力。处理器110还可以是通用处理器、数字信号序列处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
处理器110用于执行指令以实现本发明重定位方法任一实施例以及不冲突的组合所提供的方法。
如图5所示,本发明机器人第一实施例包括:处理器210和距离传感器220。
处理器210控制机器人的操作,处理器210还可以称为CPU(Central ProcessingUnit,中央处理单元)。处理器210可能是一种集成电路芯片,具有信号序列的处理能力。处理器210还可以是通用处理器、数字信号序列处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
距离传感器220能够获取测量范围内的障碍物与距离传感器220之间的距离信息。距离传感器可以为激光雷达、超声波测距传感器、红外测距传感器等。
处理器210用于执行指令以实现本发明重定位方法任一实施例以及不冲突的组合所提供的方法。
如图6所示,本发明可读存储介质第一实施例包括存储器310,存储器310存储有指令,该指令被执行时实现本发明重定位方法任一实施例以及任意不冲突的组合所提供的方法。
存储器310可以包括只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、闪存(Flash Memory)、硬盘、光盘等。
在本发明所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (13)

1.一种重定位方法,其特征在于,包括:
获取当前帧的多个子图边界点以及多个粒子;
将所述多个子图边界点分别映射到基于每个所述粒子的全局坐标系中得到每个所述粒子的多个全局边界点,每个所述粒子的每个所述全局边界点相对于所述粒子的位置信息与对应的所述子图边界点的位置信息相同;
将所述粒子的所述多个全局边界点与已知地图中的静态物体点集进行匹配以在所述多个全局边界点中寻找匹配边界点;
计算所述粒子的所述匹配边界点与对应的静态物体点之间的距离,若所述距离小于预设阈值,则提高所述匹配边界点的权重;
利用所述粒子的所述多个全局边界点与所述已知地图进行匹配以计算所述粒子的权重;
利用多个所述粒子的权重及位姿估计当前帧的重定位结果。
2.根据权利要求1所述的方法,其特征在于,
所述将所述粒子的所述多个全局边界点与静态物体点集进行匹配以在所述多个全局边界点中寻找匹配边界点之前进一步包括:
获取所述静态物体点集。
3.根据权利要求2所述的方法,其特征在于,
所述获取所述静态物体点集包括:
利用深度学习从所述已知地图中提取静态物体以获取所述静态物体点集。
4.根据权利要求2所述的方法,其特征在于,
所述获取所述静态物体点集包括:
将所述已知地图与静态特征进行配准以获取所述静态物体点集。
5.根据权利要求1所述的方法,其特征在于,
所述利用多个所述粒子的权重及位姿估计当前帧的重定位结果包括:
选择多个所述粒子中权重最大的一个的位姿作为所述重定位结果。
6.根据权利要求5所述的方法,其特征在于,
所述利用所述粒子的所述多个全局边界点与所述已知地图进行匹配以计算所述粒子的权重之后进一步包括:
利用所述粒子的权重对多个所述粒子进行重采样。
7.根据权利要求1所述的方法,其特征在于,
所述利用多个所述粒子的权重及位姿估计当前帧的重定位结果包括:
利用所述粒子的权重对多个所述粒子进行重采样;
计算重采样之后的多个所述粒子的位姿的加权平均值作为所述重定位结果。
8.根据权利要求1所述的方法,其特征在于,
所述计算所述粒子的所述匹配边界点与对应的静态物体点之间的距离之后进一步包括:
若所述距离大于或等于所述预设阈值,则不调整所述匹配边界点的权重。
9.根据权利要求1所述的方法,其特征在于,
所述多个粒子包括至少一个随机注入的粒子。
10.一种重定位装置,其特征在于,包括至少一个处理器,单独或协同工作,所述处理器用于执行指令以实现如权利要求1-9中任一项所述的方法。
11.一种机器人,其特征在于,包括处理器和距离传感器,所述处理器连接所述距离传感器,所述处理器用于执行指令以实现如权利要求1-9中任一项所述的方法。
12.根据权利要求11所述的机器人,其特征在于,所述距离传感器为激光雷达。
13.一种可读存储介质,存储有指令,其特征在于,所述指令被执行时实现如权利要求1-9中任一项所述的方法。
CN201910085267.8A 2019-01-29 2019-01-29 重定位方法及装置、机器人 Active CN111486842B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910085267.8A CN111486842B (zh) 2019-01-29 2019-01-29 重定位方法及装置、机器人
US16/699,765 US11474204B2 (en) 2019-01-29 2019-12-02 Localization method and robot using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910085267.8A CN111486842B (zh) 2019-01-29 2019-01-29 重定位方法及装置、机器人

Publications (2)

Publication Number Publication Date
CN111486842A true CN111486842A (zh) 2020-08-04
CN111486842B CN111486842B (zh) 2022-04-15

Family

ID=71732399

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910085267.8A Active CN111486842B (zh) 2019-01-29 2019-01-29 重定位方法及装置、机器人

Country Status (2)

Country Link
US (1) US11474204B2 (zh)
CN (1) CN111486842B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112305520A (zh) * 2020-10-27 2021-02-02 三一机器人科技有限公司 单激光雷达的反光柱检测位置的修正方法和装置
CN112462769A (zh) * 2020-11-25 2021-03-09 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
CN112762928A (zh) * 2020-12-23 2021-05-07 重庆邮电大学 含有激光slam的odom与dm地标组合移动机器人及导航方法
WO2022099889A1 (zh) * 2020-11-11 2022-05-19 深圳市优必选科技股份有限公司 重定位方法、机器人及计算机可读存储介质
WO2022134336A1 (zh) * 2020-12-22 2022-06-30 莱克电气绿能科技(苏州)有限公司 移动机器人控制方法、装置、设备及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112068547B (zh) * 2020-08-05 2024-05-28 歌尔股份有限公司 一种基于amcl的机器人定位方法、装置和机器人
CN112418316B (zh) * 2020-11-24 2023-09-29 深圳市优必选科技股份有限公司 机器人重定位方法、装置、激光机器人及可读存储介质
CN112612862B (zh) * 2020-12-24 2022-06-24 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于点云配准的栅格地图定位方法
CN112987027B (zh) * 2021-01-20 2024-03-15 长沙海格北斗信息技术有限公司 一种基于高斯模型的amcl算法的定位方法及存储介质
CN113483747B (zh) * 2021-06-25 2023-03-24 武汉科技大学 基于具有墙角信息的语义地图改进amcl定位方法及机器人
CN115375869B (zh) * 2022-10-25 2023-02-10 杭州华橙软件技术有限公司 一种机器人重定位方法、机器人和计算机可读存储介质
CN116840820B (zh) * 2023-08-29 2023-11-24 上海仙工智能科技有限公司 一种检测2d激光定位丢失的方法及系统、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120029698A1 (en) * 2006-11-16 2012-02-02 Samsung Electronics Co., Ltd Method, apparatus, and medium for estimating pose of mobile robot using particle filter
CN105652871A (zh) * 2016-02-19 2016-06-08 深圳杉川科技有限公司 移动机器人的重定位方法
CN105928505A (zh) * 2016-04-19 2016-09-07 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN106441279A (zh) * 2016-12-08 2017-02-22 速感科技(北京)有限公司 基于自主定位和边缘探索的机器人定位方法、系统
CN107908185A (zh) * 2017-10-14 2018-04-13 北醒(北京)光子科技有限公司 一种机器人自主全局重定位方法及机器人
CN107991683A (zh) * 2017-11-08 2018-05-04 华中科技大学 一种基于激光雷达的机器人自主定位方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
US9766074B2 (en) * 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
WO2017076928A1 (en) * 2015-11-02 2017-05-11 Starship Technologies Oü Method, device and assembly for map generation
US9766349B1 (en) * 2016-09-14 2017-09-19 Uber Technologies, Inc. Localization and tracking using location, signal strength, and pseudorange data
WO2020048623A1 (en) * 2018-09-07 2020-03-12 Huawei Technologies Co., Ltd. Estimation of a pose of a robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120029698A1 (en) * 2006-11-16 2012-02-02 Samsung Electronics Co., Ltd Method, apparatus, and medium for estimating pose of mobile robot using particle filter
CN105652871A (zh) * 2016-02-19 2016-06-08 深圳杉川科技有限公司 移动机器人的重定位方法
CN105928505A (zh) * 2016-04-19 2016-09-07 深圳市神州云海智能科技有限公司 移动机器人的位姿确定方法和设备
CN106441279A (zh) * 2016-12-08 2017-02-22 速感科技(北京)有限公司 基于自主定位和边缘探索的机器人定位方法、系统
CN107908185A (zh) * 2017-10-14 2018-04-13 北醒(北京)光子科技有限公司 一种机器人自主全局重定位方法及机器人
CN107991683A (zh) * 2017-11-08 2018-05-04 华中科技大学 一种基于激光雷达的机器人自主定位方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JEONG WOO等: "Localization of Mobile Robot using Particle Filter", 《SICE-ICASE INTERNATIONAL JOINT CONFERENCE 2006》 *
刘洞波等: "基于激光测距的温室移动机器人全局定位方法", 《农业机械学报》 *
李瑞峰等: "基于粒子滤波器的室内移动机器人自定位", 《华中科技大学学报(自然科学版)》 *
熊艳: "移动机器人激光导航系统研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王金旺等: "基于工作空间测量定位系统和激光雷达的室内组合导航算法研究", 《激光与光电子学进展》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112305520A (zh) * 2020-10-27 2021-02-02 三一机器人科技有限公司 单激光雷达的反光柱检测位置的修正方法和装置
CN112305520B (zh) * 2020-10-27 2024-03-12 三一机器人科技有限公司 单激光雷达的反光柱检测位置的修正方法和装置
WO2022099889A1 (zh) * 2020-11-11 2022-05-19 深圳市优必选科技股份有限公司 重定位方法、机器人及计算机可读存储介质
CN112462769A (zh) * 2020-11-25 2021-03-09 深圳市优必选科技股份有限公司 机器人定位方法、装置、计算机可读存储介质及机器人
WO2022134336A1 (zh) * 2020-12-22 2022-06-30 莱克电气绿能科技(苏州)有限公司 移动机器人控制方法、装置、设备及存储介质
CN112762928A (zh) * 2020-12-23 2021-05-07 重庆邮电大学 含有激光slam的odom与dm地标组合移动机器人及导航方法

Also Published As

Publication number Publication date
CN111486842B (zh) 2022-04-15
US11474204B2 (en) 2022-10-18
US20200241112A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
CN111486842B (zh) 重定位方法及装置、机器人
US9996941B2 (en) Constrained key frame localization and mapping for vision-aided inertial navigation
Montemerlo et al. Simultaneous localization and mapping with unknown data association using FastSLAM
US20200116498A1 (en) Visual assisted distance-based slam method and mobile robot using the same
CN104035439B (zh) 用多个激光雷达传感器利用扫描点追踪物体的贝叶斯网络
EP1901152B1 (en) Method, medium, and system estimating pose of mobile robots
US11703334B2 (en) Mobile robots to generate reference maps for localization
EP3654064B1 (en) Apparatus and method for characterizing an object based on measurement samples from one or more location sensors
Dube et al. Real-time plane extraction from depth images with the randomized hough transform
US20150199556A1 (en) Method of using image warping for geo-registration feature matching in vision-aided positioning
JP6330068B2 (ja) 画像分析システムおよび方法
Niedfeldt et al. Recursive RANSAC: Multiple signal estimation with outliers
Jellal et al. LS-ELAS: Line segment based efficient large scale stereo matching
WO2011114134A1 (en) Target tracking
US11045953B2 (en) Relocalization method and robot using the same
CN112991389A (zh) 一种目标跟踪方法、装置及移动机器人
US11574480B2 (en) Computerized device for driving assistance
CN111373336A (zh) 状态感知方法以及相关设备
Naujoks et al. Fast 3D extended target tracking using NURBS surfaces
US10733718B1 (en) Corruption detection for digital three-dimensional environment reconstruction
Baum et al. Extended object tracking based on combined set-theoretic and stochastic fusion
US20240160222A1 (en) Method and system for localizing a mobile robot
Teimouri et al. A hybrid localization method for a soccer playing robot
Brahmanage et al. A kinect-based SLAM in an unknown environment using geometric features
Qian Weighted optimal linear attitude and translation estimator: Theory and application

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant