CN113902801A - 移动机器人重定位方法、装置、设备及存储介质 - Google Patents

移动机器人重定位方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113902801A
CN113902801A CN202111121893.1A CN202111121893A CN113902801A CN 113902801 A CN113902801 A CN 113902801A CN 202111121893 A CN202111121893 A CN 202111121893A CN 113902801 A CN113902801 A CN 113902801A
Authority
CN
China
Prior art keywords
mobile robot
calculating
information
feature
repositioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111121893.1A
Other languages
English (en)
Inventor
刘艳娇
周宇
邵小宁
刘孟红
贺钒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Qiruike Technology Co Ltd
Original Assignee
Sichuan Qiruike Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Qiruike Technology Co Ltd filed Critical Sichuan Qiruike Technology Co Ltd
Priority to CN202111121893.1A priority Critical patent/CN113902801A/zh
Publication of CN113902801A publication Critical patent/CN113902801A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种移动机器人重定位方法、装置、设备及存储介质,其中方法包括获取环境图像,提取特征点和描述符,并进行特征点跟踪;基于传感器数据计算当前移动机器人位姿信息;选取关键帧,并计算关键帧用于重定位的特征向量;根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;保存关键帧相关信息和稀疏化三维点云信息作为历史地图;当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,并与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。本发明的方法计算量小,成本低,能实现高效准确的机器人重定位功能。

Description

移动机器人重定位方法、装置、设备及存储介质
技术领域
本发明涉及机器人定位技术领域,尤其涉及一种移动机器人重定位方法、装置、设备及存储介质。
背景技术
近年来,随着移动机器人相关技术的快速发展,扫地机器人的智能化水平越来越高,其中机器人的正确定位是机器人实现导航等功能的基础。如果机器人在正常工作时被移动到其他位置,或因碰撞等导致机器人丢失其当前的位置无法继续进行工作,则需要重新获取机器人当前的位置,即移动机器人重定位问题。通过视觉信息的引入,机器人在码盘IMU等传感器失效的情况下,可通过图像特征匹配等方法,将当前环境信息与历史地图进行匹配,快速获得机器人当前位置,从而使机器人的地图规划及导航算法更加的高效准确,而受限于移动机器人平台的计算力和传感器,传统的SLAM地图构建和重定位算法无法在计算效率和精度之间达到平衡。例如专利申请:202110253309.1,一种机器人重定位方法、装置、设备及存储介质,其采用第一3D点云的3D特征点和对应的第二3D点云的3D特征点作为一对匹配点对,然后进行一一匹配,其需要匹配的点比较多,且算法比较麻烦,运算效率低;且需要能获取深度的rgbd相机,成本也更高。
发明内容
本发明提供了一种移动机器人重定位方法、装置、设备及存储介质,用于解决机器人被移动、碰撞或其他问题导致的机器人位置丢失问题,实现高效准确的机器人重定位。
本发明采用的技术方案是:提供一种移动机器人重定位方法,包括:
获取环境图像,提取特征点和描述符,并进行特征点跟踪;
基于传感器数据计算当前移动机器人位姿信息;
选取关键帧,并计算关键帧用于重定位的特征向量;
根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;
保存关键帧相关信息和稀疏化三维点云信息作为历史地图;
当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,并与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
作为移动机器人重定位方法的一种优选方式,所述基于传感器数据计算当前移动机器人位姿信息的方法包括:
基于惯性传感器和码盘得到移动机器人相对于前一时刻的旋转的角度和行进轮的移动距离,推导计算移动机器人实际相对前一时刻位置的移动距离,然后根据陀螺仪计算当前时刻移动机器人的朝向信息,并结合前一时刻移动机器人的位姿信息,得到当前时刻移动机器人的位姿信息。
作为移动机器人重定位方法的一种优选方式,所述选取关键帧的方法包括:
若当前时刻移动机器人相当于前一关键帧时刻的移动距离或旋转角度达到设定阈值时,记为关键帧。
作为移动机器人重定位方法的一种优选方式,所述计算关键帧用于重定位的特征向量的方法包括:
基于关键帧特征描述符计算词袋库DBoW2或DBoW3的特征向量。
作为移动机器人重定位方法的一种优选方式,所述根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云的方法包括:
根据每个特征点跟踪过程中的多个2D点位置信息,和其对应时刻移动机器人的位姿信息,基于最小二乘法对特征点进行三角化,计算特征点的三维位置,多个三维特征点构成稀疏化三维点云。
作为移动机器人重定位方法的一种优选方式,所述与历史地图中的三维点云进行匹配的方法包括:
对待重定位环境图像计算得到重定位特征向量,根据词袋库DBoW2或者DBoW3在历史地图中寻找相似度达到设定阈值的多个候选关键帧,依次取出在历史地图中与候选关键帧相关的三维特征点,然后与待重定位环境图像中提取的特征点和描述符进行描述符匹配,得到3D-2D匹配结果。
作为移动机器人重定位方法的一种优选方式,使用包括但不限于Perspective-n-Point算法计算当前移动机器人在历史地图中的位姿信息。
本发明还提供一种移动机器人重定位装置,包括:
图像获取与特征提取模块,用于从视觉传感器获取环境图像,检测所述环境图像的特征点和计算描述符,并进行特征点跟踪;
位姿计算模块,用于依据传感器数据计算当前移动机器人位姿信息;
关键帧选取模块,用于选择关键帧,并计算其用于重定位的特征向量;
稀疏化三维点云构建模块,用于根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;
历史地图保存模块,用于保存关键帧相关信息和稀疏化三维点云作为历史地图;
重定位模块,用于当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,然后与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
本发明还提供一种移动机器人重定位设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述的移动机器人重定位方法。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述的移动机器人重定位方法。
本发明的有益效果是:本发明通过稀疏化三维点云生成与重定位方法,将当前环境图片与历史点云地图进行匹配并进行位姿解算,获取机器人当前位姿,可以解决机器人被移动、碰撞或其他问题导致的机器人位置丢失问题。且本方法计算量小,成本低,能实现高效准确的机器人重定位功能。
附图说明
图1为本发明公开的移动机器人重定位方法的流程示意图。
图2为本发明公开的移动机器人重定位装置的结构框图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步详细描述,但本发明的实施方式不限于此。
实施例1:
参见图1,本实施例公开一种移动机器人重定位方法,包括:
S1、获取环境图像,提取特征点和描述符,并进行特征点跟踪。
对环境图像进行提取特征点的方法,包括但不限于:Harris角点检测算法、FAST角点检测算法、Shi-Tomasi角点检测算法、Hessian关键点检测算法或线特征检测算法。计算特征点描述符的方法,包括但不限于:SIFT描述符算法,SIFT描述符算法、SURF描述符算法、ORB描述符算法、BRISK描述符算法、BRIEF描述符算法或LBD描述符算法。对所述环境图像进行特征点跟踪的方法,包括但不限于:光流跟踪算法或描述符匹配算法。
S2、基于传感器数据计算当前移动机器人位姿信息。
基于惯性传感器和码盘得到移动机器人相对于前一时刻的旋转的角度和行进轮的移动距离,推导计算移动机器人实际相对前一时刻位置的移动距离,然后根据陀螺仪计算当前时刻移动机器人的朝向信息,并结合前一时刻移动机器人的位姿信息,得到当前时刻移动机器人的位姿信息。
S3、选取关键帧,并计算关键帧用于重定位的特征向量。
其中,选取关键帧算法,其方法至少包括:设定移动距离和旋转角度的阈值,根据当前时刻移动机器人相当于前一关键帧时刻的移动距离,旋转角度等判断是否选取为关键帧。
计算关键帧用于重定位的特征向量的方法,包括但不限于:基于关键帧特征描述符计算词袋库DBoW2或DBoW3的特征向量。
S 4、根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云。
根据每个特征点跟踪过程中的多个2D点位置信息,和其对应时刻移动机器人的位姿信息,基于最小二乘法的方法对特征点进行三角化,计算特征点的三维位置,多个三维特征点构成稀疏化三维点云。
S 5、保存关键帧相关信息和稀疏化三维点云信息作为历史地图。
其中,关键帧相关信息包括但不限于关键帧的重定位特征向量、关键帧的位姿信息以及与关键帧相关的三维点云信息。
稀疏化三维点云信息包括但不限于三维特征点的位置信息以及其关联的关键帧信息。
S 6、当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,然后与历史地图中的三维点云进行匹配。根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
触发重定位的方法,包括但不限于:移动机器人被绑架,移动机器人重新开机,移动机器人断电回充结束后继续清扫。
与历史地图中的三维点云进行匹配,其方法至少包括,对待重定位环境图像计算得到重定位特征向量,根据词袋库DBoW2或者DBoW3在历史地图中寻找相似度高的多个候选关键帧。依次取出在历史地图中与候选关键帧相关的三维特征点,然后与待重定位环境图像中提取的特征点和描述符进行描述符匹配,得到3D-2D匹配结果。
计算当前移动机器人在历史地图中的位姿信息,基于与历史地图中的3D-2D匹配结果,使用包括但不限于Perspective-n-Point算法计算当前移动机器人在历史地图中的位姿信息。
判断重定位结果的准确性的方法,包括但不限于判断移动机器人位姿信息中的位置高度、俯仰角或者翻滚角是否满足实际场景要求。
本实施例提供的方法通过稀疏化三维点云生成与重定位方法,将当前环境图片与历史点云地图进行匹配并进行位姿解算,获取机器人当前位姿,可以解决机器人被移动、碰撞或其他问题导致的机器人位置丢失问题。且本方法计算量小,成本低,能实现高效准确的机器人重定位功能。
实施例2
参见图2,本实施例提供一种移动机器人重定位装置,包括:
图像获取与特征提取模块1,用于从视觉传感器获取环境图像,检测所述环境图像的特征点和计算描述符,并进行特征点跟踪;
位姿计算模块2,用于依据传感器数据计算当前移动机器人位姿信息;
关键帧选取模块3,用于选择关键帧,并计算其用于重定位的特征向量;
稀疏化三维点云构建模块4,用于根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;
历史地图保存模块5,用于保存关键帧相关信息和稀疏化三维点云作为历史地图;
重定位模块6,用于当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,然后与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
实施例3
本实施例提供一种移动机器人重定位设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现实施例1所述的移动机器人重定位方法。
实施例4
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现实施例1所述的移动机器人重定位方法。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种移动机器人重定位方法,其特征在于,包括:
获取环境图像,提取特征点和描述符,并进行特征点跟踪;
基于传感器数据计算当前移动机器人位姿信息;
选取关键帧,并计算关键帧用于重定位的特征向量;
根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;
保存关键帧相关信息和稀疏化三维点云信息作为历史地图;
当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,并与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
2.根据权利要求1所述的移动机器人重定位方法,其特征在于,所述基于传感器数据计算当前移动机器人位姿信息的方法包括:
基于惯性传感器和码盘得到移动机器人相对于前一时刻的旋转的角度和行进轮的移动距离,推导计算移动机器人实际相对前一时刻位置的移动距离,然后根据陀螺仪计算当前时刻移动机器人的朝向信息,并结合前一时刻移动机器人的位姿信息,得到当前时刻移动机器人的位姿信息。
3.根据权利要求1所述的移动机器人重定位方法,其特征在于,所述选取关键帧的方法包括:
若当前时刻移动机器人相当于前一关键帧时刻的移动距离或旋转角度达到设定阈值时,记为关键帧。
4.根据权利要求1所述的移动机器人重定位方法,其特征在于,所述计算关键帧用于重定位的特征向量的方法包括:
基于关键帧特征描述符计算词袋库DBoW2或DBoW3的特征向量。
5.根据权利要求4所述的移动机器人重定位方法,其特征在于,所述根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云的方法包括:
根据每个特征点跟踪过程中的多个2D点位置信息,和其对应时刻移动机器人的位姿信息,基于最小二乘法对特征点进行三角化,计算特征点的三维位置,多个三维特征点构成稀疏化三维点云。
6.根据权利要求5所述的移动机器人重定位方法,其特征在于,所述与历史地图中的三维点云进行匹配的方法包括:
对待重定位环境图像计算得到重定位特征向量,根据词袋库DBoW2或者DBoW3在历史地图中寻找相似度达到设定阈值的多个候选关键帧,依次取出在历史地图中与候选关键帧相关的三维特征点,然后与待重定位环境图像中提取的特征点和描述符进行描述符匹配,得到3D-2D匹配结果。
7.根据权利要求6所述的移动机器人重定位方法,其特征在于,使用包括但不限于Perspective-n-Point算法计算当前移动机器人在历史地图中的位姿信息。
8.一种移动机器人重定位装置,其特征在于,包括:
图像获取与特征提取模块,用于从视觉传感器获取环境图像,检测所述环境图像的特征点和计算描述符,并进行特征点跟踪;
位姿计算模块,用于依据传感器数据计算当前移动机器人位姿信息;
关键帧选取模块,用于选择关键帧,并计算其用于重定位的特征向量;
稀疏化三维点云构建模块,用于根据移动机器人的位姿信息和特征点跟踪信息计算特征点三维位置信息,构建稀疏化三维点云;
历史地图保存模块,用于保存关键帧相关信息和稀疏化三维点云作为历史地图;
重定位模块,用于当触发重定位条件时,基于视觉传感器获取环境图像,提取特征点和描述符,然后与历史地图中的三维点云进行匹配,根据匹配结果计算当前移动机器人在历史地图中的位姿信息,并判断重定位结果的准确性。
9.一种移动机器人重定位设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的移动机器人重定位方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的移动机器人重定位方法。
CN202111121893.1A 2021-09-24 2021-09-24 移动机器人重定位方法、装置、设备及存储介质 Pending CN113902801A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111121893.1A CN113902801A (zh) 2021-09-24 2021-09-24 移动机器人重定位方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111121893.1A CN113902801A (zh) 2021-09-24 2021-09-24 移动机器人重定位方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113902801A true CN113902801A (zh) 2022-01-07

Family

ID=79029310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111121893.1A Pending CN113902801A (zh) 2021-09-24 2021-09-24 移动机器人重定位方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113902801A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205470A (zh) * 2022-09-06 2022-10-18 深圳市其域创新科技有限公司 续扫重定位方法、装置、设备、存储介质及三维续扫方法
CN117291984A (zh) * 2023-11-22 2023-12-26 武汉理工大学 一种基于位姿约束的多帧描述符匹配重定位方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205470A (zh) * 2022-09-06 2022-10-18 深圳市其域创新科技有限公司 续扫重定位方法、装置、设备、存储介质及三维续扫方法
CN117291984A (zh) * 2023-11-22 2023-12-26 武汉理工大学 一种基于位姿约束的多帧描述符匹配重定位方法及系统
CN117291984B (zh) * 2023-11-22 2024-02-09 武汉理工大学 一种基于位姿约束的多帧描述符匹配重定位方法及系统

Similar Documents

Publication Publication Date Title
CN107677279B (zh) 一种定位建图的方法及系统
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN107160395B (zh) 地图构建方法及机器人控制系统
CN107990899B (zh) 一种基于slam的定位方法和系统
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
CN111489393A (zh) Vslam方法、控制器和可移动设备
JP6405778B2 (ja) 対象追跡方法及び対象追跡装置
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
CN113902801A (zh) 移动机器人重定位方法、装置、设备及存储介质
JP2019132664A (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
CN109214254B (zh) 一种确定机器人位移的方法及装置
WO2024087962A1 (zh) 车厢姿态识别系统、方法、电子设备及存储介质
CN111142514A (zh) 一种机器人及其避障方法和装置
Majdik et al. New approach in solving the kidnapped robot problem
CN104166995A (zh) 一种基于马步测度的Harris-SIFT双目视觉定位方法
CN115077563A (zh) 车辆定位精度评价方法、装置及电子设备
CN114862953A (zh) 一种基于视觉特征和3d激光的移动机器人重定位方法及装置
JP3512919B2 (ja) 物体形状・カメラ視点移動の復元装置及び復元方法
JP3548652B2 (ja) 物体形状復元装置及びその方法
US20200184656A1 (en) Camera motion estimation
CN114719759B (zh) 一种基于slam算法和图像实例分割技术的物体表面周长和面积测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination