CN110243360B - 机器人在运动区域的地图构建及定位方法 - Google Patents

机器人在运动区域的地图构建及定位方法 Download PDF

Info

Publication number
CN110243360B
CN110243360B CN201810189296.4A CN201810189296A CN110243360B CN 110243360 B CN110243360 B CN 110243360B CN 201810189296 A CN201810189296 A CN 201810189296A CN 110243360 B CN110243360 B CN 110243360B
Authority
CN
China
Prior art keywords
coordinate information
reference mark
robot
information
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810189296.4A
Other languages
English (en)
Other versions
CN110243360A (zh
Inventor
熊友军
罗茜
索毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youbixuan Intelligent Robot Co ltd
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201810189296.4A priority Critical patent/CN110243360B/zh
Priority to US16/236,364 priority patent/US11067997B2/en
Publication of CN110243360A publication Critical patent/CN110243360A/zh
Application granted granted Critical
Publication of CN110243360B publication Critical patent/CN110243360B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

本申请公开了一种机器人在运动区域的地图构建方法、定位方法、同步定位及地图构建的方法,运动区域内设置有多个基准标记,其中地图构建方法包括:在运动区域识别至少两基准标记,识别至少两基准标记时所在的位置为机器人全局坐标系的初始原点,获得基准标记的坐标信息;运动到下一位置,识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记,根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对初始原点的坐标信息;重复上一步骤,直至获取所有基准标记的坐标信息;根据所有基准标记的坐标信息构建标记地图。本申请的方法能够通过基准标记构建运动区域的地图,并能够基于地图及基准标记在运动区域实现自主定位。

Description

机器人在运动区域的地图构建及定位方法
技术领域
本申请涉及机器人地图构建及定位领域,尤其是涉及一种机器人在运动区域的地图构建方法、定位方法,以及同步定位及地图构建的方法。
背景技术
机器人可以用于执行巡逻、监察、运输等任务,在室外,可通过全球定位系统GPS以及地图数据进行定位,继而实现定位导航路径规划等功能。而在室内,GPS信号较弱,因此在进行导航时,通常使用激光雷达等设备,而激光雷达造价较高,导致机器人实现室内定位导航的成本较高;若不使用激光雷达,则容易造成定位精度不高的问题。
发明内容
本申请提供一种机器人在运动区域的地图构建方法、定位方法,以及同步定位及地图构建的方法,以解决现有技术中机器人室内定位成本较高或精度不高的问题。
为解决上述技术问题,本申请提供一种机器人在运动区域的地图构建方法,运动区域设置有多个基准标记;该方法包括:机器人在运动区域的初始位置识别至少两个基准标记;将机器人识别至少两个基准标记时所在的位置作为机器人全局坐标系的初始原点,并获得至少两个基准标记相对初始原点的坐标信息;机器人运动到下一位置时,在下一位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记,以根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对初始位置的坐标信息;重复上一步骤,直至获取所有基准标记相对初始位置的坐标信息;根据所有基准标记的坐标信息构建标记地图。
为解决上述技术问题,本申请还提供一种机器人在运动区域的定位方法,运动区域内设置有多个基准标记;方法包括:机器人根据控制数据在运动区域内从初始位置运动到定位位置;根据控制数据和初始位置坐标信息确定定位位置的控制估计坐标信息;机器人在定位位置识别至少一基准标记,以获得观测数据;机器人根据观测数据和基准标记的坐标信息确定定位位置的观测估计坐标信息;根据控制估计坐标信息和观测估计坐标信息确定定位位置的坐标信息。
为解决上述技术问题,本申请还提供一种机器人在运动区域的同步定位和地图构建的方法,运动区域内设置有多个基准标记;该方法包括:机器人在运动区域内于初始位置处识别至少两个基准标记;将所述初始位置作为机器人全局坐标系的初始原点,获得至少两个基准标记相对初始原点的坐标信息,并根据基准标记的坐标信息生成标记地图;机器人根据控制数据从初始位置运动到定位位置,在定位位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记;根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对初始位置的坐标信息,并根据获得的坐标信息更新标记地图;根据控制数据和初始位置确定定位位置的控制估计坐标信息;机器人在定位位置观测基准标记以获得观测数据;根据观测数据和基准标记的坐标信息确定定位位置的观测估计坐标信息;根据控制估计坐标信息和观测估计坐标信息确定定位位置的坐标信息。
本申请机器人在运动区域的地图构建方法能够对运动区域进行地图构建,运动区域内设置多个基准标记,机器人首先在初始位置识别至少两个基准标记,将初始位置作为机器人全局坐标系的初始原点,即建立全局坐标系,从而获得至少两个基准坐标在全局坐标系的坐标信息;然后识别已确定坐标信息的基准标记和未确定坐标信息的基准标记,从而根据已确定坐标信息的基准标记来获得未确定坐标信息的基准标记相对初始原点的坐标信息,重复该步骤,从而实现获取整个运动区域内所有基准标记的坐标信息,基于所有基准标记的坐标信息即能构建标记地图。本申请利用基准标记实现对运动区域的地图构建,基于所构建的地图以及地图中的基准标记,能够实现机器人的准确定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请机器人在运动区域的地图构建方法一实施例的流程示意图;
图2是图1所示地图构建方法一实施例中基准标记的示意图;
图3是图1所示地图构建方法一实施例中设置有基准标记的运动区域的示意图;
图4(a)是图1所示地图构建方法一实施例中基准标记设置在地面上的示意图;
图4(b)是图1所示地图构建方法一实施例中基准标记设置在墙面上的示意图;
图4(c)是图1所示地图构建方法一实施例中基准标记设置在台阶上的示意图;
图5是图1所示地图构建方法一实施例中所构建的标记地图的示意图;
图6是本申请机器人在运动区域的定位方法一实施例的流程示意图;
图7是图6所示定位方法一实施例中机器人在运动区域进行定位的示意图;
图8是本申请机器人在运动区域的同步定位和地图构建的方法一实施例的流程示意图;
图9是本申请机器人一实施例的结构示意图;
图10是本申请计算机存储介质一实施例的结构示意图。
具体实施例
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明机器人的运动控制方法和运动控制系统做出进一步详细描述。
本申请中机器人通过基准标记实现对一个运动区域的地图构建,并基于所构建的地图实现定位导航等。其中运动区域可以是商场、车间、仓库等室内区域,在实现本申请的方法时,需要在运动区域内设置多个基准标记,机器人在初始位置时对至少两个基准标记进行识别,以初始位置作为机器人全局坐标系的初始原点,继而可获得两个基准标记相对初始原点的坐标信息,即其在机器人全局坐标系中的坐标,再根据已确定坐标信息的基准标记位置,利用机器人所识别的其他基准标记信息来确定其相对于全局坐标系原点的坐标位置。根据所获得的所有坐标信息构建标记地图,继而得到基于机器人全局坐标系的标记地图。
请参阅图1,图1是本申请机器人在运动区域的地图构建方法一实施例的流程示意图。
本实施例中运动区域内设置有多个基准标记,基准标记可以是具有可识别特征的图标,其中图标的顶点可被检测并用于计算该基准标记相对机器人的位姿信息。基准标记可以是正方形的视觉图案,例如Aruco码或AprilTag码,如图2所示,图2是图1所示地图构建方法一实施例中基准标记的示意图。其中正方形标记的黑边四个顶点则可被检测出从而计算得出基准标记相对机器人的相对位姿。正方形标记内部是二进制编码矩阵,该矩阵决定了该基准标记的识别信息。
当使用本实施例的方法进行地图构建时,需要在运动区域内设置多个基准标记,如图3中所示,图3是图1所示地图构建方法一实施例中设置有基准标记的运动区域的示意图。图3所示的运动区域中地面上均设置有多个基准标记,若仅在地面设置基准标记,则可建立二维标记地图;若在地面和墙面上均设置基准标记,则可建立三维标记地图。
在实际应用中,基准标记可设置在运动区域空间内的各种位置,若对仓库进行地图构建,则还可将基准标记设置在货架上等,对商场进行地图构建时,可将基准标记设置在楼梯上,继而实现对多层空间进行地图构建。具体设置方式请参考图4(a),图4(b)和图4(c),图4(a)(b)(c)分别是图1所示地图构建方法一实施例中基准标记不同设置方式的示意图。
本实施例是根据运动区域内所设置的基准标记进行标记地图的构建,因而运动区域内所设置的基准标记越多,则所构建的标记地图越全面准确。具体来说,本实施例地图构建方法包括以下步骤。
S101:机器人在运动区域识别至少两个基准标记。
S102:将机器人识别至少两个基准标记时所在的位置作为机器人全局坐标系的初始原点,并获得至少两个基准标记相对初始原点的坐标信息。
本实施例中步骤S101首先识别两个基准标记,然后将识别到至少两个基准标记时的机器人当前位置作为机器人全局坐标系的初始原点,并根据基准标记相对机器人的位姿信息来确定基准标记在机器人全局坐标系坐标信息,即初始原点的坐标信息。
本实施例中可在机器人上设置视觉传感器,视觉传感器可以是单目摄像头、双目摄像头或多个相机。通过视觉传感器来识别基准标记,从而获取基准标记相对视觉传感器的位姿信息,根据位姿信息即可获得基准标记相对于机器人全局坐标系的坐标信息。
本实施例中所采用的基准标记为Aruco标记,标记内部为二进制编码矩阵,视觉传感器识别基准标记的过程中能够获得基准标记相对于视觉传感器的位姿信息,同时还能获得该基准标记的标识信息。
其中,获得位姿信息可通过识别该基准标记黑色宽边的四个顶点,从而得到四个顶点在图像中的2D坐标信息,然后根据基准标记的实际尺寸长度,利用视觉传感器的内外参数矩阵信息,将该基准标记的三维实际坐标映射到二维图像坐标中,获得基准标记坐标系相对于视觉传感器坐标系的变换矩阵,继而获得基准标记相对于视觉传感器的位姿信息。
具体来说,如图2所示,假设Aruco标记图像的实际长度为a,则在Aruco标记坐标系内,标记的四个顶点(C1,C2,C3,C4)的3D实际坐标分别为
Figure BDA0001591226670000051
通过这四个顶点坐标信息、以及其在图像中检测到的2D坐标信息、视觉传感器的内外参数矩阵信息,利用solvePnP公式,获得该标记坐标系相对于视觉传感器的位姿信息。该基准标记坐标系以四个顶点的中心点为原点O,以图像所在的平面为XOY平面,指向视觉传感器的轴向方向为Z轴。该变换信息包括相对平移向量和相对旋转向量,该相对旋转向量可以通过Rodrigues公式计算获得相应的相对旋转矩阵。以上计算公式可根据下式获得。
Figure BDA0001591226670000061
其中(u,v)为图像中检测到的标记中心2D坐标信息,(X,Y,Z)为标记中心的实际3D坐标信息,A为视觉传感器的内参数矩阵,R、t分别为视觉传感器相对旋转矩阵和相对平移向量。视觉传感器的内参数矩阵可通过摄像头参数校正算法得到。
获得标识信息可首先对拍摄到的基准标记进行二值化处理,以获得二值化图像;对二值化图像进行网格化,以将二值化图像划分成多个网格区域;按照每个网格区域的二值化数值进行编码,以作为基准标记所对应的标识信息。
具体来说,通过视觉传感器对所获得的图像进行分析,根据自适应阈值对图像进行二值化处理,并对二值化后的图像进行外形轮廓提取,舍弃非方形且大小不满足尺寸范围的轮廓,方形且大小满足尺寸的轮廓作为基准标记,此过程即能够完成对基准标记的二值化处理,获得二值化图像。
由于基准标记的平面可能与摄像头屏幕形成任意角度,因此需要对基准标记图像进行透视变换,获得基准标记的二值化图像的正视图,然后再对该正视图进行网格化处理,以将二值图像划分为多个网格区域,对网格区域内的二值化数值进行编码,以作为基准标记对应的标识信息。具体可在编码后,将编码与标记库内的编码进行比较,以获得该基准标记对应的标识信息。
在本步骤中,获得基准标记相对视觉传感器的位姿信息后,根据位姿信息即可得到基准标记相对全局坐标系的坐标信息。由于在本实施例中通过视觉传感器进行基准标记的识别以确定基准标记的相对位姿信息,而视觉传感器可以以任意角度安装于机器人上,因此需要考虑视觉传感器的旋转角度。即在将相对视觉传感器的位姿信息转化为相对全局坐标系原点的坐标信息时,需进行旋转变换。具体对具有以下位姿信息的基准标记进行旋转变换得到坐标mmap=(xmap,ymap,zmap),可通过以下公式计算获得。
mmap=Rz(θzcamera)Ry(θycamera)Rx(θxcamera)mcamera
其中,
绕x轴的旋转矩阵为:
Figure BDA0001591226670000071
绕y轴的旋转矩阵为:
Figure BDA0001591226670000072
绕z轴的旋转矩阵为:
Figure BDA0001591226670000073
上述旋转变换通过旋转矩阵计算得到,还可通过旋转向量或四元数的形式计算。
在本步骤中,由于机器人在初始位置对基准标记进行识别,并且视觉传感器所处高度没有发生平移,因此将相对视觉传感器的位姿信息转换为全局坐标系的坐标只需进行旋转变换,无需进行坐标的平移变换。如果视觉传感器高度发生平移变化,那么得到的相对于全局坐标系的位姿信息需要进行平移变换。本步骤中可获得一个基准标记的坐标信息,也可以同时获得多个基准标记的坐标信息。
S103:机器人运动到下一位置,在下一位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记。
S104:根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对初始原点的坐标信息。
在运动区域较大,在初始位置无法获得所有基准标记的坐标信息时,需要机器人进行运动,以识别到更多的基准标记,因而步骤S103中机器人运动到下一位置,在下一位置识别至少一个已确定坐标信息的基准标记和至少一个未确定坐标信息的基准标记,以实现在步骤S104中,根据三角定位原理,利用已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对全局坐标系的初始原点的坐标信息。
在步骤S103中,对基准标记进行识别时能够根据图像中的信息获得实际信息。具体来说,首先获取所识别图像中已确定坐标信息的基准标记的图像标记尺寸,以及未确定坐标信息的基准标记相对已确定坐标信息的基准标记的图像位置信息。
然后比较已确定坐标信息的基准标记的图像标记尺寸和实际标记尺寸,获得图像与实际的转换关系。在此过程中,设置在运动区域中基准标记的实际标记尺寸是确定的,再结合视觉传感器的内部参数及外部参数,包括焦距、投影中心坐标信息及畸变系数,根据小孔投影变换原理,将视觉传感器所识别图像中的尺寸信息与实际空间中的尺寸形成对应,从而得到图像与实际的转换关系。
根据转换关系和图像位置信息算得未确定坐标信息的基准标记相对已确定坐标信息的基准标记的实际位置信息。在获取转换关系后,即可根据转换关系将图像中未确定坐标信息的基准标记相对已确定坐标信息的基准标记的图像位置信息转换为实际位置信息。即在实际空间中,未确定坐标信息的基准标记相对已确定坐标信息的基准标记的相对坐标信息。
继而可根据三角定位原理,通过已确定坐标信息的基准标记和实际位置信息,获得未确定坐标信息的基准标记相对全局坐标系原点的坐标信息。
S105:重复步骤S103-S104,直至获取所有基准标记相对初始原点的坐标信息。
S106:根据所有基准标记的坐标信息构建标记地图。
根据上述原理获取到所有基准标记相对机器人全局坐标系的初始原点的坐标信息后,即可根据所有的坐标信息构建标记地图,该标记地图是基于运动区域中初始位置所构建的。
对于上述过程,可结合图5理解,图5是图1所示地图构建方法一实施例中所构建的标记地图的示意图。在图5所示的运动区域中,点O为初始位置,在初始位置O识别到基准标记m1和基准标记m2,获得基准标记m1和基准标记m2相对初始位置O的坐标信息,然后机器人运动到下一位置能够识别到基准标记m2和基准标记m3,在识别过程中,确定基准标记m3相对基准标记m2的实际位置信息,继而可根据基准标记m2的坐标信息和实际位置信息确定基准标记m3的坐标信息。根据该过程获得所有基准标记的坐标信息后,即可建立图5所示的标记地图。
在本实施例中,若所需建图的运动区域较大,还可根据视觉传感器视野范围将运动区域划分为多个局部区域,机器人完成一个局部区域的地图构建后,再对下一个局部区域进行地图构建,从而实现对整个运动区域的地图构建。
其中,每个局部区域与其相邻的局部区域有重叠,且重叠区域中至少有两个基准标记,在对重叠区域进行地图构建时,需要保证重叠区域内至少两个基准标记同时出现在机器人的视野中。具体可再次参阅图5,图5中运动区域分为3个局部区域,且相邻的局部区域有重叠部分,重叠区域中至少有两个基准标记。
本实施例中机器人通过视觉传感器对基准标记进行识别从而实现地图的构建,成本较低,且地图构建过程简单,所构建的标记地图能够用于实现机器人基于基准标记进行定位导航等。
在获得标记地图后,标记地图中存在所有基准标记的坐标信息,机器人根据所识别到的基准标记能够确定自己的位置,从而实现准确的定位导航。在定位过程中,机器人可根据单个基准标记进行定位,因而可以仅保留部分用于构建标记地图的所有基准标记。由于地图构建需要丰富的信息,因此需在运动区域设置较多的基准标记,而在定位导航时,只要机器人能够识别到一个基准标记即可实现定位,因此在运动区域内设置少量基准标记即可。
这也符合实际应用的情况,例如在仓库的应用中,当需要对仓库进行地图构建时,可在仓库中设置多个基准标记,而在机器人在仓库进行运输需要定位时,为避免影响仓库中存取操作,可仅设置少量基准标记。且此时所设置的少量基准标记需要与建图时所设置的基准标记对应,即A基准标记建图时位于A位置,在定位时A基准标记也必须位于A位置,而不能位于其他位置。
机器人的定位过程请参阅图6和图7,图6是本申请机器人在运动区域的定位方法一实施例的流程示意图,图7是图6所示定位方法一实施例中机器人在运动区域进行定位的示意图。本实施例定位方法包括以下步骤,以下对每个步骤进行描述时均结合了图7所示的情况,因此标号仅做示例,并不构成限定。
S201:机器人根据控制数据在运动区域内从初始位置运动到定位位置。
在本实施例中运动区域内设置有基准标记(m1,m2,m3,m4,m5),且机器人已获得运动区域关于所设置基准标记的标记地图,因此所有的基准标记的坐标信息也是已知的。本步骤中机器人从初始位置开始运动,初始位置可以是标记地图所对应的全局坐标系的初始原点,此时初始位置的坐标信息x0是已知的;也可以是机器人本身的初始位置,此时初始位置的坐标信息x0根据所识别到的基准标记确定。
本步骤S201中机器人根据控制数据u1从运动区域内的初始位置运动到定位位置,控制数据u1可以是根据预设的路径规划输入,也可以是预设的控制数据,其中所输入控制数据包含机器人平移量(Δx,Δy)和旋转角度Δθ。对于不同机器人来说,输入的控制数据也不同,对于轮滑移动式机器人,该输入的控制数据包括从初始位置运动到定位位置的移动坐标及旋转角度,对于人形机器人,该控制数据则包括机器人步态脚印的平移坐标量(Δx,Δy)和旋转角度Δθ,或者步态规划,步态规划即表示人形机器人一系列左右脚目标脚印坐标(Δx,Δy)及旋转角度Δθ。该控制输入可以为定位充当里程计信息。
由于本实施例中,需要通过基准标记来帮助机器人进行定位,因此在机器人运动到定位位置时,需保证其能够识别到至少一个基准标记。
S202:根据控制数据和初始位置坐标信息确定定位位置的控制估计坐标信息。
在初始位置坐标信息x0已知的情况下,即可根据控制数据u1=(Δx0,Δy0)和旋转角度Δθ,以及初始位置坐标信息x0即旋转角度θ0预测定位位置的坐标信息x1=(x0+Δx0,y0+Δy0)和旋转角度θ1=θ0+Δθ,此时所获得的坐标信息称为控制估计坐标信息(x1|u1),即当前预测的坐标估计值。由于根据控制数据所计算得到的坐标信息具有不确定性,因此还需进一步对该控制估计坐标信息进行修正,本实施例中即根据基准标记进行坐标信息修正。
S203:机器人在定位位置识别至少一基准标记,以获得观测数据。
以识别到一个基准标记的情况为例,机器人在定位位置x1识别基准标记m1,以获得观测数据z1。观测数据则包括基准标记的数量,基准标记的标识信息和该基准标记相对于摄像头的位姿信息。
S204:机器人根据观测数据和基准标记的坐标信息确定定位位置的观测估计坐标信息。
机器人根据观测数据z1和基准标记的坐标信息m1即可确定定位位置的观测估计坐标信息(x1|z1)。
S205:根据控制估计坐标信息和观测估计坐标信息确定定位位置的坐标信息。
最后结合控制估计坐标信息(x1|u1)和观测估计坐标信息(x1|z1)即可算得定位位置的坐标信息x1,坐标信息中包括坐标及方位角。
本实施例中上述过程S202-S205实现坐标信息x1的计算是基于贝叶斯算法,即考虑到每个参数的不确定性来进行递归计算。
具体来说,在步骤S202中,根据控制数据的不确定度P(x1|x0,u1)和初始位置坐标信息的不确定度P(x0|u0,z0)获得所述定位位置的控制估计坐标信息的控制不确定度P(x1|u1,z0)。
控制不确定度通过以下公式计算得到:
P(x1|u1,z0)=∫P(x1|x0,u1)×P(x0|u0,z0)dx0
初始位置坐标信息可以是标记地图全局坐标系的原点位置,因而是确定的,此时该初始位置坐标信息的不确定度P(x0|u1,z0)可以是一预设值。若初始位置坐标信息根据基准标记的识别获得,此时初始位置坐标信息的不确定度即在进行基准标记识别时的观测数据不确定度,观测数据的不确定度可以基于高斯分布来确定。
机器人在定位位置识别基准标记时,也同时根据观测数据不确定性的模型,例如观测数据的分布来确定观测数据的不确定度P(z1|x1,m)。若识别到一个基准标记,则根据一维高斯正态分布来确定观测数据的不确定度,若观测到多个基准标记,则根据二维高斯正态分布来确定观测数据的不确定度。根据该观测数据的不确定度即可获得观测估计坐标信息的观测不确定度。
控制不确定度所表示的是根据控制数据得到的控制估计坐标信息的可信度,若该不确定度越大,则可信度越小,该控制数据不确定度由机器人步态控制模型的精度决定;同样观测不确定度表示根据观测数据得到的观测估计坐标信息的可信度,若越大,则可信度越小,该观测数据不确定度则是由观测模型的精度,即传感器精度及环境复杂性决定;因此根据不确定度可以获得控制估计坐标信息和观测估计坐标信息分别对定位位置的坐标信息的影响比例,若控制估计坐标信息不确定度越大,则可信度越小,最终得到的坐标信息中控制估计坐标信息的影响比例越小;同理推断若控制估计坐标信息不确定度越小,则影响比例越大。
根据该原理获得控制估计坐标信息和观测估计坐标信息分别对定位位置的坐标信息的影响比例,继而根据该影响比例算得定位位置的坐标信息。
在确定一定位位置x1的坐标信息后,继续控制机器人移动到下一定位位置x2,以确定下一定位位置x2的坐标信息。因此在进行上述计算时,通过贝叶斯法则,利用上一时刻的控制数据以及上一时刻观测到的基准标记信息,获得该状态的后验条件概率,以获得定位位置估计值x1坐标信息及旋转角度θ1的不确定度。
在上述该过程中为提高定位精度,即坐标信息的准确度,还可设定移动到下一位置时可识别到上一位置的基准标记,以根据上一位置对基准标记的观测情况来确定下一位置对该基准标记的观测情况。即在定位位置x1观测到基准标记m2,在下一定位位置x2也可观测到基准标记m2。此时整个不确定度的计算过程如下。
定位位置x1的不确定度为:P(x1,m2|u1,z1)
根据控制数据u2运动到定位位置x2的控制估计坐标信息不确定度为:
P(x2,m2|u2,z1)=∫P(x2|x1,u2)×P(x1,m2|u1,z1)dx1
根据观测数据z2的不确定度来确定观测估计坐标信息的不确定度,包括:
P(z2|x2,m2)以及P(z2|z1,u2)
然后对控制不确定度和观测不确定度进行计算,以获得定位状态x2坐标信息及旋转角度θ2的不确定度
Figure BDA0001591226670000131
根据以上原理,可实现机器人在整个运动区域内的定位。机器人还可结合上述地图构建和定位方法,实现同步定位和地图构建。即当机器人运动到一个陌生的区域内时,可同时根据设置好的基准标记进行同步的定位及地图构建。具体可请参阅图8,图8是本申请机器人在运动区域的同步定位和地图构建的方法一实施例的流程示意图。本实施例方法包括以下步骤。
S301:机器人在运动区域内于初始位置处识别至少两个基准标记。
S302:将初始位置作为机器人全局坐标系的初始原点,获得至少两个基准标记相对初始原点的坐标信息,并根据基准标记的坐标信息生成标记地图。
本实施例中所构建的标记地图是基于机器人全局坐标系的初始原点。在由机器人进行同时定位和地图构建时,以机器人运动的初始位置作为机器人全局坐标系的初始原点,所构建地图的初始原点。
S303:机器人根据控制数据从初始位置运动到定位位置,在定位位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记。
S304:根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对初始原点的坐标信息,并根据获得的坐标信息更新标记地图。
本实施例中首先根据上述地图构建实施例中的原理进行标记地图的更新,然后再基于所更新的标记地图进行定位,具体由以下步骤实现。
S305:根据控制数据和初始位置确定定位位置的控制估计坐标信息。
S306:机器人在定位位置观测基准标记以获得观测数据。
S307:根据观测数据和基准标记的坐标信息确定定位位置的观测估计坐标信息。
S308:根据控制估计坐标信息和观测估计坐标信息确定定位位置的坐标信息。
本实施例的步骤与上述实施例中的步骤类似,具体不再赘述,此外上述定位过程的步骤S305-S308中在定位位置所识别的基准标记即地图过程的步骤S301-S304中确定坐标信息的基准标记。本实施例可实现根据基准标记同时进行定位和地图构建。
上述方法均可应用于机器人中,方法的逻辑过程通过计算机程序来表示,具体通过机器人的硬件设备实现。因此本申请还提供一种机器人,请参阅图9,图9是本申请机器人一实施例的结构示意图。本实施例机器人100包括处理器11,存储器12。存储器12存储计算机程序,处理器11执行该计算机程序以实现上述方法。机器人100还可进一步包括视觉传感器13,通过视觉传感器13识别基准标记。本实施例机器人可基于基准标记的识别实现定位和地图构建。
对于计算机程序,以软件形式实现并作为独立的产品销售或使用时,可存储在一个电子设备可读取存储介质中,即,本发明还提供一种计算机存储介质,其中存储有计算机程序,计算机程序能够被处理器执行时实现上述方法的步骤。请参阅图10,图10是本申请计算机存储介质一实施例的结构示意图,计算机存储介质200可以为如U盘、光盘、服务器等。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种机器人在运动区域的同步定位和地图构建的方法,其特征在于,所述运动区域内设置有多个基准标记;
所述方法包括:
所述机器人在所述运动区域内于初始位置处识别至少两个基准标记;
将所述初始位置作为机器人全局坐标系的初始原点,获得所述至少两个基准标记相对所述初始原点的坐标信息,并根据所述基准标记的坐标信息生成标记地图;
所述机器人根据控制数据从所述初始位置运动到定位位置,在所述定位位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记;
根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对所述初始原点的坐标信息,并根据获得的坐标信息更新所述标记地图;
根据所述控制数据和所述初始位置坐标信息确定所述定位位置的控制估计坐标信息;
机器人在所述定位位置观测基准标记以获得观测数据;
根据所述观测数据和所述基准标记的坐标信息确定所述定位位置的观测估计坐标信息;
根据所述控制估计坐标信息和所述观测估计坐标信息确定所述定位位置的坐标信息。
2.根据权利要求1所述的方法,其特征在于,所述机器人上设置有视觉传感器;
所述机器人在所述运动区域内于初始位置处识别至少两个基准标记,包括:
所述机器人在所述运动区域通过所述视觉传感器识别至少两个基准标记,获取所述至少两个基准标记相对所述视觉传感器的位姿信息;
根据所述位姿信息获得所述基准标记相对所述初始原点的坐标信息。
3.根据权利要求2所述的方法,其特征在于,所述基准标记为方形;所述获取所述至少两个基准标记相对所述视觉传感器的位姿信息的步骤包括:
识别所述至少两个基准标记的四个顶点以确定所述基准标记的中心点;
获取所述基准标记的中心点相对所述视觉传感器的位姿信息,以作为所述基准标记相对所述视觉传感器的位姿信息。
4.根据权利要求1所述的方法,其特征在于,所述在所述定位位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记的步骤包括:
获取所述至少一已确定坐标信息的基准标记的图像标记尺寸,以及所述至少一未确定坐标信息的基准标记相对所述至少一已确定坐标信息的基准标记的图像位置信息;
比较所述至少一已确定坐标信息的基准标记的图像标记尺寸和实际标记尺寸,获得图像与实际的转换关系;
根据所述转换关系和所述图像位置信息算得所述至少一未确定坐标信息的基准标记相对所述至少一已确定坐标信息的基准标记的实际位置信息;
所述根据已确定坐标信息的基准标记获得未确定坐标信息的基准标记相对所述初始原点的坐标信息的步骤包括:
根据所述已确定坐标信息的基准标记和所述实际位置信息,获得所述未确定坐标信息的基准标记相对所述初始原点的坐标信息。
5.根据权利要求1所述的方法,其特征在于,所述机器人在所述运动区域识别至少两个基准标记的步骤,或者所述机器人运动到定位位置,在所述定位位置识别至少一已确定坐标信息的基准标记和至少一未确定坐标信息的基准标记的步骤包括:
对拍摄到的所述基准标记进行二值化处理,以获得二值化图像;
对所述二值化图像进行网格化,以将所述二值化图像划分成多个网格区域;
按照每个网格区域的二值化数值进行编码,以作为所述基准标记所对应的标识信息。
6.根据权利要求1所述的方法,其特征在于,所述运动区域包括多个局部区域,其中,相邻所述局部区域相互重叠,重叠区域内至少包括两个基准标记;所述方法进一步包括:
依次构建所述多个局部区域的标记地图;
根据所述多个局部区域的标记地图构建所述运动区域的标记地图。
CN201810189296.4A 2018-03-08 2018-03-08 机器人在运动区域的地图构建及定位方法 Active CN110243360B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810189296.4A CN110243360B (zh) 2018-03-08 2018-03-08 机器人在运动区域的地图构建及定位方法
US16/236,364 US11067997B2 (en) 2018-03-08 2018-12-29 Simultaneous localization and mapping methods of mobile robot in motion area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810189296.4A CN110243360B (zh) 2018-03-08 2018-03-08 机器人在运动区域的地图构建及定位方法

Publications (2)

Publication Number Publication Date
CN110243360A CN110243360A (zh) 2019-09-17
CN110243360B true CN110243360B (zh) 2022-02-22

Family

ID=67843319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810189296.4A Active CN110243360B (zh) 2018-03-08 2018-03-08 机器人在运动区域的地图构建及定位方法

Country Status (2)

Country Link
US (1) US11067997B2 (zh)
CN (1) CN110243360B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3299922B1 (en) * 2015-05-22 2022-09-07 FUJIFILM Corporation Robot device and movement control method for robot device
US20200349737A1 (en) * 2019-05-03 2020-11-05 Fanuc America Corporation Multi-target calibration and augmentation
US10614635B1 (en) * 2019-07-25 2020-04-07 Capital One Services, Llc Augmented reality system with color-based fiducial marker
CN110827361B (zh) * 2019-11-01 2023-06-23 清华大学 基于全局标定架的相机组标定方法及装置
CN111028658A (zh) * 2019-11-18 2020-04-17 杭州晶一智能科技有限公司 一种基于gps和在线地图的割草机器人电子地图构建方法
CN113110408B (zh) * 2019-12-25 2023-09-29 北京极智嘉科技股份有限公司 机器人定位系统及方法、机器人、计算机可读存储介质
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11037328B1 (en) * 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11511885B2 (en) * 2020-03-13 2022-11-29 Wing Aviation Llc Adhoc geo-fiducial mats for landing UAVs
CN113435227B (zh) * 2020-03-23 2023-04-07 阿里巴巴集团控股有限公司 地图生成及车辆定位方法、系统、设备及存储介质
CN111461023B (zh) * 2020-04-02 2023-04-18 山东大学 基于三维激光雷达的四足机器人自主跟随领航员的方法
US11560192B2 (en) * 2020-04-24 2023-01-24 Ubtech Robotics Corp Ltd Stair climbing gait planning method and apparatus and robot using the same
CN111784775B (zh) * 2020-07-13 2021-05-04 中国人民解放军军事科学院国防科技创新研究院 一种标识辅助的视觉惯性增强现实注册方法
CN111739088B (zh) * 2020-07-21 2020-12-04 上海思岚科技有限公司 基于视觉标签的定位方法及设备
CN112022025A (zh) * 2020-08-14 2020-12-04 深圳市大象机器人科技有限公司 一种基于视觉定位的机器人自动回冲方法及系统
CN112052847B (zh) * 2020-08-17 2024-03-26 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
US11302036B2 (en) 2020-08-19 2022-04-12 Capital One Services, Llc Color conversion between color spaces using reduced dimension embeddings
CN112146662B (zh) * 2020-09-29 2022-06-10 炬星科技(深圳)有限公司 一种引导建图方法、设备及计算机可读存储介质
US11417015B2 (en) 2020-10-20 2022-08-16 Ford Global Technologies, Llc Decentralized location determination systems and methods
CN112091984B (zh) * 2020-11-17 2021-04-20 深圳市优必选科技股份有限公司 双足机器人的步态纠偏方法、装置和计算机设备
CN112434120A (zh) * 2020-11-18 2021-03-02 北京京东乾石科技有限公司 一种位置标记方法、设备和计算机可读存储介质
CN112364677A (zh) * 2020-11-23 2021-02-12 盛视科技股份有限公司 基于二维码的机器人视觉定位方法
CN112685527A (zh) * 2020-12-31 2021-04-20 北京迈格威科技有限公司 建立地图的方法、装置和电子系统
CN112964276B (zh) * 2021-02-09 2022-08-05 中国科学院深圳先进技术研究院 一种基于激光和视觉融合的在线标定方法
CN112985374B (zh) * 2021-02-09 2023-04-21 北京天玛智控科技股份有限公司 定位方法、定位组件和定位系统
CN113160075A (zh) * 2021-03-30 2021-07-23 武汉数字化设计与制造创新中心有限公司 Apriltag视觉定位的加工方法、系统、爬壁机器人及存储介质
CN113091736B (zh) * 2021-04-02 2023-04-07 京东科技信息技术有限公司 机器人定位方法、装置、机器人及存储介质
CN113172635A (zh) * 2021-06-09 2021-07-27 乐聚(深圳)机器人技术有限公司 双足机器人行走控制方法、装置、设备及存储介质
US20230072471A1 (en) * 2021-08-04 2023-03-09 Tata Consultancy Services Limited Method and system of dynamic localization of a telepresence robot based on live markers
CN113781550A (zh) * 2021-08-10 2021-12-10 国网河北省电力有限公司保定供电分公司 一种四足机器人定位方法与系统
CN114019953B (zh) * 2021-10-08 2024-03-19 中移(杭州)信息技术有限公司 地图构建方法、装置、设备及存储介质
WO2024016101A1 (en) 2022-07-18 2024-01-25 Intelligent Cleaning Equipment Holdings Co., Ltd. Systems and methods for robotic navigation, teaching and mapping

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105277190A (zh) * 2014-06-30 2016-01-27 现代自动车株式会社 用于车辆自定位的装置和方法
CN105973236A (zh) * 2016-04-26 2016-09-28 乐视控股(北京)有限公司 室内定位或导航方法、装置以及地图数据库生成方法
CN106003052A (zh) * 2016-07-29 2016-10-12 哈尔滨工大服务机器人有限公司 一种机器人视觉导航地图的创建方法
CN106372683A (zh) * 2016-08-24 2017-02-01 潘重光 地图生成系统及方法
CN106989746A (zh) * 2017-03-27 2017-07-28 远形时空科技(北京)有限公司 导航方法及导航装置
JP2017142829A (ja) * 2017-03-28 2017-08-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 深度マップを生成するための方法、装置およびプログラム
CN107167144A (zh) * 2017-07-07 2017-09-15 武汉科技大学 一种基于视觉的移动机器人室内环境识别定位方法
CN107180215A (zh) * 2017-05-31 2017-09-19 同济大学 基于库位和二维码的停车场自动建图与高精度定位方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4300199B2 (ja) * 2005-06-13 2009-07-22 株式会社東芝 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
US10380469B2 (en) * 2012-07-18 2019-08-13 The Boeing Company Method for tracking a device in a landmark-based reference system
CN108489486B (zh) * 2015-06-01 2021-07-02 北京极智嘉科技股份有限公司 二维码以及用于机器人的视觉-惯性组合导航系统及方法
US9758305B2 (en) * 2015-07-31 2017-09-12 Locus Robotics Corp. Robotic navigation utilizing semantic mapping

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105277190A (zh) * 2014-06-30 2016-01-27 现代自动车株式会社 用于车辆自定位的装置和方法
CN105973236A (zh) * 2016-04-26 2016-09-28 乐视控股(北京)有限公司 室内定位或导航方法、装置以及地图数据库生成方法
CN106003052A (zh) * 2016-07-29 2016-10-12 哈尔滨工大服务机器人有限公司 一种机器人视觉导航地图的创建方法
CN106372683A (zh) * 2016-08-24 2017-02-01 潘重光 地图生成系统及方法
CN106989746A (zh) * 2017-03-27 2017-07-28 远形时空科技(北京)有限公司 导航方法及导航装置
JP2017142829A (ja) * 2017-03-28 2017-08-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 深度マップを生成するための方法、装置およびプログラム
CN107180215A (zh) * 2017-05-31 2017-09-19 同济大学 基于库位和二维码的停车场自动建图与高精度定位方法
CN107167144A (zh) * 2017-07-07 2017-09-15 武汉科技大学 一种基于视觉的移动机器人室内环境识别定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Navigation system based on machine vision of multiple reference markers;Su Xiaopeng,etc;《LIDAR IMAGING DETECTION AND TARGET RECOGNITION》;20171231;第10605卷;第1-10页 *
移动机器人同步定位与地图构建关键技术的研究;曲丽萍;《中国博士学位论文全文数据库信息科技辑》;20140430;I140-31 *

Also Published As

Publication number Publication date
US11067997B2 (en) 2021-07-20
US20190278288A1 (en) 2019-09-12
CN110243360A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110243360B (zh) 机器人在运动区域的地图构建及定位方法
Wangsiripitak et al. Avoiding moving outliers in visual SLAM by tracking moving objects
Aider et al. A model-based method for indoor mobile robot localization using monocular vision and straight-line correspondences
Talluri et al. Position estimation techniques for an autonomous mobile robot–a review
CN111964680B (zh) 一种巡检机器人的实时定位方法
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
Iocchi et al. Self-localization in the RoboCup environment
CN113485350A (zh) 一种机器人移动控制方法、装置、设备及存储介质
CN110728684B (zh) 地图构建方法、装置、存储介质及电子设备
EP3088983B1 (en) Moving object controller and program
Zhou et al. Information-efficient 3-D visual SLAM for unstructured domains
Pauls et al. Automatic mapping of tailored landmark representations for automated driving and map learning
Davis et al. Reflective fiducials for localization with 3D light detection and ranging scanners
Cupec et al. Global localization based on 3d planar surface segments
CN115661252A (zh) 一种实时位姿估计方法、装置、电子设备以及存储介质
Aggarwal Machine vision based SelfPosition estimation of mobile robots
Chang et al. Robust accurate LiDAR-GNSS/IMU self-calibration based on iterative refinement
Li et al. A single-shot pose estimation approach for a 2D laser rangefinder
Feng Camera Marker Networks for Pose Estimation and Scene Understanding in Construction Automation and Robotics.
Kawanishi et al. Three-dimensional environment model construction from an omnidirectional image sequence
Comport et al. Efficient model-based tracking for robot vision
Hu et al. Accurate fiducial mapping for pose estimation using manifold optimization
Axmann et al. Maximum Consensus Localization Using an Objective Function Based on Helmert's Point Error
Zhang et al. Robot localization under perceptual aliasing conditions based on laser reflectivity using particle filter
CN110703773B (zh) 一种使用圆和编码光源作为标识物进行agv定位的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 22nd floor, building C1, Nanshan wisdom Park, 1001 Xueyuan Avenue, Nanshan District, Shenzhen, Guangdong 518000

Patentee after: Shenzhen Youbixuan Technology Co.,Ltd.

Address before: 22nd floor, building C1, Nanshan wisdom Park, 1001 Xueyuan Avenue, Nanshan District, Shenzhen, Guangdong 518000

Patentee before: Shenzhen Youbixuan Technology Co.,Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20231213

Address after: Room 601, 6th Floor, Building 13, No. 3 Jinghai Fifth Road, Beijing Economic and Technological Development Zone (Tongzhou), Tongzhou District, Beijing, 100176

Patentee after: Beijing Youbixuan Intelligent Robot Co.,Ltd.

Address before: 22nd floor, building C1, Nanshan wisdom Park, 1001 Xueyuan Avenue, Nanshan District, Shenzhen, Guangdong 518000

Patentee before: Shenzhen Youbixuan Technology Co.,Ltd.

TR01 Transfer of patent right