CN110377015B - 机器人定位方法和机器人定位装置 - Google Patents

机器人定位方法和机器人定位装置 Download PDF

Info

Publication number
CN110377015B
CN110377015B CN201810330896.8A CN201810330896A CN110377015B CN 110377015 B CN110377015 B CN 110377015B CN 201810330896 A CN201810330896 A CN 201810330896A CN 110377015 B CN110377015 B CN 110377015B
Authority
CN
China
Prior art keywords
image
coordinate system
image collector
preset coordinate
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810330896.8A
Other languages
English (en)
Other versions
CN110377015A (zh
Inventor
郝立良
申浩
程保山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201810330896.8A priority Critical patent/CN110377015B/zh
Priority to PCT/CN2018/121180 priority patent/WO2019196478A1/zh
Publication of CN110377015A publication Critical patent/CN110377015A/zh
Application granted granted Critical
Publication of CN110377015B publication Critical patent/CN110377015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请提供机器人定位方法,所述机器人包括激光传感器和图像采集器,所述方法包括:通过所述图像采集器采集图像,从所述图像中提取特征点;在预先存储的特征点库中确定与所述特征点相匹配的目标特征点;根据预先存储的所述目标特征点在预设坐标系中的坐标,以及所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的映射关系,确定所述图像采集器在预设坐标系中的坐标。根据本发明的实施例,无需人工指示机器人的坐标,实现机器人完全自主的导航。

Description

机器人定位方法和机器人定位装置
技术领域
本申请涉及导航技术领域,具体而言,涉及机器人定位方法、机器人定 位装置和计算机可读存储介质以及机器人。
背景技术
目前通过激光进行机器人导航的方法,可以通过激光扫描机器人所处区域 的障碍物生成二维地图,机器人二维地图中障碍物的位置,可以确定行驶路线, 从而实现导航。
但是目前的机器人在启动时,虽然能够通过激光扫描确定周围的障碍物, 但是并不能够确定自身在坐标系中的位置,需要人工在机器人启动时指示机器 人在坐标系中的位置,进而机器人才能根据该位置在二维地图中进行路径规划 来实现导航。
发明内容
有鉴于此,本发明的实施例提供机器人定位方法、机器人定位装置和计算 机可读存储介质以及机器人。
根据本发明实施例的第一方面,提供一种机器人定位方法,所述机器人包 括激光传感器和图像采集器,所述方法包括:
通过所述图像采集器采集图像,从所述图像中提取特征点;
在预先存储的特征点库中确定与所述特征点相匹配的目标特征点;
根据预先存储的所述目标特征点在预设坐标系中的坐标,以及所述目标特 征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的映射关 系,确定所述图像采集器在预设坐标系中的坐标。
可选地,所述方法还包括:
在采集图像之前,确定所述激光传感器相对所述图像采集器的位置关系和 姿态关系;
确定所述激光传感器在预设坐标系中的第一坐标;
根据所述位置关系和所述姿态关系转换所述第一坐标,以得到所述图像采 集器在预设坐标系中的第二坐标;
通过所述图像采集器采集样本图像,从所述样本图像中提取多个样本特征 点;
根据所述样本特征点在所述样本图像中的深度信息、位置信息,以及所述 图像采集器采集所述样本图像时的角度信息,确定所述映射关系;
根据所述第二坐标和所述映射关系确定所述特征点在预设坐标系中的第三 坐标;
存储所述第三坐标和所述映射关系。
可选地,所述确定所述激光传感器相对所述图像采集器的位置关系和姿态 关系包括:
根据非线性优化算法确定所述激光传感器相对所述图像采集器的位置关系 和姿态关系。
可选地,所述根据所述样本特征点在所述样本图像中的深度信息、位置信 息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系 包括:
根据所述样本特征点在所述样本图像中的深度信息、位置信息、所述角度 信息和所述图像采集器的成像模型,确定所述映射关系。
可选地,所述通过所述图像采集器采集图像,从所述图像中提取特征点包 括:
在所述机器人启动时,通过所述图像采集器采集图像,从所述图像中提取 特征点。
可选地,所述方法还包括:
通过所述激光传感器扫描所述机器人所在的区域生成导航地图;
匹配所述导航地图和所述预设坐标系;
根据所述图像采集器在预设坐标系中的坐标,在匹配了预设坐标系的导航 地图中进行导航路径规划。
可选地,所述根据所述图像采集器在预设坐标系中的坐标,在匹配了预设 坐标系的导航地图中进行导航路径规划包括:
根据所述图像采集器在所述机器人上的位置,确定所述机器人的轮廓在所 述预设坐标系中的投影;
根据所述投影在匹配了预设坐标系的导航地图中进行导航路径规划。
根据本发明实施例的第二方面,提供一种机器人定位装置,所述机器人包 括激光传感器和图像采集器,所述装置包括:
特征点提取模块,用于通过所述图像采集器采集图像,从所述图像中提取 特征点;
特征点匹配模块,用于在预先存储的特征点库中确定与所述特征点相匹配 的目标特征点;
第一坐标确定模块,用于根据预先存储的所述目标特征点在预设坐标系中 的坐标,以及所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设 坐标系中的坐标的映射关系,确定所述图像采集器在预设坐标系中的坐标。
可选地,所述装置还包括:
关系确定模块,用于确定所述激光传感器相对所述图像采集器的位置关系 和姿态关系;
第二坐标确定模块,用于确定所述激光传感器在预设坐标系中的第一坐标;
坐标转换模块,用于根据所述位置关系和所述姿态关系转换所述第一坐标, 以得到所述图像采集器在预设坐标系中的第二坐标;
其中,所述特征点提取模块还用于通过所述图像采集器采集样本图像,从 所述样本图像中提取多个样本特征点;
映射确定模块,用于根据所述样本特征点在所述样本图像中的深度信息、 位置信息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映 射关系;
第三坐标确定模块,用于根据所述第二坐标和所述映射关系确定所述特征 点在预设坐标系中的第三坐标;
存储模块,用于存储所述特征点的坐标以及所述特征点的坐标和所述图像 采集器的坐标的关联关系。
可选地,所述关系确定模块用于根据非线性优化算法确定所述激光传感器 相对所述图像采集器的位置关系和姿态关系。
可选地,所述映射确定模块用于根据所述样本特征点在所述样本图像中的 深度信息、位置信息、所述角度信息和所述图像采集器的成像模型,确定所述 映射关系。
可选地,所述特征点提取模块用于在所述机器人启动时,通过所述图像采 集器采集图像,从所述图像中提取特征点。
可选地,所述机器人定位装置还包括:
地图生成模块,用于通过所述激光传感器扫描所述机器人所在的区域生成 导航地图;
地图匹配模块,用于匹配所述导航地图和所述预设坐标系;
路径规划模块,用于根据所述图像采集器在预设坐标系中的坐标,在匹配 了预设坐标系的导航地图中进行导航路径规划。
可选地,所述路径规划模块包括:
投影确定子模块1201,用于根据所述图像采集器在所述机器人上的位置, 确定所述机器人的轮廓在所述预设坐标系中的投影;
路径规划子模块1202,用于根据所述投影在匹配了预设坐标系的导航地图 中进行导航路径规划。
根据本发明实施例的第三方面,提供一种计算机可读存储介质,其上存储 有计算机程序,该程序被处理器执行时执行上述任一实施例所述的机器人定位 方法。
根据本发明实施例的第四方面,提供一种机器人,包括激光传感器和图像 采集器,还包括处理器,其中,所述处理器被配置为执行上述任一实施例所述 的机器人定位方法。
由上述实施例可知,本发明由于图像采集器设置在机器人上,在确定图像 采集器在预设坐标系中的坐标后,就可以确定机器人在预设坐标系中的坐标, 并且由于导航地图中标定了坐标,因此可以根据坐标进行运算,使得可以从图 像采集器在预设坐标系中的坐标为起点在导航地图中规划导航路径。从而无需 人工指示机器人的坐标,实现机器人完全自主的导航。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的, 并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明 的实施例,并与说明书一起用于解释本发明的原理。
图1是根据本发明的实施例示出的一种机器人定位方法的示意流程图。
图2是根据本发明的实施例示出的另一种机器人定位方法的示意流程图。
图3是根据本发明的实施例示出的一种确定激光传感器和图像采集器的位 置关系和姿态关系的示意流程图。
图4是根据本发明的实施例示出的一种根据所述样本特征点在所述样本图 像中的深度信息、位置信息,以及所述图像采集器采集所述样本图像时的角度 信息,确定所述映射关系的示意流程图。
图5是根据本发明的实施例示出的一种通过图像采集器采集图像,从图像 中提取特征点的示意流程图。
图6是根据本发明的实施例示出的又一种机器人定位方法的示意流程图。
图7是根据本发明的实施例示出的一种通过根据所述图像采集器在预设坐 标系中的坐标,在匹配了预设坐标系的导航地图中进行导航路径规划的示意流 程图。
图8是根据本发明的实施例示出机器人定位装置所在设备的一种硬件结构 示意图。
图9是根据本发明的实施例示出的一种机器人定位装置的示意框图。
图10是根据本发明的实施例示出的另一种机器人定位装置的示意框图。
图11是根据本发明的实施例示出的又一种机器人定位装置的示意框图。
图12是根据本发明的实施例示出的一种路径规划模块的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描 述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。 以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方 式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一 致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本 申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和 “该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解, 本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或 所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信 息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区 分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息, 类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语 “如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
图1是根据本发明的实施例示出的一种机器人定位方法的示意流程图。本 实施例所示的方法可以应用于机器人,所述机器人可以包括激光传感器和图像 采集器。
在一个实施例中,图像采集器可以是单目摄像头,也可以是双目摄像头, 图像采集器采集到的图像可以是深度图像,并且图像采集器可以旋转,例如可 以在预设平面内旋转360°,从而采集不同方向的图像。
在一个实施例中,激光传感器可以发射和接收激光,并且激光传感器可以 旋转,例如可以在预设平面内旋转360°,从而向其所朝向的方向发射激光。
在一个实施例中,激光传感器和图像采集器可以位于同一平面,也可以位 于不同平面。
如图1所示,所述机器人定位方法可包括以下步骤:
步骤S1,通过所述图像采集器采集图像,从所述图像中提取特征点。
在一个实施例中,通过图像采集器采集的图像可以是一张图像,也可以是 多张图像。在采集多张图像的情况下,具体采集的张数可以根据需要设置,并 且针对不同的图像,从图像中提取的特征点的数目可以相同也可以不同,具体 提取的数目可以根据需要设置,例如针对一张图像而言,提取的特征点的数目 可以大于或等于6个。
步骤S2,在预先存储的特征点库中确定与所述特征点相匹配的目标特征点。
在一个实施例中,可以预先存储特征点,例如预先生成由特征点构成的特 征点库,特征点库中存储有每个特征点在预设坐标系中的坐标。
在特征点库中还可以存储有特征点在预设坐标系中的坐标和图像采集器在 预设坐标系中的坐标的映射关系(例如包括位置关系、姿态关系,可以通过矩 阵来表示),当然,该映射关系也可以存储在特征点库以外的其他存储空间。
其中,在特征点库中还可以存储特征点的描述信息,例如特征点的粒度为 图像中的像素,那么描述信息可以包括作为特征点的像素周围若干个(例如8 个)像素的灰度值。描述信息还可以包括特征点的类别、特征点在图像中的位 置等信息。
针对所述特征点,可以确定特征点的描述信息,进而可以在预先存储的特 征点库中查询描述信息与所述特征点的描述信息相匹配的特征点,即为目标特 征点。
步骤S3,根据预先存储的所述目标特征点在预设坐标系中的坐标与所述图 像采集器在预设坐标系中的坐标的映射关系,确定所述图像采集器在预设坐标 系中的坐标;
在一个实施例中,由于在特征点库中可以存储有目标特征点在预设坐标系 中的坐标与图像采集器在预设坐标系中的坐标的映射关系,以及目标特征点在 预设坐标系中坐标,因此可以根据该映射关系对目标特征点在预设坐标系中的 坐标进行转换,从而推导出图像采集器在预设坐标系中的坐标。
在一个实施例中,由于图像采集器设置在机器人上,在确定图像采集器在 预设坐标系中的坐标后,就可以确定机器人在预设坐标系中的坐标。从而无需 人工指示机器人的坐标,便于实现机器人完全自主的导航。
图2是根据本发明的实施例示出的另一种机器人定位方法的示意流程图。 如图2所示,在图1所示实施例的基础上,所述机器人定位方法还可以包括以 下步骤:
步骤S4,在采集图像之前,确定所述激光传感器相对所述图像采集器的位 置关系和姿态关系。
在一个实施例中,位置关系可以是指图像采集器相对于激光传感器在预设 坐标系中沿x轴的偏移量、沿y轴的偏移量和沿z轴的偏移量,姿态关系可以 是指图像采集器采集图像的方向相对激光传感器发射方向的转角和仰角。
步骤S5,确定所述激光传感器在预设坐标系中的第一坐标,例如通过SLAM(Simultaneous Localization And Mapping,即时定位与地图构建)确定所述激光 传感器在预设坐标系中的第一坐标。
在一个实施例中,通过SLAM确定的坐标可以是二维坐标,若预设坐标系 为三维坐标,那么可以将二维坐标转换为三维坐标,其中z轴坐标为0。
步骤S6,根据所述位置关系和所述姿态关系转换所述第一坐标,以得到所 述图像采集器在预设坐标系中的第二坐标。
步骤S7,通过所述图像采集器采集样本图像,从所述样本图像中提取多个 样本特征点。
在一个实施例中,通过图像采集器可以采集多张样本图像,针对每张样本 图像可以分别提取一个或多个样本特征点,且针对每张样本图像提取的样本特 征点的数目可以相同也可以不同。
步骤S8,根据所述样本特征点在所述样本图像中的深度信息、位置信息, 以及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系。
在一个实施例中,通过图像采集器采集到的图像可以是深度图像,例如特 征点的粒度为像素,而深度图像包含针对每个像素的深度信息,根据深度信息 可以确定像素到图像采集器的距离,也即特征点到图像采集器的距离。
进而根据该距离和样本特征点在样本图像中的位置信息(例如样本特征点 在样本图像中对应第几行第几列的像素),以及图像采集器采集所述样本图像时 的角度信息,可以得到确定所述映射关系。
例如特征点在图像采集器所采集到的图像中对应中心点正上方100个像素, 其中,每个像素的长度可以是预先设定的,例如为L,那么100个像素的长度就 是100L。由于特征点到图像的中心,图像的中心到图像采集器,和图像采集器 到特征点可以构成直角三角形,从而可以以图像采集器到特征点的距离D为斜 边,以100L为一直角边,根据勾股定理得到另一直角边的长度,也即图像的中 心到图像采集器的距离d。
若图像采集器采集到包含该样本特征点的样本图像时所旋转的角度为α, 那么所述映射关系可以是:特征点位于图像采集器旋转α角度的方向上,且到 图像采集器的距离为d的平面,并位于该平面的中心正上方与该中心相距100L 的位置。该内容可以通过矩阵表示。
步骤S9,根据所述第二坐标和所述映射关系确定所述特征点在预设坐标系 中的第三坐标。
在一个实施例中,在的到映射关系之后,进一步可以根据映射关系对第二 坐标进行转换,即可确定特征点的第三坐标,例如映射关系通过矩阵来表示, 那么通过将第二坐标与矩阵做乘法即可得到第三坐标。
步骤S10,存储所述第三坐标和所述映射关系。
在一个实施例中,在得到特征点在预设坐标系中的坐标后,可以生成特征 点库,特征点库中针对每个特征点可以包含特征点在预设坐标系中的坐标,以 及特征点在预设坐标系中的坐标和图像采集器在预设坐标系中的第二坐标的映 射关系(例如可以通过矩阵表示)。
需要说明的是,上述步骤S4至S10可以是在对机器人导航之前预先执行的, 通过特征点库预先存储特征点在预设坐标系中的坐标和图像采集器在预设坐标 系中的坐标的映射关系,便于后续确定图像采集器在预设坐标系中的坐标时, 例如在执行步骤S1至S3时,可以在特征点库中确定与所述特征点相匹配的目 标特征点,并根据预先存储的映射关系对预先存储的特征点在预设坐标系中的 坐标进行转换,从而得到述图像采集器在预设坐标系中的坐标。
另外,由于激光传感器发射的激光容易受到环境(例如雾、霾)干扰,因 此仅根据激光传感器扫描的结果确定目标特征点在预设坐标系中的坐标精度较 低。而图像采集器采集的图像则相对不易受到环境的干扰,也即图像中的特征 点在预设坐标系中的坐标与图像采集器在预设坐标系中的坐标的映射关系是相 对准确的,本实施例的特征点库正是结合激光传感器扫描的结果和图像采集器 采集的图像得到的,因此可以通过在特征点库中进行匹配以相对精确地确定特 征点的坐标。
图3是根据本发明的实施例示出的一种确定所述激光传感器相对所述图像 采集器的位置关系和姿态关系的示意流程图。如图3所示,在图2所示实施例 的基础上,所述确定所述激光传感器相对所述图像采集器的位置关系和姿态关 系包括:
步骤S401,根据非线性优化算法确定所述激光传感器相对所述图像采集器 的位置关系和姿态关系。
在一个实施例中,激光传感器相对图像采集器的位置关系和姿态关系也可 以通过人工测量来确定,也可以通过非线性优化算法进行计算得到。
例如采用的非线性优化算法为最小二乘法,由于激光传感器和图像采集器 在机器人上的位置是固定的,因此激光传感器相对图像采集器的位置关系和姿 态关系也是固定的。
例如可以在空间中设置多个已知点,针对某个已知点,可以通过激光传感 器向该已知点发射激光以及接收反射的激光,进而确定该已知点相对激光传感 器的位置关系和姿态关系(例如通过矩阵A表示,而激光传感器的空间坐标表 示为矩阵P),相应地,可以通过图像采集器采集该点的图像,进而确定该已知 点相对图像采集器的位置关系和姿态关系(例如通过矩阵B表示,而激光传感 器的空间坐标表示为矩阵Q),那么可以得到P〃A=Q〃B,从而激光传感器相 对图像采集器的位置关系和姿态关系即可通过矩阵A到矩阵B的转换矩阵C表 示,例如P=Q〃C。
进而针对多个已知点,可以分别测得P、Q和C,针对多组P、Q和C可以 应用最小二乘法计算得到相对准确的Q来表示激光传感器相对图像采集器的位 置关系和姿态关系。由于非线性优化算法可以通过软件执行,相对于人工测量 可以更加准确地确定所述激光传感器相对所述图像采集器的位置关系和姿态关 系。
图4是根据本发明的实施例示出的一种根据所述样本特征点在所述样本图 像中的深度信息、位置信息,以及所述图像采集器采集所述样本图像时的角度 信息,确定所述映射关系的示意流程图。如图4所示,在图2所示实施例的基 础上,所述根据所述样本特征点在所述样本图像中的深度信息、位置信息,以 及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系包括:
步骤S801,根据所述样本特征点在所述样本图像中的深度信息、位置信息、 所述角度信息和所述图像采集器的针孔成像模型,确定所述映射关系。
在一个实施例中,由于图像采集器的成像模型不同,例如图像采集器为针 孔摄像机,那么成像模型为针孔模型,例如图像采集器为鱼眼相机,那么成像 模型为鱼眼模型,不同成像模型中映射关系与样本特征点在所述样本图像中的 深度信息、位置信息、所述角度信息的对应关系有所不同。因此在确定特征点 的坐标时,通过考虑图像采集器的成像模型,有利于更加准确地确定特征点的 坐标。
在一个实施例中,以针孔模型为例,模型可以通过如下关系式表示:
Figure RE-GDA0001669391210000011
s·m'=A[R|t]·M';
其中m’为特征点的uv坐标,A为相机内参,[R|t]为相机与预设坐标系(例 如世界坐标系)中的坐标系关系,M’为特征点与世界坐标系关系,s为物体在相 机坐标系中的z坐标,这里提到的相机内参是指仅由相机本身决定的参数,也 就是对某一相机一旦这个值算好就不用再次进行计算。
图5是根据本发明的实施例示出的一种通过所述图像采集器采集图像,从 所述图像中提取特征点的示意流程图。如图5所示,在图1所示实施例的基础 上,通过所述图像采集器采集图像,从所述图像中提取特征点包括:
步骤S101,在所述机器人启动时,通过所述图像采集器采集图像,从所述 图像中提取特征点。
在一个实施例中,可以在机器人启动时,就执行步骤S1,也即在机器人启 动时通过所述图像采集器采集图像,从所述图像中提取特征点。据此,可以保 证只要机器人启动后,就能确定自身在预设坐标系中的坐标,进而完成自主的 导航。
图6是根据本发明的实施例示出的又一种机器人定位方法的示意流程图。 如图6所示,在图1所示实施例的基础上,所述机器人定位方法还可以包括:
步骤S11,通过所述激光传感器扫描所述机器人所在的区域生成导航地图;
在一个实施例中,通过激光传感器扫描机器人所在的区域生成的导航地图 可以是二维地图,其中,激光传感器可以扫描机器人所在区域到机器人的距离 在预设距离范围内的障碍物,根据障碍物反射的激光可以确定障碍物在该区域 内的位置,进而根据障碍物的位置生成的导航地图,例如通过SLAM来生成导 航地图。
步骤S12,匹配所述导航地图和所述预设坐标系。
在一个实施例中,若导航地图为二维地图,而预设坐标系为三维坐标系, 那么可以仅将三维坐标系中的两个维度匹配至导航地图。例如二维地图为平行 于水平面的地图,三维坐标系中x轴和y轴为平行于水平面的坐标轴,那么可 以将三维坐标系中的x轴和y轴匹配于导航地图,从而在导航地图中可以标定 出x轴坐标和y轴坐标。
步骤S13,根据所述图像采集器在预设坐标系中的坐标,在匹配了预设坐标 系的导航地图中进行导航路径规划。
在一个实施例中,由于图像采集器设置在机器人上,在确定图像采集器在 预设坐标系中的坐标后,就可以确定机器人在预设坐标系中的坐标,并且由于 导航地图中标定了坐标,因此可以根据坐标进行运算,使得可以从图像采集器 在预设坐标系中的坐标为起点在导航地图中规划导航路径。从而无需人工指示 机器人的坐标,实现机器人完全自主的导航。
其中,可以根据amcl(adaptive Monte Carlo Localization,自适应蒙特卡洛 定位)定位算法,costmap(代价地图)和路径规划算法进行导航路径规划。
图7是根据本发明的实施例示出的一种通过根据所述图像采集器在预设坐 标系中的坐标,在匹配了预设坐标系的导航地图中进行导航路径规划的示意流 程图。如图7所示,在图6所示实施例的基础上,所述根据所述图像采集器在 预设坐标系中的坐标,在匹配了预设坐标系的导航地图中进行导航路径规划包 括:
步骤S1301,根据所述图像采集器在所述机器人上的位置,确定所述机器人 的轮廓在所述预设坐标系中的投影;
步骤S1302,根据所述投影在匹配了预设坐标系的导航地图中进行导航路径 规划。
在一个实施例中,由于机器人存在一定体积,为了避免机器人在运动过程 中碰撞障碍物而出现被阻挡或失去平衡等问题,根据图像采集器在机器人上的 位置,可以确定机器人的轮廓在预设坐标系中的投影,从而可以根据投影在匹 配了预设坐标系的导航地图中进行导航路径规划,确保机器人不会接触到路径 中的障碍物,保证机器人平稳且顺利地运动。并且根据机器人的投影,还可以 确定机器人在预设坐标系中的朝向,便于规划导航路径。
与前述机器人定位方法的实施例相对应,本申请还提供了机器人定位装置 的实施例。
本申请机器人定位装置的实施例可以应用在机器人等设备上。装置实施例 可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现 为例,作为一个逻辑意义上的装置,是通过其所在设备的处理器将非易失性存 储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如 图8所示,为本申请机器人定位装置所在设备的一种硬件结构示意图,除了图8 所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所 在的设备通常根据该设备的实际功能,还可以包括其他硬件,对此不再赘述。
图9是根据本发明的实施例示出的一种机器人定位装置的示意框图。所述 机器人包括激光传感器和图像采集器,如图9所示,所述机器人定位装置包括:
特征点提取模块1,用于通过所述图像采集器采集图像,从所述图像中提取 特征点;
特征点匹配模块2,用于在预先存储的特征点中确定与所述特征点相匹配的 目标特征点;
第一坐标确定模块3,用于根据预先存储的所述目标特征点在预设坐标系的 坐标,以及所述目标特征点的在预设坐标系坐标与所述图像采集器在预设坐标 系的坐标的映射关系,确定所述图像采集器在预设坐标系中的坐标。
图10是根据本发明的实施例示出的另一种机器人定位装置的示意框图。如 图10所示,在图9所示实施例的基础上,所述机器人定位装置还包括:
关系确定模块4,用于确定所述激光传感器相对所述图像采集器的位置关系 和姿态关系;
第二坐标确定模块5,用于确定所述激光传感器在预设坐标系中的第一坐标;
坐标转换模块6,用于根据所述位置关系和所述姿态关系转换所述第一坐标, 以得到所述图像采集器在预设坐标系中的第二坐标;
其中,所述特征点提取模块1还用于通过所述图像采集器采集样本图像, 从所述样本图像中提取多个样本特征点;
映射确定模块7,用于根据所述样本特征点在所述样本图像中的深度信息、 位置信息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映 射关系;
第三坐标确定模块8,用于根据所述第二坐标和所述映射关系确定所述特征 点在预设坐标系中的第三坐标;
存储模块9,用于存储所述特征点的坐标以及所述特征点的坐标和所述图像 采集器的坐标的关联关系。
在一个实施例中,所述关系确定模块用于根据非线性优化算法确定所述激 光传感器相对所述图像采集器的位置关系和姿态关系。
在一个实施例中,所述映射确定模块用于根据所述样本特征点在所述样本 图像中的深度信息、位置信息、所述角度信息和所述图像采集器的成像模型, 确定所述映射关系。
在一个实施例中,所述特征点提取模块用于在所述机器人启动时,通过所 述图像采集器采集图像,从所述图像中提取特征点。
图11是根据本发明的实施例示出的又一种机器人定位装置的示意框图。如 图11所示,在图9所示实施例的基础上,所述机器人定位装置还包括:
地图生成模块10,用于通过所述激光传感器扫描所述机器人所在的区域生 成导航地图;
地图匹配模块11,用于匹配所述导航地图和所述预设坐标系;
路径规划模块12,用于根据所述图像采集器在预设坐标系中的坐标,在匹 配了预设坐标系的导航地图中进行导航路径规划。
图12是根据本发明的实施例示出的一种路径规划模块的示意框图。如图10 所示,在图11所示实施例的基础上,所述路径规划模块12包括:
投影确定子模块1201,用于根据所述图像采集器在所述机器人上的位置, 确定所述机器人的轮廓在所述预设坐标系中的投影;
路径规划子模块1202,用于根据所述投影在匹配了预设坐标系的导航地图 中进行导航路径规划。
本发明的实施例还提出一种计算机可读存储介质,其上存储有计算机程序, 该程序被处理器执行时执行上述任一实施例所述的机器人定位方法。
本发明的实施例还提出一种机器人,包括激光传感器和图像采集器,还包 括处理器,其中,所述处理器被配置为执行上述任一实施例所述的机器人定位 方法。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步 骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见 方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元 显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可 以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块 来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下, 即可以理解并实施。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申 请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申 请保护的范围之内。

Claims (9)

1.一种机器人定位方法,其特征在于,所述机器人包括激光传感器和图像采集器,所述方法包括:
通过所述图像采集器采集图像,从所述图像中提取特征点以及所述特征点的第一描述信息;
根据所述第一描述信息以及预先存储的目标特征点的第二描述信息,在预先存储的特征点库中确定与所述特征点相匹配的目标特征点,所述描述信息包括:特征点的像素周围若干个像素的灰度值、特征点的类别以及特征点在图像中的位置;
根据预先存储的所述目标特征点在预设坐标系中的坐标,以及所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的映射关系,确定所述图像采集器在预设坐标系中的坐标,所述映射关系包括所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的位置关系以及姿态关系;
其中,所述方法还包括:
在采集图像之前,确定所述激光传感器相对所述图像采集器的位置关系和姿态关系;
确定所述激光传感器在预设坐标系中的第一坐标;
根据所述激光传感器相对所述图像采集器的位置关系和姿态关系,转换所述第一坐标,以得到所述图像采集器在预设坐标系中的第二坐标;
通过所述图像采集器采集样本图像,从所述样本图像中提取多个样本特征点以及所述样本特征点的描述信息;
根据所述样本特征点在所述样本图像中的深度信息、位置信息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系;
根据所述第二坐标和所述映射关系确定所述样本特征点在预设坐标系中的第三坐标;
存储所述第三坐标、所述映射关系以及所述样本特征点的描述信息。
2.根据权利要求1所述的方法,其特征在于,所述确定所述激光传感器相对所述图像采集器的位置关系和姿态关系包括:
根据非线性优化算法确定所述激光传感器相对所述图像采集器的位置关系和姿态关系。
3.根据权利要求1所述的方法,其特征在于,所述根据所述样本特征点在所述样本图像中的深度信息、位置信息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系包括:
根据所述样本特征点在所述样本图像中的深度信息、位置信息、所述角度信息和所述图像采集器的成像模型,确定所述映射关系。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述通过所述图像采集器采集图像,从所述图像中提取特征点以及所述特征点的第一描述信息包括:
在所述机器人启动时,通过所述图像采集器采集图像,从所述图像中提取特征点以及所述特征点的第一描述信息。
5.根据权利要求1至3中任一项所述的方法,其特征在于,还包括:
通过所述激光传感器扫描所述机器人所在的区域生成导航地图;
匹配所述导航地图和所述预设坐标系;
根据所述图像采集器在预设坐标系中的坐标,在匹配了预设坐标系的导航地图中进行导航路径规划。
6.根据权利要求5所述的方法,其特征在于,所述根据所述图像采集器在预设坐标系中的坐标,在匹配了预设坐标系的导航地图中进行导航路径规划包括:
根据所述图像采集器在所述机器人上的位置,确定所述机器人的轮廓在所述预设坐标系中的投影;
根据所述投影在匹配了预设坐标系的导航地图中进行导航路径规划。
7.一种机器人定位装置,其特征在于,所述机器人包括激光传感器和图像采集器,所述装置包括:
特征点提取模块,用于通过所述图像采集器采集图像,从所述图像中提取特征点以及所述特征点的第一描述信息;
特征点匹配模块,用于根据所述第一描述信息以及预先存储的目标特征点的第二描述信息,在预先存储的特征点库中确定与所述特征点相匹配的目标特征点,所述描述信息包括:特征点的像素周围若干个像素的灰度值、特征点的类别以及特征点在图像中的位置;
第一坐标确定模块,用于根据预先存储的所述目标特征点在预设坐标系中的坐标,以及所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的映射关系,确定所述图像采集器在预设坐标系中的坐标,所述映射关系包括所述目标特征点在预设坐标系中的坐标与所述图像采集器在预设坐标系中的坐标的位置关系以及姿态关系;
其中,所述装置还包括:
关系确定模块,用于在采集图像之前,确定所述激光传感器相对所述图像采集器的位置关系和姿态关系;
第二坐标确定模块,用于确定所述激光传感器在预设坐标系中的第一坐标;
坐标转换模块,用于根据所述激光传感器相对所述图像采集器的位置关系和姿态关系,转换所述第一坐标,以得到所述图像采集器在预设坐标系中的第二坐标;
其中,所述特征点提取模块还用于通过所述图像采集器采集样本图像,从所述样本图像中提取多个样本特征点以及所述样本特征点的描述信息;
映射确定模块,用于根据所述样本特征点在所述样本图像中的深度信息、位置信息,以及所述图像采集器采集所述样本图像时的角度信息,确定所述映射关系;
第三坐标确定模块,用于根据所述第二坐标和所述映射关系确定所述样本特征点在预设坐标系中的第三坐标;
存储模块,用于存储所述第三坐标、所述映射关系以及所述样本特征点的描述信息。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时执行权利要求1至6中任一项所述的机器人定位方法。
9.一种机器人,其特征在于,包括激光传感器和图像采集器,还包括处理器,其中,所述处理器被配置为执行权利要求1至6中任一项所述的机器人定位方法。
CN201810330896.8A 2018-04-13 2018-04-13 机器人定位方法和机器人定位装置 Active CN110377015B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810330896.8A CN110377015B (zh) 2018-04-13 2018-04-13 机器人定位方法和机器人定位装置
PCT/CN2018/121180 WO2019196478A1 (zh) 2018-04-13 2018-12-14 机器人定位

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810330896.8A CN110377015B (zh) 2018-04-13 2018-04-13 机器人定位方法和机器人定位装置

Publications (2)

Publication Number Publication Date
CN110377015A CN110377015A (zh) 2019-10-25
CN110377015B true CN110377015B (zh) 2021-04-27

Family

ID=68164134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810330896.8A Active CN110377015B (zh) 2018-04-13 2018-04-13 机器人定位方法和机器人定位装置

Country Status (2)

Country Link
CN (1) CN110377015B (zh)
WO (1) WO2019196478A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161335A (zh) * 2019-12-30 2020-05-15 深圳Tcl数字技术有限公司 虚拟形象的映射方法、映射装置及计算机可读存储介质
CN111157005A (zh) * 2020-01-07 2020-05-15 深圳市锐曼智能装备有限公司 基于反光片定位方法和装置
CN111337877A (zh) * 2020-03-19 2020-06-26 北京北特圣迪科技发展有限公司 一种反光板匹配定位方法
CN111551113A (zh) * 2020-05-19 2020-08-18 南京航空航天大学 一种大批量航空零件质检方法
CN112008718B (zh) * 2020-06-12 2022-04-05 特斯联科技集团有限公司 一种机器人控制方法、系统、存储介质及智能机器人
CN111862211B (zh) * 2020-07-22 2023-10-27 杭州海康威视数字技术股份有限公司 定位方法、装置、系统、存储介质和计算机设备
CN112053586A (zh) * 2020-09-11 2020-12-08 江苏小白兔智造科技有限公司 一种基于红外测距仪的车辆位置确认方法及装置
CN112065125A (zh) * 2020-09-11 2020-12-11 江苏小白兔智造科技有限公司 一种基于红外测距仪的无需停车厅的智能停车方法
CN112037525A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于摄像装置的无需停车厅的智能停车方法
CN112037575A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于超声波测距仪的无需停车厅的智能停车方法
CN112114316A (zh) * 2020-09-11 2020-12-22 江苏小白兔智造科技有限公司 一种基于超声波测距仪的车辆位置确认方法及装置
CN112084285B (zh) * 2020-09-11 2023-08-08 北京百度网讯科技有限公司 用于地图匹配的方法、装置、电子设备以及可读介质
CN112037530A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于摄像装置的车辆位置确认方法及装置
CN112053585A (zh) * 2020-09-11 2020-12-08 江苏小白兔智造科技有限公司 一种基于激光雷达的无需停车厅的智能停车方法
CN112162559B (zh) * 2020-09-30 2021-10-15 杭州海康机器人技术有限公司 用于多机器人混行的方法、装置及存储介质
CN114434451A (zh) * 2020-10-30 2022-05-06 神顶科技(南京)有限公司 服务机器人及其控制方法、移动机器人及其控制方法
CN114445502A (zh) * 2020-11-06 2022-05-06 财团法人工业技术研究院 多摄影机定位调度系统及方法
CN112697151B (zh) * 2020-12-24 2023-02-21 北京百度网讯科技有限公司 移动机器人的初始点的确定方法、设备和存储介质
CN114098980B (zh) * 2021-11-19 2024-06-11 武汉联影智融医疗科技有限公司 相机位姿调整方法、空间注册方法、系统和存储介质
WO2022237787A1 (zh) * 2021-05-10 2022-11-17 武汉联影智融医疗科技有限公司 机器人定位和位姿调整方法和系统
CN113313770A (zh) * 2021-06-29 2021-08-27 智道网联科技(北京)有限公司 行车记录仪的标定方法及其装置
CN113761255B (zh) * 2021-08-19 2024-02-09 劢微机器人科技(深圳)有限公司 机器人室内定位方法、装置、设备及存储介质
CN114209433B (zh) * 2021-12-31 2023-09-05 杭州三坛医疗科技有限公司 一种手术机器人导航定位装置
CN114653558B (zh) * 2022-05-25 2022-08-02 苏州柳溪机电工程有限公司 用于涂装流水线的吹水系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036475A (zh) * 2013-07-22 2014-09-10 成都智慧星球科技有限公司 适应于任意投影机群及投影屏幕的高鲁棒性几何校正方法
CN104331896A (zh) * 2014-11-21 2015-02-04 天津工业大学 一种基于深度信息的系统标定方法
CN105046686A (zh) * 2015-06-19 2015-11-11 奇瑞汽车股份有限公司 定位方法及装置
CN105364934A (zh) * 2015-11-30 2016-03-02 山东建筑大学 液压机械臂遥操作控制系统和方法
CN106323241A (zh) * 2016-06-12 2017-01-11 广东警官学院 一种通过监控视频或车载摄像头测量人或物体三维的方法
CN107132581A (zh) * 2017-06-29 2017-09-05 上海理工大学 一种基于位姿映射关系数据库的双层磁源定位方法
CN107328420A (zh) * 2017-08-18 2017-11-07 上海木爷机器人技术有限公司 定位方法和装置
CN107481247A (zh) * 2017-07-27 2017-12-15 许文远 一种智慧农业用采摘机器人控制系统及方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
CN1569558A (zh) * 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
CN101441769A (zh) * 2008-12-11 2009-05-27 上海交通大学 单目摄像机实时视觉定位方法
WO2015194868A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 광각 카메라가 탑재된 이동 로봇의 주행을 제어하기 위한 장치 및 그 방법
CN104463108B (zh) * 2014-11-21 2018-07-31 山东大学 一种单目实时目标识别及位姿测量方法
CN105959529B (zh) * 2016-04-22 2018-12-21 首都师范大学 一种基于全景相机的单像自定位方法及系统
CN106408601B (zh) * 2016-09-26 2018-12-14 成都通甲优博科技有限责任公司 一种基于gps的双目融合定位方法及装置
CN106826815B (zh) * 2016-12-21 2019-05-31 江苏物联网研究发展中心 基于彩色图像与深度图像的目标物体识别与定位的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036475A (zh) * 2013-07-22 2014-09-10 成都智慧星球科技有限公司 适应于任意投影机群及投影屏幕的高鲁棒性几何校正方法
CN104331896A (zh) * 2014-11-21 2015-02-04 天津工业大学 一种基于深度信息的系统标定方法
CN105046686A (zh) * 2015-06-19 2015-11-11 奇瑞汽车股份有限公司 定位方法及装置
CN105364934A (zh) * 2015-11-30 2016-03-02 山东建筑大学 液压机械臂遥操作控制系统和方法
CN106323241A (zh) * 2016-06-12 2017-01-11 广东警官学院 一种通过监控视频或车载摄像头测量人或物体三维的方法
CN107132581A (zh) * 2017-06-29 2017-09-05 上海理工大学 一种基于位姿映射关系数据库的双层磁源定位方法
CN107481247A (zh) * 2017-07-27 2017-12-15 许文远 一种智慧农业用采摘机器人控制系统及方法
CN107328420A (zh) * 2017-08-18 2017-11-07 上海木爷机器人技术有限公司 定位方法和装置

Also Published As

Publication number Publication date
CN110377015A (zh) 2019-10-25
WO2019196478A1 (zh) 2019-10-17

Similar Documents

Publication Publication Date Title
CN110377015B (zh) 机器人定位方法和机器人定位装置
US9965870B2 (en) Camera calibration method using a calibration target
Veľas et al. Calibration of rgb camera with velodyne lidar
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
EP3451296B1 (en) Multidimensional evidence grids and system and methods for applying same
US8306273B1 (en) Method and apparatus for LIDAR target identification and pose estimation
CN110312912A (zh) 车辆自动停车系统和方法
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
Huang et al. A novel multi-planar LIDAR and computer vision calibration procedure using 2D patterns for automated navigation
CN114119864A (zh) 一种基于三维重建与点云匹配的定位方法和装置
CN109709977B (zh) 移动轨迹规划的方法、装置及移动物体
Andert et al. Lidar-aided camera feature tracking and visual slam for spacecraft low-orbit navigation and planetary landing
CN112068152A (zh) 使用3d扫描仪同时进行2d定位和2d地图创建的方法和系统
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
CN110000793A (zh) 一种机器人运动控制方法、装置、存储介质和机器人
Barczyk et al. Towards realistic covariance estimation of ICP-based Kinect V1 scan matching: The 1D case
Zalud et al. Calibration and evaluation of parameters in a 3D proximity rotating scanner
Song et al. Calibration of event-based camera and 3d lidar
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN112446905B (zh) 基于多自由度传感关联的三维实时全景监控方法
US20210156710A1 (en) Map processing method, device, and computer-readable storage medium
KR20170020629A (ko) 점군 정합 장치
Jensen et al. Laser range imaging using mobile robots: From pose estimation to 3d-models
Awashima et al. Visualization of obstacles on bird’s-eye view using depth sensor for remote controlled robot
Aliakbarpour et al. Human silhouette volume reconstruction using a gravity-based virtual camera network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant