CN111015654A - 一种机器人的视觉定位方法、装置、终端设备和存储介质 - Google Patents

一种机器人的视觉定位方法、装置、终端设备和存储介质 Download PDF

Info

Publication number
CN111015654A
CN111015654A CN201911308317.0A CN201911308317A CN111015654A CN 111015654 A CN111015654 A CN 111015654A CN 201911308317 A CN201911308317 A CN 201911308317A CN 111015654 A CN111015654 A CN 111015654A
Authority
CN
China
Prior art keywords
coordinate system
matrix
camera
map
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911308317.0A
Other languages
English (en)
Inventor
郭奎
庞建新
熊友军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201911308317.0A priority Critical patent/CN111015654A/zh
Publication of CN111015654A publication Critical patent/CN111015654A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及机器人控制技术领域,提出一种机器人的视觉定位方法、装置、终端设备和存储介质。该视觉定位方法包括:获取机器人所处环境中预放置的多个定位标记的位置信息;结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。相较于复杂多变的环境特征,本申请采用多个定位标记进行机器人的视觉定位,能够有效提高机器人视觉定位的稳定性和准确性。

Description

一种机器人的视觉定位方法、装置、终端设备和存储介质
技术领域
本申请涉及机器人控制技术领域,尤其涉及一种机器人的视觉定位方法、装置、终端设备和存储介质。
背景技术
移动机器人的自主导航问题可分成三大块:定位,建图和路径规划。定位指精确确定机器人在环境中的当前姿态,建图是将环境的多个不完整观测集成到单个一致的模型中,路径规划是在地图中确定一条通过环境的导航最优路径。
视觉定位,即确定地图坐标系和相机坐标系之间的位置关系。机器人的视觉定位,可利用机器人所处环境的各类显著特征实现,比如环境中的特殊图案、特殊纹理等特征。
桌面机器人的活动范围通常是有限的,其活动范围内的环境特征也比较丰富。然而,由于环境特征复杂易变,若采用环境特征进行视觉定位,会带来不可知因素,导致机器人视觉定位的不稳定,甚至定位失败。
发明内容
有鉴于此,本申请实施例提供了一种机器人的视觉定位方法、装置、终端设备和存储介质,能够提高机器人视觉定位的稳定性和准确性。
本申请实施例的第一方面提供了一种机器人的视觉定位方法,包括:
获取机器人所处环境中预放置的多个定位标记的位置信息;
结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
本申请实施例采用多个定位标记作为视觉定位的锚点,构建机器人的相机坐标系、地图坐标系和定位标记所处坐标系之间的RT矩阵,从而确定机器人的地图坐标系和相机坐标系之间的坐标变换关系,完成视觉定位。相较于复杂多变的环境特征来说,采用多个定位标记进行机器人的视觉定位,能够有效提高机器人视觉定位的稳定性和准确性。
进一步的,所述根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系可以包括:
根据所述第一RT矩阵构建所述相机坐标系与所述定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark
根据所述第二RT矩阵构建所述地图坐标系与所述定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark
结合所述第一坐标变换关系式和所述第二坐标变换关系式,构建所述地图坐标系和所述相机坐标系之间的第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera
其中,Ccamera表示所述相机坐标系,Cmark表示所述定位标记所处坐标系,Cmap表示所述地图坐标系,RTM2c表示所述第一RT矩阵,RTM2m表示所述第二RT矩阵。
进一步的,所述视觉定位方法还可以包括:
若所述位置信息获取失败,则获取由所述机器人的相机拍摄的连续的两帧以上图像;
针对获取到的每一帧图像,从图像中选取一个目标点,并结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标;
根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵;
根据所述第三RT矩阵确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
具体的,所述结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标可以包括:
采用以下公式确定所述目标点在所述地图坐标系下的坐标:
s*pc=M*Pc=M*RTM2cRTM2m -1*Pm
其中,s为小孔成像的缩放系数,Pm为所述目标点在所述地图坐标系下的坐标,Pc为所述目标点在所述相机坐标系下的坐标,pc为小孔成像中与Pc对应的像点,M为所述相机的内参数矩阵;
所述根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵可以包括:
采用以下公式进行迭代运算,求解所述第三RT矩阵:
s*pci=M*RTm2c*Pmi
其中,Pmi表示Pm1、Pm2、Pm3...Pmn,为所述每一帧图像的目标点在所述地图坐标系下的坐标,pci表示pc1、pc2、pc3...pcn,为Pmi在所述相机坐标系下的坐标对应的像点,RTm2c表示所述第三RT矩阵。
具体的,所述针对获取到的每一帧图像,从图像中选取一个目标点可以包括:
对所述获取到的每一帧图像进行栅格化操作,将所述每一帧图像均划分为多个方格区域;
针对所述每一帧图像,均选取一个方格区域的中点作为所述目标点,且不同图像所选取的方格区域不同。
进一步的,所述结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵可以包括:
获取所述定位标记具有的四个以上位置点的坐标;
结合所述四个以上位置点的坐标,采用相机姿态估计的方法求解所述第一RT矩阵。
本申请实施例的第二方面提供了一种机器人的视觉定位装置,包括:
位置信息获取模块,用于获取机器人所处环境中预放置的多个定位标记的位置信息;
RT矩阵构建模块,用于结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
视觉定位模块,用于根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
本申请实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例的第一方面提供的机器人的视觉定位方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本申请实施例的第一方面提供的机器人的视觉定位方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行本申请实施例的第一方面所述的机器人的视觉定位方法的步骤。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种机器人的视觉定位方法的第一个实施例的流程图;
图2a是本申请实施例提供的一种机器人的视觉定位方法的第二个实施例的流程图;
图2b是步骤206中,对选取的一帧图像进行栅格化以及目标点选取操作的示意图;
图2c是步骤206中,对选取的另一帧图像进行栅格化以及目标点选取操作的示意图;
图3是本申请实施例提供的一种机器人的视觉定位方法的第三个实施例的流程图;
图4是本申请实施例提供的一种机器人的视觉定位装置的一个实施例的结构图;
图5是本申请实施例提供的一种终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
本申请实施例提供了一种机器人的视觉定位方法、装置、终端设备和存储介质,能够提高机器人视觉定位的稳定性和准确性。应当理解,本申请各个方法实施例的执行主体为用于控制机器人的终端设备或者服务器,该终端设备可以集成于机器人体内,也可以为机器人体外的独立控制器。
请参阅图1,示出了本申请实施例中一种机器人的视觉定位方法,包括:
101、获取机器人所处环境中预放置的多个定位标记的位置信息;
首先,获取机器人所处环境中预放置的多个定位标记的位置信息。本申请实施例特别适用于桌面机器人,该机器人所处环境为桌面地图,可以在该桌面地图中设置多个定位标记。该定位标记具体可以是二维码、ArUco或者其它特殊设计的图案,该定位标记的数量以及放置位置可以根据桌面地图的大小尺寸合理设置。由于这些定位标记在桌面地图中的位置是已知的,因此能够方便地获取到各个定位标记的位置信息。
102、结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
在获取到各个定位标记的位置信息之后,结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵。RT矩阵即旋转-平移矩阵,通常用于不同坐标系之间的变换。第一RT矩阵可用RTM2c表示,为定位标记所处坐标系Cmark与相机坐标系Ccamera之间的转换矩阵,该RT矩阵可以通过定位标记的固有特性获得。第二RT矩阵可用RTM2m表示,为定位标记所处坐标系Cmark与地图坐标系Cmap之间的转换矩阵,由于各个定位标记是人为预先设置在桌面地图上的,故该第二RT矩阵也是已知的。
103、根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
在构建出两个RT矩阵之后,即可根据这两个RT矩阵确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位(视觉定位即确定地图坐标系和相机坐标系之间的位置关系)。
具体的,步骤103可以包括:
(1)根据所述第一RT矩阵构建所述相机坐标系与所述定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark
(2)根据所述第二RT矩阵构建所述地图坐标系与所述定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark
(3)结合所述第一坐标变换关系式和所述第二坐标变换关系式,构建所述地图坐标系和所述相机坐标系之间的第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera
其中,Ccamera表示所述相机坐标系,Cmark表示所述定位标记所处坐标系,Cmap表示所述地图坐标系,RTM2c表示所述第一RT矩阵,RTM2m表示所述第二RT矩阵。由此可见,本申请通过设置多个已知位置的定位标记mark,能够构建出相机坐标系与定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark,以及构建出地图坐标系与定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark,结合这两个坐标变换关系式即可推导出机器人的地图坐标系和相机坐标系之间的坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera,从而实现视觉定位。
本申请实施例采用多个定位标记作为视觉定位的锚点,构建机器人的相机坐标系、地图坐标系和定位标记所处坐标系之间的RT矩阵,从而确定机器人的地图坐标系和相机坐标系之间的坐标变换关系,完成视觉定位。相较于复杂多变的环境特征来说,采用多个定位标记进行机器人的视觉定位,能够有效提高机器人视觉定位的稳定性和准确性。
请参阅图2a,示出了本申请实施例中另一种机器人的视觉定位方法,包括:
201、获取机器人所处环境中预放置的多个定位标记的位置信息;
步骤201与步骤101相同,具体可参照步骤101的相关说明。
202、判断所述位置信息是否获取成功;
由于桌面地图中定位标记的数量是有限的,因此可能存在某些角度,机器人的相机视角无法覆盖到定位标记,此时将无法通过定位标记实现视觉定位。也即,无法获取到定位标记的位置信息,进而无法构建上述二个RT矩阵RTM2m和RTM2c。针对这种情况,本实施例会判断所述位置信息是否获取成功,若所述位置信息获取成功,则执行步骤203-204;若所述位置信息获取失败,则执行步骤205-208。
203、结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
204、根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位;
所述位置信息获取成功,此时执行的步骤与203-204与步骤102-103相同,具体不再赘述。
205、获取由所述机器人的相机拍摄的连续的两帧以上图像;
所述位置信息获取失败,此时获取由所述机器人的相机拍摄的连续的两帧以上图像,拍摄的图像通常为该桌面地图中无法覆盖到定位标记的区域图像。
206、针对获取到的每一帧图像,从图像中选取一个目标点,并结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标;
然后,针对获取到的每一帧图像,从图像中选取一个目标点,该目标点可以任意选取。优选的,该目标点的选取方式可以包括:(1)对所述获取到的每一帧图像进行栅格化操作,将所述每一帧图像均划分为多个方格区域;(2)针对所述每一帧图像,均选取一个方格区域的中点作为所述目标点,且不同图像所选取的方格区域不同。
示例性的,可参照图2b和图2c,图2b示出第一帧图像中选取的目标点P1,该目标点为栅格化为5*5(当然也可以执行其它的区域划分方式)的方格区域中,第一行第一列的方格区域的中点;图2c示出第二帧图像中选取的目标点P2,该目标点为栅格化为5*5的方格区域中,第二行第一列的方格区域的中点;对于第三帧图像、第四帧图像…的目标点选取方式,可采用上述相同的方法完成。
针对任意的一帧图像,在选取好目标点之后,结合该目标点在相机坐标系下的坐标,所述第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera以及相机的小孔成像模型,可以确定该目标点在所述地图坐标系下的坐标。假设Pm为地图坐标系中的一点,其齐次坐标表示为(X,Y,0,1),该点在相机坐标系中表示为Pc(x,y,z,1),Pc在相机中的对应像点为Pc(u,v,1),设相机的内参数矩阵为M,那么根据相机的小孔成像模型,可以得到Pc和pc之间的关系。
具体的,根据第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera,可以得到Pm=RTM2mRTM2c -1*Pc,也即Pc=RTM2cRTM2m -1*Pm,再结合小孔成像模型可以得到以下公式,用于确定所述目标点在所述地图坐标系下的坐标:
s*pc=M*Pc=M*RTM2cRTM2m -1*Pm
其中,s为小孔成像的缩放系数,Pm为所述目标点在所述地图坐标系下的坐标,Pc为所述目标点在所述相机坐标系下的坐标,pc为小孔成像中与Pc对应的像点,M为所述相机的内参数矩阵。由于,s、pc、M都是已知的,故可以求解出Pm
207、根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵;
在采用上述方式求解出每一帧图像的目标点在所述地图坐标系下的坐标之后,可以构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵。假设获取了n帧图像,具体的构建方式可以包括:
采用以下公式进行迭代运算,求解所述第三RT矩阵:
s*pci=M*RTm2c*Pmi
其中,i=1…n,Pmi表示Pm1、Pm2、Pm3...Pmn,为所述每一帧图像的目标点在所述地图坐标系下的坐标,Pm1表示第一帧图像的目标点在所述地图坐标系下的坐标,Pm2表示第二帧图像的目标点在所述地图坐标系下的坐标,以此类推;pci表示pc1、pc2、pc3...pcn,为Pmi在所述相机坐标系下的坐标对应的像点,RTm2c表示所述第三RT矩阵。在该公式中,s,pci,M,Pmi都是已知的,故可以迭代求解出矩阵RTm2c
208、根据所述第三RT矩阵确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
在求解出第三RT矩阵RTm2c之后,由于该矩阵为地图坐标系Cmap与相机坐标系Ccamera之间的转换矩阵,故可以根据该矩阵确定地图坐标系和相机坐标系之间的坐标变换关系,完成视觉定位。
本申请实施例采用多个定位标记作为视觉定位的锚点,构建机器人的相机坐标系、地图坐标系和定位标记所处坐标系之间的RT矩阵,从而确定机器人的地图坐标系和相机坐标系之间的坐标变换关系,完成视觉定位。相较于复杂多变的环境特征来说,采用多个定位标记进行机器人的视觉定位,能够有效提高机器人视觉定位的稳定性和准确性。而且,本申请实施例还考虑获取不到定位标记位置信息的特殊情况,针对该特殊情况,会拍摄多帧图像,在这些图像中选取目标点,并结合目标点在相机坐标系下的坐标、该第三坐标变换关系式以及相机的小孔成像模型,求解出相机坐标系与地图坐标系之间的RT矩阵,从而完成视觉定位,进一步提高了方案的适用性与稳定性。
请参阅图3,示出了本申请实施例中另一种机器人的视觉定位方法,包括:
301、获取机器人所处环境中预放置的多个定位标记的位置信息;
步骤301与步骤101相同,具体可参照步骤101的相关说明。
302、获取所述定位标记具有的四个以上位置点的坐标;
303、结合所述四个以上位置点的坐标,采用相机姿态估计的方法求解所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵;
针对任意的一个定位标记,可以获取该定位标记具有的四个以上位置点的坐标,然后采用相机姿态估计的方法求解所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵。相机姿态估计,即PNP问题的求解,指通过世界中的N个特征点与图像成像中的N个像点,计算出其投影关系,从而获得相机或物体位姿的问题。该问题的具体求解过程,可以参照相关的现有技术,在此不再赘述。
304、结合所述位置信息构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
305、根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
步骤304-305的相关说明可参照步骤102-103。
本申请实施例采用多个定位标记作为视觉定位的锚点,构建机器人的相机坐标系、地图坐标系和定位标记所处坐标系之间的RT矩阵,从而确定机器人的地图坐标系和相机坐标系之间的坐标变换关系,完成视觉定位。相较于复杂多变的环境特征,本申请采用多个定位标记进行机器人的视觉定位,能够有效提高机器人视觉定位的稳定性和准确性。与本申请的第一个实施例相比,本实施例提出了一种构建机器人的相机坐标系与定位标记所处坐标系之间的第一RT矩阵的具体方式。
应理解,上述各个实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
上面主要描述了一种机器人的视觉定位方法,下面将对一种机器人的视觉定位装置进行描述。
请参阅图4,本申请实施例中一种机器人的视觉定位装置的一个实施例包括:
位置信息获取模块401,用于获取机器人所处环境中预放置的多个定位标记的位置信息;
第一RT矩阵构建模块402,用于结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
第一视觉定位模块403,用于根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
进一步的,所述视觉定位模块可以包括:
第一坐标变换式构建单元,用于根据所述第一RT矩阵构建所述相机坐标系与所述定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark
第二坐标变换式构建单元,用于根据所述第二RT矩阵构建所述地图坐标系与所述定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark
第三坐标变换式构建单元,用于结合所述第一坐标变换关系式和所述第二坐标变换关系式,构建所述地图坐标系和所述相机坐标系之间的第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera
其中,Ccamera表示所述相机坐标系,Cmark表示所述定位标记所处坐标系,Cmap表示所述地图坐标系,RTM2c表示所述第一RT矩阵,RTM2m表示所述第二RT矩阵。
进一步的,所述视觉定位装置还可以包括:
图像获取模块,用于若所述位置信息获取失败,则获取由所述机器人的相机拍摄的连续的两帧以上图像;
目标点选取模块,用于针对获取到的每一帧图像,从图像中选取一个目标点,并结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标;
第二RT矩阵构建模块,用于根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵;
第二视觉定位模块,用于根据所述第三RT矩阵确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
进一步的,所述目标点选取模块具体可以用于:
采用以下公式确定所述目标点在所述地图坐标系下的坐标:
s*pc=M*Pc=M*RTM2cRTM2m -1*Pm
其中,s为小孔成像的缩放系数,Pm为所述目标点在所述地图坐标系下的坐标,Pc为所述目标点在所述相机坐标系下的坐标,pc为小孔成像中与Pc对应的像点,M为所述相机的内参数矩阵。
所述第二RT矩阵构建模块具体可以用于:
采用以下公式进行迭代运算,求解所述第三RT矩阵:
s*pci=M*RTm2c*Pmi
其中,Pmi表示Pm1、Pm2、Pm3...Pmn,为所述每一帧图像的目标点在所述地图坐标系下的坐标,pci表示pc1、pc2、pc3...pcn,为Pmi在所述相机坐标系下的坐标对应的像点,RTm2c表示所述第三RT矩阵。
进一步的,所述目标点选取模块可以包括:
栅格化操作单元,用于对所述获取到的每一帧图像进行栅格化操作,将所述每一帧图像均划分为多个方格区域;
目标点选取模块单元,用于针对所述每一帧图像,均选取一个方格区域的中点作为所述目标点,且不同图像所选取的方格区域不同。
进一步的,所述第一RT矩阵构建模块可以包括:
位置点坐标获取单元,用于获取所述定位标记具有的四个以上位置点的坐标;
RT矩阵求解单元,用于结合所述四个以上位置点的坐标,采用相机姿态估计的方法求解所述第一RT矩阵。
本申请实施例还提供一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如图1至图3表示的任意一种机器人的视觉定位方法的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如图1至图3表示的任意一种机器人的视觉定位方法的步骤。
本申请实施例还提供一种计算机程序产品,当该计算机程序产品在终端设备上运行时,使得终端设备执行实现如图1至图3表示的任意一种机器人的视觉定位方法的步骤。
图5是本申请一实施例提供的终端设备的示意图。如图5所示,该实施例的终端设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52。所述处理器50执行所述计算机程序52时实现上述各个机器人的视觉定位方法的实施例中的步骤,例如图1所示的步骤101至103。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块401至403的功能。
所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述终端设备5中的执行过程。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51也可以是所述终端设备5的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种机器人的视觉定位方法,其特征在于,包括:
获取机器人所处环境中预放置的多个定位标记的位置信息;
结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
2.如权利要求1所述的视觉定位方法,其特征在于,所述根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系包括:
根据所述第一RT矩阵构建所述相机坐标系与所述定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark
根据所述第二RT矩阵构建所述地图坐标系与所述定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark
结合所述第一坐标变换关系式和所述第二坐标变换关系式,构建所述地图坐标系和所述相机坐标系之间的第三坐标变换关系式Cmap=RTM2mRTM2c -1Ccamera
其中,Ccamera表示所述相机坐标系,Cmark表示所述定位标记所处坐标系,Cmap表示所述地图坐标系,RTM2c表示所述第一RT矩阵,RTM2m表示所述第二RT矩阵。
3.如权利要求2所述的视觉定位方法,其特征在于,还包括:
若所述位置信息获取失败,则获取由所述机器人的相机拍摄的连续的两帧以上图像;
针对获取到的每一帧图像,从图像中选取一个目标点,并结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标;
根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵;
根据所述第三RT矩阵确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
4.如权利要求3所述的视觉定位方法,其特征在于,所述结合所述目标点在所述相机坐标系下的坐标、所述第三坐标变换关系式以及相机的小孔成像模型,确定所述目标点在所述地图坐标系下的坐标包括:
采用以下公式确定所述目标点在所述地图坐标系下的坐标:
s*pc=M*Pc=M*RTM2cRTM2m -1*Pm
其中,s为小孔成像的缩放系数,Pm为所述目标点在所述地图坐标系下的坐标,Pc为所述目标点在所述相机坐标系下的坐标,pc为小孔成像中与Pc对应的像点,M为所述相机的内参数矩阵;
所述根据所述每一帧图像的目标点在所述地图坐标系下的坐标,构建所述相机坐标系与所述地图坐标系之间的第三RT矩阵包括:
采用以下公式进行迭代运算,求解所述第三RT矩阵:
s*pci=M*RTm2c*Pmi
其中,Pmi表示Pm1、Pm2、Pm3...Pmn,为所述每一帧图像的目标点在所述地图坐标系下的坐标,pci表示pc1、pc2、pc3...pcn,为Pmi在所述相机坐标系下的坐标对应的像点,RTm2c表示所述第三RT矩阵。
5.如权利要求3所述的视觉定位方法,其特征在于,所述针对获取到的每一帧图像,从图像中选取一个目标点包括:
对所述获取到的每一帧图像进行栅格化操作,将所述每一帧图像均划分为多个方格区域;
针对所述每一帧图像,均选取一个方格区域的中点作为所述目标点,且不同图像所选取的方格区域不同。
6.如权利要求1至5中任一项所述的视觉定位方法,其特征在于,所述结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵包括:
获取所述定位标记具有的四个以上位置点的坐标;
结合所述四个以上位置点的坐标,采用相机姿态估计的方法求解所述第一RT矩阵。
7.一种机器人的视觉定位装置,其特征在于,包括:
位置信息获取模块,用于获取机器人所处环境中预放置的多个定位标记的位置信息;
RT矩阵构建模块,用于结合所述位置信息,构建所述机器人的相机坐标系与所述定位标记所处坐标系之间的第一RT矩阵,以及构建所述机器人的地图坐标系与所述定位标记所处坐标系之间的第二RT矩阵;
视觉定位模块,用于根据所述第一RT矩阵和所述第二RT矩阵,确定所述地图坐标系和所述相机坐标系之间的坐标变换关系,完成视觉定位。
8.如权利要求7所述的视觉定位装置,其特征在于,所述视觉定位模块包括:
第一坐标变换式构建单元,用于根据所述第一RT矩阵构建所述相机坐标系与所述定位标记所处坐标系之间的第一坐标变换关系式Ccamera=RTM2cCmark
第二坐标变换式构建单元,用于根据所述第二RT矩阵构建所述地图坐标系与所述定位标记所处坐标系之间的第二坐标变换关系式Cmap=RTM2mCmark
第三坐标变换式构建单元,用于结合所述第一坐标变换关系式和所述第二坐标变换关系式,构建所述地图坐标系和所述相机坐标系之间的第三坐标变换关系式Cmap=RTM2mRTM2c - 1Ccamera
其中,Ccamera表示所述相机坐标系,Cmark表示所述定位标记所处坐标系,Cmap表示所述地图坐标系,RTM2c表示所述第一RT矩阵,RTM2m表示所述第二RT矩阵。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的机器人的视觉定位方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的机器人的视觉定位方法的步骤。
CN201911308317.0A 2019-12-18 2019-12-18 一种机器人的视觉定位方法、装置、终端设备和存储介质 Pending CN111015654A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911308317.0A CN111015654A (zh) 2019-12-18 2019-12-18 一种机器人的视觉定位方法、装置、终端设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911308317.0A CN111015654A (zh) 2019-12-18 2019-12-18 一种机器人的视觉定位方法、装置、终端设备和存储介质

Publications (1)

Publication Number Publication Date
CN111015654A true CN111015654A (zh) 2020-04-17

Family

ID=70210289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911308317.0A Pending CN111015654A (zh) 2019-12-18 2019-12-18 一种机器人的视觉定位方法、装置、终端设备和存储介质

Country Status (1)

Country Link
CN (1) CN111015654A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304305A (zh) * 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 一种结合marker图像的车辆初始定位方法及系统
CN112415860A (zh) * 2020-11-02 2021-02-26 江苏迪盛智能科技有限公司 一种物件的曝光定位方法
CN113688847A (zh) * 2021-08-25 2021-11-23 徐州徐工矿业机械有限公司 一种挖掘机运行模式切换的控制方法、装置和挖掘机
CN113781550A (zh) * 2021-08-10 2021-12-10 国网河北省电力有限公司保定供电分公司 一种四足机器人定位方法与系统
CN114663494A (zh) * 2022-03-18 2022-06-24 欧姆龙(上海)有限公司 三维物体的空间姿态的标注方法、装置以及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120148144A1 (en) * 2010-12-11 2012-06-14 Hon Hai Precision Industry Co., Ltd. Computing device and image correction method
CN110163025A (zh) * 2019-04-29 2019-08-23 达泊(东莞)智能科技有限公司 二维码定位方法及装置
CN110298878A (zh) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 一种目标物体三维位姿的确定方法、装置及电子设备
CN110345937A (zh) * 2019-08-09 2019-10-18 东莞市普灵思智能电子有限公司 一种基于二维码的导航定姿定位方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120148144A1 (en) * 2010-12-11 2012-06-14 Hon Hai Precision Industry Co., Ltd. Computing device and image correction method
CN110298878A (zh) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 一种目标物体三维位姿的确定方法、装置及电子设备
CN110163025A (zh) * 2019-04-29 2019-08-23 达泊(东莞)智能科技有限公司 二维码定位方法及装置
CN110345937A (zh) * 2019-08-09 2019-10-18 东莞市普灵思智能电子有限公司 一种基于二维码的导航定姿定位方法和系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304305A (zh) * 2020-10-31 2021-02-02 中环曼普科技(南京)有限公司 一种结合marker图像的车辆初始定位方法及系统
CN112415860A (zh) * 2020-11-02 2021-02-26 江苏迪盛智能科技有限公司 一种物件的曝光定位方法
CN113781550A (zh) * 2021-08-10 2021-12-10 国网河北省电力有限公司保定供电分公司 一种四足机器人定位方法与系统
CN113688847A (zh) * 2021-08-25 2021-11-23 徐州徐工矿业机械有限公司 一种挖掘机运行模式切换的控制方法、装置和挖掘机
CN114663494A (zh) * 2022-03-18 2022-06-24 欧姆龙(上海)有限公司 三维物体的空间姿态的标注方法、装置以及电子设备

Similar Documents

Publication Publication Date Title
CN111015654A (zh) 一种机器人的视觉定位方法、装置、终端设备和存储介质
CN108827249B (zh) 一种地图构建方法和装置
CN111311632B (zh) 一种物体位姿跟踪方法、装置及设备
US20190096092A1 (en) Method and device for calibration
CN111025283A (zh) 雷达与球机联动的方法及装置
CN110892760A (zh) 基于深度学习定位终端设备
CN113021328A (zh) 一种手眼标定方法、装置、设备和介质
CN110599586A (zh) 一种半稠密场景重建方法、装置、电子设备及存储介质
CN110774319A (zh) 一种机器人及其定位方法和装置
CN108036774B (zh) 一种测绘方法、系统及终端设备
CN109712197B (zh) 一种机场跑道网格化标定方法及系统
JP7220784B2 (ja) 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体
CN110880159A (zh) 图像拼接方法、装置、存储介质及电子装置
CN112215887A (zh) 一种位姿确定方法、装置、存储介质及移动机器人
CN112597983A (zh) 一种遥感图像中目标对象的识别方法及其存储介质和系统
KR20220058846A (ko) 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체
CN111347417B (zh) 一种uwb定位设备的位置标定方法、装置及机器人
CN111380528B (zh) 一种双足机器人的定位方法、装置及机器人
CN113538590A (zh) 一种变焦相机的标定方法、装置、终端设备和存储介质
CN105229706A (zh) 图像处理装置、图像处理方法和程序
CN113421213A (zh) 图像处理方法、装置、电子设备及存储介质
CN114168695A (zh) 目标位置确定方法、装置、终端以及存储介质
CN113157835B (zh) 基于gis平台的图像处理方法、装置、平台及存储介质
CN112991463A (zh) 相机标定方法、装置、设备、存储介质和程序产品
CN112150562A (zh) 相机标定方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200417

RJ01 Rejection of invention patent application after publication