CN112767487B - 机器人的定位方法、装置以及系统 - Google Patents
机器人的定位方法、装置以及系统 Download PDFInfo
- Publication number
- CN112767487B CN112767487B CN202110113624.4A CN202110113624A CN112767487B CN 112767487 B CN112767487 B CN 112767487B CN 202110113624 A CN202110113624 A CN 202110113624A CN 112767487 B CN112767487 B CN 112767487B
- Authority
- CN
- China
- Prior art keywords
- mark
- coordinate system
- robot
- determining
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 239000000463 material Substances 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 17
- 239000003550 marker Substances 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- FPIGOBKNDYAZTP-UHFFFAOYSA-N 1,2-epoxy-3-(4-nitrophenoxy)propane Chemical compound C1=CC([N+](=O)[O-])=CC=C1OCC1OC1 FPIGOBKNDYAZTP-UHFFFAOYSA-N 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001085205 Prenanthella exigua Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人的定位方法、装置以及系统,涉及人工智能技术领域。该机器人的定位方法的一具体实施方式包括:根据获取到的标识图像,标识图像中至少包括:第一标识和第二标识,确定第一标识在标识图像中预设的像素坐标系下的像素坐标,并根据第一标识的像素坐标确定第一标识在机器人坐标系对应的位姿;根据获取到的标识图像确定第二标识在像素坐标系下的像素坐标,并根据第二标识的像素坐标确定第二标识对应的标识ID;根据第一标识的位姿以及第二标识对应的标识ID,确定机器人在世界坐标系的位姿,以完成机器人的定位。该实施方式可以解决当前视觉辅助定位对亮度环境不鲁棒以及自建图像库流程繁琐的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种机器人的定位方法、装置以及系统。
背景技术
机器人定位技术是机器人导航和避障的关键。且视觉辅助定位的方式可以提高机器人的定位效果,其中现有机器人大多采用AprilTag码进行视觉辅助定位。进一步地,基于AprilTag码的视觉辅助定位,需要使用可见光相机采集图像数据,一般需要在有一定光照亮度的地方进行,在光照亮度较低或黑暗的环境下无法采集到有效的数据,辅助定位无法奏效。基于自构标识通过图像匹配的视觉辅助定位需要自建预设图像库来进行匹配,方法繁琐。
发明内容
有鉴于此,本发明实施例提供一种机器人的定位方法、装置以及系统,能够解决当前视觉辅助定位对亮度环境不鲁棒以及自建图像库流程繁琐的问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种机器人的定位方法。
本发明实施例的机器人的定位方法包括:
从所述标识图像解析出第一标识,并确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标。
可选地,在根据获取到的标识图像,确定第一标识在所述标识图像中预设的像素坐标系下的像素坐标步骤之前,所述方法还包括:
标定相机的内部参数,所述内部参数用于表示相机坐标系和所述像素坐标系之间的关系;
通过所述相机按照所述内部参数获取预设的标识坐标系下的标识图像。
可选地,从所述标识图像解析出第一标识的步骤之后,所述方法还包括:
采用最近邻方法,遍历每个解析得到的第一标识,以确定每个解析得到的第一标识到其他第一标识的距离;
若在预设距离内存在两个所述第一标识,则认定所述第一标识识别正确;
若在预设距离内存在两个所述第一标识,则认定所述第一标识识别异常,过滤掉识别异常的第一标识。
可选地,所述第一标识为三个,三个所述第一标识分别位于矩形的三个顶点上;
在确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标的步骤之后,所述方法还包括:
将三个所述第一标识的中心点两两组成向量并计算向量夹角,以确定所述第一标识在所述矩形的顺序以及位置;
通过几何约束,计算所述矩形中未设置所述第一标识的顶点的像素坐标。
可选地,根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿包括:
将所述第一标识的像素坐标以及所述矩形中未设置所述第一标识的顶点的像素坐标与标识坐标系下的坐标一一对应;
基于相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿;
根据所述第一标识在相机坐标系下的位姿以及相机坐标系和机器人坐标系的预设关系,确定所述第一标识在机器人坐标系对应的位姿。
可选地,根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标包括:
根据所述第一标识在所述像素坐标系下的像素坐标,对获取到的标识图像进行透视变换;
从透视变换后的所述标识图像中解析出第二标识,并确定所述第二标识在所述像素坐标系下的像素坐标。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种机器人的定位装置。
本发明实施例的机器人的定位装置包括:
第一确定模块,用于根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿;
第二确定模块,用于根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID;
第三确定模块,用于根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种定位系统。
本发明实施例的定位系统包括:如上所述的机器人定位装置、第一标识和第二标识,所述第一标识用于估计机器人的姿态,所述第二标识用于识别ID。
可选地,所述第一标识的数量为至少三个,所述第一标识为环形结构,且环状部分采用反光材料。
可选地,所述第二标识的数量为至少一个,所述第二标识为圆形结构且采用反光材料。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种电子设备。
本发明实施例的电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上所述的方法。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种计算机可读介质
本发明实施例的计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:
在本发明实施例中,所述第一标识和所述第二标识采用反光材料,是可以在白天和夜间进行姿态估计和识别的标识,进而通过该机器人的定位方法可以在白天和夜间实现对机器人的精准定位,可以解决当前视觉辅助定位对亮度环境不鲁棒问题。同时,该机器人的定位方法的匹配流程简单,可以解决自建图像库流程繁琐的问题。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是本发明第一实施例的机器人的定位方法的流程示意图;
图2是本发明实施例的标识图像的示意图;
图3是本发明实施例的不同坐标系之间的关系示意图之一;
图4是本发明实施例的不同坐标系之间的关系示意图之二;
图5是本发明第二实施例的机器人的定位方法的流程示意图;
图6是本发明第三实施例的机器人的定位方法的流程示意图;
图7是本发明实施例的机器人的定位装置的模块示意图;
图8是本发明实施例可以应用于其中的示例性系统架构图;
图9是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是本发明实施例的机器人的定位方法的流程示意图,如图1所示,该机器人的定位方法可以包括如下的步骤S101至步骤S103。
步骤S101:根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿。
其中,所述标识图像是通过相机在预设的标识坐标系下拍摄所得的与标识相关的图像,即所述标识图像与所述第一标识和所述第二标识有关。需要说明的是,所述标识坐标系用于表示所述第一标识和所述第二标识的位置。所述第一标识的数量为至少三个,不同的所述第一标识均位于同一平面,不同所述第一标识中心的连线不在同一直线上。参见图2,例如:所述第一标识的数量为三个,三个所述第一标识分别位于正方形的三个顶点上,所述标识坐标系是以所述第一标识所组成正方形的中心为原点所构成的坐标系,可以通过所述标识坐标系确定所述第一标识和所述第二标识的物理位置。
在步骤S101之前,为了便于获取所述标识图像,可以首先标定相机的内部参数(或简称为内参)。所述相机可以选用红外相机,所述内部参数用于表示相机坐标系和所述像素坐标系之间的关系,且该内部参数至少包括:相机的焦距、径向畸变和切向畸变等。然后通过所述相机按照所述内部参数获取预设的标识坐标系下的标识图像。
在步骤S101中,所述像素坐标系用于表示所述第一标识和所述第二标识在所述标识图像中的位置,所述像素坐标系的原点位置可以根据需要确定。例如:可以以所述标识图像的左上角位置作为所述像素坐标系的原点,以便于确定所述第一标识和所述第二标识在所述标识图像中的位置。进一步地,可以采用opencv(opencv是一个基于BSD许可(开源)发行的跨平台计算机视觉和机器学习软件库)算法从所述标识图像解析出第一标识,并确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标。
需要说明的是,所述第一标识在像素坐标系下的像素坐标可以理解为所述第一标识中指定点(例如:中心点)在所述像素坐标系下的像素坐标。例如:若所述第一标识为环形结构时,可以将所述第一标识中心点在所述像素坐标系下的像素坐标作为所述第一标识的像素坐标。
为了便于获取所述第一标识和所述第二标识的位置,所述第一标识和所述第二标识可以采用反光材料,所述第一标识和所述第二标识的形状可以根据实际需要确定。例如:所述第一标识为环形结构,且环状部分采用反光材料,所述第一标识在所述标识图像中的状态为环形部分为清晰的亮白色且圆形部分为黑色。为了便于确定所述第一标识的像素坐标,可以采用opencv算法的simpleBlobDetector(简易斑点探测器)特征检测器进行圆形斑点的检测,来通过检测内部黑色的圆来确定所述第一标识的像素坐标。
在确定所述第一标识的像素坐标之后,可以基于EPNP以及相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿。然后根据所述第一标识在相机坐标系下的位姿以及相机坐标系和机器人坐标系的预设关系,确定所述第一标识在机器人坐标系对应的位姿。其中,EPNP的全称为Efficient Perspective-n-Point,是一种求解3D到2D点对运动的方法,即已知量是空间点的真实坐标和图像坐标,求解量是相机的位姿。可以理解的是,所述相机坐标系分别与所述机器人坐标系和所述像素坐标系之间均存在预设的对应关系,通过以上三者之间的预设关系以及所述第一标识在相机坐标系下的位姿,可以确定所述第一标识在机器人坐标系对应的位姿。
步骤S102:根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID(Identity,识别码)。
在步骤S102中,所述第二标识的形状和数量可以根据实际需要确定。为了便于从所述标识图像中获取所述第二标识,所述第二标识可以为圆形结构,圆形部分采用反光材料,同样可以使用opencv的simpleBlobDetector特征检测器确定所述第二标识的像素坐标。需要说明的是,所述第二标识的像素坐标可以理解为所述第二标识的指定点(例如:中心点)在所述像素坐标系下的坐标。一个或多个所述第二标识的像素坐标对应一个标识ID,且每个标识ID对应世界坐标系的一个坐标。即不同的标识ID可以对应为不同的世界坐标。世界坐标系为绝对坐标系,即在没有建立用户坐标系之前画面上所有点的坐标都是以该坐标系的原点来确定各自的位置的。
例如:参见图2,所述第二标识为两个圆形结构。对于检测出来的两个圆形,可以得到其在透视变换后的图像中的像素坐标,根据图2中的正方形内部等距离的划分可以将内部检测到的点根据位置进行编码。内部有9个点的位置,这里因为只使用了两个圆形图案,根据组合原理共有9x8/2=36种类型,这样就可以确定某种标识的对应ID,且某个确定的标识对应唯一固定的世界坐标。
步骤S103:根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位。
在步骤S103中,所述机器人在世界坐标系的位姿可以理解为机器人在世界坐标系的位置以及姿态,所述世界坐标系也就是绝对坐标系。可以理解的是,根据机器人坐标系下标识的位姿和标识ID,结合标识坐标系和世界坐标系的关系,可以反过来推算出机器人在世界坐标系下的位姿,从而实现机器人的全局定位,保证机器人运动过程中视野内有标识,就可以实现机器人的全局实时的定位。
参见图3和图4,在对机器人进行定位时,可以首先获取第一标识和第二标识在标识坐标系下的标识图像,其中所述第一标识用于估计姿态,所述第二标识用于识别ID。进而可以根据该标识图像分别获取第一标识和第二标识在像素坐标系下的像素坐标。由于像素坐标系分别与相机坐标系和机器人坐标系存在预设关系,可以根据所述第一标识和所述第二标识在所述像素坐标系下的像素坐标,可以确定机器人坐标系下标识的姿态和ID。然后根据机器人坐标系下标识的姿态和ID,结合标识坐标系和世界坐标系的关系,可以反过来推算出机器人在世界坐标系下的位姿,从而实现机器人的全局定位。可以理解的是,所述标识坐标系与世界坐标系存在预设的对应关系,世界坐标系是系统的绝对坐标系,在没有建立其他坐标系之前所有点的坐标都是以世界坐标系的原点来确定各个点的位置的。
可以理解的是,标识坐标系在世界坐标系下的位姿是已知固定关系,且机器人坐标系和像素坐标系之间的关系也是已知固定关系,通过本发明实施例的定位方法可以计算出像素坐标系和标识坐标系之间的关系,从而可以恢复出机器人在世界坐标系下的位姿,来完成机器人在世界坐标系下的定位。
在本发明实施例中,所述第一标识和所述第二标识采用反光材料,是可以在白天和夜间进行姿态估计和识别的标识,进而通过该机器人的定位方法可以在白天和夜间实现对机器人的精准定位,可以解决当前视觉辅助定位对亮度环境不鲁棒问题。同时,该机器人的定位方法的匹配流程简单,可以解决自建图像库流程繁琐的问题。
图5是本发明第二实施例的机器人的定位方法的流程示意图,如图5所示,该机器人的定位方法可以包括如下的步骤S501至步骤S514。
步骤S501:标定相机的内部参数,所述内部参数用于表示相机坐标系和所述像素坐标系之间的关系。
在步骤S501中,为了便于获取所述第一标识和所述第二标识,所述相机可以选用红外相机。所述相机坐标系是以相机光点为中心,X轴和Y轴平行于标识图像的两条边,且光轴为Z轴所建立的坐标系。所述像素坐标系是以标识图像的左上角为原点,且X轴和Y轴分别平行于标识图像两边的坐标系。所述内部参数包括:相机的焦距、径向畸变和切向畸变等。
步骤S502:通过所述相机按照所述内部参数获取预设的标识坐标系下的标识图像,所述标识图像中至少包括:第一标识和第二标识。
在步骤S502中,所述标识坐标系用于表示所述第一标识和所述第二标识的位置,所述标识坐标系是以标识中心为原点的坐标系。
步骤S503:采用opencv算法从所述标识图像解析出第一标识,所述第一标识为三个,三个所述第一标识分别位于矩形的三个顶点上。
参见图2,所述第一标识为环形结构,所述矩形可以为正方形,三个环形结构分别位于正方形的三个顶点上。
步骤S504:采用最近邻方法,遍历每个解析得到的第一标识,以确定每个解析得到的第一标识到其他第一标识的距离。若在预设距离内存在两个所述第一标识,则执行步骤S505;否则,执行步骤S506。
步骤S505:若在预设距离内存在两个所述第一标识,则认定所述第一标识识别正确。
步骤S506:若在预设距离内存在两个所述第一标识,则认定所述第一标识识别异常,过滤掉识别异常的第一标识。
步骤S507:将三个所述第一标识的中心点两两组成向量并计算向量夹角。
在步骤S507中,通过所述向量夹角可以确定所述第一标识在矩形上的顺序以及位置,进而可以通过每个所述第一标识在所述矩形中的位置以及几何约束,确定所述矩形中未设置所述第一标识的顶点的像素坐标。
参见图2,对于检测到的三个圆环,需要确定具体圆环对应的坐标,这里将三个圆环中心点两两组成向量并计算向量夹角,如果某个圆环的中心点与另外的两个圆环的中心点分别组成的向量,这两向量直接的夹角为90度或270度左右,即可确认该圆环为图1中的圆环A,同时可以根据夹角是90左右还是270度左右来分辨出圆环B和圆环C。同时基于步骤S508可通过几何约束算出正方形第四个点的像素坐标。
步骤S508:通过几何约束,计算所述矩形中未设置所述第一标识的顶点的像素坐标。
步骤S509:将所述第一标识的像素坐标以及所述矩形中未设置所述第一标识的顶点的像素坐标与标识坐标系下的坐标一一对应。
步骤S510:基于相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿。
步骤S510中,基于EPNP以及相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿。其中,EPNP的全称为Efficient Perspective-n-Point,是一种求解3D到2D点对运动的方法,即已知量是空间点的真实坐标和图像坐标,求解量是相机的位姿。
步骤S511:根据所述第一标识在相机坐标系下的位姿以及相机坐标系和机器人坐标系的预设关系,确定所述第一标识在机器人坐标系对应的位姿。
步骤S512:根据所述第一标识在所述像素坐标系下的像素坐标,对获取到的标识图像进行透视变换。
步骤S513:从透视变换后的所述标识图像中解析出第二标识,并确定所述第二标识在所述像素坐标系下的像素坐标,根据所述第二标识的像素坐标确定所述第二标识对应的标识ID。
在步骤S513中,基于opencv算法,从透视变换后的所述标识图像中解析出第二标识。
步骤S514:根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位。
在步骤S514中,所述机器人在世界坐标系的位姿可以理解为机器人在世界坐标系的位置以及姿态,所述世界坐标系也就是绝对坐标系。可以理解的是,根据机器人坐标系下标识的位姿和标识ID,结合标识坐标系和世界坐标系的关系,可以反过来推算出机器人在世界坐标系下的位姿,从而实现机器人的全局定位,保证机器人运动过程中视野内有标识,就可以实现机器人的全局实时的定位。
在本发明实施例中,所述第一标识和所述第二标识标识主要有姿态估计和识别两个功能。所述第一标识和所述第二标识标识采用反光材料,是可以在白天和夜间进行姿态估计和识别的标识,可以使用红外相机在夜间环境下拍摄出高质量的标识图像。进而通过该机器人的定位方法可以在白天和夜间实现对机器人的精准定位,可以解决当前视觉辅助定位对亮度环境不鲁棒问题。同时,该机器人的定位方法的匹配流程简单,可以解决自建图像库流程繁琐的问题。
同时,该机器人的定位方法使用圆环检测,异常处理,来确定标识正方向并结合PNP求解姿态。该机器人的定位方法经过透视变化,基于圆形检测和排列组合编码来完成标识识别。
为了便于理解本发明实施例的技术方案,接下来结合图2至图3,以所述第一标识为环形结构且所述第二标识为圆形结构为例进行示例性说明。图6是本发明第三实施例的机器人的定位方法的流程示意图,如图6所示,该机器人的定位方法可以包括如下的步骤S601至步骤S612。
步骤S601:已知标识坐标系原点,可得所有圆环和圆的中心坐标。
步骤S602:对红外相机的内部参数(或简称为内参)进行标定。
在步骤S602中,红外相机的内部参数描述了相机坐标系和像素坐标系之间的关系,对相机的内部参数进行标定以方便进行后续使用,红外相机的内部参数包括:相机的焦距、径向畸变和切向畸变等。
步骤S603:通过红外相机采集标识图像。
参见图2,所述标识图像至少包括:三个圆环和两个圆,三个圆环分布在一个矩形的三个角,两个圆分布在矩形的内部。矩形内部可通过等距离划分出若干个点,两个圆可分布在标识图像的若干个点上。将矩形的中心点作为标识坐标系的原点,来确定圆环和圆在标识坐标系下的坐标,且已知标识坐标系在世界坐标系下的位姿。
为了便于获取所述第一标识和所述第二标识,所述第一标识和所述第二标识的材质可以选用反光材料,由于所述第一标识和所述第二标识构成材料反光性强,这样使用红外相机无论在白天还是夜间都可以获得高质量的标识图像。为了保证获取到的标识图像的质量,红外相机获取的标识图像需要使用标定的内部参数进行畸变矫正。
步骤S604:通过opencv检测圆环,以得到圆环在像素坐标系中的坐标。
在步骤S604中,所述像素坐标系是以标识图像的左上角为原点,X轴和Y轴分别平行于标识图像的两边。由于圆环的环状部分为反光材料,在图像中为清晰的亮白色,可以通过检测内部黑色的圆来确定圆环的像素坐标。进一步地,可以使用simpleBlobDetector特征检测器来检测图像中的圆形斑点。
步骤S605:采用最近邻方法过滤掉识别异常的圆环。
为了保证检测到的目标是标识上的圆环,这里使用最近邻方法去过滤异常检测。具体会遍历每个检测目标到其他检测目标的距离,如果在预设距离内有两个其他目标就确定本目标为标识上的圆环。
步骤S606:通过向量夹角确定三个圆环位置的对应顺序,同时采用几何约束算出矩形第四个顶点的像素坐标。在步骤S606之后,可以执行步骤S607至步骤S608或者步骤S609至步骤S611。
在步骤S606中,对于检测到的三个圆环,需要确定具体圆环的对应坐标,这里将三个圆环中心点两两组成向量计算向量夹角,如果某个圆环的中心点与另外的两个圆环的中心点分别组成的向量,这两向量直接的夹角为90度或270度左右,即可确认该圆环为图2中的圆环A,同时可以根据夹角是90左右还是270度左右来分辨出圆环B和圆环C。同时可通过几何约束算出矩形第四个点的像素坐标。
步骤S607:将标识图像根据已知的四个点进行透视变换,以得到所述标识图像转换后的全图。
步骤S608:对透视变换之后的标识图像进行圆检测。
步骤S609:根据检测出来的圆中心点位置进行编码,以确定标识ID,然后执行步骤S612。
在步骤S609中,根据矩形四个点的像素坐标对图像进行透视变化,使得清晰的呈现出矩形中的圆。对其使用opencv的simpleBlobDetector特征检测器进行圆形斑点的检测。对于检测出来的两个圆形,可以得到其在透视变换后的图像中的像素坐标,根据图2中矩形内部等距离的划分可以将内部检测到的点根据位置进行编码。内部有9个点的位置,这里因为只使用了两个圆形图案,根据组合原理共有9x8/2=36种类型,这样就可以确定某种标识的对应ID。某个确定的标识对应唯一固定的世界坐标。
步骤S610:EPNP解算得到标识在相机坐标系下的位姿。
步骤S611:监听相机坐标系到机器人坐标系的变换得到所述第一标识在机器人坐标系下的位姿,然后执行步骤S612。
在步骤S611中,将矩形四个点的像素坐标与标识坐标系下矩形四个点(三个上面有圆环)的坐标一一对应,结合相机的内参数,使用EPNP可以求解出标识坐标系在相机坐标系下的位姿。同时已知相机坐标系和机器人坐标系的关系,可以求解出标识在机器人坐标系下的位姿。
步骤S612:确定不同的标识及其世界坐标系下的位姿,以完成机器人在世界坐标系下的全局定位。
在步骤S612中,根据机器人坐标系下标识的姿态和ID,结合标识坐标系和世界坐标系的关系,可以反过来推算出机器人在世界坐标系下的位姿,从而实现机器人的全局定位。保证机器人运动过程中视野内有标识,就可以实现机器人的全局实时的定位。
在本发明实施例中,使用红外相机作为图像采集装置,用于采集反光材料构成的标识图像,标识图像中包含分别用于姿态估计和ID识别的子标识。通过处理红外相机采集到的标识图像,可以实时判断标识在机器人坐标系下6dof姿态以及标识ID。反过来由于标识在世界坐标系的位姿已知,通过标识的世界坐标就可以反推出机器人的世界坐标,实现机器人的定位。该方法可以与机器人上其他传感器结合来提高机器人的建图和定位的效果,方便导航和避障。
图7是本发明实施例的机器人的定位装置的模块示意图,参见图7,该机器人的定位装置700可以包括如下模块:
第一确定模块701,用于根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿;
第二确定模块702,用于根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID;
第三确定模块703,用于根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位。
可选地,所述第一确定模块701进一步用于:
从所述标识图像解析出第一标识,并确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标。
可选地,该机器人的定位装置700还包括:
标定模块,用于标定相机的内部参数,所述内部参数用于表示相机坐标系和所述像素坐标系之间的关系;
获取模块,用于通过所述相机按照所述内部参数获取预设的标识坐标系下的标识图像。
可选地,该机器人的定位装置700还包括:
解析模块,用于采用最近邻方法,遍历每个解析得到的第一标识,以确定每个解析得到的第一标识到其他第一标识的距离;
执行模块,用于若在预设距离内存在两个所述第一标识,则认定所述第一标识识别正确;
过滤模块,用于若在预设距离内不存在两个所述第一标识,则认定所述第一标识识别异常,过滤掉识别异常的第一标识。
可选地,所述第一标识为三个,三个所述第一标识分别位于矩形的三个顶点上;
该机器人的定位装置700还包括:
第一计算模块,用于将三个所述第一标识的中心点两两组成向量并计算向量夹角,以确定所述第一标识在所述矩形的顺序以及位置;
第二计算模块,用于通过几何约束,计算所述矩形中未设置所述第一标识的顶点的像素坐标。
可选地,所述第一确定模块701进一步用于:
将所述第一标识的像素坐标以及所述矩形中未设置所述第一标识的顶点的像素坐标与标识坐标系下的坐标一一对应;
基于相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿;
根据所述第一标识在相机坐标系下的位姿以及相机坐标系和机器人坐标系的预设关系,确定所述第一标识在机器人坐标系对应的位姿。
可选地,所述第二确定模块702进一步用于:
根据所述第一标识在所述像素坐标系下的像素坐标,对获取到的标识图像进行透视变换;
从透视变换后的所述标识图像中解析出第二标识,并确定所述第二标识在所述像素坐标系下的像素坐标。
除此之外,本发明实施例还提供了一种定位系统,该定位系统包括:如上所述的机器人定位装置、第一标识和第二标识,所述第一标识用于估计机器人的姿态,所述第二标识用于识别ID。
可选地,所述第一标识的数量为至少三个,所述第一标识为环形结构,且环状部分采用反光材料。
可选地,所述第二标识的数量为至少一个,所述第二标识为圆形结构且采用反光材料。
在本发明实施例中,所述第一标识和所述第二标识采用反光材料,是可以在白天和夜间进行姿态估计和识别的标识,进而通过该机器人的定位装置可以在白天和夜间实现对机器人的精准定位,可以解决当前视觉辅助定位对亮度环境不鲁棒问题。同时,该机器人的定位装置的匹配流程简单,可以解决自建图像库流程繁琐的问题。
图8示出了可以应用本发明实施例的机器人的定位方法或机器人的定位装置的示例性系统架构800。
如图8所示,系统架构800可以包括终端设备801、802、803,网络804和服务器805。网络804用以在终端设备801、802、803和服务器805之间提供通信链路的介质。网络804可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备801、802、803通过网络804与服务器805交互,以接收或发送消息等。
终端设备801、802、803包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。服务器805可以是提供各种服务的服务器。
需要说明的是,本发明实施例所提供的机器人的定位方法一般由服务器805执行,相应地,机器人的定位装置一般设置于服务器805中。
应该理解,图8中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图9,其示出了适于用来实现本发明实施例的终端设备的计算机系统900的结构示意图。图9示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机系统900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有系统900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
以下部件连接至I/O接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的姿态;根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID;根据所述第一标识的姿态以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位。
在本发明实施例中,所述第一标识和所述第二标识采用反光材料,是可以在白天和夜间进行姿态估计和识别的标识,进而通过该机器人的定位方法可以在白天和夜间实现对机器人的精准定位,可以解决当前视觉辅助定位对亮度环境不鲁棒问题。同时,该机器人的定位方法的匹配流程简单,可以解决自建图像库流程繁琐的问题。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (13)
1.一种机器人的定位方法,其特征在于,包括:
根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿;
根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID;
根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位;
所述第一标识的数量为至少三个,不同的所述第一标识均位于同一平面,不同所述第一标识中心的连线不在同一直线上;
所述第二标识为位于至少三个所述第一标识围成的结构内的标识。
2.根据权利要求1所述的方法,其特征在于,根据获取到的标识图像,确定第一标识在所述标识图像中预设的像素坐标系下的像素坐标包括:
从所述标识图像解析出第一标识,并确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标。
3.根据权利要求1所述的方法,其特征在于,在根据获取到的标识图像,确定第一标识在所述标识图像中预设的像素坐标系下的像素坐标步骤之前,所述方法还包括:
标定相机的内部参数,所述内部参数用于表示相机坐标系和所述像素坐标系之间的关系;
通过所述相机按照所述内部参数获取预设的标识坐标系下的标识图像。
4.根据权利要求2所述的方法,其特征在于,从所述标识图像解析出第一标识的步骤之后,所述方法还包括:
采用最近邻方法,遍历每个解析得到的第一标识,以确定每个解析得到的第一标识到其他第一标识的距离;
若在预设距离内存在两个所述第一标识,则认定所述第一标识识别正确;
若在预设距离内存在两个所述第一标识,则认定所述第一标识识别异常,过滤掉识别异常的第一标识。
5.根据权利要求4所述的方法,其特征在于,所述第一标识为三个,三个所述第一标识分别位于矩形的三个顶点上;
在确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标的步骤之后,所述方法还包括:
将三个所述第一标识的中心点两两组成向量并计算向量夹角,以确定所述第一标识在所述矩形的顺序以及位置;
通过几何约束,计算所述矩形中未设置所述第一标识的顶点的像素坐标。
6.根据权利要求5所述的方法,其特征在于,根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿包括:
将所述第一标识的像素坐标以及所述矩形中未设置所述第一标识的顶点的像素坐标与标识坐标系下的坐标一一对应;
基于相机的内部参数,根据所述第一标识的像素坐标确定所述第一标识在相机坐标系下的位姿;
根据所述第一标识在相机坐标系下的位姿以及相机坐标系和机器人坐标系的预设关系,确定所述第一标识在机器人坐标系对应的位姿。
7.根据权利要求1所述的方法,其特征在于,根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标包括:
根据所述第一标识在所述像素坐标系下的像素坐标,对获取到的标识图像进行透视变换;
从透视变换后的所述标识图像中解析出第二标识,并确定所述第二标识在所述像素坐标系下的像素坐标。
8.一种机器人的定位装置,其特征在于,包括:
第一确定模块,用于根据获取到的标识图像,所述标识图像中至少包括:第一标识和第二标识,确定所述第一标识在所述标识图像中预设的像素坐标系下的像素坐标,并根据所述第一标识的像素坐标确定所述第一标识在机器人坐标系对应的位姿;
第二确定模块,用于根据获取到的标识图像确定所述第二标识在所述像素坐标系下的像素坐标,并根据所述第二标识的像素坐标确定所述第二标识对应的标识ID;
第三确定模块,用于根据所述第一标识的位姿以及所述第二标识对应的标识ID,确定所述机器人在世界坐标系的位姿,以完成所述机器人的定位;
所述第一标识的数量为至少三个,不同的所述第一标识均位于同一平面,不同所述第一标识中心的连线不在同一直线上;
所述第二标识为位于至少三个所述第一标识围成的结构内的标识。
9.一种定位系统,其特征在于,包括:权利要求8所述的机器人定位装置、第一标识和第二标识,所述第一标识用于估计机器人的姿态,所述第二标识用于识别ID。
10.根据权利要求9所述的定位系统,其特征在于,所述第一标识的数量为至少三个,其中至少三个所述第一标识位于同一平面,且不同所述第一标识中心的连线不在同一直线,所述第一标识为环形结构,且环状部分采用反光材料。
11.根据权利要求9所述的定位系统,其特征在于,所述第二标识的数量为至少一个,所述第二标识为圆形结构且采用反光材料。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110113624.4A CN112767487B (zh) | 2021-01-27 | 2021-01-27 | 机器人的定位方法、装置以及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110113624.4A CN112767487B (zh) | 2021-01-27 | 2021-01-27 | 机器人的定位方法、装置以及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112767487A CN112767487A (zh) | 2021-05-07 |
CN112767487B true CN112767487B (zh) | 2024-04-05 |
Family
ID=75706235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110113624.4A Active CN112767487B (zh) | 2021-01-27 | 2021-01-27 | 机器人的定位方法、装置以及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767487B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113971414A (zh) * | 2021-11-11 | 2022-01-25 | 上海擎朗智能科技有限公司 | 一种标签识别的方法、装置、电子设备及存储介质 |
CN114252012B (zh) * | 2021-12-22 | 2024-01-16 | 上海原能细胞生物低温设备有限公司 | 一种冻存盒孔位的获取方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006185240A (ja) * | 2004-12-28 | 2006-07-13 | Toshiba Corp | 移動ロボット装置 |
CN107481287A (zh) * | 2017-07-13 | 2017-12-15 | 中国科学院空间应用工程与技术中心 | 一种基于多标识的物体定位定姿方法及系统 |
CN107689061A (zh) * | 2017-07-11 | 2018-02-13 | 西北工业大学 | 用于室内移动机器人定位的规则图形码及定位方法 |
CN108510545A (zh) * | 2018-03-30 | 2018-09-07 | 京东方科技集团股份有限公司 | 空间定位方法、空间定位设备、空间定位系统及计算机可读存储介质 |
CN109949366A (zh) * | 2019-03-08 | 2019-06-28 | 鲁班嫡系机器人(深圳)有限公司 | 一种定位设备及其方法 |
CN110264520A (zh) * | 2019-06-14 | 2019-09-20 | 北京百度网讯科技有限公司 | 车载传感器与车辆位姿关系标定方法、装置、设备和介质 |
CN112013850A (zh) * | 2020-10-16 | 2020-12-01 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1828862A2 (en) * | 2004-12-14 | 2007-09-05 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
CN110956660B (zh) * | 2018-09-26 | 2023-10-10 | 深圳市优必选科技有限公司 | 定位方法、机器人以及计算机存储介质 |
-
2021
- 2021-01-27 CN CN202110113624.4A patent/CN112767487B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006185240A (ja) * | 2004-12-28 | 2006-07-13 | Toshiba Corp | 移動ロボット装置 |
CN107689061A (zh) * | 2017-07-11 | 2018-02-13 | 西北工业大学 | 用于室内移动机器人定位的规则图形码及定位方法 |
CN107481287A (zh) * | 2017-07-13 | 2017-12-15 | 中国科学院空间应用工程与技术中心 | 一种基于多标识的物体定位定姿方法及系统 |
CN108510545A (zh) * | 2018-03-30 | 2018-09-07 | 京东方科技集团股份有限公司 | 空间定位方法、空间定位设备、空间定位系统及计算机可读存储介质 |
CN109949366A (zh) * | 2019-03-08 | 2019-06-28 | 鲁班嫡系机器人(深圳)有限公司 | 一种定位设备及其方法 |
CN110264520A (zh) * | 2019-06-14 | 2019-09-20 | 北京百度网讯科技有限公司 | 车载传感器与车辆位姿关系标定方法、装置、设备和介质 |
CN112013850A (zh) * | 2020-10-16 | 2020-12-01 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
基于人工路标的机器人视觉定位研究;韩笑;廖粤峰;;河南机电高等专科学校学报(第05期);9-13 * |
Also Published As
Publication number | Publication date |
---|---|
CN112767487A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11004235B2 (en) | Method and apparatus for determining position and orientation of bucket of excavator | |
US20210366124A1 (en) | Graphical fiducial marker identification | |
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
TWI566204B (zh) | 三維物件識別技術 | |
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
JP3977776B2 (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
US10311593B2 (en) | Object instance identification using three-dimensional spatial configuration | |
CN112767487B (zh) | 机器人的定位方法、装置以及系统 | |
CN107957246B (zh) | 基于双目视觉的传送带上物体几何尺寸测量方法 | |
JP2011238228A (ja) | スクリーン領域検知方法及びシステム | |
CN112652016A (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
Nissler et al. | Evaluation and improvement of global pose estimation with multiple apriltags for industrial manipulators | |
US10248131B2 (en) | Moving object controller, landmark, and moving object control method | |
JP2007200364A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
Kawanishi et al. | Parallel line-based structure from motion by using omnidirectional camera in textureless scene | |
Wang et al. | Scale value guided Lite-FCOS for pointer meter reading recognition | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111832634A (zh) | 异物检测方法、系统、终端设备及存储介质 | |
Karimi et al. | A new method for automatic and accurate coded target recognition in oblique images to improve augmented reality precision | |
Sun et al. | Real-time monocular visual self-localization approach using natural circular landmarks for indoor navigation | |
CN111932611B (zh) | 物体位置获取方法和装置 | |
Kobayashi | SETTLE code—A 2D code for 6-dof localization and its implementation on Android smartphone | |
Xiong et al. | Research on real-time multi-object detections based on template matching | |
Meng et al. | PROB-SLAM: Real-time Visual SLAM Based on Probabilistic Graph Optimization | |
Huang et al. | A checkerboard corner detection method using circular samplers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Beijing Economic and Technological Development Zone, Beijing 100176 Applicant after: Jingdong Technology Information Technology Co.,Ltd. Address before: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Beijing Economic and Technological Development Zone, Beijing 100176 Applicant before: Jingdong Shuke Haiyi Information Technology Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |