CN115139283A - 基于随机标记点阵的机器人手眼标定方法 - Google Patents

基于随机标记点阵的机器人手眼标定方法 Download PDF

Info

Publication number
CN115139283A
CN115139283A CN202210842335.2A CN202210842335A CN115139283A CN 115139283 A CN115139283 A CN 115139283A CN 202210842335 A CN202210842335 A CN 202210842335A CN 115139283 A CN115139283 A CN 115139283A
Authority
CN
China
Prior art keywords
coordinate system
camera
end effector
dot matrix
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210842335.2A
Other languages
English (en)
Other versions
CN115139283B (zh
Inventor
鲁小翔
张瑞
陆坤
葛楼云
刘希慧
高国明
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Shipbuilding Pengli Nanjing Intelligent Equipment System Co ltd
Original Assignee
Csic Pride(nanjing)intelligent Equipment System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Csic Pride(nanjing)intelligent Equipment System Co ltd filed Critical Csic Pride(nanjing)intelligent Equipment System Co ltd
Priority to CN202210842335.2A priority Critical patent/CN115139283B/zh
Publication of CN115139283A publication Critical patent/CN115139283A/zh
Application granted granted Critical
Publication of CN115139283B publication Critical patent/CN115139283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于随机标记点阵的机器人手眼标定方法,包括:对末端执行器进行平移与旋转,借助于3D相机构建点阵坐标系,并获取末端执行器上随机标记点在点阵坐标系中的坐标信息;通过对3D相机的可视圆标记点进行重建及姿态解算,获取点阵坐标系到3D相机坐标之间的转换关系;根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与3D相机坐标系的转换关系,解算出3D相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。本发明以粘贴于机械臂末端执行器上的随机标记点阵为标定靶标,该方法无需依赖于高精度标定靶标,所使用标定靶标制作简单、灵活性强,易于实现自动化高精度标定。

Description

基于随机标记点阵的机器人手眼标定方法
技术领域
本发明涉及工业机器人、机器视觉技术领域,特别是一种基于随机标记点阵的机器人手 眼标定方法。
背景技术
伴随着计算机视觉、人工智能以及机器人等相关技术的发展,由机械臂与3D相机组成 的机器人系统正越来越广泛的应用于各种工业场景,3D相机能让机械臂更快、更智能、更精 确的执行各种复杂的任务。手眼标定是一种将3D相机与机械臂建立联系的方法,手眼标定 的精度直接影响着整个机器人系统的执行精度。
3D相机能够感知工作场景中目标对象的大小、颜色以及深度距离等信息,上述信息是位 于3D相机的相机坐标系中;机械臂的末端执行器在机械臂的基坐标系下抓取工作场景中的 目标对象。由于相机坐标系与机械臂基坐标系的不同导致同一目标对象存在着两组空间坐标。 手眼标定的作用就是获取相机坐标系与机械臂基坐标系之间的转换关系,进而实现将3D相 机感知的目标对象信息统一至机械臂的基坐标系中。
现有研究者提出的手眼标定方法主要依赖于平面标定板、立体标定块、标准球等高精度 标定靶标。例如申请号为CN201910491608.1的中国发明专利“一种基于球目标的机器人3D 视觉手眼标定方法”提供了一种使用标准球对机器人手眼关系进行标定的方法,但是该方法 需要解决机械臂末端如何固定标准球的问题;除此之外,该方法单次拍照仅能获取一个标定 特征点。申请号为CN201911175406.2的中国发明专利“基于一种新型三维标定块的机器人手 眼标定方法与装置”提出了一种基于三维标定块的机器人手眼标定方法,但该方法所使用的 三维标定制造要求高,不利于眼在手外构型的手眼标定。
综上所述,借助上述靶标工具对系统进行手眼标定时,需要将靶标工具固定在机械臂法 兰末端,故而机械臂末端执行器无法保持正常工作状态,需要对末端执行器进行拆除等操作; 除此之外,还存在单个视野中标定数据较少,需要多次变换标定靶标的位姿,导致标定过程 繁琐等问题。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,而提供一种基于随机标记点阵的 机器人手眼标定方法,该基于随机标记点阵的机器人手眼标定方法具有操作简单、精度高、 灵活性强以及易于实现自动化标定等特点。
为解决上述技术问题,本发明采用的技术方案是:
一种基于随机标记点阵的机器人手眼标定方法,包括如下步骤。
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机 通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配, 构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息。
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰 盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对 末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐 标系之间的转换关系。
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基 坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取 点阵坐标系到3D相机的相机坐标之间的转换关系。
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐 标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
步骤1中,点阵坐标系的构建方法,包括如下步骤。
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点, 组成随机标记点阵。
步骤1.1.2、寻找点阵坐标系原点:在3D相机视场范围内,以当前末端执行器的位置为 初始位置;在初始位置时,取随机标记点阵中的一个设定圆标记点作为原点Om;此时,原点 Om在相机坐标系下为点Cp。
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离后,点 Cp在3D相机视野中变为Cpx,则向量
Figure BDA0003750799010000021
为点阵坐标系的Xm轴;将末端执行器沿法兰盘 坐标系的Y轴运动设定距离后,点Cp在3D相机视野中变为Cpy,则向量
Figure BDA0003750799010000022
为点阵坐标 系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
步骤1.1.2中,作为原点Om的设定圆标记点选取方法,包括如下步骤。
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的 n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点 在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心
Figure BDA0003750799010000031
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心
Figure BDA0003750799010000032
的一个圆标记点作为原点 Om
步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤。
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1 次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每 个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记 点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、 视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点, 且m≥3。
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点 在相机坐标系下形成的点集为
Figure BDA0003750799010000033
视野k+1中末端执行器上圆标记点在相机坐标系下形成 的点集为
Figure BDA0003750799010000034
pa和pb为视野1中点集
Figure BDA0003750799010000035
内的两个圆标记点,设qc和qd为视野k+1中点 集
Figure BDA0003750799010000036
内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点 满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集
Figure BDA0003750799010000037
Figure BDA0003750799010000038
中 寻找出所有满足公式(1-2-1)的m组匹配点对。
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
Figure BDA0003750799010000039
式中,
Figure BDA00037507990100000310
表示点集
Figure BDA00037507990100000311
中第l组匹配点对所对应的圆标记点坐标,1≤l≤m。
Figure BDA00037507990100000312
表示点集
Figure BDA00037507990100000313
中第l组匹配点对所对应的圆标记点坐标。
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解。
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T。
步骤1.2.5、计算
Figure BDA00037507990100000314
为视野k+1中点集映射到视野k的映射矩阵,具体表达式 为:
Figure BDA0003750799010000041
步骤1.2.6、计算
Figure BDA0003750799010000042
为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公 式为:
Figure BDA0003750799010000043
式中,
Figure BDA0003750799010000044
为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵。
Figure BDA0003750799010000045
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到。
Figure BDA0003750799010000046
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到。
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标 系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵
Figure BDA0003750799010000047
进行映射,从而得到点集MP。
步骤2中,法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中, 设
Figure BDA0003750799010000048
为末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N ≤20,则:
Figure BDA0003750799010000049
式中,
Figure BDA00037507990100000410
为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系。
Figure BDA00037507990100000411
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种 位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N;
步骤3中,设
Figure BDA00037507990100000412
为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系 的集合,则:
Figure BDA00037507990100000413
式中,
Figure BDA00037507990100000414
为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过 点阵坐标系构建时的点集映射关系求解得到。
Figure BDA00037507990100000415
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位 姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机 的可视圆标记点进行重建及姿态解算获得。
Figure BDA0003750799010000051
的求解方法,包括如下步骤。
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标 记点在相机坐标系下的集合,具体表示为:
Figure BDA0003750799010000052
式中,
Figure BDA0003750799010000053
表示第i个圆标记点在相机坐标系下的坐标。
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆 标记点在点阵坐标系下的集合,为
Figure BDA0003750799010000054
在点阵坐标系中的映射,具体表示为:
Figure BDA0003750799010000055
式中,
Figure BDA0003750799010000056
表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
Figure BDA0003750799010000057
其中:
Figure RE-GDA0003826597700000058
Figure RE-GDA0003826597700000059
Figure RE-GDA00038265977000000510
式中,
Figure BDA00037507990100000511
分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值。
Figure BDA00037507990100000512
表示相机坐标系下点Cp至点
Figure BDA00037507990100000513
的向量值。
步骤3.1.3、根据
Figure BDA00037507990100000514
Figure BDA00037507990100000515
计算得到末端执行器位于初始位置时,点阵坐标系到相机 坐标之间的转换关系
Figure BDA00037507990100000516
Figure BDA00037507990100000517
的获取方法,包括如下步骤。
步骤3.2.1、获取
Figure BDA00037507990100000518
将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中 可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的 点集
Figure BDA00037507990100000519
设点集
Figure BDA00037507990100000520
中具有n个圆标记点。
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集
Figure BDA0003750799010000061
在 圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标 系中的点集
Figure BDA0003750799010000062
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
Figure BDA0003750799010000063
式中,
Figure BDA0003750799010000064
表示点集
Figure BDA0003750799010000065
中第l个圆标记点的相机坐标系坐标,1≤l≤n。
Figure BDA0003750799010000066
表示点集
Figure BDA0003750799010000067
中第l个圆标记点的点阵坐标系坐标。
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解。
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′。
步骤3.2.5、计算
Figure BDA0003750799010000068
表达式为:
Figure BDA0003750799010000069
步骤4中,解算手眼关系
Figure BDA00037507990100000610
的方法,包括如下步骤。
步骤4-1、定义
Figure BDA00037507990100000611
为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基 座的空间位置保持不变,因而
Figure BDA00037507990100000612
不随末端执行器的位姿变化而发生改变。
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起, 故满足
Figure BDA00037507990100000613
因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
Figure BDA00037507990100000614
步骤4-3、求解
Figure BDA00037507990100000615
将步骤2计算得到的
Figure BDA00037507990100000616
Figure BDA00037507990100000617
以及步骤3计算得到的
Figure BDA00037507990100000618
Figure BDA00037507990100000619
分别带入公式(4-1)中,进行求解,从而得到
Figure BDA00037507990100000620
步骤1.1.1中粘贴的每个圆标记点,均包括内层白色圆和同轴设置在内层白色圆外周的黑 色圆环。
本发明具有如下有益效果:
(1)本发明无需依赖于高精度标定靶标,所使用的随机标记点阵制作简单、灵活性强, 标定完成后无需对标定靶标进行拆卸,方便机器人系统使用过程中的校准。
(2)标定过程中3D相机无需感知标记点阵中的所有点,且单个标定姿态下3D相机能 获取丰富的标定特征点,故而易于实现自动化标定。
(3)随着机器人学、计算机视觉以及人工智能等学科的快速发展,基于视觉引导的机器 人自动化作业工位正越来越广泛的应用于工业生产线中。本发明适用于工业六轴机器人与双 目面结构光工业3D相机之间的手眼关系标定,该方法广泛适用于各种工业品的机器人自动上 下料、拆码垛、无序抓取以及轨迹引导工位,所述工业品包括单不限于燃气表、压缩机、发 动机缸体等。
(4)本发明的标定时间相较于传统方法提升了约60%,标定精度提升了约30%。
附图说明
图1为本发明的机器人手眼系统示意图。
图2为本发明中设置点阵坐标系的示意图。
图3为本发明中随机标记点在点阵坐标系中的示意图。
图4为本发明基于随机标记点阵的机器人手眼标定方法的流程图。
其中有:1、机器人;2、末端执行器;3、3D相机;4、3D相机安装支架;。
具体实施方式
下面结合附图和具体较佳实施方式对本发明作进一步详细的说明。
本发明的描述中,需要理解的是,术语“左侧”、“右侧”、“上部”、“下部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而 不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,“第一”、 “第二”等并不表示零部件的重要程度,因此不能理解为对本发明的限制。本实施例中采用 的具体尺寸只是为了举例说明技术方案,并不限制本发明的保护范围。
如图1所示,基于随机标记点阵的机器人手眼系统,包括机器人1和3D相机3。
机器人1包括机器人基座、机器人手臂、法兰盘和末端执行器2。
机器人基座位置固定,形成机器人的基坐标系。
机器人手臂的肩部与机器人基座相连接,机器人手臂的腕部通过法兰盘安装末端执行器。
3D相机安装在3D相机安装支架顶部,3D相机安装支架设置在机器人基座一侧,从而 使得3D相机与机器人基座的空间位置固定,3D相机能对末端执行器的工作半径进行引导。
进一步,3D相机为3D工业相机,能基于双目三角测量原理对末端执行器等待测物体进 行三维感知。
如图4所示,一种基于随机标记点阵的机器人手眼标定方法,包括如下步骤。
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机 通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配, 构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息。
上述点阵坐标系的构建方法,优选包括如下步骤。
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点, 组成随机标记点阵。
如图2所示,本发明中的圆标记点,均由外层的黑色圆环以及内层的白色圆组成。
步骤1.1.2、寻找点阵坐标系原点
在3D相机视场范围内,以当前末端执行器的位置为初始位置;在初始位置时,取随机 标记点阵中的一个设定圆标记点作为原点Om,如图2和图3所示;此时,原点Om在相机坐标系下为点Cp。
上述作为原点Om的设定圆标记点选取方法,包括如下步骤。
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的 n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点 在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心
Figure BDA0003750799010000081
具体计算方法为:
Figure BDA0003750799010000082
式中,
Figure BDA0003750799010000083
为点集CPo中的第i个圆标记点。
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心
Figure BDA0003750799010000084
的一个圆标记点作为原点 Om;其中,
Figure BDA0003750799010000085
的计算公式为:
Figure BDA0003750799010000086
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离(优选 100mm)后,点Cp在3D相机视野中变为Cpx,则向量
Figure BDA0003750799010000087
为点阵坐标系的Xm轴;将末端执行器沿法兰盘坐标系的Y轴运动设定距离(优选100mm)后,点Cp在3D相机视野中变 为Cpy,则向量
Figure BDA0003750799010000088
为点阵坐标系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
本步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤。
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1 次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每 个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记 点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、 视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点, 且m≥3。上述两个点集中的匹配点必然满足连续性约束,即正确匹配点对周边存在较多其他 正确匹配点对,进而可消除误匹配情况。
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点 在相机坐标系下形成的点集为
Figure BDA0003750799010000091
视野k+1中末端执行器上圆标记点在相机坐标系下形成 的点集为
Figure BDA0003750799010000092
pa和pb为视野1中点集
Figure BDA0003750799010000093
内的两个圆标记点,设qc和qd为视野k+1中点 集
Figure BDA0003750799010000094
内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点 满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集
Figure BDA0003750799010000095
Figure BDA0003750799010000096
中 寻找出所有满足公式(1-2-1)的m组匹配点对。
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
Figure BDA0003750799010000097
式中,
Figure BDA0003750799010000098
表示点集
Figure BDA0003750799010000099
中第l组匹配点对所对应的圆标记点坐标,1≤l≤m。
Figure BDA00037507990100000910
表示点集
Figure BDA00037507990100000911
中第l组匹配点对所对应的圆标记点坐标。
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解。
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T。
步骤1.2.5、计算
Figure BDA00037507990100000912
为视野k+1中点集映射到视野k的映射矩阵,具体表达式 为:
Figure BDA00037507990100000913
步骤1.2.6、计算
Figure BDA00037507990100000914
为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公 式为:
Figure BDA00037507990100000915
式中,
Figure BDA0003750799010000101
为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵,优选为:
Figure BDA0003750799010000102
Figure BDA0003750799010000103
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到。
Figure BDA0003750799010000104
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到。
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标 系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵
Figure BDA0003750799010000105
进行映射,从而得到点集MP。
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰 盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对 末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐 标系之间的转换关系。
上述法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中,设
Figure BDA0003750799010000106
为 末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N≤20, 则:
Figure BDA0003750799010000107
式中,
Figure BDA0003750799010000108
为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系。
Figure BDA0003750799010000109
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种 位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N。
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基 坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取 点阵坐标系到3D相机的相机坐标之间的转换关系。
Figure BDA00037507990100001010
为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系的集合,则:
Figure BDA00037507990100001011
式中,
Figure BDA00037507990100001012
为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过 点阵坐标系构建时的点集映射关系求解得到。
Figure BDA0003750799010000111
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位 姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机 的可视圆标记点进行重建及姿态解算获得。
上述
Figure BDA0003750799010000112
的求解方法,优选包括如下步骤。
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标 记点在相机坐标系下的集合,具体表示为:
Figure BDA0003750799010000113
式中,
Figure BDA0003750799010000114
表示第i个圆标记点在相机坐标系下的坐标。
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆 标记点在点阵坐标系下的集合,为
Figure BDA0003750799010000115
在点阵坐标系中的映射,具体表示为:
Figure BDA0003750799010000116
式中,
Figure BDA0003750799010000117
表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
Figure BDA0003750799010000118
其中:
Figure RE-GDA0003826597700000119
Figure RE-GDA00038265977000001110
Figure RE-GDA00038265977000001111
式中,
Figure BDA00037507990100001112
分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值。
Figure BDA00037507990100001113
表示相机坐标系下点Cp至点
Figure BDA00037507990100001114
的向量值。
步骤3.1.3、根据
Figure BDA00037507990100001115
Figure BDA00037507990100001116
计算得到末端执行器位于初始位置时,点阵坐标系到相机 坐标之间的转换关系
Figure BDA00037507990100001117
上述
Figure BDA00037507990100001118
的获取方法,包括如下步骤。
步骤3.2.1、获取
Figure BDA0003750799010000121
将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中 可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的 点集
Figure BDA0003750799010000122
设点集
Figure BDA0003750799010000123
中具有n个圆标记点。
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集
Figure BDA0003750799010000124
在 圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标 系中的点集
Figure BDA0003750799010000125
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
Figure BDA0003750799010000126
式中,
Figure BDA0003750799010000127
表示点集
Figure BDA0003750799010000128
中第l个圆标记点的相机坐标系坐标,1≤l≤n。
Figure BDA0003750799010000129
表示点集
Figure BDA00037507990100001210
中第l个圆标记点的点阵坐标系坐标。
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解。
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′。
步骤3.2.5、计算
Figure BDA00037507990100001211
表达式为:
Figure BDA00037507990100001212
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐 标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
上述解算手眼关系
Figure BDA00037507990100001213
的方法,优选包括如下步骤。
步骤4-1、定义
Figure BDA00037507990100001214
为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基 座的空间位置保持不变,因而
Figure BDA00037507990100001215
不随末端执行器的位姿变化而发生改变。
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起, 故满足
Figure BDA00037507990100001216
因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
Figure BDA00037507990100001217
步骤4-3、求解
Figure BDA00037507990100001218
将步骤2计算得到的
Figure BDA00037507990100001219
Figure BDA00037507990100001220
以及步骤3计算得到的
Figure BDA00037507990100001221
Figure BDA00037507990100001222
分别带入公式(4-1)中,此时,等式(4-1)为经典的AX=XB问题,采用诸如Tsai两步法等方法可求解式中X,即可计算出机器人基坐标系与相机坐标系之间的手眼关系
Figure BDA0003750799010000131
系统长时间使用后,会出现圆标记点脱落现象。故而每次系统开机后,机器人末端执行 器会沿建立点阵坐标系时的示教轨迹进行运动,更新随机标记点阵中的标记点,同时对系统 进行校准。
当随机点阵中的标记点数量小于指定阈值,系统报警并提示补充标记点。人为随机补充 一定数量的标记点,并令机器人末端执行器沿建立点阵坐标系时的示教轨迹进行运动,更新 随机标记点阵中的标记点即可继续使用上述方法对机器人手眼关系进行校准。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节, 在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均 属于本发明的保护范围。

Claims (10)

1.一种基于随机标记点阵的机器人手眼标定方法,其特征在于:包括如下步骤:
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配,构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息;
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐标系之间的转换关系;
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取点阵坐标系到3D相机的相机坐标之间的转换关系;
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
2.根据权利要求1所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1中,点阵坐标系的构建方法,包括如下步骤:
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点,组成随机标记点阵;
步骤1.1.2、寻找点阵坐标系原点:在3D相机视场范围内,以当前末端执行器的位置为初始位置;在初始位置时,取随机标记点阵中的一个设定圆标记点作为原点Om;此时,原点Om在相机坐标系下为点Cp;
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离后,点Cp在3D相机视野中变为Cpx,则向量
Figure FDA0003750797000000011
为点阵坐标系的Xm轴;将末端执行器沿法兰盘坐标系的Y轴运动设定距离后,点Cp在3D相机视野中变为Cpy,则向量
Figure FDA0003750797000000012
为点阵坐标系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
3.根据权利要求2所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1.1.2中,作为原点Om的设定圆标记点选取方法,包括如下步骤:
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心
Figure FDA0003750797000000021
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心
Figure FDA0003750797000000022
的一个圆标记点作为原点Om
4.根据权利要求1所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤:
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点,且m≥3;
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点在相机坐标系下形成的点集为
Figure FDA0003750797000000023
视野k+1中末端执行器上圆标记点在相机坐标系下形成的点集为
Figure FDA0003750797000000024
pa和pb为视野1中点集
Figure FDA0003750797000000025
内的两个圆标记点,设qc和qd为视野k+1中点集
Figure FDA0003750797000000026
内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集
Figure FDA0003750797000000027
Figure FDA0003750797000000028
中寻找出所有满足公式(1-2-1)的m组匹配点对;
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
Figure FDA0003750797000000029
式中,
Figure FDA00037507970000000210
表示点集
Figure FDA00037507970000000211
中第l组匹配点对所对应的圆标记点坐标,1≤l≤m;
Figure FDA00037507970000000212
表示点集
Figure FDA00037507970000000213
中第l组匹配点对所对应的圆标记点坐标;
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解;
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T;
步骤1.2.5、计算
Figure FDA00037507970000000214
为视野k+1中点集映射到视野k的映射矩阵,具体表达式为:
Figure FDA00037507970000000215
步骤1.2.6、计算
Figure FDA0003750797000000031
为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公式为:
Figure FDA0003750797000000032
式中,
Figure FDA0003750797000000033
为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵;
Figure FDA0003750797000000034
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到;
Figure FDA0003750797000000035
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到;
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵
Figure FDA0003750797000000036
进行映射,从而得到点集MP。
5.根据权利要求4所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤2中,法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中,设
Figure RE-FDA0003826597690000038
为末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N≤20,则:
Figure RE-FDA0003826597690000039
式中,
Figure RE-FDA00038265976900000310
为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系;
Figure RE-FDA00038265976900000311
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N。
6.根据权利要求5所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤3中,设
Figure FDA00037507970000000311
为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系的集合,则:
Figure FDA00037507970000000312
式中,
Figure FDA00037507970000000313
为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过点阵坐标系构建时的点集映射关系求解得到;
Figure FDA00037507970000000314
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机的可视圆标记点进行重建及姿态解算获得。
7.根据权利要求6所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:
Figure RE-FDA00038265976900000316
的求解方法,包括如下步骤:
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标记点在相机坐标系下的集合,具体表示为:
Figure RE-FDA0003826597690000041
式中,
Figure RE-FDA0003826597690000042
表示第i个圆标记点在相机坐标系下的坐标;
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标记点在点阵坐标系下的集合,为
Figure RE-FDA0003826597690000043
在点阵坐标系中的映射,具体表示为:
Figure RE-FDA0003826597690000044
式中,
Figure RE-FDA0003826597690000045
表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
Figure RE-FDA0003826597690000046
其中:
Figure RE-FDA0003826597690000047
Figure RE-FDA0003826597690000048
Figure RE-FDA0003826597690000049
式中,
Figure RE-FDA00038265976900000410
分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值;
Figure RE-FDA00038265976900000411
表示相机坐标系下点Cp至点
Figure RE-FDA00038265976900000412
的向量值;
步骤3.1.3、根据
Figure RE-FDA00038265976900000413
Figure RE-FDA00038265976900000414
计算得到末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系
Figure RE-FDA00038265976900000415
8.根据权利要求6所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:
Figure FDA00037507970000000417
的获取方法,包括如下步骤:
步骤3.2.1、获取
Figure FDA00037507970000000418
将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的点集
Figure FDA00037507970000000419
设点集
Figure FDA00037507970000000420
中具有n个圆标记点;
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集
Figure FDA00037507970000000421
在圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标系中的点集
Figure FDA0003750797000000051
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
Figure FDA0003750797000000052
式中,
Figure FDA0003750797000000053
表示点集
Figure FDA0003750797000000054
中第l个圆标记点的相机坐标系坐标,1≤l≤n;
Figure FDA0003750797000000055
表示点集
Figure FDA0003750797000000056
中第l个圆标记点的点阵坐标系坐标;
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解;
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′;
步骤3.2.5、计算
Figure FDA0003750797000000057
表达式为:
Figure FDA00037507970000000519
9.根据权利要求6所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤4中,解算手眼关系
Figure FDA0003750797000000058
的方法,包括如下步骤:
步骤4-1、定义
Figure FDA0003750797000000059
为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基座的空间位置保持不变,因而
Figure FDA00037507970000000510
不随末端执行器的位姿变化而发生改变;
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起,故满足
Figure FDA00037507970000000511
因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
Figure FDA00037507970000000512
步骤4-3、求解
Figure FDA00037507970000000513
将步骤2计算得到的
Figure FDA00037507970000000514
Figure FDA00037507970000000515
以及步骤3计算得到的
Figure FDA00037507970000000516
Figure FDA00037507970000000517
分别带入公式(4-1)中,进行求解,从而得到
Figure FDA00037507970000000518
10.根据权利要求2所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1.1.1中粘贴的每个圆标记点,均包括内层白色圆和同轴设置在内层白色圆外周的黑色圆环。
CN202210842335.2A 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法 Active CN115139283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210842335.2A CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210842335.2A CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Publications (2)

Publication Number Publication Date
CN115139283A true CN115139283A (zh) 2022-10-04
CN115139283B CN115139283B (zh) 2023-10-24

Family

ID=83411459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210842335.2A Active CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Country Status (1)

Country Link
CN (1) CN115139283B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116160454A (zh) * 2023-03-28 2023-05-26 重庆智能机器人研究院 机器人末端平面视觉“手-眼”标定算法模型
CN117124334A (zh) * 2023-10-23 2023-11-28 湖南视比特机器人有限公司 机器人漂移校正方法、机器人、存储介质和终端设备

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
US20040233290A1 (en) * 2003-03-26 2004-11-25 Takeshi Ohashi Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
JP2011247759A (ja) * 2010-05-27 2011-12-08 Seiko Epson Corp 三次元形状計測装置、キャリブレーション方法、およびロボット
JP2014032628A (ja) * 2012-08-06 2014-02-20 Nippon Hoso Kyokai <Nhk> 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
CN104354167A (zh) * 2014-08-29 2015-02-18 广东正业科技股份有限公司 一种机器人手眼标定方法及装置
CN106142092A (zh) * 2016-07-26 2016-11-23 张扬 一种基于立体视觉技术对机器人进行示教的方法
CN107498558A (zh) * 2017-09-19 2017-12-22 北京阿丘科技有限公司 全自动手眼标定方法及装置
CN107883870A (zh) * 2017-10-24 2018-04-06 四川雷得兴业信息科技有限公司 基于双目视觉系统和激光跟踪仪测量系统的全局标定方法
CN108519055A (zh) * 2018-04-26 2018-09-11 华中科技大学 一种基于视觉的双机器人相对位姿在线标定方法
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法
CN109059755A (zh) * 2018-06-11 2018-12-21 天津科技大学 一种机器人高精度手眼标定方法
CN109465822A (zh) * 2018-10-22 2019-03-15 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于3d视觉手眼标定方法
CN110116411A (zh) * 2019-06-06 2019-08-13 浙江汉振智能技术有限公司 一种基于球目标的机器人3d视觉手眼标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
CN110842901A (zh) * 2019-11-26 2020-02-28 广东技术师范大学 基于一种新型三维标定块的机器人手眼标定方法与装置
CN110919626A (zh) * 2019-05-16 2020-03-27 广西大学 一种基于立体视觉的机器人手持示教装置及方法
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
US20200198146A1 (en) * 2017-12-01 2020-06-25 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same
CN112958960A (zh) * 2021-02-08 2021-06-15 革点科技(深圳)有限公司 一种基于光学靶标的机器人手眼标定装置
CN113211444A (zh) * 2021-05-20 2021-08-06 菲烁易维(重庆)科技有限公司 一种用于机器人标定的系统及标定方法
CN113551593A (zh) * 2021-05-31 2021-10-26 北京智机科技有限公司 一种用于涂胶机器人的线激光传感器标定方法
CN114372916A (zh) * 2021-12-31 2022-04-19 易思维(杭州)科技有限公司 一种自动化点云拼接方法
CN114519738A (zh) * 2022-01-24 2022-05-20 西北工业大学宁波研究院 一种基于icp算法的手眼标定误差修正方法
CN114700943A (zh) * 2022-04-02 2022-07-05 武汉数字化设计与制造创新中心有限公司 一种大型水轮机在位机器人加工坐标系标定方法

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
US20040233290A1 (en) * 2003-03-26 2004-11-25 Takeshi Ohashi Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
JP2011247759A (ja) * 2010-05-27 2011-12-08 Seiko Epson Corp 三次元形状計測装置、キャリブレーション方法、およびロボット
JP2014032628A (ja) * 2012-08-06 2014-02-20 Nippon Hoso Kyokai <Nhk> 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
CN104354167A (zh) * 2014-08-29 2015-02-18 广东正业科技股份有限公司 一种机器人手眼标定方法及装置
CN106142092A (zh) * 2016-07-26 2016-11-23 张扬 一种基于立体视觉技术对机器人进行示教的方法
CN107498558A (zh) * 2017-09-19 2017-12-22 北京阿丘科技有限公司 全自动手眼标定方法及装置
CN107883870A (zh) * 2017-10-24 2018-04-06 四川雷得兴业信息科技有限公司 基于双目视觉系统和激光跟踪仪测量系统的全局标定方法
US20200198146A1 (en) * 2017-12-01 2020-06-25 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same
CN108519055A (zh) * 2018-04-26 2018-09-11 华中科技大学 一种基于视觉的双机器人相对位姿在线标定方法
CN109059755A (zh) * 2018-06-11 2018-12-21 天津科技大学 一种机器人高精度手眼标定方法
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法
CN109465822A (zh) * 2018-10-22 2019-03-15 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于3d视觉手眼标定方法
CN110919626A (zh) * 2019-05-16 2020-03-27 广西大学 一种基于立体视觉的机器人手持示教装置及方法
CN110116411A (zh) * 2019-06-06 2019-08-13 浙江汉振智能技术有限公司 一种基于球目标的机器人3d视觉手眼标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN110842901A (zh) * 2019-11-26 2020-02-28 广东技术师范大学 基于一种新型三维标定块的机器人手眼标定方法与装置
CN112958960A (zh) * 2021-02-08 2021-06-15 革点科技(深圳)有限公司 一种基于光学靶标的机器人手眼标定装置
CN113211444A (zh) * 2021-05-20 2021-08-06 菲烁易维(重庆)科技有限公司 一种用于机器人标定的系统及标定方法
CN113551593A (zh) * 2021-05-31 2021-10-26 北京智机科技有限公司 一种用于涂胶机器人的线激光传感器标定方法
CN114372916A (zh) * 2021-12-31 2022-04-19 易思维(杭州)科技有限公司 一种自动化点云拼接方法
CN114519738A (zh) * 2022-01-24 2022-05-20 西北工业大学宁波研究院 一种基于icp算法的手眼标定误差修正方法
CN114700943A (zh) * 2022-04-02 2022-07-05 武汉数字化设计与制造创新中心有限公司 一种大型水轮机在位机器人加工坐标系标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石世锋等: "具有远近视距的两目视觉系统标定技术系统", 《光学学报》, pages 2415001 - 1 *
黄腾超等: "基于插值细分的机械臂手眼标定算法", 《厦门大学学报》, vol. 58, no. 6, pages 894 - 899 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116160454A (zh) * 2023-03-28 2023-05-26 重庆智能机器人研究院 机器人末端平面视觉“手-眼”标定算法模型
CN117124334A (zh) * 2023-10-23 2023-11-28 湖南视比特机器人有限公司 机器人漂移校正方法、机器人、存储介质和终端设备
CN117124334B (zh) * 2023-10-23 2024-01-23 湖南视比特机器人有限公司 机器人漂移校正方法、机器人、存储介质和终端设备

Also Published As

Publication number Publication date
CN115139283B (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN108555908B (zh) 一种基于rgbd相机的堆叠工件姿态识别及拾取方法
CN115139283B (zh) 基于随机标记点阵的机器人手眼标定方法
CN111156925B (zh) 基于线结构光和工业机器人的大构件三维测量方法
CN107139178B (zh) 一种无人机及其基于视觉的抓取方法
CN109859275B (zh) 一种基于s-r-s结构的康复机械臂的单目视觉手眼标定方法
CN112132894B (zh) 一种基于双目视觉引导的机械臂实时跟踪方法
CN110695993B (zh) 一种柔性机械臂同步测量方法、系统及装置
CN108818535B (zh) 机器人3d视觉手眼标定方法
CN109794963B (zh) 一种面向曲面构件的机器人快速定位方法
CN110170995B (zh) 一种基于立体视觉的机器人快速示教方法
CN110202573B (zh) 全自动手眼标定、工作平面标定方法及装置
CN111012506B (zh) 基于立体视觉的机器人辅助穿刺手术末端工具中心标定方法
CN111872922B (zh) 基于3d视觉传感器的三自由度并联机器人手眼标定方法
CN109079794B (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN109940626B (zh) 一种基于机器人视觉的画眉机器人系统的控制方法
CN113160334B (zh) 一种基于手眼相机的双机器人系统标定方法
CN111452048B (zh) 多机器人相对空间位置关系的标定方法和装置
CN114519738A (zh) 一种基于icp算法的手眼标定误差修正方法
CN112958960B (zh) 一种基于光学靶标的机器人手眼标定装置
CN110962127B (zh) 一种用于机械臂末端位姿辅助标定装置及其标定方法
CN113028990A (zh) 一种基于加权最小二乘的激光跟踪姿态测量系统及方法
Hvilshøj et al. Calibration techniques for industrial mobile manipulators: Theoretical configurations and best practices
CN112123329B (zh) 一种机器人3d视觉手眼标定方法
CN116071436A (zh) 一种异构双目的蝠鲼机器人目标识别与测距方法及系统
CN115194774A (zh) 一种基于多目视觉的双机械臂抓握系统控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 211153 No.32 Changqing street, Jiangning Development Zone, Nanjing City, Jiangsu Province

Patentee after: China Shipbuilding Pengli (Nanjing) Intelligent Equipment System Co.,Ltd.

Country or region after: China

Address before: 211153 No.32 Changqing street, Jiangning Development Zone, Nanjing City, Jiangsu Province

Patentee before: CSIC PRIDE(Nanjing)Intelligent Equipment System Co.,Ltd

Country or region before: China