CN115139283B - 基于随机标记点阵的机器人手眼标定方法 - Google Patents

基于随机标记点阵的机器人手眼标定方法 Download PDF

Info

Publication number
CN115139283B
CN115139283B CN202210842335.2A CN202210842335A CN115139283B CN 115139283 B CN115139283 B CN 115139283B CN 202210842335 A CN202210842335 A CN 202210842335A CN 115139283 B CN115139283 B CN 115139283B
Authority
CN
China
Prior art keywords
coordinate system
lattice
camera
end effector
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210842335.2A
Other languages
English (en)
Other versions
CN115139283A (zh
Inventor
鲁小翔
张瑞
陆坤
葛楼云
刘希慧
高国明
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Shipbuilding Pengli Nanjing Intelligent Equipment System Co ltd
Original Assignee
Csic Pride(nanjing)intelligent Equipment System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Csic Pride(nanjing)intelligent Equipment System Co ltd filed Critical Csic Pride(nanjing)intelligent Equipment System Co ltd
Priority to CN202210842335.2A priority Critical patent/CN115139283B/zh
Publication of CN115139283A publication Critical patent/CN115139283A/zh
Application granted granted Critical
Publication of CN115139283B publication Critical patent/CN115139283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于随机标记点阵的机器人手眼标定方法,包括:对末端执行器进行平移与旋转,借助于3D相机构建点阵坐标系,并获取末端执行器上随机标记点在点阵坐标系中的坐标信息;通过对3D相机的可视圆标记点进行重建及姿态解算,获取点阵坐标系到3D相机坐标之间的转换关系;根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与3D相机坐标系的转换关系,解算出3D相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。本发明以粘贴于机械臂末端执行器上的随机标记点阵为标定靶标,该方法无需依赖于高精度标定靶标,所使用标定靶标制作简单、灵活性强,易于实现自动化高精度标定。

Description

基于随机标记点阵的机器人手眼标定方法
技术领域
本发明涉及工业机器人、机器视觉技术领域,特别是一种基于随机标记点阵的机器人手 眼标定方法。
背景技术
伴随着计算机视觉、人工智能以及机器人等相关技术的发展,由机械臂与3D相机组成 的机器人系统正越来越广泛的应用于各种工业场景,3D相机能让机械臂更快、更智能、更精 确的执行各种复杂的任务。手眼标定是一种将3D相机与机械臂建立联系的方法,手眼标定 的精度直接影响着整个机器人系统的执行精度。
3D相机能够感知工作场景中目标对象的大小、颜色以及深度距离等信息,上述信息是位 于3D相机的相机坐标系中;机械臂的末端执行器在机械臂的基坐标系下抓取工作场景中的 目标对象。由于相机坐标系与机械臂基坐标系的不同导致同一目标对象存在着两组空间坐标。手眼标定的作用就是获取相机坐标系与机械臂基坐标系之间的转换关系,进而实现将3D相 机感知的目标对象信息统一至机械臂的基坐标系中。
现有研究者提出的手眼标定方法主要依赖于平面标定板、立体标定块、标准球等高精度 标定靶标。例如申请号为CN201910491608.1的中国发明专利“一种基于球目标的机器人3D 视觉手眼标定方法”提供了一种使用标准球对机器人手眼关系进行标定的方法,但是该方法 需要解决机械臂末端如何固定标准球的问题;除此之外,该方法单次拍照仅能获取一个标定特征点。申请号为CN201911175406.2的中国发明专利“基于一种新型三维标定块的机器人手 眼标定方法与装置”提出了一种基于三维标定块的机器人手眼标定方法,但该方法所使用的 三维标定制造要求高,不利于眼在手外构型的手眼标定。
综上所述,借助上述靶标工具对系统进行手眼标定时,需要将靶标工具固定在机械臂法 兰末端,故而机械臂末端执行器无法保持正常工作状态,需要对末端执行器进行拆除等操作; 除此之外,还存在单个视野中标定数据较少,需要多次变换标定靶标的位姿,导致标定过程繁琐等问题。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,而提供一种基于随机标记点阵的 机器人手眼标定方法,该基于随机标记点阵的机器人手眼标定方法具有操作简单、精度高、 灵活性强以及易于实现自动化标定等特点。
为解决上述技术问题,本发明采用的技术方案是:
一种基于随机标记点阵的机器人手眼标定方法,包括如下步骤。
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机 通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配, 构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息。
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰 盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对 末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐标系之间的转换关系。
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基 坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取 点阵坐标系到3D相机的相机坐标之间的转换关系。
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐 标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
步骤1中,点阵坐标系的构建方法,包括如下步骤。
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点, 组成随机标记点阵。
步骤1.1.2、寻找点阵坐标系原点:在3D相机视场范围内,以当前末端执行器的位置为 初始位置;在初始位置时,取随机标记点阵中的一个设定圆标记点作为原点Om;此时,原点 Om在相机坐标系下为点Cp。
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离后,点Cp在3D相机视野中变为Cpx,则向量为点阵坐标系的Xm轴;将末端执行器沿法兰盘 坐标系的Y轴运动设定距离后,点Cp在3D相机视野中变为Cpy,则向量为点阵坐标系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
步骤1.1.2中,作为原点Om的设定圆标记点选取方法,包括如下步骤。
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的 n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点 在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心的一个圆标记点作为原点 Om
步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤。
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1 次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每 个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记 点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、 视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点, 且m≥3。
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点 在相机坐标系下形成的点集为视野k+1中末端执行器上圆标记点在相机坐标系下形成的点集为pa和pb为视野1中点集内的两个圆标记点,设qc和qd为视野k+1中点 集内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点 满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集中 寻找出所有满足公式(1-2-1)的m组匹配点对。
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
式中,表示点集中第l组匹配点对所对应的圆标记点坐标,1≤l≤m。
表示点集中第l组匹配点对所对应的圆标记点坐标。
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解。
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T。
步骤1.2.5、计算为视野k+1中点集映射到视野k的映射矩阵,具体表达式 为:
步骤1.2.6、计算为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公 式为:
式中,为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵。
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到。
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到。
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标 系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵进行映射,从而得到点集MP。
步骤2中,法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中, 设为末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N ≤20,则:
式中,为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系。
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种 位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N;
步骤3中,设为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系 的集合,则:
式中,为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过 点阵坐标系构建时的点集映射关系求解得到。
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位 姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机 的可视圆标记点进行重建及姿态解算获得。
的求解方法,包括如下步骤。
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标 记点在相机坐标系下的集合,具体表示为:
式中,表示第i个圆标记点在相机坐标系下的坐标。
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆 标记点在点阵坐标系下的集合,为在点阵坐标系中的映射,具体表示为:
式中,表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
其中:
式中,分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值。
表示相机坐标系下点Cp至点的向量值。
步骤3.1.3、根据计算得到末端执行器位于初始位置时,点阵坐标系到相机 坐标之间的转换关系
的获取方法,包括如下步骤。
步骤3.2.1、获取将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中 可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的 点集设点集中具有n个圆标记点。
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集在 圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标 系中的点集
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
式中,表示点集中第l个圆标记点的相机坐标系坐标,1≤l≤n。
表示点集中第l个圆标记点的点阵坐标系坐标。
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解。
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′。
步骤3.2.5、计算表达式为:
步骤4中,解算手眼关系的方法,包括如下步骤。
步骤4-1、定义为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基 座的空间位置保持不变,因而不随末端执行器的位姿变化而发生改变。
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起, 故满足因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
步骤4-3、求解将步骤2计算得到的以及步骤3计算得到的分别带入公式(4-1)中,进行求解,从而得到
步骤1.1.1中粘贴的每个圆标记点,均包括内层白色圆和同轴设置在内层白色圆外周的黑 色圆环。
本发明具有如下有益效果:
(1)本发明无需依赖于高精度标定靶标,所使用的随机标记点阵制作简单、灵活性强, 标定完成后无需对标定靶标进行拆卸,方便机器人系统使用过程中的校准。
(2)标定过程中3D相机无需感知标记点阵中的所有点,且单个标定姿态下3D相机能 获取丰富的标定特征点,故而易于实现自动化标定。
(3)随着机器人学、计算机视觉以及人工智能等学科的快速发展,基于视觉引导的机器 人自动化作业工位正越来越广泛的应用于工业生产线中。本发明适用于工业六轴机器人与双 目面结构光工业3D相机之间的手眼关系标定,该方法广泛适用于各种工业品的机器人自动上下料、拆码垛、无序抓取以及轨迹引导工位,所述工业品包括单不限于燃气表、压缩机、发 动机缸体等。
(4)本发明的标定时间相较于传统方法提升了约60%,标定精度提升了约30%。
附图说明
图1为本发明的机器人手眼系统示意图。
图2为本发明中设置点阵坐标系的示意图。
图3为本发明中随机标记点在点阵坐标系中的示意图。
图4为本发明基于随机标记点阵的机器人手眼标定方法的流程图。
其中有:1、机器人;2、末端执行器;3、3D相机;4、3D相机安装支架;。
具体实施方式
下面结合附图和具体较佳实施方式对本发明作进一步详细的说明。
本发明的描述中,需要理解的是,术语“左侧”、“右侧”、“上部”、“下部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而 不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,“第一”、“第二”等并不表示零部件的重要程度,因此不能理解为对本发明的限制。本实施例中采用 的具体尺寸只是为了举例说明技术方案,并不限制本发明的保护范围。
如图1所示,基于随机标记点阵的机器人手眼系统,包括机器人1和3D相机3。
机器人1包括机器人基座、机器人手臂、法兰盘和末端执行器2。
机器人基座位置固定,形成机器人的基坐标系。
机器人手臂的肩部与机器人基座相连接,机器人手臂的腕部通过法兰盘安装末端执行器。
3D相机安装在3D相机安装支架顶部,3D相机安装支架设置在机器人基座一侧,从而 使得3D相机与机器人基座的空间位置固定,3D相机能对末端执行器的工作半径进行引导。
进一步,3D相机为3D工业相机,能基于双目三角测量原理对末端执行器等待测物体进 行三维感知。
如图4所示,一种基于随机标记点阵的机器人手眼标定方法,包括如下步骤。
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机 通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配, 构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息。
上述点阵坐标系的构建方法,优选包括如下步骤。
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点, 组成随机标记点阵。
如图2所示,本发明中的圆标记点,均由外层的黑色圆环以及内层的白色圆组成。
步骤1.1.2、寻找点阵坐标系原点
在3D相机视场范围内,以当前末端执行器的位置为初始位置;在初始位置时,取随机 标记点阵中的一个设定圆标记点作为原点Om,如图2和图3所示;此时,原点Om在相机坐标系下为点Cp。
上述作为原点Om的设定圆标记点选取方法,包括如下步骤。
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的 n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点 在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心具体计算方法为:
式中,为点集CPo中的第i个圆标记点。
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心的一个圆标记点作为原点 Om;其中,的计算公式为:
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离(优选 100mm)后,点Cp在3D相机视野中变为Cpx,则向量为点阵坐标系的Xm轴;将末端执行器沿法兰盘坐标系的Y轴运动设定距离(优选100mm)后,点Cp在3D相机视野中变 为Cpy,则向量为点阵坐标系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
本步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤。
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1 次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每 个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记 点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点, 且m≥3。上述两个点集中的匹配点必然满足连续性约束,即正确匹配点对周边存在较多其他 正确匹配点对,进而可消除误匹配情况。
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点 在相机坐标系下形成的点集为视野k+1中末端执行器上圆标记点在相机坐标系下形成 的点集为pa和pb为视野1中点集内的两个圆标记点,设qc和qd为视野k+1中点 集内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点 满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集中 寻找出所有满足公式(1-2-1)的m组匹配点对。
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
式中,表示点集中第l组匹配点对所对应的圆标记点坐标,1≤l≤m。
表示点集中第l组匹配点对所对应的圆标记点坐标。
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解。
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T。
步骤1.2.5、计算为视野k+1中点集映射到视野k的映射矩阵,具体表达式 为:
步骤1.2.6、计算为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公 式为:
式中,为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵,优选为:
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到。
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到。
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标 系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵进行映射,从而得到点集MP。
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰 盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对 末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐标系之间的转换关系。
上述法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中,设为 末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N≤20, 则:
式中,为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系。
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种 位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N。
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基 坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取 点阵坐标系到3D相机的相机坐标之间的转换关系。
为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系的集合,则:
式中,为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过 点阵坐标系构建时的点集映射关系求解得到。
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位 姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机 的可视圆标记点进行重建及姿态解算获得。
上述的求解方法,优选包括如下步骤。
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标 记点在相机坐标系下的集合,具体表示为:
式中,表示第i个圆标记点在相机坐标系下的坐标。
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆 标记点在点阵坐标系下的集合,为在点阵坐标系中的映射,具体表示为:
式中,表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
其中:
式中,分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值。
表示相机坐标系下点Cp至点的向量值。
步骤3.1.3、根据计算得到末端执行器位于初始位置时,点阵坐标系到相机 坐标之间的转换关系
上述的获取方法,包括如下步骤。
步骤3.2.1、获取将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中 可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的 点集设点集中具有n个圆标记点。
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集在 圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标 系中的点集
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
式中,表示点集中第l个圆标记点的相机坐标系坐标,1≤l≤n。
表示点集中第l个圆标记点的点阵坐标系坐标。
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解。
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′。
步骤3.2.5、计算表达式为:
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐 标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
上述解算手眼关系的方法,优选包括如下步骤。
步骤4-1、定义为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基 座的空间位置保持不变,因而不随末端执行器的位姿变化而发生改变。
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起, 故满足因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
步骤4-3、求解将步骤2计算得到的以及步骤3计算得到的分别带入公式(4-1)中,此时,等式(4-1)为经典的AX=XB问题,采用诸如Tsai两步法等方法可求解式中X,即可计算出机器人基坐标系与相机坐标系之间的手眼关系
系统长时间使用后,会出现圆标记点脱落现象。故而每次系统开机后,机器人末端执行 器会沿建立点阵坐标系时的示教轨迹进行运动,更新随机标记点阵中的标记点,同时对系统 进行校准。
当随机点阵中的标记点数量小于指定阈值,系统报警并提示补充标记点。人为随机补充 一定数量的标记点,并令机器人末端执行器沿建立点阵坐标系时的示教轨迹进行运动,更新 随机标记点阵中的标记点即可继续使用上述方法对机器人手眼关系进行校准。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节, 在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均 属于本发明的保护范围。

Claims (8)

1.一种基于随机标记点阵的机器人手眼标定方法,其特征在于:包括如下步骤:
步骤1、构建点阵坐标系:对机器人的末端执行器进行平移与旋转,位置固定的3D相机通过对末端执行器上的随机标记点阵中的圆标记点进行特征识别、双目重建以及多视角匹配,构建点阵坐标系并获取标记点阵在点阵坐标系中的坐标信息;
点阵坐标系的构建方法,包括如下步骤:
步骤1.1.1、粘贴圆标记点:在末端执行器的四周随机粘贴不少于设定数量的圆标记点,组成随机标记点阵;每个圆标记点均包括内层白色圆和同轴设置在内层白色圆外周的黑色圆环;
步骤1.1.2、寻找点阵坐标系原点:在3D相机视场范围内,以当前末端执行器的位置为初始位置;在初始位置时,取随机标记点阵中的一个设定圆标记点作为原点Om;此时,原点Om在相机坐标系下为点Cp;
步骤1.1.3、构建点阵坐标系:将末端执行器沿法兰盘坐标系的X轴运动设定距离后,点Cp在3D相机视野中变为Cpx,则向量为点阵坐标系的Xm轴;将末端执行器沿法兰盘坐标系的Y轴运动设定距离后,点Cp在3D相机视野中变为Cpy,则向量为点阵坐标系的Ym轴,进而得到点阵坐标系为Om-XmYmZm
步骤2、获取法兰盘坐标系与基坐标系之间的转换关系:机器人的末端执行器通过法兰盘安装在机器人本体上;机器人具有基坐标系和法兰盘坐标系;在3D相机视场范围内,对末端执行器的位置及姿态进行变换;获取末端执行器处于不同位姿时,法兰盘坐标系与基坐标系之间的转换关系;
步骤3、获取点阵坐标系到相机坐标之间的转换关系:在步骤2获取法兰盘坐标系与基坐标系之间的转换关系的同时,通过对3D相机的可视圆标记点进行重建及姿态解算,获取点阵坐标系到3D相机的相机坐标之间的转换关系;
步骤4、解算手眼关系:根据法兰盘坐标系与机器人基坐标系以及点阵坐标系与相机坐标系的变换关系,解算出相机坐标系与机器人基坐标系之间的变换矩阵,实现手眼标定。
2.根据权利要求1所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1.1.2中,作为原点Om的设定圆标记点选取方法,包括如下步骤:
步骤1.1.2A、获取点集CPo:末端执行器在初始位置时,使用3D相机识别当前视野中的n个圆标记点并基于双目三角测量原理对n个圆标记点进行三维感知,获取对n个圆标记点在相机坐标系Oc-XcYcZc下的点集CPo
步骤1.1.2B、对点集CPo计算重心
步骤1.1.2C、选择原点Om:将n个圆标记点中最靠近重心的一个圆标记点作为原点Om
3.根据权利要求1所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤1中,标记点阵在点阵坐标系中坐标信息的获取方法,包括如下步骤:
步骤1.2.1、采集所有圆标记点:末端执行器以初始位置为起点,按照设定顺序旋转H-1次,使得末端执行器上所有的圆标记点都能被3D相机观测到;3D相机对位于初始位置和每个旋转位置的末端执行器上的圆标记点依次进行采集;其中,采集得到的初始位置的圆标记点称为视野1,后续根据采集顺序,依次为视野2、视野3、……、视野k、视野k+1、……、视野H;其中,1≤k≤H;两相邻的视野k和视野k+1中具有m个不共线的公共圆标记点,且m≥3;
步骤1.2.2、寻找相邻视野k和视野k+1的匹配点对:设视野k中末端执行器上圆标记点在相机坐标系下形成的点集为视野k+1中末端执行器上圆标记点在相机坐标系下形成的点集为pa和pb为视野1中点集内的两个圆标记点,设qc和qd为视野k+1中点集内的两个圆标记点,根据圆标记点的空间距离不变性以及连续性,当四个标记原点满足如下关系式时:
||pa-pb||2=||qc-qd||2 (1-2-1)
判定点对(pa,pb)与(qc,qd)构成一组匹配点对;重复本步骤1.2.2,从点集中寻找出所有满足公式(1-2-1)的m组匹配点对;
步骤1.2.3、构建目标函数E:采用ICP算法,构建如下的目标函数minE:
式中,表示点集中第l组匹配点对所对应的圆标记点坐标,1≤l≤m;
表示点集中第l组匹配点对所对应的圆标记点坐标;
R为3×3大小的旋转矩阵,待求解;T为3×1大小的平移矩阵,待求解;
步骤1.2.4、求解R和T:采用SVD算法,对目标函数minE进行求解,得到R和T;
步骤1.2.5、计算 为视野k+1中点集映射到视野k的映射矩阵,具体表达式为:
步骤1.2.6、计算 为视野k+1中点集映射到点阵坐标系的映射矩阵,计算公式为:
式中,为视野1中点集映射到点阵坐标系的映射矩阵,为已知矩阵;
为视野2中点集映射到视野1的映射矩阵,根据公式(1-2-3)计算得到;
为视野3中点集映射到视野2的映射矩阵,根据公式(1-2-3)计算得到;
步骤1.2.7、获取点集MP:MP为末端执行器上所有标记圆点构成的标记点阵在点阵坐标系中的坐标信息;将H个视野中所有标记圆点在相机坐标系中的坐标,通过对应的映射矩阵进行映射,从而得到点集MP。
4.根据权利要求3所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤2中,法兰盘坐标系与基坐标系之间转换关系,均通过机器人示教器获取;其中,设为末端执行器在N+1种位姿下,法兰盘坐标系与基坐标系之间转换关系的集合,10≤N≤20,则:
式中,为末端执行器位于初始位置时,法兰盘坐标系与基坐标系之间转换关系;分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位姿、第j种位姿和第N种位姿时,法兰盘坐标系与基坐标系之间转换关系;1≤j≤N。
5.根据权利要求4所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤3中,设为末端执行器在N+1种位姿下,点阵坐标系到相机坐标之间转换关系的集合,则:
式中,为末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系,通过点阵坐标系构建时的点集映射关系求解得到;
分别为末端执行器位于第一种位姿、第二种位姿、第j-1种位姿、第j种位姿和第N种位姿时,点阵坐标系到相机坐标之间的转换关系,通过对3D相机的可视圆标记点进行重建及姿态解算获得。
6.根据权利要求5所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:的求解方法,包括如下步骤:
步骤3.1.1、标记CPoCPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标记点在相机坐标系下的集合,具体表示为:
式中,表示第i个圆标记点在相机坐标系下的坐标;
步骤3.1.2、标记MPoMPo为末端执行器在初始位置时,3D相机视野范围可视的n个圆标记点在点阵坐标系下的集合,为Cpoi在点阵坐标系中的映射,具体表示为:
式中,表示第i个圆标记点在点阵坐标系下的坐标,具体坐标值表示为:
其中:
式中,分别为第i个圆标记点在点阵坐标系下的x向、y向和z向坐标值;
表示相机坐标系下点Cp至点的向量值;
步骤3.1.3、根据计算得到末端执行器位于初始位置时,点阵坐标系到相机坐标之间的转换关系
7.根据权利要求5所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:的获取方法,包括如下步骤:
步骤3.2.1、获取将末端执行器调整至设定的第j位姿,3D相机对处于第j位姿中可视的圆标记点进行特征识别与三维重建,获取当前视野中可视圆标记点在相机坐标系下的点集设点集中具有n个圆标记点;
步骤3.2.2、寻找匹配点对:通过圆标记点空间距离不变性以及连续性,找出点集在圆标记点阵中的匹配点集,根据匹配点集在点集MP中的坐标信息,获得匹配点集在点阵坐标系中的点集
步骤3.2.3、构建目标函数E′:采用ICP算法,构建如下的目标函数minE′:
式中,表示点集中第l个圆标记点的相机坐标系坐标,1≤l≤n;
表示点集中第l个圆标记点的点阵坐标系坐标;
R′为3×3大小的旋转矩阵,待求解;T′为3×1大小的平移矩阵,待求解;
步骤3.2.4、求解R′和T′:采用SVD算法,对目标函数minE′进行求解,得到R′和T′;
步骤3.2.5、计算表达式为:
8.根据权利要求5所述的基于随机标记点阵的机器人手眼标定方法,其特征在于:步骤4中,解算手眼关系的方法,包括如下步骤:
步骤4-1、定义 为相机坐标到基坐标系之间转换关系,由于3D相机和机器人基座的空间位置保持不变,因而不随末端执行器的位姿变化而发生改变;
步骤4-2、建立不同位姿的坐标变换等式:由于末端执行器与机器人法兰盘连接在一起,故满足因而,末端执行器在j-1位姿和j位姿下的坐标变换满足如下等式:
步骤4-3、求解将步骤2计算得到的以及步骤3计算得到的分别带入公式(4-1)中,进行求解,从而得到
CN202210842335.2A 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法 Active CN115139283B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210842335.2A CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210842335.2A CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Publications (2)

Publication Number Publication Date
CN115139283A CN115139283A (zh) 2022-10-04
CN115139283B true CN115139283B (zh) 2023-10-24

Family

ID=83411459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210842335.2A Active CN115139283B (zh) 2022-07-18 2022-07-18 基于随机标记点阵的机器人手眼标定方法

Country Status (1)

Country Link
CN (1) CN115139283B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116160454A (zh) * 2023-03-28 2023-05-26 重庆智能机器人研究院 机器人末端平面视觉“手-眼”标定算法模型
CN117124334B (zh) * 2023-10-23 2024-01-23 湖南视比特机器人有限公司 机器人漂移校正方法、机器人、存储介质和终端设备

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JP2011247759A (ja) * 2010-05-27 2011-12-08 Seiko Epson Corp 三次元形状計測装置、キャリブレーション方法、およびロボット
JP2014032628A (ja) * 2012-08-06 2014-02-20 Nippon Hoso Kyokai <Nhk> 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
CN104354167A (zh) * 2014-08-29 2015-02-18 广东正业科技股份有限公司 一种机器人手眼标定方法及装置
CN106142092A (zh) * 2016-07-26 2016-11-23 张扬 一种基于立体视觉技术对机器人进行示教的方法
CN107498558A (zh) * 2017-09-19 2017-12-22 北京阿丘科技有限公司 全自动手眼标定方法及装置
CN107883870A (zh) * 2017-10-24 2018-04-06 四川雷得兴业信息科技有限公司 基于双目视觉系统和激光跟踪仪测量系统的全局标定方法
CN108519055A (zh) * 2018-04-26 2018-09-11 华中科技大学 一种基于视觉的双机器人相对位姿在线标定方法
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法
CN109059755A (zh) * 2018-06-11 2018-12-21 天津科技大学 一种机器人高精度手眼标定方法
CN109465822A (zh) * 2018-10-22 2019-03-15 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于3d视觉手眼标定方法
CN110116411A (zh) * 2019-06-06 2019-08-13 浙江汉振智能技术有限公司 一种基于球目标的机器人3d视觉手眼标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
CN110842901A (zh) * 2019-11-26 2020-02-28 广东技术师范大学 基于一种新型三维标定块的机器人手眼标定方法与装置
CN110919626A (zh) * 2019-05-16 2020-03-27 广西大学 一种基于立体视觉的机器人手持示教装置及方法
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN112958960A (zh) * 2021-02-08 2021-06-15 革点科技(深圳)有限公司 一种基于光学靶标的机器人手眼标定装置
CN113211444A (zh) * 2021-05-20 2021-08-06 菲烁易维(重庆)科技有限公司 一种用于机器人标定的系统及标定方法
CN113551593A (zh) * 2021-05-31 2021-10-26 北京智机科技有限公司 一种用于涂胶机器人的线激光传感器标定方法
CN114372916A (zh) * 2021-12-31 2022-04-19 易思维(杭州)科技有限公司 一种自动化点云拼接方法
CN114519738A (zh) * 2022-01-24 2022-05-20 西北工业大学宁波研究院 一种基于icp算法的手眼标定误差修正方法
CN114700943A (zh) * 2022-04-02 2022-07-05 武汉数字化设计与制造创新中心有限公司 一种大型水轮机在位机器人加工坐标系标定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7373270B2 (en) * 2003-03-26 2008-05-13 Sony Corporation Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
US11338441B2 (en) * 2017-12-01 2022-05-24 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JP2011247759A (ja) * 2010-05-27 2011-12-08 Seiko Epson Corp 三次元形状計測装置、キャリブレーション方法、およびロボット
JP2014032628A (ja) * 2012-08-06 2014-02-20 Nippon Hoso Kyokai <Nhk> 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
CN104354167A (zh) * 2014-08-29 2015-02-18 广东正业科技股份有限公司 一种机器人手眼标定方法及装置
CN106142092A (zh) * 2016-07-26 2016-11-23 张扬 一种基于立体视觉技术对机器人进行示教的方法
CN107498558A (zh) * 2017-09-19 2017-12-22 北京阿丘科技有限公司 全自动手眼标定方法及装置
CN107883870A (zh) * 2017-10-24 2018-04-06 四川雷得兴业信息科技有限公司 基于双目视觉系统和激光跟踪仪测量系统的全局标定方法
CN108519055A (zh) * 2018-04-26 2018-09-11 华中科技大学 一种基于视觉的双机器人相对位姿在线标定方法
CN109059755A (zh) * 2018-06-11 2018-12-21 天津科技大学 一种机器人高精度手眼标定方法
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法
CN109465822A (zh) * 2018-10-22 2019-03-15 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于3d视觉手眼标定方法
CN110919626A (zh) * 2019-05-16 2020-03-27 广西大学 一种基于立体视觉的机器人手持示教装置及方法
CN110116411A (zh) * 2019-06-06 2019-08-13 浙江汉振智能技术有限公司 一种基于球目标的机器人3d视觉手眼标定方法
CN110555889A (zh) * 2019-08-27 2019-12-10 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN110842901A (zh) * 2019-11-26 2020-02-28 广东技术师范大学 基于一种新型三维标定块的机器人手眼标定方法与装置
CN112958960A (zh) * 2021-02-08 2021-06-15 革点科技(深圳)有限公司 一种基于光学靶标的机器人手眼标定装置
CN113211444A (zh) * 2021-05-20 2021-08-06 菲烁易维(重庆)科技有限公司 一种用于机器人标定的系统及标定方法
CN113551593A (zh) * 2021-05-31 2021-10-26 北京智机科技有限公司 一种用于涂胶机器人的线激光传感器标定方法
CN114372916A (zh) * 2021-12-31 2022-04-19 易思维(杭州)科技有限公司 一种自动化点云拼接方法
CN114519738A (zh) * 2022-01-24 2022-05-20 西北工业大学宁波研究院 一种基于icp算法的手眼标定误差修正方法
CN114700943A (zh) * 2022-04-02 2022-07-05 武汉数字化设计与制造创新中心有限公司 一种大型水轮机在位机器人加工坐标系标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
具有远近视距的两目视觉系统标定技术系统;石世锋等;《光学学报》;第2415001-1-2415001-12 *
基于插值细分的机械臂手眼标定算法;黄腾超等;《厦门大学学报》;第58卷(第6期);第894-899页 *

Also Published As

Publication number Publication date
CN115139283A (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
CN115139283B (zh) 基于随机标记点阵的机器人手眼标定方法
CN108818535B (zh) 机器人3d视觉手眼标定方法
CN112132894B (zh) 一种基于双目视觉引导的机械臂实时跟踪方法
CN108871216B (zh) 一种基于视觉引导的机器人多孔接触式自动测量方法
CN111012506B (zh) 基于立体视觉的机器人辅助穿刺手术末端工具中心标定方法
CN110202573B (zh) 全自动手眼标定、工作平面标定方法及装置
CN111156925A (zh) 基于线结构光和工业机器人的大构件三维测量方法
CN111775146A (zh) 一种工业机械臂多工位作业下的视觉对准方法
CN109794963B (zh) 一种面向曲面构件的机器人快速定位方法
CN107590835A (zh) 一种核环境下机械臂工具快换视觉定位系统与定位方法
CN107214703A (zh) 一种基于视觉辅助定位的机器人自标定方法
CN111872922B (zh) 基于3d视觉传感器的三自由度并联机器人手眼标定方法
CN108942918B (zh) 一种基于线结构光的立体定位方法
CN109781164B (zh) 一种线激光传感器的静态标定方法
CN105014677A (zh) 基于Camshift视觉跟踪和D-H建模算法的视觉机械臂控制装置及方法
CN110136211A (zh) 一种基于主动双目视觉技术的工件定位方法及系统
CN114519738A (zh) 一种基于icp算法的手眼标定误差修正方法
CN113160334B (zh) 一种基于手眼相机的双机器人系统标定方法
CN112958960B (zh) 一种基于光学靶标的机器人手眼标定装置
CN114343847B (zh) 基于光学定位系统的手术机器人的手眼标定方法
CN111452048A (zh) 多机器人相对空间位置关系的标定方法和装置
CN111360821A (zh) 一种采摘控制方法、装置、设备及计算机刻度存储介质
CN110962127B (zh) 一种用于机械臂末端位姿辅助标定装置及其标定方法
Hvilshøj et al. Calibration techniques for industrial mobile manipulators: Theoretical configurations and best practices
CN110992416A (zh) 基于双目视觉与cad模型的高反光面金属零件位姿测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 211153 No.32 Changqing street, Jiangning Development Zone, Nanjing City, Jiangsu Province

Patentee after: China Shipbuilding Pengli (Nanjing) Intelligent Equipment System Co.,Ltd.

Country or region after: China

Address before: 211153 No.32 Changqing street, Jiangning Development Zone, Nanjing City, Jiangsu Province

Patentee before: CSIC PRIDE(Nanjing)Intelligent Equipment System Co.,Ltd

Country or region before: China