CN106671081B - 一种基于单目视觉的少自由度机器人运动学标定方法 - Google Patents

一种基于单目视觉的少自由度机器人运动学标定方法 Download PDF

Info

Publication number
CN106671081B
CN106671081B CN201611080846.6A CN201611080846A CN106671081B CN 106671081 B CN106671081 B CN 106671081B CN 201611080846 A CN201611080846 A CN 201611080846A CN 106671081 B CN106671081 B CN 106671081B
Authority
CN
China
Prior art keywords
monocular vision
chessboard
coordinate system
error
absolute encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611080846.6A
Other languages
English (en)
Other versions
CN106671081A (zh
Inventor
陈启军
张奎
韩新承
陈玺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201611080846.6A priority Critical patent/CN106671081B/zh
Publication of CN106671081A publication Critical patent/CN106671081A/zh
Application granted granted Critical
Publication of CN106671081B publication Critical patent/CN106671081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages

Abstract

本发明涉及一种基于单目视觉的少自由度机器人运动学标定方法,包括:根据现有标定变量U,利用绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的多组位移Δ'进行分级测距并优化;标定棋盘格坐标系与基坐标系的转换角α,并根据转换角α对位移Δ'进行坐标变换得到位移Δ,结合电机角度Θ的变换值得到多组观测变量Vk;利用约束关系,结合多组观测变量Vk对标定变量U进行优化,判断标定变量U是否达到定位精度,若是则完成少自由度机器人的运动学标定,若否则返回重新测量。与现有技术相比,本发明具有单目视觉传感器的测距精度高、实用性强以及节省成本等优点。

Description

一种基于单目视觉的少自由度机器人运动学标定方法
技术领域
本发明涉及工业机器人标定领域,尤其是涉及一种基于单目视觉的少自由度机器人运动学标定方法。
背景技术
精确测量机器人工作末端位移是完成机器人标定的核心。通常借助外界传感器测量其位姿。常用设备包括三坐标测量仪、经纬仪等精密测量仪器。但这些方案的共同缺点在于设备价格昂贵(数十万甚至上百万),使用方法繁琐复杂,往往需要专业人员现场校正操控,使用门槛较高;另一方面,此类设备通常需要占据较大的空间,难以满足生产现场对于高效便捷的要求。
受制于上述设备,工业现场往往采用根据机器人工作实际位置误差,手动拟合补偿函数,但这样并没有将模型中各个机械参数造成的误差解耦,难以满足精确度的要求。且标定结果适用范围具有很大的局限性,往往仅适用于标定过的位置,而其他位置存在较大误差。
基于摄像头的运动学标定方案,以其经济、便捷的优点,能够很好的满足现场标定的要求。测量时,将相机固定在机器人末端,标靶位置固定且已知(或反之)。其基本原理是利用相机相对于固定标靶的移动,得到末端的位移信息。然而,现有的方案往往需要保持整个标靶始终处于视野范围内,利用标靶上所有的特征点,计算所需信息。这种方法很难利用普通相机做到高精度标定。主要原因是以下两点:
1.机器人往往需要较大的工作空间,为了保持标靶始终处于视野范围内,这就要求相机的视野范围很大,相应的每个像素对应的尺寸就很大(很难控制在1mm2以内),难以做到精确定位。
2.标靶会较多的出现在视野中图片的边缘区域。而该部分有很严重的径向畸变。即使经过摄像头标定,其带来的误差也会使测量结果产生较大的波动,给结果的精准度造成干扰。
发明内容
本发明的目的是针对上述问题提供一种基于单目视觉的少自由度机器人运动学标定方法。
本发明的目的可以通过以下技术方案来实现:
一种基于单目视觉的少自由度机器人运动学标定方法,所述方法包括下列步骤:
1)根据现有标定变量U,利用绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的多组位移Δ'进行分级测距并优化,具体为:
11)对绝对值编码棋盘的角点在像素坐标系下的位置坐标进行优化;
12)利用优化后的绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的位移进行分级测距,得到位移Δ',同时测量与位移对应的电机角度Θ的变换值;
2)标定棋盘格坐标系与基坐标系的转换角α,并根据转换角α对位移Δ'进行坐标变换得到位移Δ,结合步骤12)测量的电机角度Θ的变换值得到多组观测变量Vk
3)利用约束关系,结合步骤2)得到的多组观测变量Vk对标定变量U进行优化,判断标定变量U是否达到定位精度,若是则完成少自由度机器人的运动学标定,若否则返回步骤1)。
所述位移Δ'为单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T与单目视觉传感器在中心栅格内部的相对位移T'之和。
所述单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T具体为:根据识别中心栅格阵列的编码,确定单目视觉传感器所在的中心栅格的位置,继而确定单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T。
所述单目视觉传感器在中心栅格内部的相对位移T'具体为:
T'=t(i+1)k-tik
spik=A[Rik tik]Pik
其中,i=0,1,2,...表示单目视觉传感器的不同位置,k表示角点的编号,pik和Pik分别表示角点在像素坐标系与棋盘格坐标系下的坐标,s表示尺度参数,A表示单目视觉传感器内部参数,Rik和tik分别表示单目视觉传感器当前位姿在棋盘格坐标系下的旋转和平移。
所述绝对值编码棋盘的具体构造过程为:根据棋盘大小构造n阶伪随机序列,并将该伪随机序列进行二维延拓,得到与棋盘对应的二维阵列作为棋盘的绝对值编码。
所述对绝对值编码棋盘的角点在像素坐标系下的位置坐标进行优化具体为:
111)根据绝对值编码棋盘的局部特征对角点在像素坐标系下的位置坐标进行优化;
112)根据绝对值编码棋盘的整体属性,对优化后的角点在像素坐标系下的位置坐标进行进一步优化。
所述步骤111)具体为:
1111)根据公式对角点在像素坐标系下的位置坐标进行优化:
其中,p为角点,qj为角点邻域内的点,DI为梯度。
1112)求取步骤1111)优化后的角点误差值判断误差值是否小于误差阈值,若是则得到优化后的位置坐标,若否则返回步骤1111),所述角点误差值具体为:
所述根据绝对值编码棋盘的整体属性进行优化具体为:
1121)根据步骤111)优化后得到的角点在像素坐标系下的位置坐标计算理想角点的坐标集合;
1122)计算步骤1121)得到的理想角点的坐标集合内每对相邻点距离与标准尺寸之间的差的平方和作为当前误差;
1123)判断当前误差是否小于最优误差,若是则将得到的理想角点的坐标集合作为最优的角点坐标集合,并将当前误差作为最优误差,并进入步骤1124),若否则直接进入步骤1124);
1124)判断最优误差是否达到给定阈值或迭代次数是否达到迭代阈值,若是则输出最优的角点坐标集合,若否则返回步骤1121)。
所述标定棋盘格坐标系与基坐标系的转换角α具体为:
21)控制棋盘格坐标系与基坐标系的Z轴平行,并控制机器人沿X轴方向移动;
22)测量机器人移动方向与棋盘格坐标系X轴的夹角,得到棋盘格坐标系与基坐标系的转换角α。
所述对标定变量U进行优化具体为:
Un+1=Un-J(Un,V)+E(Un,V)
E(U,V)=[Γ1...Γt]
Γk=f(Vk,U)
Vk=[Θ1 ... Θm Δx Δy Δz]
其中,E(Un,V)为测量值的误差矩阵,J(Un,V)为误差矩阵的雅可比矩阵,Γk为约束条件。
与现有技术相比,本发明具有以下有益效果:
(1)利用绝对值编码棋盘,实现单目视觉传感器的分级测距,保证了单目视觉传感器始终工作在较小的视野范围内,且图片有效信息集中在图像中央畸变较小的部分,提高单目视觉传感器的测距精度,进而提高了标定的准确性。
(2)分别根据绝对值编码棋盘的局部特征和整体属性对角点的位置坐标进行了优化,使角点的精度达到了亚像素的级别,进一步提高了单目视觉传感器的测距准确度,提高了标定的准确性。
(3)根据绝对值编码棋盘的整体属性对棋盘的角点进行迭代优化,继而优化了机械参数和棋盘格位置参数,排数了人为引入的干扰。
(4)利用单目视觉传感器进行标定,一方面节省成本,另一方面也便于现场安装,实用性强。
附图说明
图1为本发明的方法流程图;
图2为分级测距的示意图,其中(2a)为中心栅格的位置变化示意图,(2b)为光心相对位移示意图;
图3为8阶反馈移位寄存器的示意图;
图4为对伪随机序列进行二维延扩的示意图;
图5为角点位置优化的示意图,其中(5a)为利用棋盘格的局部特征进行角点位置优化,(5b)为利用棋盘格的整体属性进行角点位置优化。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
机器人标定的通常步骤是根据机器人的结构特征,构建运动学模型。并利用模型特性建立观测变量与待标定变量的约束关系;通过外部传感器,高精度地测量所需观测变量;利用约束关系与多组实测值,通过相关数学优化方法,实现对待标定变量的优化;以此修正模型中的机械参数或进行末端的误差补偿,获得高精度的空间定位。
如图1所示,本实施例提供的是一种基于单目视觉的少自由度机器人运动学标定方法,针对的是空间少自由度机器人的标定,即机器人末端存在空间上的位移,没有姿态上的旋转,具体的标定步骤如下:
1)根据现有标定变量U,利用绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的多组位移Δ'进行分级测距并优化;
2)标定棋盘格坐标系与基坐标系的转换角α,并根据转换角α对位移Δ'进行坐标变换得到位移Δ,结合测量的电机角度Θ的变换值得到多组观测变量Vk
3)利用约束关系,结合步骤2)得到的多组观测变量Vk对标定变量U进行优化,判断标定变量U是否达到定位精度,若是则完成少自由度机器人的运动学标定,若否则返回步骤1)。
下面对上述步骤进行具体的阐述:
11)对绝对值编码棋盘的角点在像素坐标系下的位置坐标进行优化:
提高角点识别的精度有利于提高求算的平移向量精度。利用棋盘格的局部特征与整体属性,可以进行两个方面的优化。
如图5中的(5a)所示,考虑到角点应满足性质:在p的图像邻域内的一点qj处,其梯度与向量p-qj垂直,即:
但由于存在误差,记为εj,具体为:
因此总误差为:
根据上述性质,可知步骤111)的具体过程为:
1111)根据公式对角点在像素坐标系下的位置坐标进行优化:
其中,p为角点,qj为角点邻域内的点,DI为梯度。
1112)求取步骤1111)优化后的角点误差值判断误差值是否小于误差阈值,若是则得到优化后的位置坐标,若否则返回步骤1111)。
另一方面,棋盘格打印的尺寸精度可以到0.01mm的数量级。利用尺寸信息(如图5中的(5b)所示)可以在整体布局上对角点进行约束。下述为基于RANSAC对角点布局优化的算法:
1121)根据步骤111)优化后得到的角点在像素坐标系下的位置坐标计算理想角点的坐标集合;
1122)计算步骤1121)得到的理想角点的坐标集合内每对相邻点距离与标准尺寸之间的差的平方和作为当前误差;
1123)判断当前误差是否小于最优误差,若是则将得到的理想角点的坐标集合作为最优的角点坐标集合,并将当前误差作为最优误差,并进入步骤1124),若否则直接进入步骤1124);
1124)判断最优误差是否达到给定阈值或迭代次数是否达到迭代阈值,若是则输出最优的角点坐标集合,若否则返回步骤1121)。
12)利用优化后的绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的位移进行分级测距,得到位移Δ',同时测量与位移对应的电机角度Θ的变换值:
视觉测量系统由单目视觉传感器(即相机)及绝对值编码棋盘组成。由于相机光心C与末端P之间刚性连接,在同一坐标系下,二者的位移相等。定义相机的光心所对应的棋盘格,即图2中心点所在栅格为中心栅格G。如图2所示,相机的位移可以分成两级:中心栅格的位置变化T与光心相对于中心栅格的位置变化T'。可以认为图2中光心先在同一栅格内部平移T',然后移动了两个中心栅格的距离T。
选取中心栅格周围n*n(本实施例中n=8)的棋盘格阵列,那么T可以通过阵列本身的特定标示确定,T'可以利用阵列求算相机外部参数解算。这样的划分能够保证相机工作在足够小的视野范围,从而获得更加精准且鲁棒的测量值。确定中心栅格的在棋盘上的绝对位置需要每个栅格具有独特的标示。可以对其周围n*n的棋盘格阵列进行二进制编码,使每个栅格对应的阵列具有唯一的标示。通过扩展伪随机序列到二维,可以实现栅格的绝对编码。构造一个长度为m=2n-1的伪随机序列需要n阶多项式h(x)。本实施例中以n=8为例,反馈移位寄存器如图3所示。即在给定ai...ai+7后,以此类推。
上述的构造方式可以证明得到寄存器的循环周期为255=28-1。下面将其延扩为50*50的二维阵列。若棋盘格边长为2cm,则会构成1m*1m棋盘,满足使用要求。如图4所示,取前215组编码,分为模块1~5,每个模块43组,每组长度为50。第一行用模块1伪随机编码即43组不同的编码(长度为50),使得在序列中任取8个数都有唯一的一组8位二进制编码与其对应。将1*8的标识延拓为8*8的方阵,后7行与第1行相同,得到8*50的矩阵。其余4个8*50的矩阵可以用类似的方法得到,组合后得到40*50的矩阵,最后10*50的矩阵可由两个5*50的矩阵组合得到,分别采用模块1、2的编码数据延拓。这样,通过图像识别栅格阵列的编码,就能够唯一的确定相机光心所在的栅格位置,从而完成T的测量。
在图2的位移模型中,T'的求算等价于利用给定大小的棋盘对相机外部参数进行标定:
spik=A[Rik tik]Pik
其中i表示相机不同的位置,k表示不同的角点编号,p,P分别为某角点的像素坐标与棋盘格坐标系下的坐标。A为相机内部参数,R,t分别为相机当前位姿在棋盘坐标系下的旋转和平移,s为尺度参数。不同位置之间的相对位移即为:T'=t2-t1
2)标定棋盘格坐标系与基坐标系的转换角α,并根据转换角α对位移Δ'进行坐标变换得到位移Δ,结合步骤12)测量的电机角度Θ的变换值得到多组观测变量Vk
借助现场环境(如物料传送带等)或水平仪等工具,可以保证两坐标系Z轴平行,待标定的参数仅为二者X轴夹角α。标定前,控制机器人沿X轴方向移动,测量其移动方向与棋盘格X轴夹角即为α;利用α值标定机器人参数后,重新测量α。不断重复上述过程以迭代优化。实验证明,该迭代过程重复2-3次既能达到较高的精确度。
3)利用约束关系,结合步骤2)得到的多组观测变量Vk对标定变量U进行优化,判断标定变量U是否达到定位精度,若是则完成少自由度机器人的运动学标定,若否则返回步骤1):
通过上述步骤,可以得到多组观测变量Vk,在上述测距过程完成后,则可以进行机器人的运动学标定:
观测变量V具体如下所示:
Vk=[Θ1 ... Θm Δx Δy Δz]
上式表示第k组观测变量,其中Θ表示m个电机角度,Δ表示末端在空间坐标系x,y,z三个方向上的位移。而标定变量U由机器人的需要标定的机械参数组成。这是结合机器人模型与使用需求确定的。约束条件可以表征为:
Γk=f(Vk,U)
测得V后即可获得多组约束条件。在理想的U下,Γ为零。可以选用适合的数学优化方法最小化Γ,以获得U的最佳值。
高斯牛顿法是常用的解决非线性回归问题的手段。可以将t组测量值表达成误差矩阵的形式:
E(U,V)=[Γ1…Γt]
记误差矩阵的雅克比矩阵为J(U,V),则可逐步优化待标定向量:
Un+1=Un-J(Un,V)+E(Un,V)
通过上述步骤,最终可以完成少自由度机器人的运动学标定。

Claims (10)

1.一种基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述方法包括下列步骤:
1)根据现有标定变量U,利用绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的多组位移Δ'进行分级测距并优化,具体为:
11)对绝对值编码棋盘的角点在像素坐标系下的位置坐标进行优化;
12)利用优化后的绝对值编码棋盘对安装于少自由度机器人上的单目视觉传感器的位移进行分级测距,得到多组位移Δ',同时测量与位移Δ'对应的电机角度Θ;
2)标定棋盘格坐标系与基坐标系的转换角α,并根据转换角α对位移Δ'进行坐标变换得到位移Δ,结合步骤12)测量的电机角度Θ的变换值得到多组观测变量Vk
3)利用约束关系,结合步骤2)得到的多组观测变量Vk对标定变量U进行优化,判断标定变量U是否达到定位精度,若是则完成少自由度机器人的运动学标定,若否则返回步骤1)。
2.根据权利要求1所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述位移Δ'为单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T与单目视觉传感器在中心栅格内部的相对位移T'之和。
3.根据权利要求2所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T具体为:根据识别中心栅格阵列的编码,确定单目视觉传感器所在的中心栅格的位置,继而确定单目视觉传感器在绝对值编码棋盘下的中心栅格位置变化T。
4.根据权利要求2所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述单目视觉传感器在中心栅格内部的相对位移T'具体为:
T'=t(i+1)k-tik
spik=A[Rik tik]Pik
其中,i=0,1,2,...表示单目视觉传感器的不同位置,k表示角点的编号,pik和Pik分别表示角点在像素坐标系与棋盘格坐标系下的坐标,s表示尺度参数,A表示单目视觉传感器内部参数,Rik和tik分别表示单目视觉传感器当前位姿在棋盘格坐标系下的旋转和平移。
5.根据权利要求1所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述绝对值编码棋盘的具体构造过程为:根据棋盘大小构造n阶伪随机序列,并将该伪随机序列进行二维延拓,得到与棋盘对应的二维阵列作为棋盘的绝对值编码。
6.根据权利要求1所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述对绝对值编码棋盘的角点在像素坐标系下的位置坐标进行优化具体为:
111)根据绝对值编码棋盘的局部特征对角点在像素坐标系下的位置坐标进行优化;
112)根据绝对值编码棋盘的整体属性,对优化后的角点在像素坐标系下的位置坐标进行进一步优化。
7.根据权利要求6所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述步骤111)具体为:
1111)根据公式对角点在像素坐标系下的位置坐标进行优化:
其中,p为角点,qj为角点邻域内的点,j为点的编号,DI为梯度;
1112)求取步骤1111)优化后的角点误差值判断误差值是否小于误差阈值,若是则得到优化后的位置坐标,若否则返回步骤1111),所述角点误差值具体为:
8.根据权利要求6所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述根据绝对值编码棋盘的整体属性进行优化具体为:
1121)根据步骤111)优化后得到的角点在像素坐标系下的位置坐标计算理想角点的坐标集合;
1122)计算步骤1121)得到的理想角点的坐标集合内每对相邻点距离与标准尺寸之间的差的平方和作为当前误差;
1123)判断当前误差是否小于最优误差,若是则将得到的理想角点的坐标集合作为最优的角点坐标集合,并将当前误差作为最优误差,并进入步骤1124),若否则直接进入步骤1124);
1124)判断最优误差是否达到给定阈值或迭代次数是否达到迭代阈值,若是则输出最优的角点坐标集合,若否则返回步骤1121)。
9.根据权利要求1所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述标定棋盘格坐标系与基坐标系的转换角α具体为:
21)控制棋盘格坐标系与基坐标系的Z轴平行,并控制机器人沿X轴方向移动;
22)测量机器人移动方向与棋盘格坐标系X轴的夹角,得到棋盘格坐标系与基坐标系的转换角α。
10.根据权利要求1所述的基于单目视觉的少自由度机器人运动学标定方法,其特征在于,所述对标定变量U进行优化具体为:
Un+1=Un-J(Un,V)+E(Un,V)
E(U,V)=[Γ1...Γt]
Γk=f(Vk,U)
Vk=[Θ1...ΘmΔxΔyΔz]
其中,V为所有观测变量构成的矩阵,n为优化过程迭代次数,t为该组观测中能够获得的总的误差个数,k为观测变量编号,m为观测变量中角度量个数,E(Un,V)为测量值的误差矩阵,J(Un,V)为误差矩阵的雅可比矩阵,Γk为约束条件。
CN201611080846.6A 2016-11-30 2016-11-30 一种基于单目视觉的少自由度机器人运动学标定方法 Active CN106671081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611080846.6A CN106671081B (zh) 2016-11-30 2016-11-30 一种基于单目视觉的少自由度机器人运动学标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611080846.6A CN106671081B (zh) 2016-11-30 2016-11-30 一种基于单目视觉的少自由度机器人运动学标定方法

Publications (2)

Publication Number Publication Date
CN106671081A CN106671081A (zh) 2017-05-17
CN106671081B true CN106671081B (zh) 2019-05-14

Family

ID=58866309

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611080846.6A Active CN106671081B (zh) 2016-11-30 2016-11-30 一种基于单目视觉的少自由度机器人运动学标定方法

Country Status (1)

Country Link
CN (1) CN106671081B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111015660B (zh) * 2019-12-24 2022-07-05 江苏生益特种材料有限公司 一种ccl叠制生产机器人视觉系统的使用方法
CN111438688B (zh) * 2020-02-28 2022-03-22 广东拓斯达科技股份有限公司 机器人校正方法、装置、计算机设备及存储介质
CN111739106B (zh) * 2020-08-12 2020-12-25 成都极米科技股份有限公司 角点编码方法、标定方法、装置、电子设备和存储介质
CN112124825B (zh) * 2020-09-22 2022-10-25 同济大学 一种垃圾转运装备机械爪定位控制系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103559708B (zh) * 2013-10-30 2016-08-17 同济大学 基于方靶模型的工业定焦相机参数标定装置
CN103559707B (zh) * 2013-10-30 2016-04-20 同济大学 基于运动方靶标定物的工业定焦相机参数标定方法
CN103729841B (zh) * 2013-12-18 2016-08-24 同济大学 一种基于方靶模型和透视投影的相机畸变校正方法
US9505132B1 (en) * 2015-03-30 2016-11-29 X Development Llc Methods and systems for calibrating a sensor of a robotic device
CN105976402A (zh) * 2016-05-26 2016-09-28 同济大学 一种单目视觉里程计的真实尺度获取方法

Also Published As

Publication number Publication date
CN106671081A (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
CN107175660B (zh) 一种基于单目视觉的六自由度机器人运动学标定方法
CN105066884B (zh) 一种机器人末端定位偏差校正方法及系统
CN106671081B (zh) 一种基于单目视觉的少自由度机器人运动学标定方法
CN107042528A (zh) 一种工业机器人的运动学标定系统及方法
CN110815206B (zh) 一种Stewart型并联机器人运动学标定方法
US6694634B2 (en) Position error evaluation method of moving device and method of improving movement accuracy based on evaluation results thereof
CN108789404A (zh) 一种基于视觉的串联机器人运动学参数标定方法
CN105945909A (zh) 三自由度并联机器人的误差校正方法及系统
CN107608314A (zh) 用于工作单元和工厂级自动化的方法和设备
CN107610178A (zh) 一种工业摄影测量系统相机参数移动式标定方法
CN102208108B (zh) 摄像机大视场高精度快速现场全局标定方法
CN107817682A (zh) 一种基于手眼相机的空间机械臂在轨标定方法及系统
CN104890013A (zh) 一种基于拉线编码器的工业机器人标定算法
CN105910584B (zh) 大尺寸动态摄影测量系统的高精度定向及定向精度评价方法
CN105139411A (zh) 基于四套共线约束标定尺的大视场相机标定方法
CN112767493B (zh) Stewart平台运动学参数的机器视觉标定方法
CN103712557A (zh) 面向特大型齿轮的激光跟踪多站位定位方法
CN106097395A (zh) 一种基于直线位移传感器的工业机器人运动学参数的标定算法
Li et al. Explicit error modeling of dynamic thermal errors of heavy machine tool frames caused by ambient temperature fluctuations
Majarena et al. Modelling and calibration of parallel mechanisms using linear optical sensors and a coordinate measuring machine
CN112816183B (zh) 一种vr头戴显示设备移动特性检测装置及方法
CN106323587B (zh) 机翼风洞试验模型弹性变形的单目视频高精度测量方法
CN113052913A (zh) 一种二级组合视觉测量系统中转位姿高精度标定方法
CN112549018A (zh) 一种机器人线激光快速手眼标定方法
CN107588737A (zh) 一种基于线结构光的圆柱齿轮齿距偏差测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant