CN109571477B - 一种改进的机器人视觉与传送带综合标定方法 - Google Patents
一种改进的机器人视觉与传送带综合标定方法 Download PDFInfo
- Publication number
- CN109571477B CN109571477B CN201811541724.1A CN201811541724A CN109571477B CN 109571477 B CN109571477 B CN 109571477B CN 201811541724 A CN201811541724 A CN 201811541724A CN 109571477 B CN109571477 B CN 109571477B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- robot
- conveyor belt
- coordinate
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种改进的机器人视觉与传送带综合标定方法,传送带坐标系的建立是基于物体在传送带上的移动,考虑相机畸变误差、设备的安装角度误差,对部分误差进行建模分析,同时设置了阈值门限,保证了目标物体在传送带移动的过程中,六自由度机器人能够准确的进行定位和抓取,成功的提高了六自由度机器人运动控制的灵活性和精准性。
Description
技术领域
本发明属于机器视觉、综合标定技术领域,涉及一种改进的机器人视觉与传送带综合标定方法。
背景技术
机器人视觉与传送带综合标定是工业流水线生产中重要的过程之一。传统的传送带上目标抓取的过程,不仅需要投入大量的人力、物力,而且工人工作效率以及完成的质量也不能得到很好的保障。因此实现机器人视觉与传送带标定方法的研究,可以提高工业流水线生产的效率,当然也间接推动了工业自动化的发展。
但是传统六自由度机器人视觉与传送带的标定方法一般忽略了相机畸变的像素偏差和设备安装过程中的角度偏差,使得传送带上的目标难以精确定位。如何改善传统机器人视觉与传送带综合标定的方法是提高工业生产效率的有效途径之一。近年来机器人视觉与传送带综合标定方法被很多领域所应用,因此,采用灵活性强和精确度高的综合标定方法成为趋势。基于改进的机器视觉和传送带的综合标定方法可以对目标物体进行精确定位,节省工业生产成本。因此,采用改进的机器人视觉与传送带综合标定方法具有一定的意义。
发明内容
本发明的目的是提供一种改进的机器人视觉与传送带综合标定方法,解决了传统的六自由度机器人视觉与传送带的标定方法对传送带上目标物体难以精准定位的问题。
本发明所采用的技术方案是,一种改进的机器人视觉与传送带综合标定方法,具体包括如下步骤:
步骤2,建立相机与机器人的关系,将传送带移动范围划分成相机视场和机器人工作区;
步骤3,根据相机与机器人的坐标关系,设立相机坐标系OC-XcYcZc,传送带坐标系OT-XTYTZT,任意选取相机视场中位于同一直线的Pm、Pm1和Pp、Pq四点,移动传送带,获得对应的Pn、Pn1和Pp1、Pq1四点,并记录下这四点的坐标值;
步骤4,计算出步骤3中选取的Pm、、Pp、Pq、Pp1、Pq1、Pm1、Pn1这八点在图像坐标系和机器人坐标系下相对应的欧式距离;
步骤5,根据步骤1的相机安装角度和步骤4的欧式距离,求出目标物体在机器人坐标系以及在图像坐标系下位移的比例关系;
步骤6,根据传送带与机器人坐标关系,任意选取传送带上一点Pa,移动传送带,获得相对应的P1和P2两点,将Pa、P1和P2三点坐标转换成机器人坐标系下的坐标值,并通过编码器记录下位置数值,即可得到机器人坐标系末端移动位置与编码器位置数值的比例系数;
步骤7,记录编码器的位置读数,确定机器人的位移,并将机器人的位移通过向量表示,即可得到位移向量的齐次矩阵;
步骤8,任意选取一点Pb,移动传送带,得到对应的点P3,P3位于P1和P2两点之间,根据传送带和机器人建立的坐标关系,得到传送带基坐标系各轴方向向量表达式;
步骤9,根据传送带与机器人的坐标关系,由步骤7和步骤8确定的P1、P2和P3这三点坐标在传送带坐标系下坐标为 在机器人坐标系下的坐标值为求出传送带坐标系与机器人坐标系的旋转关系和平移关系,并计算出传送带坐标系与机器人坐标系的转换矩阵;
步骤10,任意选取传送带坐标系上一点PT(xT,yT,zT),传送带移动距离L,根据编码器记录下的位置读数,求出机器人坐标系与传送带坐标系的转换关系式;
步骤11,设置标定准确的相机坐标系的误差阈值为ω;
步骤12,根据步骤5的目标物体在机器人坐标系以及在图像坐标系下位移的比例关系、步骤7的齐次矩阵、步骤9的传送带坐标系与机器人坐标系的转换矩阵、步骤10的机器人坐标系与传送带坐标系的转换关系式反推出步骤6和步骤8中任意选取的特征点Pa、Pb的像素坐标,并计算出其在图像坐标系下的误差。
本发明的特点还在于,
步骤1的具体过程如下:
设立相机坐标系,任意选取位于同一坐标轴上的Px1和Px2两点。Px1点位于MP2514相机视场前端,其相机坐标系下坐标为Px2点位于MP2514相机视场后端,其相机坐标系下坐标为根据如下公式(1)求得相机安装角度θ:
θ=arcsin(z2-z1/x2-x1),单位deg (1);
x1、x2代表x坐标轴上的数值,z1、z2代表z坐标轴上的数值。
步骤4在图像坐标下的欧式距离和在机器人坐标系下的欧式距离的具体求解过程如下:
步骤4.1,选用如下公式(2)、(3)计算出步骤3标定的Pm、Pn、Pp、Pq四点在图像坐标系下的欧式距离;
ΔL(m-n)=Lm-Ln (2);
ΔL(p-q)=Lp-Lq (3);
Lm、Ln两点是位于传送带上水平直线的数值,Lp、Lq两点是位于传送带上竖直直线上的数值;
步骤4.2,选用如下公式(4)、(5)计算出步骤3中选取的Pm1、Pn1、Pp1、Pq1四点在机器人坐标系下的欧式距离:
ΔL(m1-n1)=Lm1-Ln1 (4);
ΔL(p1-q1)=Lp1-Lq1 (5);
Lm1、Ln1两点是位于传送带上水平直线的数值,Lp1、Lq1两点是位于传送带上竖直直线上的数值。
步骤6机器人坐标系末端移动位置与编码器位置数值的比例系数具体求解过程如下:
步骤6.3,根据如下公式(7)得到机器人坐标系末端移动位置与编码器位置值的比例系数kT:
步骤7中位移向量的齐次矩阵的求解具体步骤如下:
步骤7.1,记录下传送带移动前后两个位置编码器的读数Ne与N′e,即可根据如下公式(8)确定机器人末端移动的距离ΔLR:
ΔLR=|Ne-N′e|kT (8);
kT是步骤6求出的机器人坐标系末端移动位置与编码器位置值的比例系数;
矩阵中的E代表线性代数中的单位矩阵。
步骤9中传送带坐标系与机器人坐标系的转换矩求解的具体过程如下:
步骤9.1,将传送带移动的方向定为传送带坐标系的方向,若传送带坐标系原点相对机器人坐标系的平移向量为传送带坐标系与机器人坐标系的转换矩阵点P1,P2,P3在传送带坐标系下坐标分别为那么这三点在机器人坐标系下坐标为(i=1,2,3)。由式(9)和式(10)求出传送带坐标系与机器人坐标系的转换矩阵
步骤9.2,列出如下传送带坐标与机器人坐标转换方程(12):
Pi T(i=1,2,3)是在传送带坐标系下P1,P2,P3三点的坐标值;Pi R(i=1,2,3)是在机器人坐标系下的坐标值。
步骤12中选取的特征点的像素坐标的求解以及图像坐标系下的误差求解的具体过程如下:
其中,
步骤12.2,设对相机右下方u轴的影响为uep,对相机左上方u轴的影响为uen,对相机右下方v轴的影响为vep,对相机左上方v轴的影响为ven。则图像坐标下两个坐标轴方向的误差ex_pixel,ey_pixel分别表示为:
ua是特征点Pa在U轴上的坐标值,ub是特征点Pb在U轴上的坐标值。va是特征点Pa在V轴上的坐标值,vb是特征点Pb在V轴上的坐标值。
本发明的有益效果是,考虑了相机的畸变误差,设备的安装角度误差,而且在传送带标定的过程中考虑到已经标定好的相机坐标系与机器人坐标系的关系,设置反馈误差阈值,来让三者的转换关系更加精确,同时也提高了整体的鲁棒性。通过这种传送带的标定方法,可以确定目标物体在传送带上移动过程中其位置在机器人坐标系下的准确位置坐标,使机器人臂末端能精准的抓取传送带上的物体。从而解决了传统六自由度机器人视觉与传送带的标定方法造成传送带上目标难以精准定位和抓取造成的经济损失。
附图说明
图1是本发明一种改进的机器人视觉与传送带综合标定方法中求解相机安装角度θ所建立的坐标系;
图2是本发明一种改进的机器人视觉与传送带综合标定方法中相机与机器人关系建立示意图;
图3是本发明一种改进的机器人视觉与传送带综合标定方法中传送带与机器人关系建立示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种改进的机器人视觉与传送带综合标定方法,具体步骤如下:
步骤1,如图1所示,设立相机坐标系,任意选取位于同一坐标轴上的Px1和Px2两点,Px1点位于MP2514相机视场前端,其相机坐标系下坐标为Px2点位于MP2514相机视场后端,其相机坐标系下坐标为根据如下公式(1)求得相机安装角度θ:
θ=arcsin(z2-z1/x2-x1),单位deg (1);
x1、x2代表x坐标轴上的数值,z1、z2代表z坐标轴上的数值;
步骤2,建立如图2所示的相机与机器人的关系,将传送带移动范围划分成相机视场和机器人工作区;
步骤3,根据图2建立的相机与机器人的坐标关系,设立相机坐标系OC-XcYcZc、传送带坐标系OT-XTYTZT,θ为相机安装角度,任意选取位于传送带上相机视场内的一点Pm,任意选取位于移动传送带上机器人工作区域的一点Pm1,移动传送带,使得点Pm运动到点Pn位置,点Pm1运动到点Pn1位置,移动传送带时,注意保持直线PmPn与传送带上X轴平行,任意选取传送带相机视场内两点Pp和Pq,其构成的直线垂直于直线PmPn,移动传送带,使得点Pp和Pq移动到机器人工作区域内,对应的点分别称为Pp1和Pq1,Pm1和Pn1、Pp1和Pq1四个点在机器人坐标系下的位置即机器人末端的位置,记录下这四点的坐标值;
步骤4,计算出步骤3中选取的Pm、Pm1、Pp、Pq、Pp1、Pq1、Pn、Pn1这八点在图像坐标系和机器人坐标系下相对应的欧式距离。
具体求解过程如下:
步骤4.1,选用如下公式(2)、(3)计算出步骤3标定的Pm、Pn、Pp、Pq四点在图像坐标系下的欧式距离;
ΔL(m-n)=Lm-Ln (2);
ΔL(p-q)=Lp-Lq(3);
Lm、Ln两点是位于传送带上水平直线的数值,Lp、Lq两点是位于传送带上竖直直线上的数值;
步骤4.2,选用如下公式(4)、(5)计算出步骤3中选取的Pm1、Pn1、Pp1、Pq1四点在机器人坐标系下的欧式距离:
ΔL(m1-n1)=Lm1-Ln1 (4);
ΔL(p1-q1)=Lp1-Lq1 (5);
Lm1、Ln1两点是位于传送带上水平直线的数值,Lp1、Lq1两点是位于传送带上竖直直线上的数值;
步骤5:选用如下公式(6),计算出传送带坐标系下X轴方向机器人坐标系中物体位移及其在图像坐标系下位移的比例ΔLx和在Y轴方向下机器人坐标系中物体位移及其在图像坐标系下位移的比例ΔLy;
sinθ代表相机安装角度θ的正弦值;
步骤6,根据图3建立的传送带与机器人坐标关系,任意选取传送带上一点Pa,移动传送带,获得相对应的P1和P2两点,将Pa、P1和P2三点坐标转换成机器人坐标系下的坐标值,并通过编码器记录下微指数值,即可得到机器人坐标系末端移动位置与编码器位置数值的比例系数;
步骤6.3,根据如下公式(7)得到机器人坐标系末端移动位置与编码器位置值的比例系数kT:
步骤7,记录传送带上两个编码器的位置读数,确定机器人的位移,并将机器人的位移通过向量表示,即可得到位移向量的齐次矩阵。
具体步骤如下:
步骤7.1,记录下传送带移动前后两个位置编码器的读数Ne与N′e,即可根据如下公式(8)确定机器人末端移动的距离ΔLR:
ΔLR=|Ne-N′e|kT (8);
kT是步骤6求出的机器人坐标系末端移动位置与编码器位置值的比例系数;
矩阵中的E代表线性代数中的单位矩阵。
步骤8,根据图3传送带与机器人的关系建立示意图,任意选取一点Pb,移动传送带,使得点Pb移动到机器人工作区域内,对应的点称为P3,位于P1和P2中间,尽量保证P3点位于机器人在传送带工作区域内跟踪目标的下限位置,如图3所示,与垂直,同样,移动机器人末端到P3,得到机器人坐标系下P3坐标设为传送带坐标系原点相对于机器人坐标系的点,得到传送带基坐标系各轴方向向量的表达式(10):
步骤9,根据图3建立的传送带与机器人的坐标关系,由步骤7和步骤8确定的P1、P2和P3这三点坐标在传送带坐标系下坐标为 得出在机器人坐标系下的坐标值为求出传送带坐标系与机器人坐标系的旋转关系和平移关系,并计算出传送带坐标系与机器人坐标系的转换矩阵;
具体步骤如下:
步骤9.1,将传送带移动的方向定为传送带坐标系的方向,若传送带坐标系原点相对机器人坐标系的平移向量为传送带坐标系与机器人坐标系的转换矩阵点P1,P2,P3在传送带坐标系下坐标分别为那么这三点在机器人坐标系下坐标为(i=1,2,3)。由式(9)和式(10)求出传送带坐标系与机器人坐标系的转换矩阵
步骤9.2,列出如下传送带坐标与机器人坐标转换方程(12):
Pi T(i=1,2,3)是在传送带坐标系下P1,P2,P3三点的坐标值;Pi R(i=1,2,3)是在机器人坐标系下的坐标值;
步骤10:任意选取传送带坐标系下的一点PT(XT,yT,ZT),传送带移动距离L,记录下起始和末尾两个位置编码器的读数,即可确定该点在机器人坐标系下的坐标PR(xR,yR,zR)。进而得到机器人坐标系和传送带坐标系的转换关系式(13):
步骤11,设置标定准确的相机坐标系的误差阈值为ω;
步骤12:根据步骤5的目标物体在机器人坐标系以及在图像坐标系下位移的比例关系、步骤7的齐次矩阵、步骤9的传送带坐标系与机器人坐标系的转换矩阵、步骤10的机器人坐标系与传送带坐标系的转换关系式反推出步骤6和步骤8中任意选取的特征点Pa、Pb的像素坐标,并计算出图像坐标系下的误差;
具体过程如下:
其中,
步骤12.2,物体成像时像素坐标点位置也会受到光照条件等环境的影响,设对相机右下方u轴的影响为uep,对相机左上方u轴的影响为uen,对相机右下方v轴的影响为Vep,对相机左上方v轴的影响为ven。则图像坐标下两个坐标轴方向的误差ex_pixel,ey_pixel分别表示为:
ua是特征点Pa在U轴上的坐标值,ub是特征点Pb在U轴上的坐标值。va是特征点Pa在V轴上的坐标值,vb是特征点Pb在V轴上的坐标值。
步骤13,根据多次实验结果,取阈值ω为多个像素,当误差均小于ω时,认为传送带坐标系标定成功,如果存在一个大于阈值的数值,重新进行传送带坐标系标定,直至误差小于阈值。
ua是特征点Pa在U轴上的坐标值,ub是特征点Pb在U轴上的坐标值。va是特征点Pa在V轴上的坐标值,vb是特征点Pb在V轴上的坐标值。
本发明一种改进的机器人视觉与传送带综合标定的方法的特点是传送带坐标系的建立是基于物体在传送带上的移动,考虑相机畸变误差、设备的安装角度误差,对部分误差进行建模分析,同时设置了阈值门限,保证了目标物体在传送带移动的过程中,六自由度机器人能够准确的进行定位和抓取,成功的提高了六自由度机器人运动控制的灵活性和精准性。
Claims (7)
1.一种改进的机器人视觉与传送带综合标定方法,其特征在于:具体包括如下步骤:
步骤2,建立相机与机器人的关系,将传送带移动范围划分成相机视场和机器人工作区;
步骤3,根据相机与机器人的坐标关系,设立相机坐标系OC-XcYcZc,传送带坐标系OT-XTYTZT,任意选取相机视场中位于同一直线的Pm、Pm1和Pp、Pq四点,移动传送带,获得对应的Pn、Pn1和Pp1、Pq1四点,并记录下这四点的坐标值;
步骤4,计算出步骤3中选取的Pm、Pp、Pq、Pp1、Pq1、Pm1、Pn1这八点在图像坐标系和机器人坐标系下相对应的欧式距离;
步骤5,根据步骤1的相机安装角度和步骤4的欧式距离,求出目标物体在机器人坐标系以及在图像坐标系下位移的比例关系;
步骤6,根据传送带与机器人坐标关系,任意选取传送带上一点Pa,移动传送带,获得相对应的P1和P2两点,将Pa、P1和P2三点坐标转换成机器人坐标系下的坐标值,并通过编码器记录下位置数值,即可得到机器人坐标系末端移动位置与编码器位置数值的比例系数;
步骤7,记录编码器的位置读数,确定机器人的位移,并将机器人的位移通过向量表示,即可得到位移向量的齐次矩阵;
步骤8,任意选取一点Pb,移动传送带,得到对应的点P3,P3位于P1和P2两点之间,根据传送带和机器人建立的坐标关系,得到传送带基坐标系各轴方向向量表达式;
步骤9,根据传送带与机器人的坐标关系,由步骤7和步骤8确定的P1、P2和P3这三点坐标在传送带坐标系下坐标为 在机器人坐标系下的坐标值为Pi R,求出传送带坐标系与机器人坐标系的旋转关系和平移关系,并计算出传送带坐标系与机器人坐标系的转换矩阵;
步骤10,任意选取传送带坐标系上一点PT(xT,yT,zT),传送带移动距离L,根据编码器记录下的位置读数,求出机器人坐标系与传送带坐标系的转换关系式;
步骤11,设置标定准确的相机坐标系的误差阈值为ω;
步骤12,根据步骤5的目标物体在机器人坐标系以及在图像坐标系下位移的比例关系、步骤7的齐次矩阵、步骤9的传送带坐标系与机器人坐标系的转换矩阵、步骤10的机器人坐标系与传送带坐标系的转换关系式反推出步骤6和步骤8中任意选取的特征点Pa、Pb的像素坐标,并计算出其在图像坐标系下的误差。
3.根据权利要求2所述的一种改进的机器人视觉与传送带综合标定方法,其特征在于:所述步骤4在图像坐标下的欧式距离和在机器人坐标系下的欧式距离的具体求解过程如下:
步骤4.1,选用如下公式(2)、(3)计算出步骤3标定的Pm、Pn、Pp、Pq四点在图像坐标系下的欧式距离;
ΔL(m-n)=Lm-Ln (2);
ΔL(p-q)=Lp-Lq (3);
Lm、Ln两点是位于传送带上水平直线的数值,Lp、Lq两点是位于传送带上竖直直线上的数值;
步骤4.2,选用如下公式(4)、(5)计算出步骤3中选取的Pm1、Pn1、Pp1、Pq1四点在机器人坐标系下的欧式距离:
ΔL(m1-n1)=Lm1-Ln1 (4);
ΔL(p1-q1)=Lp1-Lq1 (5);
Lm1、Ln1两点是位于传送带上水平直线的数值,Lp1、Lq1两点是位于传送带上竖直直线上的数值。
4.根据权利要求3所述的一种改进的机器人视觉与传送带综合标定方法,其特征在于:所述步骤6机器人坐标系末端移动位置与编码器位置数值的比例系数具体求解过程如下:
步骤6.3,根据如下公式(7)得到机器人坐标系末端移动位置与编码器位置值的比例系数kT:
6.根据权利要求5所述的一种改进的机器人视觉与传送带综合标定方法,其特征在于:所述步骤9中传送带坐标系与机器人坐标系的转换矩求解的具体过程如下:
步骤9.1,将传送带移动的方向定为传送带坐标系的方向,若传送带坐标系原点相对机器人坐标系的平移向量为传送带坐标系与机器人坐标系的转换矩阵点P1,P2,P3在传送带坐标系下坐标分别为 那么这三点在机器人坐标系下坐标为Pi R(i=1,2,3),由式(9)和式(10)求出传送带坐标系与机器人坐标系的转换矩阵
步骤9.2,列出如下传送带坐标与机器人坐标转换方程(12):
Pi T(i=1,2,3)是在传送带坐标系下P1,P2,P3三点的坐标值;Pi R(i=1,2,3)是在机器人坐标系下的坐标值。
7.根据权利要求6所述的一种改进的机器人视觉与传送带综合标定方法,其特征在于:所述步骤12中选取的特征点的像素坐标的求解以及图像坐标系下的误差求解的具体过程如下:
其中,
步骤12.2,设对相机右下方u轴的影响为uep,对相机左上方u轴的影响为uen,对相机右下方v轴的影响为vep,对相机左上方v轴的影响为ven,则图像坐标下两个坐标轴方向的误差ex_pixel,ey_pixel分别表示为:
ua是特征点Pa在U轴上的坐标值,ub是特征点Pb在U轴上的坐标值,va是特征点Pa在V轴上的坐标值,vb是特征点Pb在V轴上的坐标值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541724.1A CN109571477B (zh) | 2018-12-17 | 2018-12-17 | 一种改进的机器人视觉与传送带综合标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541724.1A CN109571477B (zh) | 2018-12-17 | 2018-12-17 | 一种改进的机器人视觉与传送带综合标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109571477A CN109571477A (zh) | 2019-04-05 |
CN109571477B true CN109571477B (zh) | 2020-09-22 |
Family
ID=65929709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811541724.1A Expired - Fee Related CN109571477B (zh) | 2018-12-17 | 2018-12-17 | 一种改进的机器人视觉与传送带综合标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109571477B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110281238B (zh) * | 2019-06-17 | 2022-05-17 | 深圳视觉龙智能传感器有限公司 | 流水线多机械手标定方法、装置、计算机设备及存储介质 |
CN110517208B (zh) * | 2019-08-19 | 2023-06-16 | 广东弓叶科技有限公司 | 坐标系关联方法及系统 |
CN110712225A (zh) * | 2019-10-22 | 2020-01-21 | 大连誉洋工业智能有限公司 | 一种机器人对运动工件抓取的方法 |
CN112518746A (zh) * | 2020-11-26 | 2021-03-19 | 江苏电子信息职业学院 | 适用于Delta并联机器人的传送带运动方向及轨迹的标定方法 |
CN112561886A (zh) * | 2020-12-18 | 2021-03-26 | 广东工业大学 | 一种基于机器视觉的工件自动分拣方法及系统 |
CN113547520A (zh) * | 2021-07-21 | 2021-10-26 | 广东拓斯达科技股份有限公司 | 一种机械手移动对位方法、装置、系统及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101308373B1 (ko) * | 2010-11-17 | 2013-09-16 | 삼성전자주식회사 | 로봇 제어방법 |
WO2013176212A1 (ja) * | 2012-05-25 | 2013-11-28 | 学校法人立命館 | ロボット制御装置、ロボット制御方法、プログラム、記録媒体、ロボットシステム |
JP6335460B2 (ja) * | 2013-09-26 | 2018-05-30 | キヤノン株式会社 | ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 |
CN104959982A (zh) * | 2013-10-10 | 2015-10-07 | 精工爱普生株式会社 | 机器人控制系统、机器人、程序以及机器人控制方法 |
CN106607907B (zh) * | 2016-12-23 | 2017-09-26 | 西安交通大学 | 一种移动视觉机器人及其测控方法 |
CN108674922B (zh) * | 2018-05-16 | 2020-06-12 | 广州视源电子科技股份有限公司 | 一种用于机器人的传送带同步跟踪方法、装置及系统 |
CN108789404B (zh) * | 2018-05-25 | 2021-06-18 | 哈尔滨工程大学 | 一种基于视觉的串联机器人运动学参数标定方法 |
CN108818536B (zh) * | 2018-07-12 | 2021-05-14 | 武汉库柏特科技有限公司 | 一种机器人手眼标定的在线偏移修正方法及装置 |
-
2018
- 2018-12-17 CN CN201811541724.1A patent/CN109571477B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN109571477A (zh) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109571477B (zh) | 一种改进的机器人视觉与传送带综合标定方法 | |
CN110014426B (zh) | 一种利用低精度深度相机高精度抓取形状对称工件的方法 | |
CN108731591B (zh) | 一种基于平面约束的机器人工具坐标系标定方法 | |
CN112873199B (zh) | 基于运动学与空间插值的机器人绝对定位精度标定方法 | |
CN107160380B (zh) | 一种基于scara机械手的相机标定和坐标变换的方法 | |
CN108818536A (zh) | 一种机器人手眼标定的在线偏移修正方法及装置 | |
CN111055273B (zh) | 一种用于机器人的两步误差补偿方法 | |
CN109781164B (zh) | 一种线激光传感器的静态标定方法 | |
CN109465829B (zh) | 一种基于转换矩阵误差模型的工业机器人几何参数辨识方法 | |
CN108621162A (zh) | 一种机械臂运动规划方法 | |
WO2012033576A1 (en) | System and method for tool testing and alignment | |
WO2020125732A1 (zh) | 一种机械臂关节传感器的零位校准方法和设备 | |
CN112109072B (zh) | 一种大型稀疏特征托盘精确6d位姿测量和抓取方法 | |
CN115297711B (zh) | 一种基于拟合圆心高精度补偿方法 | |
CN108062071B (zh) | 参数曲线轨迹伺服轮廓误差的实时测定方法 | |
CN111520163A (zh) | 一种智能混喷机器人的混喷方法 | |
Shimojima et al. | The estimation method of uncertainty of articulated coordinate measuring machine | |
CN110181522B (zh) | 一种五自由度首末对称机械臂逆运动学计算的优化方法 | |
CN110181558A (zh) | 一种变臂关节式坐标测量机标定机器人的装置及其方法 | |
CN113799130B (zh) | 一种人机协作装配中的机器人位姿标定方法 | |
CN112894814B (zh) | 一种基于最小二乘法的机械臂dh参数辨识方法 | |
CN109933920A (zh) | 一种旋转轴位置偏差的误差矢量建模方法 | |
CN111623727B (zh) | 一种3d线激光轮廓传感器的快速标定方法 | |
CN108413896B (zh) | 一种机械手标定方法 | |
CN215970736U (zh) | 基于三维视觉引导的钢轨打标装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200922 Termination date: 20201217 |
|
CF01 | Termination of patent right due to non-payment of annual fee |