CN101630409B - 一种用于机器人制孔系统的手眼视觉标定方法 - Google Patents

一种用于机器人制孔系统的手眼视觉标定方法 Download PDF

Info

Publication number
CN101630409B
CN101630409B CN2009100912779A CN200910091277A CN101630409B CN 101630409 B CN101630409 B CN 101630409B CN 2009100912779 A CN2009100912779 A CN 2009100912779A CN 200910091277 A CN200910091277 A CN 200910091277A CN 101630409 B CN101630409 B CN 101630409B
Authority
CN
China
Prior art keywords
coordinate system
tcp
robot
point
prime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100912779A
Other languages
English (en)
Other versions
CN101630409A (zh
Inventor
战强
王祥
毕树生
姚艳杉
宗光华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN2009100912779A priority Critical patent/CN101630409B/zh
Publication of CN101630409A publication Critical patent/CN101630409A/zh
Application granted granted Critical
Publication of CN101630409B publication Critical patent/CN101630409B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本发明公开了一种用于机器人制孔系统的手眼视觉标定方法,首先标定出机器人末端执行器上的工具坐标系原点即TCP,在所拍摄的平面内建立景物坐标系然后拍摄此平面内的两点,并用TCP接触这两点从而得到摄像机成像坐标系与景物坐标系之间的关系,并利用此关系计算出TCP在景物坐标系中的位置关系。最后,通过建立的景物坐标系作为中间转换坐标系间接得到了TCP与摄像机成像坐标系之间的位置关系,即得到了手眼关系。本发明忽略了手眼关系中摄像机的深度信息,将标定过程转化为几何关系,标定过程简便,计算量小,不需要昂贵的三坐标测量设备且精度较高,具有较高的实用价值,能够满足机器人制孔系统的实际工作需求。

Description

一种用于机器人制孔系统的手眼视觉标定方法
技术领域
本发明涉及一种用于机器人制孔系统的手眼视觉标定方法,属于先进制造与自动化领域。
背景技术
机器人制孔系统作为一种较新的自动化技术,对于飞机制造以及其他需要大量制孔的工业领域有着重要意义。为了实现机器人制孔系统的智能化和柔性化,需要为机器人加装视觉系统。通过视觉系统可以为机器人的制孔过程提供导航和定位信息。
现有技术中,机器人视觉主要有激光视觉或摄像机视觉两种视觉传感方式。前者主要是利用激光跟踪仪等设备获取目标点位置信息,其特点是精度高,但是设备价格昂贵而且得到的信息比较单一。摄像机视觉在机器人系统中也较为广泛,其特点是信息量大,速度较快,精度及自动化程度较高且成本相对较低,因此基于摄像机的手眼视觉可以适用于机器人制孔系统,手眼关系的标定是手眼视觉技术应用的关键环节。
以前的手眼视觉标定方法大多将摄像机的内、外参数同时求解出来,其过程复杂需要求解大量矩阵齐次变换方程AX=XB(Y.C.Shiu and S.Ahmad,“Calibration ofwrist-mounted robotic sensors by solving homogeneous transform equations of theform AX=XB”,IEEE Trans.Robot.Automat.,vol.5,pp.16-29,Feb.1989),这些方法在计算过程中由于计算机舍入误差的积累最终影响标定精度。除此之外还可采用三坐标测量设备进行手眼标定(周富强、张广军,现场双经纬仪三维坐标测量系统[J].机械工程学报,vol.40,No.1,2004,pp.165-169),但该方法成本高,且不适用于在工业环境下的现场标定。
Product manuals,ABB Robot Document IRB 1410M2004,2004公开了机器人“四点法”,用于标定机器人末端TCP(Tool Center Point)。
机器人工作前在所加工的零件上建立一个坐标系,此坐标系即为工件坐标系,机器人通常工作在工件坐标系下。例如工件坐标系的建立可以由“三点法”标定得到,见Productmanuals,ABB Robot Document IRB 1410 M2004,2004。工件坐标系是根据工件自由建立的,而且建立的方法不仅限于″三点法″,甚至可以把机器人基坐标系也建立为工件坐标系,工件坐标系的目的是为了方便机器人对工件的加工。
对于机器人制孔系统而言,由于机器人末端执行器要始终垂直于工件表面,手眼关系中的摄像机深度信息并不重要,因此可以将标定方法进行简化从而减少不必要的计算增强现场标定的可靠性与实用性。
发明内容
本发明的目的是为了解决现有技术存在的上述不足和缺陷,提供一种用于机器人制孔系统的二维手眼视觉标定方法,该方法操作简便易于掌握,计算量少,成本低且具有较高的精度,能够满足机器人制孔系统在生产过程中的应用需要。
本发明的一种用于机器人制孔系统的手眼视觉标定方法,包括以下几个步骤:
首先标定出机器人末端执行器上的工具坐标系原点即TCP,在所拍摄的平面内建立景物坐标系然后拍摄此平面内的两点,并用TCP接触这两点从而得到摄像机成像坐标系与景物坐标系之间的关系,并利用此关系计算出TCP在景物坐标系中的位置关系。最后,通过建立的景物坐标系作为中间转换坐标系间接得到了TCP与摄像机成像坐标系之间的位置关系,即得到了手眼关系。具体为:
步骤一:利用“四点法”将机器人末端执行器的刀具中心点标定为工具坐标系原点即TCP;
步骤二:将标定模板平面与机器人基坐标系底平面平行放置;
步骤三:调整机器人末端与摄像机同时垂直于标定模板;
步骤四:记录摄像机拍摄标定模板成清晰图像时,工具坐标系TCP的位置,在图像中选择任意两点p′1与p′2,并计算出两点在摄像机成像坐标系x′o′y′中的位置以及与坐标系x′轴所成的夹角γ;
步骤五:用TCP点接触标定模板上确定的p1与p2,并记录p1与p2在机器人基坐标系W中的位置坐标,计算出p1与p2连线在机器人基坐标系W中与坐标系xw轴所成的夹角θ;
步骤六:计算机器人末端TCP距离标定模板高度为Hw时摄像机成像坐标x′o′y′系与景物坐标系xoy的比例关系k;
步骤七:计算摄像机成像坐标系x′o′y′与景物坐标系xoy之间的旋转角度、位置转换关系、TCP在景物坐标系xoy中的位置坐标以及TCP在摄像机成像坐标系x′o′y′中对应的位置关系,得到机器人手眼的相对关系;
步骤八:确定目标点在景物坐标系xoy中的位置,得到目标点在机器人的工件坐标系中的位置坐标,实现目标点的定位并为机器人制孔提供导航信息。
本发明的优点在于:
本发明忽略了手眼关系中摄像机的深度信息,将标定过程转化为几何关系,标定过程简便,计算量小,不需要昂贵的三坐标测量设备且精度较高,具有较高的实用价值,能够满足机器人制孔系统的实际工作需求。
附图说明
图1是本发明的一种用于机器人制孔系统的手眼视觉标定方法的流程图;
图2是本发明的坐标系在器人制孔系统中的关系示意图;
图3是本发明的步骤一到步骤七中的坐标示意图;
图4是本发明的步骤八中的坐标示意图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
本发明是一种用于机器人制孔系统的手眼视觉标定方法,流程如图1所示,包括以下几个步骤:
本发明所用的坐标系转换关系,如图2所示,其中W为机器人的世界坐标系(WorldCoordinate),通常此坐标系与机器人基坐标系重合,本发明中所述的世界坐标系与基坐标系表示的是同一个坐标系。E为机器人末端坐标系,在工业机器人中此坐标系一般称为工具坐标系(Tool Coordinate),此坐标系的原点为TCP(Tool Center Point)。C为摄像机成像坐标系(Imaging Coordinate)。
景物坐标系xoy定义在摄像机所拍摄的平面,其原点o为摄像机成像坐标系x′o′y′原点在摄像机所拍摄的平面中的对应点即摄像机所能拍摄最大范围的左上角点,其坐标轴x、y与摄像机成像坐标系x′、y′平行。
步骤一:利用“四点法”将机器人末端执行器的刀具中心点标定为工具坐标系原点即TCP。
利用机器人工具坐标系的“四点法”将机器人末端执行器上刀具的中心尖点标定为TCP,如图3所示,其中P点代表末端执行器上的TCP,Pxw与Pyw分别代表平行机器人基坐标系两坐标轴的方向,P点在景物坐标系xoy中的坐标为(xp,yp)。
步骤二:将标定模板平面与机器人基坐标系底平面平行放置。
将所用的标定模板放在平台上,调整平台使标定模板所在平面与机器人基坐标系底平面平行。
步骤三:调整机器人末端与摄像机同时垂直于标定模板。
使机器人末端垂直于机器人基坐标系底平面,通过安装或调节摄像机光轴,使得摄像机也垂直于机器人基坐标系底平面,此时机器人末端与摄像机同时垂直于标定模板。
步骤四:记录摄像机拍摄标定模板成清晰图像时,工具坐标系TCP的位置,在图像中选择任意两点p′1与p′2,并计算出两点在摄像机成像坐标系x′o′y′中的位置以及与坐标系x′轴所成的夹角γ。
用摄像机拍摄标定模板并调整机器人末端TCP与标定模板之间的距离,直到拍摄所成的图像清晰为止,记录此时由机器人系统得到的TCP的坐标值为(xp w,yp w,zp w)。在图像中选择拍摄到的任意两点p′1与p′2,如图3所示,摄像机成像坐标系为x′o′y′,两个点分别为p′1与p′2,p′1与p′2在摄像机成像坐标系x′o′y′中的位置坐标为(x′1,y′1)与(x′2,y′2),标定模板上与p′1与p′2对应的两点记为p1与p2,坐标为(x1,y1)与(x2,y2),根据直角三角形的边角关系可以计算出p′1与p′2连线‖p′1p′2‖的距离为:
| | p ′ 1 p ′ 2 | | = ( x ′ 2 - x ′ 1 ) 2 + ( y ′ 2 - y ′ 2 ) 2 - - - ( 1 )
‖p′1p′2‖为摄像机成像坐标系x′o′y′内p′1与p′2两点间连线距离的像素值;
p′1与p′2两点连线与x′轴的夹角:
γ = tg - 1 y ′ 1 - y ′ 2 x ′ 1 - x ′ 2 - - - ( 2 )
步骤五:用TCP点接触标定模板上确定的p1与p2,并记录p1与p2在机器人基坐标系W中的位置坐标,计算出p1与p2连线在机器人基坐标系W中与坐标系xw轴所成的夹角θ。
用TCP点接触标定模板上在步骤四中选择的p1与p2,通过工具坐标系E到机器人基坐标系W的转换可以从工业机器人系统中得到p1与p2两点在机器人基坐标系W中的位置坐标分别为(x1 w,y1 w,z1 w)与(x2 w,y2 w,z2 w),因为p1与p2所在标定模板平面与机器人基坐标系底面平行,因此两点在在轴方向的值相同,即 z 1 w = z 2 w , 则与步骤四同理计算出p1与p2连线的距离:
| | p 1 p 2 | | = ( x 2 w - x 1 w ) 2 + ( y 2 w - y 1 w ) 2 - - - ( 3 )
‖p1p2‖为景物坐标系xoy中p1与p2两点连线的实际距离;
p1与p2连线与基坐标系xw轴方向的夹角θ:
θ = tg - 1 y 1 w - y 2 w x 1 w - x 2 w - - - ( 4 )
由于机器人末端垂直于标定模板因此用步骤四记录的拍摄清晰时TCP的位置坐标以及TCP与标定模板上p1或p2点接触时TCP的位置坐标在机器人基坐标系Z轴方向的值相减,算出拍摄清晰时TCP距标定模板垂直距离,此距离将作为定位时机器人末端TCP距离标定模板的高度Hw
H w = | z p - z 1 w | = | z p - z 2 w | - - - ( 5 )
步骤六:计算机器人末端TCP距离标定模板高度为Hw时摄像机成像坐标x′o′y′系与景物坐标系xoy的比例关系k。
在机器人末端TCP距离标定模板的高度为Hw时,将步骤四及步骤五中确定的‖p′1p′2‖、‖p1p2‖相比,计算出在此高度时摄像机的放大率,即摄像机成像坐标系x′o′y′与景物坐标系xoy的比例关系。
如图3所示,摄像机成像坐标系为x′o′y′,与之对应的景物坐标系为xoy。步骤四中在图像中选择任意两点为p′1与p′2,在摄像机成像坐标系x′o′y′中的位置坐标为(x′1,y′1)与(x′2,y′2)p1与p2在景物坐标系xoy的位置坐标分别记为(x1,y1)与(x2,y2)。
由于景物坐标系xoy与摄像机成像坐标系x′o′y′平行,因此p1,p2连线与景物坐标系x轴夹角也为γ,且摄像机成像坐标系x′o′y′与景物坐标系xoy为比例放大关系,比例系数k为:
k = | | p ′ 1 p ′ 2 | | | | p 1 p 2 | | - - - ( 6 )
则景物坐标系xoy中的(x、y)与摄像机成像坐标系为x′o′y′中(x′、y′)的关系为:
x y = k x ′ y ′ - - - ( 7 )
由步骤四得到的p′1与p′2坐标,也就得到了p1与p2在景物坐标系xoy中的具体坐标值分别为
(x1,y1)=k(x′1,y′1)(8)
(x2,y2)=k(x′2,y′2)(9)
步骤七:计算摄像机成像坐标系x′o′y′与景物坐标系xoy之间的旋转角度、位置转换关系、TCP在景物坐标系xoy中的位置坐标以及TCP在摄像机成像坐标系x′o′y′中对应的位置关系,得到机器人手眼的相对关系。
由p′1与p′2两点连线与x′轴的夹角γ与P1与P2连线与基坐标系xw轴方向的夹角θ得到景物坐标系xoy相对于世界坐标系W的转角φ为:
φ=θ-γ(10)
根据步骤四得到的拍摄清晰时TCP的位置坐标(xp,yp,zp)以及步骤五中p1在机器人基坐标系W中的位置坐标(x1 w,y1 w,z1 w),得出TCP从拍摄位置到与p1接触时TCP所移动的距离投影在景物坐标系xoy平面内的距离‖pp1‖为:
| | pp 1 | | = ( x p - x 1 w ) 2 + ( y p - y 1 w ) 2 - - - ( 11 )
pp1与世界坐标系xw轴的夹角δ为:
δ = tg - 1 y p - y 1 w x p - x 1 w - - - ( 12 )
由此可得pp1与景物坐标系x轴的夹角ω为:
ω=δ-φ(13)
将‖pp1‖在景物坐标系得两轴方向上分解,记x轴方向分解的距离为D,y轴方向分解的距离为H,则可以得到
D=‖pp1‖·cosω(14)
H=‖pp1‖·sinω(15)
通过步骤六求出的p1在景物坐标系中的坐标值(x1,y1)=k(x′1,y′1)算出TCP在景物坐标系xoy中距离原点的x轴方向的偏移量d以及y轴方向的偏移量h,即图3中P点在景物坐标系xoy中的坐标:
x p y p = d h = x 1 - D H + y 1 = kx ′ 1 - | | pp 1 | | · cos ( δ + γ - θ ) | | pp 1 | | · sin ( δ + γ - θ ) + ky ′ 1 - - - ( 16 )
由于景物坐标系xoy与摄像机成像坐标系x′o′y′的比例关系k已知,则通过式(16)建立了TCP与摄像机成像坐标系x′o′y′的关系,完成标定,得到的机器人手眼的相对关系。
步骤八:确定目标点在景物坐标系xoy中的位置,得到目标点在机器人的工件坐标系中的位置坐标,实现目标点的定位并为机器人制孔提供导航信息。
以与标定时相同的机器人末端姿态及拍摄距离拍摄目标点,利用步骤七得到的机器人手眼关系进行目标点的定位,通过计算目标点在摄像机成像坐标系x′o′y′中的位置以及利用摄像机成像坐标系x′o′y′与景物坐标系xoy之间的关系确定目标点在景物坐标系xoy中的位置,然后通过TCP与景物坐标系xoy之间的位置关系,得到目标点相对于TCP之间的位置关系,从而得到了目标点在机器人建立的工件坐标系中的位置坐标实现了目标点的定位并为机器人制孔提供了导航信息。
机器人末端姿态与标定时相同以及TCP距离工件的高度Hw保持不变,则比例系数k以及景物坐标系xoy相对于工件坐标系的转角φ不变,TCP在景物坐标系xoy中的位置坐标也不变,如图4所示,图中x′w与y′w为与末端执行器垂直的工件坐标系两轴方向平行,设A点为机器人需要制孔的点,坐标为工件坐标系中的坐标(xA,yA),当摄像机拍摄到A点时,得到图像中A′点在摄像机成像坐标系x′o′y′中的坐标为(x′A,y′A),则A点在景物坐标系xoy中的坐标为(xA,yA)=k(x′A,y′A)。
P点为末端执行器TCP在景物坐标系xoy中的位置,其坐标值(xp,yp)已经由步骤七获得,其具体值由图4中TCP在两轴方向上的偏移量d′和h′来表示。
A点到TCP的距离分别在景物坐标系xoy中x轴与y轴方向上分解的距离分别为D′和H′,如图4所示:
D′=xA-d′(17)
H′=h′-yA(18)
根据几何关系得出A点到TCP的距离‖PA‖:
| | PA | | = H ′ 2 + D ′ 2 - - - ( 19 )
A点到TCP连线与景物坐标系xoy中x轴的夹角ω′为:
ω ′ = tg - 1 H ′ D ′ - - - ( 20 )
得到A点到TCP连线与工件坐标系平行的x′w轴的夹角δ′为:
δ′=ω′+φ(21)
将‖PA‖在x′w轴与y′w轴方向上分解得到TCP移动到A点在工件坐标系下两轴方向上的偏移量分别为
Figure G2009100912779D00064
D x w = | | PA | | · cos δ ′ - - - ( 22 )
H y w = | | PA | | · sin δ ′ - - - ( 23 )
则A点在工件坐标系中的位置坐标(xA,yA)为:
(xA,yA)=(xp+‖PA‖·cosδ′,yp-‖PA‖·sinδ′)(24)
求出的A点在工件坐标系中的坐标,实现为机器人末端执行器制孔提供导航信息。
实施例:
应用本发明所述的方法,首先用末端执行器进行制孔得到孔的实际位置坐标,然后用摄像机拍摄,进行定位得到孔的定位坐标并算出定位误差,数据如表1所示:
表1定位误差数据表
  组号 实际坐标 定位坐标 Δx/mm Δy/mm   定位误差E/mm
  1   (1168.24,-5.19)   (1168.25,-5.16)   0.01   0.03   ±0.03
  2   (1176.87,-81.80)   (1176.99,-81.77)   0.12   0.03   ±0.12
  3   (1132.69,-35.58)   (1132.87,-35.44)   0.18   0.14   ±0.23
  4   (1086.87,-8.79)   (1087.01,-8.68)   0.14   0.11   ±0.18
  5   (1135.85,-66.08)   (1135.98,-66.00)   0.13   0.08   ±0.15
  6   (1117.18,-40.99)   (1117.04,-40.90)   -0.14   0.09   ±0.17
  7   (1095.93,-36.56)   (1095.81,-36.38)   -0.12   0.18   ±0.22
  8   (1126.31,-28.24)   (1126.41,-28.11)   0.10   0.13   ±0.16
表中Δx,Δy为定位坐标与实际坐标在两轴方向上的偏差,定位误差根据下式计算:
E = Δx 2 + Δy 2 - - - ( 25 )
从表1中的结果可以看出本发明所述方法的定位误差在±0.3mm以内,可以满足机器人制孔系统的定位精度要求。

Claims (1)

1.一种用于机器人制孔系统的手眼视觉标定方法,其特征在于,包括以下几个步骤:
W为机器人的世界坐标系(World Coordinate),世界坐标系与基坐标系表示的是同一个坐标系;E为机器人末端坐标系,也为工具坐标系(Tool Coordinate),此坐标系的原点为TCP(Tool Center Point);C为摄像机成像坐标系(Imaging Coordinate);
景物坐标系xoy定义在摄像机所拍摄的平面,其原点o为摄像机成像坐标系x′o′y′原点在摄像机所拍摄的平面中的对应点即摄像机所能拍摄最大范围的左上角点,其坐标轴x、y与摄像机成像坐标系x′、y′平行;
步骤一:利用“四点法”将机器人末端执行器的刀具的中心尖点标定为工具坐标系原点即TCP;
利用机器人工具坐标系的“四点法”将机器人末端执行器上刀具的中心尖点标定为TCP,计为P,在景物坐标系xoy中位置坐标为(xp,yp);
步骤二:将标定模板平面与机器人基坐标系底平面平行放置;
将所用的标定模板放在平台上,调整平台使标定模板所在平面与机器人基坐标系底平面平行;
步骤三:调整机器人末端与摄像机同时垂直于标定模板;
使机器人末端垂直于机器人基坐标系底平面,通过安装或调节摄像机光轴,使得摄像机也垂直于机器人基坐标系底平面,此时机器人末端与摄像机同时垂直于标定模板;
步骤四:记录摄像机拍摄标定模板成清晰图像时工具坐标系TCP的位置,在图像中选择任意两点p′1与p′2,并计算出两点在摄像机成像坐标系x′o′y′中的位置以及与坐标系x′轴所成的夹角γ;
用摄像机拍摄标定模板并调整机器人末端TCP与标定模板之间的距离,直到拍摄所成的图像清晰为止,记录此时由机器人系统得到的TCP的坐标值为
Figure FSB00000471372900011
在图像中选择拍摄到的任意两点p′1与p′2,p′1与p′2在摄像机成像坐标系x′o′y′中的位置坐标为(x′1,y′1)与(x′2,y′2),标定模板上与p′1与p′2对应的两点记为p1与p2,坐标为(x1,y1)与(x2,y2),根据直角三角形的边角关系计算出p′1与p′2连线||p′1p′2||的距离为:
| | p ′ 1 p ′ 2 | | = ( x ′ 2 - x ′ 1 ) 2 + ( y ′ 2 - y ′ 1 ) 2 - - - ( 1 )
||p′1p′2||为摄像机成像坐标系x′o′y′内p′1与p′2两点间连线距离的像素值;
p′1与p′2两点连线与x′轴的夹角:
γ = tg - 1 y ′ 1 - y ′ 2 x ′ 1 - x ′ 2 - - - ( 2 )
步骤五:用TCP点接触标定模板上确定的p1与p2,并记录p1与p2在机器人基坐标系W中的位置坐标,计算出p1与p2连线在机器人基坐标系W中与坐标系xw轴所成的夹角θ;用TCP点接触标定模板上的p1与p2,通过工具坐标系E到机器人基坐标系W的转换从工业机器人系统中得到p1与p2两点在机器人基坐标系W中的位置坐标分别为
Figure FSB00000471372900021
Figure FSB00000471372900022
因为p1与p2所在标定模板平面与机器人基坐标系底面平行,因此两点在在轴方向的值相同
Figure FSB00000471372900023
则与步骤四同理计算出p1与p2连线的距离:
| | p 1 p 2 | | = ( x 2 w - x 1 w ) 2 + ( y 2 w - y 1 w ) 2 - - - ( 3 )
||p1p2||为景物坐标系xoy中p1与p2两点连线的实际距离;
p1与p2连线与基坐标系xw轴方向的夹角θ:
θ = tg - 1 y 1 w - y 2 w x 1 w - x 2 w - - - ( 4 )
由于机器人末端垂直于标定模板,因此用步骤四记录的拍摄清晰时TCP的位置坐标以及TCP与标定模板上p1或p2点接触时TCP的位置坐标在机器人基坐标系Z轴方向的值相减,则算出拍摄清晰时TCP距标定模板垂直距离,此距离将作为定位时机器人末端TCP距离标定模板的高度Hw
H w = | z p - z 1 w | = | z p - z 2 w | - - - ( 5 )
步骤六:计算机器人末端TCP距离标定模板高度为Hw时摄像机成像坐标系x′o′y′与景物坐标系xoy的比例关系k;
在机器人末端TCP距离标定模板的高度为Hw时,将步骤四及步骤五中确定的||p′1p′2||、||p1p2||相比,计算高度为Hw时摄像机的放大率,摄像机成像坐标系x′o′y′与景物坐标系xoy的比例关系k;
k = | | p ′ 1 p ′ 2 | | | | p 1 p 2 | | - - - ( 6 )
则景物坐标系xoy中的(x、y)与摄像机成像坐标系为x′o′y′中(x′、y′)的关系为:
x y = k x ′ y ′ - - - ( 7 )
由步骤四得到的p′1与p′2坐标,得到p1与p2在景物坐标系xoy中的具体坐标值分别为
(x1,y1)=k(x′1,y′1)    (8)
(x2,y2)=k(x′2,y′2)    (9)
步骤七:计算摄像机成像坐标系x′o′y′与景物坐标系xoy之间的旋转角度、位置转换关系、TCP在景物坐标系xoy中的位置坐标以及TCP在摄像机成像坐标系x′o′y′中对应的位置关系,得到机器人手眼的相对关系;
由p′1与p′2两点连线与x′轴的夹角γ与P1与P2连线与基坐标系xw轴方向的夹角θ得到景物坐标系xoy相对于世界坐标系W的转角φ为:
φ=θ-γ            (10)
根据步骤四得到的拍摄清晰时TCP的位置坐标(xp,yp,zp)以及步骤五中p1在机器人基坐标系W中的位置坐标
Figure FSB00000471372900029
得出TCP从拍摄位置到与p1接触时TCP所移动的距离投影在景物坐标系xoy平面内的距离||pp1||为:
| | pp 1 | | = ( x p - x 1 w ) 2 + ( y p - y 1 w ) 2 - - - ( 11 )
pp1与世界坐标系xw轴的夹角δ为:
δ = tg - 1 y p - y 1 w x p - x 1 w - - - ( 12 )
由此得到pp1与景物坐标系x轴的夹角ω为:
ω=δ-φ        (13)
将||pp1||在景物坐标系得两轴方向上分解,记x轴方向分解的距离为D,y轴方向分解的距离为H,则得到
D=||pp1||·cosω(14)
H=||pp1||·sinω(15)
通过步骤六求出的p1在景物坐标系中的坐标值(x1,y1)=k(x′1,y′1)算出TCP在景物坐标系xoy中距离原点的x轴方向的偏移量d以及y轴方向的偏移量h,P点在景物坐标系xoy中的坐标:
x p y p = d h = x 1 - D H + y 1 = kx ′ 1 - | | pp 1 | | · cos ( δ + γ - θ ) | | pp 1 | | · sin ( δ + γ - θ ) + ky ′ 1 - - - ( 16 )
比例关系k为已知,则通过式(16)建立了TCP与摄像机成像坐标系x′o′y′的关系,完成标定,得到机器人手眼的相对关系;
步骤八:确定目标点在景物坐标系xoy中的位置,得到目标点在机器人的工件坐标系中的位置坐标,实现目标点的定位并为机器人制孔提供导航信息;
机器人末端姿态与标定时相同以及TCP距离工件的高度Hw保持不变,则比例系数k以及景物坐标系xoy相对于工件坐标系的转角φ不变,TCP在景物坐标系xoy中的位置坐标也不变,x′w与y′w为与末端执行器垂直的工件坐标系两轴方向平行,当摄像机拍摄到A点时,得到图像中A点在摄像机成像坐标系x′o′y′中的坐标为(x′A,y′A),则A点在景物坐标系xoy中的坐标为(xA,yA)=k(x′A,y′A);
P点为末端执行器TCP在景物坐标系xoy中的位置,其坐标值(xp,yp)已经由步骤七获得,其具体值由TCP在x轴、y轴方向上的偏移量d′和h′来表示;
设A点为机器人需要制孔的点,坐标为工件坐标系中的坐标(xA,yA),A点到TCP的距离分别在景物坐标系xoy中x轴与y轴方向上分解的距离分别为D′和H′:
D′=xA-d′    (17)
H′=h′-yA    (18)
根据几何关系得出A点到TCP的距离||PA||:
| | PA | | = H ′ 2 + D ′ 2 - - - ( 19 )
A点到TCP连线与景物坐标系xoy中x轴的夹角ω′为:
ω ′ = tg - 1 H ′ D ′ - - - ( 20 )
得到A点到TCP连线与工件坐标系平行的x′w轴的夹角δ′为:
δ′=ω′+φ                    (21)
将||PA||在x′w轴与y′w轴方向上分解得到TCP移动到A点在工件坐标系下两轴方向上的偏移量分别为
Figure FSB00000471372900041
D x w = | | PA | | · cos δ ′ - - - ( 22 )
H y w = | | PA | | · sin δ ′ - - - ( 23 )
则A点在工件坐标系中的位置坐标(xA,yA)为:
(xA,yA)=(xp+||PA||·cosδ′,yp-||PA||·sinδ′)  (24)
求出的A点在工件坐标系中的坐标,实现为机器人末端执行器制孔提供导航信息。
CN2009100912779A 2009-08-17 2009-08-17 一种用于机器人制孔系统的手眼视觉标定方法 Expired - Fee Related CN101630409B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100912779A CN101630409B (zh) 2009-08-17 2009-08-17 一种用于机器人制孔系统的手眼视觉标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100912779A CN101630409B (zh) 2009-08-17 2009-08-17 一种用于机器人制孔系统的手眼视觉标定方法

Publications (2)

Publication Number Publication Date
CN101630409A CN101630409A (zh) 2010-01-20
CN101630409B true CN101630409B (zh) 2011-07-27

Family

ID=41575510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100912779A Expired - Fee Related CN101630409B (zh) 2009-08-17 2009-08-17 一种用于机器人制孔系统的手眼视觉标定方法

Country Status (1)

Country Link
CN (1) CN101630409B (zh)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102062609B (zh) * 2010-06-23 2012-11-14 武汉奋进电力技术有限公司 一种智能物品取放导航系统及导航方法
CN102294695A (zh) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 机器人标定方法及标定系统
CN102909728B (zh) 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
CN102513575A (zh) * 2012-01-10 2012-06-27 袁培江 一种带有姿态调整的航空制孔机器人末端执行器
CN102601684B (zh) * 2012-04-06 2013-11-20 南京航空航天大学 基于间接测量法的高精度制孔机器人的工具参数标定方法
CN103110429B (zh) * 2012-06-11 2015-12-16 大连理工大学 超声波探头的光学标定方法
CN103115629A (zh) * 2013-01-23 2013-05-22 天津大学 机器人柔性视觉测量系统中工具坐标系快速修复方法
CN103115615B (zh) * 2013-01-28 2015-01-21 山东科技大学 一种基于指数积模型的手眼机器人全自动标定方法
CN103112008B (zh) * 2013-01-29 2015-09-02 上海智周自动化工程有限公司 用于地板切割的双视觉机器人自动定位和搬运方法
CN103290535B (zh) * 2013-06-07 2015-09-16 天津工业大学 整体穿刺模板等距密排微小孔定位装置及方法
CN103991006B (zh) * 2014-04-01 2016-05-11 浙江大学 用于机器人制孔平台视觉测量系统的标定方法及装置
CN103925879A (zh) * 2014-04-24 2014-07-16 中国科学院合肥物质科学研究院 基于3d图像传感器的室内机器人视觉手眼关系标定方法
CN104298169B (zh) * 2014-08-29 2017-11-28 暨南大学韶关研究院 一种视觉智能数控系统的数据变换方法
CN104227250B (zh) * 2014-09-16 2016-06-22 佛山市利迅达机器人系统有限公司 基于平面的机器人三维寻位纠偏方法及焊接机器人
CN104260112B (zh) * 2014-09-18 2016-05-18 西安航天精密机电研究所 一种机器人手眼定位方法
CN104833324A (zh) * 2015-01-28 2015-08-12 江南大学 一种基于测量头的机器人标定方法
CN104807405B (zh) * 2015-04-27 2017-05-10 四川大学 一种基于光线角度标定的三维坐标测量方法
CN105066808B (zh) * 2015-07-14 2017-10-31 安徽工业大学 一种工业机器人运动学参数简易标定装置及其标定方法
CN105157725B (zh) * 2015-07-29 2018-06-29 华南理工大学 一种二维激光视觉传感器和机器人的手眼标定方法
CN105066884B (zh) * 2015-09-09 2018-07-06 大族激光科技产业集团股份有限公司 一种机器人末端定位偏差校正方法及系统
CN105528789B (zh) * 2015-12-08 2018-09-18 深圳市恒科通机器人有限公司 机器人视觉定位方法和装置、视觉标定方法和装置
CN106272444B (zh) * 2016-08-31 2018-11-13 山东中清智能科技股份有限公司 一种实现手眼关系和双机器人关系同时标定的方法
CN108122257B (zh) * 2016-11-28 2021-11-30 沈阳新松机器人自动化股份有限公司 一种机器人手眼标定方法及装置
CN106780623B (zh) * 2016-12-14 2023-07-21 厦门理工学院 一种机器人视觉系统快速标定方法
CN109389642A (zh) * 2017-08-04 2019-02-26 惠州市阿图达机电有限公司 视觉系统对机器人的标定方法、系统和具有存储功能装置
CN109421043A (zh) * 2017-08-24 2019-03-05 深圳市远望工业自动化设备有限公司 基于机器人3d视觉的汽车油箱焊接定位方法及系统
CN107553475B (zh) * 2017-09-11 2019-11-08 重庆华数机器人有限公司 一种用于工件加工的工件坐标标定方法
US10859997B1 (en) * 2017-12-04 2020-12-08 Omax Corporation Numerically controlled machining
CN109916351B (zh) * 2017-12-13 2020-09-08 北京柏惠维康科技有限公司 一种获取机器人tcp坐标的方法和装置
CN109916352B (zh) * 2017-12-13 2020-09-25 北京柏惠维康科技有限公司 一种获取机器人tcp坐标的方法和装置
CN107993227B (zh) * 2017-12-15 2020-07-24 深圳先进技术研究院 一种获取3d腹腔镜手眼矩阵的方法和装置
CN108413896B (zh) * 2018-02-27 2019-12-13 博众精工科技股份有限公司 一种机械手标定方法
CN108955530B (zh) * 2018-08-20 2024-04-16 珠海市运泰利自动化设备有限公司 一种机械式光学位置便捷标定系统及其标定方法
CN109454634B (zh) * 2018-09-20 2022-02-22 广东工业大学 一种基于平面图像识别的机器人手眼标定方法
CN109648554B (zh) * 2018-12-14 2019-08-30 佛山市奇创智能科技有限公司 机器人标定方法、装置以及系统
CN109974584B (zh) * 2019-04-12 2020-03-20 山东大学 一种辅助激光截骨手术机器人的标定系统及标定方法
CN110375688A (zh) * 2019-06-18 2019-10-25 宁波敏实汽车零部件技术研发有限公司 一种工业机器人工具坐标系姿态标定系统与方法
CN110243376A (zh) * 2019-06-28 2019-09-17 湖南三一快而居住宅工业有限公司 一种室内定位方法以及室内定位系统
CN110335310B (zh) * 2019-07-09 2021-07-02 中国大恒(集团)有限公司北京图像视觉技术分公司 一种非共同视野下的标定方法
CN111015664B (zh) * 2019-12-26 2023-05-30 重庆盟讯电子科技有限公司 一种基于ccd相机的智能化识别方法
CN111591474B (zh) * 2020-02-28 2021-12-07 上海航天控制技术研究所 一种航天器在轨操作系统对准式手眼标定方法
CN111679773B (zh) * 2020-05-08 2023-08-04 大连理工大学 一种基于windows的特征测量与显示方法
CN111723734B (zh) * 2020-06-19 2022-02-18 哈尔滨理工大学 一种基于机器视觉的孔位识别方法
CN114589682B (zh) * 2020-12-04 2023-08-18 长春理工大学 一种机器人手眼自动标定的迭代方法
CN112720458B (zh) * 2020-12-04 2022-08-12 上海航天设备制造总厂有限公司 一种在线实时校正机器人工具坐标系的系统及方法
CN112958960B (zh) * 2021-02-08 2023-01-24 革点科技(深圳)有限公司 一种基于光学靶标的机器人手眼标定装置
CN113280767A (zh) * 2021-04-29 2021-08-20 东华大学 一种基于非同心圆的工件快速自动定位方法
CN114833837B (zh) * 2022-05-16 2023-12-15 浙江谱麦科技有限公司 工业机器人末端tcp转移方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1384351A (zh) * 2001-04-30 2002-12-11 北京航空航天大学 结构光三维双视觉标定点发生方法及装置
CN1427245A (zh) * 2001-12-17 2003-07-02 中国科学院自动化研究所 基于单幅图像的平面测量方法
CN2591559Y (zh) * 2002-12-30 2003-12-10 北京航空航天大学 接触式物体位姿测量装置
WO2005084895A1 (de) * 2004-03-03 2005-09-15 Thomas Pagel Verfahren zum einmessen eines arbeitspunktes von werkzeugen für industrieroboter
EP1584426A1 (en) * 2004-04-07 2005-10-12 Fanuc Ltd Tool center point calibration system
US20090118864A1 (en) * 2007-11-01 2009-05-07 Bryce Eldridge Method and system for finding a tool center point for a robot using an external camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1384351A (zh) * 2001-04-30 2002-12-11 北京航空航天大学 结构光三维双视觉标定点发生方法及装置
CN1427245A (zh) * 2001-12-17 2003-07-02 中国科学院自动化研究所 基于单幅图像的平面测量方法
CN2591559Y (zh) * 2002-12-30 2003-12-10 北京航空航天大学 接触式物体位姿测量装置
WO2005084895A1 (de) * 2004-03-03 2005-09-15 Thomas Pagel Verfahren zum einmessen eines arbeitspunktes von werkzeugen für industrieroboter
EP1584426A1 (en) * 2004-04-07 2005-10-12 Fanuc Ltd Tool center point calibration system
US20090118864A1 (en) * 2007-11-01 2009-05-07 Bryce Eldridge Method and system for finding a tool center point for a robot using an external camera

Also Published As

Publication number Publication date
CN101630409A (zh) 2010-01-20

Similar Documents

Publication Publication Date Title
CN101630409B (zh) 一种用于机器人制孔系统的手眼视觉标定方法
CN110370286B (zh) 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法
CN109794938B (zh) 一种适用于曲面结构的机器人制孔误差补偿装置及其方法
CN104260112B (zh) 一种机器人手眼定位方法
US11072078B2 (en) Method for measuring pose of robotic end tool
CN109454281B (zh) 一种机器人铣削加工中的螺旋桨工件坐标系标定方法
CN111415391B (zh) 一种采用互拍法的多目相机外部方位参数标定方法
JP2005201824A (ja) 計測装置
JP2005300230A (ja) 計測装置
CN106920261A (zh) 一种机器人手眼静态标定方法
CN110132309A (zh) 一种采煤机摇臂惯性/视觉组合定姿装置标定方法
CN109115191A (zh) 全站仪多方位坐标测量方法
CN110987021A (zh) 一种基于转台基准的惯性视觉相对姿态标定方法
CN109514554B (zh) 利用机器人末端视觉系统的工具坐标系快速标定方法
CN109373894A (zh) 一种基于分布式单目视觉的飞机部件连接交点孔系自动定位方法
Liu et al. A high-accuracy pose measurement system for robotic automated assembly in large-scale space
CN110211175B (zh) 准直激光器光束空间位姿标定方法
CN114459345B (zh) 基于视觉空间定位的飞机机身位置姿态检测系统及方法
CN112828878B (zh) 一种大型设备对接过程三维测量与跟踪方法
CN105094051B (zh) 运动平台系统的平面定位补偿方法
CN109773589B (zh) 对工件表面进行在线测量和加工导引的方法及装置、设备
CN108257184B (zh) 一种基于正方形点阵合作目标的相机姿态测量方法
CN112381881B (zh) 一种基于单目视觉的大型刚体构件自动对接方法
CN108627103A (zh) 一种零部件高度尺寸的2d激光测量方法
CN111145267B (zh) 基于imu辅助的360度全景视图多相机标定方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110727

Termination date: 20160817