JP4274558B2 - Calibration method - Google Patents

Calibration method Download PDF

Info

Publication number
JP4274558B2
JP4274558B2 JP2004268640A JP2004268640A JP4274558B2 JP 4274558 B2 JP4274558 B2 JP 4274558B2 JP 2004268640 A JP2004268640 A JP 2004268640A JP 2004268640 A JP2004268640 A JP 2004268640A JP 4274558 B2 JP4274558 B2 JP 4274558B2
Authority
JP
Japan
Prior art keywords
tool
calibration
workpiece
coordinate
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004268640A
Other languages
Japanese (ja)
Other versions
JP2006082170A (en
Inventor
卓郎 浅岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004268640A priority Critical patent/JP4274558B2/en
Publication of JP2006082170A publication Critical patent/JP2006082170A/en
Application granted granted Critical
Publication of JP4274558B2 publication Critical patent/JP4274558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、ワークの位置座標を検出する視覚センサの検出位置座標系と、ワークの位置座標までツールを移動させる多関節ロボットのツール位置座標系とを対応させるキャリブレーション方法に関する。   The present invention relates to a calibration method that associates a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece with a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece.

ツールを交換して様々な作業に使用することのできる汎用性を備えた産業用ロボットとして、多関節ロボットが知られている。この多関節ロボットには、アームを主に水平方向で移動させる水平多関節ロボット(スカラーロボット)や、アームを主に垂直方向で移動させる垂直多関節ロボット等がある。垂直多関節ロボットは、ツールを任意の姿勢にすることができ、スカラーロボットに比べ、より高い汎用性を備えている。 Articulated robots are known as industrial robots with versatility that can be used for various tasks by exchanging tools. This articulated robot, the horizontal articulated robot (scalar robot) for moving the arm mainly in horizontal direction and, there is a vertical articulated robot for moving the arm mainly in the vertical direction. The vertical articulated robot can have a tool in an arbitrary posture and has higher versatility than a scalar robot.

多関節ロボットに所定の動作を行なわせるために、撮像カメラと画像認識装置とからなる視覚センサでワークの位置や姿勢を検出し、この検出位置にロボットハンド等のツールを移動させて、ワークをハンドリングする手法が一般に用いられている。視覚センサで検出した位置にツールを精度よく移動させるには、視覚センサの検出位置座標系と、多関節ロボットのツール位置座標系とを高精度に対応させなければならない。この二つの座標系を対応させる作業は、一般にキャリブレーションと呼ばれており、従来から種々のキャリブレーション方法が用いられている。   In order to cause the articulated robot to perform a predetermined operation, the position and posture of the workpiece are detected by a visual sensor composed of an imaging camera and an image recognition device, and a tool such as a robot hand is moved to this detection position to move the workpiece. A handling method is generally used. In order to accurately move the tool to the position detected by the visual sensor, the detection position coordinate system of the visual sensor and the tool position coordinate system of the articulated robot must be associated with high accuracy. The operation of making these two coordinate systems correspond is generally called calibration, and various calibration methods have been conventionally used.

例えば、特許文献1に記載されているロボットと視覚センサとのキャリブレーション方法は、ツールとしてロボットハンドを使用し、四隅に円形の指標が描かれたキャリブレーションプレートをツール位置座標系と平行になるようにロボットハンドに持たせ、このキャリブレーションプレートの円形の指標を視覚センサで検出させ、各指標間の実際のピッチと画像認識処理によって得た指標間のピッチとから、視覚センサの検出位置座標系とロボットのツール位置座標系とのX座標及びY座標、及び回転方向の相関を求めている。
特開平08−071972号公報
For example, in the calibration method of a robot and a visual sensor described in Patent Document 1, a robot hand is used as a tool, and a calibration plate having circular indices drawn at four corners is parallel to the tool position coordinate system. As shown in the figure, the circular index on the calibration plate is detected by the visual sensor, and the detection position coordinates of the visual sensor are determined from the actual pitch between the indices and the pitch between the indices obtained by the image recognition process. The correlation between the X coordinate and the Y coordinate between the system and the tool position coordinate system of the robot and the rotation direction is obtained.
Japanese Patent Laid-Open No. 08-071972

特許文献1記載のキャリブレーション方法は、キャリブレーションプレートの指標のピッチを視覚センサによって得た座標値の差で割ってキャリブレーション係数を求めているだけであるため、キャリブレーションプレートと各座標系との平行度の精度が低いと、視覚センサの検出位置座標系が歪んで直交座標系でなくなってしまい、大きな誤差が発生する。そのため、特許文献1記載のキャリブレーション方法によって検出位置座標系とツール位置座標系とを高精度に対応させるには、視覚センサの撮像面と、キャリブレーションプレートの指標形成面と、ロボットハンドの移動平面との平行度を高精度に調整しなければならない。しかし、この平行度の調整には大がかりで高価な装置が必要であり、時間もかかるという問題があった。   Since the calibration method described in Patent Document 1 simply calculates the calibration coefficient by dividing the pitch of the calibration plate index by the difference between the coordinate values obtained by the visual sensor, If the accuracy of the parallelism is low, the detection position coordinate system of the visual sensor is distorted and is not an orthogonal coordinate system, and a large error occurs. Therefore, in order to correspond the detection position coordinate system and the tool position coordinate system with high accuracy by the calibration method described in Patent Document 1, the imaging surface of the visual sensor, the index formation surface of the calibration plate, and the movement of the robot hand The parallelism with the plane must be adjusted with high accuracy. However, there is a problem that this adjustment of parallelism requires a large and expensive device and takes time.

また、特許文献1記載のキャリブレーション方法では、キャリブレーションプレートの指標のピッチをツール位置座標系のピッチとして、視覚センサの検出位置座標系との相関を求めているため、キャリブレーションプレートの指標の誤差や、多関節ロボットの誤差がそのままキャリブレーションに反映されてしまうという問題もあった。   In the calibration method described in Patent Document 1, since the correlation between the calibration plate index and the detection position coordinate system of the visual sensor is obtained using the pitch of the calibration plate index as the pitch of the tool position coordinate system, the calibration plate index There was also a problem that errors and errors of articulated robots were reflected in the calibration as they were.

また、多関節ロボットは、各関節部分の誤差が集積されてツールの移動位置に表れるため、ツールの移動位置には絶対位置精度が無く、視覚センサで検出した位置にツールを移動させることが難しいという問題があった。更に、多関節ロボットでは、ツールを同じ位置に異なる方向から移動させると、関節の軸ぶれ等によってツールの移動位置に最大で数mm程度も誤差が生じてしまうという問題があった。 In addition, the articulated robot accumulates the errors of each joint part and appears at the movement position of the tool. Therefore, the movement position of the tool has no absolute position accuracy, and it is difficult to move the tool to the position detected by the visual sensor. There was a problem. Further, in the articulated robot, when the tool is moved to the same position from different directions, there is a problem that an error of about several millimeters at the maximum occurs in the movement position of the tool due to the axial movement of the joint.

本発明は、上記各問題点を解決するためのもので、視覚センサの検出位置座標系と、多関節ロボットのツール位置座標系とのキャリブレーションを高精度に行なうことを目的とする。   An object of the present invention is to solve the above-described problems, and an object of the present invention is to perform calibration between a detection position coordinate system of a visual sensor and a tool position coordinate system of an articulated robot with high accuracy.

上記課題を解決するために、本発明のキャリブレーション方法は、ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出する。このツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標系に変換するときに、この座標変換されたツール位置座標と、各キャリブレーション位置のツール位置座標との誤差量が小さくなるように、座標変換式のパラメータを算出するようにした。しかし、各点の誤差量を同時に無にするようなパラメータを求めることは、ほぼ確実に不可能である。そこで、本発明では、対角の点同士の誤差ベクトルを一致させることのできるパラメータを求めることによって、全体として誤差量が小さくなるようにした。 In order to solve the above-described problem, the calibration method of the present invention sequentially moves the tool to four calibration positions having axial symmetry arranged on the tool position coordinate system, and each calibration position is detected by a visual sensor. The detection position coordinate of the tool held in the tool or the tool is detected. When the detected position coordinates of this tool or workpiece are converted into the tool position coordinate system using a coordinate conversion formula having an arbitrary parameter, the tool position coordinates after the coordinate conversion and the tool position coordinates of each calibration position are The parameters of the coordinate conversion formula are calculated so that the error amount is small. However, it is almost certainly impossible to obtain a parameter that eliminates the error amount at each point simultaneously. Therefore, in the present invention, the error amount as a whole is reduced by obtaining a parameter that can match the error vectors of the diagonal points.

また、パラメータを算出するステップでは、誤差ベクトルを対角の点同士で一致させる条件とともに、各キャリブレーション位置のツール位置座標と、座標変換されたツールまたはワークのツール位置座標との誤差ベクトルが、隣り合う点同士で加算したときに0なる条件を置いてパラメータを算出しているIn addition, in the parameter calculation step, the error vector between the tool position coordinate of each calibration position and the tool position coordinate of the coordinate-converted tool or workpiece, together with the condition for matching the error vector between the diagonal points , The parameter is calculated under the condition of 0 when the adjacent points are added.

座標変換式としては、ツール位置座標系を(X,Y)、検出位置座標系を(x,y)、検出位置座標系のツール位置座標系上の基準位置を(X,Y)、パラメータをα,β,α,βとし、下記式(1),(2)を用いた。そして、ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置(P,Q),(P,Q),(P,Q),(P,Q)にツールを順次移動させ、視覚センサによって各キャリブレーション位置でのツールまたはワークの検出位置座標(x,y),(x,y),(x,y),(x,y)を検出した。各キャリブレーション位置におけるツールまたはワークの検出位置座標は、式(1),(2)を用いてツール位置座標(X,Y),(X,Y),(X,Y),(X,Y)に変換し、この座標変換されたツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルが対角の点同士で一致するように、各パラメータα,β,α,βを算出するようにした。
X=αx+βy+X・・・式(1)
Y=αx+βy+Y・・・式(2)
As the coordinate conversion formula, the tool position coordinate system is (X, Y), the detection position coordinate system is (x, y), the reference position on the tool position coordinate system of the detection position coordinate system is (X 0 , Y 0 ), The parameters were α 1 , β 1 , α 2 , β 2 and the following formulas (1) and (2) were used. The calibration position of the four points having axial symmetry disposed on the tool position coordinates (P 1, Q 1), (P 2, Q 1), (P 1, Q 2), (P 2, The tool is sequentially moved to Q 2 ), and the detection position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ) of the tool or workpiece at each calibration position by the visual sensor, (X 4 , y 4 ) was detected. The detection position coordinates of the tool or workpiece at each calibration position are the tool position coordinates (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ) using Expressions (1) and (2). ), (X 4 , Y 4 ), and the parameters α 1 so that the error vectors between the tool position coordinates subjected to the coordinate conversion and the tool position coordinates of the respective calibration positions coincide with each other at the diagonal points. , Β 1 , α 2 , β 2 are calculated.
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)

各キャリブレーション位置におけるツールまたはワークのツール位置座標の誤差ベクトルが対角の点同士で同一であるときには、下記式(3)〜(6)が成り立つ。式(3)と(4)は、α1,β1の最適値条件であり、また、式(5),(6)は、α2,β2の最適値条件となるため、式(3)と式(4)、及び式(5)と式(6)とをそれぞれ連立させ、式(1),(2)を代入して展開することによって、下記式(8)〜(15)を得ることができる。これにより、ツールまたはワークの検出位置座標とキャリブレーション位置のツール位置座標とから、パラメータα1,β1,α2,β2を算出することができる。
1−X3=X4−X2・・・式(3)
(X1−P1)−(X2−P2)=(X4−P2)−(X3−P1)・・・式(4)
1−Y2=Y4−Y3・・・式(5)
(Y1−Q1)−(Y3−Q2)=(Y4−Q2)−(Y2−Q1)・・・式(6)
1=x1−x2+x3−x4・・・式(8)
2=x1+x2−x3−x4・・・式(9)
1=y1−y2+y3−y4・・・式(10)
2=y1+y2−y3−y4・・・式(11)
α1=2T2(P1−P2)/(S12−S21)・・・式(12)
β1=−2S2(P1−P2)/(S12−S21)・・・式(13)
α2=−2T1(Q1−Q2)/(S12−S21)・・・式(14)
β2=2S1(Q1−Q2)/(S12−S21)・・・式(15)
When the error vector of the tool position coordinates of the tool or workpiece at each calibration position is the same between the diagonal points, the following equations (3) to (6) hold. Equations (3) and (4) are optimum value conditions for α1 and β1, and equations (5) and (6) are optimum value conditions for α2 and β2. 4), and Equations (5) and (6) are made simultaneous, and the following Equations (8) to (15) can be obtained by substituting and expanding Equations (1) and (2). . Thereby, the parameters α 1 , β 1 , α 2 , β 2 can be calculated from the detection position coordinates of the tool or workpiece and the tool position coordinates of the calibration position.
X 1 −X 3 = X 4 −X 2 Formula (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 Formula (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)
S 1 = x 1 −x 2 + x 3 −x 4 (8)
S 2 = x 1 + x 2 −x 3 −x 4 (9)
T 1 = y 1 −y 2 + y 3 −y 4 Formula (10)
T 2 = y 1 + y 2 -y 3 -y 4 ··· formula (11)
α 1 = 2T 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (12)
β 1 = −2S 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (13)
α 2 = −2T 1 (Q 1 −Q 2 ) / (S 1 T 2 −S 2 T 1 ) (14)
β 2 = 2S 1 (Q 1 -Q 2 ) / (S 1 T 2 -S 2 T 1 ) (15)

また、各キャリブレーション位置でツールまたはワークの検出位置座標を検出するステップでは、ツールまたはワークの姿勢を複数段階に変化させて、視覚センサによってツールまたはワークの各姿勢の検出位置座標を検出し、この複数の検出位置座標から平均値を算出して、そのキャリブレーション位置における検出位置座標とした。なお、ツールまたはワークの姿勢の変化は、視覚センサの光軸とほぼ平行で、ツールの先端近傍を通る軸を中心に360°/N(N>=2)ずつ回転させることによって行ない、各回転位置でのツールまたはワークの検出位置座標(kij,lij)(i:キャリブレーション位置番号(1〜4)、j:回転位置番号(1〜N))を視覚センサで検出するようにした。また、下記式(7)を用いてツールまたはワークの複数の検出位置座標の平均値を算出し、そのキャリブレーション位置における検出位置座標(x,y)とした。

Figure 0004274558
In addition, in the step of detecting the detection position coordinates of the tool or work at each calibration position, the position of the tool or work is changed in multiple stages, and the detection position coordinates of each position of the tool or work are detected by a visual sensor, An average value was calculated from the plurality of detection position coordinates and used as detection position coordinates at the calibration position. Note that the posture of the tool or workpiece is changed by rotating 360 ° / N (N> = 2) about the axis that is substantially parallel to the optical axis of the visual sensor and passes near the tip of the tool. The detection position coordinates (k ij , l ij ) (i: calibration position number (1-4), j: rotation position number (1-N)) of the tool or workpiece at the position are detected by the visual sensor. . Further, an average value of a plurality of detection position coordinates of the tool or the workpiece was calculated using the following formula (7), and the detection position coordinates (x i , y i ) at the calibration position were calculated.
Figure 0004274558

本発明の視覚センサと多関節ロボットとのキャリブレーション方法によれば、ツール位置座標系と、座標変換式によって検出位置座標系から変換されたツール位置座標との誤差量が全体的に小さくなるようなパラメータを算出するようにしたので、簡易な座標変換式を用いているにも関わらず、ツール位置座標系と検出位置座標系とを高精度に対応させることができる。   According to the calibration method of the visual sensor and the articulated robot of the present invention, the error amount between the tool position coordinate system and the tool position coordinates converted from the detection position coordinate system by the coordinate conversion formula is reduced as a whole. Since a simple parameter is calculated, the tool position coordinate system and the detected position coordinate system can be associated with high accuracy despite using a simple coordinate conversion formula.

また、視覚センサの検出位置座標系から得られるツール位置座標を直接最適になるような条件を用いて算出するため、検出位置座標系及びツール位置座標系、もしくはこれらのどちらかが歪んでいる場合でも誤差量が最小となるパラメータを算出することができる。これにより、大がかりで高価な装置や、膨大な調整時間を使わずとも、簡易な調整でツール位置座標系と検出位置座標系とを高精度に対応させることができる。   Also, because the tool position coordinates obtained from the detection position coordinate system of the visual sensor are calculated using conditions that directly optimize, the detection position coordinate system and / or the tool position coordinate system are distorted However, the parameter that minimizes the error amount can be calculated. Accordingly, the tool position coordinate system and the detection position coordinate system can be made to correspond with high accuracy by simple adjustment without using a large and expensive apparatus or an enormous adjustment time.

更に、各キャリブレーション位置でツールを回転させて姿勢を変化させ、各姿勢の検出位置座標から得た平均値によってキャリブレーションを行なうようにしたので、回転時に軸ブレを起こす多関節ロボットでも、高精度なキャリブレーションを行なうことができる。   Furthermore, the tool is rotated at each calibration position to change the posture, and the calibration is performed with the average value obtained from the detected position coordinates of each posture. Accurate calibration can be performed.

また、本発明では、キャリブレーション用のプレートではなく、ツールまたはツールに保持されたワークを使用してキャリブレーションを行なうので、多大な負荷であるキャリブレーションプレートとロボットの座標系との平行出し作業が不要であり、キャリブレーションプレートの脱着の必要がないため簡単にキャリブレーションを行なうことができ、キャリブレーションプレート脱着による誤差も発生しない。更に、使用するツールやワークの重量や姿勢の違いによってもツールまたはワークの座標位置の誤差ベクトルが変化するが、実際に使用するツール及びワークによってキャリブレーションを行なうため、各ツールもしくは各ワークの取出し姿勢に最適なキャリブレーションを行なうことができる。また、高精度なキャリブレーションプレートを必要としないため、キャリブレーションにかかるコストを削減することができる。   Further, in the present invention, since calibration is performed using a tool or a work held by the tool, not a calibration plate, parallel operation of the calibration plate and the robot coordinate system, which is a large load, is performed. Is not required, and it is not necessary to attach or detach the calibration plate. Therefore, calibration can be easily performed, and no error due to the attachment or detachment of the calibration plate occurs. Furthermore, the error vector of the coordinate position of the tool or workpiece changes depending on the weight or posture of the tool or workpiece used. However, since calibration is performed according to the tool and workpiece actually used, each tool or each workpiece is taken out. Calibration that is optimal for the posture can be performed. In addition, since a highly accurate calibration plate is not required, the cost for calibration can be reduced.

図1(A),(B)及び図2は、本発明のキャリブレーション方法が用いられる6軸ロボット2と、視覚センサ3が組み込まれた直進フィーダ4との構成を示す外観斜視図及び側面図である。視覚センサ3は、直進フィーダ4によって供給されたワーク5を撮像して、自身が備える検出位置座標系上でワーク5の検出位置座標及び姿勢を検出する。6軸ロボット2は、視覚センサ3によって検出されたワーク5の検出位置座標及び姿勢に基づいて、自身が備えるツール位置座標系上で先端に取り付けられたツール、例えばロボットハンド21を移動させてワーク5をハンドリングする。   1A, 1B, and 2 are an external perspective view and a side view showing configurations of a six-axis robot 2 in which the calibration method of the present invention is used and a linear feeder 4 in which a visual sensor 3 is incorporated. It is. The visual sensor 3 images the workpiece 5 supplied by the linear feeder 4 and detects the detection position coordinate and posture of the workpiece 5 on the detection position coordinate system included in the visual sensor 3. The 6-axis robot 2 moves the tool attached to the tip, for example, the robot hand 21 on the tool position coordinate system provided on the 6-axis robot 2 based on the detected position coordinates and posture of the work 5 detected by the visual sensor 3. Handle 5

6軸ロボット2は、サーボモータによって回動される関節を6個備えたアームを有する垂直多関節ロボットであり、先端のツールを取り替えることによって様々な作業に対応することができる汎用性を備えている。また、その関節数の多さと各関節の可動範囲の広さからツールの移動範囲が広く、かつ任意の姿勢をとらせることができる。 The six-axis robot 2 is a vertical articulated robot having an arm having six joints rotated by a servo motor, and has versatility that can cope with various work by changing the tool at the tip. Yes. In addition, because of the large number of joints and the wide range of movement of each joint, the tool can be moved in a wide range and can take an arbitrary posture.

6軸ロボット2は、設置に使用される略円柱形状のベース10と、このベース10の上部に第1関節11を介して回動自在に組み付けられた旋回ボディ12と、この旋回ボディ12に第2関節13を介して回動自在に取り付けられた第1アーム14と、この第1アーム14に第3関節15を介して回動自在に取り付けられ、第4関節16によって先端が回動自在とされた第2アーム17と、この第2アーム17に第5関節18を介して回動自在に取り付けられ、先端に取り付けられたツールを回動させる第6関節19を備えた手首20とから構成されている。   The six-axis robot 2 includes a substantially cylindrical base 10 used for installation, a revolving body 12 that is rotatably attached to the upper portion of the base 10 via a first joint 11, and A first arm 14 rotatably attached via two joints 13, a first arm 14 rotatably attached to the first arm 14 via a third joint 15, and a distal end pivotable by a fourth joint 16. And a wrist 20 provided with a sixth joint 19 that is rotatably attached to the second arm 17 via a fifth joint 18 and rotates a tool attached to the tip. Has been.

図3に示すように、6軸ロボット2の手首20には、様々な種類のツールを取り付けることができるアーム側フランジ20aが設けられている。このアーム側フランジ20aには、フランジ面20bの中央Ofを基準位置とし、フランジ面20bに対して垂直なZf軸と、このZf軸に対して直交するXf軸及びYf軸とからなるロボットフランジ座標系が設けられている。 As shown in FIG. 3, the wrist 20 of the 6-axis robot 2 is provided with an arm-side flange 20a to which various types of tools can be attached. The arm side flange 20a, the center O f of the flange face 20b as a reference position, and Z f-axis perpendicular to the flange surface 20b, and X f-axis and Y f-axis perpendicular to the Z f-axis A robot flange coordinate system is provided.

6軸ロボット2にツールとして取り付けられるロボットハンド21は、ロボットハンド21を保持する本体部22と、この本体部22に設けられ、手首20のアーム側フランジ20aに取り付けられるツール側フランジ23とを備えている。ロボットハンド21は、先端が互いに近接する挟持位置と離反する開放位置との間で揺動自在とされた2本の指部21aと、これらの指部21aを揺動自在に支持する支持部21bとからなり、直進フィーダ4上を搬送されてきたワーク5を2本の指部21aで挟み込んでハンドリングする。本体部22内には、ロボットハンド21の指部21aを揺動させる駆動機構が組み込まれている。このロボットハンド21の指部21aの先端近傍には、ロボットフランジ座標系上で任意に設定されたハンド位置設定点Hが設けられている。   The robot hand 21 attached as a tool to the six-axis robot 2 includes a main body 22 that holds the robot hand 21, and a tool side flange 23 that is provided on the main body 22 and is attached to the arm side flange 20 a of the wrist 20. ing. The robot hand 21 has two finger portions 21a that are swingable between a sandwiching position where their tips are close to each other and an open position where they are separated from each other, and a support portion 21b that supports these finger portions 21a so as to be swingable. The workpiece 5 conveyed on the straight feeder 4 is sandwiched between the two finger portions 21a and handled. A drive mechanism for swinging the finger part 21 a of the robot hand 21 is incorporated in the main body part 22. A hand position setting point H arbitrarily set on the robot flange coordinate system is provided near the tip of the finger portion 21a of the robot hand 21.

6軸ロボット2は、ツール位置座標系上に設定した任意の点にハンド位置設定点Hを一致させるように各関節を制御する。また、ハンド位置設定点Hを中心にヨー軸、ピッチ軸、ロー軸の三軸の回りでロボットハンド21の姿勢を変化させることができる。そのため、ツール位置座標系上の任意の点に対して、異なる方向からロボットハンド21をアクセスさせることができ、様々な姿勢のワーク5を、そのワーク5に対して特定の方向から、そのワーク5の組み立てに適した姿勢でハンドリングすることができる。   The six-axis robot 2 controls each joint so that the hand position setting point H is matched with an arbitrary point set on the tool position coordinate system. Further, the posture of the robot hand 21 can be changed around the three axes of the yaw axis, the pitch axis, and the low axis around the hand position setting point H. Therefore, the robot hand 21 can be accessed from a different direction to an arbitrary point on the tool position coordinate system, and the workpiece 5 having various postures can be accessed from a specific direction with respect to the workpiece 5. Can be handled in a posture suitable for assembly.

従来よりロボットハンドによるワークのハンドリングでは、ワークを特定の姿勢、例えば次工程での組み立てに適した姿勢を保ったままハンドリングしている。ワークを特定の姿勢に保つには、ロボットハンドによってグリップされるワークのグリップ位置や、ワークとロボットハンドとがなす角度であるグリップ角度を一定にするとよい。そのため、従来のワークハンドリングでは、パーツフィーダ等を用いてワークを予め整列させてグリップ位置を一定の方向に向け、このグリップ位置を特定のグリップ角度のロボットハンドでグリップしていた。   Conventionally, in handling a workpiece by a robot hand, the workpiece is handled while maintaining a specific posture, for example, a posture suitable for assembly in the next process. In order to keep the workpiece in a specific posture, the grip position of the workpiece gripped by the robot hand and the grip angle that is an angle formed between the workpiece and the robot hand may be made constant. For this reason, in the conventional work handling, the workpieces are aligned in advance using a parts feeder or the like, the grip position is directed in a certain direction, and the grip position is gripped by a robot hand having a specific grip angle.

しかし、上記従来のワークハンドリングでは、パーツフィーダの使用によってコストの上昇や作業効率の低下という悪影響を生じていた。また、異なる種類のワークをハンドリングする際には、そのワークに対応した別のパーツフィーダを用意しなくてはならなかった。そこで本実施形態では、ロボットハンド21の移動及び姿勢の自由度が高い6軸ロボット2を使用することにより、直進フィーダ4によって様々な姿勢で搬送されてきたワーク5のグリップ位置を特定のグリップ角度でグリップしてハンドリングするようにした。これにより、ワーク5の姿勢を揃えるパーツフィーダを省略することができる。   However, in the conventional work handling described above, the use of the parts feeder has had the adverse effect of increasing costs and reducing work efficiency. Also, when handling different types of workpieces, another parts feeder corresponding to the workpieces had to be prepared. Therefore, in the present embodiment, by using the 6-axis robot 2 having a high degree of freedom of movement and posture of the robot hand 21, the grip position of the work 5 conveyed in various postures by the linear feeder 4 is specified with a specific grip angle. Grip and handle. Thereby, the parts feeder which aligns the attitude | position of the workpiece | work 5 is omissible.

なお、ワーク5は、例えば図4(A)に示すように矩形状をしており、先端5a側に貫通穴からなる円形の指標5bが設けられている。このワーク5のグリップ位置Gは、ワーク5の長手方向において指標5bから寸法Wの位置で、ワーク5の下面に配置されている。ワーク5をロボットハンド21でハンドリングする際には、グリップ位置Gにハンド位置設定点Hが一致するようにロボットハンド21を移動させ、ワーク5の姿勢、すなわち検出位置座標系のY軸に対するワーク5の回転角度θ1に合せてロボットハンド21を回転させ、ワーク5の後端5c側からワーク5の両側面をロボットハンド21で挟み込む。また、同図(B)に示すように、実際のワークの取り出し及び組み立てに適したグリップ角度θ2となるようにワーク5がハンドリングされる。 The workpiece 5 has a rectangular shape as shown in FIG. 4A, for example, and a circular index 5b made of a through hole is provided on the tip 5a side. The grip position G of the workpiece 5 is disposed on the lower surface of the workpiece 5 at a position of the dimension W from the index 5 b in the longitudinal direction of the workpiece 5. When the workpiece 5 is handled by the robot hand 21, the robot hand 21 is moved so that the hand position setting point H coincides with the grip position G, and the workpiece 5 with respect to the posture of the workpiece 5, that is, the Y axis of the detected position coordinate system. The robot hand 21 is rotated in accordance with the rotation angle θ 1 , and both side surfaces of the work 5 are sandwiched by the robot hand 21 from the rear end 5 c side of the work 5. Further, as shown in FIG. 5B, the workpiece 5 is handled so that the grip angle θ 2 is suitable for the actual removal and assembly of the workpiece.

6軸ロボット2は、例えば、ロボットコントローラ24によって制御される。ロボットコントローラ24は、6軸ロボット2を制御する制御プログラム等が記録されたメモリと、各プログラムにしたがって各種演算処理を行なうCPUと、6軸ロボット2や制御コンピュータ25との接続に用いられるI/Oポート等を備えている。このロボットコントローラ24は、制御コンピュータ25によって制御される。   The 6-axis robot 2 is controlled by a robot controller 24, for example. The robot controller 24 is a memory that stores a control program for controlling the 6-axis robot 2, a CPU that performs various arithmetic processes according to each program, and an I / O used for connection to the 6-axis robot 2 and the control computer 25. O port etc. are provided. The robot controller 24 is controlled by a control computer 25.

直進フィーダ4は、略箱形状のベース28と、このベース28の上に組み付けられて振動してワーク5を搬送する略板形状のトラフ29と、トラフ29のワーク搬送面29aに形成された開口29bに嵌め込まれ、6軸ロボット2によってワーク5をハンドリングする際の取出しステージ30を形成する透明なガラス板31と、ベース28内に組み込まれトラフ29の一端側から振動を与える振動ユニット32と、トラフ29の他端側を振動可能に支持する支持部材33とから構成されている。ベース28の上面でトラフ29の開口29bに対面する位置には、開口36が形成されている。   The rectilinear feeder 4 includes a substantially box-shaped base 28, a substantially plate-shaped trough 29 that is assembled on the base 28 and vibrates to convey the workpiece 5, and an opening formed on the workpiece conveyance surface 29 a of the trough 29. A transparent glass plate 31 that is fitted into the base 29b and forms a take-out stage 30 when the workpiece 5 is handled by the six-axis robot 2, and a vibration unit 32 that is incorporated in the base 28 and applies vibration from one end of the trough 29; The other end side of the trough 29 is comprised from the support member 33 which supports so that vibration is possible. An opening 36 is formed at a position facing the opening 29 b of the trough 29 on the upper surface of the base 28.

図5に示すように、直進フィーダ4のベース28内で開口36に対面する位置には、取出しステージ30上のワーク5の検出位置座標及び姿勢を下方から検出する視覚センサ3と、ワーク5を下方から照明する照明ランプ35とが組み込まれている。視覚センサ3は、CCDやCMOS等のイメージエリアセンサと撮像光学系とが組み込まれた撮像カメラ39と、この撮像カメラ39による撮像によって生成された画像データを画像処理によってベクトルデータ化して、ワーク5の検出座標位置と回転角度θ1とを特定する画像認識装置40とから構成されている。撮像カメラ39の撮像光軸vは、ツール位置座標系のZ軸にほぼ平行に設定されている。この視覚センサ3も制御コンピュータ25によって制御される。 As shown in FIG. 5, the visual sensor 3 for detecting the detection position coordinate and posture of the workpiece 5 on the take-out stage 30 from below and the workpiece 5 are located at a position facing the opening 36 in the base 28 of the linear feeder 4. An illumination lamp 35 that illuminates from below is incorporated. The visual sensor 3 converts an image camera 39 in which an image area sensor such as a CCD or CMOS and an image pickup optical system are incorporated, and image data generated by the image pickup by the image pickup camera 39 into vector data by image processing. And an image recognition device 40 that identifies the detected coordinate position and the rotation angle θ 1 . The imaging optical axis v of the imaging camera 39 is set substantially parallel to the Z axis of the tool position coordinate system. This visual sensor 3 is also controlled by the control computer 25.

照明ランプ35は、制御コンピュータ25によって制御されたランプドライバ41によって点灯され、ガラス板31越しにワーク5を照明する。ベース28の開口36とトラフ29との間には、外光や塵芥等の進入を防止するために、例えば蛇腹状のカバー42が取り付けられている。なお、ワーク5の照明は、取出しステージ30の上方から行なってもよい。また、カバー42を使用せずに、赤色光とシャープカットフィルタとを使用しても、外光の影響を効果的に防止することができる。   The illumination lamp 35 is turned on by a lamp driver 41 controlled by the control computer 25 and illuminates the workpiece 5 through the glass plate 31. Between the opening 36 of the base 28 and the trough 29, for example, a bellows-like cover 42 is attached in order to prevent entry of external light, dust, or the like. Note that the work 5 may be illuminated from above the take-out stage 30. Further, even if red light and a sharp cut filter are used without using the cover 42, the influence of external light can be effectively prevented.

制御コンピュータ25は、例えば、CPU,HDD,メモリ等を備えたパーソナルコンピュータ(PC)からなり、視覚センサ3,ロボットコントローラ24,振動ユニット32,ランプドライバ41等を制御する。また、視覚センサ3の検出位置座標系(ピクセル)と、6軸ロボット2のツール位置座標系(mm)との間の座標変換を行なうプログラムや、検出位置座標系とツール位置座標系とを対応させるキャリブレーションプログラム等を格納している。   The control computer 25 is composed of, for example, a personal computer (PC) equipped with a CPU, HDD, memory, and the like, and controls the visual sensor 3, the robot controller 24, the vibration unit 32, the lamp driver 41, and the like. In addition, a program for performing coordinate conversion between the detection position coordinate system (pixels) of the visual sensor 3 and the tool position coordinate system (mm) of the 6-axis robot 2, and a correspondence between the detection position coordinate system and the tool position coordinate system A calibration program to be executed is stored.

上記6軸ロボット2及び視覚センサ3と、直進フィーダ4は、例えば次のように動作する。直進フィーダ4上には、図示しないボウルフィーダ等によってワーク5が1個ずつ投入される。直進フィーダ4のトラフ29上に投入されたワーク5は、その姿勢が整列されていないため様々な姿勢となる。直進フィーダ4は、振動ユニット32によってトラフ29を振動させて、ワーク5を取出しステージ30上に向けて搬送する。   The 6-axis robot 2 and the visual sensor 3 and the linear feeder 4 operate as follows, for example. The workpieces 5 are put on the linear feeder 4 one by one by a bowl feeder (not shown). The workpiece 5 put on the trough 29 of the straight feeder 4 has various postures because the postures are not aligned. The rectilinear feeder 4 vibrates the trough 29 by the vibration unit 32 and takes out the workpiece 5 and conveys it onto the stage 30.

取出しステージ30上に搬送されたワーク5は、ガラス板31越しに下方から照明ランプ35によって照明され、撮像カメラ39によって撮像される。撮像カメラ39によって生成された画像データは、画像認識装置40の画像処理によりベクトルデータ化され、ワーク5の回転角度θ1と、指標5bの検出位置座標とが検出される。この検出結果は、制御コンピュータ25に入力される。 The workpiece 5 transported onto the take-out stage 30 is illuminated by the illumination lamp 35 from below through the glass plate 31 and imaged by the imaging camera 39. The image data generated by the imaging camera 39, the image processing of the image recognition apparatus 40 is vector data of a rotation angle theta 1 of the workpiece 5, and the detected position coordinates of the indices 5b is detected. This detection result is input to the control computer 25.

図6は、ツール位置座標系(X,Y)と検出位置座標系(x,y)との関係を示している。2点鎖線で示す四角形Fは、撮像カメラ39による撮像範囲を示しており、直進フィーダ4の取出しステージ30よりも僅かに大きな面積を有している。例えば、検出位置座標系(x,y)の基準位置Osのツール位置座標が(X0,Y0)であるときに、取出しステージ30上の検出位置座標(xa,ya)にあるワーク5の指標5bは、ツール位置座標(Xa,Ya)に位置することになる。 FIG. 6 shows the relationship between the tool position coordinate system (X, Y) and the detected position coordinate system (x, y). A square F indicated by a two-dot chain line indicates an imaging range by the imaging camera 39 and has a slightly larger area than the take-out stage 30 of the linear feeder 4. For example, when the tool position coordinate of the reference position O s in the detection position coordinate system (x, y) is (X 0 , Y 0 ), it is at the detection position coordinate (x a , y a ) on the extraction stage 30. The index 5b of the workpiece 5 is located at the tool position coordinates (X a , Y a ).

制御コンピュータ25は、下記の座標変換式(1),(2)を使用して、視覚センサ3によって検出された指標5bの検出位置座標(xa,ya)から、ツール位置座標(Xa,Ya)を算出し、これをロボットコントローラ24に入力する。ロボットコントローラ24は、指標5bのツール位置座標(Xa,Ya)とワーク5の回転角度θ1とから、ワーク5をハンドリングするのに適したグリップ位置Gのツール位置座標(Xa’,Ya’)を算出する。このグリップ位置Gのツール位置座標(Xa’,Ya’)は、図4(A)に示すように、指標5bのツール位置座標(Xa,Ya)に対し、寸法Wとワーク5の回転角度θ1とから得られるオフセット量(ΔX,ΔY)を加算することで算出される。なお、座標変換式(1),(2)のキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)は、座標変換精度に直接影響するパラメータである。
X=α1x+β1y+X0・・・式(1)
Y=α2x+β2y+Y0・・・式(2)
The control computer 25 uses the following coordinate conversion formulas (1) and (2) to calculate the tool position coordinates (X a ) from the detected position coordinates (x a , y a ) of the index 5b detected by the visual sensor 3. , Y a ) is calculated and input to the robot controller 24. The robot controller 24 uses the tool position coordinates (X a , Y a ) of the index 5 b and the rotation angle θ 1 of the work 5 to determine the tool position coordinates (X a ′, Y a ') is calculated. As shown in FIG. 4A , the tool position coordinates (X a ′, Y a ′) of the grip position G are the same as the dimension W and the workpiece 5 with respect to the tool position coordinates (X a , Y a ) of the index 5b. Is calculated by adding the offset amount (ΔX, ΔY) obtained from the rotation angle θ 1 of the first rotation angle. The tool position coordinates (X 0 , Y 0 ) of the calibration coefficients α 1 , β 1 , α 2 , β 2 and the reference position O s of the detection position coordinate system in the coordinate conversion equations (1), (2) are as follows: This parameter directly affects the coordinate conversion accuracy.
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)

ロボットコントローラ24は、6軸ロボット2の各関節のサーボモータを動作させて、ロボットハンド21のハンド位置設定点Hをワーク5のグリップ位置Gのツール位置座標(Xa’,Ya’)に移動させ、かつ回転角度θ1に合せてロボットハンド21を回転させて、後端5c側からワーク5の両側面を挟み込む。このときのワーク5とロボットハンド21との間のグリップ角度θ2は、実際のワーク5の取り出し及び組み立てに適した角度となる。 The robot controller 24 operates the servo motors of the respective joints of the 6-axis robot 2 so that the hand position setting point H of the robot hand 21 is set to the tool position coordinates (X a ′, Y a ′) of the grip position G of the workpiece 5. The robot hand 21 is rotated in accordance with the rotation angle θ 1 and the both sides of the workpiece 5 are sandwiched from the rear end 5c side. The grip angle θ 2 between the workpiece 5 and the robot hand 21 at this time is an angle suitable for the actual removal and assembly of the workpiece 5.

上述したように、視覚センサ3によって検出したワーク5の指標5bの検出位置座標(Xa,Ya)に基づいて、グリップ位置Gのツール位置座標(Xa’,Ya’)にロボットハンド21のハンド位置設定点Hを正確に移動させるには、6軸ロボット2のツール位置座標系(X,Y)と視覚センサ3の検出位置座標系(x,y)とを精度よく対応させなくてはならない。以下では、図12のフローチャートを参照して、ツール位置座標系と検出位置座標系とのキャリブレーションについて説明する。 As described above, the robot hand moves to the tool position coordinate (X a ′, Y a ′) of the grip position G based on the detected position coordinate (X a , Y a ) of the index 5 b of the workpiece 5 detected by the visual sensor 3. In order to move the hand position set point H of 21 accurately, the tool position coordinate system (X, Y) of the 6-axis robot 2 and the detection position coordinate system (x, y) of the visual sensor 3 do not correspond accurately. must not. Hereinafter, calibration of the tool position coordinate system and the detection position coordinate system will be described with reference to the flowchart of FIG.

まず、ロボットハンド21によって、グリップ位置Gとハンド位置設定点Hとが合致するように、後端5c側からグリップ角度θ2でワーク5を把持する。ワーク5をハンドリングしたロボットハンド21を取出しステージ30上で移動させ、図7に示すように、予め設定されているツール位置座標系(X,Y)上の第1キャリブレーション位置C1のツール位置座標(P1,Q1)に、ハンド位置設定点Hを合致させる。なお、ロボットハンド21を取出しステージ30上で移動させる際には、把持したワーク5が取出しステージ30と干渉しないように、ワーク5と取出しステージ30とが僅かな隙間をもつような高さにロボットハンド21が移動される。 First, the workpiece 5 is gripped by the robot hand 21 at the grip angle θ 2 from the rear end 5c side so that the grip position G and the hand position setting point H coincide. Moving the robot hand 21 which handles the workpiece 5 is taken out on the stage 30, as shown in FIG. 7, preset by the tools the position coordinates (X, Y) first tool position of the calibration position C 1 on The hand position set point H is matched with the coordinates (P 1 , Q 1 ). When the robot hand 21 is moved on the take-out stage 30, the robot 5 has a height such that the work 5 and the take-out stage 30 have a slight gap so that the gripped work 5 does not interfere with the take-out stage 30. The hand 21 is moved.

次に、視覚センサ3によって、第1〜第4キャリブレーション位置C1〜C4における指標5bの検出位置座標(ki,j,li,j)(i:キャリブレーション位置番号(1〜4)、j:回転位置番号(1〜N))が検出される。キャリブレーション位置番号iは、最初にi=1にセットされ、各キャリブレーション位置での指標5bの検出位置座標の検出終了とともにカウントアップされる。回転位置番号jは、最初にj=1にセットされ、ロボットハンド21が回転されるごとにカウントアップされる。また、ロボットハンド21が次のキャリブレーション位置に移動したときに、回転位置番号jはリセットされる。 Next, the visual sensor 3 detects the detection position coordinates (k i, j , l i, j ) (i: calibration position number (1-4) at the first to fourth calibration positions C 1 -C 4 . ), J: rotational position number (1 to N)) is detected. The calibration position number i is first set to i = 1, and is counted up when the detection position coordinate detection of the index 5b at each calibration position is completed. The rotational position number j is first set to j = 1, and is counted up each time the robot hand 21 is rotated. When the robot hand 21 moves to the next calibration position, the rotational position number j is reset.

図8に示すように、視覚センサ3によって第1キャリブレーション位置C1における指標5bの検出位置座標(k1,1,l1,1)を検出する。次に、ロボットハンド21を、ハンド位置設定点Hを通り、撮像カメラ39の撮像光軸とほぼ平行なツール位置座標系のZ軸uを中心に反時計方向に360°/N(N>=2)、例えばN=18として20°回転させ、視覚センサ3によって指標5bの検出位置座標(k1,2,l1,2)を検出する。同様に、ロボットハンド21を360°/N(N>=2)ずつ回転させ、各回転時の指標5bの検出位置座標(k1,3,l1,3)〜(k1,18,l1,18)を検出する。 As shown in FIG. 8, the detection position coordinates (k 1,1 , l 1,1 ) of the index 5b at the first calibration position C 1 are detected by the visual sensor 3. Next, the robot hand 21 passes through the hand position setting point H and is 360 ° / N (N> = N) in the counterclockwise direction around the Z axis u of the tool position coordinate system that is substantially parallel to the imaging optical axis of the imaging camera 39. 2) For example, N = 18 is rotated 20 °, and the visual sensor 3 detects the detection position coordinates (k 1,2 , l 1,2 ) of the index 5b. Similarly, the robot hand 21 is rotated by 360 ° / N (N> = 2), and the detected position coordinates (k 1,3 , l 1,3 ) to (k 1,18 , l) of the index 5b at each rotation. 1,18 ) is detected.

第1キャリブレーション位置C1で所定の回転回数Nの検出位置座標の検出を終えると、ロボットハンド21はハンド位置設定点Hを第2キャリブレーション位置C2〜第4キャリブレーション位置C4へと順に移動し、同様の手順で各キャリブレーション位置における指標5bの検出位置座標(ki,j,li,j)を検出する。 When the detection of the detection position coordinates of the predetermined number of rotations N is completed at the first calibration position C 1 , the robot hand 21 changes the hand position setting point H from the second calibration position C 2 to the fourth calibration position C 4 . It moves in order and detects the detection position coordinates (ki , j , l i, j ) of the index 5b at each calibration position in the same procedure.

全キャリブレーション位置において指標5bの検出位置座標を検出し終えたところで、各キャリブレーション位置ごとに下記の式(7)を用いて検出位置座標の平均値(x,y)を求める。求めた検出位置座標の平均値(x,y)は、第1キャリブレーション位置Cのツール位置座標に対応したものとなる。

Figure 0004274558
When the detection position coordinates of the index 5b have been detected at all calibration positions, the average value (x i , y i ) of the detection position coordinates is obtained for each calibration position using the following equation (7). The obtained average value (x i , y i ) of the detected position coordinates corresponds to the tool position coordinates of the first calibration position C 1 .
Figure 0004274558

従来のキャリブレーションでは、ロボットハンドを180°(360°/N,N=2)回転させ、(ki,1,li,1),(ki,2,li,2)の2個のデータの平均値を検出位置座標(xi,yi)としていたため、絶対精度のない6軸ロボットでは、予め設定したキャリブレーション位置のツール位置座標と検出位置座標を精度よく対応させることができなかった。しかし、本実施形態の手法では、キャリブレーション作業に多大な時間がかからない程度にロボットハンド21の回転数Nを大きくして検出位置座標の平均値を算出することで、6軸ロボット2の絶対精度の影響を最小限に抑え、より正確なキャリブレーションを行なうことができる。 In the conventional calibration, the robot hand is rotated by 180 ° (360 ° / N, N = 2), and (K i, 1 , l i, 1 ), (ki , 2 , l i, 2 ) Since the average value of the data is the detection position coordinates (xi, yi), the 6-axis robot without absolute accuracy cannot accurately associate the tool position coordinates of the preset calibration position with the detection position coordinates. It was. However, in the method of the present embodiment, the absolute accuracy of the six-axis robot 2 is calculated by increasing the number of rotations N of the robot hand 21 and calculating the average value of the detected position coordinates so that the calibration work does not take much time. It is possible to perform more accurate calibration while minimizing the influence of the above.

以上により求められた第1〜第4キャリブレーション位置C1〜C4における指標5bの検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)と、仮想した適当なキャリブレーション係数α1,β1,α2,β2とを用いて前述の式(1)、(2)の計算を行なうと、その変換された第1〜第4座標変換位置D1〜D4のツール位置座標(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)のなす四角形は、図9に示すように、予め設定した第1〜第4キャリブレーション位置C1〜C4のなす四角形とほぼ間違いなくかけ離れたものとなる。 The detected position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), () of the index 5b at the first to fourth calibration positions C 1 to C 4 determined as described above. x 4 , y 4 ) and hypothetical appropriate calibration coefficients α 1 , β 1 , α 2 , β 2 , the above equations (1) and (2) are calculated and converted. The tool position coordinates (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ), (X 4 , Y 4 ) of the first to fourth coordinate conversion positions D 1 to D 4 As shown in FIG. 9, the quadrangle is almost certainly different from the quadrangle formed by the preset first to fourth calibration positions C 1 to C 4 .

また、キャリブレーション係数α1,α2,β1,β2及び検出位置座標系の基準位置(X0,Y0)を変化させ、第1〜第4キャリブレーション位置C1〜C4のなす四角形に、第1〜第4座標変換位置D1〜D4のなす四角形を一致させようとしても、第1〜第4座標変換位置D1〜D4が測定値より求めた値であるので、完全に一致させることは不可能である。 Further, the calibration coefficients α 1 , α 2 , β 1 , β 2 and the reference position (X 0 , Y 0 ) of the detection position coordinate system are changed to form the first to fourth calibration positions C 1 to C 4 . Even if an attempt is made to match the quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 with the quadrangle, the first to fourth coordinate conversion positions D 1 to D 4 are values obtained from the measurement values. It is impossible to match them completely.

上記第1〜第4キャリブレーション位置C1〜C4の四角形と、第1〜第4座標変換位置D1〜D4の四角形との不一致を解決するために、本出願人は、各キャリブレーション位置C1〜C4と各座標変換位置D1〜D4との間の各誤差量を小さくして誤差方向を合せること、特に、対角線上の点同士の誤差ベクトル(誤差量及び誤差方向)を等しくすることによって、第1〜第4キャリブレーション位置C1〜C4のなす四角形に近似した第1〜第4座標変換位置D1〜D4の四角形を形成できることに着目した。 In order to resolve the discrepancy between the first to fourth calibration positions C 1 to C 4 and the first to fourth coordinate conversion positions D 1 to D 4 , The error direction between the positions C 1 to C 4 and the coordinate conversion positions D 1 to D 4 is reduced to match the error direction, in particular, the error vector (error amount and error direction) between the points on the diagonal line. Note that it is possible to form a quadrangle of first to fourth coordinate conversion positions D 1 to D 4 that approximates a quadrangle formed by the first to fourth calibration positions C 1 to C 4 .

本実施形態では、図10に示すように、第1座標変換位置D1と第4座標変換位置D4との誤差ベクトルL1とL4、及び第2座標変換位置D2と第3座標変換位置D3との誤差ベクトルL2とL3がそれぞれ同一になるようなキャリブレーション係数α1,β1,α2,β2を算出することにより、第1〜第4キャリブレーション位置C1〜C4のなす四角形に最も近似した第1〜第4座標変換位置D1〜D4のなす四角形を作り出した。対角線上の点同士の誤差ベクトルが同一である場合には、以下の式(3)〜(6)が成り立つ。
1−X3=X4−X2・・・(式)(3)
(X1−P1)−(X2−P2)=(X4−P2)−(X3−P1)・・・式(4)
1−Y2=Y4−Y3・・・(式)(5)
(Y1−Q1)−(Y3−Q2)=(Y4−Q2)−(Y2−Q1)・・・式(6)
In the present embodiment, as shown in FIG. 10, the error vector L 1 and L 4 of the first coordinate transformation position D 1 and the fourth coordinate transformation position D 4, and a second coordinate transformation position D 2 and the third coordinate transformation By calculating the calibration coefficients α 1 , β 1 , α 2 , β 2 so that the error vectors L 2 and L 3 with respect to the position D 3 are the same, the first to fourth calibration positions C 1 to C 4 are calculated. A quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 that was most approximate to the quadrangle formed by C 4 was created. When the error vectors of the diagonal points are the same, the following equations (3) to (6) hold.
X 1 −X 3 = X 4 −X 2 (Formula) (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 (formula) (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)

上記式(3)と(4)は、α1,β1の最適値条件であり、また、式(5),(6)は、α2,β2の最適値条件となるため、式(3)と式(4)、及び式(5)と式(6)とをそれぞれ連立させ、式(1),(2)を代入して展開することにより、下記式(8)〜(15)を得ることができる。これにより、検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)と、第1〜第4キャリブレーション位置C1〜C4のツール位置座標(P1,Q1),(P2,Q1),(P1,Q2),(P2,Q2)とからキャリブレーション係数α1,β1,α2,β2を直接算出することができる。
1=x1−x2+x3−x4・・・式(8)
2=x1+x2−x3−x4・・・式(9)
1=y1−y2+y3−y4・・・式(10)
2=y1+y2−y3−y4・・・式(11)
α1=2T2(P1−P2)/(S12−S21)・・・式(12)
β1=−2S2(P1−P2)/(S12−S21)・・・式(13)
α2=−2T1(Q1−Q2)/(S12−S21)・・・式(14)
β2=2S1(Q1−Q2)/(S12−S21)・・・式(15)
The above equations (3) and (4) are the optimum value conditions for α 1 and β 1 , and the equations (5) and (6) are the optimum value conditions for α 2 and β 2. 3) and Expression (4), and Expression (5) and Expression (6) are made simultaneous, respectively, and Expressions (1) and (2) are assigned and expanded to obtain the following Expressions (8) to (15). Can be obtained. Thus, the detection position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ), and the first to fourth calibration positions C 1 to C 4 From the tool position coordinates (P 1 , Q 1 ), (P 2 , Q 1 ), (P 1 , Q 2 ), (P 2 , Q 2 ) of C 4 , calibration coefficients α 1 , β 1 , α 2 , Β 2 can be directly calculated.
S 1 = x 1 −x 2 + x 3 −x 4 (8)
S 2 = x 1 + x 2 −x 3 −x 4 (9)
T 1 = y 1 −y 2 + y 3 −y 4 Formula (10)
T 2 = y 1 + y 2 -y 3 -y 4 ··· formula (11)
α 1 = 2T 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (12)
β 1 = −2S 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (13)
α 2 = −2T 1 (Q 1 −Q 2 ) / (S 1 T 2 −S 2 T 1 ) (14)
β 2 = 2S 1 (Q 1 -Q 2 ) / (S 1 T 2 -S 2 T 1 ) (15)

以上の式で算出されたキャリブレーション係数α1,β1,α2,β2を用いて、次に検出位置座標系の基準位置Osのツール位置座標(X0,Y0)を求める。まず、第1〜第4キャリブレーション位置C1〜C4のツール位置座標(P1,Q1),(P2,Q1),(P1,Q2),(P2,Q2)がなす四角形の重心位置Cg(Xg,Yg)と、指標5bの検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)がなす四角形の重心位置Eg(xg,yg)を式(16),(17)より求める。
g=((P1+P2)/2,(Q1+Q2)/2)・・・式(16)
g=((x1+x2+x3+x4)/4,(y1+y2+y3+y4)/4)・・・式(17)
Next, the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detected position coordinate system are obtained using the calibration coefficients α 1 , β 1 , α 2 , β 2 calculated by the above formula. First, the tool position coordinates (P 1 , Q 1 ), (P 2 , Q 1 ), (P 1 , Q 2 ), (P 2 , Q 2 ) of the first to fourth calibration positions C 1 to C 4. Centroid position C g (X g , Y g ) of the rectangle formed by and the detection position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 ) of the index 5b , Y 4 ), the center-of-gravity position E g (x g , y g ) of the quadrangle is obtained from equations (16) and (17).
C g = ((P 1 + P 2 ) / 2, (Q 1 + Q 2 ) / 2) (16)
E g = ((x 1 + x 2 + x 3 + x 4 ) / 4, (y 1 + y 2 + y 3 + y 4 ) / 4) Equation (17)

検出位置座標系において、重心位置Eg(xg,yg)から見た検出位置座標系の基準位置Osのベクトルは、(−xg,−yg)であり、このベクトルをキャリブレーション係数α1,β1,α2,β2を用いてツール位置座標系に変換すると、(―α1・xg−β1・yg,−α2・xg−β2・yg)となる。ここで、各キャリブレーション位置からなる四角形の重心位置Cg(Xg,Yg)は、検出位置座標系における重心位置Eg(xg,yg)と対応していることから、(Xg,Yg)に(―α1・xg−β1・yg,−α2・xg−β2・yg)を加えることで式(18)により、Os(X0,Y0)が求められる。
s=(Xg−α1g−β1g,Yg−α2g−β2g)・・・式(18)
In the detection position coordinate system, the vector of the reference position O s of the detection position coordinate system viewed from the gravity center position E g (x g , y g ) is (−x g , −y g ), and this vector is calibrated. When converted into the tool position coordinate system using the coefficients α 1 , β 1 , α 2 , β 2 , (−α 1 · x g −β 1 · y g , −α 2 × x g −β 2 · y g ) It becomes. Here, since the center of gravity C g (X g , Y g ) of the quadrangle consisting of each calibration position corresponds to the center of gravity E g (x g , y g ) in the detection position coordinate system, (X g , Y g ) and (−α 1 · x g −β 1 · y g , −α 2 · x g −β 2 · y g ) are added to O s (X 0 , Y 0 ) is required.
O s = (X g -α 1 x g -β 1 y g, Y g -α 2 x g -β 2 y g) ··· formula (18)

以上より算出されたキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)を使用して、検出位置座標系とツール位置座標系との間で座標変換を行なうと、図11に示すように、対角の誤差ベクトルL1とL4及びL2とL3はそれぞれ一致し、更にはL1とL4の二つのベクトルはL2とL3の二つのベクトルと180°反転した向きのベクトルであり、距離も全て同一で極めて小さいベクトルとなる。つまりは、第1〜第4キャリブレーション位置C1〜C4のなす四角形と第1〜第4座標変換位置D1〜D4のなす四角形とが最も近い状態となり、6軸ロボット2のロボットハンド21のハンド位置設定点Hを、視覚センサ3によって検出されたワーク5のグリップ位置Gに正確に移動させることができる。 Using the calibration coefficients α 1 , β 1 , α 2 , β 2 calculated as described above and the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detection position coordinate system, When coordinate conversion is performed with the tool position coordinate system, as shown in FIG. 11, diagonal error vectors L 1 and L 4, L 2 and L 3 coincide with each other, and further, L 1 and L 4 The two vectors are vectors in the direction reversed by 180 ° from the two vectors L 2 and L 3 , and the distances are all the same and become extremely small vectors. That is, the quadrangle formed by the first to fourth calibration positions C 1 to C 4 and the quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 are closest to each other, and the robot hand of the six-axis robot 2 The hand position set point H of 21 can be accurately moved to the grip position G of the workpiece 5 detected by the visual sensor 3.

以上のキャリブレーションによって求められたキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)は、制御コンピュータ25のHDD内に記憶され、視覚センサ3の検出位置座標系から6軸ロボット2のツール位置座標系への座標変換を行なう際に読み出されて、座標変換式の演算に使用される。 The calibration coefficients α 1 , β 1 , α 2 , β 2 and the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detection position coordinate system obtained by the above calibration are the HDDs of the control computer 25. And is read out when performing coordinate conversion from the detection position coordinate system of the visual sensor 3 to the tool position coordinate system of the six-axis robot 2 and used for calculation of the coordinate conversion formula.

なお、キャリブレーションにおいて画像の歪みの影響を更に抑えたい場合には、キャリブレーションで求めた検出位置座標系の基準位置Os(X0,Y0)を次のキャリブレーション位置の重心とし、再びキャリブレーションをすることで精度の高いキャリブレーション係数α1,β1,α2,β2及び検出位置座標計の基準位置Os(X0,Y0)を算出することができる。 In order to further suppress the influence of image distortion during calibration, the reference position O s (X 0 , Y 0 ) of the detection position coordinate system obtained by calibration is used as the center of gravity of the next calibration position, and again. By performing calibration, it is possible to calculate the calibration coefficients α 1 , β 1 , α 2 , β 2 and the reference position O s (X 0 , Y 0 ) of the detection position coordinate meter with high accuracy.

上記実施形態では、ツールとしてロボットハンドを用いたが、その他の種類のツールであっても同様にキャリブレーションを行なうことができる。また、ワークの指標を検出することによってキャリブレーションを行なったが、ロボットハンド等のツール自体の一部を検出してキャリブレーションを行なってもよい。   In the above embodiment, a robot hand is used as a tool. However, calibration can be similarly performed with other types of tools. Further, although the calibration is performed by detecting the workpiece index, the calibration may be performed by detecting a part of the tool itself such as a robot hand.

更に、ロボットハンドを20°ずつ回転させて検出位置座標の平均値を求めるようにしたが、2以上の回転位置の検出位置座標があれば平均値を算出することができるので、回転角度は20°に限定されるものではない。もちろん、より高精度なキャリブレーション、位置補正を行ないたい場合には、ロボットハンドの回転回数を増やすとよい。
Furthermore, the robot hand is rotated by 20 ° to obtain the average value of the detected position coordinates. However, if there are detected position coordinates of two or more rotational positions, the average value can be calculated, so the rotation angle is 20 It is not limited to °. Of course, if more precise calibration and position correction are desired, the number of rotations of the robot hand may be increased.

また、6軸ロボットを例に説明したが、異なる関節数を有するその他の多軸ロボットや、スカラーロボット等のキャリブレーションにも利用することができる。更に、2次元平面上でワークの位置を検出する視覚センサと6軸ロボットとのキャリブレーションについて説明したが、複数の撮像カメラを用いてワークの三次元位置を検出する三次元視覚センサと多関節ロボットとのキャリブレーションにも応用することができる。   Further, although a 6-axis robot has been described as an example, it can also be used for calibration of other multi-axis robots having different numbers of joints, scalar robots, and the like. Further, the calibration of the visual sensor for detecting the position of the workpiece on the two-dimensional plane and the six-axis robot has been described. However, the three-dimensional visual sensor and the multi-joint for detecting the three-dimensional position of the workpiece using a plurality of imaging cameras. It can also be applied to calibration with robots.

6軸ロボットと直進フィーダとの外観斜視図である。It is an external appearance perspective view of a 6-axis robot and a rectilinear feeder. 6軸ロボットと直進フィーダとの側面図及び要部断面図である。It is the side view and principal part sectional drawing of a 6-axis robot and a rectilinear feeder. 6軸ロボットのアーム先端のロボットフランジ座標系を示す斜視図である。It is a perspective view which shows the robot flange coordinate system of the arm front-end | tip of a 6-axis robot. ロボットハンドに保持されたワークの形状を示す平面図及び側面図である。It is the top view and side view which show the shape of the workpiece | work hold | maintained at the robot hand. ロボットハンドに保持されたワークと取出しステージと撮像カメラとを示す斜視図である。It is a perspective view which shows the workpiece | work hold | maintained at the robot hand, the taking-out stage, and the imaging camera. ツール位置座標系と検出位置座標系との関係を示すグラフである。It is a graph which shows the relationship between a tool position coordinate system and a detection position coordinate system. ツール位置座標系と検出位置座標系と各キャリブレーション位置との関係を示すグラフである。It is a graph which shows the relationship between a tool position coordinate system, a detection position coordinate system, and each calibration position. 各キャリブレーション位置で行なわれるワークの検出位置座標の検出方法の説明図である。It is explanatory drawing of the detection method of the detection position coordinate of the workpiece | work performed in each calibration position. 各キャリブレーション位置と適当なキャリブレーション係数で算出された座標変換位置との関係を示すグラフである。It is a graph which shows the relationship between each calibration position and the coordinate conversion position calculated with the appropriate calibration coefficient. 各キャリブレーション位置と本発明によって得たキャリブレーション係数で算出された座標変換位置との関係を示すグラフである。It is a graph which shows the relationship between each calibration position and the coordinate transformation position calculated with the calibration coefficient obtained by this invention. 各キャリブレーション位置と、本発明によって得たキャリブレーション係数及び検出位置座標系の基準位置とを用いて算出された座標変換位置との関係を示すグラフである。It is a graph which shows the relationship between each calibration position and the coordinate conversion position calculated using the calibration coefficient obtained by this invention, and the reference position of a detection position coordinate system. 本発明のキャリブレーション方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the calibration method of this invention.

符号の説明Explanation of symbols

2 ロボットハンド
3 視覚センサ
4 直進フィーダ
5 ワーク
21 ロボットハンド
24 ロボットコントローラ
25 制御コンピュータ
30 取出しステージ
1〜C4 第1〜第4キャリブレーション位置
1〜D4 第1〜第4座標変換位置
G グリップ位置
H ハンド位置設定点
1〜L4 誤差ベクトル
2 Robot Hand 3 Visual Sensor 4 Linear Feeder 5 Work 21 Robot Hand 24 Robot Controller 25 Control Computer 30 Extraction Stage C 1 to C 4 First to Fourth Calibration Positions D 1 to D 4 First to Fourth Coordinate Conversion Positions G Grip position H Hand position set point L 1 to L 4 Error vector

Claims (8)

ワークの位置座標を検出する視覚センサの検出位置座標系と、この視覚センサによって検出されたワークの位置座標までツールを移動させる多関節ロボットのツール位置座標系とを対応させるキャリブレーション方法において、
前記ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、前記視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出するステップと、
各キャリブレーション位置におけるツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標に変換するときに、この座標変換により得られるツールまたはワークの各ツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルを対角の点同士で一致させる条件を置いて、当該座標変換式の当該パラメータを算出するステップとを備えたことを特徴とするキャリブレーション方法。
In a calibration method in which a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece and a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece detected by the visual sensor,
The tool is sequentially moved to four calibration positions having axial symmetry arranged on the tool position coordinate system, and the detection position coordinates of the tool or the work held by the tool at each calibration position by the visual sensor. Detecting steps,
When the tool or workpiece detection position coordinates at each calibration position are converted into tool position coordinates using a coordinate conversion formula having an arbitrary parameter, each tool position coordinate and each calibration of the tool or work obtained by this coordinate conversion are converted. And a step of calculating the parameter of the coordinate conversion equation under a condition for matching the error vector of the tool position coordinate with the tool position coordinate between the diagonal points.
前記パラメータを算出するステップは、前記誤差ベクトルを対角の点同士で一致させる条件とともに、各キャリブレーション位置の各ツール位置座標と、座標変換により得たツールまたはワークの各ツール位置座標との誤差ベクトルを隣り合う点同士で加算したときに、その和を0にする条件を置いて、前記パラメータを算出することを特徴とする請求項1記載のキャリブレーション方法。 The step of calculating the parameter includes an error between each tool position coordinate at each calibration position and each tool position coordinate of the tool or workpiece obtained by coordinate conversion, together with a condition for matching the error vector between diagonal points . 2. The calibration method according to claim 1 , wherein when the vectors are added at adjacent points , the parameter is calculated under a condition that the sum is zero. ワークの位置座標を検出する視覚センサの検出位置座標系と、この視覚センサによって検出されたワークの位置座標までツールを移動させる多関節ロボットのツール位置座標系とを対応させるキャリブレーション方法において、
前記ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、前記視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出するステップと、
各キャリブレーション位置におけるツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標に変換するときに、この座標変換により得られるツールまたはワークの各ツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルを隣り合う点同士で加算した和が0となる該パラメータを算出するステップとを備えたことを特徴とするキャリブレーション方法。
In a calibration method in which a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece and a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece detected by the visual sensor,
The tool is sequentially moved to four calibration positions having axial symmetry arranged on the tool position coordinate system, and the detection position coordinates of the tool or the work held by the tool at each calibration position by the visual sensor. Detecting steps,
When the tool or workpiece detection position coordinates at each calibration position are converted into tool position coordinates using a coordinate conversion formula having an arbitrary parameter, each tool position coordinate and each calibration of the tool or work obtained by this coordinate conversion are converted. And a step of calculating the parameter for which the sum of the error vectors of the tool position and the tool position coordinate at adjacent points is 0 is provided.
前記座標変換式は、ツール位置座標系が(X,Y)、検出位置座標系が(x,y)、検出位置座標系(x,y)の基準位置のツール位置座標が(X,Y)であるときに、下記式(1),(2)であり、前記パラメータは、α,β,α,βであることを特徴とする請求項1ないし3いずれか記載のキャリブレーション方法。
X=αx+βy+X・・・式(1)
Y=αx+βy+Y・・・式(2)
In the coordinate conversion formula, the tool position coordinate system is (X, Y), the detection position coordinate system is (x, y), and the tool position coordinate of the reference position of the detection position coordinate system (x, y) is (X 0 , Y). 0 )), the following equations (1) and (2) are satisfied, and the parameters are α 1 , β 1 , α 2 , β 2 , Calibration method.
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)
記4点のキャリブレーション位置のツール位置座標が(P,Q),(P,Q),(P,Q),(P,Q)であり、前記視覚センサによって検出された各キャリブレーション位置でのツールまたはワークの検出位置座標が(x,y),(x,y),(x,y),(x,y)であり、このツールまたはワークの検出位置座標を前記式(1),(2)を用いて座標変換したツール位置座標が(X,Y),(X,Y),(X,Y),(X,Y)であるときに、各座標が下記式(3)〜(6)の関係を有することを特徴とする請求項4記載のキャリブレーション方法。
−X=X−X・・・式(3)
(X−P)−(X−P)=(X−P)−(X−P)・・・式(4)
−Y=Y−Y・・・式(5)
(Y−Q)−(Y−Q)=(Y−Q)−(Y−Q)・・・式(6)
Tool position coordinates of the calibration position before Symbol 4 points (P 1, Q 1), (P 2, Q 1), a (P 1, Q 2), (P 2, Q 2), said visual sensor (X 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ) Yes, the tool position coordinates obtained by coordinate conversion of the detected position coordinates of the tool or the workpiece using the formulas (1) and (2) are (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , 5. The calibration method according to claim 4, wherein when Y 3 ) and (X 4 , Y 4 ), each coordinate has a relationship of the following formulas (3) to (6).
X 1 -X 3 = X 4 -X 2 ··· formula (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 Formula (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)
前記各キャリブレーション位置でツールまたはワークの検出位置座標を検出するステップは、
ツールまたはワークの姿勢を複数段階に変化させ、視覚センサによってツールまたはワークの各姿勢の検出位置座標を検出するステップと、
ツールまたはワークの複数の検出位置座標から平均値を算出し、そのキャリブレーション位置における検出位置座標とするステップとからなることを特徴とする請求項1ないし5いずれか記載のキャリブレーション方法。
The step of detecting the detection position coordinates of the tool or workpiece at each calibration position,
Changing the posture of the tool or workpiece in a plurality of stages and detecting the detection position coordinates of each posture of the tool or workpiece by a visual sensor;
6. The calibration method according to claim 1, further comprising a step of calculating an average value from a plurality of detection position coordinates of the tool or workpiece and setting the detection position coordinates at the calibration position.
前記各キャリブレーション位置でツールまたはワークの検出位置座標を検出するステップは、
ツールまたはワークを360°/N,(N>=2)ずつ回転させ、各回転位置でのツールまたはワークの検出位置座標(kij,lij),(i:キャリブレーション位置番号、j:回転位置番号)を前記視覚センサで検出するステップと、
下記式(7)を用いてツールまたはワークの複数の検出位置座標の平均値を算出し、そのキャリブレーション位置における検出位置座標(x,y)とするステップとからなることを特徴とする請求項1ないし5いずれか記載のキャリブレーション方法。
Figure 0004274558
The step of detecting the detection position coordinates of the tool or workpiece at each calibration position,
The tool or workpiece is rotated by 360 ° / N, (N> = 2), and the detected position coordinates (k ij , l ij ), (i: calibration position number, j: rotation) at each rotational position Detecting a position number) with the visual sensor;
And calculating an average value of a plurality of detection position coordinates of the tool or the workpiece using the following formula (7) and setting the detection position coordinates (x i , y i ) at the calibration position. The calibration method according to claim 1.
Figure 0004274558
前記多関節ロボットは、垂直多関節ロボットまたは水平多関節ロボット、もしくは多軸ロボットであることを特徴とする請求項1ないし5いずれか記載のキャリブレーション方法。 6. The calibration method according to claim 1, wherein the articulated robot is a vertical articulated robot, a horizontal articulated robot, or a multi-axis robot.
JP2004268640A 2004-09-15 2004-09-15 Calibration method Active JP4274558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004268640A JP4274558B2 (en) 2004-09-15 2004-09-15 Calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004268640A JP4274558B2 (en) 2004-09-15 2004-09-15 Calibration method

Publications (2)

Publication Number Publication Date
JP2006082170A JP2006082170A (en) 2006-03-30
JP4274558B2 true JP4274558B2 (en) 2009-06-10

Family

ID=36161085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004268640A Active JP4274558B2 (en) 2004-09-15 2004-09-15 Calibration method

Country Status (1)

Country Link
JP (1) JP4274558B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5729219B2 (en) * 2010-09-06 2015-06-03 トヨタ車体株式会社 Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium
CN102022989B (en) * 2010-09-29 2012-03-21 山东科技大学 Robot calibration method based on exponent product model
JP5146621B2 (en) 2011-01-31 2013-02-20 トヨタ自動車株式会社 Articulated arm robot, control method and control program
EP2722136A1 (en) * 2012-10-19 2014-04-23 inos Automationssoftware GmbH Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system
JP2014180720A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method
JP6314426B2 (en) 2013-10-31 2018-04-25 セイコーエプソン株式会社 Robot control apparatus and robot control method
CN105792996B (en) * 2013-11-28 2017-07-25 三菱电机株式会社 The control method of robot system and robot system
JP2015174191A (en) * 2014-03-17 2015-10-05 株式会社安川電機 Robot system, calibration method of robot system and position correction method of robot system
JP6486679B2 (en) 2014-12-25 2019-03-20 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
JP6529758B2 (en) * 2014-12-25 2019-06-12 株式会社キーエンス Image processing apparatus, image processing system, image processing method and computer program
JP6410388B2 (en) * 2014-12-25 2018-10-24 株式会社キーエンス Image processing apparatus, image processing system, image processing method, and computer program
WO2017133756A1 (en) * 2016-02-02 2017-08-10 Abb Schweiz Ag Robot system calibration
JP6690398B2 (en) * 2016-05-17 2020-04-28 村田機械株式会社 Plate material transfer method, transfer control device, and processing system
JP6568172B2 (en) 2017-09-22 2019-08-28 ファナック株式会社 ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION
JP6904927B2 (en) 2018-07-30 2021-07-21 ファナック株式会社 Robot system and calibration method

Also Published As

Publication number Publication date
JP2006082170A (en) 2006-03-30

Similar Documents

Publication Publication Date Title
JP4289619B2 (en) Tool position correction method for articulated robots
JP4274558B2 (en) Calibration method
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP6755724B2 (en) Control methods, robot systems, and article manufacturing methods
JPH0435885A (en) Calibration method for visual sensor
JP7306937B2 (en) A control device for a robot device that adjusts the position of a member supported by a robot
US20120265344A1 (en) Robot system and method for operating robot system
JPWO2018092243A1 (en) Work position correction method and work robot
JP6661027B2 (en) Work robot
JP2004243215A (en) Robot teaching method for sealer applicator and sealer applicator
JP6928015B2 (en) Robot system and coordinate conversion method
JP7358747B2 (en) robot system
JP2006297559A (en) Calibration system and robot's calibration method
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
WO2023032400A1 (en) Automatic transport device, and system
CN116852359A (en) TCP (Transmission control protocol) quick calibration device and method based on robot hand teaching device
EP3895855A1 (en) Robot control system and robot control method
JP6937444B1 (en) Robot system positioning accuracy measurement method
JP2022126768A (en) Robot-equipped moving device
JPH08118272A (en) Calibration of robot
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
JP2022530589A (en) Robot-mounted mobile devices, systems and machine tools
JP7105223B2 (en) robot system
JP2021094623A (en) Robot control device, observation system, robot system, and robot control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

R150 Certificate of patent or registration of utility model

Ref document number: 4274558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250