JP4274558B2 - Calibration method - Google Patents
Calibration method Download PDFInfo
- Publication number
- JP4274558B2 JP4274558B2 JP2004268640A JP2004268640A JP4274558B2 JP 4274558 B2 JP4274558 B2 JP 4274558B2 JP 2004268640 A JP2004268640 A JP 2004268640A JP 2004268640 A JP2004268640 A JP 2004268640A JP 4274558 B2 JP4274558 B2 JP 4274558B2
- Authority
- JP
- Japan
- Prior art keywords
- tool
- calibration
- workpiece
- coordinate
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims description 79
- 230000000007 visual effect Effects 0.000 claims description 50
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 239000013598 vector Substances 0.000 claims description 24
- 230000036544 posture Effects 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Description
本発明は、ワークの位置座標を検出する視覚センサの検出位置座標系と、ワークの位置座標までツールを移動させる多関節ロボットのツール位置座標系とを対応させるキャリブレーション方法に関する。 The present invention relates to a calibration method that associates a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece with a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece.
ツールを交換して様々な作業に使用することのできる汎用性を備えた産業用ロボットとして、多関節ロボットが知られている。この多関節ロボットには、アームを主に水平方向で移動させる水平多関節ロボット(スカラーロボット)や、アームを主に垂直方向で移動させる垂直多関節ロボット等がある。垂直多関節ロボットは、ツールを任意の姿勢にすることができ、スカラーロボットに比べ、より高い汎用性を備えている。 Articulated robots are known as industrial robots with versatility that can be used for various tasks by exchanging tools. This articulated robot, the horizontal articulated robot (scalar robot) for moving the arm mainly in horizontal direction and, there is a vertical articulated robot for moving the arm mainly in the vertical direction. The vertical articulated robot can have a tool in an arbitrary posture and has higher versatility than a scalar robot.
多関節ロボットに所定の動作を行なわせるために、撮像カメラと画像認識装置とからなる視覚センサでワークの位置や姿勢を検出し、この検出位置にロボットハンド等のツールを移動させて、ワークをハンドリングする手法が一般に用いられている。視覚センサで検出した位置にツールを精度よく移動させるには、視覚センサの検出位置座標系と、多関節ロボットのツール位置座標系とを高精度に対応させなければならない。この二つの座標系を対応させる作業は、一般にキャリブレーションと呼ばれており、従来から種々のキャリブレーション方法が用いられている。 In order to cause the articulated robot to perform a predetermined operation, the position and posture of the workpiece are detected by a visual sensor composed of an imaging camera and an image recognition device, and a tool such as a robot hand is moved to this detection position to move the workpiece. A handling method is generally used. In order to accurately move the tool to the position detected by the visual sensor, the detection position coordinate system of the visual sensor and the tool position coordinate system of the articulated robot must be associated with high accuracy. The operation of making these two coordinate systems correspond is generally called calibration, and various calibration methods have been conventionally used.
例えば、特許文献1に記載されているロボットと視覚センサとのキャリブレーション方法は、ツールとしてロボットハンドを使用し、四隅に円形の指標が描かれたキャリブレーションプレートをツール位置座標系と平行になるようにロボットハンドに持たせ、このキャリブレーションプレートの円形の指標を視覚センサで検出させ、各指標間の実際のピッチと画像認識処理によって得た指標間のピッチとから、視覚センサの検出位置座標系とロボットのツール位置座標系とのX座標及びY座標、及び回転方向の相関を求めている。
特許文献1記載のキャリブレーション方法は、キャリブレーションプレートの指標のピッチを視覚センサによって得た座標値の差で割ってキャリブレーション係数を求めているだけであるため、キャリブレーションプレートと各座標系との平行度の精度が低いと、視覚センサの検出位置座標系が歪んで直交座標系でなくなってしまい、大きな誤差が発生する。そのため、特許文献1記載のキャリブレーション方法によって検出位置座標系とツール位置座標系とを高精度に対応させるには、視覚センサの撮像面と、キャリブレーションプレートの指標形成面と、ロボットハンドの移動平面との平行度を高精度に調整しなければならない。しかし、この平行度の調整には大がかりで高価な装置が必要であり、時間もかかるという問題があった。
Since the calibration method described in
また、特許文献1記載のキャリブレーション方法では、キャリブレーションプレートの指標のピッチをツール位置座標系のピッチとして、視覚センサの検出位置座標系との相関を求めているため、キャリブレーションプレートの指標の誤差や、多関節ロボットの誤差がそのままキャリブレーションに反映されてしまうという問題もあった。
In the calibration method described in
また、多関節ロボットは、各関節部分の誤差が集積されてツールの移動位置に表れるため、ツールの移動位置には絶対位置精度が無く、視覚センサで検出した位置にツールを移動させることが難しいという問題があった。更に、多関節ロボットでは、ツールを同じ位置に異なる方向から移動させると、関節の軸ぶれ等によってツールの移動位置に最大で数mm程度も誤差が生じてしまうという問題があった。 In addition, the articulated robot accumulates the errors of each joint part and appears at the movement position of the tool. Therefore, the movement position of the tool has no absolute position accuracy, and it is difficult to move the tool to the position detected by the visual sensor. There was a problem. Further, in the articulated robot, when the tool is moved to the same position from different directions, there is a problem that an error of about several millimeters at the maximum occurs in the movement position of the tool due to the axial movement of the joint.
本発明は、上記各問題点を解決するためのもので、視覚センサの検出位置座標系と、多関節ロボットのツール位置座標系とのキャリブレーションを高精度に行なうことを目的とする。 An object of the present invention is to solve the above-described problems, and an object of the present invention is to perform calibration between a detection position coordinate system of a visual sensor and a tool position coordinate system of an articulated robot with high accuracy.
上記課題を解決するために、本発明のキャリブレーション方法は、ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出する。このツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標系に変換するときに、この座標変換されたツール位置座標と、各キャリブレーション位置のツール位置座標との誤差量が小さくなるように、座標変換式のパラメータを算出するようにした。しかし、各点の誤差量を同時に無にするようなパラメータを求めることは、ほぼ確実に不可能である。そこで、本発明では、対角の点同士の誤差ベクトルを一致させることのできるパラメータを求めることによって、全体として誤差量が小さくなるようにした。 In order to solve the above-described problem, the calibration method of the present invention sequentially moves the tool to four calibration positions having axial symmetry arranged on the tool position coordinate system, and each calibration position is detected by a visual sensor. The detection position coordinate of the tool held in the tool or the tool is detected. When the detected position coordinates of this tool or workpiece are converted into the tool position coordinate system using a coordinate conversion formula having an arbitrary parameter, the tool position coordinates after the coordinate conversion and the tool position coordinates of each calibration position are The parameters of the coordinate conversion formula are calculated so that the error amount is small. However, it is almost certainly impossible to obtain a parameter that eliminates the error amount at each point simultaneously. Therefore, in the present invention, the error amount as a whole is reduced by obtaining a parameter that can match the error vectors of the diagonal points.
また、パラメータを算出するステップでは、誤差ベクトルを対角の点同士で一致させる条件とともに、各キャリブレーション位置のツール位置座標と、座標変換されたツールまたはワークのツール位置座標との誤差ベクトルが、隣り合う点同士で加算したときに0なる条件を置いてパラメータを算出している。 In addition, in the parameter calculation step, the error vector between the tool position coordinate of each calibration position and the tool position coordinate of the coordinate-converted tool or workpiece, together with the condition for matching the error vector between the diagonal points , The parameter is calculated under the condition of 0 when the adjacent points are added.
座標変換式としては、ツール位置座標系を(X,Y)、検出位置座標系を(x,y)、検出位置座標系のツール位置座標系上の基準位置を(X0,Y0)、パラメータをα1,β1,α2,β2とし、下記式(1),(2)を用いた。そして、ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置(P1,Q1),(P2,Q1),(P1,Q2),(P2,Q2)にツールを順次移動させ、視覚センサによって各キャリブレーション位置でのツールまたはワークの検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)を検出した。各キャリブレーション位置におけるツールまたはワークの検出位置座標は、式(1),(2)を用いてツール位置座標(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)に変換し、この座標変換されたツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルが対角の点同士で一致するように、各パラメータα1,β1,α2,β2を算出するようにした。
X=α1x+β1y+X0・・・式(1)
Y=α2x+β2y+Y0・・・式(2)
As the coordinate conversion formula, the tool position coordinate system is (X, Y), the detection position coordinate system is (x, y), the reference position on the tool position coordinate system of the detection position coordinate system is (X 0 , Y 0 ), The parameters were α 1 , β 1 , α 2 , β 2 and the following formulas (1) and (2) were used. The calibration position of the four points having axial symmetry disposed on the tool position coordinates (P 1, Q 1), (
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)
各キャリブレーション位置におけるツールまたはワークのツール位置座標の誤差ベクトルが対角の点同士で同一であるときには、下記式(3)〜(6)が成り立つ。式(3)と(4)は、α1,β1の最適値条件であり、また、式(5),(6)は、α2,β2の最適値条件となるため、式(3)と式(4)、及び式(5)と式(6)とをそれぞれ連立させ、式(1),(2)を代入して展開することによって、下記式(8)〜(15)を得ることができる。これにより、ツールまたはワークの検出位置座標とキャリブレーション位置のツール位置座標とから、パラメータα1,β1,α2,β2を算出することができる。
X1−X3=X4−X2・・・式(3)
(X1−P1)−(X2−P2)=(X4−P2)−(X3−P1)・・・式(4)
Y1−Y2=Y4−Y3・・・式(5)
(Y1−Q1)−(Y3−Q2)=(Y4−Q2)−(Y2−Q1)・・・式(6)
S1=x1−x2+x3−x4・・・式(8)
S2=x1+x2−x3−x4・・・式(9)
T1=y1−y2+y3−y4・・・式(10)
T2=y1+y2−y3−y4・・・式(11)
α1=2T2(P1−P2)/(S1T2−S2T1)・・・式(12)
β1=−2S2(P1−P2)/(S1T2−S2T1)・・・式(13)
α2=−2T1(Q1−Q2)/(S1T2−S2T1)・・・式(14)
β2=2S1(Q1−Q2)/(S1T2−S2T1)・・・式(15)
When the error vector of the tool position coordinates of the tool or workpiece at each calibration position is the same between the diagonal points, the following equations (3) to (6) hold. Equations (3) and (4) are optimum value conditions for α1 and β1, and equations (5) and (6) are optimum value conditions for α2 and β2. 4), and Equations (5) and (6) are made simultaneous, and the following Equations (8) to (15) can be obtained by substituting and expanding Equations (1) and (2). . Thereby, the parameters α 1 , β 1 , α 2 , β 2 can be calculated from the detection position coordinates of the tool or workpiece and the tool position coordinates of the calibration position.
X 1 −X 3 = X 4 −X 2 Formula (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 Formula (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)
S 1 = x 1 −x 2 + x 3 −x 4 (8)
S 2 = x 1 + x 2 −x 3 −x 4 (9)
T 1 = y 1 −y 2 + y 3 −y 4 Formula (10)
T 2 = y 1 + y 2 -y 3 -y 4 ··· formula (11)
α 1 = 2T 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (12)
β 1 = −2S 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (13)
α 2 = −2T 1 (Q 1 −Q 2 ) / (S 1 T 2 −S 2 T 1 ) (14)
β 2 = 2S 1 (Q 1 -Q 2 ) / (S 1 T 2 -S 2 T 1 ) (15)
また、各キャリブレーション位置でツールまたはワークの検出位置座標を検出するステップでは、ツールまたはワークの姿勢を複数段階に変化させて、視覚センサによってツールまたはワークの各姿勢の検出位置座標を検出し、この複数の検出位置座標から平均値を算出して、そのキャリブレーション位置における検出位置座標とした。なお、ツールまたはワークの姿勢の変化は、視覚センサの光軸とほぼ平行で、ツールの先端近傍を通る軸を中心に360°/N(N>=2)ずつ回転させることによって行ない、各回転位置でのツールまたはワークの検出位置座標(kij,lij)(i:キャリブレーション位置番号(1〜4)、j:回転位置番号(1〜N))を視覚センサで検出するようにした。また、下記式(7)を用いてツールまたはワークの複数の検出位置座標の平均値を算出し、そのキャリブレーション位置における検出位置座標(xi,yi)とした。
本発明の視覚センサと多関節ロボットとのキャリブレーション方法によれば、ツール位置座標系と、座標変換式によって検出位置座標系から変換されたツール位置座標との誤差量が全体的に小さくなるようなパラメータを算出するようにしたので、簡易な座標変換式を用いているにも関わらず、ツール位置座標系と検出位置座標系とを高精度に対応させることができる。 According to the calibration method of the visual sensor and the articulated robot of the present invention, the error amount between the tool position coordinate system and the tool position coordinates converted from the detection position coordinate system by the coordinate conversion formula is reduced as a whole. Since a simple parameter is calculated, the tool position coordinate system and the detected position coordinate system can be associated with high accuracy despite using a simple coordinate conversion formula.
また、視覚センサの検出位置座標系から得られるツール位置座標を直接最適になるような条件を用いて算出するため、検出位置座標系及びツール位置座標系、もしくはこれらのどちらかが歪んでいる場合でも誤差量が最小となるパラメータを算出することができる。これにより、大がかりで高価な装置や、膨大な調整時間を使わずとも、簡易な調整でツール位置座標系と検出位置座標系とを高精度に対応させることができる。 Also, because the tool position coordinates obtained from the detection position coordinate system of the visual sensor are calculated using conditions that directly optimize, the detection position coordinate system and / or the tool position coordinate system are distorted However, the parameter that minimizes the error amount can be calculated. Accordingly, the tool position coordinate system and the detection position coordinate system can be made to correspond with high accuracy by simple adjustment without using a large and expensive apparatus or an enormous adjustment time.
更に、各キャリブレーション位置でツールを回転させて姿勢を変化させ、各姿勢の検出位置座標から得た平均値によってキャリブレーションを行なうようにしたので、回転時に軸ブレを起こす多関節ロボットでも、高精度なキャリブレーションを行なうことができる。 Furthermore, the tool is rotated at each calibration position to change the posture, and the calibration is performed with the average value obtained from the detected position coordinates of each posture. Accurate calibration can be performed.
また、本発明では、キャリブレーション用のプレートではなく、ツールまたはツールに保持されたワークを使用してキャリブレーションを行なうので、多大な負荷であるキャリブレーションプレートとロボットの座標系との平行出し作業が不要であり、キャリブレーションプレートの脱着の必要がないため簡単にキャリブレーションを行なうことができ、キャリブレーションプレート脱着による誤差も発生しない。更に、使用するツールやワークの重量や姿勢の違いによってもツールまたはワークの座標位置の誤差ベクトルが変化するが、実際に使用するツール及びワークによってキャリブレーションを行なうため、各ツールもしくは各ワークの取出し姿勢に最適なキャリブレーションを行なうことができる。また、高精度なキャリブレーションプレートを必要としないため、キャリブレーションにかかるコストを削減することができる。 Further, in the present invention, since calibration is performed using a tool or a work held by the tool, not a calibration plate, parallel operation of the calibration plate and the robot coordinate system, which is a large load, is performed. Is not required, and it is not necessary to attach or detach the calibration plate. Therefore, calibration can be easily performed, and no error due to the attachment or detachment of the calibration plate occurs. Furthermore, the error vector of the coordinate position of the tool or workpiece changes depending on the weight or posture of the tool or workpiece used. However, since calibration is performed according to the tool and workpiece actually used, each tool or each workpiece is taken out. Calibration that is optimal for the posture can be performed. In addition, since a highly accurate calibration plate is not required, the cost for calibration can be reduced.
図1(A),(B)及び図2は、本発明のキャリブレーション方法が用いられる6軸ロボット2と、視覚センサ3が組み込まれた直進フィーダ4との構成を示す外観斜視図及び側面図である。視覚センサ3は、直進フィーダ4によって供給されたワーク5を撮像して、自身が備える検出位置座標系上でワーク5の検出位置座標及び姿勢を検出する。6軸ロボット2は、視覚センサ3によって検出されたワーク5の検出位置座標及び姿勢に基づいて、自身が備えるツール位置座標系上で先端に取り付けられたツール、例えばロボットハンド21を移動させてワーク5をハンドリングする。
1A, 1B, and 2 are an external perspective view and a side view showing configurations of a six-
6軸ロボット2は、サーボモータによって回動される関節を6個備えたアームを有する垂直多関節ロボットであり、先端のツールを取り替えることによって様々な作業に対応することができる汎用性を備えている。また、その関節数の多さと各関節の可動範囲の広さからツールの移動範囲が広く、かつ任意の姿勢をとらせることができる。
The six-
6軸ロボット2は、設置に使用される略円柱形状のベース10と、このベース10の上部に第1関節11を介して回動自在に組み付けられた旋回ボディ12と、この旋回ボディ12に第2関節13を介して回動自在に取り付けられた第1アーム14と、この第1アーム14に第3関節15を介して回動自在に取り付けられ、第4関節16によって先端が回動自在とされた第2アーム17と、この第2アーム17に第5関節18を介して回動自在に取り付けられ、先端に取り付けられたツールを回動させる第6関節19を備えた手首20とから構成されている。
The six-
図3に示すように、6軸ロボット2の手首20には、様々な種類のツールを取り付けることができるアーム側フランジ20aが設けられている。このアーム側フランジ20aには、フランジ面20bの中央Ofを基準位置とし、フランジ面20bに対して垂直なZf軸と、このZf軸に対して直交するXf軸及びYf軸とからなるロボットフランジ座標系が設けられている。
As shown in FIG. 3, the
6軸ロボット2にツールとして取り付けられるロボットハンド21は、ロボットハンド21を保持する本体部22と、この本体部22に設けられ、手首20のアーム側フランジ20aに取り付けられるツール側フランジ23とを備えている。ロボットハンド21は、先端が互いに近接する挟持位置と離反する開放位置との間で揺動自在とされた2本の指部21aと、これらの指部21aを揺動自在に支持する支持部21bとからなり、直進フィーダ4上を搬送されてきたワーク5を2本の指部21aで挟み込んでハンドリングする。本体部22内には、ロボットハンド21の指部21aを揺動させる駆動機構が組み込まれている。このロボットハンド21の指部21aの先端近傍には、ロボットフランジ座標系上で任意に設定されたハンド位置設定点Hが設けられている。
The
6軸ロボット2は、ツール位置座標系上に設定した任意の点にハンド位置設定点Hを一致させるように各関節を制御する。また、ハンド位置設定点Hを中心にヨー軸、ピッチ軸、ロー軸の三軸の回りでロボットハンド21の姿勢を変化させることができる。そのため、ツール位置座標系上の任意の点に対して、異なる方向からロボットハンド21をアクセスさせることができ、様々な姿勢のワーク5を、そのワーク5に対して特定の方向から、そのワーク5の組み立てに適した姿勢でハンドリングすることができる。
The six-
従来よりロボットハンドによるワークのハンドリングでは、ワークを特定の姿勢、例えば次工程での組み立てに適した姿勢を保ったままハンドリングしている。ワークを特定の姿勢に保つには、ロボットハンドによってグリップされるワークのグリップ位置や、ワークとロボットハンドとがなす角度であるグリップ角度を一定にするとよい。そのため、従来のワークハンドリングでは、パーツフィーダ等を用いてワークを予め整列させてグリップ位置を一定の方向に向け、このグリップ位置を特定のグリップ角度のロボットハンドでグリップしていた。 Conventionally, in handling a workpiece by a robot hand, the workpiece is handled while maintaining a specific posture, for example, a posture suitable for assembly in the next process. In order to keep the workpiece in a specific posture, the grip position of the workpiece gripped by the robot hand and the grip angle that is an angle formed between the workpiece and the robot hand may be made constant. For this reason, in the conventional work handling, the workpieces are aligned in advance using a parts feeder or the like, the grip position is directed in a certain direction, and the grip position is gripped by a robot hand having a specific grip angle.
しかし、上記従来のワークハンドリングでは、パーツフィーダの使用によってコストの上昇や作業効率の低下という悪影響を生じていた。また、異なる種類のワークをハンドリングする際には、そのワークに対応した別のパーツフィーダを用意しなくてはならなかった。そこで本実施形態では、ロボットハンド21の移動及び姿勢の自由度が高い6軸ロボット2を使用することにより、直進フィーダ4によって様々な姿勢で搬送されてきたワーク5のグリップ位置を特定のグリップ角度でグリップしてハンドリングするようにした。これにより、ワーク5の姿勢を揃えるパーツフィーダを省略することができる。
However, in the conventional work handling described above, the use of the parts feeder has had the adverse effect of increasing costs and reducing work efficiency. Also, when handling different types of workpieces, another parts feeder corresponding to the workpieces had to be prepared. Therefore, in the present embodiment, by using the 6-
なお、ワーク5は、例えば図4(A)に示すように矩形状をしており、先端5a側に貫通穴からなる円形の指標5bが設けられている。このワーク5のグリップ位置Gは、ワーク5の長手方向において指標5bから寸法Wの位置で、ワーク5の下面に配置されている。ワーク5をロボットハンド21でハンドリングする際には、グリップ位置Gにハンド位置設定点Hが一致するようにロボットハンド21を移動させ、ワーク5の姿勢、すなわち検出位置座標系のY軸に対するワーク5の回転角度θ1に合せてロボットハンド21を回転させ、ワーク5の後端5c側からワーク5の両側面をロボットハンド21で挟み込む。また、同図(B)に示すように、実際のワークの取り出し及び組み立てに適したグリップ角度θ2となるようにワーク5がハンドリングされる。
The
6軸ロボット2は、例えば、ロボットコントローラ24によって制御される。ロボットコントローラ24は、6軸ロボット2を制御する制御プログラム等が記録されたメモリと、各プログラムにしたがって各種演算処理を行なうCPUと、6軸ロボット2や制御コンピュータ25との接続に用いられるI/Oポート等を備えている。このロボットコントローラ24は、制御コンピュータ25によって制御される。
The 6-
直進フィーダ4は、略箱形状のベース28と、このベース28の上に組み付けられて振動してワーク5を搬送する略板形状のトラフ29と、トラフ29のワーク搬送面29aに形成された開口29bに嵌め込まれ、6軸ロボット2によってワーク5をハンドリングする際の取出しステージ30を形成する透明なガラス板31と、ベース28内に組み込まれトラフ29の一端側から振動を与える振動ユニット32と、トラフ29の他端側を振動可能に支持する支持部材33とから構成されている。ベース28の上面でトラフ29の開口29bに対面する位置には、開口36が形成されている。
The rectilinear feeder 4 includes a substantially box-shaped
図5に示すように、直進フィーダ4のベース28内で開口36に対面する位置には、取出しステージ30上のワーク5の検出位置座標及び姿勢を下方から検出する視覚センサ3と、ワーク5を下方から照明する照明ランプ35とが組み込まれている。視覚センサ3は、CCDやCMOS等のイメージエリアセンサと撮像光学系とが組み込まれた撮像カメラ39と、この撮像カメラ39による撮像によって生成された画像データを画像処理によってベクトルデータ化して、ワーク5の検出座標位置と回転角度θ1とを特定する画像認識装置40とから構成されている。撮像カメラ39の撮像光軸vは、ツール位置座標系のZ軸にほぼ平行に設定されている。この視覚センサ3も制御コンピュータ25によって制御される。
As shown in FIG. 5, the visual sensor 3 for detecting the detection position coordinate and posture of the
照明ランプ35は、制御コンピュータ25によって制御されたランプドライバ41によって点灯され、ガラス板31越しにワーク5を照明する。ベース28の開口36とトラフ29との間には、外光や塵芥等の進入を防止するために、例えば蛇腹状のカバー42が取り付けられている。なお、ワーク5の照明は、取出しステージ30の上方から行なってもよい。また、カバー42を使用せずに、赤色光とシャープカットフィルタとを使用しても、外光の影響を効果的に防止することができる。
The
制御コンピュータ25は、例えば、CPU,HDD,メモリ等を備えたパーソナルコンピュータ(PC)からなり、視覚センサ3,ロボットコントローラ24,振動ユニット32,ランプドライバ41等を制御する。また、視覚センサ3の検出位置座標系(ピクセル)と、6軸ロボット2のツール位置座標系(mm)との間の座標変換を行なうプログラムや、検出位置座標系とツール位置座標系とを対応させるキャリブレーションプログラム等を格納している。
The
上記6軸ロボット2及び視覚センサ3と、直進フィーダ4は、例えば次のように動作する。直進フィーダ4上には、図示しないボウルフィーダ等によってワーク5が1個ずつ投入される。直進フィーダ4のトラフ29上に投入されたワーク5は、その姿勢が整列されていないため様々な姿勢となる。直進フィーダ4は、振動ユニット32によってトラフ29を振動させて、ワーク5を取出しステージ30上に向けて搬送する。
The 6-
取出しステージ30上に搬送されたワーク5は、ガラス板31越しに下方から照明ランプ35によって照明され、撮像カメラ39によって撮像される。撮像カメラ39によって生成された画像データは、画像認識装置40の画像処理によりベクトルデータ化され、ワーク5の回転角度θ1と、指標5bの検出位置座標とが検出される。この検出結果は、制御コンピュータ25に入力される。
The
図6は、ツール位置座標系(X,Y)と検出位置座標系(x,y)との関係を示している。2点鎖線で示す四角形Fは、撮像カメラ39による撮像範囲を示しており、直進フィーダ4の取出しステージ30よりも僅かに大きな面積を有している。例えば、検出位置座標系(x,y)の基準位置Osのツール位置座標が(X0,Y0)であるときに、取出しステージ30上の検出位置座標(xa,ya)にあるワーク5の指標5bは、ツール位置座標(Xa,Ya)に位置することになる。
FIG. 6 shows the relationship between the tool position coordinate system (X, Y) and the detected position coordinate system (x, y). A square F indicated by a two-dot chain line indicates an imaging range by the
制御コンピュータ25は、下記の座標変換式(1),(2)を使用して、視覚センサ3によって検出された指標5bの検出位置座標(xa,ya)から、ツール位置座標(Xa,Ya)を算出し、これをロボットコントローラ24に入力する。ロボットコントローラ24は、指標5bのツール位置座標(Xa,Ya)とワーク5の回転角度θ1とから、ワーク5をハンドリングするのに適したグリップ位置Gのツール位置座標(Xa’,Ya’)を算出する。このグリップ位置Gのツール位置座標(Xa’,Ya’)は、図4(A)に示すように、指標5bのツール位置座標(Xa,Ya)に対し、寸法Wとワーク5の回転角度θ1とから得られるオフセット量(ΔX,ΔY)を加算することで算出される。なお、座標変換式(1),(2)のキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)は、座標変換精度に直接影響するパラメータである。
X=α1x+β1y+X0・・・式(1)
Y=α2x+β2y+Y0・・・式(2)
The
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)
ロボットコントローラ24は、6軸ロボット2の各関節のサーボモータを動作させて、ロボットハンド21のハンド位置設定点Hをワーク5のグリップ位置Gのツール位置座標(Xa’,Ya’)に移動させ、かつ回転角度θ1に合せてロボットハンド21を回転させて、後端5c側からワーク5の両側面を挟み込む。このときのワーク5とロボットハンド21との間のグリップ角度θ2は、実際のワーク5の取り出し及び組み立てに適した角度となる。
The
上述したように、視覚センサ3によって検出したワーク5の指標5bの検出位置座標(Xa,Ya)に基づいて、グリップ位置Gのツール位置座標(Xa’,Ya’)にロボットハンド21のハンド位置設定点Hを正確に移動させるには、6軸ロボット2のツール位置座標系(X,Y)と視覚センサ3の検出位置座標系(x,y)とを精度よく対応させなくてはならない。以下では、図12のフローチャートを参照して、ツール位置座標系と検出位置座標系とのキャリブレーションについて説明する。
As described above, the robot hand moves to the tool position coordinate (X a ′, Y a ′) of the grip position G based on the detected position coordinate (X a , Y a ) of the
まず、ロボットハンド21によって、グリップ位置Gとハンド位置設定点Hとが合致するように、後端5c側からグリップ角度θ2でワーク5を把持する。ワーク5をハンドリングしたロボットハンド21を取出しステージ30上で移動させ、図7に示すように、予め設定されているツール位置座標系(X,Y)上の第1キャリブレーション位置C1のツール位置座標(P1,Q1)に、ハンド位置設定点Hを合致させる。なお、ロボットハンド21を取出しステージ30上で移動させる際には、把持したワーク5が取出しステージ30と干渉しないように、ワーク5と取出しステージ30とが僅かな隙間をもつような高さにロボットハンド21が移動される。
First, the
次に、視覚センサ3によって、第1〜第4キャリブレーション位置C1〜C4における指標5bの検出位置座標(ki,j,li,j)(i:キャリブレーション位置番号(1〜4)、j:回転位置番号(1〜N))が検出される。キャリブレーション位置番号iは、最初にi=1にセットされ、各キャリブレーション位置での指標5bの検出位置座標の検出終了とともにカウントアップされる。回転位置番号jは、最初にj=1にセットされ、ロボットハンド21が回転されるごとにカウントアップされる。また、ロボットハンド21が次のキャリブレーション位置に移動したときに、回転位置番号jはリセットされる。
Next, the visual sensor 3 detects the detection position coordinates (k i, j , l i, j ) (i: calibration position number (1-4) at the first to fourth calibration positions C 1 -C 4 . ), J: rotational position number (1 to N)) is detected. The calibration position number i is first set to i = 1, and is counted up when the detection position coordinate detection of the
図8に示すように、視覚センサ3によって第1キャリブレーション位置C1における指標5bの検出位置座標(k1,1,l1,1)を検出する。次に、ロボットハンド21を、ハンド位置設定点Hを通り、撮像カメラ39の撮像光軸とほぼ平行なツール位置座標系のZ軸uを中心に反時計方向に360°/N(N>=2)、例えばN=18として20°回転させ、視覚センサ3によって指標5bの検出位置座標(k1,2,l1,2)を検出する。同様に、ロボットハンド21を360°/N(N>=2)ずつ回転させ、各回転時の指標5bの検出位置座標(k1,3,l1,3)〜(k1,18,l1,18)を検出する。
As shown in FIG. 8, the detection position coordinates (k 1,1 , l 1,1 ) of the
第1キャリブレーション位置C1で所定の回転回数Nの検出位置座標の検出を終えると、ロボットハンド21はハンド位置設定点Hを第2キャリブレーション位置C2〜第4キャリブレーション位置C4へと順に移動し、同様の手順で各キャリブレーション位置における指標5bの検出位置座標(ki,j,li,j)を検出する。
When the detection of the detection position coordinates of the predetermined number of rotations N is completed at the first calibration position C 1 , the
全キャリブレーション位置において指標5bの検出位置座標を検出し終えたところで、各キャリブレーション位置ごとに下記の式(7)を用いて検出位置座標の平均値(xi,yi)を求める。求めた検出位置座標の平均値(xi,yi)は、第1キャリブレーション位置C1のツール位置座標に対応したものとなる。
従来のキャリブレーションでは、ロボットハンドを180°(360°/N,N=2)回転させ、(ki,1,li,1),(ki,2,li,2)の2個のデータの平均値を検出位置座標(xi,yi)としていたため、絶対精度のない6軸ロボットでは、予め設定したキャリブレーション位置のツール位置座標と検出位置座標を精度よく対応させることができなかった。しかし、本実施形態の手法では、キャリブレーション作業に多大な時間がかからない程度にロボットハンド21の回転数Nを大きくして検出位置座標の平均値を算出することで、6軸ロボット2の絶対精度の影響を最小限に抑え、より正確なキャリブレーションを行なうことができる。
In the conventional calibration, the robot hand is rotated by 180 ° (360 ° / N, N = 2), and (K i, 1 , l i, 1 ), (ki , 2 , l i, 2 ) Since the average value of the data is the detection position coordinates (xi, yi), the 6-axis robot without absolute accuracy cannot accurately associate the tool position coordinates of the preset calibration position with the detection position coordinates. It was. However, in the method of the present embodiment, the absolute accuracy of the six-
以上により求められた第1〜第4キャリブレーション位置C1〜C4における指標5bの検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)と、仮想した適当なキャリブレーション係数α1,β1,α2,β2とを用いて前述の式(1)、(2)の計算を行なうと、その変換された第1〜第4座標変換位置D1〜D4のツール位置座標(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)のなす四角形は、図9に示すように、予め設定した第1〜第4キャリブレーション位置C1〜C4のなす四角形とほぼ間違いなくかけ離れたものとなる。
The detected position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), () of the
また、キャリブレーション係数α1,α2,β1,β2及び検出位置座標系の基準位置(X0,Y0)を変化させ、第1〜第4キャリブレーション位置C1〜C4のなす四角形に、第1〜第4座標変換位置D1〜D4のなす四角形を一致させようとしても、第1〜第4座標変換位置D1〜D4が測定値より求めた値であるので、完全に一致させることは不可能である。 Further, the calibration coefficients α 1 , α 2 , β 1 , β 2 and the reference position (X 0 , Y 0 ) of the detection position coordinate system are changed to form the first to fourth calibration positions C 1 to C 4 . Even if an attempt is made to match the quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 with the quadrangle, the first to fourth coordinate conversion positions D 1 to D 4 are values obtained from the measurement values. It is impossible to match them completely.
上記第1〜第4キャリブレーション位置C1〜C4の四角形と、第1〜第4座標変換位置D1〜D4の四角形との不一致を解決するために、本出願人は、各キャリブレーション位置C1〜C4と各座標変換位置D1〜D4との間の各誤差量を小さくして誤差方向を合せること、特に、対角線上の点同士の誤差ベクトル(誤差量及び誤差方向)を等しくすることによって、第1〜第4キャリブレーション位置C1〜C4のなす四角形に近似した第1〜第4座標変換位置D1〜D4の四角形を形成できることに着目した。 In order to resolve the discrepancy between the first to fourth calibration positions C 1 to C 4 and the first to fourth coordinate conversion positions D 1 to D 4 , The error direction between the positions C 1 to C 4 and the coordinate conversion positions D 1 to D 4 is reduced to match the error direction, in particular, the error vector (error amount and error direction) between the points on the diagonal line. Note that it is possible to form a quadrangle of first to fourth coordinate conversion positions D 1 to D 4 that approximates a quadrangle formed by the first to fourth calibration positions C 1 to C 4 .
本実施形態では、図10に示すように、第1座標変換位置D1と第4座標変換位置D4との誤差ベクトルL1とL4、及び第2座標変換位置D2と第3座標変換位置D3との誤差ベクトルL2とL3がそれぞれ同一になるようなキャリブレーション係数α1,β1,α2,β2を算出することにより、第1〜第4キャリブレーション位置C1〜C4のなす四角形に最も近似した第1〜第4座標変換位置D1〜D4のなす四角形を作り出した。対角線上の点同士の誤差ベクトルが同一である場合には、以下の式(3)〜(6)が成り立つ。
X1−X3=X4−X2・・・(式)(3)
(X1−P1)−(X2−P2)=(X4−P2)−(X3−P1)・・・式(4)
Y1−Y2=Y4−Y3・・・(式)(5)
(Y1−Q1)−(Y3−Q2)=(Y4−Q2)−(Y2−Q1)・・・式(6)
In the present embodiment, as shown in FIG. 10, the error vector L 1 and L 4 of the first coordinate transformation position D 1 and the fourth coordinate transformation position D 4, and a second coordinate transformation position D 2 and the third coordinate transformation By calculating the calibration coefficients α 1 , β 1 , α 2 , β 2 so that the error vectors L 2 and L 3 with respect to the position D 3 are the same, the first to fourth calibration positions C 1 to C 4 are calculated. A quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 that was most approximate to the quadrangle formed by C 4 was created. When the error vectors of the diagonal points are the same, the following equations (3) to (6) hold.
X 1 −X 3 = X 4 −X 2 (Formula) (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 (formula) (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)
上記式(3)と(4)は、α1,β1の最適値条件であり、また、式(5),(6)は、α2,β2の最適値条件となるため、式(3)と式(4)、及び式(5)と式(6)とをそれぞれ連立させ、式(1),(2)を代入して展開することにより、下記式(8)〜(15)を得ることができる。これにより、検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)と、第1〜第4キャリブレーション位置C1〜C4のツール位置座標(P1,Q1),(P2,Q1),(P1,Q2),(P2,Q2)とからキャリブレーション係数α1,β1,α2,β2を直接算出することができる。
S1=x1−x2+x3−x4・・・式(8)
S2=x1+x2−x3−x4・・・式(9)
T1=y1−y2+y3−y4・・・式(10)
T2=y1+y2−y3−y4・・・式(11)
α1=2T2(P1−P2)/(S1T2−S2T1)・・・式(12)
β1=−2S2(P1−P2)/(S1T2−S2T1)・・・式(13)
α2=−2T1(Q1−Q2)/(S1T2−S2T1)・・・式(14)
β2=2S1(Q1−Q2)/(S1T2−S2T1)・・・式(15)
The above equations (3) and (4) are the optimum value conditions for α 1 and β 1 , and the equations (5) and (6) are the optimum value conditions for α 2 and β 2. 3) and Expression (4), and Expression (5) and Expression (6) are made simultaneous, respectively, and Expressions (1) and (2) are assigned and expanded to obtain the following Expressions (8) to (15). Can be obtained. Thus, the detection position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ), and the first to fourth calibration positions C 1 to C 4 From the tool position coordinates (P 1 , Q 1 ), (P 2 , Q 1 ), (P 1 , Q 2 ), (P 2 , Q 2 ) of C 4 , calibration coefficients α 1 , β 1 , α 2 , Β 2 can be directly calculated.
S 1 = x 1 −x 2 + x 3 −x 4 (8)
S 2 = x 1 + x 2 −x 3 −x 4 (9)
T 1 = y 1 −y 2 + y 3 −y 4 Formula (10)
T 2 = y 1 + y 2 -y 3 -y 4 ··· formula (11)
α 1 = 2T 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (12)
β 1 = −2S 2 (P 1 −P 2 ) / (S 1 T 2 −S 2 T 1 ) (13)
α 2 = −2T 1 (Q 1 −Q 2 ) / (S 1 T 2 −S 2 T 1 ) (14)
β 2 = 2S 1 (Q 1 -Q 2 ) / (S 1 T 2 -S 2 T 1 ) (15)
以上の式で算出されたキャリブレーション係数α1,β1,α2,β2を用いて、次に検出位置座標系の基準位置Osのツール位置座標(X0,Y0)を求める。まず、第1〜第4キャリブレーション位置C1〜C4のツール位置座標(P1,Q1),(P2,Q1),(P1,Q2),(P2,Q2)がなす四角形の重心位置Cg(Xg,Yg)と、指標5bの検出位置座標(x1,y1),(x2,y2),(x3,y3),(x4,y4)がなす四角形の重心位置Eg(xg,yg)を式(16),(17)より求める。
Cg=((P1+P2)/2,(Q1+Q2)/2)・・・式(16)
Eg=((x1+x2+x3+x4)/4,(y1+y2+y3+y4)/4)・・・式(17)
Next, the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detected position coordinate system are obtained using the calibration coefficients α 1 , β 1 , α 2 , β 2 calculated by the above formula. First, the tool position coordinates (P 1 , Q 1 ), (P 2 , Q 1 ), (P 1 , Q 2 ), (P 2 , Q 2 ) of the first to fourth calibration positions C 1 to C 4. Centroid position C g (X g , Y g ) of the rectangle formed by and the detection position coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 ) of the
C g = ((P 1 + P 2 ) / 2, (Q 1 + Q 2 ) / 2) (16)
E g = ((x 1 + x 2 + x 3 + x 4 ) / 4, (y 1 + y 2 + y 3 + y 4 ) / 4) Equation (17)
検出位置座標系において、重心位置Eg(xg,yg)から見た検出位置座標系の基準位置Osのベクトルは、(−xg,−yg)であり、このベクトルをキャリブレーション係数α1,β1,α2,β2を用いてツール位置座標系に変換すると、(―α1・xg−β1・yg,−α2・xg−β2・yg)となる。ここで、各キャリブレーション位置からなる四角形の重心位置Cg(Xg,Yg)は、検出位置座標系における重心位置Eg(xg,yg)と対応していることから、(Xg,Yg)に(―α1・xg−β1・yg,−α2・xg−β2・yg)を加えることで式(18)により、Os(X0,Y0)が求められる。
Os=(Xg−α1xg−β1yg,Yg−α2xg−β2yg)・・・式(18)
In the detection position coordinate system, the vector of the reference position O s of the detection position coordinate system viewed from the gravity center position E g (x g , y g ) is (−x g , −y g ), and this vector is calibrated. When converted into the tool position coordinate system using the coefficients α 1 , β 1 , α 2 , β 2 , (−α 1 · x g −β 1 · y g , −α 2 × x g −β 2 · y g ) It becomes. Here, since the center of gravity C g (X g , Y g ) of the quadrangle consisting of each calibration position corresponds to the center of gravity E g (x g , y g ) in the detection position coordinate system, (X g , Y g ) and (−α 1 · x g −β 1 · y g , −α 2 · x g −β 2 · y g ) are added to O s (X 0 , Y 0 ) is required.
O s = (X g -α 1 x g -
以上より算出されたキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)を使用して、検出位置座標系とツール位置座標系との間で座標変換を行なうと、図11に示すように、対角の誤差ベクトルL1とL4及びL2とL3はそれぞれ一致し、更にはL1とL4の二つのベクトルはL2とL3の二つのベクトルと180°反転した向きのベクトルであり、距離も全て同一で極めて小さいベクトルとなる。つまりは、第1〜第4キャリブレーション位置C1〜C4のなす四角形と第1〜第4座標変換位置D1〜D4のなす四角形とが最も近い状態となり、6軸ロボット2のロボットハンド21のハンド位置設定点Hを、視覚センサ3によって検出されたワーク5のグリップ位置Gに正確に移動させることができる。
Using the calibration coefficients α 1 , β 1 , α 2 , β 2 calculated as described above and the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detection position coordinate system, When coordinate conversion is performed with the tool position coordinate system, as shown in FIG. 11, diagonal error vectors L 1 and L 4, L 2 and L 3 coincide with each other, and further, L 1 and L 4 The two vectors are vectors in the direction reversed by 180 ° from the two vectors L 2 and L 3 , and the distances are all the same and become extremely small vectors. That is, the quadrangle formed by the first to fourth calibration positions C 1 to C 4 and the quadrangle formed by the first to fourth coordinate conversion positions D 1 to D 4 are closest to each other, and the robot hand of the six-
以上のキャリブレーションによって求められたキャリブレーション係数α1,β1,α2,β2及び検出位置座標系の基準位置Osのツール位置座標(X0,Y0)は、制御コンピュータ25のHDD内に記憶され、視覚センサ3の検出位置座標系から6軸ロボット2のツール位置座標系への座標変換を行なう際に読み出されて、座標変換式の演算に使用される。
The calibration coefficients α 1 , β 1 , α 2 , β 2 and the tool position coordinates (X 0 , Y 0 ) of the reference position O s of the detection position coordinate system obtained by the above calibration are the HDDs of the
なお、キャリブレーションにおいて画像の歪みの影響を更に抑えたい場合には、キャリブレーションで求めた検出位置座標系の基準位置Os(X0,Y0)を次のキャリブレーション位置の重心とし、再びキャリブレーションをすることで精度の高いキャリブレーション係数α1,β1,α2,β2及び検出位置座標計の基準位置Os(X0,Y0)を算出することができる。 In order to further suppress the influence of image distortion during calibration, the reference position O s (X 0 , Y 0 ) of the detection position coordinate system obtained by calibration is used as the center of gravity of the next calibration position, and again. By performing calibration, it is possible to calculate the calibration coefficients α 1 , β 1 , α 2 , β 2 and the reference position O s (X 0 , Y 0 ) of the detection position coordinate meter with high accuracy.
上記実施形態では、ツールとしてロボットハンドを用いたが、その他の種類のツールであっても同様にキャリブレーションを行なうことができる。また、ワークの指標を検出することによってキャリブレーションを行なったが、ロボットハンド等のツール自体の一部を検出してキャリブレーションを行なってもよい。 In the above embodiment, a robot hand is used as a tool. However, calibration can be similarly performed with other types of tools. Further, although the calibration is performed by detecting the workpiece index, the calibration may be performed by detecting a part of the tool itself such as a robot hand.
更に、ロボットハンドを20°ずつ回転させて検出位置座標の平均値を求めるようにしたが、2以上の回転位置の検出位置座標があれば平均値を算出することができるので、回転角度は20°に限定されるものではない。もちろん、より高精度なキャリブレーション、位置補正を行ないたい場合には、ロボットハンドの回転回数を増やすとよい。
Furthermore, the robot hand is rotated by 20 ° to obtain the average value of the detected position coordinates. However, if there are detected position coordinates of two or more rotational positions, the average value can be calculated, so the rotation angle is 20 It is not limited to °. Of course, if more precise calibration and position correction are desired, the number of rotations of the robot hand may be increased.
また、6軸ロボットを例に説明したが、異なる関節数を有するその他の多軸ロボットや、スカラーロボット等のキャリブレーションにも利用することができる。更に、2次元平面上でワークの位置を検出する視覚センサと6軸ロボットとのキャリブレーションについて説明したが、複数の撮像カメラを用いてワークの三次元位置を検出する三次元視覚センサと多関節ロボットとのキャリブレーションにも応用することができる。 Further, although a 6-axis robot has been described as an example, it can also be used for calibration of other multi-axis robots having different numbers of joints, scalar robots, and the like. Further, the calibration of the visual sensor for detecting the position of the workpiece on the two-dimensional plane and the six-axis robot has been described. However, the three-dimensional visual sensor and the multi-joint for detecting the three-dimensional position of the workpiece using a plurality of imaging cameras. It can also be applied to calibration with robots.
2 ロボットハンド
3 視覚センサ
4 直進フィーダ
5 ワーク
21 ロボットハンド
24 ロボットコントローラ
25 制御コンピュータ
30 取出しステージ
C1〜C4 第1〜第4キャリブレーション位置
D1〜D4 第1〜第4座標変換位置
G グリップ位置
H ハンド位置設定点
L1〜L4 誤差ベクトル
2 Robot Hand 3 Visual Sensor 4
Claims (8)
前記ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、前記視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出するステップと、
各キャリブレーション位置におけるツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標に変換するときに、この座標変換により得られるツールまたはワークの各ツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルを対角の点同士で一致させる条件を置いて、当該座標変換式の当該パラメータを算出するステップとを備えたことを特徴とするキャリブレーション方法。 In a calibration method in which a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece and a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece detected by the visual sensor,
The tool is sequentially moved to four calibration positions having axial symmetry arranged on the tool position coordinate system, and the detection position coordinates of the tool or the work held by the tool at each calibration position by the visual sensor. Detecting steps,
When the tool or workpiece detection position coordinates at each calibration position are converted into tool position coordinates using a coordinate conversion formula having an arbitrary parameter, each tool position coordinate and each calibration of the tool or work obtained by this coordinate conversion are converted. And a step of calculating the parameter of the coordinate conversion equation under a condition for matching the error vector of the tool position coordinate with the tool position coordinate between the diagonal points.
前記ツール位置座標系上に配置された軸対称性を有する4点のキャリブレーション位置にツールを順次移動させ、前記視覚センサによって各キャリブレーション位置でのツールまたはツールに保持されたワークの検出位置座標を検出するステップと、
各キャリブレーション位置におけるツールまたはワークの検出位置座標を任意のパラメータを有する座標変換式を用いてツール位置座標に変換するときに、この座標変換により得られるツールまたはワークの各ツール位置座標と各キャリブレーション位置のツール位置座標との誤差ベクトルを隣り合う点同士で加算した和が0となる該パラメータを算出するステップとを備えたことを特徴とするキャリブレーション方法。 In a calibration method in which a detection position coordinate system of a visual sensor that detects a position coordinate of a workpiece and a tool position coordinate system of an articulated robot that moves a tool to the position coordinate of the workpiece detected by the visual sensor,
The tool is sequentially moved to four calibration positions having axial symmetry arranged on the tool position coordinate system, and the detection position coordinates of the tool or the work held by the tool at each calibration position by the visual sensor. Detecting steps,
When the tool or workpiece detection position coordinates at each calibration position are converted into tool position coordinates using a coordinate conversion formula having an arbitrary parameter, each tool position coordinate and each calibration of the tool or work obtained by this coordinate conversion are converted. And a step of calculating the parameter for which the sum of the error vectors of the tool position and the tool position coordinate at adjacent points is 0 is provided.
X=α1x+β1y+X0・・・式(1)
Y=α2x+β2y+Y0・・・式(2) In the coordinate conversion formula, the tool position coordinate system is (X, Y), the detection position coordinate system is (x, y), and the tool position coordinate of the reference position of the detection position coordinate system (x, y) is (X 0 , Y). 0 )), the following equations (1) and (2) are satisfied, and the parameters are α 1 , β 1 , α 2 , β 2 , Calibration method.
X = α 1 x + β 1 y + X 0 Formula (1)
Y = α 2 x + β 2 y + Y 0 Formula (2)
X1−X3=X4−X2・・・式(3)
(X1−P1)−(X2−P2)=(X4−P2)−(X3−P1)・・・式(4)
Y1−Y2=Y4−Y3・・・式(5)
(Y1−Q1)−(Y3−Q2)=(Y4−Q2)−(Y2−Q1)・・・式(6) Tool position coordinates of the calibration position before Symbol 4 points (P 1, Q 1), (P 2, Q 1), a (P 1, Q 2), (P 2, Q 2), said visual sensor (X 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), (x 4 , y 4 ) Yes, the tool position coordinates obtained by coordinate conversion of the detected position coordinates of the tool or the workpiece using the formulas (1) and (2) are (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , 5. The calibration method according to claim 4, wherein when Y 3 ) and (X 4 , Y 4 ), each coordinate has a relationship of the following formulas (3) to (6).
X 1 -X 3 = X 4 -X 2 ··· formula (3)
(X 1 −P 1 ) − (X 2 −P 2 ) = (X 4 −P 2 ) − (X 3 −P 1 ) (4)
Y 1 −Y 2 = Y 4 −Y 3 Formula (5)
(Y 1 −Q 1 ) − (Y 3 −Q 2 ) = (Y 4 −Q 2 ) − (Y 2 −Q 1 ) (6)
ツールまたはワークの姿勢を複数段階に変化させ、視覚センサによってツールまたはワークの各姿勢の検出位置座標を検出するステップと、
ツールまたはワークの複数の検出位置座標から平均値を算出し、そのキャリブレーション位置における検出位置座標とするステップとからなることを特徴とする請求項1ないし5いずれか記載のキャリブレーション方法。 The step of detecting the detection position coordinates of the tool or workpiece at each calibration position,
Changing the posture of the tool or workpiece in a plurality of stages and detecting the detection position coordinates of each posture of the tool or workpiece by a visual sensor;
6. The calibration method according to claim 1, further comprising a step of calculating an average value from a plurality of detection position coordinates of the tool or workpiece and setting the detection position coordinates at the calibration position.
ツールまたはワークを360°/N,(N>=2)ずつ回転させ、各回転位置でのツールまたはワークの検出位置座標(kij,lij),(i:キャリブレーション位置番号、j:回転位置番号)を前記視覚センサで検出するステップと、
下記式(7)を用いてツールまたはワークの複数の検出位置座標の平均値を算出し、そのキャリブレーション位置における検出位置座標(xi,yi)とするステップとからなることを特徴とする請求項1ないし5いずれか記載のキャリブレーション方法。
The tool or workpiece is rotated by 360 ° / N, (N> = 2), and the detected position coordinates (k ij , l ij ), (i: calibration position number, j: rotation) at each rotational position Detecting a position number) with the visual sensor;
And calculating an average value of a plurality of detection position coordinates of the tool or the workpiece using the following formula (7) and setting the detection position coordinates (x i , y i ) at the calibration position. The calibration method according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268640A JP4274558B2 (en) | 2004-09-15 | 2004-09-15 | Calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268640A JP4274558B2 (en) | 2004-09-15 | 2004-09-15 | Calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006082170A JP2006082170A (en) | 2006-03-30 |
JP4274558B2 true JP4274558B2 (en) | 2009-06-10 |
Family
ID=36161085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004268640A Active JP4274558B2 (en) | 2004-09-15 | 2004-09-15 | Calibration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4274558B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5729219B2 (en) * | 2010-09-06 | 2015-06-03 | トヨタ車体株式会社 | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium |
CN102022989B (en) * | 2010-09-29 | 2012-03-21 | 山东科技大学 | Robot calibration method based on exponent product model |
JP5146621B2 (en) | 2011-01-31 | 2013-02-20 | トヨタ自動車株式会社 | Articulated arm robot, control method and control program |
EP2722136A1 (en) * | 2012-10-19 | 2014-04-23 | inos Automationssoftware GmbH | Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system |
JP2014180720A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and calibration method |
JP6314426B2 (en) | 2013-10-31 | 2018-04-25 | セイコーエプソン株式会社 | Robot control apparatus and robot control method |
CN105792996B (en) * | 2013-11-28 | 2017-07-25 | 三菱电机株式会社 | The control method of robot system and robot system |
JP2015174191A (en) * | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | Robot system, calibration method of robot system and position correction method of robot system |
JP6486679B2 (en) | 2014-12-25 | 2019-03-20 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method, and computer program |
JP6529758B2 (en) * | 2014-12-25 | 2019-06-12 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method and computer program |
JP6410388B2 (en) * | 2014-12-25 | 2018-10-24 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method, and computer program |
WO2017133756A1 (en) * | 2016-02-02 | 2017-08-10 | Abb Schweiz Ag | Robot system calibration |
JP6690398B2 (en) * | 2016-05-17 | 2020-04-28 | 村田機械株式会社 | Plate material transfer method, transfer control device, and processing system |
JP6568172B2 (en) | 2017-09-22 | 2019-08-28 | ファナック株式会社 | ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION |
JP6904927B2 (en) | 2018-07-30 | 2021-07-21 | ファナック株式会社 | Robot system and calibration method |
-
2004
- 2004-09-15 JP JP2004268640A patent/JP4274558B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2006082170A (en) | 2006-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4289619B2 (en) | Tool position correction method for articulated robots | |
JP4274558B2 (en) | Calibration method | |
JP6966582B2 (en) | Systems and methods for automatic hand-eye calibration of vision systems for robot motion | |
US10456917B2 (en) | Robot system including a plurality of robots, robot controller and robot control method | |
JP6755724B2 (en) | Control methods, robot systems, and article manufacturing methods | |
JPH0435885A (en) | Calibration method for visual sensor | |
JP7306937B2 (en) | A control device for a robot device that adjusts the position of a member supported by a robot | |
US20120265344A1 (en) | Robot system and method for operating robot system | |
JPWO2018092243A1 (en) | Work position correction method and work robot | |
JP6661027B2 (en) | Work robot | |
JP2004243215A (en) | Robot teaching method for sealer applicator and sealer applicator | |
JP6928015B2 (en) | Robot system and coordinate conversion method | |
JP7358747B2 (en) | robot system | |
JP2006297559A (en) | Calibration system and robot's calibration method | |
JP2678002B2 (en) | Coordinate system calibration method for a robot with vision | |
WO2023032400A1 (en) | Automatic transport device, and system | |
CN116852359A (en) | TCP (Transmission control protocol) quick calibration device and method based on robot hand teaching device | |
EP3895855A1 (en) | Robot control system and robot control method | |
JP6937444B1 (en) | Robot system positioning accuracy measurement method | |
JP2022126768A (en) | Robot-equipped moving device | |
JPH08118272A (en) | Calibration of robot | |
JP7384653B2 (en) | Control device for robot equipment that controls the position of the robot | |
JP2022530589A (en) | Robot-mounted mobile devices, systems and machine tools | |
JP7105223B2 (en) | robot system | |
JP2021094623A (en) | Robot control device, observation system, robot system, and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061225 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090204 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4274558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120313 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120313 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140313 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |