JP2019098409A - Robot system and calibration method - Google Patents
Robot system and calibration method Download PDFInfo
- Publication number
- JP2019098409A JP2019098409A JP2017227929A JP2017227929A JP2019098409A JP 2019098409 A JP2019098409 A JP 2019098409A JP 2017227929 A JP2017227929 A JP 2017227929A JP 2017227929 A JP2017227929 A JP 2017227929A JP 2019098409 A JP2019098409 A JP 2019098409A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- coordinate value
- coordinate
- workpiece
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 13
- 238000003384 imaging method Methods 0.000 claims abstract description 76
- 238000006243 chemical reaction Methods 0.000 claims abstract description 63
- 238000012937 correction Methods 0.000 claims description 50
- 230000003287 optical effect Effects 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 4
- 239000003550 marker Substances 0.000 description 17
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000036544 posture Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
Description
本発明による実施形態は、ロボットシステムおよびキャリブレーション方法に関する。 Embodiments in accordance with the present invention relate to robot systems and calibration methods.
産業用ロボットと2次元ビジョンシステムとを組み合わせたロボットシステムが使用されている。例えば、まず、2次元ビジョンシステムに含まれるカメラがワークを撮像することにより、2次元ビジョンシステムがワークの座標値を取得する。その後、取得したワークの座標値をもとにロボットアームが動いて作業をする場合がある。このとき、カメラから見た座標(カメラ座標)とロボットから見た座標(ロボット座標)とは座標の基準が異なる。従って、カメラ座標とロボット座標との間で、同一のワークの座標値が異なってしまう。そこで、カメラ座標をロボット座標に変換する必要がある。この変換の演算に使用する行列式を導入する作業は、キャリブレーション作業と呼ばれる。 A robot system combining an industrial robot and a two-dimensional vision system is used. For example, first, the camera included in the two-dimensional vision system captures an image of a workpiece, and the two-dimensional vision system acquires coordinate values of the workpiece. Thereafter, the robot arm may move to perform work based on the acquired coordinate values of the workpiece. At this time, the reference of coordinates is different between the coordinates viewed from the camera (camera coordinates) and the coordinates viewed from the robot (robot coordinates). Therefore, the coordinate values of the same workpiece are different between the camera coordinates and the robot coordinates. Therefore, it is necessary to convert camera coordinates into robot coordinates. The work of introducing the determinant used for the operation of this transformation is called calibration work.
しかし、このキャリブレーション作業は、作業工数が多く、手間がかかるため、長時間を要していた。また、作業手順が複雑であり、ユーザが手作業でデータの記録等を行うため、作業ミスも多かった。 However, this calibration work requires a long time since the number of operation steps is large and time-consuming. In addition, the operation procedure is complicated, and the user manually records data etc., so there are many operation errors.
カメラ座標とロボット座標との間のキャリブレーション作業を容易かつ迅速に行うことができ、かつ、作業ミスを減少させることができるロボットシステムおよびキャリブレーション方法を提供する。 A robot system and calibration method capable of performing calibration work between camera coordinates and robot coordinates easily and quickly and reducing work errors.
本実施形態によるロボットシステムは、アームを有するロボットと、ワークを載置可能なテーブル上の複数のマーカの第1画像データを取得する撮像部と、撮像部を制御し、第1画像データに基づいて、撮像部により撮像される画像内の座標系であるカメラ座標系における複数のマーカの第1カメラ座標値を取得する撮像制御部と、ロボットを制御し、アームの先端部に設けられるキャリブレーション治具を複数のマーカの上方に位置させたときに、ロボットを基準とする座標系であるロボット座標系における複数のマーカの第1ロボット座標値を取得するロボット制御部と、撮像制御部およびロボット制御部から第1カメラ座標値および第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいてカメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する演算部により導出された該変換式を記憶する記憶部と、を備える。 The robot system according to the present embodiment controls a robot having an arm, an imaging unit that acquires first image data of a plurality of markers on a table on which a workpiece can be placed, and an imaging unit, and is based on the first image data. And an imaging control unit that acquires first camera coordinate values of a plurality of markers in the camera coordinate system that is a coordinate system in an image captured by the imaging unit; and a robot that controls the calibration provided at the tip of the arm A robot control unit that acquires first robot coordinate values of a plurality of markers in a robot coordinate system that is a coordinate system based on a robot when the jig is positioned above the plurality of markers, an imaging control unit, and a robot A first camera coordinate value and a first robot coordinate value are obtained from the control unit, and a camera coordinate system is obtained based on the first camera coordinate value and the first robot coordinate value. And a storage unit that stores the conversion formula derived by the arithmetic unit for deriving a conversion equation for converting the coordinate values to coordinate values of the robot coordinate system.
以下、図面を参照して本発明に係る実施形態を説明する。本実施形態は、本発明を限定するものではない。本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. This embodiment does not limit the present invention. In the specification of the application and the drawings, the same elements as those described above with reference to the drawings are denoted by the same reference numerals, and the detailed description will be appropriately omitted.
(第1実施形態)
図1は、第1実施形態によるロボットシステム100の構成の一例を示す図である。ロボットシステム100は、スカラロボット1と、ロボットコントローラ2と、操作部3と、撮像部5と、ビジョンコントローラ6と、表示部7と、端末8と、演算部9と、LAN(Local Area Network)用ハブ10とを備える。
First Embodiment
FIG. 1 is a view showing an example of the configuration of a
ロボットとしてのスカラロボット1は、アームを有し、通常動作では、アームを動作させて、例えば、テーブル4に載置されるワークを把持または加工する。このとき、スカラロボット1は、撮像部5で撮像される画像データに基づいてアーム等の位置を決める。撮像部5により撮像される画像内の位置を示すカメラ座標系とスカラロボット1のアームの位置を示すロボット座標系とがずれている場合、スカラロボット1は、ワークを正確に把持したり、加工することができない。従って、通常動作の前にキャリブレーションが行われる。キャリブレーションとは、カメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出することである。カメラ座標系とは、撮像部5により撮像される画像内の位置を示すために用いられる座標系である。ここでは、ロボット座標系とは、スカラロボット1のアームの先端部を基準とする座標系である。従って、ロボット座標系は、アームの先端部の位置を示すために用いられる。尚、スカラロボット1は、スカラロボットに限られず、同様な機能を有するロボットであればよい。
The SCARA
テーブル4は、ワークまたはキャリブレーションに用いられる複数のマーカ18を載置可能である。通常動作では、ワークがテーブル4上にある。ここでは、キャリブレーションが行われるため、複数のマーカ18がテーブル4上にある。
The table 4 can carry a plurality of
キャリブレーションでは、スカラロボット1のアームの先端部に、キャリブレーション治具11が設けられる。キャリブレーション治具11は、スカラロボット1のZ軸1aと平行になるように取り付けられる。キャリブレーション治具11の先端は、先鋭であることが好ましい。これにより、キャリブレーションの精度を向上させることができるからである。
In the calibration, a
ロボット制御部としてのロボットコントローラ2は、スカラロボット1に接続される。ロボットコントローラ2は、スカラロボット1を制御する。また、図4を用いて後で説明するように、ロボットコントローラ2は、スカラロボット1から取得しているエンコーダ情報に基づいてロボット座標値を取得する。エンコーダ情報とは、スカラロボット1の各軸を動かすモータに取り付けられるエンコーダからのモータの角度情報である。ロボットコントローラ2は、この角度情報をスカラロボット1の位置情報に変換している。ロボット座標値は、この位置情報に含まれる。ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18の上方に位置させたときに、ロボット座標系における複数のマーカ18の第1ロボット座標値を取得する。ロボット座標値は、ロボット座標系の内、2次元平面(XY平面)のX,Y座標値である。
A
操作部3は、ロボットコントローラ2に接続される。操作部3は、ユーザによって手動でスカラロボット1を操作することを可能とする。
The
撮像部5は、テーブル4の上方に設けられ、テーブル4を撮像する。撮像部5は、複数のマーカ18を撮像することにより、複数のマーカ18の第1画像データを取得する。撮像部5は、例えば、2次元カメラである。撮像部5は、取得した第1画像データをビジョンコントローラ6へ送信する。
The
撮像制御部としてのビジョンコントローラ6は、撮像部5に接続されている。ビジョンコントローラ6は、撮像部5を制御する。また、ビジョンコントローラ6は、第1画像データに基づいて、カメラ座標系における複数のマーカ18の第1カメラ座標値を取得する。カメラ座標値は、2次元平面(XY平面)のX,Y座標値である。
A
表示部7は、ビジョンコントローラ6に接続されている。表示部7は、撮像部5で撮像された画像データを表示する。また、表示部7は、ビジョンコントローラ6の設定を行うために使用される。
The
端末8は、ロボットコントローラ2およびビジョンコントローラ6に対して外部に設けられる。端末8はキャリブレーションに用いられるため、通常動作においては、端末8はロボットシステム100から外されてもよい。端末8は、演算部9を有する。端末8は、例えば、パーソナルコンピュータである。
The
演算部9は、例えば、1つまたは複数のCPU(Central Processor Unit)および/またはロジックLSI(Large Scale Integration)等で構成してよい。演算部9は、キャリブレーションプログラムを実行することにより、座標取得命令をロボットコントローラ2およびビジョンコントローラ6へ送る。ロボットコントローラ2およびビジョンコントローラ6は、座標取得命令を受けて、それぞれ第1カメラ座標値および第1ロボット座標値を取得する。そして、演算部9は、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を取得する。さらに、演算部9は、キャリブレーションでは、第1カメラ座標値および第1ロボット座標値に基づいて、カメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する。演算部9は、キャリブレーションにより得られた変換式をロボットコントローラ2へ送る。変換式は、通常動作においてカメラ座標系の座標値をロボット座標系の座標値に変換するために用いられる。キャリブレーションプログラムは、例えば、東芝機械株式会社製のロボットプログラム作成支援ツール「TSAssist(登録商標)」等である。また、演算部9は、後述するキャリブレーション治具11のオフセットを取得し、ツール座標系を設定する。
The
LAN用ハブ10は、ロボットコントローラ2、ビジョンコントローラ6および端末8と接続される。これにより、後述する図4に示すように、カメラ座標値およびロボット座標値のデータを送受信することができる。LAN用ハブ10は、例えば、イーサネット(登録商標)等に用いられるハブでよい。尚、他の方法によりカメラ座標値およびロボット座標値のデータの送受信が可能である場合、ロボットシステム100はLAN用ハブ10を備えていなくてもよい。
The
図2は、スカラロボット1におけるツール座標系の座標取得を示す図である。ツール座標系とは、アームの先端部に設けられるツールの先端を基準とし、ツールの先端の位置を示す座標系である。ツールは、キャリブレーションにおいてはキャリブレーション治具11である。ツール座標系の座標値は、アームの先端部を基準とするロボット座標値に対して、キャリブレーション治具11の寸法に対応するオフセットがある。このオフセットを取得してツール座標系を設定することにより、ツール座標系の座標値からロボット座標値を取得することができる。そこで、キャリブレーション前に、キャリブレーション治具11を取り付けた状態でオフセットを取得し、ツール座標系を設定する必要がある。設定されたツール座標系は、キャリブレーション作業がすべて完了するまで有効となる。尚、CADデータ等によりキャリブレーション治具11の寸法がわかる場合には、ツール座標系の設定にオフセットの取得を省略することができる場合もある。
FIG. 2 is a diagram showing coordinate acquisition of a tool coordinate system in the
オフセットを取得することは、アームの先端部からキャリブレーション治具11の先端までのXY平面の距離rおよびキャリブレーション治具11の先端が位置決めされた基準点の座標値(X0,Y0)を求めることである。アームの1つの姿勢によって、未知数r,X0,Y0の関係式を求めることができる。従って、3つの姿勢によって、3つの未知数r,X0,Y0を求めることができる。さらに、求めたr,X0,Y0の確認のため、もう1つの姿勢が必要となる。従って、アームの4つの姿勢からオフセットを取得することができる。
To obtain an offset, the distance r of the XY plane from the tip of the arm to the tip of the
図3は、テーブル4の上方から見た、テーブル4および複数のマーカ18の図である。複数のマーカ18は、図3に示すように、撮像部5の撮像範囲17内に配置される。尚、マーカ18の大きさや形は、撮像部5が検出可能であればよい。
FIG. 3 is a view of the table 4 and the plurality of
複数のマーカ18は、図3に示すように、3行3列に配置される。これにより、撮像部5のレンズの歪みにより生じる、魚眼レンズのような画像の歪みを補正することができる。尚、複数のマーカ18は、3行3列の9個に限られない。例えば、複数のマーカ18は、直線上にない3点等、2次元平面を形成するように設けられていてもよい。また、複数のマーカ18は、等間隔に配置されることが好ましい。これにより、キャリブレーションの精度を向上させることができる。また、複数のマーカ18は、撮像範囲17内の広範囲に設けられることが好ましい。これにより、広範囲においてキャリブレーションすることができる。また、マーカ18の高さは、ワークの高さと略同一である必要がある。
The plurality of
図4は、ロボット座標値およびカメラ座標値の取得から変換式の保存までのデータの流れの一例を示すブロック図である。スカラロボット1は、エンコーダ21を備える。ロボットコントローラ2は、位置情報取得部13と、データ中継部19と、記憶部20とを備える。演算部9は、ロボット座標取得部14と、カメラ座標取得部15と、変換式演算部16とを備える。
FIG. 4 is a block diagram showing an example of the flow of data from acquisition of robot coordinate values and camera coordinate values to storage of a conversion equation. The
まず、第1カメラ座標値を取得する場合のデータの流れについて説明する。カメラ座標取得部15は、ユーザの命令により、カメラ座標取得命令をデータ中継部19へ送信する。データ中継部19は、カメラ座標取得命令を、ロボットフォーマットからビジョンフォーマットへ変換して、ビジョンコントローラ6へ送信する。ビジョンコントローラ6は、カメラ座標取得命令を受けると、撮像部5にマーカ18を撮像させ、撮像部5から第1画像データを受信する。ビジョンコントローラ6は、第1画像データに基づいて、第1カメラ座標値を取得する。ビジョンコントローラ6は、第1カメラ座標値をデータ中継部19へ送信する。データ中継部19は、第1カメラ座標値を、ビジョンフォーマットからロボットフォーマットへ変換して、カメラ座標取得部15へ送信する。カメラ座標取得部15は、第1カメラ座標値を保存する。カメラ座標取得部15は、上記の手順を、マーカ18の9点分実行する。すなわち、カメラ座標取得部15は、1点分ずつ第1カメラ座標値を取得する。カメラ座標取得部15は、9点分の第1カメラ座標値を変換式演算部16へ送信する。尚、上記のフォーマットの変換は、ロボットコントローラ2とビジョンコントローラ6との間でデータ形式が異なる場合に必要となる。従って、データ形式が同じである場合、フォーマットを変換しなくてもよい。
First, the flow of data when acquiring the first camera coordinate value will be described. The camera coordinate
次に、第1ロボット座標値を取得する場合のデータの流れについて説明する。キャリブレーション治具11は、マーカ18の上方に位置される。ロボット座標取得部14は、ユーザの命令により、ロボット座標取得命令を位置情報取得部13へ送信する。位置情報取得部13は、エンコーダ21が断続的に送信するエンコーダ情報を受信している。位置情報取得部13は、エンコーダ情報をスカラロボット1の位置情報に変換している。位置情報取得部13は、ロボット座標取得命令を受けると、変換した位置情報内のX,Y座標値を第1ロボット座標値としてロボット座標取得部14へ送信する。ロボット座標取得部14は、第1ロボット座標値を保存する。ロボット座標取得部14は、上記の手順を、マーカ18の9点分実行する。すなわち、マーカ18毎にキャリブレーション治具11の位置付けおよび第1ロボット座標値の取得が実行される。ロボット座標取得部14は、9点分の第1ロボット座標値を変換式演算部16へ送信する。
Next, the flow of data when acquiring the first robot coordinate value will be described. The
次に、変換式演算部16は、9点分の第1カメラ座標値および9点分の第1ロボット座標値に基づいて、変換式を導出する。変換式演算部16は、変換式を記憶部20へ送信する。記憶部20は、受け取った変換式を記憶する。
Next, the conversion equation calculation unit 16 derives a conversion equation based on the first camera coordinate values for nine points and the first robot coordinate values for nine points. The conversion expression calculation unit 16 transmits the conversion expression to the
図5は、第1実施形態によるロボットシステム100の動作の一例を示すフロー図である。尚、図4に示すデータの流れは、図5におけるステップS60〜S100に対応する。
FIG. 5 is a flow chart showing an example of the operation of the
まず、ユーザは、複数のマーカ18をテーブル4上の撮像範囲17内に配置する(S10)。次に、ビジョンコントローラ6は、マーカ18を登録する(S20)。例えば、ビジョンコントローラ6は、マーカ18の画像認識情報を登録する。次に、ユーザは、キャリブレーション治具11をスカラロボット1の先端部に取り付ける(S30)。次に、演算部9は、キャリブレーション治具11のオフセットを取得し(S40)、ツール座標系を設定する。
First, the user arranges the plurality of
キャリブレーション治具11のオフセットの取得方法について説明する。ユーザは、マーカ18の角の上など任意の位置に基準点を決める。ユーザは、キャリブレーション治具11の先端が基準点の上方に位置するようにスカラロボット1を操作する。そして、ユーザは、アームの姿勢を変えるようにスカラロボット1を操作する。ユーザは、この操作を繰り返し、異なる4つの姿勢においてキャリブレーション治具11の先端の位置を基準点の上方に一致させるようにスカラロボット1を操作する。演算部9は、アームの4つの姿勢それぞれの位置情報からオフセットを取得する。
The method of acquiring the offset of the
次に、ユーザは、操作部3を用いて、キャリブレーション治具11をマーカ18の上方に位置合わせする(S50)。次に、演算部9は、ユーザの命令により、第1ロボット座標値を取得する(S60)。次に、ユーザは、撮像部5がマーカ18を撮像できるようにスカラロボット1を操作する。演算部9は、ユーザの命令により、第1カメラ座標値を取得する(S70)。全てのマーカ18において第1カメラ座標値および第1ロボット座標値を取得していない場合(S80のNO)、次のマーカ18においてステップS50〜S70を実行する。全てのマーカ18において第1カメラ座標値および第1ロボット座標値を取得した場合(S80のYES)、演算部9は、変換式を導出する(S90)。次に、演算部9は、変換式をロボットコントローラ2へ送信し、記憶部20は変換式を保存する(S100)。
Next, the user aligns the
尚、第1カメラ座標値の取得(S70)の後に第1ロボット座標値の取得(S50,S60)をしてもよい。また、ステップS50〜S80のように、マーカ18毎に第1カメラ座標値および第1ロボット座標値を取得することに限られない。例えば、図4に示すロボット座標取得部14が9点分の第1ロボット座標値を取得および保存し、その後、カメラ座標取得部15が9点分の第1カメラ座標値を取得および保存してもよい。
Alternatively, the first robot coordinate values may be acquired (S50, S60) after the acquisition of the first camera coordinate values (S70). In addition, as in steps S50 to S80, the present invention is not limited to acquiring the first camera coordinate value and the first robot coordinate value for each of the
以上のように、第1実施形態によるロボットシステム100は、複数のマーカの第1画像データを取得する撮像部5と、第1画像データに基づいて、複数のマーカ18の第1カメラ座標値を取得するビジョンコントローラ6と、キャリブレーション治具11を複数のマーカ18の上方に位置させたときに、複数のマーカ18の第1ロボット座標値を取得するロボットコントローラ2と、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいてカメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する演算部9により導出された該変換式を記憶する記憶部と、を備える。
As described above, the
これにより、演算部9は、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を自動で取得して変換式を導出する。従って、ユーザが手作業で第1カメラ座標値および第1ロボット座標値をメモして、演算した変換式をロボットコントローラに入力する場合に比べて、キャリブレーション作業を容易かつ迅速に行うことができ、かつ、作業ミスを減少させることができる。
Thereby, the
尚、上述の演算部9は、ビジョンコントローラ6およびロボットコントローラ2の外部に設けられるが、ビジョンコントローラ6またはロボットコントローラ2が演算部9の機能を有してもよい。すなわち、ビジョンコントローラ6またはロボットコントローラ2が第1カメラ座標値および第1ロボット座標値を自動で取得して変換式を導出してもよい。
Note that although the above-described
(第2実施形態)
図6は、第2実施形態によるロボットシステム100の構成の一例を示す図である。第2実施形態は、スカラロボット1が垂直多関節ロボット12である点で第1実施形態とは異なる。
Second Embodiment
FIG. 6 is a view showing an example of the configuration of a
キャリブレーション治具11は、垂直多関節ロボット12の第6軸12aと平行となるように取り付けられる。スカラロボット1と同様の計算でオフセットを取得するため、A,B,C軸のオイラー角は0度に設定される。
The
第2実施形態によるロボットシステム100のその他の構成は、第1実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
The other configuration of the
図7は、垂直多関節ロボット12におけるツール座標系の座標取得を示す図である。スカラロボット1では、アームの角度によってXY平面の座標値が変化する。Z軸方向の座標値は、アームの角度ではなく、スカラロボット1のZ軸1aを上下に動かすことにより変化する。従って、XY平面の距離rおよびXY平面の基準点の座標値を求めることによりオフセットを取得することができる。一方、垂直多関節ロボット12では、アームの角度によってXYZ空間の座標値が変化する。従って、XYZ空間の距離rおよびXYZ空間の基準点の座標値(X0,Y0,Z0)を求める必要がある。すなわち、スカラロボット1に比べて未知数が1つ多い。従って、第2実施形態による演算部9は、アームの5つの姿勢の位置情報からオフセットを取得する点で、第1実施形態と異なる。
FIG. 7 is a diagram showing coordinate acquisition of the tool coordinate system in the vertical articulated
第2実施形態によるロボットシステム100は、第1実施形態によるロボットシステム100と同様の効果を得ることができる。
The
(第3実施形態)
キャリブレーションの完了後、複数のマーカ18はテーブル4上から取り除かれ、ワークがテーブル4上に載置される。テーブル4が傾いている場合、カメラ座標値からロボット座標値に変換したワークの座標値と実際のワークの座標値との間にずれが生じることがある。
Third Embodiment
After completion of the calibration, the plurality of
図8は、第3実施形態によるテーブル4の傾きを示す模式図である。図8は、Y軸方向から見た図である。テーブル4は、撮像部5の光軸22に垂直な面Pから角度θo傾いている。面Pは、撮像部5からZ軸方向に撮像部5の焦点距離ZL離れた位置にある。ワークは、テーブル4上の点Sにあるとする。撮像部5は、ワークを撮像し、ワークの第2画像データを取得する。ビジョンコントローラ6は、第2画像データに基づいて、ワークの第2カメラ座標値を取得する。ビジョンコントローラ6は、撮像部5の点Oと点Sとを結ぶ直線と面Pとの交点である点Sfを第2カメラ座標値として取得する。ロボットコントローラ2は、変換式により第2カメラ座標値をワークのワーク変換座標値に変換する。このワーク変換座標値も点Sfである。したがって、図8に示すように、テーブル4が傾くことにより、ワークの実際の位置である点Sとワーク変換座標値である点Sfとの間に座標値のずれが生じる。この場合、スカラロボット1はワークを把持することができない可能性がある。
FIG. 8 is a schematic view showing the inclination of the table 4 according to the third embodiment. FIG. 8 is a view seen from the Y-axis direction. The table 4 is inclined at an angle θo from the plane P perpendicular to the
第1実施形態および第2実施形態では、テーブル4の傾きによる座標値のずれを考慮していない。これに対し、第3実施形態では、以下のように、テーブル4の傾きによる座標値のずれを補正した補正座標値を演算する。 In the first embodiment and the second embodiment, the deviation of the coordinate values due to the inclination of the table 4 is not taken into consideration. On the other hand, in the third embodiment, as described below, a corrected coordinate value in which the deviation of the coordinate value due to the inclination of the table 4 is corrected is calculated.
キャリブレーションにおいて、複数のマーカ18の上部またはキャリブレーション治具11の先端に、圧力センサが設けられる。圧力センサは、キャリブレーション治具11を鉛直方向に変位させたときに、キャリブレーション治具11がマーカ18に接触したことを検知する。圧力センサは、ロボットコントローラ2に接続され、キャリブレーション治具11がマーカ18に接触したことをロボットコントローラ2に送ってもよい。尚、圧力センサに限られず、キャリブレーション治具11がマーカ18に接触したことを検知することができるセンサであればよい。
In calibration, a pressure sensor is provided on the top of the plurality of
ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18に接触させたことを圧力センサが検知したときに、鉛直ロボット座標値を取得する。鉛直ロボット座標値は、2次元平面(XY平面)であるロボット座標系に垂直なZ軸方向における複数のマーカ18の高さを示す。尚、鉛直ロボット座標値は、キャリブレーションには使用されない。
The
通常動作において、ロボットコントローラ2は、9点分のマーカ18における第1ロボット座標値および鉛直ロボット座標値に基づいて、テーブル4の3次元の平面方程式を演算する。
In the normal operation, the
一方、ロボットコントローラ2は、点Oと点Sfとを結ぶ直線O−Sfを演算する。ロボットコントローラ2は、テーブル4の平面方程式および直線O−Sfの交点をワークのワーク補正座標値として演算する。すなわち、ロボットコントローラ2は、テーブル4の平面方程式およびワーク変換座標値に基づいて、ワーク補正座標値を演算する。このように演算されたワーク補正座標値が点Sの座標値である。
On the other hand, the
第3実施形態によるロボットシステム100のその他の構成は、第1実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
The other configuration of the
次に、ワーク補正座標値の演算について説明する。 Next, calculation of workpiece correction coordinate values will be described.
テーブル4の平面方程式をax+by+cz+d=0とし、点Oの座標値を(xv,yv,zv)とし、点Sfの座標値を(xsf,ysf,zsf)とし、点Sの座標値を(xsc,ysc,zsc)とする。点Oの座標値(xv,yv,zv)は、撮像部5を取り付ける際に測定される。点SfのX,Y成分(xsf,ysf)はワーク変換座標値である。点SfのZ成分zsfは、図8に示すように、zv+ZLである。焦点距離ZLも、撮像部5を取り付ける際に測定される。
The plane equation of Table 4 is ax + by + cz + d = 0, the coordinate value of point O is (xv, yv, zv), the coordinate value of point Sf is (xsf, ysf, zsf), and the coordinate value of point S is (xsc, ysc, zsc) The coordinate values (xv, yv, zv) of the point O are measured when the
直線O−Sfの方向ベクトルは、式1で表される。
従って、直線O−Sfの方程式は、式2で表される。
式2を式3とすると、式3は、式4,5,6で表わされる。
式4,5,6を上記の平面方程式に代入すると、式7で表されるように、tが得られる。
このtを式4,5,6に代入することにより、ワーク補正座標値である点Sの座標値(xsc,ysc,zsc)を演算することができる。
By substituting this t into the
図9は、第3実施形態によるロボットシステム100の動作の一例を示すフロー図である。
FIG. 9 is a flow chart showing an example of the operation of the
図9におけるステップS10〜S60は、第1実施形態における図5に示すステップS10〜S60と同様である。第1ロボット座標値を取得した後(S60)、ユーザは、キャリブレーション治具11をZ方向に移動させる。これにより、ロボットコントローラ2は、鉛直ロボット座標値を取得する(S65)。また、図9におけるステップS70〜S100は、第1実施形態における図5に示すステップS70〜S100と同様である。
Steps S10 to S60 in FIG. 9 are the same as steps S10 to S60 shown in FIG. 5 in the first embodiment. After acquiring the first robot coordinate values (S60), the user moves the
次に、ロボットコントローラ2は、第1ロボット座標値および鉛直ロボット座標値に基づいて、テーブル4の平面方程式を演算する(S110)。次に、撮像部5は、ワークを撮像し、第2画像データを取得する。ビジョンコントローラ6は、第2画像データに基づいて、第2カメラ座標値を取得する(S120)。次に、ロボットコントローラ2は、第2カメラ座標値をビジョンコントローラ6から受け取る。ロボットコントローラ2は、変換式により第2カメラ座標値をワーク変換座標値に変換する(S130)。ロボットコントローラ2は、テーブル4の平面方程式およびワーク変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正したワーク補正座標値を演算する(S140)。
Next, the
尚、点Sと点Sfとの間のZ軸方向のずれに対しては、例えば、吸着によりワークを把持するツールが設けられる場合、ツールにスプリング機構を設けることにより、Z軸方向のずれを吸収することができる。また、例えば、ロボットティーチングにおいて、X,Y成分に対応するZ成分をプログラムすることもできる。 In addition, for a shift in the Z-axis direction between the point S and the point Sf, for example, when a tool for gripping a workpiece by suction is provided, the shift in the Z-axis direction can be reduced by providing a spring mechanism on the tool. It can be absorbed. Also, for example, in robot teaching, the Z component corresponding to the X and Y components can be programmed.
以上のように、第3実施形態によるロボットシステム100によれば、ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18に接触させたときに、2次元平面であるロボット座標系に垂直な方向における複数のマーカ18の高さを示す鉛直ロボット座標値を取得する。ロボットコントローラ2は、第1ロボット座標値および鉛直ロボット座標値に基づいてテーブル4の平面方程式を演算する。ロボットコントローラ2は、平面方程式およびワーク変換座標値に基づいて、撮像部5の光軸22に垂直な面Pに対するテーブル4の傾きによる座標値のずれを補正したワークのワーク補正座標値を演算する。
As described above, according to the
これにより、ロボットコントローラ2は、テーブル4の傾きによる座標値のずれを補正したワーク補正座標値に位置決めをすることができる。従って、テーブル4が面Pから傾いている場合であっても、スカラロボット1はワークを把持することができる。
Thereby, the
尚、第3実施形態は、第1実施形態および第2実施形態に適用することができる。 The third embodiment can be applied to the first embodiment and the second embodiment.
(変形例)
第3実施形態の変形例は、ワーク補正座標値を演算する前にワーク補正座標値を演算するか否かを判断する点で、第3実施形態とは異なる。
(Modification)
The modification of the third embodiment is different from the third embodiment in that it is determined whether or not the workpiece correction coordinate value is to be computed before the workpiece correction coordinate value is computed.
図8において、面Pにおける点Afから点Cfまでが撮像部5の撮像範囲17であるとする。尚、撮像範囲17の角度であるθaとθcとは同じ角度である。テーブル4の点Aから点Cまでの範囲外は、画像データには入らない。従って、ユーザが画像データを見た場合に、点Af(点A)および点Cf(点C)は、テーブル4上において、撮像部5の光軸22から最遠部である。
In FIG. 8, it is assumed that a point Af to a point Cf in the plane P is the
また、光軸22がテーブル4と交わる点は、点Qである。点Q、点Sおよび点Cを比較すると、光軸22から離れるほど、テーブル4の傾きによる座標値のずれが大きくなる。変形例によるロボットコントローラ2は、座標値のずれが最大になる最遠部(点A、点C)において、座標値のずれとスカラロボット1の位置決め精度とを比較する。ロボットコントローラ2は、この比較の結果から、ワーク補正座標値を演算するか否かを判定する。
Further, the point at which the
位置決め精度とは、ある座標値に位置決めをした場合において、実際に位置決め制御されたスカラロボット1の座標値のばらつき幅である。位置決め精度は、例えば、予め記憶部20に格納されている。例えば、位置決め精度が±0.1mmであるとする。テーブル4の傾きによる座標値のずれの最大値が±0.1mmの範囲を超える場合、テーブル4の傾きによる座標値のずれは無視することができないほど大きい。この場合、ロボットコントローラ2は、ワーク補正座標値を演算する。一方、テーブル4の傾きによる座標値のずれの最大値が±0.1mmの範囲に収まるほど小さい場合、テーブル4の傾きによる座標値のずれは無視することができるほど小さい。この場合、ロボットコントローラ2は、ワーク補正座標値を演算しない。
The positioning accuracy is the variation width of the coordinate values of the
尚、最遠部は、図3における撮像範囲17の端部からユーザにより選択される。例えば、光軸22の位置が撮像範囲17の中央であるとして、ユーザは、撮像範囲17の端部における上下左右を最遠部として選択する。また、複数の最遠部を用いて判定することも可能である。
The farthest part is selected by the user from the end of the
以下では、ユーザは図8における点Afを最遠部として選択したとする。 In the following, it is assumed that the user selects point Af in FIG. 8 as the farthest part.
撮像部5は、テーブル4を撮像することにより、テーブル4の第3画像データを取得する。
The
ロボットコントローラ2は、第3画像データに基づいて、テーブル4上において光軸22から最遠部(点Af)の第3カメラ座標値を取得する。ロボットコントローラ2は、変換式により第3カメラ座標値を最遠部(点Af)の最遠部変換座標値に変換する。
The
ロボットコントローラ2は、点Oと点Afとを結ぶ直線O−Afを演算する。ロボットコントローラ2は、テーブル4の平面方程式および直線O−Afの交点を最遠部の最遠部補正座標値として演算する。すなわち、ロボットコントローラ2は、テーブル4の平面方程式および最遠部変換座標値に基づいて、最遠部補正座標値を演算する。このように演算された最遠部補正座標値が点Aの座標値である。
The
尚、最遠部補正座標値である点Aの座標値(xac,yac,zac)は、式4,5,6,7におけるワーク変換座標値(xsf,ysf)に代えて最遠部変換座標値(xaf,yaf)用いることにより演算することができる。
The coordinate value (xac, yac, zac) of the point A which is the farthest part correction coordinate value is the farthest part conversion coordinate instead of the workpiece conversion coordinate value (xsf, ysf) in the
ロボットコントローラ2は、最遠部変換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度とを比較する。
The
最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲を超える場合、ロボットコントローラ2は、第3実施形態と同様に、ワーク補正座標値を演算する。この場合、ロボットコントローラ2は、ワーク補正座標値をワークの座標値とする。
When the difference between the farthest part conversion coordinate value and the farthest part correction coordinate value exceeds the range of the positioning accuracy, the
一方、最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合、ロボットコントローラ2は、ワーク補正座標値を演算しない。この場合、ロボットコントローラ2は、ワーク変換座標値をワークの座標値とする。
On the other hand, when the difference between the farthest part conversion coordinate value and the farthest part correction coordinate value is within the range of the positioning accuracy, the
変形例によるロボットシステム100のその他の構成は、第3実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
The other configuration of the
図10は、変形例によるロボットシステム100の動作の一例を示すフロー図である。
FIG. 10 is a flowchart showing an example of the operation of the
図10におけるステップS10〜S60,S65,S70〜S130は、第3実施形態における図9に示すステップS10〜S60,S65,S70〜S130と同様である。 Steps S10 to S60, S65, and S70 to S130 in FIG. 10 are the same as steps S10 to S60, S65, and S70 to S130 shown in FIG. 9 in the third embodiment.
次に、撮像部5は、テーブル4を撮像し、第3画像データを取得する。ビジョンコントローラ6は、第3画像データに基づいて第3カメラ座標値を取得する(S132)。次に、ロボットコントローラ2は、第3カメラ座標値をビジョンコントローラ6から受け取る。ロボットコントローラ2は、変換式により第3カメラ座標値を最遠部変換座標値に変換する(S134)。次に、ロボットコントローラ2は、テーブル4の平面方程式および最遠部変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正した最遠部補正座標値を演算する(S136)。次に、ロボットコントローラ2は、最遠部変換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度と、を比較する(S138)。最遠部変換座標値と最遠部補正座標値との差が位置決め精度を超える場合(S138のYES)、ロボットコントローラ2は、ワーク補正座標値を演算する(S140)。尚、図10におけるステップS140は、第3実施形態における図9に示すステップS140と同様である。ロボットコントローラ2は、ワーク補正座標値をワークの座標値とする。最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合(S138のNO)、ロボットコントローラ2は、ワーク補正座標値を演算せず、第1置換座標値をワークの座標値とする。
Next, the
以上のように、変形例によるロボットシステム100によれば、ロボットコントローラ2は、平面方程式および最遠部変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正した最遠部の最遠部補正座標値を演算する。ロボットコントローラ2は、第2置換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度と、を比較する。第2置換座標値と最遠部補正座標値との差が位置決め精度を超える場合、ロボットコントローラ2は、ワークのワーク補正座標値を演算し、ワーク補正座標値をワークの座標値とする。第2置換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合、ロボットコントローラ2は、ワーク変換座標値をワークの座標値とする。
As described above, according to the
これにより、ロボットコントローラ2は、補正が不要な場合には補正をしないようにすることができる。
Thus, the
第3実施形態では、ロボットコントローラ2は、判定をせず、ワーク毎にワーク補正座標値を演算する。ワーク補正座標値の演算には処理時間がかかるため、テーブル4の傾きが小さく補正が不要な場合、無駄にサイクルタイムが長くなってしまう。
In the third embodiment, the
これに対し、変形例では、ロボットコントローラ2は、ワーク補正座標値の演算前にテーブル4の傾きが小さく補正が不要であると判断した場合、ワーク補正座標値を演算しない。これにより、第3実施形態よりも、補正が不要な場合のサイクルタイムを短くすることができる。
On the other hand, in the modification, the
本実施形態によるキャリブレーション方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、その方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 At least a part of the calibration method according to the present embodiment may be configured by hardware or may be configured by software. When configured by software, a program for realizing at least a part of the functions of the method may be stored in a recording medium such as a flexible disk or a CD-ROM, and read by a computer for execution. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, and may be a fixed recording medium such as a hard disk drive or a memory. In addition, a program for realizing at least a part of the functions of the data processing method may be distributed via a communication line (including wireless communication) such as the Internet. Furthermore, the program may be encrypted, modulated, compressed, or stored in a recording medium via a wired line or a wireless line such as the Internet or may be distributed.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While certain embodiments of the present invention have been described, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.
1 スカラロボット、2 ロボットコントローラ、3 操作部、4 テーブル、5 撮像部、6 ビジョンコントローラ、7 表示部、8 端末、9 演算部、11 キャリブレーション治具、18 マーカ、20 記憶部、22 光軸、P 面、ZL 焦点距離 1 SCARA ROBOT, 2 ROBOT CONTROLLER, 3 OPERATING UNIT, 4 TABLE, 5 IMAGING UNIT, 6 VISION CONTROLLER, 7 DISPLAY UNIT, 8 TERMINAL, 9 CALCULATION UNIT, 11 CALIBRATION JIG, 18 MARKER, 20 STORAGE UNIT, 22 OPTICAL AXIS , P plane, ZL focal length
Claims (9)
ワークを載置可能なテーブル上の複数のマーカの第1画像データを取得する撮像部と、
前記撮像部を制御し、前記第1画像データに基づいて、前記撮像部により撮像される画像内の座標系であるカメラ座標系における前記複数のマーカの第1カメラ座標値を取得する撮像制御部と、
前記ロボットを制御し、前記アームの先端部に設けられるキャリブレーション治具を前記複数のマーカの上方に位置させたときに、前記ロボットを基準とする座標系であるロボット座標系における前記複数のマーカの第1ロボット座標値を取得するロボット制御部と、
前記撮像制御部および前記ロボット制御部から前記第1カメラ座標値および前記第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいて前記カメラ座標系の座標値を前記ロボット座標系の座標値に変換する変換式を導出する演算部により導出された該変換式を記憶する記憶部と、を備えるロボットシステム。 A robot having an arm,
An imaging unit that acquires first image data of a plurality of markers on a table on which a workpiece can be placed;
An imaging control unit that controls the imaging unit and acquires, based on the first image data, first camera coordinate values of the plurality of markers in a camera coordinate system that is a coordinate system in an image imaged by the imaging unit When,
The plurality of markers in a robot coordinate system, which is a coordinate system based on the robot, when the robot is controlled and a calibration jig provided at the tip of the arm is positioned above the plurality of markers. A robot control unit that acquires a first robot coordinate value of
The first camera coordinate value and the first robot coordinate value are acquired from the imaging control unit and the robot control unit, and the coordinate value of the camera coordinate system is calculated based on the first camera coordinate value and the first robot coordinate value. A storage unit configured to store the conversion formula derived by an operation unit configured to derive a conversion formula to be converted into coordinate values of the robot coordinate system.
前記撮像制御部は、前記第2画像データに基づいて前記ワークの第2カメラ座標値を取得し、
前記ロボット制御部は、前記変換式により前記第2カメラ座標値を前記ワークのワーク変換座標値に変換する、請求項1に記載のロボットシステム。 The imaging unit acquires second image data of the work;
The imaging control unit acquires a second camera coordinate value of the work based on the second image data,
The robot system according to claim 1, wherein the robot control unit converts the second camera coordinate value into a workpiece conversion coordinate value of the workpiece according to the conversion formula.
前記ロボット制御部は、前記第1ロボット座標値および前記鉛直ロボット座標値に基づいて前記テーブルの平面方程式を演算する、請求項2に記載のロボットシステム。 The robot control unit is a vertical robot coordinate value indicating heights of the plurality of markers in a direction perpendicular to the robot coordinate system, which is a two-dimensional plane, when the calibration jig contacts the plurality of markers. Get
The robot system according to claim 2, wherein the robot control unit calculates a plane equation of the table based on the first robot coordinate value and the vertical robot coordinate value.
前記撮像制御部は、前記第3画像データに基づいて、前記テーブル上において前記撮像部の光軸から最遠部の第3カメラ座標値を取得し、
前記ロボット制御部は、前記変換式により前記第3カメラ座標値を前記最遠部の最遠部変換座標値に変換し、
前記ロボット制御部は、前記平面方程式および前記最遠部変換座標値に基づいて、前記撮像部の光軸の垂直面に対する前記テーブルの傾きによる座標値のずれを補正した前記最遠部の最遠部補正座標値を演算し、
前記ロボット制御部は、前記最遠部変換座標値と前記最遠部補正座標値との差と、前記ロボットの位置決め精度と、を比較し、
前記差が前記位置決め精度を超える場合、前記ロボット制御部は、前記平面方程式および前記ワーク変換座標値に基づいて、前記撮像部の光軸の垂直面に対する前記テーブルの傾きによる座標値のずれを補正した前記ワークのワーク補正座標値を演算し、前記ワーク補正座標値を前記ワークの座標値とし、
前記差が前記位置決め精度の範囲内である場合、前記ロボット制御部は、前記ワーク変換座標値を前記ワークの座標値とする、請求項3に記載のロボットシステム。 The imaging unit acquires third image data of the table,
The imaging control unit acquires a third camera coordinate value of a farthest part from the optical axis of the imaging unit on the table based on the third image data.
The robot control unit converts the third camera coordinate value into the farthest converted coordinate value of the farthest part according to the conversion formula,
The robot control unit corrects the deviation of the coordinate value due to the inclination of the table with respect to the vertical plane of the optical axis of the imaging unit based on the plane equation and the farthest part conversion coordinate value. Calculate the part correction coordinate value,
The robot control unit compares the difference between the farthest part conversion coordinate value and the farthest part correction coordinate value with the positioning accuracy of the robot.
When the difference exceeds the positioning accuracy, the robot control unit corrects the deviation of the coordinate value due to the inclination of the table with respect to the vertical plane of the optical axis of the imaging unit based on the plane equation and the workpiece conversion coordinate value. Calculating a workpiece correction coordinate value of the workpiece, and setting the workpiece correction coordinate value as a coordinate value of the workpiece;
The robot system according to claim 3, wherein when the difference is within the range of the positioning accuracy, the robot control unit sets the workpiece conversion coordinate value as the coordinate value of the workpiece.
前記アームの先端部に設けられるキャリブレーション治具を前記テーブル上の複数のマーカの上方に位置させたときに、前記ロボット座標系における前記複数のマーカの第1ロボット座標値を前記ロボット制御部で取得し、
前記複数のマーカの第1画像データを前記撮像部で取得し、
前記第1画像データに基づいて、前記カメラ座標系における前記複数のマーカの第1カメラ座標値を前記撮像制御部で取得し、
前記撮像制御部および前記ロボット制御部から前記第1カメラ座標値および前記第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいて前記変換式を導出する演算部により導出された該変換式を前記記憶部で記憶することを具備するキャリブレーション方法。 A robot having an arm, an imaging unit for imaging a table on which a workpiece can be placed, an imaging control unit for controlling the imaging unit, a robot control unit for controlling the robot, and an image captured by the imaging unit And a storage unit for storing a conversion formula for converting coordinate values of a camera coordinate system which is a coordinate system of the above into coordinate values of a robot coordinate system which is a coordinate system based on the robot. ,
When the calibration jig provided at the tip of the arm is positioned above the plurality of markers on the table, the robot control unit uses the first robot coordinate values of the plurality of markers in the robot coordinate system. Acquired,
Acquiring, by the imaging unit, first image data of the plurality of markers;
The imaging control unit acquires first camera coordinate values of the plurality of markers in the camera coordinate system based on the first image data,
A computing unit that obtains the first camera coordinate value and the first robot coordinate value from the imaging control unit and the robot control unit, and derives the conversion equation based on the first camera coordinate value and the first robot coordinate value Storing the conversion equation derived by the storage unit in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227929A JP6885856B2 (en) | 2017-11-28 | 2017-11-28 | Robot system and calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227929A JP6885856B2 (en) | 2017-11-28 | 2017-11-28 | Robot system and calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019098409A true JP2019098409A (en) | 2019-06-24 |
JP6885856B2 JP6885856B2 (en) | 2021-06-16 |
Family
ID=66975143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017227929A Active JP6885856B2 (en) | 2017-11-28 | 2017-11-28 | Robot system and calibration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6885856B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145272A (en) * | 2020-01-13 | 2020-05-12 | 苏州沃特维自动化系统有限公司 | Manipulator and camera hand-eye calibration device and method |
WO2021060227A1 (en) * | 2019-09-27 | 2021-04-01 | 日本電産株式会社 | Height correction system |
WO2021060228A1 (en) * | 2019-09-27 | 2021-04-01 | 日本電産株式会社 | Height correction system |
CN114500828A (en) * | 2021-12-24 | 2022-05-13 | 珠海博杰电子股份有限公司 | Position latching-based high-precision flight shooting positioning method for Mark point of dispenser |
CN114543669A (en) * | 2022-01-27 | 2022-05-27 | 珠海亿智电子科技有限公司 | Mechanical arm calibration method, device, equipment and storage medium |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60252914A (en) * | 1984-05-30 | 1985-12-13 | Fanuc Ltd | Conversion system between visual sensor coordinate information and robot reference coordinate information |
JPH01109202A (en) * | 1987-10-22 | 1989-04-26 | Fanuc Ltd | Visual sensor with parallax correction |
JPH0392712A (en) * | 1989-09-05 | 1991-04-17 | Fanuc Ltd | Three-dimensional position recognition by use of image processing device and distance measuring sensor |
US5321353A (en) * | 1992-05-13 | 1994-06-14 | Storage Technolgy Corporation | System and method for precisely positioning a robotic tool |
JP2000094370A (en) * | 1998-09-18 | 2000-04-04 | Denso Corp | Inclination measuring method of work surface of robot and measuring device thereof |
JP2009172718A (en) * | 2008-01-24 | 2009-08-06 | Canon Inc | Working device and calibration method of the same |
JP2010076054A (en) * | 2008-09-26 | 2010-04-08 | Ihi Corp | Robot apparatus and control method of robot apparatus |
US20110320039A1 (en) * | 2010-06-25 | 2011-12-29 | Hon Hai Precision Industry Co., Ltd. | Robot calibration system and calibrating method thereof |
JP2012101306A (en) * | 2010-11-09 | 2012-05-31 | Mitsubishi Electric Corp | Apparatus and method for calibration of robot |
US20140288710A1 (en) * | 2013-03-19 | 2014-09-25 | Kabushiki Kaisha Yaskawa Denki | Robot system and calibration method |
JP2016097474A (en) * | 2014-11-21 | 2016-05-30 | セイコーエプソン株式会社 | Robot and robot system |
-
2017
- 2017-11-28 JP JP2017227929A patent/JP6885856B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60252914A (en) * | 1984-05-30 | 1985-12-13 | Fanuc Ltd | Conversion system between visual sensor coordinate information and robot reference coordinate information |
JPH01109202A (en) * | 1987-10-22 | 1989-04-26 | Fanuc Ltd | Visual sensor with parallax correction |
JPH0392712A (en) * | 1989-09-05 | 1991-04-17 | Fanuc Ltd | Three-dimensional position recognition by use of image processing device and distance measuring sensor |
US5321353A (en) * | 1992-05-13 | 1994-06-14 | Storage Technolgy Corporation | System and method for precisely positioning a robotic tool |
JP2000094370A (en) * | 1998-09-18 | 2000-04-04 | Denso Corp | Inclination measuring method of work surface of robot and measuring device thereof |
JP2009172718A (en) * | 2008-01-24 | 2009-08-06 | Canon Inc | Working device and calibration method of the same |
JP2010076054A (en) * | 2008-09-26 | 2010-04-08 | Ihi Corp | Robot apparatus and control method of robot apparatus |
US20110320039A1 (en) * | 2010-06-25 | 2011-12-29 | Hon Hai Precision Industry Co., Ltd. | Robot calibration system and calibrating method thereof |
JP2012101306A (en) * | 2010-11-09 | 2012-05-31 | Mitsubishi Electric Corp | Apparatus and method for calibration of robot |
US20140288710A1 (en) * | 2013-03-19 | 2014-09-25 | Kabushiki Kaisha Yaskawa Denki | Robot system and calibration method |
JP2014180720A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and calibration method |
JP2016097474A (en) * | 2014-11-21 | 2016-05-30 | セイコーエプソン株式会社 | Robot and robot system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021060227A1 (en) * | 2019-09-27 | 2021-04-01 | 日本電産株式会社 | Height correction system |
WO2021060228A1 (en) * | 2019-09-27 | 2021-04-01 | 日本電産株式会社 | Height correction system |
CN114450130A (en) * | 2019-09-27 | 2022-05-06 | 日本电产株式会社 | Height correction system |
CN114521164A (en) * | 2019-09-27 | 2022-05-20 | 日本电产株式会社 | Height correction system |
CN111145272A (en) * | 2020-01-13 | 2020-05-12 | 苏州沃特维自动化系统有限公司 | Manipulator and camera hand-eye calibration device and method |
CN114500828A (en) * | 2021-12-24 | 2022-05-13 | 珠海博杰电子股份有限公司 | Position latching-based high-precision flight shooting positioning method for Mark point of dispenser |
CN114500828B (en) * | 2021-12-24 | 2023-10-13 | 珠海博杰电子股份有限公司 | High-precision flyswatter positioning method for Mark point of dispensing machine based on position latching |
CN114543669A (en) * | 2022-01-27 | 2022-05-27 | 珠海亿智电子科技有限公司 | Mechanical arm calibration method, device, equipment and storage medium |
CN114543669B (en) * | 2022-01-27 | 2023-08-01 | 珠海亿智电子科技有限公司 | Mechanical arm calibration method, device, equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6885856B2 (en) | 2021-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI672206B (en) | Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function | |
JP6885856B2 (en) | Robot system and calibration method | |
JP5850962B2 (en) | Robot system using visual feedback | |
JP7207851B2 (en) | Control method, robot system, article manufacturing method, program and recording medium | |
JP6427972B2 (en) | Robot, robot system and control device | |
JP5949242B2 (en) | Robot system, robot, robot control apparatus, robot control method, and robot control program | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP6021533B2 (en) | Information processing system, apparatus, method, and program | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
US10279473B2 (en) | Image processing device, image processing method, and computer program | |
JP6222898B2 (en) | Three-dimensional measuring device and robot device | |
JP2018169403A (en) | System and method for tying together machine vision coordinate spaces in guided assembly environment | |
JP5523392B2 (en) | Calibration apparatus and calibration method | |
JPWO2018043524A1 (en) | Robot system, robot system control apparatus, and robot system control method | |
JP6253847B1 (en) | Laser processing apparatus, laser processing method, and laser processing program | |
JP7249221B2 (en) | SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD | |
CN112643718B (en) | Image processing apparatus, control method therefor, and storage medium storing control program therefor | |
WO2021145280A1 (en) | Robot system | |
JP2022163836A (en) | Method for displaying robot image, computer program, and method for displaying robot image | |
CN113858214A (en) | Positioning method and control system for robot operation | |
WO2022172471A1 (en) | Assistance system, image processing device, assistance method and program | |
JP7483455B2 (en) | Image processing device, method and program for controlling the image processing device | |
US20240246237A1 (en) | Robot control device, robot control system, and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200729 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6885856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |