JP6885856B2 - ロボットシステムおよびキャリブレーション方法 - Google Patents

ロボットシステムおよびキャリブレーション方法 Download PDF

Info

Publication number
JP6885856B2
JP6885856B2 JP2017227929A JP2017227929A JP6885856B2 JP 6885856 B2 JP6885856 B2 JP 6885856B2 JP 2017227929 A JP2017227929 A JP 2017227929A JP 2017227929 A JP2017227929 A JP 2017227929A JP 6885856 B2 JP6885856 B2 JP 6885856B2
Authority
JP
Japan
Prior art keywords
robot
coordinate value
coordinate
work
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017227929A
Other languages
English (en)
Other versions
JP2019098409A (ja
Inventor
間 拓 朗 風
間 拓 朗 風
野 佳名美 大
野 佳名美 大
雄 一 牧
雄 一 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Shibaura Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Machine Co Ltd filed Critical Shibaura Machine Co Ltd
Priority to JP2017227929A priority Critical patent/JP6885856B2/ja
Publication of JP2019098409A publication Critical patent/JP2019098409A/ja
Application granted granted Critical
Publication of JP6885856B2 publication Critical patent/JP6885856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明による実施形態は、ロボットシステムおよびキャリブレーション方法に関する。
産業用ロボットと2次元ビジョンシステムとを組み合わせたロボットシステムが使用されている。例えば、まず、2次元ビジョンシステムに含まれるカメラがワークを撮像することにより、2次元ビジョンシステムがワークの座標値を取得する。その後、取得したワークの座標値をもとにロボットアームが動いて作業をする場合がある。このとき、カメラから見た座標(カメラ座標)とロボットから見た座標(ロボット座標)とは座標の基準が異なる。従って、カメラ座標とロボット座標との間で、同一のワークの座標値が異なってしまう。そこで、カメラ座標をロボット座標に変換する必要がある。この変換の演算に使用する行列式を導入する作業は、キャリブレーション作業と呼ばれる。
しかし、このキャリブレーション作業は、作業工数が多く、手間がかかるため、長時間を要していた。また、作業手順が複雑であり、ユーザが手作業でデータの記録等を行うため、作業ミスも多かった。
特開2014−180720号公報
カメラ座標とロボット座標との間のキャリブレーション作業を容易かつ迅速に行うことができ、かつ、作業ミスを減少させることができるロボットシステムおよびキャリブレーション方法を提供する。
本実施形態によるロボットシステムは、アームを有するロボットと、ワークを載置可能なテーブル上の複数のマーカの第1画像データを取得する撮像部と、撮像部を制御し、第1画像データに基づいて、撮像部により撮像される画像内の座標系であるカメラ座標系における複数のマーカの第1カメラ座標値を取得する撮像制御部と、ロボットを制御し、アームの先端部に設けられるキャリブレーション治具を複数のマーカの上方に位置させたときに、ロボットを基準とする座標系であるロボット座標系における複数のマーカの第1ロボット座標値を取得するとともに、キャリブレーション治具を複数のマーカに接触させたときに、2次元平面であるロボット座標系に垂直な方向における複数のマーカの高さを示す鉛直ロボット座標値を取得するロボット制御部と、撮像制御部およびロボット制御部から第1カメラ座標値および第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいてカメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する演算部により導出された該変換式を記憶する記憶部と、を備え、ロボット制御部は、第1ロボット座標値および鉛直ロボット座標値に基づいてテーブルの平面方程式を演算する。
第1実施形態によるロボットシステムの構成の一例を示す図。 スカラロボットにおけるツール座標系の座標取得を示す図。 テーブルの上方から見た、テーブルおよび複数のマーカの図。 ロボット座標値およびカメラ座標値の取得から変換式の保存までのデータの流れの一例を示すブロック図。 第1実施形態によるロボットシステムの動作の一例を示すフロー図 第2実施形態によるロボットシステムの構成の一例を示す図。 垂直多関節ロボットにおけるツール座標系の座標取得を示す図。 第3実施形態によるテーブルの傾きを示す模式図。 第3実施形態によるロボットシステムの動作の一例を示すフロー図。 変形例によるロボットシステムの動作の一例を示すフロー図
以下、図面を参照して本発明に係る実施形態を説明する。本実施形態は、本発明を限定するものではない。本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
図1は、第1実施形態によるロボットシステム100の構成の一例を示す図である。ロボットシステム100は、スカラロボット1と、ロボットコントローラ2と、操作部3と、撮像部5と、ビジョンコントローラ6と、表示部7と、端末8と、演算部9と、LAN(Local Area Network)用ハブ10とを備える。
ロボットとしてのスカラロボット1は、アームを有し、通常動作では、アームを動作させて、例えば、テーブル4に載置されるワークを把持または加工する。このとき、スカラロボット1は、撮像部5で撮像される画像データに基づいてアーム等の位置を決める。撮像部5により撮像される画像内の位置を示すカメラ座標系とスカラロボット1のアームの位置を示すロボット座標系とがずれている場合、スカラロボット1は、ワークを正確に把持したり、加工することができない。従って、通常動作の前にキャリブレーションが行われる。キャリブレーションとは、カメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出することである。カメラ座標系とは、撮像部5により撮像される画像内の位置を示すために用いられる座標系である。ここでは、ロボット座標系とは、スカラロボット1のアームの先端部を基準とする座標系である。従って、ロボット座標系は、アームの先端部の位置を示すために用いられる。尚、スカラロボット1は、スカラロボットに限られず、同様な機能を有するロボットであればよい。
テーブル4は、ワークまたはキャリブレーションに用いられる複数のマーカ18を載置可能である。通常動作では、ワークがテーブル4上にある。ここでは、キャリブレーションが行われるため、複数のマーカ18がテーブル4上にある。
キャリブレーションでは、スカラロボット1のアームの先端部に、キャリブレーション治具11が設けられる。キャリブレーション治具11は、スカラロボット1のZ軸1aと平行になるように取り付けられる。キャリブレーション治具11の先端は、先鋭であることが好ましい。これにより、キャリブレーションの精度を向上させることができるからである。
ロボット制御部としてのロボットコントローラ2は、スカラロボット1に接続される。ロボットコントローラ2は、スカラロボット1を制御する。また、図4を用いて後で説明するように、ロボットコントローラ2は、スカラロボット1から取得しているエンコーダ情報に基づいてロボット座標値を取得する。エンコーダ情報とは、スカラロボット1の各軸を動かすモータに取り付けられるエンコーダからのモータの角度情報である。ロボットコントローラ2は、この角度情報をスカラロボット1の位置情報に変換している。ロボット座標値は、この位置情報に含まれる。ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18の上方に位置させたときに、ロボット座標系における複数のマーカ18の第1ロボット座標値を取得する。ロボット座標値は、ロボット座標系の内、2次元平面(XY平面)のX,Y座標値である。
操作部3は、ロボットコントローラ2に接続される。操作部3は、ユーザによって手動でスカラロボット1を操作することを可能とする。
撮像部5は、テーブル4の上方に設けられ、テーブル4を撮像する。撮像部5は、複数のマーカ18を撮像することにより、複数のマーカ18の第1画像データを取得する。撮像部5は、例えば、2次元カメラである。撮像部5は、取得した第1画像データをビジョンコントローラ6へ送信する。
撮像制御部としてのビジョンコントローラ6は、撮像部5に接続されている。ビジョンコントローラ6は、撮像部5を制御する。また、ビジョンコントローラ6は、第1画像データに基づいて、カメラ座標系における複数のマーカ18の第1カメラ座標値を取得する。カメラ座標値は、2次元平面(XY平面)のX,Y座標値である。
表示部7は、ビジョンコントローラ6に接続されている。表示部7は、撮像部5で撮像された画像データを表示する。また、表示部7は、ビジョンコントローラ6の設定を行うために使用される。
端末8は、ロボットコントローラ2およびビジョンコントローラ6に対して外部に設けられる。端末8はキャリブレーションに用いられるため、通常動作においては、端末8はロボットシステム100から外されてもよい。端末8は、演算部9を有する。端末8は、例えば、パーソナルコンピュータである。
演算部9は、例えば、1つまたは複数のCPU(Central Processor Unit)および/またはロジックLSI(Large Scale Integration)等で構成してよい。演算部9は、キャリブレーションプログラムを実行することにより、座標取得命令をロボットコントローラ2およびビジョンコントローラ6へ送る。ロボットコントローラ2およびビジョンコントローラ6は、座標取得命令を受けて、それぞれ第1カメラ座標値および第1ロボット座標値を取得する。そして、演算部9は、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を取得する。さらに、演算部9は、キャリブレーションでは、第1カメラ座標値および第1ロボット座標値に基づいて、カメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する。演算部9は、キャリブレーションにより得られた変換式をロボットコントローラ2へ送る。変換式は、通常動作においてカメラ座標系の座標値をロボット座標系の座標値に変換するために用いられる。キャリブレーションプログラムは、例えば、東芝機械株式会社製のロボットプログラム作成支援ツール「TSAssist(登録商標)」等である。また、演算部9は、後述するキャリブレーション治具11のオフセットを取得し、ツール座標系を設定する。
LAN用ハブ10は、ロボットコントローラ2、ビジョンコントローラ6および端末8と接続される。これにより、後述する図4に示すように、カメラ座標値およびロボット座標値のデータを送受信することができる。LAN用ハブ10は、例えば、イーサネット(登録商標)等に用いられるハブでよい。尚、他の方法によりカメラ座標値およびロボット座標値のデータの送受信が可能である場合、ロボットシステム100はLAN用ハブ10を備えていなくてもよい。
図2は、スカラロボット1におけるツール座標系の座標取得を示す図である。ツール座標系とは、アームの先端部に設けられるツールの先端を基準とし、ツールの先端の位置を示す座標系である。ツールは、キャリブレーションにおいてはキャリブレーション治具11である。ツール座標系の座標値は、アームの先端部を基準とするロボット座標値に対して、キャリブレーション治具11の寸法に対応するオフセットがある。このオフセットを取得してツール座標系を設定することにより、ツール座標系の座標値からロボット座標値を取得することができる。そこで、キャリブレーション前に、キャリブレーション治具11を取り付けた状態でオフセットを取得し、ツール座標系を設定する必要がある。設定されたツール座標系は、キャリブレーション作業がすべて完了するまで有効となる。尚、CADデータ等によりキャリブレーション治具11の寸法がわかる場合には、ツール座標系の設定にオフセットの取得を省略することができる場合もある。
オフセットを取得することは、アームの先端部からキャリブレーション治具11の先端までのXY平面の距離rおよびキャリブレーション治具11の先端が位置決めされた基準点の座標値(X0,Y0)を求めることである。アームの1つの姿勢によって、未知数r,X0,Y0の関係式を求めることができる。従って、3つの姿勢によって、3つの未知数r,X0,Y0を求めることができる。さらに、求めたr,X0,Y0の確認のため、もう1つの姿勢が必要となる。従って、アームの4つの姿勢からオフセットを取得することができる。
図3は、テーブル4の上方から見た、テーブル4および複数のマーカ18の図である。複数のマーカ18は、図3に示すように、撮像部5の撮像範囲17内に配置される。尚、マーカ18の大きさや形は、撮像部5が検出可能であればよい。
複数のマーカ18は、図3に示すように、3行3列に配置される。これにより、撮像部5のレンズの歪みにより生じる、魚眼レンズのような画像の歪みを補正することができる。尚、複数のマーカ18は、3行3列の9個に限られない。例えば、複数のマーカ18は、直線上にない3点等、2次元平面を形成するように設けられていてもよい。また、複数のマーカ18は、等間隔に配置されることが好ましい。これにより、キャリブレーションの精度を向上させることができる。また、複数のマーカ18は、撮像範囲17内の広範囲に設けられることが好ましい。これにより、広範囲においてキャリブレーションすることができる。また、マーカ18の高さは、ワークの高さと略同一である必要がある。
図4は、ロボット座標値およびカメラ座標値の取得から変換式の保存までのデータの流れの一例を示すブロック図である。スカラロボット1は、エンコーダ21を備える。ロボットコントローラ2は、位置情報取得部13と、データ中継部19と、記憶部20とを備える。演算部9は、ロボット座標取得部14と、カメラ座標取得部15と、変換式演算部16とを備える。
まず、第1カメラ座標値を取得する場合のデータの流れについて説明する。カメラ座標取得部15は、ユーザの命令により、カメラ座標取得命令をデータ中継部19へ送信する。データ中継部19は、カメラ座標取得命令を、ロボットフォーマットからビジョンフォーマットへ変換して、ビジョンコントローラ6へ送信する。ビジョンコントローラ6は、カメラ座標取得命令を受けると、撮像部5にマーカ18を撮像させ、撮像部5から第1画像データを受信する。ビジョンコントローラ6は、第1画像データに基づいて、第1カメラ座標値を取得する。ビジョンコントローラ6は、第1カメラ座標値をデータ中継部19へ送信する。データ中継部19は、第1カメラ座標値を、ビジョンフォーマットからロボットフォーマットへ変換して、カメラ座標取得部15へ送信する。カメラ座標取得部15は、第1カメラ座標値を保存する。カメラ座標取得部15は、上記の手順を、マーカ18の9点分実行する。すなわち、カメラ座標取得部15は、1点分ずつ第1カメラ座標値を取得する。カメラ座標取得部15は、9点分の第1カメラ座標値を変換式演算部16へ送信する。尚、上記のフォーマットの変換は、ロボットコントローラ2とビジョンコントローラ6との間でデータ形式が異なる場合に必要となる。従って、データ形式が同じである場合、フォーマットを変換しなくてもよい。
次に、第1ロボット座標値を取得する場合のデータの流れについて説明する。キャリブレーション治具11は、マーカ18の上方に位置される。ロボット座標取得部14は、ユーザの命令により、ロボット座標取得命令を位置情報取得部13へ送信する。位置情報取得部13は、エンコーダ21が断続的に送信するエンコーダ情報を受信している。位置情報取得部13は、エンコーダ情報をスカラロボット1の位置情報に変換している。位置情報取得部13は、ロボット座標取得命令を受けると、変換した位置情報内のX,Y座標値を第1ロボット座標値としてロボット座標取得部14へ送信する。ロボット座標取得部14は、第1ロボット座標値を保存する。ロボット座標取得部14は、上記の手順を、マーカ18の9点分実行する。すなわち、マーカ18毎にキャリブレーション治具11の位置付けおよび第1ロボット座標値の取得が実行される。ロボット座標取得部14は、9点分の第1ロボット座標値を変換式演算部16へ送信する。
次に、変換式演算部16は、9点分の第1カメラ座標値および9点分の第1ロボット座標値に基づいて、変換式を導出する。変換式演算部16は、変換式を記憶部20へ送信する。記憶部20は、受け取った変換式を記憶する。
図5は、第1実施形態によるロボットシステム100の動作の一例を示すフロー図である。尚、図4に示すデータの流れは、図5におけるステップS60〜S100に対応する。
まず、ユーザは、複数のマーカ18をテーブル4上の撮像範囲17内に配置する(S10)。次に、ビジョンコントローラ6は、マーカ18を登録する(S20)。例えば、ビジョンコントローラ6は、マーカ18の画像認識情報を登録する。次に、ユーザは、キャリブレーション治具11をスカラロボット1の先端部に取り付ける(S30)。次に、演算部9は、キャリブレーション治具11のオフセットを取得し(S40)、ツール座標系を設定する。
キャリブレーション治具11のオフセットの取得方法について説明する。ユーザは、マーカ18の角の上など任意の位置に基準点を決める。ユーザは、キャリブレーション治具11の先端が基準点の上方に位置するようにスカラロボット1を操作する。そして、ユーザは、アームの姿勢を変えるようにスカラロボット1を操作する。ユーザは、この操作を繰り返し、異なる4つの姿勢においてキャリブレーション治具11の先端の位置を基準点の上方に一致させるようにスカラロボット1を操作する。演算部9は、アームの4つの姿勢それぞれの位置情報からオフセットを取得する。
次に、ユーザは、操作部3を用いて、キャリブレーション治具11をマーカ18の上方に位置合わせする(S50)。次に、演算部9は、ユーザの命令により、第1ロボット座標値を取得する(S60)。次に、ユーザは、撮像部5がマーカ18を撮像できるようにスカラロボット1を操作する。演算部9は、ユーザの命令により、第1カメラ座標値を取得する(S70)。全てのマーカ18において第1カメラ座標値および第1ロボット座標値を取得していない場合(S80のNO)、次のマーカ18においてステップS50〜S70を実行する。全てのマーカ18において第1カメラ座標値および第1ロボット座標値を取得した場合(S80のYES)、演算部9は、変換式を導出する(S90)。次に、演算部9は、変換式をロボットコントローラ2へ送信し、記憶部20は変換式を保存する(S100)。
尚、第1カメラ座標値の取得(S70)の後に第1ロボット座標値の取得(S50,S60)をしてもよい。また、ステップS50〜S80のように、マーカ18毎に第1カメラ座標値および第1ロボット座標値を取得することに限られない。例えば、図4に示すロボット座標取得部14が9点分の第1ロボット座標値を取得および保存し、その後、カメラ座標取得部15が9点分の第1カメラ座標値を取得および保存してもよい。
以上のように、第1実施形態によるロボットシステム100は、複数のマーカの第1画像データを取得する撮像部5と、第1画像データに基づいて、複数のマーカ18の第1カメラ座標値を取得するビジョンコントローラ6と、キャリブレーション治具11を複数のマーカ18の上方に位置させたときに、複数のマーカ18の第1ロボット座標値を取得するロボットコントローラ2と、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいてカメラ座標系の座標値をロボット座標系の座標値に変換する変換式を導出する演算部9により導出された該変換式を記憶する記憶部と、を備える。
これにより、演算部9は、ビジョンコントローラ6およびロボットコントローラ2から第1カメラ座標値および第1ロボット座標値を自動で取得して変換式を導出する。従って、ユーザが手作業で第1カメラ座標値および第1ロボット座標値をメモして、演算した変換式をロボットコントローラに入力する場合に比べて、キャリブレーション作業を容易かつ迅速に行うことができ、かつ、作業ミスを減少させることができる。
尚、上述の演算部9は、ビジョンコントローラ6およびロボットコントローラ2の外部に設けられるが、ビジョンコントローラ6またはロボットコントローラ2が演算部9の機能を有してもよい。すなわち、ビジョンコントローラ6またはロボットコントローラ2が第1カメラ座標値および第1ロボット座標値を自動で取得して変換式を導出してもよい。
(第2実施形態)
図6は、第2実施形態によるロボットシステム100の構成の一例を示す図である。第2実施形態は、スカラロボット1が垂直多関節ロボット12である点で第1実施形態とは異なる。
キャリブレーション治具11は、垂直多関節ロボット12の第6軸12aと平行となるように取り付けられる。スカラロボット1と同様の計算でオフセットを取得するため、A,B,C軸のオイラー角は0度に設定される。
第2実施形態によるロボットシステム100のその他の構成は、第1実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
図7は、垂直多関節ロボット12におけるツール座標系の座標取得を示す図である。スカラロボット1では、アームの角度によってXY平面の座標値が変化する。Z軸方向の座標値は、アームの角度ではなく、スカラロボット1のZ軸1aを上下に動かすことにより変化する。従って、XY平面の距離rおよびXY平面の基準点の座標値を求めることによりオフセットを取得することができる。一方、垂直多関節ロボット12では、アームの角度によってXYZ空間の座標値が変化する。従って、XYZ空間の距離rおよびXYZ空間の基準点の座標値(X0,Y0,Z0)を求める必要がある。すなわち、スカラロボット1に比べて未知数が1つ多い。従って、第2実施形態による演算部9は、アームの5つの姿勢の位置情報からオフセットを取得する点で、第1実施形態と異なる。
第2実施形態によるロボットシステム100は、第1実施形態によるロボットシステム100と同様の効果を得ることができる。
(第3実施形態)
キャリブレーションの完了後、複数のマーカ18はテーブル4上から取り除かれ、ワークがテーブル4上に載置される。テーブル4が傾いている場合、カメラ座標値からロボット座標値に変換したワークの座標値と実際のワークの座標値との間にずれが生じることがある。
図8は、第3実施形態によるテーブル4の傾きを示す模式図である。図8は、Y軸方向から見た図である。テーブル4は、撮像部5の光軸22に垂直な面Pから角度θo傾いている。面Pは、撮像部5からZ軸方向に撮像部5の焦点距離ZL離れた位置にある。ワークは、テーブル4上の点Sにあるとする。撮像部5は、ワークを撮像し、ワークの第2画像データを取得する。ビジョンコントローラ6は、第2画像データに基づいて、ワークの第2カメラ座標値を取得する。ビジョンコントローラ6は、撮像部5の点Oと点Sとを結ぶ直線と面Pとの交点である点Sfを第2カメラ座標値として取得する。ロボットコントローラ2は、変換式により第2カメラ座標値をワークのワーク変換座標値に変換する。このワーク変換座標値も点Sfである。したがって、図8に示すように、テーブル4が傾くことにより、ワークの実際の位置である点Sとワーク変換座標値である点Sfとの間に座標値のずれが生じる。この場合、スカラロボット1はワークを把持することができない可能性がある。
第1実施形態および第2実施形態では、テーブル4の傾きによる座標値のずれを考慮していない。これに対し、第3実施形態では、以下のように、テーブル4の傾きによる座標値のずれを補正した補正座標値を演算する。
キャリブレーションにおいて、複数のマーカ18の上部またはキャリブレーション治具11の先端に、圧力センサが設けられる。圧力センサは、キャリブレーション治具11を鉛直方向に変位させたときに、キャリブレーション治具11がマーカ18に接触したことを検知する。圧力センサは、ロボットコントローラ2に接続され、キャリブレーション治具11がマーカ18に接触したことをロボットコントローラ2に送ってもよい。尚、圧力センサに限られず、キャリブレーション治具11がマーカ18に接触したことを検知することができるセンサであればよい。
ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18に接触させたことを圧力センサが検知したときに、鉛直ロボット座標値を取得する。鉛直ロボット座標値は、2次元平面(XY平面)であるロボット座標系に垂直なZ軸方向における複数のマーカ18の高さを示す。尚、鉛直ロボット座標値は、キャリブレーションには使用されない。
通常動作において、ロボットコントローラ2は、9点分のマーカ18における第1ロボット座標値および鉛直ロボット座標値に基づいて、テーブル4の3次元の平面方程式を演算する。
一方、ロボットコントローラ2は、点Oと点Sfとを結ぶ直線O−Sfを演算する。ロボットコントローラ2は、テーブル4の平面方程式および直線O−Sfの交点をワークのワーク補正座標値として演算する。すなわち、ロボットコントローラ2は、テーブル4の平面方程式およびワーク変換座標値に基づいて、ワーク補正座標値を演算する。このように演算されたワーク補正座標値が点Sの座標値である。
第3実施形態によるロボットシステム100のその他の構成は、第1実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
次に、ワーク補正座標値の演算について説明する。
テーブル4の平面方程式をax+by+cz+d=0とし、点Oの座標値を(xv,yv,zv)とし、点Sfの座標値を(xsf,ysf,zsf)とし、点Sの座標値を(xsc,ysc,zsc)とする。点Oの座標値(xv,yv,zv)は、撮像部5を取り付ける際に測定される。点SfのX,Y成分(xsf,ysf)はワーク変換座標値である。点SfのZ成分zsfは、図8に示すように、zv+ZLである。焦点距離ZLも、撮像部5を取り付ける際に測定される。
直線O−Sfの方向ベクトルは、式1で表される。
Figure 0006885856
従って、直線O−Sfの方程式は、式2で表される。
Figure 0006885856
式2を式3とすると、式3は、式4,5,6で表わされる。
Figure 0006885856
式4,5,6を上記の平面方程式に代入すると、式7で表されるように、tが得られる。
Figure 0006885856
このtを式4,5,6に代入することにより、ワーク補正座標値である点Sの座標値(xsc,ysc,zsc)を演算することができる。
図9は、第3実施形態によるロボットシステム100の動作の一例を示すフロー図である。
図9におけるステップS10〜S60は、第1実施形態における図5に示すステップS10〜S60と同様である。第1ロボット座標値を取得した後(S60)、ユーザは、キャリブレーション治具11をZ方向に移動させる。これにより、ロボットコントローラ2は、鉛直ロボット座標値を取得する(S65)。また、図9におけるステップS70〜S100は、第1実施形態における図5に示すステップS70〜S100と同様である。
次に、ロボットコントローラ2は、第1ロボット座標値および鉛直ロボット座標値に基づいて、テーブル4の平面方程式を演算する(S110)。次に、撮像部5は、ワークを撮像し、第2画像データを取得する。ビジョンコントローラ6は、第2画像データに基づいて、第2カメラ座標値を取得する(S120)。次に、ロボットコントローラ2は、第2カメラ座標値をビジョンコントローラ6から受け取る。ロボットコントローラ2は、変換式により第2カメラ座標値をワーク変換座標値に変換する(S130)。ロボットコントローラ2は、テーブル4の平面方程式およびワーク変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正したワーク補正座標値を演算する(S140)。
尚、点Sと点Sfとの間のZ軸方向のずれに対しては、例えば、吸着によりワークを把持するツールが設けられる場合、ツールにスプリング機構を設けることにより、Z軸方向のずれを吸収することができる。また、例えば、ロボットティーチングにおいて、X,Y成分に対応するZ成分をプログラムすることもできる。
以上のように、第3実施形態によるロボットシステム100によれば、ロボットコントローラ2は、キャリブレーション治具11を複数のマーカ18に接触させたときに、2次元平面であるロボット座標系に垂直な方向における複数のマーカ18の高さを示す鉛直ロボット座標値を取得する。ロボットコントローラ2は、第1ロボット座標値および鉛直ロボット座標値に基づいてテーブル4の平面方程式を演算する。ロボットコントローラ2は、平面方程式およびワーク変換座標値に基づいて、撮像部5の光軸22に垂直な面Pに対するテーブル4の傾きによる座標値のずれを補正したワークのワーク補正座標値を演算する。
これにより、ロボットコントローラ2は、テーブル4の傾きによる座標値のずれを補正したワーク補正座標値に位置決めをすることができる。従って、テーブル4が面Pから傾いている場合であっても、スカラロボット1はワークを把持することができる。
尚、第3実施形態は、第1実施形態および第2実施形態に適用することができる。
(変形例)
第3実施形態の変形例は、ワーク補正座標値を演算する前にワーク補正座標値を演算するか否かを判断する点で、第3実施形態とは異なる。
図8において、面Pにおける点Afから点Cfまでが撮像部5の撮像範囲17であるとする。尚、撮像範囲17の角度であるθaとθcとは同じ角度である。テーブル4の点Aから点Cまでの範囲外は、画像データには入らない。従って、ユーザが画像データを見た場合に、点Af(点A)および点Cf(点C)は、テーブル4上において、撮像部5の光軸22から最遠部である。
また、光軸22がテーブル4と交わる点は、点Qである。点Q、点Sおよび点Cを比較すると、光軸22から離れるほど、テーブル4の傾きによる座標値のずれが大きくなる。変形例によるロボットコントローラ2は、座標値のずれが最大になる最遠部(点A、点C)において、座標値のずれとスカラロボット1の位置決め精度とを比較する。ロボットコントローラ2は、この比較の結果から、ワーク補正座標値を演算するか否かを判定する。
位置決め精度とは、ある座標値に位置決めをした場合において、実際に位置決め制御されたスカラロボット1の座標値のばらつき幅である。位置決め精度は、例えば、予め記憶部20に格納されている。例えば、位置決め精度が±0.1mmであるとする。テーブル4の傾きによる座標値のずれの最大値が±0.1mmの範囲を超える場合、テーブル4の傾きによる座標値のずれは無視することができないほど大きい。この場合、ロボットコントローラ2は、ワーク補正座標値を演算する。一方、テーブル4の傾きによる座標値のずれの最大値が±0.1mmの範囲に収まるほど小さい場合、テーブル4の傾きによる座標値のずれは無視することができるほど小さい。この場合、ロボットコントローラ2は、ワーク補正座標値を演算しない。
尚、最遠部は、図3における撮像範囲17の端部からユーザにより選択される。例えば、光軸22の位置が撮像範囲17の中央であるとして、ユーザは、撮像範囲17の端部における上下左右を最遠部として選択する。また、複数の最遠部を用いて判定することも可能である。
以下では、ユーザは図8における点Afを最遠部として選択したとする。
撮像部5は、テーブル4を撮像することにより、テーブル4の第3画像データを取得する。
ロボットコントローラ2は、第3画像データに基づいて、テーブル4上において光軸22から最遠部(点Af)の第3カメラ座標値を取得する。ロボットコントローラ2は、変換式により第3カメラ座標値を最遠部(点Af)の最遠部変換座標値に変換する。
ロボットコントローラ2は、点Oと点Afとを結ぶ直線O−Afを演算する。ロボットコントローラ2は、テーブル4の平面方程式および直線O−Afの交点を最遠部の最遠部補正座標値として演算する。すなわち、ロボットコントローラ2は、テーブル4の平面方程式および最遠部変換座標値に基づいて、最遠部補正座標値を演算する。このように演算された最遠部補正座標値が点Aの座標値である。
尚、最遠部補正座標値である点Aの座標値(xac,yac,zac)は、式4,5,6,7におけるワーク変換座標値(xsf,ysf)に代えて最遠部変換座標値(xaf,yaf)用いることにより演算することができる。
ロボットコントローラ2は、最遠部変換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度とを比較する。
最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲を超える場合、ロボットコントローラ2は、第3実施形態と同様に、ワーク補正座標値を演算する。この場合、ロボットコントローラ2は、ワーク補正座標値をワークの座標値とする。
一方、最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合、ロボットコントローラ2は、ワーク補正座標値を演算しない。この場合、ロボットコントローラ2は、ワーク変換座標値をワークの座標値とする。
変形例によるロボットシステム100のその他の構成は、第3実施形態によるロボットシステム100の対応する構成と同様であるため、その詳細な説明を省略する。
図10は、変形例によるロボットシステム100の動作の一例を示すフロー図である。
図10におけるステップS10〜S60,S65,S70〜S130は、第3実施形態における図9に示すステップS10〜S60,S65,S70〜S130と同様である。
次に、撮像部5は、テーブル4を撮像し、第3画像データを取得する。ビジョンコントローラ6は、第3画像データに基づいて第3カメラ座標値を取得する(S132)。次に、ロボットコントローラ2は、第3カメラ座標値をビジョンコントローラ6から受け取る。ロボットコントローラ2は、変換式により第3カメラ座標値を最遠部変換座標値に変換する(S134)。次に、ロボットコントローラ2は、テーブル4の平面方程式および最遠部変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正した最遠部補正座標値を演算する(S136)。次に、ロボットコントローラ2は、最遠部変換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度と、を比較する(S138)。最遠部変換座標値と最遠部補正座標値との差が位置決め精度を超える場合(S138のYES)、ロボットコントローラ2は、ワーク補正座標値を演算する(S140)。尚、図10におけるステップS140は、第3実施形態における図9に示すステップS140と同様である。ロボットコントローラ2は、ワーク補正座標値をワークの座標値とする。最遠部変換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合(S138のNO)、ロボットコントローラ2は、ワーク補正座標値を演算せず、第1置換座標値をワークの座標値とする。
以上のように、変形例によるロボットシステム100によれば、ロボットコントローラ2は、平面方程式および最遠部変換座標値に基づいて、テーブル4の傾きによる座標値のずれを補正した最遠部の最遠部補正座標値を演算する。ロボットコントローラ2は、第2置換座標値と最遠部補正座標値との差と、スカラロボット1の位置決め精度と、を比較する。第2置換座標値と最遠部補正座標値との差が位置決め精度を超える場合、ロボットコントローラ2は、ワークのワーク補正座標値を演算し、ワーク補正座標値をワークの座標値とする。第2置換座標値と最遠部補正座標値との差が位置決め精度の範囲内である場合、ロボットコントローラ2は、ワーク変換座標値をワークの座標値とする。
これにより、ロボットコントローラ2は、補正が不要な場合には補正をしないようにすることができる。
第3実施形態では、ロボットコントローラ2は、判定をせず、ワーク毎にワーク補正座標値を演算する。ワーク補正座標値の演算には処理時間がかかるため、テーブル4の傾きが小さく補正が不要な場合、無駄にサイクルタイムが長くなってしまう。
これに対し、変形例では、ロボットコントローラ2は、ワーク補正座標値の演算前にテーブル4の傾きが小さく補正が不要であると判断した場合、ワーク補正座標値を演算しない。これにより、第3実施形態よりも、補正が不要な場合のサイクルタイムを短くすることができる。
本実施形態によるキャリブレーション方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、その方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、データ処理方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 スカラロボット、2 ロボットコントローラ、3 操作部、4 テーブル、5 撮像部、6 ビジョンコントローラ、7 表示部、8 端末、9 演算部、11 キャリブレーション治具、18 マーカ、20 記憶部、22 光軸、P 面、ZL 焦点距離

Claims (8)

  1. アームを有するロボットと、
    ワークを載置可能なテーブル上の複数のマーカの第1画像データを取得する撮像部と、
    前記撮像部を制御し、前記第1画像データに基づいて、前記撮像部により撮像される画像内の座標系であるカメラ座標系における前記複数のマーカの第1カメラ座標値を取得する撮像制御部と、
    前記ロボットを制御し、前記アームの先端部に設けられるキャリブレーション治具を前記複数のマーカの上方に位置させたときに、前記ロボットを基準とする座標系であるロボット座標系における前記複数のマーカの第1ロボット座標値を取得するとともに、前記キャリブレーション治具を前記複数のマーカに接触させたときに、2次元平面である前記ロボット座標系に垂直な方向における前記複数のマーカの高さを示す鉛直ロボット座標値を取得するロボット制御部と、
    前記撮像制御部および前記ロボット制御部から前記第1カメラ座標値および前記第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいて前記カメラ座標系の座標値を前記ロボット座標系の座標値に変換する変換式を導出する演算部により導出された該変換式を記憶する記憶部と、を備え
    前記ロボット制御部は、前記第1ロボット座標値および前記鉛直ロボット座標値に基づいて前記テーブルの平面方程式を演算すロボットシステム。
  2. 前記撮像部は、前記ワークの第2画像データを取得し、
    前記撮像制御部は、前記第2画像データに基づいて前記ワークの第2カメラ座標値を取得し、
    前記ロボット制御部は、前記変換式により前記第2カメラ座標値を前記ワークのワーク変換座標値に変換する、請求項1に記載のロボットシステム。
  3. 前記ロボット制御部は、前記平面方程式および前記ワーク変換座標値に基づいて、前記撮像部の光軸の垂直面に対する前記テーブルの傾きによる座標値のずれを補正した前記ワークのワーク補正座標値を演算する、請求項に記載のロボットシステム。
  4. 前記平面方程式をax+by+cz+d=0とし、前記撮像部の座標値を(xv,yv,zv)とし、前記ワーク変換座標値を(xsf,ysf)とし、前記撮像部の焦点距離をZLとし、zv+ZLをzsfとし、前記ワーク補正座標値(xsc,ysc,zsc)は次の式によって演算される
    Figure 0006885856
    請求項に記載のロボットシステム。
  5. 前記撮像部は、前記テーブルの第3画像データを取得し、
    前記撮像制御部は、前記第3画像データに基づいて、前記テーブル上において前記撮像部の光軸から最遠部の第3カメラ座標値を取得し、
    前記ロボット制御部は、前記変換式により前記第3カメラ座標値を前記最遠部の最遠部変換座標値に変換し、
    前記ロボット制御部は、前記平面方程式および前記最遠部変換座標値に基づいて、前記撮像部の光軸の垂直面に対する前記テーブルの傾きによる座標値のずれを補正した前記最遠部の最遠部補正座標値を演算し、
    前記ロボット制御部は、前記最遠部変換座標値と前記最遠部補正座標値との差と、前記ロボットの位置決め精度と、を比較し、
    前記差が前記位置決め精度を超える場合、前記ロボット制御部は、前記平面方程式および前記ワーク変換座標値に基づいて、前記撮像部の光軸の垂直面に対する前記テーブルの傾きによる座標値のずれを補正した前記ワークのワーク補正座標値を演算し、前記ワーク補正座標値を前記ワークの座標値とし、
    前記差が前記位置決め精度の範囲内である場合、前記ロボット制御部は、前記ワーク変換座標値を前記ワークの座標値とする、請求項に記載のロボットシステム。
  6. 前記平面方程式をax+by+cz+d=0とし、前記撮像部の座標値を(xv,yv,zv)とし、前記ワーク変換座標値を(xsf,ysf)とし、前記撮像部の焦点距離をZLとし、zv+ZLをzsfとし、前記ワーク補正座標値(xsc,ysc,zsc)は次の式によって演算され、
    Figure 0006885856
    前記最遠部変換座標値を(xaf,yaf)とし、zv+ZLをzafとし、前記最遠部補正座標値(xac,yac,zac)は次の式によって演算される
    Figure 0006885856
    請求項に記載のロボットシステム。
  7. 前記複数のマーカは、3行3列に配置される、請求項1から請求項のいずれか一項に記載のロボットシステム。
  8. アームを有するロボットと、ワークを載置可能なテーブルを撮像する撮像部と、前記撮像部を制御する撮像制御部と、前記ロボットを制御するロボット制御部と、前記撮像部により撮像される画像内の座標系であるカメラ座標系の座標値を、前記ロボットを基準とする座標系であるロボット座標系の座標値に変換する変換式を記憶する記憶部とを備えるロボットシステムにおけるキャリブレーション方法であって、
    前記アームの先端部に設けられるキャリブレーション治具を前記テーブル上の複数のマーカの上方に位置させたときに、前記ロボット座標系における前記複数のマーカの第1ロボット座標値を前記ロボット制御部で取得するとともに、前記キャリブレーション治具を前記複数のマーカに接触させたときに、2次元平面である前記ロボット座標系に垂直な方向における前記複数のマーカの高さを示す鉛直ロボット座標値を前記ロボット制御部で取得し、
    前記複数のマーカの第1画像データを前記撮像部で取得し、
    前記第1画像データに基づいて、前記カメラ座標系における前記複数のマーカの第1カメラ座標値を前記撮像制御部で取得し、
    前記撮像制御部および前記ロボット制御部から前記第1カメラ座標値および前記第1ロボット座標値を取得し該第1カメラ座標値および該第1ロボット座標値に基づいて前記変換式を導出する演算部により導出された該変換式を前記記憶部で記憶することを具備し、
    前記第1ロボット座標値および前記鉛直ロボット座標値に基づいて前記テーブルの平面方程式を前記ロボット制御部で演算する、ことをさらに具備するキャリブレーション方法。
JP2017227929A 2017-11-28 2017-11-28 ロボットシステムおよびキャリブレーション方法 Active JP6885856B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017227929A JP6885856B2 (ja) 2017-11-28 2017-11-28 ロボットシステムおよびキャリブレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227929A JP6885856B2 (ja) 2017-11-28 2017-11-28 ロボットシステムおよびキャリブレーション方法

Publications (2)

Publication Number Publication Date
JP2019098409A JP2019098409A (ja) 2019-06-24
JP6885856B2 true JP6885856B2 (ja) 2021-06-16

Family

ID=66975143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227929A Active JP6885856B2 (ja) 2017-11-28 2017-11-28 ロボットシステムおよびキャリブレーション方法

Country Status (1)

Country Link
JP (1) JP6885856B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021060228A1 (ja) * 2019-09-27 2021-04-01
CN114450130A (zh) * 2019-09-27 2022-05-06 日本电产株式会社 高度校正系统
CN111145272A (zh) * 2020-01-13 2020-05-12 苏州沃特维自动化系统有限公司 一种机械手与相机手眼标定装置和方法
CN114500828B (zh) * 2021-12-24 2023-10-13 珠海博杰电子股份有限公司 一种基于位置锁存的点胶机Mark点高精度飞拍定位方法
CN114543669B (zh) * 2022-01-27 2023-08-01 珠海亿智电子科技有限公司 机械臂校准方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60252914A (ja) * 1984-05-30 1985-12-13 Fanuc Ltd 視覚センサ座標情報とロボツト基準座標情報の換算方式
JPH01109202A (ja) * 1987-10-22 1989-04-26 Fanuc Ltd 視差補正付視覚センサ
JPH0392712A (ja) * 1989-09-05 1991-04-17 Fanuc Ltd 画像処理装置と測距センサによる物体の3次元位置認識方法
US5321353A (en) * 1992-05-13 1994-06-14 Storage Technolgy Corporation System and method for precisely positioning a robotic tool
JP3671694B2 (ja) * 1998-09-18 2005-07-13 株式会社デンソー ロボットのティーチング方法およびその装置
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
JP5272617B2 (ja) * 2008-09-26 2013-08-28 株式会社Ihi ロボット装置及びロボット装置の制御方法
CN102294695A (zh) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 机器人标定方法及标定系统
JP5618770B2 (ja) * 2010-11-09 2014-11-05 三菱電機株式会社 ロボットの校正装置および校正方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
JP6565175B2 (ja) * 2014-11-21 2019-08-28 セイコーエプソン株式会社 ロボットおよびロボットシステム

Also Published As

Publication number Publication date
JP2019098409A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6427972B2 (ja) ロボット、ロボットシステム及び制御装置
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP5523392B2 (ja) キャリブレーション装置及びキャリブレーション方法
JP6565175B2 (ja) ロボットおよびロボットシステム
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2016165778A (ja) ステージ機構
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
WO2021019627A1 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2021145280A1 (ja) ロボットシステム
JP6253847B1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200729

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210513

R150 Certificate of patent or registration of utility model

Ref document number: 6885856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150