JPWO2020121396A1 - ロボットキャリブレーションシステム及びロボットキャリブレーション方法 - Google Patents

ロボットキャリブレーションシステム及びロボットキャリブレーション方法 Download PDF

Info

Publication number
JPWO2020121396A1
JPWO2020121396A1 JP2020558830A JP2020558830A JPWO2020121396A1 JP WO2020121396 A1 JPWO2020121396 A1 JP WO2020121396A1 JP 2020558830 A JP2020558830 A JP 2020558830A JP 2020558830 A JP2020558830 A JP 2020558830A JP WO2020121396 A1 JPWO2020121396 A1 JP WO2020121396A1
Authority
JP
Japan
Prior art keywords
coordinate system
camera
coordinate
robot
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558830A
Other languages
English (en)
Other versions
JP7153085B2 (ja
Inventor
信夫 大石
信夫 大石
岡本 実幸
実幸 岡本
正樹 櫻井
正樹 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2020121396A1 publication Critical patent/JPWO2020121396A1/ja
Application granted granted Critical
Publication of JP7153085B2 publication Critical patent/JP7153085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

ロボット(11)のアームに取り付けられたハンドカメラ(40)と、ロボットのアーム可動領域よりも高い場所に下向きに固定され固定カメラ(51)と、固定カメラのビジョン座標系の座標値をロボットの座標系である世界座標系の座標値に変換するための座標変換パラメータを算出する座標変換パラメータ算出部(45)と、所定位置に配置したキャリブレーション治具(55)とを備える。座標変換パラメータは、固定カメラのビジョン座標系の原点を補正する原点補正パラメータと、固定カメラのビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含み、ハンドカメラのビジョン座標系でのキャリブレーション治具の位置及び傾き角度に関する情報と固定カメラのビジョン座標系でのキャリブレーション治具の位置及び傾き角度に関する情報との関係に基づいて原点補正パラメータ及び座標軸傾き補正パラメータを算出する。

Description

本明細書は、作業エリアに供給されたワークを上方から固定カメラで撮像して当該ワークの位置を認識して作業するロボットの座標系と固定カメラの座標系との対応関係をキャリブレーション(校正)するロボットキャリブレーションシステム及びロボットキャリブレーション方法に関する技術を開示したものである。
近年、特許文献1(特開2013−215866号公報)に記載されているように、ロボットのアーム可動領域の上方に固定カメラを下向きに固定し、アーム可動領域に供給されたワークを固定カメラで撮像して当該ワークの位置を認識しながらロボットのアームの動作を制御するロボット制御システムにおいて、固定カメラの座標系とロボットの座標系との関係をキャリブレーションするキャリブレーターを備えたものがある。この特許文献1のキャリブレーション方法は、ロボットのアームにマークを付して、固定カメラの視野内にロボットのアームに付されたマークを収めて撮像して当該マークの位置を固定カメラの座標系で認識することで、固定カメラの座標系とロボットの座標系との対応関係をキャリブレーションするようにしている。
特開2013−215866号公報
ところで、キャリブレーションの精度を高めるには、固定カメラの座標系の座標軸(X軸とY軸)の方向をロボットの座標系の座標軸(X軸とY軸)の方向と正確に一致させる必要がある。しかし、実際には、ロボットのアーム可動領域の上方の固定構造物(ロボット防護柵の天井等)に固定カメラを取り付けるときの取付誤差によって固定カメラの座標系の座標軸の方向とロボットの座標系の座標軸の方向との間に多少のずれが生じることは避けられない。
上記特許文献1のキャリブレーション方法では、ロボットのアームにマークを付して、固定カメラの視野内にロボットのアームに付されたマークを収めて撮像して当該マークの位置を固定カメラの座標系で認識することで、ロボットの座標系の原点に対する固定カメラの座標系の原点のずれ量とずれ方向を計測できるため、ロボットの座標系の原点に対する固定カメラの座標系の原点のずれを補正できる。しかし、ロボットのアームに付されたマークを固定カメラで撮像するだけでは、ロボットの座標系の座標軸に対する固定カメラの座標系の座標軸の傾き角度を計測することはできない。このため、取付誤差等によって生じる固定カメラの座標系の座標軸の傾きを補正することはできず、その座標軸の傾きによってキャリブレーションの精度が低下するという欠点がある。
上記課題を解決するために、作業エリアに供給されたワークに対して所定の作業を行うロボットと、前記ロボットのアームに取り付けられたハンドカメラと、前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で認識し、前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で認識する画像処理部と、前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換するための座標変換パラメータを算出する座標変換パラメータ算出部と、前記座標変換パラメータを用いて前記固定カメラのビジョン座標系の座標値を前記世界座標系の座標値に変換する座標変換部と、前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部と、前記固定カメラの視野内に収まる所定位置に配置されたキャリブレーション治具とを備え、前記座標変換パラメータは、前記固定カメラのビジョン座標系の原点を補正する原点補正パラメータと、前記固定カメラのビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含み、前記座標変換パラメータ算出部が前記座標変換パラメータを算出する際に、前記制御部は、前記ハンドカメラの視野内に前記キャリブレーション治具が収まるように前記ロボットのアームの動作を制御して前記ハンドカメラを移動させ、前記画像処理部は、前記ハンドカメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を前記ハンドカメラのビジョン座標系で認識すると共に、前記固定カメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を前記固定カメラのビジョン座標系で認識し、前記座標変換パラメータ算出部は、前記画像処理部が認識した前記ハンドカメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報と前記固定カメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報との関係に基づいて前記原点補正パラメータ及び前記座標軸傾き補正パラメータを算出するようにしたものである。
このように、所定位置に配置されたキャリブレーション治具を固定カメラとハンドカメラの両方で撮像して、画像処理により各々のビジョン座標系でキャリブレーション治具の位置及び傾き角度に関する情報を認識するようにすれば、両座標系のキャリブレーション治具の位置関係に基づいて原点補正パラメータを算出できると共に、両座標系のキャリブレーション治具の傾き角度の関係に基づいて座標軸傾き補正パラメータを算出することができる。これにより、ロボットの座標系である世界座標系の座標軸に対して固定カメラのビジョン座標系の座標軸が傾いていたとしても、そのビジョン座標系の座標軸の傾きと原点のずれを座標軸傾き補正パラメータと原点補正パラメータで精度良く補正して、固定カメラのビジョン座標系の座標値を世界座標系の座標値に精度良く変換することができる。
図1はロボット制御システムの外観を示す正面図である。 図2はロボット制御システムの電気的構成を示すブロック図である。 図3はキャリブレーション治具の平面図である。 図4はキャリブレーション実行プログラムの前半部の処理の流れを示すフローチャートである。 図5はキャリブレーション実行プログラムの後半部の処理の流れを示すフローチャートである。
以下、本明細書に開示した一実施例を図面を用いて説明する。
まず、図1に基づいてロボット11の構成を説明する。
ロボット11は、例えば5軸垂直多関節ロボットであり、工場フロア12に設置された固定ベース13と、この固定ベース13上に第1関節軸14(J1)を中心に回転可能に設けられた第1アーム15と、この第1アーム15の先端に第2関節軸16(J2)によって旋回可能に設けられた第2アーム17と、この第2アーム17の先端に第3関節軸18(J3)によって旋回可能に設けられた第3アーム19と、この第3アーム19の先端に第4関節軸20(J4)によって旋回可能に設けられた手首部21と、この手首部21に第5関節軸22(J5)を中心に回転可能且つ交換可能に取り付けられたエンドエフェクタ23とから構成されている。これにより、手首部21に取り付けたエンドエフェクタ23は、その手首部21の関節軸である第4関節軸20によって旋回動作するようになっている。
この場合、エンドエフェクタ23は、例えば、吸着ノズル、ハンド、グリッパ、溶接機等のいずれであっても良い。ロボット11の第1〜第5の各関節軸14,16,18,20,22は、それぞれサーボモータ25〜29(図2参照)により駆動されるようになっている。図2に示すように、各サーボモータ25〜29には、それぞれ回転角を検出するエンコーダ31〜35が設けられ、各エンコーダ31〜35で検出した回転角の情報がサーボアンプ36を経由して制御部37にフィードバックされる。これにより、制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角が各々の目標回転角と一致するようにサーボアンプ36を介して各サーボモータ25〜29をフィードバック制御することで、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を各々の目標位置にフィードバック制御する。
図2の構成例では、サーボアンプ36は、複数のサーボモータ25〜29をフィードバック制御する多軸アンプであるが、サーボモータ25〜29を1台ずつ別々のサーボアンプでフィードバック制御するようにしても良い。
ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の所定位置には、作業対象となるワーク(図示せず)を一定の高さ位置の作業エリア38に供給する供給装置39が設置されている。この供給装置39は、コンベアで構成したものであっても良いし、振動式パーツフィーダ等、どの様な構成のパーツフィーダを用いても良く、要は、作業エリア38の高さ位置が既知の一定の高さ位置であれば良い。
図1に示すように、ロボット11のアーム先端部である手首部21には、作業エリア38に供給されたワーク又は所定位置に配置されたキャリブレーション治具55を上方から撮像するハンドカメラ40が取り付けられている。このハンドカメラ40は、2次元の画像を撮像する2次元のカメラであり、光軸が第5関節軸22と平行で、且つ、ハンドカメラ40のレンズ41が第5関節軸22の先端側(アーム先端側)に位置するように固定されている。
更に、ロボット11のアーム可動領域よりも高い場所に設置された固定構造物50(例えばロボット防護柵の天井)の所定位置には、固定カメラ51が下向きに固定され、そのレンズ52側が下方に向けられている。この固定カメラ51は、作業エリア38に供給されたワーク又は所定位置に配置されたキャリブレーション治具55を上方から撮像する2次元のカメラとして使用される。
図3に示すように、キャリブレーション治具55は、樹脂板、ガラス板、金属板等により四角形の板状に形成され、その上面に小さな円形のキャリブレーションマーク56が所定ピッチでマトリックス状(格子点状)に形成されている。
後述するように、固定カメラ51のビジョン座標系の座標値をロボット11のアーム位置を制御する座標系である世界座標系の座標値に変換するための座標変換パラメータを算出する場合には、所定位置に配置されたキャリブレーション治具55を固定カメラ51とハンドカメラ40の両方で順番に撮像するが、作業エリア38に供給されたワークを撮像する場合には、要求される分解能やロボット11のアーム可動領域内における作業エリア38の位置等によってハンドカメラ40と固定カメラ51とを使い分けるようにしている。ここで、固定カメラ51の視野やハンドカメラ40の視野は、ロボット11のアーム可動領域よりも狭い。ハンドカメラ40と固定カメラ51とを比較すると、視野は固定カメラ51の方が広いが、分解能(1ピクセル当たりの撮像対象の実際の長さ)はハンドカメラ40の方が細かく、高精度の画像処理が可能である。従って、例えば、作業エリア38上のワークのサイズが小さくて細かい分解能が要求される場合には、ハンドカメラ40を使用し、また、固定カメラ51の視野から外れた位置に設置された作業エリア38についてはハンドカメラ40を使用するようにすれば良い。また、固定カメラ51の視野内に複数の作業エリア38が収まる場合には、固定カメラ51の視野内に複数の作業エリア38を収めて撮像すれば、複数の作業エリア38上のワークの画像処理を能率良く行うことかできる。或は、複数の作業エリア38が存在する場合に、作業エリア38毎にハンドカメラ40を移動させてワークを撮像するようにしても良い。
以上のように構成したロボット11の動作を制御するロボット制御ユニット42は、図2に示すように、画像処理部43、座標変換パラメータ算出部45、座標変換部44、制御部37及びサーボアンプ36等を備えた構成となっている。画像処理部43は、ハンドカメラ40又は固定カメラ51で撮像した2次元の画像を処理して作業エリア38上のワークの位置、或はキャリブレーション治具55の特定のキャリブレーションマーク56の位置を当該画像の基準点(例えば画像の中心)を原点とする2次元の直交座標系(以下「ビジョン座標系」という)の座標値で認識する。このビジョン座標系の座標軸は、画像上で直交するXv 軸とYv 軸である。作業エリア38上のワーク又はキャリブレーション治具55をハンドカメラ40で撮像する際には、ハンドカメラ40の光軸を鉛直下向きに向けて撮像するため、ハンドカメラ40で撮像した画像は、固定カメラ51で撮像した画像と同様に、水平面を撮像した画像となり、ビジョン座標系のXv 軸とYv 軸は水平面上の直交座標軸となる。画像処理部43は、画像処理によってワークの位置又はキャリブレーション治具55の特定のキャリブレーションマーク56の位置をビジョン座標系のピクセル単位の座標値で認識する。
一方、座標変換部44は、ロボット11の稼働中には、画像処理部43の画像処理でワークの位置として認識した2次元のビジョン座標系の座標値を、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を制御するための世界座標系の座標値に変換する。この世界座標系は、基準点を原点とする3次元の直交座標系であり、世界座標系の座標軸は、水平面上の直交座標軸(X軸とY軸)と鉛直上向きの座標軸(Z軸)である。この世界座標系の座標値の単位は、長さの単位(例えばμm単位)である。この世界座標系の原点(基準点)は、例えば、ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の中心である。
この場合、座標変換部44は、ロボット11の稼働中に固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、座標変換パラメータ算出部45で算出した座標変換パラメータを用いて固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する。ここで、座標変換パラメータは、固定カメラ51のビジョン座標系の原点を補正する原点補正パラメータと、固定カメラ51のビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含む。この固定カメラ51の原点補正パラメータと座標軸傾き補正パラメータの算出方法については後述する。
一方、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、世界座標系の座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点を補正することによって、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する。この補正は、それぞれの座標軸の傾き角度Rzを示す回転行列とビジョン座標原点の世界座標系上の位置(X1w,Y1w)への並進ベクトルとを求めることによって、ハンドカメラ40のビジョン座標系の座標値(Xav,Yav)を次式で補正して世界座標系の座標値(Xw',Yw')に変換することができる。
Figure 2020121396
上式により、座標変換を行うためには、ハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点の座標値を測定する必要がある。
ハンドカメラ40はロボット11の手首部21に固定されているため、ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定に維持される。従って、世界座標系のXY座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzは、次式により算出される。
Rz=[ハンドカメラ40の設置角度]+[第1関節軸14の回転角度]
ここで、ハンドカメラ40の設置角度は、ロボット11の手首部21に対するハンドカメラ40の設置角度であり、ハンドカメラ40をロボット11の手首部21に設置したときに手首部21に対するハンドカメラ40の設置角度を測定してロボット制御ユニット42の不揮発性メモリ(図示せず)に保存しておいた値を参照する。
第1関節軸14の回転角度の検出方法については、ロボット11のアーム位置(ハンドカメラ40の位置)が撮像位置で停止しているときの第1関節軸14のサーボモータ25のエンコーダ31の出力値をロボット制御ユニット42の制御部37がリアルタイムで取得して、第1関節軸14の回転角度を算出するようにしている。
一方、ハンドカメラ40のビジョン座標系の原点の座標値は、ロボット制御ユニット42の制御部37がハンドカメラ40の撮像位置に指定した世界座標系の座標値と一致するようにロボット11へのハンドカメラ40組付け時にキャリブレーション済の状態にしておく。ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定の為、ロボット11の基準点とハンドカメラ40の光軸中心の距離を測定し、これを補正値として制御部37からの座標指令値に反映する事によって、ロボット11に世界座標系上の位置(X1w 、Y1w )を指示すると、ハンドカメラ40のビジョン座標系の原点が世界座標系上の位置(X1w 、Y1w )に移動する様に制御される。
ロボット制御ユニット42の制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角とハンドカメラ40と手首部21(エンドエフェクタ23)との相対的位置関係に基づいてリアルタイムでハンドカメラ40のビジョン座標系の原点の座標値(X1w,Y1w)を算出するようにしている。
ロボット制御ユニット42の制御部37は、ロボット11の稼働中に座標変換部44で3次元の世界座標系の座標値に変換したワークの位置に基づいてロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の目標位置を世界座標系の座標値で設定して、当該アーム15,17,19と手首部21とエンドエフェクタ23の位置を世界座標系の座標値で制御する。
次に、固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する際に使用する原点補正パラメータと座標軸傾き補正パラメータと分解能の算出処理について説明する。この原点補正パラメータと座標軸傾き補正パラメータと分解能の算出処理は、ロボット11の設置作業完了時にロボット制御ユニット42によって図4及び図5のキャリブレーション実行プログラムに従って自動的に実行される。
本プログラムが起動されると、まず、ステップ101で、ハンドカメラ40が固定カメラ51の視野から外れる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を退避させる。この後、ステップ102に進み、作業者がキャリブレーション治具55を固定カメラ51の視野中央に位置する作業エリア38の所定位置にセットするように作業者に指示する案内を表示及び/又は音声で作業者に知らせる。この案内により、作業者はキャリブレーション治具55を作業エリア38の所定位置にセットする作業を行うことになる。
次のステップ103で、ロボット制御ユニット42は、作業者がキャリブレーション治具55を作業エリア38の所定位置にセットする作業を完了するまで待機する。このキャリブレーション治具55のセット作業の完了の判定は、センサ等で自動検知するようにしても良いし、セット作業の完了時に作業者がセット作業完了の情報を手動操作でロボット制御ユニット42に入力するようにしても良い。
その後、キャリブレーション治具55のセット作業が完了した時点で、ステップ104に進み、固定カメラ51でキャリブレーション治具55を撮像し、次のステップ105で、固定カメラ51で撮像した画像を処理して、キャリブレーション治具55の1箇所の特定点である中央のキャリブレーションマーク56(A)の位置を固定カメラ51のビジョン座標系の座標値で認識すると共に、2箇所の特定点である2箇所のコーナー部分のキャリブレーションマーク56(B,C)の位置を固定カメラ51のビジョン座標系の座標値で認識する。更に、固定カメラ51のビジョン座標系での2箇所のコーナー部分のキャリブレーションマーク56(B,C)を結ぶ直線の傾き角度を算出する。更に、キャリブレーション治具55の中央付近の2箇所のキャリブレーションマーク56(A,D)の位置を固定カメラ51のビジョン座標系の座標値で認識し、当該2箇所のキャリブレーションマーク56(A,D)の位置間の実際の長さ寸法を画像上の当該位置間のピクセル数で割り算して固定カメラ51の分解能を算出する。
この後、図5のステップ106に進み、ハンドカメラ40の視野内にキャリブレーション治具55が収まるようにロボット11のアーム位置を制御して、ハンドカメラ40をキャリブレーション治具55の1箇所の特定点である中央のキャリブレーションマーク56(A)の上方の所定位置へ移動させる。この後、ステップ107に進み、ハンドカメラ40でキャリブレーション治具55を撮像し、次のステップ108で、ハンドカメラ40で撮像した画像を処理して、キャリブレーション治具55の中央のキャリブレーションマーク56(A)の位置をハンドカメラ40のビジョン座標系の座標値で認識する。
この後、ステップ109に進み、ハンドカメラ40をキャリブレーション治具55の一方のコーナー部分のキャリブレーションマーク56(B)の上方へ移動させた後、ステップ110に進み、ハンドカメラ40でキャリブレーション治具55を撮像し、次のステップ111で、ハンドカメラ40で撮像した画像を処理して、キャリブレーション治具55の一方のコーナー部分のキャリブレーションマーク56(B)の位置をハンドカメラ40のビジョン座標系の座標値で認識する。
この後、ステップ112に進み、ハンドカメラ40をキャリブレーション治具55の他方のコーナー部分のキャリブレーションマーク56(C)の上方へ移動させた後、ステップ113に進み、ハンドカメラ40でキャリブレーション治具55を撮像し、次のステップ114で、ハンドカメラ40で撮像した画像を処理して、キャリブレーション治具55の他方のコーナー部分のキャリブレーションマーク56(C)の位置をハンドカメラ40のビジョン座標系の座標値で認識する。
この後、ステップ115に進み、固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換するための原点補正パラメータと座標軸傾き補正パラメータを次のようにして算出する。
原点補正パラメータを算出する場合には、固定カメラ51の撮像画像を処理して認識したキャリブレーション治具55の中央のキャリブレーションマーク56(A)の位置の座標値と、ハンドカメラ40の撮像画像を処理して認識したキャリブレーション治具55の中央のキャリブレーションマーク56(A)の位置の座標値との差分値(ΔX,ΔY)を原点補正パラメータとして算出する。
座標軸傾き補正パラメータを算出する場合には、ハンドカメラ40の撮像画像を処理して認識したキャリブレーション治具55の2箇所のコーナー部分のキャリブレーションマーク56(B,C)を結ぶ直線の傾き角度を算出し、前記ステップ105で算出した固定カメラ51のビジョン座標系での2箇所のコーナー部分のキャリブレーションマーク56(B,C)を結ぶ直線の傾き角度と、ハンドカメラ40のビジョン座標系での2箇所のコーナー部分のキャリブレーションマーク56(B,C)を結ぶ直線の傾き角度との差分値を座標軸傾き補正パラメータとして算出する。
ところで、固定カメラ51のビジョン座標系では、認識対象の座標値をピクセル単位で認識するのに対して、世界座標系の座標値の単位は、長さの単位(例えば[μm]の単位)である。このため、固定カメラ51のビジョン座標系のピクセル単位の座標値を世界座標系の座標値と同じ長さの単位(例えば[μm]の単位)の座標値に変換する必要がある。
そこで、前記ステップ105で算出した固定カメラ51の分解能[μm/ピクセル]を固定カメラ51のビジョン座標系のピクセル単位の座標値に乗算することで、固定カメラ51のビジョン座標系のピクセル単位の座標値を世界座標系の座標値と同じ長さの単位(例えば[μm]の単位)の座標値に変換する。
図4及び図5のキャリブレーション実行プログラムの終了後は、作業エリア38の所定位置にセットされているキャリブレーション治具55を作業者が取り出せば、キャリブレーション作業は終了する。
尚、図4及び図5のキャリブレーション実行プログラムでは、キャリブレーション治具55の中央のキャリブレーションマーク56(A)を原点補正用の1箇所の特定点としたが、これ以外の位置の1箇所のキャリブレーションマーク56を原点補正用の1箇所の特定点としても良く、要は、画像処理によりキャリブレーション治具55の位置に関する情報を取得できるようにすれば良い。
また、図4及び図5のキャリブレーション実行プログラムでは、キャリブレーション治具55の2箇所のコーナー部分のキャリブレーションマーク56(B,C)を座標軸傾き補正用の2箇所の特定点としたが、これ以外の位置の2箇所のキャリブレーションマーク56を座標軸傾き補正用の2箇所の特定点としても良く、要は、2箇所の特定点を結ぶ直線の傾き角度をキャリブレーション治具55の傾き角度に関する情報として取得できるようにすれば良い。或は、キャリブレーション治具55の上面に直線を形成して、画像処理によりこの直線の傾き角度を計測するようにしても良い。或は、キャリブレーション治具55の一辺のエッジを画像処理により認識してキャリブレーション治具55の傾き角度を計測するようにしても良い。要は、画像処理によりキャリブレーション治具55の傾き角度に関する角度情報を取得できるようにすれば良い。
また、図4及び図5のキャリブレーション実行プログラムでは、先に固定カメラ51の撮像・画像処理(ステップ104〜105)を行った後に、ハンドカメラ40の撮像・画像処理(ステップ106〜114)を行うようにしたので、ステップ106、109、112で移動するキャリブレーションマーク(A)(B)(C)の世界座標系の座標値は、ステップ105での固定カメラの画像処理で認識済なため、この世界座標系の座標値を制御部37から自動的に指示される。つまり、キャリブレーション冶具55の配置位置によって前記キャリブレーションマーク(A)(B)(C)の世界座標系の座標値を作業者が指示し直す必要がないように配慮されている。
以上説明した図4及び図5のキャリブレーション実行プログラムは、ロボット11の設置作業完了時にロボット制御ユニット42によって実行されるが、ロボット11の作業ミスの発生頻度が増加した場合等、再度のキャリブレーションが必要と判断される状況になったときに、ロボット制御ユニット42が図4及び図5のキャリブレーション実行プログラムを再実行して各補正パラメータを再計測したり、或は、ロボット11の点検・修理時や異常停止時(エラー停止時)、又は、ロボット11の積算運転時間、積算運転日数、エラー発生回数(エラー発生率)等が所定値に達する毎に、ロボット制御ユニット42が図4及び図5のキャリブレーション実行プログラムを再実行して各補正パラメータを再計測するようにしても良い。
この場合、各補正パラメータを再計測する毎に、その計測値で各補正パラメータを更新するようにしても良いし、或は、ロボット11の設置作業完了時に計測した各補正パラメータをロボット制御ユニット42の不揮発性メモリに記憶しておき、各補正パラメータの再計測時に、再計測した各補正パラメータを不揮発性メモリの記憶値と比較して、両者の差が所定のしきい値を超えたときに、各補正パラメータを再計測値に更新するようにしても良い。
いずれの場合でも、例えば、固定カメラ51とロボット11との相対的位置・角度関係が経時的に変化したり、固定カメラ51の設置角度が経時的に変化したり、固定カメラ51と作業エリア38(キャリブレーション治具のセット位置)との相対的位置・角度関係が経時的に変化したりして、再度のキャリブレーションが必要となったときに、各補正パラメータを再計測して各補正パラメータを適正な値に修正することができる。
以上説明した本実施例によれば、所定位置に配置されたキャリブレーション治具55を固定カメラ51とハンドカメラ40の両方で撮像して、画像処理により各々のビジョン座標系でキャリブレーション治具55の位置及び傾き角度に関する情報を認識するようにしたので、両座標系のキャリブレーション治具55の位置関係に基づいて原点補正パラメータを算出できると共に、両座標系のキャリブレーション治具55の傾き角度の関係に基づいて座標軸傾き補正パラメータを算出することができる。これにより、ロボット11の座標系である世界座標系の座標軸に対して固定カメラ51のビジョン座標系の座標軸が傾いていたとしても、そのビジョン座標系の座標軸の傾きと原点のずれを座標軸傾き補正パラメータと原点補正パラメータで精度良く補正して、固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に精度良く変換することができる。
尚、本実施例では、キャリブレーション治具55の上面に配列したキャリブレーションマーク56の形状を円形としたが、四角形等、他の形状であっても良い。
その他、本発明は、ロボット11の構成を適宜変更しても良い等、要旨を逸脱しない範囲内で種々変更して実施できることは言うまでもない。
11…ロボット、14…第1関節軸、15…第1アーム、16…第2関節軸、17…第2アーム、18…第3関節軸、19…第3アーム、20…第4関節軸、21…手首部(アーム先端部)、22…第5関節軸、23…エンドエフェクタ、25〜29…サーボモータ、31〜35…エンコーダ、36…サーボアンプ、37…制御部、38…作業エリア、39…供給装置、40…ハンドカメラ、41…レンズ、42…ロボット制御ユニット、43…画像処理部、44…座標変換部、45…座標変換パラメータ算出部、50…固定構造物、51…固定カメラ、52…レンズ、55…キャリブレーション治具、56…キャリブレーションマーク

Claims (5)

  1. 作業エリアに供給されたワークに対して所定の作業を行うロボットと、
    前記ロボットのアームに取り付けられたハンドカメラと、
    前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、
    前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で認識し、前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で認識する画像処理部と、
    前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換するための座標変換パラメータを算出する座標変換パラメータ算出部と、
    前記座標変換パラメータを用いて前記固定カメラのビジョン座標系の座標値を前記世界座標系の座標値に変換する座標変換部と、
    前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部と、
    前記固定カメラの視野内に収まる所定位置に配置されたキャリブレーション治具とを備え、
    前記座標変換パラメータは、前記固定カメラのビジョン座標系の原点を補正する原点補正パラメータと、前記固定カメラのビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含み、
    前記座標変換パラメータ算出部が前記座標変換パラメータを算出する際に、前記制御部は、前記ハンドカメラの視野内に前記キャリブレーション治具が収まるように前記ロボットのアームの動作を制御して前記ハンドカメラを移動させ、前記画像処理部は、前記ハンドカメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を前記ハンドカメラのビジョン座標系で認識すると共に、前記固定カメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を前記固定カメラのビジョン座標系で認識し、
    前記座標変換パラメータ算出部は、前記画像処理部が認識した前記ハンドカメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報と前記固定カメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報との関係に基づいて前記原点補正パラメータ及び前記座標軸傾き補正パラメータを算出する、ロボットキャリブレーションシステム。
  2. 前記座標変換パラメータ算出部が前記原点補正パラメータを算出する際に、前記制御部は、前記ハンドカメラの視野内に前記キャリブレーション治具が収まるように前記ロボットのアームの動作を制御して前記ハンドカメラを移動させ、前記画像処理部は、前記ハンドカメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の1つの特定点の位置を前記キャリブレーション治具の位置に関する情報として前記ハンドカメラのビジョン座標系の座標値で認識すると共に、前記固定カメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の前記1つの特定点の位置を前記キャリブレーション治具の位置に関する情報として前記固定カメラのビジョン座標系の座標値で認識し、
    前記座標変換パラメータ算出部は、前記画像処理部が認識した前記ハンドカメラのビジョン座標系での前記1つの特定点の位置の座標値と前記固定カメラのビジョン座標系での前記1つの特定点の位置の座標値との位置関係に基づいて前記原点補正パラメータを算出する、請求項1に記載のロボットキャリブレーションシステム。
  3. 前記座標変換パラメータ算出部が前記座標軸傾き補正パラメータを算出する際に、前記制御部は、前記ハンドカメラの視野内に前記キャリブレーション治具が収まるように前記ロボットのアームの動作を制御して前記ハンドカメラを移動させ、前記画像処理部は、前記ハンドカメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の2箇所の特定点の位置を前記ハンドカメラのビジョン座標系の座標値で認識すると共に、前記固定カメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の前記2箇所の特定点の位置を前記固定カメラのビジョン座標系の座標値で認識し、
    前記座標変換パラメータ算出部は、前記ハンドカメラのビジョン座標系での前記2箇所の特定点の位置の座標値に基づいて前記ハンドカメラのビジョン座標系での前記キャリブレーション治具の傾き角度を算出すると共に、前記固定カメラのビジョン座標系での前記2箇所の特定点の位置の座標値に基づいて前記固定カメラのビジョン座標系での前記キャリブレーション治具の傾き角度に関する情報を算出し、前記ハンドカメラのビジョン座標系と前記固定カメラのビジョン座標系で算出した2つの前記キャリブレーション治具の傾き角度に関する情報の差分値に基づいて前記座標軸傾き補正パラメータを算出する、請求項1又は2に記載のロボットキャリブレーションシステム。
  4. 前記キャリブレーション治具は、それを前記ハンドカメラと前記固定カメラで撮像する際に作業者が前記固定カメラの視野内の所定位置にセットし、撮像終了後に取り出す、請求項1乃至3のいずれかに記載のロボットキャリブレーションシステム。
  5. 作業エリアに供給されたワークに対して所定の作業を行うロボットと、
    前記ロボットのアームに取り付けられたハンドカメラと、
    前記ロボットのアーム動作範囲よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、
    前記ロボットのアームの動作を世界座標系の座標値で制御する制御部と、
    前記固定カメラの視野内に収まる所定位置に配置されたキャリブレーション治具とを備え、
    前記固定カメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)で認識する工程と、
    前記ハンドカメラの視野内に前記キャリブレーション治具が収まるように前記ロボットのアームの動作を制御して前記ハンドカメラを移動させて、前記ハンドカメラで前記キャリブレーション治具を撮像した画像を処理して前記キャリブレーション治具の位置及び傾き角度に関する情報を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)で認識する工程と、
    前記固定カメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報と前記ハンドカメラのビジョン座標系での前記キャリブレーション治具の位置及び傾き角度に関する情報との関係に基づいて前記固定カメラのビジョン座標系の座標値を前記世界座標系の座標値に変換するための座標変換パラメータを算出する工程と
    を含む、ロボットキャリブレーション方法。
JP2020558830A 2018-12-11 2018-12-11 ロボットキャリブレーションシステム及びロボットキャリブレーション方法 Active JP7153085B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045423 WO2020121396A1 (ja) 2018-12-11 2018-12-11 ロボットキャリブレーションシステム及びロボットキャリブレーション方法

Publications (2)

Publication Number Publication Date
JPWO2020121396A1 true JPWO2020121396A1 (ja) 2021-09-02
JP7153085B2 JP7153085B2 (ja) 2022-10-13

Family

ID=71077156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558830A Active JP7153085B2 (ja) 2018-12-11 2018-12-11 ロボットキャリブレーションシステム及びロボットキャリブレーション方法

Country Status (2)

Country Link
JP (1) JP7153085B2 (ja)
WO (1) WO2020121396A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112208113B (zh) * 2020-08-13 2022-09-06 苏州赛米维尔智能装备有限公司 一种基于视觉引导的导热棉自动贴附装置及其贴附方法
CN112109374A (zh) * 2020-08-26 2020-12-22 合肥工业大学 一种基于计算机视觉系统定位及控制折弯模具装卸的方法
JP2022125537A (ja) * 2021-02-17 2022-08-29 セイコーエプソン株式会社 校正方法
CN113093650B (zh) * 2021-04-14 2023-08-11 曹智军 一种数控机床工件视觉定位的数据通讯方法
CN113276115A (zh) * 2021-05-21 2021-08-20 南京航空航天大学 一种无需机器人运动的手眼标定方法及装置
CN113601158B (zh) * 2021-08-23 2023-06-02 深圳职业技术学院 基于视觉定位的螺栓上料预拧紧系统及控制方法
CN113843797B (zh) * 2021-10-08 2023-08-01 北京工业大学 一种基于单双目混合视觉的非结构环境下零件六角螺栓自动拆卸方法
CN113753530B (zh) * 2021-10-12 2024-04-12 华南农业大学 一种机器视觉茶枝柑姿态识别和自动调整装置
CN113635311B (zh) * 2021-10-18 2021-12-31 杭州灵西机器人智能科技有限公司 固定标定板的眼在手外标定方法和系统
CN114872038B (zh) * 2022-04-13 2023-12-01 欣旺达电子股份有限公司 微针扣合视觉自校准系统及其校准方法
CN114830911B (zh) * 2022-05-19 2023-08-01 苏州大学 智能除草方法、装置和存储介质
CN116277035B (zh) * 2023-05-15 2023-09-12 北京壹点灵动科技有限公司 机器人的控制方法、装置、处理器及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01305303A (ja) * 1988-06-03 1989-12-08 Yamatake Honeywell Co Ltd 視覚計測方法及び装置
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
US9193073B1 (en) * 2014-10-15 2015-11-24 Quanta Storage Inc. Robot calibration apparatus for calibrating a robot arm
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2017100240A (ja) * 2015-12-01 2017-06-08 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01305303A (ja) * 1988-06-03 1989-12-08 Yamatake Honeywell Co Ltd 視覚計測方法及び装置
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
US9193073B1 (en) * 2014-10-15 2015-11-24 Quanta Storage Inc. Robot calibration apparatus for calibrating a robot arm
JP2017100240A (ja) * 2015-12-01 2017-06-08 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Also Published As

Publication number Publication date
WO2020121396A1 (ja) 2020-06-18
JP7153085B2 (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
JP7153085B2 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
US9002516B2 (en) Calibration method for tool center point of a robot manipulator
US11267142B2 (en) Imaging device including vision sensor capturing image of workpiece
JP5561260B2 (ja) ロボットシステム及び撮像方法
US11964396B2 (en) Device and method for acquiring deviation amount of working position of tool
US20110029131A1 (en) Apparatus and method for measuring tool center point position of robot
JP6869159B2 (ja) ロボットシステム
JP7057841B2 (ja) ロボット制御システム及びロボット制御方法
JP7281910B2 (ja) ロボット制御システム
JP2007122705A (ja) 溶接教示位置補正システム及びキャリブレーション方法
TW201900316A (zh) 雷射加工裝置
US20110118876A1 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
JP2021013983A (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP7046226B2 (ja) 自動溶接システム、エレベーターかご室部品の製造方法、および自動溶接方法
WO2018173192A1 (ja) 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置
CN114571199B (zh) 一种锁螺丝机及螺丝定位方法
JPH09222913A (ja) ロボットの教示位置補正装置
CN113905859B (zh) 机器人控制系统及机器人控制方法
JP2000117466A (ja) Yagレーザ加工機のティーチング方法およびその装置
JP7510514B2 (ja) オフセット値設定方法およびロボット制御装置
JP7389237B2 (ja) 座標系設定システム及び位置姿勢計測システム
JP7576620B2 (ja) カメラの位置ずれ測定方法
JP2017074637A (ja) ツールセンターポイント推定方法、ツールセンターポイント推定装置
WO2020255410A1 (ja) ロボット制御システム及びロボット制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7153085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150