JP4020994B2 - Robot tool coordinate system correction setting method and end effector used in the method - Google Patents
Robot tool coordinate system correction setting method and end effector used in the method Download PDFInfo
- Publication number
- JP4020994B2 JP4020994B2 JP27135696A JP27135696A JP4020994B2 JP 4020994 B2 JP4020994 B2 JP 4020994B2 JP 27135696 A JP27135696 A JP 27135696A JP 27135696 A JP27135696 A JP 27135696A JP 4020994 B2 JP4020994 B2 JP 4020994B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- jig
- robot
- tool
- end effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、ハンド等のエンドエフェクタ(手先効果器)をツールとして取り付けたロボットにおけるツール座標系補正設定方法、並びに該方法に使用するエンドエフェクタに関する。本発明は、例えばロボットとエンドエフェクタの間に介在させるアダプタの交換等に伴って生じるエンドエフェクタの位置・姿勢ずれを補償するようにツール座標系を再設定する際に適用される。
【0002】
【従来の技術】
ロボットを各種作業に適用するに際しては、ロボットアーム先端のフェイスプレート(メカニカルインターフェイス)にハンド等のエンドエフェクタを取り付ることが通例である。そして、ロボットに所望の作業を実行させる為に、ロボットに、フェイスプレートに対するエンドエフェクタの位置・姿勢を表わすデータを与える必要がある。
【0003】
エンドエフェクタの位置・姿勢を代表する点は一般にツール先端点(TCP)と呼ばれており、このツール先端点を原点とするツール座標系を設定することで、ロボットにエンドエフェクタの位置・姿勢が教示される。一般に、ツール座標系の設定データは、フェイスプレート代表点(通常は中心点)を原点とするフェイスプレート座標系から見たツール座標系の相対的な位置・姿勢を記述する行列を表わすデータとしてロボットに与えられる。
【0004】
一旦ツール座標系の設定を行なった後、ロボットの干渉事故等の原因でエンドエフェクタのフェイスプレートに対する相対的な位置・姿勢に変化を生じることがある。特に、力センサのように破損し易いアダプタがフェイスプレートとエンドエフェクタの間に介在している場合、アダプタを交換する機会も多く、それに伴ってエンドエフェクタの位置・姿勢ずれが発生することが避けられない。
【0005】
このような事態に対する対処方法としては、次の3つが考えられる。
(1)エンドエフェクタの取付位置・姿勢を精密に調整し直し、元の(位置・姿勢ずれ発生前の)エンドエフェクタ位置・姿勢を正確に再現する。
(2)位置・姿勢ずれを起したエンドエフェクタをそのまま使えるように、教示をやり直す。
(3)エンドエフェクタの位置・姿勢ずれを補償するように、ツール座標系を補正設定(再設定)する。
【0006】
しかし、(1)の方法は調整作業自体に熟練と時間を要し、ユーザである作業者にかかる負担が大きい。特に、エンドエフェクタがハンドであった場合、ツール先端点は教示作業上の便宜を考えてハンドの複数の爪の間(空中の点)に設定されることも多く、元のエンドエフェクタ位置・姿勢を再現することは非常に難しくなる。
【0007】
また、(2)の方法も教示済みのプログラムが多い場合など、作業に要する時間が膨大となる。
(3)のタイプに属する技術としては、図1に示したような方法が知られている。この方法によれば、(a)ツール先端点(TCP)として設定を希望するツール(エンドエフェクタ)の特定点が、空間内の同一点P0 に一致するような3つの姿勢RB1〜RB3をロボットにとらせ、(b)各姿勢におけるロボットの現在位置データに基づいてツール先端点のフェイスプレートに対する相対位置を求め、更に、(c)ツール座標系の座標軸の方向を別途教示する手順が実行される。
【0008】
このような方法は、尖頭状のエンドエフェクタの先端にツール先端点を設定するというような単純なケースであれば比較的実行容易と考えられるが、エンドエフェクタがハンドであるような場合には、ロボットの3姿勢におけるツール先端点を同一点P0 に一致させることが困難になる。また、この方法では、ツール座標系の原点位置(ツール先端点位置)は取得出来るが、座標軸の方向を取得することが出来ないという問題点もある。
【0009】
【発明が解決しようとする課題】
そこで、本発明の目的は、これら従来技術の問題点を克服し、エンドエフェクタの形状やツール先端点の設定位置に左右されずに、簡単な作業で安定した補正精度を以てツール座標系を補正設定することが出来る方法を提供するとともに、本方法を実行するに適したエンドエフェクタを提供することにある。
【0010】
【課題を解決するための手段】
本発明のツール座標系補正設定方法は、ロボット手先部に支持されたエンドエフェクタにツール座標系を設定するとともに、ツール座標系と固定的な位置・姿勢関係にある治具座標系の原点位置と座標軸の方向を3次元視覚センサによる認識が可能な形態で表現する治具座標系表現手段を具備する治具を設け、ロボットの周辺に前記3次元視覚センサを配置し、ロボットのツール座標系を補正設定するものであり、次の諸段階を含んでいる。
【0011】
(a)ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、ツール座標系の設定時のそれから変化していない初期状態において、ロボットを前記3次元視覚センサによる前記治具座標系の位置・姿勢の検出が可能な治具座標系検出ロボット位置に位置決めする段階
(b)3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階(c)ロボット手先部に対するエンドエフェクタの位置・姿勢が、ツール座標系の設定時のそれから変化している可能性が生じた治具座標系再検出機会の到来時に、ロボットを治具座標系検出ロボット位置に位置決めする段階
(d)3次元視覚センサを用いて治具座標系の位置・姿勢を検出する段階
(e)上記(b)の段階及び(d)の段階で求められた治具座標系の位置・姿勢に基づいて、それまで設定されていたツール座標系を再設定する段階
エンドエフェクタは例えばハンドであり、力センサなどのアダプタを介してロボット手先部に支持されていても良い。典型的な実施形態においては、3次元視覚センサはスリット光投光手段と撮影手段と画像処理手段を備えた型のものが使用される。
【0012】
典型的な実施形態において、治具に具備される治具座標系表現手段は、治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている。また、ツール座標系と固定的な位置・姿勢関係にある治具座標系の原点位置と座標軸の方向を3次元視覚センサによる認識が可能な形態で表現する治具座標系表現手段を備えたハンドあるいは他のエンドエフェクタを用意しておくことは、上記ツール座標系補正設定方法を円滑に実施する上で好ましい。典型的な実施形態において使用されるエンドエフェクタは、治具座標系表現手段として、治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている。ここで、該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能となっている。
【0013】
【発明の実施の形態】
本発明に係るツール座標系補正設定方法は、エンドエフェクタがロボットの手先部(メカニカルインターフェイス)に直接、あるいはアダプタを介して適正に取り付けられた状態(位置・姿勢ずれ発生前の状態。以下、「初期状態」とも言う。)において開始される。はじめに、実施時の手順と基礎となる計算の概要を図2を参照して説明しておく。
【0014】
1.初期状態において、作業に適したツール座標系Bを設定する。なお、このようなツール座標系Bの設定は、エンドエフェクタの形態や作業内容に即して実行される極めて一般的なものである。初期状態(位置・姿勢ずれ発生前)において、メカニカルインターフェイスの代表点(フェイスプレートに設定された座標系の原点F)に対するツール座標系Bの位置・姿勢を表わす同次変換行列を、図2に示したように FTB とする。
2.初期状態が保たれている間に(ツール座標系Bの設定の前後いずれも可)、ロボットを3次元視覚センサの周辺の適当な位置に位置決めし、エンドエフェクタに固定された治具座標系Aの位置・姿勢を検出する。以後、この検出を行なった際のロボットの位置(フェイスプレート座標系原点Fの位置で代表)を「治具座標系検出ロボット位置」と言う。
【0015】
初期状態(位置・姿勢ずれ発生前)において、メカニカルインターフェイスの代表点(フェイスプレートに設定された座標系の原点F)に対する治具座標系Aの位置・姿勢を表わす同次変換行列を、図2に示したように FTA とする。行列
FTA と FTB の間には下記(1)式の関係が成立する。
FTB = FTA ATB ・・・(1)
ここで、行列 ATB は治具座標系Aに対するツール座標系Bの位置・姿勢を表わしている。
【0016】
3.初期状態が壊れたと思われる時に(例えば、アダプタ交換時)、ロボットを再度治具座標系検出ロボット位置に位置決めし、3次元視覚センサ覚センサを用いて治具座標系の位置・姿勢を検出する。このように、エンドエフェクタの位置・姿勢変化の可能性の発生に伴い、治具座標系の再検出が行なわれる機会のことを「治具座標系再検出機会」という。治具座標系再検出機会における治具座標系をA’のフェイスプレート座標系原点Fに対する位置・姿勢を表わす同次変換行列を、図2に示したように、 FTA'とする。
【0017】
同様に、初期状態で設定されたツール座標系Bが位置・姿勢ずれを起したものをB’で表わせば、治具座標系再検出機会におけるツール座標系B’のフェイスプレート座標系原点Fに対する位置・姿勢を表わす同次変換行列 FTB'は、下記(2)式で与えられる。
FTB'= FTA' A'TB' ・・・(2)
ここで、行列 A'TB' は治具座標系再検出機会における治具座標系A’に対するツール座標系B’の位置・姿勢を表わしているが、治具座標系がエンドエフェクタに固定されているという条件下では(即ち、エンドエフェクタ自身が変形しない限り)、両者の相対的な関係は保持されるから、
A'TB'= ATB ・・・(3)
となる。(1)〜(3)式から、次式(4)の関係が得られる。
【0018】
FTB'= FTA' ATB = FTA' FTA -1 FTB ・・・(4)
4.(4)式の最右辺を計算し、ツール座標系B’の再設定データとしてロボットに教示すれば、ツール座標系の位置・姿勢ずれを補償する形でツール座標系の再設定を行なうことが可能になる。
【0019】
5.(4)式の右辺中の行列 FTB は、初期状態において設定されたツール座標系のデータで与えられる。従って、残る乗算項 FTA' FTA -1 を3次元視覚センサによって検出される治具座標系A及びA’の位置・姿勢から求めれば良いことになる。 FTA'及び FTA -1 は各々次のように表わすことが出来る。
FTA'= FTR RTA' ・・・(5)
FTA -1 =( FTR RTA )-1= RTA -1 FTR -1 ・・・(6)
ここで、
FTR ;フェイスプレート座標系から見たロボット座標系の位置・姿勢を表わす同次変換行列
RTA';ロボット座標系から見た治具座標系A’の位置・姿勢を表わす同次変換行列
RTA ;ロボット座標系から見た治具座標系Aの位置・姿勢を表わす同次変換行列
である。
【0020】
上記(5),(6)式から、
となる。ここで、 RTS はロボット座標系R(ロボットに設定済みの任意の3次元直交座標系)に対する3次元視覚センサのセンサ座標系Sの位置・姿勢を表わす同次変換行列であり、適当なキャリブレーションによって取得される。
6.結局、再設定されるツール座標系を表わす(4)式は、
となる。特殊なケースとして、エンドエフェクタの位置・姿勢に全くずれが生じていない場合には、当然 STA'= STA となるから、(8)式は下記(9)式となる。
FTB'= FTB ・・・(9)
(8)式の右辺に含まれる行列の出所をまとめて記せば次のようになる。
FTR , FTR -1 ;治具座標系検出ロボット位置における現在位置データから求められる。
RTS , RTS -1 ;ロボット座標系Rとセンサ座標系Sを結合させるキャリブレーションデータから求められる。
STA -1 ;初期状態における治具座標系Aの検出データ(センサデータ)から求められる。
STA' ;治具座標系再検出機会における治具座標系A’の検出データ(センサデータ)から求められる。
FTB ;初期状態における治具座標系Aの設定データである。
なお、上記(4)式において、 ATB (座標系A,Bの位置・姿勢関係)の正確なデータが用意出来る場合には、
から、 FTB'を求めても良い。但し、この場合も FTR , RTS のデータは必要である。そして、(8)式には FTR と FTR -1 、 RTS と RTS -1 が乗算関係で含まれているために、治具座標系検出ロボット位置や3次元視覚センサのキャリブレーションデータに多少の誤差があっても、それが FTB'の計算結果に現れ難い。従って、(10)式を使用するよりも、(8)式を使用することが好ましい。
【0021】
このようにして、ツール座標系を再設定すれば、ロボット動作の再教示を行なわなくとも、エンドエフェクタが位置・姿勢ずれを起しす前と同じロボット作業を実行することが出来る。
【0022】
図3は、本発明の方法を実施する際に使用可能なシステムの制御部を構成するロボット制御装置並びに関連接続関係を説明する要部ブロック図である。ロボット制御装置5は、ここでは3次元視覚センサの画像処理装置内蔵型のものが採用されており、中央演算処理装置(以下、CPU)51を備え、CPU51には、ROMからなるメモリ52、RAMからなるメモリ53、不揮発性メモリ54、液晶ディスプレイを備えた教示操作盤55、ロボットの各軸を制御するためのデジタルサーボ回路56、ストラクチャライトユニット用インターフェイス61、画像処理プロセッサ62、モニタインターフェイス63、フレームメモリ64、プログラムメモリ65、データメモリ66及び汎用インターフェイス67がバス58を介して接続されている。
【0023】
デジタルサーボ回路56は、ロボットRBの各軸を制御するために、サーボアンプ57を介してロボットRBの機構部に接続されている。また、ストラクチャライトユニット用インターフェイス61にはストラクチャライトユニットSUが接続され、モニタインターフェイス63には例えばCRTからなるモニタディスプレイMOが接続されている。ストラクチャライトユニットSUは、後述するように、3次元視覚センサの投光部及び撮影部をユニット化したものである。
【0024】
汎用インターフェイス67には、必要に応じて各種の外部装置を接続することが出来るが、ここではロボット手先部のフェイスプレートとエンドエフェクタの間に介在するアダプタを構成する力センサ2が示されている。
【0025】
ROM52には、システム各部の制御に必要なシステムログラムが格納されている。RAM53はデ−タの一時記憶や演算の為に利用されるメモリである。不揮発性メモリ54には、ロボットRB、ストラクチャライトユニットSU、力センサ2などの外部装置の動作を規定した動作プログラムのデータ、座標系(座標系Rを含む;図1参照。)の設定データ、3次元視覚センサのキャリブレーションデータ(前述した行列 RTS のデータを含む;図1参照。)、関連設定値等が格納される。
【0026】
ストラクチャライトユニット用インターフェイス61は、ストラクチャライトユニットSUの各部を制御するための指令の授受やCCDカメラ(図4(a)参照)で撮影された画像の取り込みに用いられる。取り込まれた画像はグレイスケールに変換後、一旦フレームメモリ64に格納される。フレームメモリ64に格納された画像はモニタディスプレイMO上に表示することが出来るようになっている。
【0027】
プログラムメモリ65には、画像処理プロセッサ62を利用した画像処理と解析を行なうためのプログラムが格納され、データメモリ66には画像処理と解析に関連した設定データ等が格納される。本実施形態では、特に、治具座標系の位置・姿勢を求めるための処理を定めたプログラムデータ並びに関連設定データがこれら格納データに含まれている。なお、処理の内容は後述する。
【0028】
図4は、ストラクチャライトユニットSUの一般的構成を説明するもので、図4(a)にストラクチャライトユニットSUの要部構造、図4(b)ストラクチャライトの形成方法を間単に記した。図4(a)に示されたストラクチャライトユニットSUは、ストラクチャライトSLとしてスリット光を投光するもので、投光部はレーザ発振器12、円柱レンズ13、偏向ミラーを備えたガルバノメータ14(ステッピングモータで駆動)及び投光窓11を備え、撮影部はCCDカメラ20及び撮影窓21を備えている。
【0029】
図4(b)に示したように、レーザ発振器12から出射されたレーザビームは円柱レンズ13によってスリット光SLに変換される。スリット光SLは、ステッピングモータによる高速駆動が可能なガルバノメータ14で投光方向を指示する指令値に従って所定の方向に偏向され、投光窓11から被計測対象物16上に投光される。被計測対象物W上に形成された輝線15を含む画像がCCDカメラ20による影で取得され、画像処理装置を内蔵したロボット制御装置5に取り込まれる。
【0030】
ロボット制御装置5は、前述した画像処理機能を利用して輝線15を含む画像を解析し、輝線15の端点位置151,152等の3次元位置を求める。なお、端点位置151,152等の3次元位置を求める原理とそれに基づく計算処理の詳細については周知事項なのでここでは説明を省略する。
【0031】
次に、図5は図3、図4を参照して説明した構成と機能を利用して本発明の方法を実施する際の全体配置の概要を説明する模式図である。
ロボットRBは、ここではテーブルTB上に供給されるワークW2にワークW1を嵌合する力制御ロボットとして描かれている。ロボットRBの手先部1には6軸力を検出する力センサ2が装着され、この力センサ2にエンドエフェクタとしてハンド3が取り付けられている。即ち、力センサ2はエンドエフェクタ(ハンド3)取付のためのアダプタの役割を果している。
【0032】
ワークW1はハンド3の複数本の爪31で把持され、テーブルTB上のワークW2に嵌合される。力センサ2はワークW1を介して受ける力/モーメントを検出し、ロボット制御装置5に伝える。ロボット制御装置5は、力センサ2の出力を利用した力制御を実行し、嵌合動作が円滑に行なわれるようにする。
【0033】
本実施形態でエンドエフェクタとして使用されているハンド3には、本発明の特徴に従って、治具座標系表現手段を備えた治具4が設けられている。治具4は、ハンド3に対して必要時に装着しても良く、また、ハンド3の一部として固設された構造としても良い。
【0034】
本実施形態では、図示されているロボット姿勢を治具座標系検出ロボット位置に採用し、テーブルTB上の適当な位置(治具4上の治具座標系表現手段の検出に好適な位置)にストラクチャライトユニットSUを設置する。ストラクチャライトユニットSUを含む3次元視覚センサのキャリブレーションは周知の適当な手法を用いて完了済み(ロボットRBに設定されている座標系Rとセンサ座標系Sが結合済み)であるとする。
【0035】
治具4上の治具座標系の位置・姿勢を検出する際には、ストラクチャライトユニットSUの投光部からスリット光SLが治具4に向けて投光され、撮影部で治具座標系表現手段上に形成された輝線像が撮影される。
【0036】
治具4には、治具座標系の原点位置と座標軸の方向を知るために必要な情報を、3次元視覚センサによって認識可能な形態で提供する治具座標系表現手段が設けられている。本実施形態では、スリット光投光型の3次元視覚センサを採用していることを考慮して、スリット光SLの投光により端点を持つ直線状の輝線が形成されるように、異なる方向を向いた複数本の稜線を提供する表面形状手段を以て治具座標系表現手段とする。
【0037】
図6は本実施形態で採用される治具4の治具座標系表現形態の一例を説明するために、ロボット手先部1の周辺部を拡大描示し、治具座標系とツール座標系の関係を併記した見取り図である。図6に示したように、ロボットの手先部1に力センサ2を介して取り付けられたハンド3の周面上に設けられた治具4は、治具座標系表現手段(表面形状手段)として、長方形帯状の平坦面領域41とそれに取り囲まれた凹部42を備えている。
【0038】
長方形枠状の平坦面領域41は、内側の一つのコーナを以て治具座標系A(図1も参照)の原点OA を表現し、原点OA から横方向及び縦方向に延びる稜線41a,41b以て各々XA 軸、YA 軸を表現する。これに対してツール座標系B(図1も参照)は、ハンド3の3本の爪31に囲まれた位置に原点OB を持ち、ハンド3の軸方向がZB 軸となるように設定されている。
【0039】
図1に関連して説明したように、ハンド3が変形しない限り、一旦固定された両座標系A,Bの相対的な位置・姿勢関係は不変である。しかし、治具座標系Aとツール座標系Bの相対的な位置・姿勢関係を特定のものとする必要はなく、予め知る必要もない。従って、治具4の取付位置に関して正確な位置決めを行なう負担は生じない。但し、前述の(10)式を用いてツール座標系の設定データを更新する場合には、 ATB を定めるための正確なデータが事前に必要となる。
【0040】
図7は図6中に示された治具4のみを拡大抽出し、スリット光による輝線の形成状況を併記したものである。同図を参照し、治具座標系A(またはA’)の位置・姿勢を3次元視覚センサを用いて検出する手順の概略を説明すれば、次の様になる。
ロボットRBが図5に示した如き治具座標系検出ロボット位置にある状態で、ストラクチャライトユニットSUを使ってスリット光を治具4の平坦面領域41を斜めに横切るように投光する。投光は2回(またはそれ以上)行い、平坦面領域41上に輝線L1(第1回目投光)、L2(第2回目投光)を形成する。輝線L1,L2の一部は凹部42上にも形成されるが、ここでは座標系検出には利用されない。ストラクチャライトユニットSUとロボット制御装置5を合わせた3次元視覚センサを用いて治具座標系A(またはA’)を定める手順は、例えば次のものとすることが出来る。説明の便宜上、この手順を「手順1」と呼ぶ。
【0041】
[手順1]
1.輝線L1が稜線41a,41bを横切る点に対応する端点C2 、C3 の3次元位置を求める。
2.輝線L2が稜線41a,41bを横切る点に対応する端点C6 、C7 の3次元位置を求める。
3.端点C2 とC6 の位置から稜線41aが表わす直線を求める。
4.端点C3 とC7 の位置から稜線41bが表わす直線を求める。
5.両者の交点として原点OA の3次元位置を求める。
6.端点C6 からC2 に向かうベクトル<u>で治具座標系A(A’)のXA 軸の方向を定める。
7.端点C3 からC7 に向かうベクトル<w>で治具座標系A(A’)のZA 軸の方向を定める。
8.<v>=<w>×<u>で治具座標系A(A’)のYA 軸の方向を定める。
【0042】
なお、端点C1 ,C5 ,C4 ,C8 を含めた端点の内の3個以上を使って平坦面41の方向を求め、YA 軸の方向を定めても良い。
【0043】
図8は本実施形態で採用される治具4の治具座標系表現形態の別の例を説明する図で、治具4を拡大描示し、スリット光による輝線の形成状況を併記されている。同図に示したように、本例の治具4は、治具座標系表現手段として、互いに直交した3つの平坦面領域43〜45を備えた三角錐形状部を備えている。そして、三角錐形状部は隣接する平坦面領域43〜45間の交線として、3本の互いに直交した稜線H1〜H3が提供されている。
【0044】
これら稜線H1〜H3は、治具座標系A(またはA’)のXA 軸、YA 軸及びZA 軸を表現し、それらの交点(三角錐の頂点)が原点OA を表現する。本例の治具4をハンド3に設けた場合について、治具座標系A(またはA’)の位置・姿勢を3次元視覚センサを用いて検出する手順の概略を説明すれば、次の様になる。
図7に示した治具の場合と同じくロボットRBが図5に示した如き治具座標系検出ロボット位置にある状態で、ストラクチャライトユニットSUを使ってスリット光を治具4の平坦面領域43〜45の内の2つを横切るように投光する。投光は4回(またはそれ以上)行い、平坦面領域43,44上に輝線L3(第1回目投光)、L4(第2回目投光)を形成し、平坦面領域43,45上に輝線L5(第3回目投光)、L6(第4回目投光)を形成しする。
【0045】
ストラクチャライトユニットSUとロボット制御装置5を合わせた3次元視覚センサを用いて治具座標系A(またはA’)を定める手順は、例えば次のものとすることが出来る。説明の便宜上、この手順を「手順2」と呼ぶ。
【0046】
[手順2]
1.輝線L3が稜線H1を横切る点に対応する端点D2 の3次元位置を求める。
【0047】
2.輝線L4が稜線H1を横切る点に対応する端点D5 の3次元位置を求める。
【0048】
3.輝線L5が稜線H2を横切る点に対応する端点D8 の3次元位置を求める。
【0049】
4.輝線L4が稜線H2を横切る点に対応する端点D11の3次元位置を求める。
【0050】
5.端点D2 とD5 の位置から稜線H1が表わす直線を求める。
6.端点D8 とD11の位置から稜線H2が表わす直線を求める。
7.両者の交点として原点OA の3次元位置を求める。
8.端点D5 からD2 に向かうベクトル<p>で治具座標系A(A’)のXA 軸の方向を定める。
9.端点D8 からD11に向かうベクトル<q>で治具座標系A(A’)のYA 軸の方向を定める。
10.<r>=<p>×<q>で治具座標系A(A’)のZA 軸の方向を定める。
【0051】
なお、端点D1 ,D4 ,D7 ,D10,D3 ,D6 ,D9 ,D12等の端点のデータを加えて平坦面43〜45の方向を求め、各座標軸の方向を定めても良い。 図9は、上記説明した実施形態においてロボット制御装置5で実行される処理の概要をまとめて記したフローチャートで、各ステップM1〜Mの要点は次の通りである。なお、3次元視覚センサのキャリブレーション、作業に適したツール座標系B(図6参照)の設定等の準備作業は完了済みとする。また、治具4は図7あるいは図8に示したものが、ハンド3に既に装着または固設されているものとする。
【0052】
[M1]ロボットRBを治具座標系検出ロボット位置(図5参照)へ移動させる。治具座標系検出ロボット位置が未教示であればこれを不揮発性メモリ54に記憶する。但し、治具座標系検出ロボット位置の記憶は、ステップM2の後で実行しても良い。
[M2]3次元視覚センサを起動させ、手順1(図7の治具使用の場合)または手順2(図8の治具使用の場合)に従った処理を行い、治具座標系Aの位置・姿勢を検出して不揮発性メモリ54に記憶する(前出の同次変換行列 STA を表わすデータまたは RTA を表わすデータで記憶)。
[M3]治具座標系再検出機会が到来したならば、ロボットRBを治具座標系検出ロボット位置(図5参照)へ移動させる。治具座標系再検出機会は、例えば力センサ2の破損等によって、力センサ2(交換品)とハンド3(非交換品)を取り付け直した時に到来する。また、力センサ2の破損等が無くとも、メンテナンスのためのツール座標系設定状態チェック時に治具座標系再検出機会をもたせても良い。
【0053】
[M4]3次元視覚センサを起動させ、手順1(図7の治具使用の場合)または手順2(図8の治具使用の場合)に従った処理を行い、治具座標系A’の位置・姿勢を検出して不揮発性メモリ54に記憶する((前出の同次変換行列 STA'を表わすデータまたは RTA'を表わすデータで記憶)。
[M5]前述した(8)式の計算を行なって FTB'を求め、ツール座標系の設定データを更新する。これによって、ツール座標系B’の補正設定が完了する。
【0054】
以上、本実施形態では3次元視覚センサとして他の型のものを採用しても良い。例えば、ストラクチャライトユニットSUの投光部に、スポット光投光走査型の投光部を装備したものを用いることも出来る。その場合、ストラクチャライトによって治具座標系表現手段上に形成される輝線は、連続または断続(輝点の列)のスポット光軌跡となる。
【0055】
また、治具に具備される治具座標系表現手段も、上述した2例に限るものではない。例えば、治具座標系の原点位置と座標軸の方向を表現する数個のドットを記したマークを描いた治具を用い、これを2台のカメラで撮影し、治具座標系の位置・姿勢を定めるようにしても良い。
【0056】
【発明の効果】
本発明によれば、エンドエフェクタの形状やツール先端点の設定位置に左右されずに、簡単な作業で安定した補正精度を以てツール座標系を補正設定することが出来る。例えば、ハンドの爪の間など、エンドエフェクタの構成部材上にない位置にツール座標系の原点が設定されるケースであっても、ツール座標系の補正設定に全く支障がない。また、3次元視覚センサによる治具座標系の位置・姿勢の検出に適合した治具座標系表現手段を具備したエンドエフェクタを利用することで、本方法がより円滑に実行することが出来る。
【図面の簡単な説明】
【図1】エンドエフェクタの位置・姿勢ずれを補償するように、ツール座標系を補正設定(再設定)するための従来技術について説明する図である。
【図2】本発明に係るツール座標系補正設定方法の概要を説明する概念図である。
【図3】本発明の方法を実施する際に使用可能なシステムの制御部を構成するロボット制御装置並びに関連接続関係を説明する要部ブロック図である。
【図4】(a)ストラクチャライトユニットの要部構造と、(b)ストラクチャライトの形成方法を例示した模式図である。
【図5】本発明の方法を実施する際の全体配置の概要を説明する模式図である。
【図6】本実施形態で採用される治具4の治具座標系表現形態の一例を説明するために、ロボット手先部1の周辺部を拡大描示し、治具座標系とツール座標系の関係を併記した見取り図である。
【図7】図6中に示された治具4のみを拡大抽出し、スリット光による輝線の形成状況を併記したものである。
【図8】本実施形態で採用される治具4の治具座標系表現形態の別の例を説明する図である。
【図9】実施形態においてロボット制御装置5で実行される処理の概要をまとめて記したフローチャートである。
【符号の説明】
1 ロボットの手先部
2 力センサ(アダプタ)
3 ハンド(エンドエフェクタ)
4 治具
5 ロボット制御装置(画像処理装置内蔵型)
11 投光窓
12 レーザ発振器
13 円柱レンズ
14 ガルバノメータ
15,L1〜L6 輝線
16 被計測対象物
20 CCDカメラ
21 撮影窓
31 ハンドの爪
41 平坦面領域(長方形帯状)
41a,41b,H1〜H3 稜線
42 凹部
43〜45 互いに直交する平坦面領域(三角錐状)
51 中央演算処理装置(CPU)
52 ROMメモリ
53 RAMメモリ
54 不揮発性メモリ
55 教示操作盤
56 デジタルサーボ回路
57 サーボアンプ
58 バス
61 ストラクチャライトユニット用インターフェイス
62 画像処理プロセッサ
63 モニタインターフェイス
64 フレームメモリ
65 プログラムメモリ
66 データメモリ
67 汎用インターフェイス
151,152,C1 〜C8 ,D1 〜D12 輝線の端点
A 治具座標系(初期状態)
A’ 治具座標系(位置・姿勢ずれ発生後)
B ツール座標系(初期状態)
B’ ツール座標系(位置・姿勢ずれ発生後)
F フェイスプレート代表点(フェイスプレート座標系原点)
MO モニタディスプレイ
OA 治具座標系の原点
R ロボット座標系
RB ロボット
RB1〜RB3 ロボット姿勢
S センサ座標系
SL スリット光
SU ストラクチャライトユニット
TB テーブル
W1,W2 ワーク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a tool coordinate system correction setting method in a robot to which an end effector (hand effector) such as a hand is attached as a tool, and an end effector used in the method. The present invention is applied when the tool coordinate system is reset so as to compensate for a position / posture shift of the end effector caused by, for example, replacement of an adapter interposed between the robot and the end effector.
[0002]
[Prior art]
When applying the robot to various operations, it is usual to attach an end effector such as a hand to a face plate (mechanical interface) at the tip of the robot arm. In order to cause the robot to perform a desired work, it is necessary to give the robot data indicating the position / posture of the end effector with respect to the face plate.
[0003]
The point representing the position / posture of the end effector is generally called the tool tip point (TCP). By setting the tool coordinate system with the tool tip point as the origin, the end effector's position / posture can be Be taught. In general, the setting data of the tool coordinate system is data representing a matrix describing the relative position and orientation of the tool coordinate system as seen from the face plate coordinate system with the face plate representative point (usually the center point) as the origin. Given to.
[0004]
Once the tool coordinate system is set, the relative position and posture of the end effector with respect to the face plate may change due to a robot interference accident or the like. In particular, when an easily damaged adapter such as a force sensor is interposed between the face plate and the end effector, there are many opportunities to replace the adapter, and avoiding the position / posture deviation of the end effector associated therewith. I can't.
[0005]
The following three methods can be considered as countermeasures against such a situation.
(1) The position and orientation of the end effector are precisely adjusted, and the original end effector position and orientation (before the occurrence of the position and orientation deviation) are accurately reproduced.
(2) Redo the teaching so that the end effector with the position / posture misalignment can be used as it is.
(3) The tool coordinate system is corrected (reset) so as to compensate for the position / posture deviation of the end effector.
[0006]
However, the method (1) requires skill and time for the adjustment work itself, and the burden on the operator who is the user is large. In particular, when the end effector is a hand, the tool tip point is often set between multiple claws (in the air) for the convenience of teaching work. It becomes very difficult to reproduce.
[0007]
Also, in the method (2), the time required for work becomes enormous when there are many taught programs.
As a technique belonging to the type (3), a method as shown in FIG. 1 is known. According to this method, (a) the robot has three postures RB1 to RB3 such that the specific point of the tool (end effector) desired to be set as the tool tip point (TCP) coincides with the same point P0 in the space. (B) obtaining a relative position of the tool tip point with respect to the face plate based on the current position data of the robot in each posture; and (c) a procedure for separately teaching the direction of the coordinate axis of the tool coordinate system. .
[0008]
Such a method is considered to be relatively easy to execute in a simple case where the tool tip point is set at the tip of a pointed end effector, but in the case where the end effector is a hand. Therefore, it is difficult to make the tool tip point in the three postures of the robot coincide with the same point P0. In addition, this method has a problem that although the origin position (tool tip point position) of the tool coordinate system can be acquired, the direction of the coordinate axis cannot be acquired.
[0009]
[Problems to be solved by the invention]
Therefore, the object of the present invention is to overcome these problems of the prior art and correct and set the tool coordinate system with stable correction accuracy with a simple operation regardless of the shape of the end effector and the setting position of the tool tip point. And providing an end effector suitable for performing the method.
[0010]
[Means for Solving the Problems]
The tool coordinate system correction setting method of the present invention sets the tool coordinate system to the end effector supported by the robot hand, and sets the origin position of the jig coordinate system having a fixed positional / posture relationship with the tool coordinate system. A jig having jig coordinate system expressing means for expressing the direction of the coordinate axis in a form that can be recognized by the three-dimensional visual sensor is provided, the three-dimensional visual sensor is arranged around the robot, and the tool coordinate system of the robot is The correction is set and includes the following steps.
[0011]
(A) In the initial state where the position / posture of the end effector relative to the robot hand has not changed from that at the time of setting the tool coordinate system, the robot is moved to the position / posture of the jig coordinate system by the three-dimensional visual sensor. Positioning to the position of the detecting robot coordinate system detection robot
(B) The step of detecting the position / posture of the jig coordinate system using a three-dimensional visual sensor (c) The position / posture of the end effector relative to the robot hand has changed from that at the time of setting the tool coordinate system. The stage of positioning the robot at the jig coordinate system detection robot position when the possibility of jig coordinate system re-detection has arrived
(D) A step of detecting the position / orientation of the jig coordinate system using a three-dimensional visual sensor.
(E) A step of resetting the tool coordinate system that has been set up to that point based on the position / orientation of the jig coordinate system determined in the steps (b) and (d).
The end effector is a hand, for example, and may be supported on the robot hand through an adapter such as a force sensor. In a typical embodiment, a three-dimensional visual sensor of the type including slit light projecting means, photographing means, and image processing means is used.
[0012]
In a typical embodiment, the jig coordinate system representation means provided in the jig includes a flat surface and a ridge line that represent the origin position of the jig coordinate system and the direction of the coordinate axis. Also, a hand equipped with jig coordinate system expression means for expressing the origin position and the direction of the coordinate axis of the jig coordinate system having a fixed positional / posture relationship with the tool coordinate system in a form that can be recognized by a three-dimensional visual sensor. Alternatively, it is preferable to prepare another end effector in order to smoothly implement the tool coordinate system correction setting method. The end effector used in a typical embodiment includes a flat surface and a ridge line that express the origin position of the jig coordinate system and the direction of the coordinate axis as the jig coordinate system expressing means.Here, the jig coordinate system representation means is provided with the fixed positional / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are determined by the three-dimensional visual sensor. Can be recognized.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
The tool coordinate system correction setting method according to the present invention is a state in which the end effector is properly attached directly to the hand portion (mechanical interface) of the robot or via an adapter (a state before a position / posture deviation occurs. It is also called “initial state”.). First, an outline of procedures and basic calculations at the time of implementation will be described with reference to FIG.
[0014]
1. In the initial state, a tool coordinate system B suitable for work is set. Note that such setting of the tool coordinate system B is very general executed in accordance with the form of the end effector and the work content. FIG. 2 shows a homogeneous transformation matrix representing the position / orientation of the tool coordinate system B with respect to the representative point of the mechanical interface (the origin F of the coordinate system set on the face plate) in the initial state (before the position / orientation deviation occurs). As shownFTB And
2. While the initial state is maintained (either before or after the setting of the tool coordinate system B is possible), the robot is positioned at an appropriate position around the three-dimensional visual sensor, and the jig coordinate system A fixed to the end effector. Detects the position / posture. Hereinafter, the position of the robot when this detection is performed (represented by the position of the face plate coordinate system origin F) is referred to as a “jig coordinate system detection robot position”.
[0015]
FIG. 2 shows a homogeneous transformation matrix representing the position / posture of the jig coordinate system A with respect to the representative point of the mechanical interface (the origin F of the coordinate system set on the face plate) in the initial state (before occurrence of the position / posture deviation). As shown inFTA And line; queue; procession; parade
FTA When FTB The following equation (1) is established.
FTB =FTA ATB ... (1)
Where the matrixATB Represents the position / posture of the tool coordinate system B with respect to the jig coordinate system A.
[0016]
3. When the initial state seems to be broken (for example, when the adapter is replaced), the robot is again positioned at the jig coordinate system detection robot position, and the position / posture of the jig coordinate system is detected using a three-dimensional visual sensor sense sensor. . In this way, the opportunity for redetection of the jig coordinate system in association with the occurrence of a change in the position / posture of the end effector is referred to as “jig coordinate system redetection opportunity”. As shown in FIG. 2, a homogeneous transformation matrix representing the position and orientation of the jig coordinate system at the jig coordinate system re-detection opportunity with respect to the origin F of the face plate coordinate system of A ′.FTA 'And
[0017]
Similarly, if the tool coordinate system B set in the initial state has a position / posture deviation represented by B ′, the tool coordinate system B ′ relative to the face plate coordinate system origin F at the jig coordinate system re-detection opportunity is represented by B ′. Homogeneous transformation matrix representing position and orientationFTB 'Is given by the following equation (2).
FTB '=FTA ' A 'TB ' ... (2)
Where the matrixA 'TB ' Represents the position / posture of the tool coordinate system B ′ with respect to the jig coordinate system A ′ at the jig coordinate system re-detection opportunity, but under the condition that the jig coordinate system is fixed to the end effector (that is, As long as the end effector itself does not deform)
A 'TB '=ATB ... (3)
It becomes. From the equations (1) to (3), the relationship of the following equation (4) is obtained.
[0018]
FTB '=FTA ' ATB =FTA ' FTA -1 FTB ... (4)
4). If the rightmost side of the equation (4) is calculated and taught to the robot as the reset data of the tool coordinate system B ′, the tool coordinate system can be reset to compensate for the position / posture deviation of the tool coordinate system. It becomes possible.
[0019]
5. (4) Matrix in the right side of equationFTB Is given by the data of the tool coordinate system set in the initial state. Therefore, the remaining multiplication termFTA ' FTA -1 Is obtained from the position and orientation of the jig coordinate systems A and A ′ detected by the three-dimensional visual sensor.FTA 'as well as FTA -1 Can be expressed as follows.
FTA '=FTR RTA ' ... (5)
FTA -1 = (FTR RTA )-1=RTA -1 FTR -1 ... (6)
here,
FTR ; Homogeneous transformation matrix representing the position and orientation of the robot coordinate system as seen from the faceplate coordinate system
RTA 'The homogeneous transformation matrix representing the position and orientation of the jig coordinate system A 'viewed from the robot coordinate system
RTA The homogeneous transformation matrix representing the position and orientation of the jig coordinate system A viewed from the robot coordinate system
It is.
[0020]
From the above formulas (5) and (6),
It becomes. here, RTS Is a homogeneous transformation matrix representing the position and orientation of the sensor coordinate system S of the three-dimensional visual sensor with respect to the robot coordinate system R (arbitrary three-dimensional orthogonal coordinate system set for the robot), and is obtained by appropriate calibration. .
6). After all, the equation (4) representing the tool coordinate system to be reset is
It becomes. As a special case, if there is no deviation in the position and orientation of the end effector, naturallySTA '=STA Therefore, the equation (8) becomes the following equation (9).
FTB '=FTB ... (9)
The source of the matrix included in the right side of equation (8) can be summarized as follows.
FTR ,FTR -1 ; It is calculated | required from the present position data in a jig | tool coordinate system detection robot position.
RTS ,RTS -1 It is obtained from calibration data that combines the robot coordinate system R and the sensor coordinate system S;
STA -1 ; Obtained from detection data (sensor data) of the jig coordinate system A in the initial state.
STA ' It is obtained from the detection data (sensor data) of the jig coordinate system A 'at the jig coordinate system re-detection opportunity.
FTB ; Setting data of the jig coordinate system A in the initial state.
In the above equation (4),ATB When accurate data (position / posture relationship of coordinate systems A and B) can be prepared,
FromFTB 'You may ask for. However, also in this caseFTR ,RTS The data of is necessary. And in equation (8)FTR When FTR -1 ,RTS When RTS -1 Is included in the multiplication relationship, even if there is a slight error in the jig coordinate system detection robot position and the calibration data of the 3D visual sensor.FTB 'It is hard to appear in the calculation result. Therefore, it is preferable to use the formula (8) rather than the formula (10).
[0021]
By resetting the tool coordinate system in this way, the same robot operation as before the end effector has caused the position / posture deviation can be executed without re-teaching the robot operation.
[0022]
FIG. 3 is a principal block diagram for explaining a robot control apparatus and related connection relations constituting a control unit of a system that can be used when carrying out the method of the present invention. Here, the
[0023]
The digital servo circuit 56 is connected to a mechanism unit of the robot RB via a
[0024]
Various types of external devices can be connected to the general-purpose interface 67 as required. Here, the
[0025]
The
[0026]
The structure light unit interface 61 is used for sending / receiving commands for controlling each part of the structure light unit SU and capturing images taken by a CCD camera (see FIG. 4A). The captured image is temporarily stored in the frame memory 64 after being converted to gray scale. The image stored in the frame memory 64 can be displayed on the monitor display MO.
[0027]
The
[0028]
FIG. 4 illustrates a general configuration of the structure light unit SU. FIG. 4A simply shows the main structure of the structure light unit SU and FIG. 4B shows the structure light forming method. The structure light unit SU shown in FIG. 4A projects slit light as the structure light SL, and the light projecting unit is a galvanometer 14 (stepping motor) including a
[0029]
As shown in FIG. 4B, the laser beam emitted from the
[0030]
The
[0031]
Next, FIG. 5 is a schematic diagram for explaining the outline of the overall arrangement when the method of the present invention is implemented using the configuration and function described with reference to FIGS.
Here, the robot RB is depicted as a force control robot for fitting the workpiece W1 to the workpiece W2 supplied on the table TB. A
[0032]
The workpiece W1 is held by a plurality of
[0033]
The
[0034]
In the present embodiment, the illustrated robot posture is adopted as the jig coordinate system detection robot position, and is set to an appropriate position on the table TB (a position suitable for detection of the jig coordinate system expressing means on the jig 4). Install the structure light unit SU. It is assumed that the calibration of the three-dimensional visual sensor including the structure light unit SU has been completed using a known appropriate technique (the coordinate system R set in the robot RB and the sensor coordinate system S have been combined).
[0035]
When detecting the position / orientation of the jig coordinate system on the
[0036]
The
[0037]
FIG. 6 is an enlarged view of the peripheral portion of the
[0038]
The rectangular frame-shaped
[0039]
As described with reference to FIG. 1, unless the
[0040]
FIG. 7 is an enlarged view of only the
In a state where the robot RB is at the jig coordinate system detection robot position as shown in FIG. 5, the structure light unit SU is used to project the slit light so as to cross the
[0041]
[Procedure 1]
1. The three-dimensional positions of the end points C2 and C3 corresponding to the points where the bright line L1 crosses the
2. The three-dimensional positions of the end points C6 and C7 corresponding to the points where the bright line L2 crosses the
3. A straight line represented by the
4). A straight line represented by the
5. The three-dimensional position of the origin OA is obtained as the intersection between the two.
6). The vector <u> from the end point C6 to C2 determines the direction of the XA axis of the jig coordinate system A (A ').
7). The vector <w> from the end point C3 to C7 determines the direction of the ZA axis of the jig coordinate system A (A ').
8). <V> = <w> × <u> defines the direction of the YA axis of the jig coordinate system A (A ').
[0042]
The direction of the
[0043]
FIG. 8 is a diagram for explaining another example of the jig coordinate system expression form of the
[0044]
These ridge lines H1 to H3 represent the XA axis, the YA axis, and the ZA axis of the jig coordinate system A (or A '), and their intersection (the apex of the triangular pyramid) represents the origin OA. The outline of the procedure for detecting the position / orientation of the jig coordinate system A (or A ′) using the three-dimensional visual sensor when the
As in the case of the jig shown in FIG. 7, in the state where the robot RB is at the position of the jig coordinate system detection robot as shown in FIG. Light is projected across two of -45. The light is projected four times (or more), bright lines L3 (first light projection) and L4 (second light projection) are formed on the
[0045]
The procedure for determining the jig coordinate system A (or A ′) using a three-dimensional visual sensor that combines the structure light unit SU and the
[0046]
[Procedure 2]
1. The three-dimensional position of the end point D2 corresponding to the point where the bright line L3 crosses the ridge line H1 is obtained.
[0047]
2. The three-dimensional position of the end point D5 corresponding to the point where the bright line L4 crosses the ridge line H1 is obtained.
[0048]
3. The three-dimensional position of the end point D8 corresponding to the point where the bright line L5 crosses the ridge line H2 is obtained.
[0049]
4). The three-dimensional position of the end point D11 corresponding to the point where the bright line L4 crosses the ridge line H2 is obtained.
[0050]
5. The straight line represented by the edge H1 is obtained from the positions of the end points D2 and D5.
6). The straight line represented by the edge H2 is obtained from the positions of the end points D8 and D11.
7). The three-dimensional position of the origin OA is obtained as the intersection between the two.
8). The vector <p> from the end point D5 to D2 determines the direction of the XA axis of the jig coordinate system A (A ').
9. The vector <q> from the end point D8 to D11 determines the direction of the YA axis of the jig coordinate system A (A ').
10. <R> = <p> × <q> defines the direction of the ZA axis of the jig coordinate system A (A ′).
[0051]
Note that the directions of the
[0052]
[M1] The robot RB is moved to the jig coordinate system detection robot position (see FIG. 5). If the jig coordinate system detection robot position is not taught, it is stored in the
[M2] Start the 3D visual sensor, perform processing according to Procedure 1 (when using the jig shown in FIG. 7) or Procedure 2 (when using the jig shown in FIG. 8), and position the jig coordinate system A. The attitude is detected and stored in the nonvolatile memory 54 (the above-mentioned homogeneous transformation matrixSTA Data representing orRTA Is stored as data representing).
[M3] When the jig coordinate system re-detection opportunity arrives, the robot RB is moved to the jig coordinate system detection robot position (see FIG. 5). The jig coordinate system re-detection opportunity comes when the force sensor 2 (replacement product) and the hand 3 (non-replacement product) are reattached due to, for example, damage to the
[0053]
[M4] The 3D visual sensor is activated, and processing according to Procedure 1 (when using the jig shown in FIG. 7) or Procedure 2 (when using the jig shown in FIG. 8) is performed. The position / orientation is detected and stored in the nonvolatile memory 54 ((the above-mentioned homogeneous transformation matrixSTA 'Data representing orRTA 'Is stored as data representing).
[M5] Perform the calculation of equation (8) above.FTB 'To update the setting data of the tool coordinate system. Thereby, the correction setting of the tool coordinate system B ′ is completed.
[0054]
As described above, in this embodiment, another type of three-dimensional visual sensor may be adopted. For example, a structure light unit equipped with a spot light projection scanning type light projecting unit can be used as the light projecting unit of the structure light unit SU. In that case, the bright line formed on the jig coordinate system representation means by the structure light becomes a continuous or intermittent (light line) spot light locus.
[0055]
Further, the jig coordinate system expression means provided in the jig is not limited to the above two examples. For example, using a jig on which a mark with a few dots representing the origin position of the jig coordinate system and the direction of the coordinate axis is drawn, this is taken with two cameras, and the position and orientation of the jig coordinate system May be determined.
[0056]
【The invention's effect】
According to the present invention, the tool coordinate system can be corrected and set with stable correction accuracy by a simple operation without being affected by the shape of the end effector and the setting position of the tool tip point. For example, even if the origin of the tool coordinate system is set at a position not on the component of the end effector, such as between the claws of the hand, there is no problem in the correction setting of the tool coordinate system. In addition, this method can be executed more smoothly by using an end effector equipped with jig coordinate system expression means adapted to detection of the position and orientation of the jig coordinate system by a three-dimensional visual sensor.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a conventional technique for correcting (resetting) a tool coordinate system so as to compensate for a position / posture shift of an end effector.
FIG. 2 is a conceptual diagram illustrating an outline of a tool coordinate system correction setting method according to the present invention.
FIG. 3 is a principal block diagram for explaining a robot control device constituting a control unit of a system that can be used when carrying out the method of the present invention and related connection relations.
FIGS. 4A and 4B are schematic views illustrating the main structure of a structure light unit, and FIG. 4B illustrating a method for forming a structure light.
FIG. 5 is a schematic diagram for explaining an outline of an overall arrangement when carrying out the method of the present invention.
FIG. 6 is an enlarged view of the periphery of the
FIG. 7 is an enlarged view of only the
FIG. 8 is a diagram illustrating another example of a jig coordinate system expression form of the
FIG. 9 is a flowchart collectively showing an outline of processing executed by the
[Explanation of symbols]
1 Robot hand
2 Force sensor (Adapter)
3 Hand (End Effector)
4 Jig
5 Robot controller (Built-in image processing device)
11 Floodlight window
12 Laser oscillator
13 Cylindrical lens
14 Galvanometer
15, L1-L6 bright line
16 Object to be measured
20 CCD camera
21 Shooting window
31 Hand nails
41 Flat surface area (rectangular band)
41a, 41b, H1-H3 ridgeline
42 recess
43 to 45 Flat surface regions orthogonal to each other (triangular pyramid shape)
51 Central processing unit (CPU)
52 ROM memory
53 RAM memory
54 Nonvolatile memory
55 Teaching operation panel
56 Digital Servo Circuit
57 Servo amplifier
58 Bus
61 Interface for structure light unit
62 Image processor
63 Monitor interface
64 frame memory
65 Program memory
66 Data memory
67 General-purpose interface
151, 152, C1 to C8, D1 to D12 Bright line end points
A Jig coordinate system (initial state)
A 'Jig coordinate system (after position / posture deviation)
B Tool coordinate system (initial state)
B 'Tool coordinate system (after position / posture deviation occurs)
F Face plate representative point (origin of face plate coordinate system)
MO monitor display
The origin of the OA jig coordinate system
R Robot coordinate system
RB robot
RB1 to RB3 robot posture
S Sensor coordinate system
SL slit light
SU Structure Light Unit
TB table
W1, W2 work
Claims (10)
前記ロボットの周辺に前記3次元視覚センサを配置し、前記ロボットのツール座標系を補正設定する方法であって、
(a)前記ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、前記ツール座標系の設定時のそれから変化していない初期状態において、前記ロボットを前記3次元視覚センサによる前記治具座標系の位置・姿勢の検出が可能な治具座標系検出ロボット位置に位置決めする段階と、
(b)前記3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階と、
(c)前記ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、前記ツール座標系の設定時のそれから変化している可能性が生じた治具座標系再検出機会の到来時に、前記ロボットを前記治具座標系検出ロボット位置に位置決めする段階と、
(d)前記3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階と、
(e)前記(b)の段階及び(d)の段階で求められた前記治具座標系の位置・姿勢に基づいて、前記設定されていたツール座標系を再設定する段階を含む、
前記ロボットのツール座標系補正設定方法。A tool coordinate system is set for the end effector supported by the robot hand, and the origin position and coordinate axis direction of the jig coordinate system that is in a fixed positional / posture relationship with the tool coordinate system are recognized by a three-dimensional visual sensor. Provide a jig equipped with a jig coordinate system expression means to express in a possible form,
A method of arranging the three-dimensional visual sensor around the robot and correcting and setting a tool coordinate system of the robot,
(A) In the initial state where the position / posture of the end effector with respect to the robot hand portion has not changed from that at the time of setting the tool coordinate system, the position of the jig coordinate system by the three-dimensional visual sensor is -Positioning to a jig coordinate system detection robot position capable of detecting the posture;
(B) detecting the position and orientation of the jig coordinate system using the three-dimensional visual sensor;
(C) At the time of arrival of a jig coordinate system re-detection chance that the position / posture of the end effector relative to the robot hand portion may have changed from that at the time of setting the tool coordinate system, the robot is Positioning to the jig coordinate system detection robot position;
(D) detecting the position and orientation of the jig coordinate system using the three-dimensional visual sensor;
(E) including a step of resetting the set tool coordinate system based on the position / orientation of the jig coordinate system obtained in the steps of (b) and (d).
A tool coordinate system correction setting method for the robot.
前記治具座標系の原点位置と座標軸の方向を表現する治具座標系表現手段を備え、
該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能である、前記エンドエフェクタ。A tool coordinate system is set for the end effector supported by the robot hand, and a change in position / posture of the jig coordinate system that is in a fixed positional / posture relationship with the tool coordinate system is arranged around the robot. The end effector used in a method of detecting using a three-dimensional visual sensor and correcting and setting the tool coordinate system,
The direction of the origin position and the coordinate axes before the winding tool coordinate system with a jig coordinate system representation means for representable,
The jig coordinate system representation means is provided with the fixed position / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are recognized by the three-dimensional visual sensor. The end effector is possible .
前記治具座標系の原点位置と座標軸の方向を表現する治具座標系表現手段を備え、
該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能である、前記ハンド。A tool coordinate system is set for the hand supported by the robot hand, and a change in position / posture of the jig coordinate system that is in a fixed position / posture relationship with the tool coordinate system is arranged around the robot. The hand used in a method of detecting using a three-dimensional visual sensor and correcting and setting the tool coordinate system,
The direction of the origin position and the coordinate axes before the winding tool coordinate system with a jig coordinate system representation means for representable,
The jig coordinate system representation means is provided with the fixed position / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are recognized by the three-dimensional visual sensor. The hand is possible .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27135696A JP4020994B2 (en) | 1996-09-24 | 1996-09-24 | Robot tool coordinate system correction setting method and end effector used in the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27135696A JP4020994B2 (en) | 1996-09-24 | 1996-09-24 | Robot tool coordinate system correction setting method and end effector used in the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1097311A JPH1097311A (en) | 1998-04-14 |
JP4020994B2 true JP4020994B2 (en) | 2007-12-12 |
Family
ID=17498937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27135696A Expired - Fee Related JP4020994B2 (en) | 1996-09-24 | 1996-09-24 | Robot tool coordinate system correction setting method and end effector used in the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4020994B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010179389A (en) * | 2009-02-04 | 2010-08-19 | Ihi Corp | Method of calibrating robot tool coordination system and tool therefor |
JP2011011326A (en) * | 2009-07-06 | 2011-01-20 | Ihi Corp | Tool and method for calibrating tool position of robot |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4418841B2 (en) * | 2008-01-24 | 2010-02-24 | キヤノン株式会社 | Working device and calibration method thereof |
JP5463459B2 (en) * | 2010-04-15 | 2014-04-09 | 多摩川精機株式会社 | Work confirmation system |
US9259289B2 (en) * | 2011-05-13 | 2016-02-16 | Intuitive Surgical Operations, Inc. | Estimation of a position and orientation of a frame used in controlling movement of a tool |
JP6017213B2 (en) * | 2012-07-20 | 2016-10-26 | 株式会社神戸製鋼所 | Calibration method for robot with optical sensor |
JP6462986B2 (en) * | 2014-02-07 | 2019-01-30 | キヤノン株式会社 | Robot control method, article manufacturing method, and control apparatus |
CN104057290B (en) * | 2014-06-24 | 2016-09-14 | 中国科学院自动化研究所 | A kind of robotic asssembly method and system of view-based access control model and force-feedback control |
JP6512456B2 (en) * | 2016-12-27 | 2019-05-15 | トヨタ自動車株式会社 | Calibration jig and method for horizontally articulated robot |
-
1996
- 1996-09-24 JP JP27135696A patent/JP4020994B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010179389A (en) * | 2009-02-04 | 2010-08-19 | Ihi Corp | Method of calibrating robot tool coordination system and tool therefor |
JP2011011326A (en) * | 2009-07-06 | 2011-01-20 | Ihi Corp | Tool and method for calibrating tool position of robot |
Also Published As
Publication number | Publication date |
---|---|
JPH1097311A (en) | 1998-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10618166B2 (en) | Teaching position correction device and teaching position correction method | |
CN111482959B (en) | Automatic hand-eye calibration system and method of robot motion vision system | |
EP1215017B1 (en) | Robot teaching apparatus | |
EP2981397B1 (en) | A robot system and method for calibration | |
US10906182B2 (en) | Method of teaching robot and robot system | |
EP1555508B1 (en) | Measuring system | |
EP1584426B1 (en) | Tool center point calibration system | |
US11014233B2 (en) | Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus | |
US6728417B1 (en) | Measurement apparatus | |
JP3644991B2 (en) | Coordinate system coupling method in robot-sensor system | |
WO2020252632A1 (en) | Coordinate system calibration method, device, and computer readable medium | |
EP4070923A1 (en) | Coordinate system alignment method, alignment system, and alignment device for robot | |
JP4020994B2 (en) | Robot tool coordinate system correction setting method and end effector used in the method | |
EP3411194A1 (en) | Robot system calibration | |
JPH06131420A (en) | Method and device for supporting construction | |
JPH09128549A (en) | Relative position attitude detecting method for robot system | |
JP6410411B2 (en) | Pattern matching apparatus and pattern matching method | |
KR20130075712A (en) | A laser-vision sensor and calibration method thereof | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
JPH0746288B2 (en) | Control method and device for robot with hand vision | |
EP3895855A1 (en) | Robot control system and robot control method | |
JPH04269194A (en) | Plane measuring method | |
WO2021210540A1 (en) | Coordinate system setting system and position/orientation measurement system | |
JPH04100573A (en) | Correction method of shifting of camera coordinate system | |
EP4289565A1 (en) | Device, method and program for marker position registration and corresponding marker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070926 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |