JP4020994B2 - Robot tool coordinate system correction setting method and end effector used in the method - Google Patents

Robot tool coordinate system correction setting method and end effector used in the method Download PDF

Info

Publication number
JP4020994B2
JP4020994B2 JP27135696A JP27135696A JP4020994B2 JP 4020994 B2 JP4020994 B2 JP 4020994B2 JP 27135696 A JP27135696 A JP 27135696A JP 27135696 A JP27135696 A JP 27135696A JP 4020994 B2 JP4020994 B2 JP 4020994B2
Authority
JP
Japan
Prior art keywords
coordinate system
jig
robot
tool
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27135696A
Other languages
Japanese (ja)
Other versions
JPH1097311A (en
Inventor
伸介 ▲榊▼原
善久 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP27135696A priority Critical patent/JP4020994B2/en
Publication of JPH1097311A publication Critical patent/JPH1097311A/en
Application granted granted Critical
Publication of JP4020994B2 publication Critical patent/JP4020994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ハンド等のエンドエフェクタ(手先効果器)をツールとして取り付けたロボットにおけるツール座標系補正設定方法、並びに該方法に使用するエンドエフェクタに関する。本発明は、例えばロボットとエンドエフェクタの間に介在させるアダプタの交換等に伴って生じるエンドエフェクタの位置・姿勢ずれを補償するようにツール座標系を再設定する際に適用される。
【0002】
【従来の技術】
ロボットを各種作業に適用するに際しては、ロボットアーム先端のフェイスプレート(メカニカルインターフェイス)にハンド等のエンドエフェクタを取り付ることが通例である。そして、ロボットに所望の作業を実行させる為に、ロボットに、フェイスプレートに対するエンドエフェクタの位置・姿勢を表わすデータを与える必要がある。
【0003】
エンドエフェクタの位置・姿勢を代表する点は一般にツール先端点(TCP)と呼ばれており、このツール先端点を原点とするツール座標系を設定することで、ロボットにエンドエフェクタの位置・姿勢が教示される。一般に、ツール座標系の設定データは、フェイスプレート代表点(通常は中心点)を原点とするフェイスプレート座標系から見たツール座標系の相対的な位置・姿勢を記述する行列を表わすデータとしてロボットに与えられる。
【0004】
一旦ツール座標系の設定を行なった後、ロボットの干渉事故等の原因でエンドエフェクタのフェイスプレートに対する相対的な位置・姿勢に変化を生じることがある。特に、力センサのように破損し易いアダプタがフェイスプレートとエンドエフェクタの間に介在している場合、アダプタを交換する機会も多く、それに伴ってエンドエフェクタの位置・姿勢ずれが発生することが避けられない。
【0005】
このような事態に対する対処方法としては、次の3つが考えられる。
(1)エンドエフェクタの取付位置・姿勢を精密に調整し直し、元の(位置・姿勢ずれ発生前の)エンドエフェクタ位置・姿勢を正確に再現する。
(2)位置・姿勢ずれを起したエンドエフェクタをそのまま使えるように、教示をやり直す。
(3)エンドエフェクタの位置・姿勢ずれを補償するように、ツール座標系を補正設定(再設定)する。
【0006】
しかし、(1)の方法は調整作業自体に熟練と時間を要し、ユーザである作業者にかかる負担が大きい。特に、エンドエフェクタがハンドであった場合、ツール先端点は教示作業上の便宜を考えてハンドの複数の爪の間(空中の点)に設定されることも多く、元のエンドエフェクタ位置・姿勢を再現することは非常に難しくなる。
【0007】
また、(2)の方法も教示済みのプログラムが多い場合など、作業に要する時間が膨大となる。
(3)のタイプに属する技術としては、図1に示したような方法が知られている。この方法によれば、(a)ツール先端点(TCP)として設定を希望するツール(エンドエフェクタ)の特定点が、空間内の同一点P0 に一致するような3つの姿勢RB1〜RB3をロボットにとらせ、(b)各姿勢におけるロボットの現在位置データに基づいてツール先端点のフェイスプレートに対する相対位置を求め、更に、(c)ツール座標系の座標軸の方向を別途教示する手順が実行される。
【0008】
このような方法は、尖頭状のエンドエフェクタの先端にツール先端点を設定するというような単純なケースであれば比較的実行容易と考えられるが、エンドエフェクタがハンドであるような場合には、ロボットの3姿勢におけるツール先端点を同一点P0 に一致させることが困難になる。また、この方法では、ツール座標系の原点位置(ツール先端点位置)は取得出来るが、座標軸の方向を取得することが出来ないという問題点もある。
【0009】
【発明が解決しようとする課題】
そこで、本発明の目的は、これら従来技術の問題点を克服し、エンドエフェクタの形状やツール先端点の設定位置に左右されずに、簡単な作業で安定した補正精度を以てツール座標系を補正設定することが出来る方法を提供するとともに、本方法を実行するに適したエンドエフェクタを提供することにある。
【0010】
【課題を解決するための手段】
本発明のツール座標系補正設定方法は、ロボット手先部に支持されたエンドエフェクタにツール座標系を設定するとともに、ツール座標系と固定的な位置・姿勢関係にある治具座標系の原点位置と座標軸の方向を3次元視覚センサによる認識が可能な形態で表現する治具座標系表現手段を具備する治具を設け、ロボットの周辺に前記3次元視覚センサを配置し、ロボットのツール座標系を補正設定するものであり、次の諸段階を含んでいる。
【0011】
(a)ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、ツール座標系の設定時のそれから変化していない初期状態において、ロボットを前記3次元視覚センサによる前記治具座標系の位置・姿勢の検出が可能な治具座標系検出ロボット位置に位置決めする段階
(b)3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階(c)ロボット手先部に対するエンドエフェクタの位置・姿勢が、ツール座標系の設定時のそれから変化している可能性が生じた治具座標系再検出機会の到来時に、ロボットを治具座標系検出ロボット位置に位置決めする段階
(d)3次元視覚センサを用いて治具座標系の位置・姿勢を検出する段階
(e)上記(b)の段階及び(d)の段階で求められた治具座標系の位置・姿勢に基づいて、それまで設定されていたツール座標系を再設定する段階
エンドエフェクタは例えばハンドであり、力センサなどのアダプタを介してロボット手先部に支持されていても良い。典型的な実施形態においては、3次元視覚センサはスリット光投光手段と撮影手段と画像処理手段を備えた型のものが使用される。
【0012】
典型的な実施形態において、治具に具備される治具座標系表現手段は、治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている。また、ツール座標系と固定的な位置・姿勢関係にある治具座標系の原点位置と座標軸の方向を3次元視覚センサによる認識が可能な形態で表現する治具座標系表現手段を備えたハンドあるいは他のエンドエフェクタを用意しておくことは、上記ツール座標系補正設定方法を円滑に実施する上で好ましい。典型的な実施形態において使用されるエンドエフェクタは、治具座標系表現手段として、治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている。ここで、該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能となっている。
【0013】
【発明の実施の形態】
本発明に係るツール座標系補正設定方法は、エンドエフェクタがロボットの手先部(メカニカルインターフェイス)に直接、あるいはアダプタを介して適正に取り付けられた状態(位置・姿勢ずれ発生前の状態。以下、「初期状態」とも言う。)において開始される。はじめに、実施時の手順と基礎となる計算の概要を図2を参照して説明しておく。
【0014】
1.初期状態において、作業に適したツール座標系Bを設定する。なお、このようなツール座標系Bの設定は、エンドエフェクタの形態や作業内容に即して実行される極めて一般的なものである。初期状態(位置・姿勢ずれ発生前)において、メカニカルインターフェイスの代表点(フェイスプレートに設定された座標系の原点F)に対するツール座標系Bの位置・姿勢を表わす同次変換行列を、図2に示したように FB とする。
2.初期状態が保たれている間に(ツール座標系Bの設定の前後いずれも可)、ロボットを3次元視覚センサの周辺の適当な位置に位置決めし、エンドエフェクタに固定された治具座標系Aの位置・姿勢を検出する。以後、この検出を行なった際のロボットの位置(フェイスプレート座標系原点Fの位置で代表)を「治具座標系検出ロボット位置」と言う。
【0015】
初期状態(位置・姿勢ずれ発生前)において、メカニカルインターフェイスの代表点(フェイスプレートに設定された座標系の原点F)に対する治具座標系Aの位置・姿勢を表わす同次変換行列を、図2に示したように FA とする。行列
FAFB の間には下記(1)式の関係が成立する。
FBFA AB ・・・(1)
ここで、行列 AB は治具座標系Aに対するツール座標系Bの位置・姿勢を表わしている。
【0016】
3.初期状態が壊れたと思われる時に(例えば、アダプタ交換時)、ロボットを再度治具座標系検出ロボット位置に位置決めし、3次元視覚センサ覚センサを用いて治具座標系の位置・姿勢を検出する。このように、エンドエフェクタの位置・姿勢変化の可能性の発生に伴い、治具座標系の再検出が行なわれる機会のことを「治具座標系再検出機会」という。治具座標系再検出機会における治具座標系をA’のフェイスプレート座標系原点Fに対する位置・姿勢を表わす同次変換行列を、図2に示したように、 FA'とする。
【0017】
同様に、初期状態で設定されたツール座標系Bが位置・姿勢ずれを起したものをB’で表わせば、治具座標系再検出機会におけるツール座標系B’のフェイスプレート座標系原点Fに対する位置・姿勢を表わす同次変換行列 FB'は、下記(2)式で与えられる。
FB'FA' A'B' ・・・(2)
ここで、行列 A'B' は治具座標系再検出機会における治具座標系A’に対するツール座標系B’の位置・姿勢を表わしているが、治具座標系がエンドエフェクタに固定されているという条件下では(即ち、エンドエフェクタ自身が変形しない限り)、両者の相対的な関係は保持されるから、
A'B'AB ・・・(3)
となる。(1)〜(3)式から、次式(4)の関係が得られる。
【0018】
FB'FA' ABFA' FA -1 FB ・・・(4)
4.(4)式の最右辺を計算し、ツール座標系B’の再設定データとしてロボットに教示すれば、ツール座標系の位置・姿勢ずれを補償する形でツール座標系の再設定を行なうことが可能になる。
【0019】
5.(4)式の右辺中の行列 FB は、初期状態において設定されたツール座標系のデータで与えられる。従って、残る乗算項 FA' FA -1 を3次元視覚センサによって検出される治具座標系A及びA’の位置・姿勢から求めれば良いことになる。 FA'及び FA -1 は各々次のように表わすことが出来る。
FA'FR RA' ・・・(5)
FA -1 =( FR RA-1RA -1 FR -1 ・・・(6)
ここで、
FR ;フェイスプレート座標系から見たロボット座標系の位置・姿勢を表わす同次変換行列
RA';ロボット座標系から見た治具座標系A’の位置・姿勢を表わす同次変換行列
RA ;ロボット座標系から見た治具座標系Aの位置・姿勢を表わす同次変換行列
である。
【0020】
上記(5),(6)式から、

Figure 0004020994
となる。ここで、 RS はロボット座標系R(ロボットに設定済みの任意の3次元直交座標系)に対する3次元視覚センサのセンサ座標系Sの位置・姿勢を表わす同次変換行列であり、適当なキャリブレーションによって取得される。
6.結局、再設定されるツール座標系を表わす(4)式は、
Figure 0004020994
となる。特殊なケースとして、エンドエフェクタの位置・姿勢に全くずれが生じていない場合には、当然 SA'SA となるから、(8)式は下記(9)式となる。
FB'FB ・・・(9)
(8)式の右辺に含まれる行列の出所をまとめて記せば次のようになる。
FRFR -1 ;治具座標系検出ロボット位置における現在位置データから求められる。
RSRS -1 ;ロボット座標系Rとセンサ座標系Sを結合させるキャリブレーションデータから求められる。
SA -1 ;初期状態における治具座標系Aの検出データ(センサデータ)から求められる。
SA' ;治具座標系再検出機会における治具座標系A’の検出データ(センサデータ)から求められる。
FB ;初期状態における治具座標系Aの設定データである。
なお、上記(4)式において、 AB (座標系A,Bの位置・姿勢関係)の正確なデータが用意出来る場合には、
Figure 0004020994
から、 FB'を求めても良い。但し、この場合も FRRS のデータは必要である。そして、(8)式には FRFR -1RSRS -1 が乗算関係で含まれているために、治具座標系検出ロボット位置や3次元視覚センサのキャリブレーションデータに多少の誤差があっても、それが FB'の計算結果に現れ難い。従って、(10)式を使用するよりも、(8)式を使用することが好ましい。
【0021】
このようにして、ツール座標系を再設定すれば、ロボット動作の再教示を行なわなくとも、エンドエフェクタが位置・姿勢ずれを起しす前と同じロボット作業を実行することが出来る。
【0022】
図3は、本発明の方法を実施する際に使用可能なシステムの制御部を構成するロボット制御装置並びに関連接続関係を説明する要部ブロック図である。ロボット制御装置5は、ここでは3次元視覚センサの画像処理装置内蔵型のものが採用されており、中央演算処理装置(以下、CPU)51を備え、CPU51には、ROMからなるメモリ52、RAMからなるメモリ53、不揮発性メモリ54、液晶ディスプレイを備えた教示操作盤55、ロボットの各軸を制御するためのデジタルサーボ回路56、ストラクチャライトユニット用インターフェイス61、画像処理プロセッサ62、モニタインターフェイス63、フレームメモリ64、プログラムメモリ65、データメモリ66及び汎用インターフェイス67がバス58を介して接続されている。
【0023】
デジタルサーボ回路56は、ロボットRBの各軸を制御するために、サーボアンプ57を介してロボットRBの機構部に接続されている。また、ストラクチャライトユニット用インターフェイス61にはストラクチャライトユニットSUが接続され、モニタインターフェイス63には例えばCRTからなるモニタディスプレイMOが接続されている。ストラクチャライトユニットSUは、後述するように、3次元視覚センサの投光部及び撮影部をユニット化したものである。
【0024】
汎用インターフェイス67には、必要に応じて各種の外部装置を接続することが出来るが、ここではロボット手先部のフェイスプレートとエンドエフェクタの間に介在するアダプタを構成する力センサ2が示されている。
【0025】
ROM52には、システム各部の制御に必要なシステムログラムが格納されている。RAM53はデ−タの一時記憶や演算の為に利用されるメモリである。不揮発性メモリ54には、ロボットRB、ストラクチャライトユニットSU、力センサ2などの外部装置の動作を規定した動作プログラムのデータ、座標系(座標系Rを含む;図1参照。)の設定データ、3次元視覚センサのキャリブレーションデータ(前述した行列 RS のデータを含む;図1参照。)、関連設定値等が格納される。
【0026】
ストラクチャライトユニット用インターフェイス61は、ストラクチャライトユニットSUの各部を制御するための指令の授受やCCDカメラ(図4(a)参照)で撮影された画像の取り込みに用いられる。取り込まれた画像はグレイスケールに変換後、一旦フレームメモリ64に格納される。フレームメモリ64に格納された画像はモニタディスプレイMO上に表示することが出来るようになっている。
【0027】
プログラムメモリ65には、画像処理プロセッサ62を利用した画像処理と解析を行なうためのプログラムが格納され、データメモリ66には画像処理と解析に関連した設定データ等が格納される。本実施形態では、特に、治具座標系の位置・姿勢を求めるための処理を定めたプログラムデータ並びに関連設定データがこれら格納データに含まれている。なお、処理の内容は後述する。
【0028】
図4は、ストラクチャライトユニットSUの一般的構成を説明するもので、図4(a)にストラクチャライトユニットSUの要部構造、図4(b)ストラクチャライトの形成方法を間単に記した。図4(a)に示されたストラクチャライトユニットSUは、ストラクチャライトSLとしてスリット光を投光するもので、投光部はレーザ発振器12、円柱レンズ13、偏向ミラーを備えたガルバノメータ14(ステッピングモータで駆動)及び投光窓11を備え、撮影部はCCDカメラ20及び撮影窓21を備えている。
【0029】
図4(b)に示したように、レーザ発振器12から出射されたレーザビームは円柱レンズ13によってスリット光SLに変換される。スリット光SLは、ステッピングモータによる高速駆動が可能なガルバノメータ14で投光方向を指示する指令値に従って所定の方向に偏向され、投光窓11から被計測対象物16上に投光される。被計測対象物W上に形成された輝線15を含む画像がCCDカメラ20による影で取得され、画像処理装置を内蔵したロボット制御装置5に取り込まれる。
【0030】
ロボット制御装置5は、前述した画像処理機能を利用して輝線15を含む画像を解析し、輝線15の端点位置151,152等の3次元位置を求める。なお、端点位置151,152等の3次元位置を求める原理とそれに基づく計算処理の詳細については周知事項なのでここでは説明を省略する。
【0031】
次に、図5は図3、図4を参照して説明した構成と機能を利用して本発明の方法を実施する際の全体配置の概要を説明する模式図である。
ロボットRBは、ここではテーブルTB上に供給されるワークW2にワークW1を嵌合する力制御ロボットとして描かれている。ロボットRBの手先部1には6軸力を検出する力センサ2が装着され、この力センサ2にエンドエフェクタとしてハンド3が取り付けられている。即ち、力センサ2はエンドエフェクタ(ハンド3)取付のためのアダプタの役割を果している。
【0032】
ワークW1はハンド3の複数本の爪31で把持され、テーブルTB上のワークW2に嵌合される。力センサ2はワークW1を介して受ける力/モーメントを検出し、ロボット制御装置5に伝える。ロボット制御装置5は、力センサ2の出力を利用した力制御を実行し、嵌合動作が円滑に行なわれるようにする。
【0033】
本実施形態でエンドエフェクタとして使用されているハンド3には、本発明の特徴に従って、治具座標系表現手段を備えた治具4が設けられている。治具4は、ハンド3に対して必要時に装着しても良く、また、ハンド3の一部として固設された構造としても良い。
【0034】
本実施形態では、図示されているロボット姿勢を治具座標系検出ロボット位置に採用し、テーブルTB上の適当な位置(治具4上の治具座標系表現手段の検出に好適な位置)にストラクチャライトユニットSUを設置する。ストラクチャライトユニットSUを含む3次元視覚センサのキャリブレーションは周知の適当な手法を用いて完了済み(ロボットRBに設定されている座標系Rとセンサ座標系Sが結合済み)であるとする。
【0035】
治具4上の治具座標系の位置・姿勢を検出する際には、ストラクチャライトユニットSUの投光部からスリット光SLが治具4に向けて投光され、撮影部で治具座標系表現手段上に形成された輝線像が撮影される。
【0036】
治具4には、治具座標系の原点位置と座標軸の方向を知るために必要な情報を、3次元視覚センサによって認識可能な形態で提供する治具座標系表現手段が設けられている。本実施形態では、スリット光投光型の3次元視覚センサを採用していることを考慮して、スリット光SLの投光により端点を持つ直線状の輝線が形成されるように、異なる方向を向いた複数本の稜線を提供する表面形状手段を以て治具座標系表現手段とする。
【0037】
図6は本実施形態で採用される治具4の治具座標系表現形態の一例を説明するために、ロボット手先部1の周辺部を拡大描示し、治具座標系とツール座標系の関係を併記した見取り図である。図6に示したように、ロボットの手先部1に力センサ2を介して取り付けられたハンド3の周面上に設けられた治具4は、治具座標系表現手段(表面形状手段)として、長方形帯状の平坦面領域41とそれに取り囲まれた凹部42を備えている。
【0038】
長方形枠状の平坦面領域41は、内側の一つのコーナを以て治具座標系A(図1も参照)の原点OA を表現し、原点OA から横方向及び縦方向に延びる稜線41a,41b以て各々XA 軸、YA 軸を表現する。これに対してツール座標系B(図1も参照)は、ハンド3の3本の爪31に囲まれた位置に原点OB を持ち、ハンド3の軸方向がZB 軸となるように設定されている。
【0039】
図1に関連して説明したように、ハンド3が変形しない限り、一旦固定された両座標系A,Bの相対的な位置・姿勢関係は不変である。しかし、治具座標系Aとツール座標系Bの相対的な位置・姿勢関係を特定のものとする必要はなく、予め知る必要もない。従って、治具4の取付位置に関して正確な位置決めを行なう負担は生じない。但し、前述の(10)式を用いてツール座標系の設定データを更新する場合には、 AB を定めるための正確なデータが事前に必要となる。
【0040】
図7は図6中に示された治具4のみを拡大抽出し、スリット光による輝線の形成状況を併記したものである。同図を参照し、治具座標系A(またはA’)の位置・姿勢を3次元視覚センサを用いて検出する手順の概略を説明すれば、次の様になる。
ロボットRBが図5に示した如き治具座標系検出ロボット位置にある状態で、ストラクチャライトユニットSUを使ってスリット光を治具4の平坦面領域41を斜めに横切るように投光する。投光は2回(またはそれ以上)行い、平坦面領域41上に輝線L1(第1回目投光)、L2(第2回目投光)を形成する。輝線L1,L2の一部は凹部42上にも形成されるが、ここでは座標系検出には利用されない。ストラクチャライトユニットSUとロボット制御装置5を合わせた3次元視覚センサを用いて治具座標系A(またはA’)を定める手順は、例えば次のものとすることが出来る。説明の便宜上、この手順を「手順1」と呼ぶ。
【0041】
[手順1]
1.輝線L1が稜線41a,41bを横切る点に対応する端点C2 、C3 の3次元位置を求める。
2.輝線L2が稜線41a,41bを横切る点に対応する端点C6 、C7 の3次元位置を求める。
3.端点C2 とC6 の位置から稜線41aが表わす直線を求める。
4.端点C3 とC7 の位置から稜線41bが表わす直線を求める。
5.両者の交点として原点OA の3次元位置を求める。
6.端点C6 からC2 に向かうベクトル<u>で治具座標系A(A’)のXA 軸の方向を定める。
7.端点C3 からC7 に向かうベクトル<w>で治具座標系A(A’)のZA 軸の方向を定める。
8.<v>=<w>×<u>で治具座標系A(A’)のYA 軸の方向を定める。
【0042】
なお、端点C1 ,C5 ,C4 ,C8 を含めた端点の内の3個以上を使って平坦面41の方向を求め、YA 軸の方向を定めても良い。
【0043】
図8は本実施形態で採用される治具4の治具座標系表現形態の別の例を説明する図で、治具4を拡大描示し、スリット光による輝線の形成状況を併記されている。同図に示したように、本例の治具4は、治具座標系表現手段として、互いに直交した3つの平坦面領域43〜45を備えた三角錐形状部を備えている。そして、三角錐形状部は隣接する平坦面領域43〜45間の交線として、3本の互いに直交した稜線H1〜H3が提供されている。
【0044】
これら稜線H1〜H3は、治具座標系A(またはA’)のXA 軸、YA 軸及びZA 軸を表現し、それらの交点(三角錐の頂点)が原点OA を表現する。本例の治具4をハンド3に設けた場合について、治具座標系A(またはA’)の位置・姿勢を3次元視覚センサを用いて検出する手順の概略を説明すれば、次の様になる。
図7に示した治具の場合と同じくロボットRBが図5に示した如き治具座標系検出ロボット位置にある状態で、ストラクチャライトユニットSUを使ってスリット光を治具4の平坦面領域43〜45の内の2つを横切るように投光する。投光は4回(またはそれ以上)行い、平坦面領域43,44上に輝線L3(第1回目投光)、L4(第2回目投光)を形成し、平坦面領域43,45上に輝線L5(第3回目投光)、L6(第4回目投光)を形成しする。
【0045】
ストラクチャライトユニットSUとロボット制御装置5を合わせた3次元視覚センサを用いて治具座標系A(またはA’)を定める手順は、例えば次のものとすることが出来る。説明の便宜上、この手順を「手順2」と呼ぶ。
【0046】
[手順2]
1.輝線L3が稜線H1を横切る点に対応する端点D2 の3次元位置を求める。
【0047】
2.輝線L4が稜線H1を横切る点に対応する端点D5 の3次元位置を求める。
【0048】
3.輝線L5が稜線H2を横切る点に対応する端点D8 の3次元位置を求める。
【0049】
4.輝線L4が稜線H2を横切る点に対応する端点D11の3次元位置を求める。
【0050】
5.端点D2 とD5 の位置から稜線H1が表わす直線を求める。
6.端点D8 とD11の位置から稜線H2が表わす直線を求める。
7.両者の交点として原点OA の3次元位置を求める。
8.端点D5 からD2 に向かうベクトル<p>で治具座標系A(A’)のXA 軸の方向を定める。
9.端点D8 からD11に向かうベクトル<q>で治具座標系A(A’)のYA 軸の方向を定める。
10.<r>=<p>×<q>で治具座標系A(A’)のZA 軸の方向を定める。
【0051】
なお、端点D1 ,D4 ,D7 ,D10,D3 ,D6 ,D9 ,D12等の端点のデータを加えて平坦面43〜45の方向を求め、各座標軸の方向を定めても良い。 図9は、上記説明した実施形態においてロボット制御装置5で実行される処理の概要をまとめて記したフローチャートで、各ステップM1〜Mの要点は次の通りである。なお、3次元視覚センサのキャリブレーション、作業に適したツール座標系B(図6参照)の設定等の準備作業は完了済みとする。また、治具4は図7あるいは図8に示したものが、ハンド3に既に装着または固設されているものとする。
【0052】
[M1]ロボットRBを治具座標系検出ロボット位置(図5参照)へ移動させる。治具座標系検出ロボット位置が未教示であればこれを不揮発性メモリ54に記憶する。但し、治具座標系検出ロボット位置の記憶は、ステップM2の後で実行しても良い。
[M2]3次元視覚センサを起動させ、手順1(図7の治具使用の場合)または手順2(図8の治具使用の場合)に従った処理を行い、治具座標系Aの位置・姿勢を検出して不揮発性メモリ54に記憶する(前出の同次変換行列 SA を表わすデータまたは RA を表わすデータで記憶)。
[M3]治具座標系再検出機会が到来したならば、ロボットRBを治具座標系検出ロボット位置(図5参照)へ移動させる。治具座標系再検出機会は、例えば力センサ2の破損等によって、力センサ2(交換品)とハンド3(非交換品)を取り付け直した時に到来する。また、力センサ2の破損等が無くとも、メンテナンスのためのツール座標系設定状態チェック時に治具座標系再検出機会をもたせても良い。
【0053】
[M4]3次元視覚センサを起動させ、手順1(図7の治具使用の場合)または手順2(図8の治具使用の場合)に従った処理を行い、治具座標系A’の位置・姿勢を検出して不揮発性メモリ54に記憶する((前出の同次変換行列 SA'を表わすデータまたは RA'を表わすデータで記憶)。
[M5]前述した(8)式の計算を行なって FB'を求め、ツール座標系の設定データを更新する。これによって、ツール座標系B’の補正設定が完了する。
【0054】
以上、本実施形態では3次元視覚センサとして他の型のものを採用しても良い。例えば、ストラクチャライトユニットSUの投光部に、スポット光投光走査型の投光部を装備したものを用いることも出来る。その場合、ストラクチャライトによって治具座標系表現手段上に形成される輝線は、連続または断続(輝点の列)のスポット光軌跡となる。
【0055】
また、治具に具備される治具座標系表現手段も、上述した2例に限るものではない。例えば、治具座標系の原点位置と座標軸の方向を表現する数個のドットを記したマークを描いた治具を用い、これを2台のカメラで撮影し、治具座標系の位置・姿勢を定めるようにしても良い。
【0056】
【発明の効果】
本発明によれば、エンドエフェクタの形状やツール先端点の設定位置に左右されずに、簡単な作業で安定した補正精度を以てツール座標系を補正設定することが出来る。例えば、ハンドの爪の間など、エンドエフェクタの構成部材上にない位置にツール座標系の原点が設定されるケースであっても、ツール座標系の補正設定に全く支障がない。また、3次元視覚センサによる治具座標系の位置・姿勢の検出に適合した治具座標系表現手段を具備したエンドエフェクタを利用することで、本方法がより円滑に実行することが出来る。
【図面の簡単な説明】
【図1】エンドエフェクタの位置・姿勢ずれを補償するように、ツール座標系を補正設定(再設定)するための従来技術について説明する図である。
【図2】本発明に係るツール座標系補正設定方法の概要を説明する概念図である。
【図3】本発明の方法を実施する際に使用可能なシステムの制御部を構成するロボット制御装置並びに関連接続関係を説明する要部ブロック図である。
【図4】(a)ストラクチャライトユニットの要部構造と、(b)ストラクチャライトの形成方法を例示した模式図である。
【図5】本発明の方法を実施する際の全体配置の概要を説明する模式図である。
【図6】本実施形態で採用される治具4の治具座標系表現形態の一例を説明するために、ロボット手先部1の周辺部を拡大描示し、治具座標系とツール座標系の関係を併記した見取り図である。
【図7】図6中に示された治具4のみを拡大抽出し、スリット光による輝線の形成状況を併記したものである。
【図8】本実施形態で採用される治具4の治具座標系表現形態の別の例を説明する図である。
【図9】実施形態においてロボット制御装置5で実行される処理の概要をまとめて記したフローチャートである。
【符号の説明】
1 ロボットの手先部
2 力センサ(アダプタ)
3 ハンド(エンドエフェクタ)
4 治具
5 ロボット制御装置(画像処理装置内蔵型)
11 投光窓
12 レーザ発振器
13 円柱レンズ
14 ガルバノメータ
15,L1〜L6 輝線
16 被計測対象物
20 CCDカメラ
21 撮影窓
31 ハンドの爪
41 平坦面領域(長方形帯状)
41a,41b,H1〜H3 稜線
42 凹部
43〜45 互いに直交する平坦面領域(三角錐状)
51 中央演算処理装置(CPU)
52 ROMメモリ
53 RAMメモリ
54 不揮発性メモリ
55 教示操作盤
56 デジタルサーボ回路
57 サーボアンプ
58 バス
61 ストラクチャライトユニット用インターフェイス
62 画像処理プロセッサ
63 モニタインターフェイス
64 フレームメモリ
65 プログラムメモリ
66 データメモリ
67 汎用インターフェイス
151,152,C1 〜C8 ,D1 〜D12 輝線の端点
A 治具座標系(初期状態)
A’ 治具座標系(位置・姿勢ずれ発生後)
B ツール座標系(初期状態)
B’ ツール座標系(位置・姿勢ずれ発生後)
F フェイスプレート代表点(フェイスプレート座標系原点)
MO モニタディスプレイ
OA 治具座標系の原点
R ロボット座標系
RB ロボット
RB1〜RB3 ロボット姿勢
S センサ座標系
SL スリット光
SU ストラクチャライトユニット
TB テーブル
W1,W2 ワーク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a tool coordinate system correction setting method in a robot to which an end effector (hand effector) such as a hand is attached as a tool, and an end effector used in the method. The present invention is applied when the tool coordinate system is reset so as to compensate for a position / posture shift of the end effector caused by, for example, replacement of an adapter interposed between the robot and the end effector.
[0002]
[Prior art]
When applying the robot to various operations, it is usual to attach an end effector such as a hand to a face plate (mechanical interface) at the tip of the robot arm. In order to cause the robot to perform a desired work, it is necessary to give the robot data indicating the position / posture of the end effector with respect to the face plate.
[0003]
The point representing the position / posture of the end effector is generally called the tool tip point (TCP). By setting the tool coordinate system with the tool tip point as the origin, the end effector's position / posture can be Be taught. In general, the setting data of the tool coordinate system is data representing a matrix describing the relative position and orientation of the tool coordinate system as seen from the face plate coordinate system with the face plate representative point (usually the center point) as the origin. Given to.
[0004]
Once the tool coordinate system is set, the relative position and posture of the end effector with respect to the face plate may change due to a robot interference accident or the like. In particular, when an easily damaged adapter such as a force sensor is interposed between the face plate and the end effector, there are many opportunities to replace the adapter, and avoiding the position / posture deviation of the end effector associated therewith. I can't.
[0005]
The following three methods can be considered as countermeasures against such a situation.
(1) The position and orientation of the end effector are precisely adjusted, and the original end effector position and orientation (before the occurrence of the position and orientation deviation) are accurately reproduced.
(2) Redo the teaching so that the end effector with the position / posture misalignment can be used as it is.
(3) The tool coordinate system is corrected (reset) so as to compensate for the position / posture deviation of the end effector.
[0006]
However, the method (1) requires skill and time for the adjustment work itself, and the burden on the operator who is the user is large. In particular, when the end effector is a hand, the tool tip point is often set between multiple claws (in the air) for the convenience of teaching work. It becomes very difficult to reproduce.
[0007]
Also, in the method (2), the time required for work becomes enormous when there are many taught programs.
As a technique belonging to the type (3), a method as shown in FIG. 1 is known. According to this method, (a) the robot has three postures RB1 to RB3 such that the specific point of the tool (end effector) desired to be set as the tool tip point (TCP) coincides with the same point P0 in the space. (B) obtaining a relative position of the tool tip point with respect to the face plate based on the current position data of the robot in each posture; and (c) a procedure for separately teaching the direction of the coordinate axis of the tool coordinate system. .
[0008]
Such a method is considered to be relatively easy to execute in a simple case where the tool tip point is set at the tip of a pointed end effector, but in the case where the end effector is a hand. Therefore, it is difficult to make the tool tip point in the three postures of the robot coincide with the same point P0. In addition, this method has a problem that although the origin position (tool tip point position) of the tool coordinate system can be acquired, the direction of the coordinate axis cannot be acquired.
[0009]
[Problems to be solved by the invention]
Therefore, the object of the present invention is to overcome these problems of the prior art and correct and set the tool coordinate system with stable correction accuracy with a simple operation regardless of the shape of the end effector and the setting position of the tool tip point. And providing an end effector suitable for performing the method.
[0010]
[Means for Solving the Problems]
The tool coordinate system correction setting method of the present invention sets the tool coordinate system to the end effector supported by the robot hand, and sets the origin position of the jig coordinate system having a fixed positional / posture relationship with the tool coordinate system. A jig having jig coordinate system expressing means for expressing the direction of the coordinate axis in a form that can be recognized by the three-dimensional visual sensor is provided, the three-dimensional visual sensor is arranged around the robot, and the tool coordinate system of the robot is The correction is set and includes the following steps.
[0011]
(A) In the initial state where the position / posture of the end effector relative to the robot hand has not changed from that at the time of setting the tool coordinate system, the robot is moved to the position / posture of the jig coordinate system by the three-dimensional visual sensor. Positioning to the position of the detecting robot coordinate system detection robot
(B) The step of detecting the position / posture of the jig coordinate system using a three-dimensional visual sensor (c) The position / posture of the end effector relative to the robot hand has changed from that at the time of setting the tool coordinate system. The stage of positioning the robot at the jig coordinate system detection robot position when the possibility of jig coordinate system re-detection has arrived
(D) A step of detecting the position / orientation of the jig coordinate system using a three-dimensional visual sensor.
(E) A step of resetting the tool coordinate system that has been set up to that point based on the position / orientation of the jig coordinate system determined in the steps (b) and (d).
The end effector is a hand, for example, and may be supported on the robot hand through an adapter such as a force sensor. In a typical embodiment, a three-dimensional visual sensor of the type including slit light projecting means, photographing means, and image processing means is used.
[0012]
  In a typical embodiment, the jig coordinate system representation means provided in the jig includes a flat surface and a ridge line that represent the origin position of the jig coordinate system and the direction of the coordinate axis. Also, a hand equipped with jig coordinate system expression means for expressing the origin position and the direction of the coordinate axis of the jig coordinate system having a fixed positional / posture relationship with the tool coordinate system in a form that can be recognized by a three-dimensional visual sensor. Alternatively, it is preferable to prepare another end effector in order to smoothly implement the tool coordinate system correction setting method. The end effector used in a typical embodiment includes a flat surface and a ridge line that express the origin position of the jig coordinate system and the direction of the coordinate axis as the jig coordinate system expressing means.Here, the jig coordinate system representation means is provided with the fixed positional / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are determined by the three-dimensional visual sensor. Can be recognized.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
The tool coordinate system correction setting method according to the present invention is a state in which the end effector is properly attached directly to the hand portion (mechanical interface) of the robot or via an adapter (a state before a position / posture deviation occurs. It is also called “initial state”.). First, an outline of procedures and basic calculations at the time of implementation will be described with reference to FIG.
[0014]
1. In the initial state, a tool coordinate system B suitable for work is set. Note that such setting of the tool coordinate system B is very general executed in accordance with the form of the end effector and the work content. FIG. 2 shows a homogeneous transformation matrix representing the position / orientation of the tool coordinate system B with respect to the representative point of the mechanical interface (the origin F of the coordinate system set on the face plate) in the initial state (before the position / orientation deviation occurs). As shownFTB And
2. While the initial state is maintained (either before or after the setting of the tool coordinate system B is possible), the robot is positioned at an appropriate position around the three-dimensional visual sensor, and the jig coordinate system A fixed to the end effector. Detects the position / posture. Hereinafter, the position of the robot when this detection is performed (represented by the position of the face plate coordinate system origin F) is referred to as a “jig coordinate system detection robot position”.
[0015]
FIG. 2 shows a homogeneous transformation matrix representing the position / posture of the jig coordinate system A with respect to the representative point of the mechanical interface (the origin F of the coordinate system set on the face plate) in the initial state (before occurrence of the position / posture deviation). As shown inFTA And line; queue; procession; parade
FTA When FTB The following equation (1) is established.
FTB =FTA  ATB                                  ... (1)
Where the matrixATB Represents the position / posture of the tool coordinate system B with respect to the jig coordinate system A.
[0016]
3. When the initial state seems to be broken (for example, when the adapter is replaced), the robot is again positioned at the jig coordinate system detection robot position, and the position / posture of the jig coordinate system is detected using a three-dimensional visual sensor sense sensor. . In this way, the opportunity for redetection of the jig coordinate system in association with the occurrence of a change in the position / posture of the end effector is referred to as “jig coordinate system redetection opportunity”. As shown in FIG. 2, a homogeneous transformation matrix representing the position and orientation of the jig coordinate system at the jig coordinate system re-detection opportunity with respect to the origin F of the face plate coordinate system of A ′.FTA 'And
[0017]
Similarly, if the tool coordinate system B set in the initial state has a position / posture deviation represented by B ′, the tool coordinate system B ′ relative to the face plate coordinate system origin F at the jig coordinate system re-detection opportunity is represented by B ′. Homogeneous transformation matrix representing position and orientationFTB 'Is given by the following equation (2).
FTB '=FTA ' A 'TB '                                  ... (2)
Where the matrixA 'TB ' Represents the position / posture of the tool coordinate system B ′ with respect to the jig coordinate system A ′ at the jig coordinate system re-detection opportunity, but under the condition that the jig coordinate system is fixed to the end effector (that is, As long as the end effector itself does not deform)
A 'TB '=ATB                                        ... (3)
It becomes. From the equations (1) to (3), the relationship of the following equation (4) is obtained.
[0018]
FTB '=FTA ' ATB =FTA ' FTA -1  FTB             ... (4)
4). If the rightmost side of the equation (4) is calculated and taught to the robot as the reset data of the tool coordinate system B ′, the tool coordinate system can be reset to compensate for the position / posture deviation of the tool coordinate system. It becomes possible.
[0019]
5. (4) Matrix in the right side of equationFTB Is given by the data of the tool coordinate system set in the initial state. Therefore, the remaining multiplication termFTA ' FTA -1 Is obtained from the position and orientation of the jig coordinate systems A and A ′ detected by the three-dimensional visual sensor.FTA 'as well as FTA -1 Can be expressed as follows.
FTA '=FTR  RTA '                                  ... (5)
FTA -1 = (FTR  RTA )-1=RTA -1  FTR -1         ... (6)
here,
FTR ; Homogeneous transformation matrix representing the position and orientation of the robot coordinate system as seen from the faceplate coordinate system
RTA 'The homogeneous transformation matrix representing the position and orientation of the jig coordinate system A 'viewed from the robot coordinate system
RTA The homogeneous transformation matrix representing the position and orientation of the jig coordinate system A viewed from the robot coordinate system
It is.
[0020]
From the above formulas (5) and (6),
Figure 0004020994
It becomes. here, RTS Is a homogeneous transformation matrix representing the position and orientation of the sensor coordinate system S of the three-dimensional visual sensor with respect to the robot coordinate system R (arbitrary three-dimensional orthogonal coordinate system set for the robot), and is obtained by appropriate calibration. .
6). After all, the equation (4) representing the tool coordinate system to be reset is
Figure 0004020994
It becomes. As a special case, if there is no deviation in the position and orientation of the end effector, naturallySTA '=STA Therefore, the equation (8) becomes the following equation (9).
FTB '=FTB                                         ... (9)
The source of the matrix included in the right side of equation (8) can be summarized as follows.
FTR ,FTR -1 ; It is calculated | required from the present position data in a jig | tool coordinate system detection robot position.
RTS ,RTS -1 It is obtained from calibration data that combines the robot coordinate system R and the sensor coordinate system S;
STA -1 ; Obtained from detection data (sensor data) of the jig coordinate system A in the initial state.
STA ' It is obtained from the detection data (sensor data) of the jig coordinate system A 'at the jig coordinate system re-detection opportunity.
FTB  ; Setting data of the jig coordinate system A in the initial state.
In the above equation (4),ATB When accurate data (position / posture relationship of coordinate systems A and B) can be prepared,
Figure 0004020994
FromFTB 'You may ask for. However, also in this caseFTR ,RTS The data of is necessary. And in equation (8)FTR When FTR -1 ,RTS When RTS -1 Is included in the multiplication relationship, even if there is a slight error in the jig coordinate system detection robot position and the calibration data of the 3D visual sensor.FTB 'It is hard to appear in the calculation result. Therefore, it is preferable to use the formula (8) rather than the formula (10).
[0021]
By resetting the tool coordinate system in this way, the same robot operation as before the end effector has caused the position / posture deviation can be executed without re-teaching the robot operation.
[0022]
FIG. 3 is a principal block diagram for explaining a robot control apparatus and related connection relations constituting a control unit of a system that can be used when carrying out the method of the present invention. Here, the robot control device 5 employs a three-dimensional visual sensor built-in image processing device, and includes a central processing unit (hereinafter referred to as CPU) 51. The CPU 51 includes a memory 52 including a ROM, a RAM A memory 53, a nonvolatile memory 54, a teaching operation panel 55 having a liquid crystal display, a digital servo circuit 56 for controlling each axis of the robot, a structure light unit interface 61, an image processor 62, a monitor interface 63, A frame memory 64, a program memory 65, a data memory 66, and a general-purpose interface 67 are connected via a bus 58.
[0023]
The digital servo circuit 56 is connected to a mechanism unit of the robot RB via a servo amplifier 57 in order to control each axis of the robot RB. The structure light unit interface 61 is connected to the structure light unit SU, and the monitor interface 63 is connected to a monitor display MO made of, for example, a CRT. As will be described later, the structure light unit SU is obtained by unitizing a light projecting unit and a photographing unit of a three-dimensional visual sensor.
[0024]
Various types of external devices can be connected to the general-purpose interface 67 as required. Here, the force sensor 2 constituting an adapter interposed between the face plate of the robot hand and the end effector is shown. .
[0025]
The ROM 52 stores a system program necessary for controlling each part of the system. The RAM 53 is a memory used for temporary storage of data and calculation. In the nonvolatile memory 54, data of an operation program that defines the operation of an external device such as the robot RB, the structure light unit SU, and the force sensor 2, setting data of a coordinate system (including the coordinate system R; see FIG. 1), 3D visual sensor calibration data (the matrix described above)RTS Data; see FIG. ), Related setting values and the like are stored.
[0026]
The structure light unit interface 61 is used for sending / receiving commands for controlling each part of the structure light unit SU and capturing images taken by a CCD camera (see FIG. 4A). The captured image is temporarily stored in the frame memory 64 after being converted to gray scale. The image stored in the frame memory 64 can be displayed on the monitor display MO.
[0027]
The program memory 65 stores a program for performing image processing and analysis using the image processing processor 62, and the data memory 66 stores setting data related to image processing and analysis. In this embodiment, in particular, program data defining processing for obtaining the position / attitude of the jig coordinate system and related setting data are included in these stored data. The contents of the process will be described later.
[0028]
FIG. 4 illustrates a general configuration of the structure light unit SU. FIG. 4A simply shows the main structure of the structure light unit SU and FIG. 4B shows the structure light forming method. The structure light unit SU shown in FIG. 4A projects slit light as the structure light SL, and the light projecting unit is a galvanometer 14 (stepping motor) including a laser oscillator 12, a cylindrical lens 13, and a deflection mirror. And the light projection window 11, and the photographing unit is provided with a CCD camera 20 and a photographing window 21.
[0029]
As shown in FIG. 4B, the laser beam emitted from the laser oscillator 12 is converted into slit light SL by the cylindrical lens 13. The slit light SL is deflected in a predetermined direction by a galvanometer 14 that can be driven at a high speed by a stepping motor in accordance with a command value instructing a light projecting direction, and is projected onto the measurement target 16 from the light projecting window 11. An image including the bright line 15 formed on the measurement target W is acquired as a shadow by the CCD camera 20, and is captured by the robot control device 5 incorporating the image processing device.
[0030]
The robot controller 5 analyzes the image including the bright line 15 by using the image processing function described above, and obtains three-dimensional positions such as the end point positions 151 and 152 of the bright line 15. Since the principle for obtaining the three-dimensional positions such as the end point positions 151 and 152 and the details of the calculation processing based on the principle are well-known matters, description thereof is omitted here.
[0031]
Next, FIG. 5 is a schematic diagram for explaining the outline of the overall arrangement when the method of the present invention is implemented using the configuration and function described with reference to FIGS.
Here, the robot RB is depicted as a force control robot for fitting the workpiece W1 to the workpiece W2 supplied on the table TB. A force sensor 2 for detecting a six-axis force is attached to the hand portion 1 of the robot RB, and a hand 3 is attached to the force sensor 2 as an end effector. That is, the force sensor 2 serves as an adapter for attaching the end effector (hand 3).
[0032]
The workpiece W1 is held by a plurality of claws 31 of the hand 3, and is fitted to the workpiece W2 on the table TB. The force sensor 2 detects the force / moment received via the workpiece W1 and transmits it to the robot controller 5. The robot control device 5 executes force control using the output of the force sensor 2 so that the fitting operation is performed smoothly.
[0033]
The hand 3 used as an end effector in the present embodiment is provided with a jig 4 having jig coordinate system expression means according to the feature of the present invention. The jig 4 may be attached to the hand 3 when necessary, or may be a structure fixed as a part of the hand 3.
[0034]
In the present embodiment, the illustrated robot posture is adopted as the jig coordinate system detection robot position, and is set to an appropriate position on the table TB (a position suitable for detection of the jig coordinate system expressing means on the jig 4). Install the structure light unit SU. It is assumed that the calibration of the three-dimensional visual sensor including the structure light unit SU has been completed using a known appropriate technique (the coordinate system R set in the robot RB and the sensor coordinate system S have been combined).
[0035]
When detecting the position / orientation of the jig coordinate system on the jig 4, the slit light SL is projected from the light projecting portion of the structure light unit SU toward the jig 4, and the jig coordinate system is detected by the photographing unit. The bright line image formed on the expression means is photographed.
[0036]
The jig 4 is provided with jig coordinate system expression means for providing information necessary for recognizing the origin position of the jig coordinate system and the direction of the coordinate axis in a form recognizable by the three-dimensional visual sensor. In the present embodiment, considering that a slit light projection type three-dimensional visual sensor is adopted, different directions are set so that a linear bright line having an end point is formed by the projection of the slit light SL. The surface shape means that provides a plurality of facing ridgelines is used as the jig coordinate system expression means.
[0037]
FIG. 6 is an enlarged view of the peripheral portion of the robot hand portion 1 for explaining an example of the jig coordinate system expression form of the jig 4 employed in this embodiment, and the relationship between the jig coordinate system and the tool coordinate system. It is a sketch drawing in which As shown in FIG. 6, the jig 4 provided on the peripheral surface of the hand 3 attached to the hand portion 1 of the robot via the force sensor 2 is used as a jig coordinate system expressing means (surface shape means). The rectangular flat surface region 41 and the concave portion 42 surrounded by the rectangular belt-shaped flat surface region 41 are provided.
[0038]
The rectangular frame-shaped flat surface region 41 represents the origin OA of the jig coordinate system A (see also FIG. 1) with one inner corner, and includes ridge lines 41a and 41b extending from the origin OA in the horizontal and vertical directions. Each represents the XA axis and the YA axis. On the other hand, the tool coordinate system B (see also FIG. 1) has an origin OB at a position surrounded by the three claws 31 of the hand 3 and is set so that the axial direction of the hand 3 is the ZB axis. Yes.
[0039]
As described with reference to FIG. 1, unless the hand 3 is deformed, the relative positional / posture relationship between the coordinate systems A and B once fixed is invariable. However, the relative position / posture relationship between the jig coordinate system A and the tool coordinate system B is not required to be specific, and it is not necessary to know in advance. Therefore, there is no burden of performing accurate positioning with respect to the mounting position of the jig 4. However, when updating the setting data of the tool coordinate system using the above-mentioned equation (10),ATB Precise data is required to determine
[0040]
FIG. 7 is an enlarged view of only the jig 4 shown in FIG. 6 and shows the formation of bright lines by slit light. The outline of the procedure for detecting the position / orientation of the jig coordinate system A (or A ′) using a three-dimensional visual sensor will be described with reference to FIG.
In a state where the robot RB is at the jig coordinate system detection robot position as shown in FIG. 5, the structure light unit SU is used to project the slit light so as to cross the flat surface region 41 of the jig 4 diagonally. Light projection is performed twice (or more), and bright lines L1 (first light projection) and L2 (second light projection) are formed on the flat surface region 41. Some of the bright lines L1 and L2 are also formed on the recess 42, but are not used here for coordinate system detection. The procedure for determining the jig coordinate system A (or A ′) using a three-dimensional visual sensor that combines the structure light unit SU and the robot controller 5 can be, for example, as follows. For convenience of explanation, this procedure is referred to as “procedure 1”.
[0041]
[Procedure 1]
1. The three-dimensional positions of the end points C2 and C3 corresponding to the points where the bright line L1 crosses the ridge lines 41a and 41b are obtained.
2. The three-dimensional positions of the end points C6 and C7 corresponding to the points where the bright line L2 crosses the ridge lines 41a and 41b are obtained.
3. A straight line represented by the edge 41a is obtained from the positions of the end points C2 and C6.
4). A straight line represented by the edge line 41b is obtained from the positions of the end points C3 and C7.
5. The three-dimensional position of the origin OA is obtained as the intersection between the two.
6). The vector <u> from the end point C6 to C2 determines the direction of the XA axis of the jig coordinate system A (A ').
7). The vector <w> from the end point C3 to C7 determines the direction of the ZA axis of the jig coordinate system A (A ').
8). <V> = <w> × <u> defines the direction of the YA axis of the jig coordinate system A (A ').
[0042]
The direction of the flat surface 41 may be obtained using three or more of the end points including the end points C1, C5, C4, and C8, and the direction of the YA axis may be determined.
[0043]
FIG. 8 is a diagram for explaining another example of the jig coordinate system expression form of the jig 4 employed in the present embodiment. The jig 4 is shown in an enlarged manner, and the formation of bright lines by slit light is also shown. . As shown in the figure, the jig 4 of this example includes a triangular pyramid-shaped portion including three flat surface regions 43 to 45 orthogonal to each other as a jig coordinate system expressing means. The triangular pyramid-shaped portion is provided with three mutually perpendicular ridgelines H1 to H3 as intersecting lines between the adjacent flat surface regions 43 to 45.
[0044]
These ridge lines H1 to H3 represent the XA axis, the YA axis, and the ZA axis of the jig coordinate system A (or A '), and their intersection (the apex of the triangular pyramid) represents the origin OA. The outline of the procedure for detecting the position / orientation of the jig coordinate system A (or A ′) using the three-dimensional visual sensor when the jig 4 of this example is provided on the hand 3 will be described as follows. become.
As in the case of the jig shown in FIG. 7, in the state where the robot RB is at the position of the jig coordinate system detection robot as shown in FIG. Light is projected across two of -45. The light is projected four times (or more), bright lines L3 (first light projection) and L4 (second light projection) are formed on the flat surface regions 43 and 44, and the flat surface regions 43 and 45 are formed. Bright lines L5 (third light projection) and L6 (fourth light projection) are formed.
[0045]
The procedure for determining the jig coordinate system A (or A ′) using a three-dimensional visual sensor that combines the structure light unit SU and the robot controller 5 can be, for example, as follows. For convenience of explanation, this procedure is referred to as “procedure 2”.
[0046]
[Procedure 2]
1. The three-dimensional position of the end point D2 corresponding to the point where the bright line L3 crosses the ridge line H1 is obtained.
[0047]
2. The three-dimensional position of the end point D5 corresponding to the point where the bright line L4 crosses the ridge line H1 is obtained.
[0048]
3. The three-dimensional position of the end point D8 corresponding to the point where the bright line L5 crosses the ridge line H2 is obtained.
[0049]
4). The three-dimensional position of the end point D11 corresponding to the point where the bright line L4 crosses the ridge line H2 is obtained.
[0050]
5. The straight line represented by the edge H1 is obtained from the positions of the end points D2 and D5.
6). The straight line represented by the edge H2 is obtained from the positions of the end points D8 and D11.
7). The three-dimensional position of the origin OA is obtained as the intersection between the two.
8). The vector <p> from the end point D5 to D2 determines the direction of the XA axis of the jig coordinate system A (A ').
9. The vector <q> from the end point D8 to D11 determines the direction of the YA axis of the jig coordinate system A (A ').
10. <R> = <p> × <q> defines the direction of the ZA axis of the jig coordinate system A (A ′).
[0051]
Note that the directions of the flat surfaces 43 to 45 may be obtained by adding end point data such as the end points D1, D4, D7, D10, D3, D6, D9, D12, etc., and the directions of the respective coordinate axes may be determined. FIG. 9 is a flowchart summarizing the processing executed by the robot controller 5 in the above-described embodiment. The main points of the steps M1 to M are as follows. It is assumed that preparation work such as calibration of the three-dimensional visual sensor and setting of a tool coordinate system B (see FIG. 6) suitable for the work has been completed. Further, the jig 4 shown in FIG. 7 or FIG. 8 is assumed to be already mounted or fixed on the hand 3.
[0052]
[M1] The robot RB is moved to the jig coordinate system detection robot position (see FIG. 5). If the jig coordinate system detection robot position is not taught, it is stored in the nonvolatile memory 54. However, the storage of the jig coordinate system detection robot position may be executed after step M2.
[M2] Start the 3D visual sensor, perform processing according to Procedure 1 (when using the jig shown in FIG. 7) or Procedure 2 (when using the jig shown in FIG. 8), and position the jig coordinate system A. The attitude is detected and stored in the nonvolatile memory 54 (the above-mentioned homogeneous transformation matrixSTA Data representing orRTA Is stored as data representing).
[M3] When the jig coordinate system re-detection opportunity arrives, the robot RB is moved to the jig coordinate system detection robot position (see FIG. 5). The jig coordinate system re-detection opportunity comes when the force sensor 2 (replacement product) and the hand 3 (non-replacement product) are reattached due to, for example, damage to the force sensor 2 or the like. Even if the force sensor 2 is not damaged, a jig coordinate system re-detection opportunity may be provided when checking the tool coordinate system setting state for maintenance.
[0053]
[M4] The 3D visual sensor is activated, and processing according to Procedure 1 (when using the jig shown in FIG. 7) or Procedure 2 (when using the jig shown in FIG. 8) is performed. The position / orientation is detected and stored in the nonvolatile memory 54 ((the above-mentioned homogeneous transformation matrixSTA 'Data representing orRTA 'Is stored as data representing).
[M5] Perform the calculation of equation (8) above.FTB 'To update the setting data of the tool coordinate system. Thereby, the correction setting of the tool coordinate system B ′ is completed.
[0054]
As described above, in this embodiment, another type of three-dimensional visual sensor may be adopted. For example, a structure light unit equipped with a spot light projection scanning type light projecting unit can be used as the light projecting unit of the structure light unit SU. In that case, the bright line formed on the jig coordinate system representation means by the structure light becomes a continuous or intermittent (light line) spot light locus.
[0055]
Further, the jig coordinate system expression means provided in the jig is not limited to the above two examples. For example, using a jig on which a mark with a few dots representing the origin position of the jig coordinate system and the direction of the coordinate axis is drawn, this is taken with two cameras, and the position and orientation of the jig coordinate system May be determined.
[0056]
【The invention's effect】
According to the present invention, the tool coordinate system can be corrected and set with stable correction accuracy by a simple operation without being affected by the shape of the end effector and the setting position of the tool tip point. For example, even if the origin of the tool coordinate system is set at a position not on the component of the end effector, such as between the claws of the hand, there is no problem in the correction setting of the tool coordinate system. In addition, this method can be executed more smoothly by using an end effector equipped with jig coordinate system expression means adapted to detection of the position and orientation of the jig coordinate system by a three-dimensional visual sensor.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a conventional technique for correcting (resetting) a tool coordinate system so as to compensate for a position / posture shift of an end effector.
FIG. 2 is a conceptual diagram illustrating an outline of a tool coordinate system correction setting method according to the present invention.
FIG. 3 is a principal block diagram for explaining a robot control device constituting a control unit of a system that can be used when carrying out the method of the present invention and related connection relations.
FIGS. 4A and 4B are schematic views illustrating the main structure of a structure light unit, and FIG. 4B illustrating a method for forming a structure light.
FIG. 5 is a schematic diagram for explaining an outline of an overall arrangement when carrying out the method of the present invention.
FIG. 6 is an enlarged view of the periphery of the robot hand 1 to explain an example of a jig coordinate system expression form of the jig 4 employed in the present embodiment. It is a sketch drawing together with the relationship.
FIG. 7 is an enlarged view of only the jig 4 shown in FIG. 6 and shows the formation of bright lines by slit light.
FIG. 8 is a diagram illustrating another example of a jig coordinate system expression form of the jig 4 employed in the present embodiment.
FIG. 9 is a flowchart collectively showing an outline of processing executed by the robot control apparatus 5 in the embodiment.
[Explanation of symbols]
1 Robot hand
2 Force sensor (Adapter)
3 Hand (End Effector)
4 Jig
5 Robot controller (Built-in image processing device)
11 Floodlight window
12 Laser oscillator
13 Cylindrical lens
14 Galvanometer
15, L1-L6 bright line
16 Object to be measured
20 CCD camera
21 Shooting window
31 Hand nails
41 Flat surface area (rectangular band)
41a, 41b, H1-H3 ridgeline
42 recess
43 to 45 Flat surface regions orthogonal to each other (triangular pyramid shape)
51 Central processing unit (CPU)
52 ROM memory
53 RAM memory
54 Nonvolatile memory
55 Teaching operation panel
56 Digital Servo Circuit
57 Servo amplifier
58 Bus
61 Interface for structure light unit
62 Image processor
63 Monitor interface
64 frame memory
65 Program memory
66 Data memory
67 General-purpose interface
151, 152, C1 to C8, D1 to D12 Bright line end points
A Jig coordinate system (initial state)
A 'Jig coordinate system (after position / posture deviation)
B Tool coordinate system (initial state)
B 'Tool coordinate system (after position / posture deviation occurs)
F Face plate representative point (origin of face plate coordinate system)
MO monitor display
The origin of the OA jig coordinate system
R Robot coordinate system
RB robot
RB1 to RB3 robot posture
S Sensor coordinate system
SL slit light
SU Structure Light Unit
TB table
W1, W2 work

Claims (10)

ロボット手先部に支持されたエンドエフェクタにツール座標系を設定するとともに、前記ツール座標系と固定的な位置・姿勢関係にある治具座標系の原点位置と座標軸の方向を3次元視覚センサによる認識が可能な形態で表現する治具座標系表現手段を具備する治具を設け、
前記ロボットの周辺に前記3次元視覚センサを配置し、前記ロボットのツール座標系を補正設定する方法であって、
(a)前記ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、前記ツール座標系の設定時のそれから変化していない初期状態において、前記ロボットを前記3次元視覚センサによる前記治具座標系の位置・姿勢の検出が可能な治具座標系検出ロボット位置に位置決めする段階と、
(b)前記3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階と、
(c)前記ロボット手先部に対する前記エンドエフェクタの位置・姿勢が、前記ツール座標系の設定時のそれから変化している可能性が生じた治具座標系再検出機会の到来時に、前記ロボットを前記治具座標系検出ロボット位置に位置決めする段階と、
(d)前記3次元視覚センサを用いて前記治具座標系の位置・姿勢を検出する段階と、
(e)前記(b)の段階及び(d)の段階で求められた前記治具座標系の位置・姿勢に基づいて、前記設定されていたツール座標系を再設定する段階を含む、
前記ロボットのツール座標系補正設定方法。
A tool coordinate system is set for the end effector supported by the robot hand, and the origin position and coordinate axis direction of the jig coordinate system that is in a fixed positional / posture relationship with the tool coordinate system are recognized by a three-dimensional visual sensor. Provide a jig equipped with a jig coordinate system expression means to express in a possible form,
A method of arranging the three-dimensional visual sensor around the robot and correcting and setting a tool coordinate system of the robot,
(A) In the initial state where the position / posture of the end effector with respect to the robot hand portion has not changed from that at the time of setting the tool coordinate system, the position of the jig coordinate system by the three-dimensional visual sensor is -Positioning to a jig coordinate system detection robot position capable of detecting the posture;
(B) detecting the position and orientation of the jig coordinate system using the three-dimensional visual sensor;
(C) At the time of arrival of a jig coordinate system re-detection chance that the position / posture of the end effector relative to the robot hand portion may have changed from that at the time of setting the tool coordinate system, the robot is Positioning to the jig coordinate system detection robot position;
(D) detecting the position and orientation of the jig coordinate system using the three-dimensional visual sensor;
(E) including a step of resetting the set tool coordinate system based on the position / orientation of the jig coordinate system obtained in the steps of (b) and (d).
A tool coordinate system correction setting method for the robot.
前記エンドエフェクタが、アダプタを介して前記ロボット手先部に支持されている、請求項1に記載されたロボットのツール座標系補正設定方法。  The robot tool coordinate system correction setting method according to claim 1, wherein the end effector is supported by the robot hand portion through an adapter. 前記アダプタが力センサである、請求項1または請求項2に記載されたロボットのツール座標系を補正設定する方法。  The method for correcting and setting the tool coordinate system of the robot according to claim 1, wherein the adapter is a force sensor. 前記エンドエフェクタがハンドである、請求項1〜請求項3のいずれか1項に記載されたロボットのツール座標系補正設定方法。  The robot tool coordinate system correction setting method according to any one of claims 1 to 3, wherein the end effector is a hand. 前記3次元視覚センサが、スリット光投光手段と撮影手段と画像処理手段を備えている、請求項1〜請求項4のいずれか1項に記載されたロボットのツール座標系補正設定方法。  5. The tool coordinate system correction setting method for the robot according to claim 1, wherein the three-dimensional visual sensor includes a slit light projecting unit, a photographing unit, and an image processing unit. 前記治具座標系表現手段が、前記治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている、請求項1〜請求項5のいずれか1項に記載されたロボットのツール座標系補正設定方法。  The robot according to any one of claims 1 to 5, wherein the jig coordinate system expressing unit includes a flat surface and a ridge line that express an origin position and a direction of a coordinate axis of the jig coordinate system. Tool coordinate system correction setting method. ロボット手先部に支持されたエンドエフェクタにツール座標系を設定するとともに、前記ツール座標系と固定的な位置・姿勢関係にある治具座標系の位置・姿勢の変化を前記ロボットの周辺に配置された3次元視覚センサを用いて検出し、前記ツール座標系を補正設定する方法に使用される前記エンドエフェクタであって、
記治具座標系の原点位置と座標軸の方向を表現する治具座標系表現手段を備え
該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能である、前記エンドエフェクタ。
A tool coordinate system is set for the end effector supported by the robot hand, and a change in position / posture of the jig coordinate system that is in a fixed positional / posture relationship with the tool coordinate system is arranged around the robot. The end effector used in a method of detecting using a three-dimensional visual sensor and correcting and setting the tool coordinate system,
The direction of the origin position and the coordinate axes before the winding tool coordinate system with a jig coordinate system representation means for representable,
The jig coordinate system representation means is provided with the fixed position / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are recognized by the three-dimensional visual sensor. The end effector is possible .
前記治具座標系表現手段が、前記治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている、請求項7に記載されたエンドエフェクタ。  The end effector according to claim 7, wherein the jig coordinate system expressing unit includes a flat surface and a ridge line that express an origin position of the jig coordinate system and a direction of a coordinate axis. ロボット手先部に支持されたハンドにツール座標系を設定するとともに、前記ツール座標系と固定的な位置・姿勢関係にある治具座標系の位置・姿勢の変化を前記ロボットの周辺に配置された3次元視覚センサを用いて検出し、前記ツール座標系を補正設定する方法に使用される前記ハンドであって、
記治具座標系の原点位置と座標軸の方向を表現する治具座標系表現手段を備え
該治具座標系表現手段は、前記ツール座標系に対して前記固定的な位置・姿勢関係を以て設けられており、且つ、前記原点位置と前記座標軸の方向は、前記3次元視覚センサによって認識が可能である、前記ハンド。
A tool coordinate system is set for the hand supported by the robot hand, and a change in position / posture of the jig coordinate system that is in a fixed position / posture relationship with the tool coordinate system is arranged around the robot. The hand used in a method of detecting using a three-dimensional visual sensor and correcting and setting the tool coordinate system,
The direction of the origin position and the coordinate axes before the winding tool coordinate system with a jig coordinate system representation means for representable,
The jig coordinate system representation means is provided with the fixed position / posture relationship with respect to the tool coordinate system, and the origin position and the direction of the coordinate axis are recognized by the three-dimensional visual sensor. The hand is possible .
前記治具座標系表現手段が、前記治具座標系の原点位置と座標軸の方向を表現する平坦面と稜線を備えている、請求項に記載されたハンド。The hand according to claim 9 , wherein the jig coordinate system expressing unit includes a flat surface and a ridge line that express an origin position and a direction of a coordinate axis of the jig coordinate system.
JP27135696A 1996-09-24 1996-09-24 Robot tool coordinate system correction setting method and end effector used in the method Expired - Fee Related JP4020994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27135696A JP4020994B2 (en) 1996-09-24 1996-09-24 Robot tool coordinate system correction setting method and end effector used in the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27135696A JP4020994B2 (en) 1996-09-24 1996-09-24 Robot tool coordinate system correction setting method and end effector used in the method

Publications (2)

Publication Number Publication Date
JPH1097311A JPH1097311A (en) 1998-04-14
JP4020994B2 true JP4020994B2 (en) 2007-12-12

Family

ID=17498937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27135696A Expired - Fee Related JP4020994B2 (en) 1996-09-24 1996-09-24 Robot tool coordinate system correction setting method and end effector used in the method

Country Status (1)

Country Link
JP (1) JP4020994B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179389A (en) * 2009-02-04 2010-08-19 Ihi Corp Method of calibrating robot tool coordination system and tool therefor
JP2011011326A (en) * 2009-07-06 2011-01-20 Ihi Corp Tool and method for calibrating tool position of robot

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4418841B2 (en) * 2008-01-24 2010-02-24 キヤノン株式会社 Working device and calibration method thereof
JP5463459B2 (en) * 2010-04-15 2014-04-09 多摩川精機株式会社 Work confirmation system
US9259289B2 (en) * 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
JP6017213B2 (en) * 2012-07-20 2016-10-26 株式会社神戸製鋼所 Calibration method for robot with optical sensor
JP6462986B2 (en) * 2014-02-07 2019-01-30 キヤノン株式会社 Robot control method, article manufacturing method, and control apparatus
CN104057290B (en) * 2014-06-24 2016-09-14 中国科学院自动化研究所 A kind of robotic asssembly method and system of view-based access control model and force-feedback control
JP6512456B2 (en) * 2016-12-27 2019-05-15 トヨタ自動車株式会社 Calibration jig and method for horizontally articulated robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179389A (en) * 2009-02-04 2010-08-19 Ihi Corp Method of calibrating robot tool coordination system and tool therefor
JP2011011326A (en) * 2009-07-06 2011-01-20 Ihi Corp Tool and method for calibrating tool position of robot

Also Published As

Publication number Publication date
JPH1097311A (en) 1998-04-14

Similar Documents

Publication Publication Date Title
US10618166B2 (en) Teaching position correction device and teaching position correction method
CN111482959B (en) Automatic hand-eye calibration system and method of robot motion vision system
EP1215017B1 (en) Robot teaching apparatus
EP2981397B1 (en) A robot system and method for calibration
US10906182B2 (en) Method of teaching robot and robot system
EP1555508B1 (en) Measuring system
EP1584426B1 (en) Tool center point calibration system
US11014233B2 (en) Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus
US6728417B1 (en) Measurement apparatus
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
WO2020252632A1 (en) Coordinate system calibration method, device, and computer readable medium
EP4070923A1 (en) Coordinate system alignment method, alignment system, and alignment device for robot
JP4020994B2 (en) Robot tool coordinate system correction setting method and end effector used in the method
EP3411194A1 (en) Robot system calibration
JPH06131420A (en) Method and device for supporting construction
JPH09128549A (en) Relative position attitude detecting method for robot system
JP6410411B2 (en) Pattern matching apparatus and pattern matching method
KR20130075712A (en) A laser-vision sensor and calibration method thereof
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JPH0746288B2 (en) Control method and device for robot with hand vision
EP3895855A1 (en) Robot control system and robot control method
JPH04269194A (en) Plane measuring method
WO2021210540A1 (en) Coordinate system setting system and position/orientation measurement system
JPH04100573A (en) Correction method of shifting of camera coordinate system
EP4289565A1 (en) Device, method and program for marker position registration and corresponding marker

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees