JPH1097311A - ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ - Google Patents
ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタInfo
- Publication number
- JPH1097311A JPH1097311A JP27135696A JP27135696A JPH1097311A JP H1097311 A JPH1097311 A JP H1097311A JP 27135696 A JP27135696 A JP 27135696A JP 27135696 A JP27135696 A JP 27135696A JP H1097311 A JPH1097311 A JP H1097311A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- jig
- robot
- tool
- end effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
定位置に左右されずに、簡単な作業で安定した補正精度
を以てツール座標系を補正設定すること。 【解決手段】 ロボットの手先部1に力センサ2を介し
てエンドエフェクタとして取り付けられたハンド3の周
面上に設けられた治具4は、長方形帯状の平坦面領域4
1と凹部42で治具座標系Aを表現する。内側の一つの
コーナが原点OAを表現し、稜線41a,41bはXA
軸、YA 軸を表現する。ツール座標系Bは、ハンド3の
爪31に囲まれた位置に原点OB を持つように設定され
ている。ハンド3の位置・姿勢が、力センサ交換に伴う
再装着等で変化した場合に、治具座標系A(変化後
A’)の位置・姿勢を3次元視覚センサで検出し、変化
前の検出データと合わせて、ツール座標系B(変化後
B’)を求め、ロボット制御装置のツール座標系設定デ
ータを更新する。
Description
エフェクタ(手先効果器)をツールとして取り付けたロ
ボットにおけるツール座標系補正設定方法、並びに該方
法に使用するエンドエフェクタに関する。本発明は、例
えばロボットとエンドエフェクタの間に介在させるアダ
プタの交換等に伴って生じるエンドエフェクタの位置・
姿勢ずれを補償するようにツール座標系を再設定する際
に適用される。
は、ロボットアーム先端のフェイスプレート(メカニカ
ルインターフェイス)にハンド等のエンドエフェクタを
取り付ることが通例である。そして、ロボットに所望の
作業を実行させる為に、ロボットに、フェイスプレート
に対するエンドエフェクタの位置・姿勢を表わすデータ
を与える必要がある。
点は一般にツール先端点(TCP)と呼ばれており、こ
のツール先端点を原点とするツール座標系を設定するこ
とで、ロボットにエンドエフェクタの位置・姿勢が教示
される。一般に、ツール座標系の設定データは、フェイ
スプレート代表点(通常は中心点)を原点とするフェイ
スプレート座標系から見たツール座標系の相対的な位置
・姿勢を記述する行列を表わすデータとしてロボットに
与えられる。
ボットの干渉事故等の原因でエンドエフェクタのフェイ
スプレートに対する相対的な位置・姿勢に変化を生じる
ことがある。特に、力センサのように破損し易いアダプ
タがフェイスプレートとエンドエフェクタの間に介在し
ている場合、アダプタを交換する機会も多く、それに伴
ってエンドエフェクタの位置・姿勢ずれが発生すること
が避けられない。
は、次の3つが考えられる。 (1)エンドエフェクタの取付位置・姿勢を精密に調整
し直し、元の(位置・姿勢ずれ発生前の)エンドエフェ
クタ位置・姿勢を正確に再現する。 (2)位置・姿勢ずれを起したエンドエフェクタをその
まま使えるように、教示をやり直す。 (3)エンドエフェクタの位置・姿勢ずれを補償するよ
うに、ツール座標系を補正設定(再設定)する。
練と時間を要し、ユーザである作業者にかかる負担が大
きい。特に、エンドエフェクタがハンドであった場合、
ツール先端点は教示作業上の便宜を考えてハンドの複数
の爪の間(空中の点)に設定されることも多く、元のエ
ンドエフェクタ位置・姿勢を再現することは非常に難し
くなる。
ムが多い場合など、作業に要する時間が膨大となる。
(3)のタイプに属する技術としては、図1に示したよ
うな方法が知られている。この方法によれば、(a)ツ
ール先端点(TCP)として設定を希望するツール(エ
ンドエフェクタ)の特定点が、空間内の同一点P0 に一
致するような3つの姿勢RB1〜RB3をロボットにと
らせ、(b)各姿勢におけるロボットの現在位置データ
に基づいてツール先端点のフェイスプレートに対する相
対位置を求め、更に、(c)ツール座標系の座標軸の方
向を別途教示する手順が実行される。
クタの先端にツール先端点を設定するというような単純
なケースであれば比較的実行容易と考えられるが、エン
ドエフェクタがハンドであるような場合には、ロボット
の3姿勢におけるツール先端点を同一点P0 に一致させ
ることが困難になる。また、この方法では、ツール座標
系の原点位置(ツール先端点位置)は取得出来るが、座
標軸の方向を取得することが出来ないという問題点もあ
る。
は、これら従来技術の問題点を克服し、エンドエフェク
タの形状やツール先端点の設定位置に左右されずに、簡
単な作業で安定した補正精度を以てツール座標系を補正
設定することが出来る方法を提供するとともに、本方法
を実行するに適したエンドエフェクタを提供することに
ある。
正設定方法は、ロボット手先部に支持されたエンドエフ
ェクタにツール座標系を設定するとともに、ツール座標
系と固定的な位置・姿勢関係にある治具座標系の原点位
置と座標軸の方向を3次元視覚センサによる認識が可能
な形態で表現する治具座標系表現手段を具備する治具を
設け、ロボットの周辺に前記3次元視覚センサを配置
し、ロボットのツール座標系を補正設定するものであ
り、次の諸段階を含んでいる。
エフェクタの位置・姿勢が、ツール座標系の設定時のそ
れから変化していない初期状態において、ロボットを前
記3次元視覚センサによる前記治具座標系の位置・姿勢
の検出が可能な治具座標系検出ロボット位置に位置決め
する段階 (b)3次元視覚センサを用いて前記治具座標系の位置
・姿勢を検出する段階 (c)ロボット手先部に対するエンドエフェクタの位置
・姿勢が、ツール座標系の設定時のそれから変化してい
る可能性が生じた治具座標系再検出機会の到来時に、ロ
ボットを治具座標系検出ロボット位置に位置決めする段
階 (d)3次元視覚センサを用いて治具座標系の位置・姿
勢を検出する段階 (e)上記(b)の段階及び(d)の段階で求められた
治具座標系の位置・姿勢に基づいて、それまで設定され
ていたツール座標系を再設定する段階 エンドエフェクタは例えばハンドであり、力センサなど
のアダプタを介してロボット手先部に支持されていても
良い。典型的な実施形態においては、3次元視覚センサ
はスリット光投光手段と撮影手段と画像処理手段を備え
た型のものが使用される。
れる治具座標系表現手段は、治具座標系の原点位置と座
標軸の方向を表現する平坦面と稜線を備えている。ま
た、ツール座標系と固定的な位置・姿勢関係にある治具
座標系の原点位置と座標軸の方向を3次元視覚センサに
よる認識が可能な形態で表現する治具座標系表現手段を
備えたハンドあるいは他のエンドエフェクタを用意して
おくことは、上記ツール座標系補正設定方法を円滑に実
施する上で好ましい。典型的な実施形態において使用さ
れるエンドエフェクタは、治具座標系表現手段として、
治具座標系の原点位置と座標軸の方向を表現する平坦面
と稜線を備えている。
定方法は、エンドエフェクタがロボットの手先部(メカ
ニカルインターフェイス)に直接、あるいはアダプタを
介して適正に取り付けられた状態(位置・姿勢ずれ発生
前の状態。以下、「初期状態」とも言う。)において開
始される。はじめに、実施時の手順と基礎となる計算の
概要を図2を参照して説明しておく。
ル座標系Bを設定する。なお、このようなツール座標系
Bの設定は、エンドエフェクタの形態や作業内容に即し
て実行される極めて一般的なものである。初期状態(位
置・姿勢ずれ発生前)において、メカニカルインターフ
ェイスの代表点(フェイスプレートに設定された座標系
の原点F)に対するツール座標系Bの位置・姿勢を表わ
す同次変換行列を、図2に示したように FTB とする。
2.初期状態が保たれている間に(ツール座標系Bの設
定の前後いずれも可)、ロボットを3次元視覚センサの
周辺の適当な位置に位置決めし、エンドエフェクタに固
定された治具座標系Aの位置・姿勢を検出する。以後、
この検出を行なった際のロボットの位置(フェイスプレ
ート座標系原点Fの位置で代表)を「治具座標系検出ロ
ボット位置」と言う。
て、メカニカルインターフェイスの代表点(フェイスプ
レートに設定された座標系の原点F)に対する治具座標
系Aの位置・姿勢を表わす同次変換行列を、図2に示し
たように FTA とする。行列FTA と FTB の間には下
記(1)式の関係が成立する。 FTB = FTA ATB ・・・(1) ここで、行列 ATB は治具座標系Aに対するツール座標
系Bの位置・姿勢を表わしている。
えば、アダプタ交換時)、ロボットを再度治具座標系検
出ロボット位置に位置決めし、3次元視覚センサ覚セン
サを用いて治具座標系の位置・姿勢を検出する。このよ
うに、エンドエフェクタの位置・姿勢変化の可能性の発
生に伴い、治具座標系の再検出が行なわれる機会のこと
を「治具座標系再検出機会」という。治具座標系再検出
機会における治具座標系をA’のフェイスプレート座標
系原点Fに対する位置・姿勢を表わす同次変換行列を、
図2に示したように、 FTA'とする。
系Bが位置・姿勢ずれを起したものをB’で表わせば、
治具座標系再検出機会におけるツール座標系B’のフェ
イスプレート座標系原点Fに対する位置・姿勢を表わす
同次変換行列 FTB'は、下記(2)式で与えられる。 FTB'= FTA' A'TB' ・・・(2) ここで、行列 A'TB' は治具座標系再検出機会における
治具座標系A’に対するツール座標系B’の位置・姿勢
を表わしているが、治具座標系がエンドエフェクタに固
定されているという条件下では(即ち、エンドエフェク
タ自身が変形しない限り)、両者の相対的な関係は保持
されるから、 A'TB'= ATB ・・・(3) となる。(1)〜(3)式から、次式(4)の関係が得
られる。
設定データとしてロボットに教示すれば、ツール座標系
の位置・姿勢ずれを補償する形でツール座標系の再設定
を行なうことが可能になる。
期状態において設定されたツール座標系のデータで与え
られる。従って、残る乗算項 FTA' FTA -1 を3次元視
覚センサによって検出される治具座標系A及びA’の位
置・姿勢から求めれば良いことになる。 FTA'及び FT
A -1 は各々次のように表わすことが出来る。 FTA'= FTR RTA' ・・・(5) FTA -1 =( FTR RTA )-1= RTA -1 FTR -1 ・・・(6) ここで、F TR ;フェイスプレート座標系から見たロボット座標
系の位置・姿勢を表わす同次変換行列R TA';ロボット座標系から見た治具座標系A’の位置
・姿勢を表わす同次変換行列R TA ;ロボット座標系から見た治具座標系Aの位置・
姿勢を表わす同次変換行列である。
に設定済みの任意の3次元直交座標系)に対する3次元
視覚センサのセンサ座標系Sの位置・姿勢を表わす同次
変換行列であり、適当なキャリブレーションによって取
得される。 6.結局、再設定されるツール座標系を表わす(4)式
は、 FTB'= FTR RTA' RTA -1 FTR -1 FTB = FTR RTS STA' STA -1 RTS -1 FTR -1 FTB ・・・(8) となる。特殊なケースとして、エンドエフェクタの位置
・姿勢に全くずれが生じていない場合には、当然 STA'
= STA となるから、(8)式は下記(9)式となる。 FTB'= FTB ・・・(9) (8)式の右辺に含まれる行列の出所をまとめて記せば
次のようになる。F TR , FTR -1 ;治具座標系検出ロボット位置におけ
る現在位置データから求められる。R TS , RTS -1 ;ロボット座標系Rとセンサ座標系S
を結合させるキャリブレーションデータから求められ
る。S TA -1 ;初期状態における治具座標系Aの検出データ
(センサデータ)から求められる。S TA' ;治具座標系再検出機会における治具座標系A’
の検出データ(センサデータ)から求められる。F TB ;初期状態における治具座標系Aの設定データで
ある。 なお、上記(4)式において、 ATB (座標系A,Bの
位置・姿勢関係)の正確なデータが用意出来る場合に
は、 FTB'= FTA' ATB = FTR RTA ATB = FTR RTS STA ATB ・・・(10) から、 FTB'を求めても良い。但し、この場合も FT
R , RTS のデータは必要である。そして、(8)式に
は FTR と FTR -1 、 RTS と RTS -1 が乗算関係で含
まれているために、治具座標系検出ロボット位置や3次
元視覚センサのキャリブレーションデータに多少の誤差
があっても、それが FTB'の計算結果に現れ難い。従っ
て、(10)式を使用するよりも、(8)式を使用する
ことが好ましい。
れば、ロボット動作の再教示を行なわなくとも、エンド
エフェクタが位置・姿勢ずれを起しす前と同じロボット
作業を実行することが出来る。
可能なシステムの制御部を構成するロボット制御装置並
びに関連接続関係を説明する要部ブロック図である。ロ
ボット制御装置5は、ここでは3次元視覚センサの画像
処理装置内蔵型のものが採用されており、中央演算処理
装置(以下、CPU)51を備え、CPU51には、R
OMからなるメモリ52、RAMからなるメモリ53、
不揮発性メモリ54、液晶ディスプレイを備えた教示操
作盤55、ロボットの各軸を制御するためのデジタルサ
ーボ回路56、ストラクチャライトユニット用インター
フェイス61、画像処理プロセッサ62、モニタインタ
ーフェイス63、フレームメモリ64、プログラムメモ
リ65、データメモリ66及び汎用インターフェイス6
7がバス58を介して接続されている。
の各軸を制御するために、サーボアンプ57を介してロ
ボットRBの機構部に接続されている。また、ストラク
チャライトユニット用インターフェイス61にはストラ
クチャライトユニットSUが接続され、モニタインター
フェイス63には例えばCRTからなるモニタディスプ
レイMOが接続されている。ストラクチャライトユニッ
トSUは、後述するように、3次元視覚センサの投光部
及び撮影部をユニット化したものである。
じて各種の外部装置を接続することが出来るが、ここで
はロボット手先部のフェイスプレートとエンドエフェク
タの間に介在するアダプタを構成する力センサ2が示さ
れている。
要なシステムログラムが格納されている。RAM53は
デ−タの一時記憶や演算の為に利用されるメモリであ
る。不揮発性メモリ54には、ロボットRB、ストラク
チャライトユニットSU、力センサ2などの外部装置の
動作を規定した動作プログラムのデータ、座標系(座標
系Rを含む;図1参照。)の設定データ、3次元視覚セ
ンサのキャリブレーションデータ(前述した行列 RTS
のデータを含む;図1参照。)、関連設定値等が格納さ
れる。
ェイス61は、ストラクチャライトユニットSUの各部
を制御するための指令の授受やCCDカメラ(図4
(a)参照)で撮影された画像の取り込みに用いられ
る。取り込まれた画像はグレイスケールに変換後、一旦
フレームメモリ64に格納される。フレームメモリ64
に格納された画像はモニタディスプレイMO上に表示す
ることが出来るようになっている。
セッサ62を利用した画像処理と解析を行なうためのプ
ログラムが格納され、データメモリ66には画像処理と
解析に関連した設定データ等が格納される。本実施形態
では、特に、治具座標系の位置・姿勢を求めるための処
理を定めたプログラムデータ並びに関連設定データがこ
れら格納データに含まれている。なお、処理の内容は後
述する。
の一般的構成を説明するもので、図4(a)にストラク
チャライトユニットSUの要部構造、図4(b)ストラ
クチャライトの形成方法を間単に記した。図4(a)に
示されたストラクチャライトユニットSUは、ストラク
チャライトSLとしてスリット光を投光するもので、投
光部はレーザ発振器12、円柱レンズ13、偏向ミラー
を備えたガルバノメータ14(ステッピングモータで駆
動)及び投光窓11を備え、撮影部はCCDカメラ20
及び撮影窓21を備えている。
12から出射されたレーザビームは円柱レンズ13によ
ってスリット光SLに変換される。スリット光SLは、
ステッピングモータによる高速駆動が可能なガルバノメ
ータ14で投光方向を指示する指令値に従って所定の方
向に偏向され、投光窓11から被計測対象物16上に投
光される。被計測対象物W上に形成された輝線15を含
む画像がCCDカメラ20による影で取得され、画像処
理装置を内蔵したロボット制御装置5に取り込まれる。
機能を利用して輝線15を含む画像を解析し、輝線15
の端点位置151,152等の3次元位置を求める。な
お、端点位置151,152等の3次元位置を求める原
理とそれに基づく計算処理の詳細については周知事項な
のでここでは説明を省略する。
た構成と機能を利用して本発明の方法を実施する際の全
体配置の概要を説明する模式図である。ロボットRB
は、ここではテーブルTB上に供給されるワークW2に
ワークW1を嵌合する力制御ロボットとして描かれてい
る。ロボットRBの手先部1には6軸力を検出する力セ
ンサ2が装着され、この力センサ2にエンドエフェクタ
としてハンド3が取り付けられている。即ち、力センサ
2はエンドエフェクタ(ハンド3)取付のためのアダプ
タの役割を果している。
把持され、テーブルTB上のワークW2に嵌合される。
力センサ2はワークW1を介して受ける力/モーメント
を検出し、ロボット制御装置5に伝える。ロボット制御
装置5は、力センサ2の出力を利用した力制御を実行
し、嵌合動作が円滑に行なわれるようにする。
されているハンド3には、本発明の特徴に従って、治具
座標系表現手段を備えた治具4が設けられている。治具
4は、ハンド3に対して必要時に装着しても良く、ま
た、ハンド3の一部として固設された構造としても良
い。
姿勢を治具座標系検出ロボット位置に採用し、テーブル
TB上の適当な位置(治具4上の治具座標系表現手段の
検出に好適な位置)にストラクチャライトユニットSU
を設置する。ストラクチャライトユニットSUを含む3
次元視覚センサのキャリブレーションは周知の適当な手
法を用いて完了済み(ロボットRBに設定されている座
標系Rとセンサ座標系Sが結合済み)であるとする。
する際には、ストラクチャライトユニットSUの投光部
からスリット光SLが治具4に向けて投光され、撮影部
で治具座標系表現手段上に形成された輝線像が撮影され
る。
軸の方向を知るために必要な情報を、3次元視覚センサ
によって認識可能な形態で提供する治具座標系表現手段
が設けられている。本実施形態では、スリット光投光型
の3次元視覚センサを採用していることを考慮して、ス
リット光SLの投光により端点を持つ直線状の輝線が形
成されるように、異なる方向を向いた複数本の稜線を提
供する表面形状手段を以て治具座標系表現手段とする。
具座標系表現形態の一例を説明するために、ロボット手
先部1の周辺部を拡大描示し、治具座標系とツール座標
系の関係を併記した見取り図である。図6に示したよう
に、ロボットの手先部1に力センサ2を介して取り付け
られたハンド3の周面上に設けられた治具4は、治具座
標系表現手段(表面形状手段)として、長方形帯状の平
坦面領域41とそれに取り囲まれた凹部42を備えてい
る。
つのコーナを以て治具座標系A(図1も参照)の原点O
A を表現し、原点OA から横方向及び縦方向に延びる稜
線41a,41b以て各々XA 軸、YA 軸を表現する。
これに対してツール座標系B(図1も参照)は、ハンド
3の3本の爪31に囲まれた位置に原点OB を持ち、ハ
ンド3の軸方向がZB 軸となるように設定されている。
が変形しない限り、一旦固定された両座標系A,Bの相
対的な位置・姿勢関係は不変である。しかし、治具座標
系Aとツール座標系Bの相対的な位置・姿勢関係を特定
のものとする必要はなく、予め知る必要もない。従っ
て、治具4の取付位置に関して正確な位置決めを行なう
負担は生じない。但し、前述の(10)式を用いてツー
ル座標系の設定データを更新する場合には、 ATB を定
めるための正確なデータが事前に必要となる。
抽出し、スリット光による輝線の形成状況を併記したも
のである。同図を参照し、治具座標系A(またはA’)
の位置・姿勢を3次元視覚センサを用いて検出する手順
の概略を説明すれば、次の様になる。ロボットRBが図
5に示した如き治具座標系検出ロボット位置にある状態
で、ストラクチャライトユニットSUを使ってスリット
光を治具4の平坦面領域41を斜めに横切るように投光
する。投光は2回(またはそれ以上)行い、平坦面領域
41上に輝線L1(第1回目投光)、L2(第2回目投
光)を形成する。輝線L1,L2の一部は凹部42上に
も形成されるが、ここでは座標系検出には利用されな
い。ストラクチャライトユニットSUとロボット制御装
置5を合わせた3次元視覚センサを用いて治具座標系A
(またはA’)を定める手順は、例えば次のものとする
ことが出来る。説明の便宜上、この手順を「手順1」と
呼ぶ。
る端点C2 、C3 の3次元位置を求める。 2.輝線L2が稜線41a,41bを横切る点に対応す
る端点C6 、C7 の3次元位置を求める。 3.端点C2 とC6 の位置から稜線41aが表わす直線
を求める。 4.端点C3 とC7 の位置から稜線41bが表わす直線
を求める。 5.両者の交点として原点OA の3次元位置を求める。 6.端点C6 からC2 に向かうベクトル<u>で治具座
標系A(A’)のXA軸の方向を定める。 7.端点C3 からC7 に向かうベクトル<w>で治具座
標系A(A’)のZA軸の方向を定める。 8.<v>=<w>×<u>で治具座標系A(A’)の
YA 軸の方向を定める。
た端点の内の3個以上を使って平坦面41の方向を求
め、YA 軸の方向を定めても良い。
具座標系表現形態の別の例を説明する図で、治具4を拡
大描示し、スリット光による輝線の形成状況を併記され
ている。同図に示したように、本例の治具4は、治具座
標系表現手段として、互いに直交した3つの平坦面領域
43〜45を備えた三角錐形状部を備えている。そし
て、三角錐形状部は隣接する平坦面領域43〜45間の
交線として、3本の互いに直交した稜線H1〜H3が提
供されている。
(またはA’)のXA 軸、YA 軸及びZA 軸を表現し、
それらの交点(三角錐の頂点)が原点OA を表現する。
本例の治具4をハンド3に設けた場合について、治具座
標系A(またはA’)の位置・姿勢を3次元視覚センサ
を用いて検出する手順の概略を説明すれば、次の様にな
る。図7に示した治具の場合と同じくロボットRBが図
5に示した如き治具座標系検出ロボット位置にある状態
で、ストラクチャライトユニットSUを使ってスリット
光を治具4の平坦面領域43〜45の内の2つを横切る
ように投光する。投光は4回(またはそれ以上)行い、
平坦面領域43,44上に輝線L3(第1回目投光)、
L4(第2回目投光)を形成し、平坦面領域43,45
上に輝線L5(第3回目投光)、L6(第4回目投光)
を形成しする。
ト制御装置5を合わせた3次元視覚センサを用いて治具
座標系A(またはA’)を定める手順は、例えば次のも
のとすることが出来る。説明の便宜上、この手順を「手
順2」と呼ぶ。
の3次元位置を求める。
する端点D5 の3次元位置を求める。
する端点D8 の3次元位置を求める。
する端点D11の3次元位置を求める。
表わす直線を求める。 6.端点D8 とD11の位置から稜線H2が表わす直線を
求める。 7.両者の交点として原点OA の3次元位置を求める。 8.端点D5 からD2 に向かうベクトル<p>で治具座
標系A(A’)のXA軸の方向を定める。 9.端点D8 からD11に向かうベクトル<q>で治具座
標系A(A’)のYA軸の方向を定める。 10.<r>=<p>×<q>で治具座標系A(A’)
のZA 軸の方向を定める。
,D6 ,D9 ,D12等の端点のデータを加えて平坦面
43〜45の方向を求め、各座標軸の方向を定めても良
い。図9は、上記説明した実施形態においてロボット制
御装置5で実行される処理の概要をまとめて記したフロ
ーチャートで、各ステップM1〜Mの要点は次の通りで
ある。なお、3次元視覚センサのキャリブレーション、
作業に適したツール座標系B(図6参照)の設定等の準
備作業は完了済みとする。また、治具4は図7あるいは
図8に示したものが、ハンド3に既に装着または固設さ
れているものとする。
ボット位置(図5参照)へ移動させる。治具座標系検出
ロボット位置が未教示であればこれを不揮発性メモリ5
4に記憶する。但し、治具座標系検出ロボット位置の記
憶は、ステップM2の後で実行しても良い。 [M2]3次元視覚センサを起動させ、手順1(図7の
治具使用の場合)または手順2(図8の治具使用の場
合)に従った処理を行い、治具座標系Aの位置・姿勢を
検出して不揮発性メモリ54に記憶する(前出の同次変
換行列 STA を表わすデータまたは RTA を表わすデー
タで記憶)。 [M3]治具座標系再検出機会が到来したならば、ロボ
ットRBを治具座標系検出ロボット位置(図5参照)へ
移動させる。治具座標系再検出機会は、例えば力センサ
2の破損等によって、力センサ2(交換品)とハンド3
(非交換品)を取り付け直した時に到来する。また、力
センサ2の破損等が無くとも、メンテナンスのためのツ
ール座標系設定状態チェック時に治具座標系再検出機会
をもたせても良い。
順1(図7の治具使用の場合)または手順2(図8の治
具使用の場合)に従った処理を行い、治具座標系A’の
位置・姿勢を検出して不揮発性メモリ54に記憶する
((前出の同次変換行列 STA'を表わすデータまたは R
TA'を表わすデータで記憶)。 [M5]前述した(8)式の計算を行なって FTB'を求
め、ツール座標系の設定データを更新する。これによっ
て、ツール座標系B’の補正設定が完了する。
して他の型のものを採用しても良い。例えば、ストラク
チャライトユニットSUの投光部に、スポット光投光走
査型の投光部を装備したものを用いることも出来る。そ
の場合、ストラクチャライトによって治具座標系表現手
段上に形成される輝線は、連続または断続(輝点の列)
のスポット光軌跡となる。
段も、上述した2例に限るものではない。例えば、治具
座標系の原点位置と座標軸の方向を表現する数個のドッ
トを記したマークを描いた治具を用い、これを2台のカ
メラで撮影し、治具座標系の位置・姿勢を定めるように
しても良い。
状やツール先端点の設定位置に左右されずに、簡単な作
業で安定した補正精度を以てツール座標系を補正設定す
ることが出来る。例えば、ハンドの爪の間など、エンド
エフェクタの構成部材上にない位置にツール座標系の原
点が設定されるケースであっても、ツール座標系の補正
設定に全く支障がない。また、3次元視覚センサによる
治具座標系の位置・姿勢の検出に適合した治具座標系表
現手段を具備したエンドエフェクタを利用することで、
本方法がより円滑に実行することが出来る。
ように、ツール座標系を補正設定(再設定)するための
従来技術について説明する図である。
を説明する概念図である。
ムの制御部を構成するロボット制御装置並びに関連接続
関係を説明する要部ブロック図である。
と、(b)ストラクチャライトの形成方法を例示した模
式図である。
説明する模式図である。
現形態の一例を説明するために、ロボット手先部1の周
辺部を拡大描示し、治具座標系とツール座標系の関係を
併記した見取り図である。
リット光による輝線の形成状況を併記したものである。
現形態の別の例を説明する図である。
れる処理の概要をまとめて記したフローチャートであ
る。
原点) MO モニタディスプレイ OA 治具座標系の原点 R ロボット座標系 RB ロボット RB1〜RB3 ロボット姿勢 S センサ座標系 SL スリット光 SU ストラクチャライトユニット TB テーブル W1,W2 ワーク
Claims (10)
- 【請求項1】 ロボット手先部に支持されたエンドエフ
ェクタにツール座標系を設定するとともに、前記ツール
座標系と固定的な位置・姿勢関係にある治具座標系の原
点位置と座標軸の方向を3次元視覚センサによる認識が
可能な形態で表現する治具座標系表現手段を具備する治
具を設け、 前記ロボットの周辺に前記3次元視覚センサを配置し、
前記ロボットのツール座標系を補正設定する方法であっ
て、 (a)前記ロボット手先部に対する前記エンドエフェク
タの位置・姿勢が、前記ツール座標系の設定時のそれか
ら変化していない初期状態において、前記ロボットを前
記3次元視覚センサによる前記治具座標系の位置・姿勢
の検出が可能な治具座標系検出ロボット位置に位置決め
する段階と、 (b)前記3次元視覚センサを用いて前記治具座標系の
位置・姿勢を検出する段階と、 (c)前記ロボット手先部に対する前記エンドエフェク
タの位置・姿勢が、前記ツール座標系の設定時のそれか
ら変化している可能性が生じた治具座標系再検出機会の
到来時に、前記ロボットを前記治具座標系検出ロボット
位置に位置決めする段階と、 (d)前記3次元視覚センサを用いて前記治具座標系の
位置・姿勢を検出する段階と、 (e)前記(b)の段階及び(d)の段階で求められた
前記治具座標系の位置・姿勢に基づいて、前記設定され
ていたツール座標系を再設定する段階を含む、 前記ロボットのツール座標系補正設定方法。 - 【請求項2】 前記エンドエフェクタが、アダプタを介
して前記ロボット手先部に支持されている、請求項1に
記載されたロボットのツール座標系補正設定方法。 - 【請求項3】 前記アダプタが力センサである、請求項
1または請求項2に記載されたロボットのツール座標系
を補正設定する方法。 - 【請求項4】 前記エンドエフェクタがハンドである、
請求項1〜請求項3のいずれか1項に記載されたロボッ
トのツール座標系補正設定方法。 - 【請求項5】 前記3次元視覚センサが、スリット光投
光手段と撮影手段と画像処理手段を備えている、請求項
1〜請求項4のいずれか1項に記載されたロボットのツ
ール座標系補正設定方法。 - 【請求項6】 前記治具座標系表現手段が、前記治具座
標系の原点位置と座標軸の方向を表現する平坦面と稜線
を備えている、請求項1〜請求項5のいずれか1項に記
載されたロボットのツール座標系補正設定方法。 - 【請求項7】 ロボット手先部に支持されたエンドエフ
ェクタにツール座標系を設定するとともに、前記ツール
座標系と固定的な位置・姿勢関係にある治具座標系の位
置・姿勢の変化を前記ロボットの周辺に配置された3次
元視覚センサを用いて検出し、前記ツール座標系を補正
設定する方法に使用される前記エンドエフェクタであっ
て、 前記ツール座標系と固定的な位置・姿勢関係にある治具
座標系の原点位置と座標軸の方向を3次元視覚センサに
よる認識が可能な形態で表現する治具座標系表現手段を
備えた前記エンドエフェクタ。 - 【請求項8】 前記治具座標系表現手段が、前記治具座
標系の原点位置と座標軸の方向を表現する平坦面と稜線
を備えている、請求項7に記載されたエンドエフェク
タ。 - 【請求項9】 ロボット手先部に支持されたハンドにツ
ール座標系を設定するとともに、前記ツール座標系と固
定的な位置・姿勢関係にある治具座標系の位置・姿勢の
変化を前記ロボットの周辺に配置された3次元視覚セン
サを用いて検出し、前記ツール座標系を補正設定する方
法に使用される前記ハンドであって、 前記ツール座標系と固定的な位置・姿勢関係にある治具
座標系の原点位置と座標軸の方向を3次元視覚センサに
よる認識が可能な形態で表現する治具座標系表現手段を
備えた前記ハンド。 - 【請求項10】 前記治具座標系表現手段が、前記治具
座標系の原点位置と座標軸の方向を表現する平坦面と稜
線を備えている、請求項7に記載されたハンド。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27135696A JP4020994B2 (ja) | 1996-09-24 | 1996-09-24 | ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27135696A JP4020994B2 (ja) | 1996-09-24 | 1996-09-24 | ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1097311A true JPH1097311A (ja) | 1998-04-14 |
JP4020994B2 JP4020994B2 (ja) | 2007-12-12 |
Family
ID=17498937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27135696A Expired - Fee Related JP4020994B2 (ja) | 1996-09-24 | 1996-09-24 | ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4020994B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
JP2011224664A (ja) * | 2010-04-15 | 2011-11-10 | Tamagawa Seiki Co Ltd | 作業確認システム |
JP2014018932A (ja) * | 2012-07-20 | 2014-02-03 | Kobe Steel Ltd | 光学式センサ付きロボットのキャリブレーション方法 |
JP2014518775A (ja) * | 2011-05-13 | 2014-08-07 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ツールの動作を制御するのに使用されるフレームの位置及び向きの推定 |
CN104057290A (zh) * | 2014-06-24 | 2014-09-24 | 中国科学院自动化研究所 | 一种基于视觉和力反馈控制的机器人装配方法与系统 |
JP2015147280A (ja) * | 2014-02-07 | 2015-08-20 | キヤノン株式会社 | ロボット較正方法 |
JP2018103329A (ja) * | 2016-12-27 | 2018-07-05 | トヨタ自動車株式会社 | 水平多関節型ロボット用の校正治具および校正方法 |
JP2021024053A (ja) * | 2019-08-07 | 2021-02-22 | 上銀科技股▲分▼有限公司 | 視覚誘導ロボットアームの補正方法 |
JP2021084147A (ja) * | 2019-11-26 | 2021-06-03 | ファナック株式会社 | 座標系設定システムおよび座標系設定方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5439833B2 (ja) * | 2009-02-04 | 2014-03-12 | 株式会社Ihi | ロボットのツール座標系の較正方法及びその治具 |
JP2011011326A (ja) * | 2009-07-06 | 2011-01-20 | Ihi Corp | ロボットのツール位置較正治具と方法 |
-
1996
- 1996-09-24 JP JP27135696A patent/JP4020994B2/ja not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
JP2011224664A (ja) * | 2010-04-15 | 2011-11-10 | Tamagawa Seiki Co Ltd | 作業確認システム |
US11284952B2 (en) | 2011-05-13 | 2022-03-29 | Intuitive Surgical Operations, Inc. | Estimation of a position and orientation of a frame used in controlling movement of a tool |
JP2014518775A (ja) * | 2011-05-13 | 2014-08-07 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ツールの動作を制御するのに使用されるフレームの位置及び向きの推定 |
US10582974B2 (en) | 2011-05-13 | 2020-03-10 | Intuitive Surgical Operations, Inc. | Estimation of a position and orientation of a frame used in controlling movement of a tool |
US11801100B2 (en) | 2011-05-13 | 2023-10-31 | Intuitive Surgical Operations, Inc. | Estimation of a position and orientation of a frame used in controlling movement of a tool |
JP2014018932A (ja) * | 2012-07-20 | 2014-02-03 | Kobe Steel Ltd | 光学式センサ付きロボットのキャリブレーション方法 |
JP2015147280A (ja) * | 2014-02-07 | 2015-08-20 | キヤノン株式会社 | ロボット較正方法 |
CN104057290A (zh) * | 2014-06-24 | 2014-09-24 | 中国科学院自动化研究所 | 一种基于视觉和力反馈控制的机器人装配方法与系统 |
JP2018103329A (ja) * | 2016-12-27 | 2018-07-05 | トヨタ自動車株式会社 | 水平多関節型ロボット用の校正治具および校正方法 |
US10744644B2 (en) | 2016-12-27 | 2020-08-18 | Toyota Jidosha Kabushiki Kaisha | Calibration jig and calibration method for horizontal articulated robot |
JP2021024053A (ja) * | 2019-08-07 | 2021-02-22 | 上銀科技股▲分▼有限公司 | 視覚誘導ロボットアームの補正方法 |
JP2021084147A (ja) * | 2019-11-26 | 2021-06-03 | ファナック株式会社 | 座標系設定システムおよび座標系設定方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4020994B2 (ja) | 2007-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10906182B2 (en) | Method of teaching robot and robot system | |
TWI672206B (zh) | 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統 | |
EP1215017B1 (en) | Robot teaching apparatus | |
US10618166B2 (en) | Teaching position correction device and teaching position correction method | |
US11014233B2 (en) | Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus | |
JP4191080B2 (ja) | 計測装置 | |
JP4021413B2 (ja) | 計測装置 | |
CN101100061B (zh) | 测量装置以及校准方法 | |
JP3946716B2 (ja) | ロボットシステムにおける3次元視覚センサの再校正方法及び装置 | |
EP0796704A1 (en) | Apparatus and method for correcting a travelling route for a robot | |
JP3644991B2 (ja) | ロボット−センサシステムにおける座標系結合方法 | |
WO1992001539A1 (fr) | Procede d'etalonnage d'un capteur visuel | |
JPH08377B2 (ja) | ロボット不正確度修正方法 | |
JPH0784631A (ja) | ロボットの教示プログラムの補正方法 | |
JPH1097311A (ja) | ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ | |
EP4070923A1 (en) | Coordinate system alignment method, alignment system, and alignment device for robot | |
EP0511396A1 (en) | Method for setting coordinate system of robot | |
JPH1063317A (ja) | ロボット−視覚センサシステムにおける座標系結合方法 | |
JPH06131420A (ja) | 建設支援装置及び方法 | |
JPH09128549A (ja) | ロボット装置の相対位置姿勢検出方法 | |
JPH07121214A (ja) | ロボット用計測センサ装置並びに該装置を用いたキャリブレーション方法及び計測方法 | |
US7925382B2 (en) | Robot controller and robot control method | |
JPH0746288B2 (ja) | 手先視覚を持つロボットの制御方法とその装置 | |
JPH09222913A (ja) | ロボットの教示位置補正装置 | |
JPH0299802A (ja) | ハンドアイを用いた視覚センサにおける座標系設定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070118 |
|
A131 | Notification of reasons for refusal |
Effective date: 20070123 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Effective date: 20070904 Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070926 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |