JPH1049218A - ロボットの位置教示のための移動制御方式 - Google Patents

ロボットの位置教示のための移動制御方式

Info

Publication number
JPH1049218A
JPH1049218A JP22325096A JP22325096A JPH1049218A JP H1049218 A JPH1049218 A JP H1049218A JP 22325096 A JP22325096 A JP 22325096A JP 22325096 A JP22325096 A JP 22325096A JP H1049218 A JPH1049218 A JP H1049218A
Authority
JP
Japan
Prior art keywords
teaching
robot
movement
state
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22325096A
Other languages
English (en)
Other versions
JP2925072B2 (ja
Inventor
Atsushi Watanabe
淳 渡辺
Tetsuro Kato
哲朗 加藤
Atsuro Nagayama
敦朗 永山
Hidetoshi Kumitani
英俊 組谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP8223250A priority Critical patent/JP2925072B2/ja
Priority to PCT/JP1997/002766 priority patent/WO1998006015A1/ja
Publication of JPH1049218A publication Critical patent/JPH1049218A/ja
Application granted granted Critical
Publication of JP2925072B2 publication Critical patent/JP2925072B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36412Fine, autonomous movement of end effector by using camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36414Compare image detected path with stored reference, difference corrects position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50138During setup display is red, after setup display is green colour

Abstract

(57)【要約】 【課題】 視覚センサと視覚ターゲットを利用した教示
作業の効率化。 【解決手段】 視覚センサを利用した教示希望位置到達
状態表現データ入力手段1aは、教示希望点A1 他に対
するロボット2のTCP2bの教示希望位置A1他への
移動が完了した状態(2b’)における視覚ターゲット
B1 とロボット手先2aの相対的な位置関係を表現する
データを予めメモリ4に入力する。オペレータがジョグ
送りボタン等のロボットマニュアル操作手段5を操作
し、軸移動制御手段6に各軸を制御させ、ジョグ移動を
開始させる。更に、ジョグ移動モードから自律移動モー
ドへ移行し、TCP2bを教示希望位置A1 他へ自律移
動させる。自律移動のための制御は、教示希望位置到達
状態表現データと、視覚センサを利用したロボット手先
視覚ターゲット間相対位置認識手段1bで取得されたデ
ータに基づいて行われる。ターゲット手段は、マーク座
標系あるいは光スポット投光手段で具体化される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はロボットの位置教示
のための移動制御方式に関し、更に詳しく言えば、視覚
ターゲットとこれを認識する視覚センサを用いてロボッ
トを教示希望位置に素早く移動させるための移動制御方
式に関する。
【0002】
【従来の技術】ロボットの位置教示方法として最も一般
的に利用されているのは、ジョグ送り(マニュアル入力
によるロボット動作)による方法である。この教示方法
によれば、オペレータは教示操作盤のジョグ送りボタン
を操作してロボットを教示希望位置へ移動させ、その時
の位置をロボットに教示するという作業が行なわれる。
オフライン教示がなされている場合、粗い位置教示が済
んでいる場合あるいは教示位置の修正を行なう場合など
には、ジョグ送りによる教示位置の微調整が行なわれ
る。
【0003】いずれにしろ、希望する位置へロボットを
移動させる作業は、ロボット手先(あるいはエンドエフ
ェクタ)と教示希望点との相対的な位置・姿勢関係を目
視により確かめながら行なわれるから、オペレータに熟
練を要する。また、教示が必要な点(位置・姿勢)の数
は多数に及ぶことが通例であるから、教示作業に多大な
時間を費やすことも珍しくない。また、オペレータの目
視に頼る教示作業は教示精度にバラツキが生じ易く、信
頼性の点でも問題があった。
【0004】
【発明が解決しようとする課題】本発明はこのような状
況を克服するためになされたものである。即ち、本発明
の目的は、教示作業時にオペレータにかかる負担を軽減
し、教示作業の効率と信頼性の向上を可能にしたロボッ
トの位置教示のための移動制御方式を提供することにあ
る。
【0005】
【課題を解決するための手段】本発明は上記従来技術の
問題点に鑑みてなされたもので、視覚センサと適当な視
覚ターゲット手段を利用して、ロボットを自律的に教示
希望位置へ移動出来るようにすることで上記課題を解決
したものである。本発明の方式の諸段階には、ロボット
の教示希望位置到達状態を表現する教示希望位置到達状
態表現データをロボットと視覚センサを含むシステムの
制御手段に記憶させる教示希望位置到達状態記憶段階
と、該制御手段によるロボットの移動制御によってロボ
ットを教示希望位置へ移動させる教示希望位置移動段階
と、教示位置データを制御手段に記憶させる教示位置記
憶段階が含まれる。
【0006】そして、この教示希望位置移動段階に、教
示希望位置への移動を記憶された教示希望位置到達状態
表現データに基づいて自律的に行なわせる自律移動実行
段階が含まれていることが、本発明の重要な特徴であ
る。
【0007】この自律移動を可能にするために、教示希
望位置到達状態表現データは、視覚センサによって認識
可能な視覚ターゲット手段を用いて表現された、視覚セ
ンサから見て教示希望位置到達状態と等価な教示希望位
置到達等価状態を、前記視覚センサが認識することを通
して取得される。
【0008】また、視覚ターゲット手段は、自律移動段
階においては、視覚センサによって認識されることを通
してロボットを前記教示希望位置へ案内するための案内
視覚ターゲット手段として用いられる。
【0009】自律移動のために制御手段内で実行される
ソフトウェア処理は、視覚センサによる案内視覚ターゲ
ット手段の認識状態が、教示希望位置到達状態表現デー
タに対応する認識状態と一致するようにロボットを誘導
するように実行される。視覚ターゲット手段は、視覚セ
ンサによって認識可能なマーク座標系を含むマーク手段
の形態をとることが出来る。その場合、教示希望位置到
達状態記憶段階で記憶される教示希望位置到達状態表現
データには、画像上におけるマーク座標系の位置・姿勢
を表わすデータが含まれることになる。一方このマーク
手段は、ロボットの自律移動のための案内視覚ターゲッ
ト手段を提供するために、教示希望位置と一定の相対関
係を持つ位置にマーク座標系を用意するために使用され
る。そして、制御手段内で実行されるソフトウェア処理
に基づく移動制御により、視覚センサによるマーク座標
系の認識状態が、教示希望位置到達状態表現データに対
応する認識状態と一致するようにロボットが誘導され
る。
【0010】マーク手段には、教示作業の対象とされる
代表ワークの面上に固定可能なマーク部材を用いること
が出来る。このマーク部材上には、マーク座標系がドッ
トパターンなどで描かれる。
【0011】別の利用可能な視覚ターゲット手段の形態
として、ロボットに支持された光ビーム投光手段によっ
て投光面上に形成される光スポットがある。このような
光スポットを視覚ターゲット手段として使用する場合、
教示希望位置到達状態記憶段階において、教示希望位置
到達等価状態を視覚センサに対して用意するために、光
スポットをロボットの教示対象点(教示希望位置に一致
させようとする点のこと。通常は、ツール先端点;TC
Pである。)に一致する位置に形成するための参照投光
面が配置される。
【0012】光ビーム投光方向を調整し、該参照投光面
上の教示対象点位置に光スポットを形成する。この状態
は、視覚センサにとっての教示位置到達等価状態に相当
している。そこで、視覚センサによって光スポットが認
識され、光スポットの画像上の位置を表わすデータを含
むように教示希望位置到達状態表現データが取得され
る。
【0013】自律移動段階は、参照投光面を除去し、且
つ、教示希望位置到達等価状態においてカメラから見た
光ビーム投光方向を維持した状態で実行される。即ち、
自律移動実行段階におけるロボットの移動制御は、教示
希望位置の存在する面上に光ビームを投光して形成され
る光スポットを案内視覚ターゲット手段として用いて行
なわれる。ロボットの移動制御のためのソフトウェア処
理は、視覚センサによる光スポットの認識状態が、教示
希望位置到達状態表現データに対応する認識状態と一致
するようにロボットを誘導するように実行される。
【0014】教示希望位置への自律移動に先だって、教
示希望位置への予備的なアプローチを行なうためにジョ
グ送りを行なうようにしても良い。その際、ジョグ送り
段階から自律移動段階への移行は、視覚センサの出力に
基づく制御手段内の処理によって自動的に行なわれるこ
とが好ましい。
【0015】また、教示希望位置への自律移動実行段階
におけるソフトウェア処理は、当該時点において視覚セ
ンサによって認識される案内視覚ターゲット手段の画像
上の位置を表わすデータと教示希望位置到達状態表現デ
ータとを比較する処理と、比較結果に基づいてロボット
の各軸を移動制御するための処理と、教示希望位置到達
状態の完了/未完了を判定する処理を、教示希望位置到
達状態完了の判定がなされるまで逐次的に繰り返すとす
ることが出来る。
【0016】本発明においては、教示希望位置に到達し
た際に観測されるところの視覚ターゲット手段の画像上
の位置のデータが予め入力され、教示希望位置への自律
移動時には、視覚ターゲット手段を視覚センサで観測す
ることでロボット移動のナビゲート指標のように用い、
ロボットを教示希望位置へ向けて誘導させる。
【0017】この特徴により、オペレータに負担をかけ
ることなく教示希望位置到達状態が効率的に達成され
る。また、ジョグ送りから自律移動への移行をシステム
内の自動切換で行うことで、位置教示作業時のロボット
の至便性を更に向上させることも出来る。従って、教示
希望位置の数が多数あるような場合でも、教示作業の負
担が少なくてすむ。
【0018】
【発明の実施の形態】図1は、本発明に従ったロボット
の位置教示のための移動制御方式の全体像を概念的に説
明する図である。符号1aは教示希望位置到達状態を表
現するデータを入力する教示希望位置到達状態表現デー
タ入力手段を表わしている。この教示希望位置到達状態
表現データ入力手段1aは、視覚ターゲットB1 他に対
するロボット2の教示希望位置への移動が完了した状態
における視覚ターゲットB1 とロボット手先2aの相対
的な位置関係を表現するデータ(以下、「教示希望位置
到達状態表現データ」と言う。)を予めメモリ4に入力
しておく機能を有している。
【0019】教示希望位置は、代表ワーク3の面3a上
の4個の符号A1 〜A4 で例示されている。A1 〜A4
の各近傍に描かれたB1 〜B4 は、A1 〜A4 の表わす
位置を代表する視覚ターゲット手段であり、各対応する
教示希望位置A1 〜A4 と一定の関係を以て与えられ
る。視覚ターゲット手段の具体例については後述する。
通常の形態においては、各視覚ターゲット位置B1 〜B
4 と各教示希望位置A1〜A4 とは近接してはいるが一
致はしないように与えられるが、場合によっては両者を
一致させることも可能である。
【0020】符号2a,2bは各々ロボットの手先位置
と教示対象点(通常はツール先端点;TCP)を表わし
ている。以下の説明において、ロボットの手先位置2a
は最終アーム先端のフランジ上に設定された座標系の原
点で代表させるものとする。
【0021】実際の作業時にあたっては、オペレータが
ジョグ送りボタン等のロボットマニュアル操作手段(ロ
ボット動作指令マニュアル入力手段;教示操作盤など)
5を操作し、軸移動制御手段6にロボット2の各軸を制
御させ、教示希望位置への移動を開始させる。この移動
開始時から、あるいは移動開始後のある時点から、教示
希望位置への自律的な移動のための移動制御が行なわれ
る。この自律的移動のための移動制御は、教示希望位置
到達状態表現データ入力手段1aによって入力された教
示希望位置到達状態表現データと、各時点におけるロボ
ット手先(これに固定されたカメラ等)と視覚ターゲッ
ト手段との間の相対的な位置関係を表わす相対位置認識
データに基づいて行われる。
【0022】後者のデータは、移動制御の過程におい
て、ロボット手先視覚ターゲット間相対位置認識手段1
bによって少なくとも1回与えられる。教示希望位置到
達状態においては、当然、TCP2bは教示希望位置の
一つA1 (またはA2 〜A4 内の一つ)と一致する(符
号2b’で例示)。
【0023】後述するように、教示希望位置到達状態表
現データ入力手段1a及び相対位置認識手段1bは、視
覚センサを利用する形で具体化される。また、視覚ター
ゲット手段B1 〜B4 は、視覚センサによって認識可能
なマーク座標系あるいはレーザビームによって形成され
る光スポットの形で具体化される。以下の説明では、視
覚ターゲット手段をマーク座標系の形で具体化する形態
を「方式1」と呼び、レーザビームによって形成される
光スポットの形で具体化する形態を「方式2」と呼ぶ。
【0024】図2は、本実施形態で使用されるシステム
のハードウェア構成の概略をロボット制御装置を中心と
した要部ブロック図で示したものある。符号30で全体
を指示されたロボット制御装置にはプロセッサボード3
1が装備され、このプロセッサボード31はマイクロプ
ロセッサからなる中央演算処理装置(以下、CPUと言
う。)31a、ROM31b並びにRAM31cを備え
ている。
【0025】CPU31aは、ROM31bに格納され
たシステムプログラムに従ってロボット制御装置全体を
制御する。RAM31cには、作成済みの動作プログラ
ムや各種設定値等の他に、教示希望位置への自律移動を
方式1あるいは方式2に従って実行するに必要なロボッ
ト側の処理を定めたプログラムと関連設定値等が格納さ
れる。また、RAM31cの一部はCPU31aが実行
する計算処理等の為の一時的なデータ記憶に使用され
る。なお、プログラムデータや設定値の保存には、適宜
外部装置として用意されたハードディスク装置などが利
用される。
【0026】プロセッサボード31はバス37に結合さ
れ、このバス結合を介してロボット制御装置30内の他
の部分との間で、指令やデータの授受が行なわれるよう
になっている。先ず、ディジタルサーボ制御回路32が
プロセッサボード31に接続されており、CPU31a
からの指令を受けて、サーボアンプ33を経由してサー
ボモータ51〜56を駆動する。各軸を動作させるサー
ボモータ51〜56は、ロボット2の各軸の機構部に内
蔵されている。
【0027】通信用インターフェイスを内蔵したシリア
ルポート34は、バス37に結合される一方、液晶表示
部付の教示操作盤40、画像処理装置20並びにレーザ
発振器60に接続されている。但し、レーザ発振器60
は方式2で使用されるもので、方式1では不要である。
【0028】教示操作盤40は、オペレータにより持ち
運びができる程度の大きさと重さを有し、そのパネル上
にはロボットマニュアル操作手段として使用されるジョ
グ送りボタン等が設けられている。この他、バス37に
は、ディジタル信号用の入出力装置(ディジタルI/
O)35、アナログ信号用の入出力装置(アナログI/
O)36が結合されている。エンドエフェクタとの信号
授受が必要な場合、エンドエフェクタの制御部は、ディ
ジタルI/O35あるいはアナログI/O36に接続さ
れる。後述する例では、アーク溶接ロボットのアプリケ
ーションを考えているので、ディジタルI/O35には
アーク溶接トーチの電源装置が接続される。
【0029】画像処理装置20は、CPUにプログラム
メモリ、フレームメモリ、画像処理プロセッサ、データ
メモリ、カメラインターフェイス等をバス結合させた通
常のものである。画像処理装置20は、カメラインター
フェイスを介してカメラ21が接続されている。このカ
メラは、後述する態様で視覚ターゲット手段の画像を取
得するための撮影に使用される。プログラムメモリに
は、方式1あるいは方式2で必要とされる画像解析用の
プログラムデータが格納される。
【0030】図3は、教示操作盤40のパネル面の概略
構成を示す図である。表示画面41は例えば液晶画面で
あり、移動指令プログラムの詳細データ等が切替え表示
される。ファンクションキー42は、表示画面41の下
端部に表示されるメニューを選択するキーである。教示
操作盤有効スイッチ43は、教示操作盤40の操作が有
効か無効かを切り換えるスイッチである。
【0031】非常停止ボタン44は、ロボット2の動作
を非常停止させるボタンである。カーソルキー45は、
表示画面41上で表示されるカーソルの移動を行うキー
である。テンキー部46には、数字キーやその他のキー
が設けられており、数値および文字の入力、削除等を行
うことができる。
【0032】一連のジョグ送りボタン47(J1〜J
6)は、従来方式のジョグ送りを行なう通常モードで
は、並進/回転方向及び+−方向を指定して移動指令の
入力を行うボタンであるが、本実施形態(自律移動モー
ド)では、後述するように、教示希望位置への自律移動
指令入力手段として使用する。以上の事項を前提に、方
式1と方式2について実施形態の詳細を以下に説明す
る。
【0033】[方式1] [1]概要 図4は、方式1による実施形態における自律移動の動作
を説明する図である。図1と同じく符号3で指示された
代表ワークの面3a上には、希望する教示点A1 〜A4
の数に見合った数(ここでは4個)のマーク部材MK1
〜MK4が貼付されている。各マーク部材上には、後述
するように、同一のマーク座標系がドットパターンで描
かれている。マーク部材MK1は、教示希望点A1 の位
置・姿勢に正確に対応するような位置・姿勢を以て貼付
されている。同様に、マーク部材MK2〜MK4は、教
示希望点A2 〜A4 の位置・姿勢に各々正確に対応する
ような位置・姿勢を以て貼付されている。
【0034】手先部周辺のみを描示したロボットは、手
先部に溶接トーチ2cとカメラ21を搭載しており、T
CP2bは溶接トーチ2c先端に設定されている。本実
施形態では、ロボットを移動開始位置Psから出発し
て、溶接トーチ2cの先端に設定されたTCP2bを教
示希望点A1 〜A4 に順次自律移動させ、各教示希望位
置で位置教示を行なうケースを考える。なお、自律移動
の開始位置Psは最初のマークMK1がカメラ21の視
野に入る位置であれば、一般には任意である。
【0035】図5は、方式1による実施形態で使用され
るマーク部材の構成を説明する図である。同図を参照す
ると、マーク座標系ΣM は、マーク部材MK上に間隔a
を以て格子状に配列された5個の円形ドットD0 ,D1
,D-1,D2 ,D-2で構成されている。ドット間隔a
は正の一定値である。従って、各ドットの中心位置は、
D0 (0,0,0),D1 (a,0,0),D-1(−
a,0,0),D2 (a,a,0),D-2(−a,a,
0)となる。なお、3次元直交座標系を表現出来るもの
であれば、他のパターンでマーク座標系を構成しても良
い。
【0036】マーク部材MKの適当な定位置には穴MH
が設けられている。この穴MHは教示希望位置を指し示
すもので、代表ワーク3の面3a上に貼付する際には、
その代表点(例えば、中心)が教示希望位置と一致する
ように貼付位置が選ばれる。貼付姿勢はマーク座標系Σ
M の向きを参照して選ぶ。即ち、貼付姿勢が異なると、
後に教示される姿勢も異なって来る。例えば、図4にお
けるMK1とMK4の貼付姿勢は90度違うため、後に
教示される姿勢も90度異なったものとなる。
【0037】[2]準備(カメラのキャリブレーション
と教示希望位置到達状態表現データの取得) 1.作業開始に先だって、適当なキャリブレーション法
を適用してカメラのキャリブレーションを行なってお
く。カメラのキャリブレーションには種々の手法が知ら
れているが、ここに示したマーク部材を利用することも
出来る。その概略については、説明の都合上、後で述べ
る。
【0038】2.教示希望位置到達状態表現データの取
得作業を行なう。先ず、マーク部材MKを適当な位置に
固定する。勿論、代表ワーク3に貼付されたマーク部材
の一つをそのまま使用することも出来る。先ず、通常モ
ード(従来方式)のジョグ操作によってロボットを移動
させ、ツール先端点2bをマーク部材MKの穴MHの代
表点MAに一致させ、教示希望姿勢をとらせる。これに
より、マーク部材MKに関して教示希望位置到達状態が
実現されたことになる。
【0039】3.マーク部材MKに関して教示希望位置
到達状態を実現したら、ロボット制御装置30を介して
カメラ21による撮影を行なわせ、教示希望位置到達状
態表現データを作成するための画像を取得する。 4.取得された画像は画像処理装置20内で画像処理さ
れ、カメラ21のカメラ座標系に対するマーク座標系Σ
M の相対的な位置姿勢を表わすデータが作成される(詳
細は後述)。
【0040】[3]方式1における教示希望位置自律移
動時の処理 図4に示したアプローチ開始位置Ps(フランジ位置で
表現)から自律教示希望位置への移動を開始して、教示
希望位置Pt(フランジ位置で表現)への移動を達成す
るための処理のアルゴリズムを説明する。なお、以下の
説明において、記号<>はベクトルを表わすために使用
する。 1.アルゴリズムの骨格 図7は、自律的な教示希望位置への移動に必要なアルゴ
リズムの骨格を記したものである。フランジの現在位置
(教示希望位置への移動中の各時点における位置)T0
、カメラ座標系とマーク座標系の現在相対位置(教示
希望位置への移動過程における各時点における相対位
置)M0 と、教示希望位置到達状態におけるフランジ位
置Tg 、教示希望位置到達状態におけるカメラ座標系と
マーク座標系の相対位置(目標相対位置)Mg との幾何
学的な関係は、図4中に記されているようなものであ
る。
【0041】そして、Mg は上記準備作業で取得される
教示希望位置到達状態表現データに相当するものであ
る。また、Cはカメラキャリブレーションで教示され
る。これらT0 ,M0 ,Tg ,Mg の間の関係を規定す
る基本方程式は下記のようになる。 T0 CM0 =Tg CMg ・・・(1) 従って、これをTg について解いた次式(2)がロボッ
トの直交座標系上での移動目標位置を表わす基本式とな
る。 Tg =T0 CM0 Mg-1-1 ・・・(2) このTg を最終的な移動目標点とする位置指令をサーボ
に与えれば、ロボットを教示希望位置へ向けて自律的に
移動させることが出来る。故に、教示希望位置への自律
移動のアルゴリズムを定めることは、(2)式の右辺を
具体的に求める問題に帰着する。
【0042】(2)式の右辺中、T0 はロボットの現在
位置データを表わしており、随時ロボット制御装置内で
得られる性質のデータである。Cのデータは適当なカメ
ラキャリブレーションによって別途獲得されるものであ
る(キャリブレーションの例は後述)。そこで、M0 及
びMg の求め方から説明する。
【0043】2.M0 及びMg の方程式 M0 ,Mg は、いずれもカメラ座標系から見たマーク座
標系ΣM の位置・姿勢(現在及びアプローチ完了時)を
表わしている。
【0044】本実施形態で用いられるマーク座標系ΣM
(図5参照)を構成する円形ドットD0 ,D1 ,D-1,
D2 ,D-2の配列間隔aは正の一定値であるから、 a>0 ・・・(3) である。M0 とMg は、3次元直交座標系間の位置・姿
勢の関係を表現する4×4の同次変換行列であり、次式
(4)のように置くことが出来る。
【0045】
【数1】 ここで、RM は回転を表わす3×3行列、lM は位置を
表わす3×1行列(ベクトル)である。以下、M0 とM
g が満たす方程式として、RM とlM が満たす方程式を
求めることを考える。先ず、次式(5),(6)でベク
トル<e1 >,<e2 >を定義する。
【0046】
【数2】 マーク座標系ΣM に関して視覚センサから得られる情報
は、各円形ドットD0,D1 ,D-1,D2 ,D-2の中心
がカメラ座標系の原点から見える方向(視線方向)であ
る。これらの方向は、図6に示したように、5個の単位
ベクトル<d0>,<d1 >,<d-1>,<d2 >,<
d-2>で表わすことが出来る。
【0047】これらベクトルの内積について、次式
(7)で定義されるδijを導入する。 δij=<di>・<dj> (i,j=-2,-1,0,1,2) ・・・(7) ここで、<d0 >,<d1 >,<d-1 >,<d2 >,
<d-2>の長さはすべて1であるから、δijの絶対値は
1を越えることはない。 |δij|≦1 (等号成立の必要十分条件はi=j) ・・・(8) また、カメラ座標系原点から各ドット中心までの距離は
不明であるが、これをti (i=-2,-1,0,1,2)と置く。
当然これらは正の値をとる。
【0048】 ti >0 (i=-2,-1,0,1,2) ・・・(9) すると、次の方程式(10)〜(12)が得られる。 t0 <d0 >=lM ・・・(10) t1 <d1 >=lM +aRM <e1 > ・・・(11a) t-1<d-1>=lM −aRM <e1 > ・・・(11b) t2 <d2 >=t1 <d1 >+aRM <e2 > ・・・(12a) t-2<d-2>=t-1<d-1>+aRM <e2 > ・・・(12b) 従って、ti を求めながらこれらの方程式をRM とlM
に関して解いて行けば、M0 ,Mg を定めることが出来
る。具体的な解法については、4.M0 及びMg の求め
方の項で説明することにし、カメラ座標系の位置・姿勢
を表わすCについて簡単に触れておく。
【0049】3.Cの方程式 Cはフランジから見たカメラ座標系の位置・姿勢を表現
する行列であり、そのデータはカメラ21のキャリブレ
ーションによって得られる。キャリブレーションについ
ては種々の手法が公知になっており、それらを利用する
ことが出来るが、マーク座標系ΣM を用いてもカメラ2
1のキャリブレーションを行なうことも出来る。ここで
は、その要点のみを簡単に記しておく。
【0050】図4中に符号CB1〜CB3で示したよう
な異なる3点において、カメラ21による撮影を各々実
行し、画像処理を行なってマーク座標系ΣM とカメラ座
標系の原点の間の相対位置に関するデータPi (i=1,2,
3 )を得る。それらと各撮影時のロボット位置のデータ
Ti (i=1,2,3 )を組み合わせると、次の3組の方程式
が得られる。なお、Pi (i=1,2,3 )を求める要領はM
0 やMg と同様である。 T1 CP1 =T2 CP2 =T3 CP3 ・・・(13) 3点CB1〜CB3のロボットの姿勢が互いに異なる条
件下では、この方程式をCに関して解くことが可能であ
る。この条件を(14)とする。 条件:T1 ,T2 ,T3 の各姿勢成分は互いに異なる ・・・(14) 求められたCのデータは、ロボット制御装置あるいは画
像処理装置に記憶される。なお、方程式の解法について
は、5.Cの求め方で補足説明を行なう。
【0051】4.M0 及びMg の求め方 方程式(10)〜(12)を解いてRM ,lM を求めるにあ
たって、先ずti (i=-2,-1,0,1,2 )を求めることを考
える。そのために、次式(15)の置き換えを行う。
【0052】
【数3】 そして、これを用いて方程式(10)〜(11)を次式(1
6)〜(18)のように変形する。 <rM >=t0 RM-1 <d0 > ・・・(16) <rM >+a<e1 >=t1 RM-1 <d1 > ・・・(17) <rM >−a<e1 >=t-1RM-1 <d-1> ・・・(18) ここで、RM-1 が回転を表わす行列であることに注意す
ると、次式(19)が成立する。 (RM-1 <di >)・(RM-1 <dj >)=<di >・<dj > (i,j=-2,-1,0,1,2) ・・・(19) この(19)式と、(5)〜(8)式及び(16)〜(18)
式を用いると、次の関係式(20)〜(23)が得られる。
【0053】 ‖<rM >‖2 =t02 ・・・(20) ‖<rM >‖2 +2arMx+a2 =t12 ・・・(21a) ‖<rM >‖2 −2arMx+a2 =t-12 ・・・(21b) ‖<rM >‖2 +arMx=t0 t1 δ0,1 ・・・(22a) ‖<rM >‖2 −arMx=t0 t-1δ0,-1 ・・・(22b) δ0,12<1,δ0,-12 <1 ・・・(23) これらの式から条件(3),(9)と式(22a),(22
b)から、‖<rM >‖2 +arMxとaδ0,1、‖<rM
>‖2 −arMxとaδ0,-1 とが各々同符号になる事に
注意して整理すれば、次式(24a)〜(25b)が得られ
る。
【0054】
【数4】 式(24a),(24b)は更に変形すると、次式(26),
(27)が得られる。 ‖<rM >‖2 =(a2β+2)/(1+β-2) ・・・(26) rMx=(aβ+ β- )/(1+β-2) ・・・(27) 但し、β+ ,β- は次式(28a),(28b)で定義され
るものとする。 β+ =(α+ +α- )/2 ・・・(28a) β- =(α+ −α- )/2 ・・・(28b) そして、式(20)(21a),(21b)に式(26)(27)
を代入して条件(3),(9)を用いれば、t0 ,t1
及びt-1が次式(29)(30a),(30b)で求まる。
【0055】
【数5】 これらを用いて更に、t2 ,t-2,<lM >及びRM
が次のように求められる。
【0056】
【数6】 5.Cの求め方 前述の条件(14)の下で、前述の方程式(13)を解く。
方程式(13)を変形すると、次の(31),(32)が得ら
れる。 C-1T1-1T3 C=P1 P3-1 ・・・(31) C-1T2-1T3 C=P2 P3-1 ・・・(32) ここで次式(33)〜(37)に従った置き換えを行なう。
【0057】
【数7】 すると、方程式(31),(32)は次の式(38)〜(41)
に分解される。 RC-1 R1 RC =R2 ・・・(38) RC-1 R3 RC =R4 ・・・(39) (I−R1 )<lC >=<l1 >−RC <l2 > ・・・(40) (I−R3 )<lC >=<l3 >−RC <l4 > ・・・(41) 従って、RC 及び<lC >を求めることが目標となる。
ここで、方程式(38),(39)の形から、回転行列間の
相似R1 〜R2 ,R3 〜R4 及びそれらの相似関係を表
現する相似変換行列がともにRC であることが判る。そ
こで、Ri (i=1,2,3,4 )の回転方向を表わすベクトル
を<vi >(i=1,2,3,4 )として、次式(42),(43)
が得られる。ここで、<vi >(i=1,2,3,4)は、条件
(14)と定義式(34),(36)から一意的に定めること
が出来る。 <v1 >=RC <v2 > ・・・(42) <v3 >=RC <v4 > ・・・(43) 更に、次式(44)の関係を用いれば、RC を求めること
が出来る。 (<v1 >,<v3 >,<v1 >×<v3 >) =RC (<v2 >,<v4 >,<v2 >×<v4 >) ・・・(44) 方程式(40),(41)に関しては、次式(45)の形にひ
とまとめにして、最小2乗法を適用すれば<lC >が求
められる。
【0058】
【数8】 6.方式1による移動制御の処理フローの概略以上1.
〜5.の説明事項を前提として、方式1における準備作
業と自律教示希望位置への移動のための処理フローの概
略を説明する。先ず、準備作業について補足すれば、次
のようになる。 (1)作業開始に先だって、上記3,で説明したよう
に、3つの位置CB1〜CB3にロボットを順次移動さ
せる。 (2)各位置CB1〜CB3で、代表ワーク3上のマー
ク部材MK1のマーク座標系ΣM (1個)の画像を取得
し、画像処理装置20内の画像処理によって各ドット中
心の視線方向を表わすデータを取得する。 (3)上記5.で説明したアルゴリズムに従った処理を
画像処理装置20内で行い、カメラ座標系Cのデータ
(RC ,<lC >のデータ)を算出・記憶する。
【0059】(4)カメラキャリブレーションが完了し
たら、ロボットを図4に示した位置Ptに移動させ、マ
ークMK1に対する教示希望位置到達状態を現出させ
る。
【0060】(5)マーク座標系ΣM の画像を取得し、
画像処理装置20内の画像処理によって各ドット中心の
視線方向を表わすデータを取得する。 (6)上記1.2.4.で説明したアルゴリズムに従っ
た処理を画像処理装置20内で行い、教示希望位置到達
状態表現データ(Mg のデータ)を算出・記憶する。
【0061】教示希望位置への自律的な移動は、図8の
フローチャートに示したように、次の諸ステップを含む
処理サイクルによって実行される。 〔K1〕<d0 >,<d1 >,<d-1>,<d2 >,<
d-2>を画像処理で求め、M0 を計算する。 〔K2〕記憶されているMg のデータとステップK1で
求めた<d0 >,<d1 >,<d-1>,<d2 >,<d
-2>から計算されるM0 とを比較し、両者の一致/不一
致を判定する。一致していれば教示希望位置への到達状
態を意味するから、ステップK6へ進む。不一致であれ
ば、教示希望位置に到達していないことを意味するか
ら、ステップK3〜K5を経由してステップK1へ戻
る。Mg とM0 の一致度の評価には種々のアルゴリズム
が利用出来る。例えば、次式(46)で判定指標Δを算出
し、Δ<ε(εは十分小なる正値)であればアプローチ
完了、Δ≧εであればアプローチ未完了とすれば良い。
【0062】
【数9】 〔K3〕ロボットの手先(フランジ上に設定された座標
系の原点)の位置・姿勢を表わす4行4列の行列T0 を
計算・記憶する。 〔K4〕準備作業で取得したデータ(C,Mg のデー
タ)と上記説明したアルゴリズムを用いて、(2)式の
右辺を計算し、直交移動目標位置Tg を求める。
【0063】〔K5〕直交移動目標位置Tg へ向かうた
めの移動指令を作成してサーボへ渡し、ロボットを移動
させる。システムが無誤差の完璧なものであれば、以上
のステップK1〜K5の1サイクルで教示希望位置到達
状態に至る筈であるが、実際には視覚センサの誤差、計
算の誤差等のために、教示希望位置到達状態は、逐次近
似的に達成される。
【0064】〔K6〕ロボットを停止させて処理を終了
する。 [方式2] [1]概要 方式2による実施形態においては、視覚ターゲット手段
として、レーザビームによって形成される光スポットが
利用される。先ず、準備作業と教示作業の概略を、図9
〜図14を参照図に加えて説明する。図9は準備作業の
諸段階の内PR1〜PR3を説明するための図であり、
図10は残りの段階PR4〜PR6を説明するための図
である。また、図11は、教示作業の諸段階の内TH1
〜TH3を説明するための図、図12は段階TH4,P
R5を説明するための図である。
【0065】[2]準備作業(教示希望位置到達状態表
現データの取得とカメラのキャリブレーション) (PR1)先ずフランジ位置2aで代表されるロボット
の手先に、カメラ21に加えて、レーザヘッド22(図
2中に示したレーザ発振器60の照射ヘッド)と参照ツ
ール25を取り付ける。レーザヘッド22は適当な調整
機構23を介して取り付けられており、レーザビーム2
4の投光方向を調整出来るようになっている。参照ツー
ル25の先端付近の矢印27で示した部分には、TCP
(2b)を表わすマーク26が設けられている。但し、
このマーク26は目視用のものであることに注意する必
要がある。図示されているように、レーザヘッド22を
取り付けただけの状態では、一般に、レーザビーム24
が参照ツール25上のマーク26には入射しない。
【0066】(PR2)レーザヘッド22の向きを調整
して、レーザビーム24が参照ツール25上のマーク2
6に入射するようにする。これにより、マーク26の位
置、即ち、TCPの位置2bに光スポットが形成され
る。レーザヘッド22は、以後、この状態で固定され
る。
【0067】(PR3)この状態で、ロボット制御装置
30を介してカメラ21による撮影を行なわせ、教示希
望位置到達状態表現データを作成するための画像を取得
する。取得された光スポットの画像は画像処理装置20
内で画像処理され、カメラ21のカメラ座標系(原点O
c )から見た光スポット(TCP位置2bにある。)の
方向を表わすベクトル<et >のデータが作成・記憶さ
れる。このデータが、教示希望位置到達状態表現データ
として後に利用される。
【0068】(PR4)<et >のデータを取得した
ら、参照ツール25を取り外す。レーザヘッド22は固
定されたままなので、図示されているように、レーザビ
ーム24は空中でTCP(2b)を通ることになる。
【0069】(PR5)カメラ座標系の原点Oc から見
たレーザビーム24の存在方向を表わすベクトルとし
て、ベクトル<eh >のデータを作成・記憶する。<e
h >は、次の2条件を満たすベクトルである。 条件1;ベクトル<et >とレーザビーム24が張る平
面内にある。 条件2;<eh >⊥<et >を満たす<eh >の内、カ
メラ21からレーザヘッド22を見た方向に近い方のベ
クトルである。<eh >は、例えば図13に示した方法
で求めることが出来る。
【0070】即ち、ロボットをジョグ送りで適当な平面
(ここでは代表ワーク面3aを利用する。)の上方に移
動させ、レーザビーム24のスポットFを形成する。そ
して、(1)に示したようにTCP位置2bが面3aの
上方にある状態から、ロボットの面3aへの接近によ
り、(2)に示したようにTCP位置2bが面3aの下
方に来る状態を作る。換言すれば、スポットFの位置が
TCP位置(2b)を見るカメラ21の視線21aと面
3aの交点Nを越えて(1)の状態から反対側に来るよ
うにする。
【0071】この状態で、カメラ21による撮影を行な
い、スポットFの画像を取得する。そして、画像処理装
置20内で画像処理を行い、カメラ座標系から見たスポ
ットFの方向を表わすベクトル<es >のデータを求め
る。ベクトル<eh >は、この<es >を用いて次式
(47)で算出される。
【0072】
【数10】 (PR6)カメラ21のキャリブレーションを行なう。
これは、ロボット手先のフランジ面上に設定されている
フランジ座標系(2aが原点)とカメラ座標系の関係を
求めるためのものである。カメラのキキャリブレーショ
ンの手法については方式1の説明で述べた通り種々のも
のが利用可能である(マーク部材による手法を利用して
も良い)。
【0073】[3]方式2による教示作業 (TH1)先ず、ロボットをジョグ送りで最初の教示希
望位置が存在する代表ワーク面3aの上方に移動させ、
レーザビーム24のスポットFを代表ワーク面3a上に
形成する。教示希望位置Aは、視覚センサで認識可能な
適当な教示点マークAで予めマーキングしておくものと
する。図示した状態のフランジ位置2aをPsとし、位
置Psから自律移動を開始するものとする。なお、後述
するように、ジョグ送りから自律移動への移行は、例え
ば視覚センサ出力を利用した自動切換とすることが出来
る。
【0074】図示されているように、TCP位置2bは
面3aの上方にあり、レーザビーム24はこの点を経て
面3a上にスポットFを形成する。この段階TH1で
は、一般に、教示点マークA、スポット位置F及びTC
P(2b)の3点は互いに別の位置にある。また、カメ
ラ21から教示点マークAを見た視線21aはTCP
(2b)を通らない。
【0075】(TH2)自律移動の処理によってロボッ
トを動作させ、カメラ21から教示点マークAを見た視
線21aがTCP(2b)を通るようにする。ロボット
の動作としては、カメラ座標系の原点Oc 周りの回転が
合理的である。
【0076】(TH3)自律移動の処理によってロボッ
トを動作させ、視線21aがTCP(2b)を通る条件
を出来るだけ守りながら、スポットFの形成位置を教示
点マークAに接近させる。ロボットの動作としては、視
線21a方向の前進に適宜Oc 周りの回転を組み合わせ
たものとする。
【0077】(TH4)視線21a方向の前進が過剰に
なったら、視線21aがTCP(2b)を通る条件を出
来るだけ守りながら、適宜視線21a方向に沿って後退
し、適宜Oc 周りの回転を組み合わせる。
【0078】(TH5)以下、TH3の動作(前進)と
TH4(後退)の動作を繰り返して、スポットFの形成
位置を教示点マークAに収束させる。この収束点は、T
CP(2b)を通り、且つ、教示点マークAを見る視線
21aとTCP(2b)を通るレーザビームの交点に他
ならないから、従って、結局は教示点マークA、スポッ
ト位置F及びTCP(2b)の3点が同じ位置に来るこ
とになる。これはとりもなおさず、教示対象点たるTC
P(2b)が教示希望位置に到達したことを意味する。
この時のフランジ位置2bの位置を、方式1の場合と同
じく、Ptで表わす。
【0079】そこで、この状態におけるロボット位置を
制御手段(ロボット制御装置内の不揮発性メモリ)に記
憶すれば、位置Aの位置教示が完了する。教示希望位置
(教示点マーク)が複数ある場合(図示は省略するが、
例えば図1中の代表ワーク3上の点A1〜A4を参
照)、2番目以降の各教示点マークに関して上記プロセ
スTH1〜TH5を適用すれば良い。
【0080】[4]方式2における教示希望位置自律移
動時の処理 上記[2]で説明したプロセスに従って、自律移動開始
位置Ps(フランジ位置で表現)から教示希望位置Pt
(同じく、フランジ位置で表現)への移動を達成するた
めの処理のアルゴリズムを説明する。記号<>は方式1
の場合と同じくベクトルを表わすが、ベクトルの定義内
容等は方式1とは別個である。自律的な移動は、図15
(L1〜L12)及び図16(L13〜L19)のフロ
ーチャートに概略を記したアルゴリズムに従った処理サ
イクルに基づいて実行される。以下、各ステップに分け
てアルゴリズムを中心に説明する。説明中の諸記号の意
味は次の通りである。
【0081】σ0 ,σ1 ;いずれもロボットの前進/後
退を表わすフラグで±1の値をとる。+1は前進を意味
し、−1は後退を意味する。 l;ロボットの前進/後退の刻み量を表わすレジスタ値 <dm >;図14に示したように、カメラ座標系の原点
Oc から教示点マークAを見た視線方向を表わす単位ベ
クトル(長さ1)で、画像データから求められる。 <ds >;同じく図14に示したように、カメラ座標系
の原点Oc からスポット位置F(レーザビーム24の入
射位置)を見た視線方向を表わす単位ベクトル(長さ
1)で、<dm >と同様、画像データから求められる。
【0082】T;ロボット座標系上で、ロボットの位置
・姿勢を表わす行列 δr ,δl ;いずれも適当なしきい値で、0に近い正の
定数。 R;<dm >と<et >の方向の関係を記述する回転行
列で、R<et >=<dm >となる3×3行列の内、最
小の回転を表わすもの。 sgn;符号関数で、次のように定義される。 sgn(x)=+1 (x>0) sgn(x)=0 (x=0) sgn(x)=−1 (x<0) 〔L1〕フラグσ0 を1に初期設定する。また、lを適
当な初期値(例えば3cm)に初期設定する。 〔L2〕行列Tのデータを表わすレジスタ値をロボット
の現在位置に基づいて更新する。 〔L3〕カメラ21を用いて撮影を行い、画像処理装置
20を用いてベクトル<dm >を求めることを試みる。 〔L4〕もし、ベクトル<dm >が求められなければ、
教示点マークAがカメラ視野で捉えられていないことが
考えられるので、処理を終了する(オペレータは、ジョ
グ送りでロボット位置を調整し、教示点マークAが確実
にカメラ視野で捉えられる状態とする)。ベクトル<d
m >が求められた場合には、ステップL5へ進む。
【0083】〔L5〕ベクトル<et >とベクトル<d
m >の外積、<dr >=<et >×<dm >を求める。 〔L6〕ベクトル<dr >の絶対値をしきい値δr と比
較し、小さくなければステップL7へ進む。小さければ
ステップL10へ進む。
【0084】〔L7〕<dm >と<et >の方向の関係
を記述する回転行列Rを表記の式で算出する。なお、表
記の算出式は、下記の連立方程式をRについて解いて得
られるものである。 R<et >=<dm > ・・・(48) R<dr >=<dr > ・・・(49) 〔L8〕行列Tのデータを表わすレジスタ値を、新しい
部分行列Rを含む表記の行列に対するものに更新する。
この行列は、下記の方程式(50)をTg について解き、
Tg →Tとしたものである。
【0085】
【数11】 〔L9〕ロボットを動作させ、ステップL8で計算され
た行列Tの表わす位置・姿勢に移動させるための処理を
行い、ステップL2へ戻る。 〔L10〕ステップL6で、ベクトル<dr >の絶対値
がしきい値δr より小さいと判断されたら、初めてこの
ステップL10が実行される。本ステップでは、カメラ
座標系の原点Oc からスポット位置Fを見た視線方向を
表わす単位ベクトル<ds >を、画像データから求める
ことを試みる。
【0086】〔L11〕ベクトル<dr >の絶対値がほ
ぼ0となっているこの時点(TCPを見る視線と教示点
マークを見る視線が実質一致)でスポットFがカメラ視
野に収まらないことは、システム異常や設計ミス等がな
い限り起こり得ないと考えられる。従って、殆どのケー
スでは、ベクトル<ds >が求められ、ステップL12
へ進む。しかし、万一<ds >が求められない場合には
処理を終了する(別途、原因究明等を行なう)。
【0087】〔L12〕<ds >と<et >が実質同じ
向きで、且つ、内積1になっているかをチェックする
(δl は非常に小さい正値であることに注意)。 〔L13〕ロボットの前進/後退を表わすフラグσ1
を、<ds >と<eh >の内積が正ならばσ1 =−1、
負ならばσ1 =1、実質的に0ならばσ1 =0とする。 〔L14〕σ1 =0であればステップL15に進む。σ
1 =0でなければステップL16へ進む。 〔L15〕σ1 をσ0 に更新し、ステップL18へ進
む。 〔L16〕σ1 とσ0 の積が正であればステップL18
へ進む。負であればステップL17へ進む。
【0088】〔L17〕σ0 をσ1 に更新するととも
に、lの値を半減する。 〔L18〕行列Tのデータを表わすレジスタ値を、表記
の行列に対するものに更新する。この行列は、下記の方
程式(51)をTg について解き、Tg →Tとしたもので
ある。
【0089】
【数12】 〔L19〕ロボットを動作させ、ステップL18で計算
された行列Tの表わす位置・姿勢に移動させるための処
理を行い、ステップL2へ戻る。 以上説明したアルゴリズムに従った処理サイクルの中
で、いずれかの時点でステップL12でイエスの判断出
力が得られたなら、図12の(TH5)に示したような
教示希望位置到達状態が実現したと解し、ロボットを停
止させて処理を終了する。
【0090】以上、方式1、方式2の実施形態について
の説明から理解されるように、本発明に従えば、予め入
力された教示希望位置到達状態の位置および姿勢となる
ように自律的にロボットの教示希望位置への移動が行な
われるので、作業効率が向上する。
【0091】更に、方式1、方式2いずれの実施形態に
おいても、マニュアル指令入力によるジョグ送りのモー
ドから、自律的に教示希望位置へ向かう自律移動のモー
ドの切換を制御手段(ロボット制御装置30及び画像処
理装置20)の内部の処理で自動化することが好まし
い。
【0092】図17は、ジョグ送りのモードから自律移
動のモードへの切換をシステム内部で行なう場合につい
て、教示操作盤の操作手順と処理の大要をフローチャー
トで示したものである。各ステップの処理を簡単に記す
と次のようになる。本例ではモード切換のタイミングの
決定に、視覚センサの出力を利用している。 〔S1〕ジョグ送りボタン47(いずれか1つ)が押さ
れてジョグ送りの指令がなされたか否かを判断し、なさ
れればステップS2に進み、なされなければステップS
1を繰り返す。 〔S2〕ジョグ送りボタン47で指定された移動内容
(方向、軸等)に応じて、所定の軸を制御して、ロボッ
ト10のジョグ送り移動を開始する。例えば、J6軸+
方向の移動が指定されていれば、J6軸を+方向へ進め
る移動指令を作成してサーボに渡す。 〔S3〕ジョグ送りボタン47がオフにされたか否かを
判断し、オフにされればステップS8に進み、されなけ
ればステップS4に進む。 〔S4〕画像処理装置20から、カメラ13の視野内に
教示点マークA(方式2の場合、及びスポットF)が入
ったことを知らせる信号の受信の有無を確認し、受信し
ていればステップS5に進み、受信していなければステ
ップS3に戻る。 〔S5〕自律移動の処理を開始する。具体的な処理内容
の例については、方式1、方式2に分けて前述した通り
である。 〔S6〕ジョグ送りボタン47がオフにされたか否かを
判断し、オフにされていればステップS8に進み、され
ていなければステップS7に進む。 〔S7〕教示希望位置へ到達したか否かを判断し、到達
していればステップS8に進み、未到達であればステッ
プS6に戻る。なお、教示希望位置到達/未到達の判断
方式についても、方式1及び方式2の説明の中で述べた
通りである。 〔S8〕ロボット2の各軸の動作を停止させる。
【0093】
【発明の効果】本発明によれば、教示希望位置に到達し
た際に観測されるところの視覚ターゲット手段の画像上
の位置のデータが予め入力されているので、視覚ターゲ
ット手段をナビゲート指標のように用い、ロボットを教
示希望位置へ向けて自律的に移動させることが出来る。
従って、ロボットの位置教示作業に要するオペレータの
負担が大幅に軽減される。特に、ジョグ送りから自律移
動への移行をシステム内の自動切換で行うことで、位置
教示作業時のロボットの至便性を更に向上させることも
出来る。
【図面の簡単な説明】
【図1】本発明に従ったロボットの位置教示のための移
動制御方式の全体像を概念的に説明する図である。
【図2】本実施形態で使用されるシステムのハードウェ
ア構成の概略をロボット制御装置を中心とした要部ブロ
ック図で示したものある。
【図3】教示操作盤40のパネル面の概略構成を示す図
である。
【図4】方式1による実施形態における自律移動の動作
を説明する図である。
【図5】方式1による実施形態で使用されるマーク部材
の構成を説明する図である。
【図6】方式1による実施形態において、カメラがマー
ク座標系を見る視線方向を記述するベクトルについて説
明する図である。
【図7】方式1による実施形態における教示希望位置自
律移動に必要なアルゴリズムの大要を説明する図であ
る。
【図8】方式1による実施形態における教示希望位置自
律移動の処理の概要を記したフローチャートである。
【図9】方式2による実施形態における準備作業の諸段
階の内PR1〜PR3を説明するための図である。
【図10】方式2による実施形態における準備作業の諸
段階の内PR4〜PR6を説明するための図である。
【図11】方式2による実施形態における教示作業の諸
段階の内TH1〜TH3を説明するための図である。
【図12】方式2による実施形態における教示作業の諸
段階の内TH4,TH5を説明するための図である。
【図13】方式2による実施形態において、ベクトル<
eh >を求める方法を説明する図である。
【図14】方式2による実施形態に関して、ベクトル<
dm >,<ds >について説明する図である。
【図15】方式2による実施形態における自律移動の制
御のための処理のアルゴリズムの概要を記したフローチ
ャートの前半部分(L1〜L12)である。
【図16】方式2による実施形態における自律移動の制
御のための処理のアルゴリズムの概要を記したフローチ
ャートの後半部分(L13〜L19)である。
【図17】方式1あるいは方式2による実施形態におい
て、ジョグ送りのモードから自律移動のモードへの切換
をシステム内部で行なう場合について、教示操作盤の操
作手順と処理の大要をフローチャートで示したものであ
る。
【符号の説明】
1a 教示希望位置到達状態入力手段 1b ロボット手先視覚ターゲット間相対位置認識手段 2 ロボット 2a フランジ代表点(フランジ座標系原点) 2b 教示対象点(TCP;ツール先端点) 2b’ 教示希望位置に到達した教示対象点(TCP) 3 代表ワーク 4 メモリ 5 ロボットマニュアル操作手段 6 軸移動制御手段 20 画像処理装置 21 カメラ 22 レーザヘッド(レーザ発振器の照射部) 23 レーザヘッドの投光方向調整機能 24 レーザビーム 30 ロボット制御装置 31 プロセッサボード 31a プロセッサ 31b ROM 31c RAM 35 ディジタルI/O 36 アナログI/O 37 バス 40 教示操作盤 41 表示画面 42 ファンクションキー 44 非常停止ボタン 45 カーソルキー 46 テンキー部 47(J1〜J6) ジョグ送りボタン 51〜56 サーボモータ 60 レーザ発振器 A 教示点マーク(教示希望位置) A1 〜A4 教示希望位置 B1 〜B4 視覚ターゲット手段 CB1〜3 カメラのキャリブレーションを行なう位置 D0 ,D1 ,D-1 ,D2 ,D-2 マーク座標系のドッ
ト F スポット MK1〜MK4 マーク部材 ΣM マーク座標系
───────────────────────────────────────────────────── フロントページの続き (72)発明者 永山 敦朗 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 組谷 英俊 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 ロボットと該ロボットの手先部に取り付
    けられたカメラ手段並びに該カメラ手段を通して取得さ
    れた画像を処理する画像処理手段を備えた視覚センサ
    と、ロボット制御装置とを含むシステムの制御手段を用
    いて前記ロボットを教示希望位置へ移動させるためのロ
    ボットの移動制御方式において、 少なくとも一つの教示希望位置に関して教示希望位置到
    達状態を表現する教示希望位置到達状態表現データを前
    記制御手段に記憶させる教示希望位置到達状態記憶段階
    と、 前記制御手段による前記ロボットの移動制御によって前
    記ロボットを前記教示希望位置へ移動させる教示希望位
    置移動段階と、 教示位置データを前記制御手段に記憶させる教示位置記
    憶段階とを含み、 前記教示希望位置移動段階は、該教示希望位置への移動
    を前記教示希望位置到達状態表現データに基づいて自律
    的に行なわせる自律移動実行段階を含んでおり、 前記教示希望位置到達状態表現データは、前記視覚セン
    サによって認識可能な視覚ターゲット手段を用いて表現
    された前記視覚センサから見て教示希望位置到達状態と
    等価な教示希望位置到達等価状態を前記視覚センサが認
    識することを通して取得されるものであり、 前記視覚ターゲット手段は、前記自律移動段階において
    は、前記視覚センサによって認識されることを通して前
    記ロボットを前記教示希望位置へ案内するための案内視
    覚ターゲット手段を提供するものであり、 前記自律移動段階における前記ロボットの移動制御は前
    記制御手段内のソフトウェア処理によって行なわれ、 前記ソフトウェア処理は、前記視覚センサによる前記案
    内視覚ターゲット手段の認識状態が、前記教示希望位置
    到達状態表現データに対応する認識状態と一致するよう
    に前記ロボットを誘導するための処理を含んでいる、前
    記方式。
  2. 【請求項2】 前記視覚ターゲット手段が、前記視覚セ
    ンサによって認識可能なマーク座標系を含むマーク手段
    であり、 前記教示希望位置到達状態記憶段階で記憶される教示希
    望位置到達状態表現データが、画像上における前記マー
    ク座標系の位置・姿勢を表わすデータを含んでおり、 前記マーク手段は、前記案内視覚ターゲット手段を提供
    するために、前記教示希望位置と一定の相対関係を持つ
    位置に前記マーク座標系を用意するものである、請求項
    1に記載された、ロボットの位置教示のための移動制御
    方式。
  3. 【請求項3】 前記マーク手段が、教示作業の対象とさ
    れる代表ワークの面上に固定可能なマーク部材であり、
    該マーク部材上に前記マーク座標系が描かれている、請
    求項2に記載されたロボットの位置教示のための移動制
    御方式。
  4. 【請求項4】 前記視覚ターゲット手段が、前記ロボッ
    トに支持された光ビーム投光手段によって投光面上に形
    成される光スポットであり、 前記教示希望位置到達状態記憶段階において、前記教示
    希望位置到達等価状態を前記視覚センサに対して用意す
    るために、前記光スポットを前記ロボットの教示対象点
    に一致する位置に形成するための参照投光面が配置さ
    れ、 該参照投光面上に形成された光スポットを前記視覚セン
    サによって認識することを通して、前記光スポットの画
    像上の位置を表わすデータを含むように前記教示希望位
    置到達状態表現データが取得され、 前記自律移動段階は、前記参照投光面を除去し、且つ、
    前記教示希望位置到達等価状態において前記カメラから
    見た前記光ビーム投光方向を維持した状態で実行される
    ものであり、 前記自律移動実行段階における前記ロボットの移動制御
    は、前記教示希望位置の存在する面上に前記光ビームを
    投光して形成される光スポットを前記案内視覚ターゲッ
    ト手段として用いて行なわれ、且つ、前記ロボットの移
    動制御のための前記ソフトウェア処理は、前記視覚セン
    サによる前記光スポットの認識状態が、前記教示希望位
    置到達状態表現データに対応する認識状態と一致するよ
    うに前記ロボットを誘導するための処理を含んでいる、
    請求項1に記載されたロボットの位置教示のための移動
    制御方式。
  5. 【請求項5】 前記教示希望位置への移動実行段階に
    は、前記自律教示希望位置への自律移動実行段階に先立
    つジョグ送りの段階が含まれており、 前記ジョグ送り段階から前記自律教示希望位置への移動
    実行段階への移行が、前記視覚センサの出力に基づいて
    前記制御手段によって自動的に行なわれる、請求項1〜
    請求項4のいずれか1項に記載されたロボットの位置教
    示のための移動制御方式。
  6. 【請求項6】 前記教示希望位置への自律移動実行段階
    におけるソフトウェア処理が、当該時点において前記視
    覚センサによって認識される前記案内視覚ターゲット手
    段の画像上の位置を表わすデータと、前記教示希望位置
    到達状態表現データとを比較する処理と、前記比較結果
    に基づいてロボットの各軸を移動制御するための処理
    と、教示希望位置到達状態の完了/未完了を判定する処
    理を、教示希望位置到達状態完了の判定がなされるまで
    逐次的に繰り返すものであり、 該教示希望位置到達状態完了の判定がなされた後に、前
    記教示位置記憶段階が実行される、請求項1〜請求項5
    のいずれか1項に記載されたロボットの位置教示のため
    の移動制御方式。
JP8223250A 1996-08-07 1996-08-07 ロボットの位置教示のための移動制御方式 Expired - Fee Related JP2925072B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8223250A JP2925072B2 (ja) 1996-08-07 1996-08-07 ロボットの位置教示のための移動制御方式
PCT/JP1997/002766 WO1998006015A1 (fr) 1996-08-07 1997-08-07 Technique de commande du mouvement pour position d'apprentissage de robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8223250A JP2925072B2 (ja) 1996-08-07 1996-08-07 ロボットの位置教示のための移動制御方式

Publications (2)

Publication Number Publication Date
JPH1049218A true JPH1049218A (ja) 1998-02-20
JP2925072B2 JP2925072B2 (ja) 1999-07-26

Family

ID=16795159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8223250A Expired - Fee Related JP2925072B2 (ja) 1996-08-07 1996-08-07 ロボットの位置教示のための移動制御方式

Country Status (2)

Country Link
JP (1) JP2925072B2 (ja)
WO (1) WO1998006015A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1471402A2 (en) * 2003-03-17 2004-10-27 Fanuc Ltd Teaching position correcting apparatus
EP1555508A1 (en) * 2004-01-16 2005-07-20 Fanuc Ltd Measuring system
JP2006346790A (ja) * 2005-06-15 2006-12-28 Toyota Motor Corp ロボットと干渉判別方法と干渉判別装置
CN100375939C (zh) * 2003-05-29 2008-03-19 发那科株式会社 自动机械系统
JP2010064200A (ja) * 2008-09-11 2010-03-25 Cognex Corp 制御システム、制御方法およびプログラム
DE102015001527A1 (de) 2014-02-13 2015-08-13 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
JP2016128001A (ja) * 2011-10-24 2016-07-14 帝人ファーマ株式会社 経頭蓋磁気刺激システム
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
CN106736816A (zh) * 2016-11-28 2017-05-31 山东汇川汽车部件有限公司 双卡爪桁架机械手上料控制方法
JP2018202559A (ja) * 2017-06-06 2018-12-27 ファナック株式会社 教示位置修正装置および教示位置修正方法
US10286222B2 (en) 2009-06-15 2019-05-14 Osaka University Magnetic stimulator

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5113623B2 (ja) * 2008-05-20 2013-01-09 ファナック株式会社 計測装置を用いてロボットの位置教示を行うロボット制御装置
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
DE102011005513A1 (de) * 2011-03-14 2012-09-20 Kuka Laboratories Gmbh Roboter und Verfahren zum Betreiben eines Roboters
TWI700166B (zh) * 2017-09-20 2020-08-01 達明機器人股份有限公司 機器手臂的教導系統及方法
CN110170995B (zh) * 2019-05-09 2022-09-23 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6295606A (ja) * 1985-10-22 1987-05-02 Toshiba Corp 三次元位置設定装置
JPH0716900B2 (ja) * 1986-10-23 1995-03-01 株式会社日立製作所 ロボットへの動作自動教示方法
JPS6446804A (en) * 1987-08-18 1989-02-21 Shin Meiwa Ind Co Ltd Teaching method for automatic machine tool
JPH0588741A (ja) * 1991-09-26 1993-04-09 Shin Meiwa Ind Co Ltd 産業ロボツト用テイーチング装置及びその位置調整方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1471402A3 (en) * 2003-03-17 2005-09-07 Fanuc Ltd Teaching position correcting apparatus
EP1471402A2 (en) * 2003-03-17 2004-10-27 Fanuc Ltd Teaching position correcting apparatus
CN100375939C (zh) * 2003-05-29 2008-03-19 发那科株式会社 自动机械系统
US7424341B2 (en) 2003-05-29 2008-09-09 Fanuc Ltd Robot system
EP1555508A1 (en) * 2004-01-16 2005-07-20 Fanuc Ltd Measuring system
US7532949B2 (en) 2004-01-16 2009-05-12 Fanuc Ltd Measuring system
JP2006346790A (ja) * 2005-06-15 2006-12-28 Toyota Motor Corp ロボットと干渉判別方法と干渉判別装置
JP2010064200A (ja) * 2008-09-11 2010-03-25 Cognex Corp 制御システム、制御方法およびプログラム
US10286222B2 (en) 2009-06-15 2019-05-14 Osaka University Magnetic stimulator
US9682249B2 (en) 2011-10-24 2017-06-20 Teijin Pharma Limited Transcranial magnetic stimulation system
JP2016128001A (ja) * 2011-10-24 2016-07-14 帝人ファーマ株式会社 経頭蓋磁気刺激システム
US10004915B2 (en) 2011-10-24 2018-06-26 Teijin Pharma Limited Transcranial magnetic stimulation system
US9517563B2 (en) 2014-02-13 2016-12-13 Fanuc Corporation Robot system using visual feedback
DE102015001527B4 (de) 2014-02-13 2019-02-28 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
DE102015001527A1 (de) 2014-02-13 2015-08-13 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
US10189161B2 (en) 2015-10-21 2019-01-29 Fanuc Corporation Calibration system and calibration method calibrating mechanical parameters of wrist part of robot
CN106736816A (zh) * 2016-11-28 2017-05-31 山东汇川汽车部件有限公司 双卡爪桁架机械手上料控制方法
JP2018202559A (ja) * 2017-06-06 2018-12-27 ファナック株式会社 教示位置修正装置および教示位置修正方法
US10618166B2 (en) 2017-06-06 2020-04-14 Fanuc Corporation Teaching position correction device and teaching position correction method
DE102018112820B4 (de) 2017-06-06 2022-02-03 Fanuc Corporation Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren

Also Published As

Publication number Publication date
JP2925072B2 (ja) 1999-07-26
WO1998006015A1 (fr) 1998-02-12

Similar Documents

Publication Publication Date Title
JP2925072B2 (ja) ロボットの位置教示のための移動制御方式
US10905508B2 (en) Remote control robot system
US11045954B2 (en) Robot system and method of controlling the same
EP1462224B1 (en) Taught position modification device
US20170190052A1 (en) Method and system for programming a robot
EP1481772A2 (en) Robot system for controlling the movements of a robot utilizing a visual sensor
JP5292998B2 (ja) ロボット装置の制御方法及びロボット装置
EP0549805A1 (en) Automatic calibration method
JP2000024968A (ja) ロボット制御装置
KR20180069031A (ko) 로봇의 다이렉트 교시방법
JP3998741B2 (ja) ロボットの移動制御方法
EP4005745A1 (en) Autonomous robot tooling system, control system, control method, and storage medium
CN109414820B (zh) 机器人的运转方法、储存部、及机器人系统
JPH05261682A (ja) 産業用ロボットのキャリブレーション方式
CN114227681A (zh) 一种基于红外扫描跟踪的机器人离线虚拟示教编程的方法
JPH10124130A (ja) 組立装置
US11878423B2 (en) Robot system
US20180354124A1 (en) Robot teaching device that sets teaching point based on motion image of workpiece
JPH07210222A (ja) 位置決め制御装置
JPH11191005A (ja) ロボット制御装置
JPH0699377A (ja) ロボット軌道を教示するための方法
JPH1190868A (ja) ロボット制御装置
JPH07117403B2 (ja) ロボットの視覚座標校正方法およびシステム
US11964391B2 (en) Robot system
EP0414919A1 (en) Robot capable of forming operating path pattern

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990323

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080507

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100507

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110507

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees