JPH09131681A - 教示装置 - Google Patents

教示装置

Info

Publication number
JPH09131681A
JPH09131681A JP29286695A JP29286695A JPH09131681A JP H09131681 A JPH09131681 A JP H09131681A JP 29286695 A JP29286695 A JP 29286695A JP 29286695 A JP29286695 A JP 29286695A JP H09131681 A JPH09131681 A JP H09131681A
Authority
JP
Japan
Prior art keywords
teaching
sensor
manipulator
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29286695A
Other languages
English (en)
Other versions
JP3409105B2 (ja
Inventor
Yoshimasa Yanagihara
義正 柳原
Takao Kakizaki
隆夫 柿崎
Kenichi Arakawa
賢一 荒川
Hikari Umeno
光 梅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP29286695A priority Critical patent/JP3409105B2/ja
Publication of JPH09131681A publication Critical patent/JPH09131681A/ja
Application granted granted Critical
Publication of JP3409105B2 publication Critical patent/JP3409105B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 従来のセンサ情報を用いた例は、その機能は
不十分であり、3次元ワーク上での追従作業のように経
路が複雑になると、センシング条件を完全に満足させた
教示作業を実行させることが困難である。 【解決手段】 本発明は、効果器及びセンサの位置・姿
勢を決定するためにマニピュレータに付設されているセ
ンサの情報をフィードバックするセンサデータ転送手段
10と、フィードバックされた情報を2次元及び3次元
のグラフィックス指示、音声指示にマルチモーダル変換
する変換手段20と、変換された情報をオペレータに提
示するオペレータ提示手段30を有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、教示装置に係り、
特に、マニピュレータに保持された効果器を被作業対象
物上の所定の経路に沿って動作させるために必要な教示
データを映像、音声等のマルチモーダルなインタフェー
スの支援により容易に作成するための教示装置に関す
る。
【0002】
【従来の技術】従来のロボットの教示技術としては、例
えば、“ロボット工学ハンドブック(コロナ社、199
0、pp552−529)”に開示されているように、
ロボットの動作方向等に対応した押しボタン類を備えた
教示ボックスによるリモートティーチ法が多く使用され
ている。
【0003】図11は、従来の教示ボックスによるリモ
ートティーチ法を説明するための図である。同図に示す
システムは、多関節型マニピュレータ1、マニピュレー
タ1の手先に付けられた効果器2、作業ワーク3、加工
経路4、マニピュレータ1の制御部5、教示ボックス6
より構成される。
【0004】このシステムにおいて、教示データを作成
する場合について説明する。オペレータは、教示ボック
ス6を用いて効果器2を作業対象ワーク3の加工経路4
の先端、あるいはワーク3から一定距離離した位置に位
置付け、その時のマニピュレータ1の先端の位置・姿勢
座標を入力し、これを教示データとしてコントローラ5
に転送する。この処理を加工経路4に沿って所望の回数
だけマニピュレータ1を動作させ、全教示データを取得
する。
【0005】また、このようなシステムは、作業におい
て、経路が複雑になれば教示ポイントも増え、教示時間
が増加し、コストの増大の要因となると共に、オペレー
タにかかる負荷も増大する等の問題があるため、センサ
情報を利用した教示法が行われている。例えば、特開昭
63−15306にあるように、効果器に手動でねじを
調節して高さ方向の位置を替えられるレーザレンジセン
サを付与し、教示時には効果器の姿勢だけを正確に教え
る。高さ方向は作業時にセンサデータをフィードバック
させるという教示方法を提案している。この方法は、効
果器姿勢だけを教示時に注意して教えればよいため、教
える自由度が減少し、オペレータの負荷の軽減には役立
つ。
【0006】また、他の例として、特開平5−1081
31のようにテレビカメラを用いて予めワークに付けた
マークを認識し、経路を識別して教示データを計算機上
で自動生成する方式もある。
【0007】
【発明が解決しようとする課題】上記図11に示すよう
な従来の教示システムは、作業において、経路が複雑に
なれば教示ポイントも増え、教示時間が増加し、コスト
の増大の要因となる。また、オペレータにかかる負荷も
増大する等の問題がある。
【0008】さらに、特開昭63−15306のような
システムでは、経路が複雑になった場合、センシング条
件が満足されているかを確認する手段がないため、作業
時にはセンシングそのものがうまくいかない場合が生じ
る。また、特開平5−108131のようなシステム
は、奥行き方向は拘束されているため、平面データのみ
の取扱いしかできないという問題がある。
【0009】このように、教示ボックスを使った教示デ
ータの作成には多大な時間と労力がかかり、作業コスト
を大きく増大させてしまうという大きな欠点がある。ま
た、センサ情報を一部取り入れ、教示作業の負荷軽減を
狙った例はあるが、その機能は不十分であり、3次元ワ
ーク上での追従作業のように経路が複雑になると、セン
シング条件を完全に満足させた教示作業を実行させるこ
とが困難である。
【0010】マニピュレータによる作業では、対象物
(ワーク)の所定の経路表面に沿って効果器を追従させ
ることにより、所定の作業を達成する。このような作業
のための装置では、近年作業の効率化を図るためにセン
サを導入したシステムの利用が増加している。従来は、
多くの場合、教示再生型のマニピュレータが用いられて
いるが、このような従来の装置に比べて、センサを導入
したシステムでは、作業実行時の環境不確実性、例え
ば、ワークの固体差により教示データとのずれ等をオン
ラインで対処できるというメリットはあるが、作業時
に、上記の環境不確実性に対処できるようにさせるため
には、教示時に使用するセンサの動作条件を満足させる
ような教示作業を実行しなければならない。一般に、セ
ンサは効果器に対して位置姿勢が拘束されている。この
ため、センサの動作条件のなかでも特に考慮しなければ
ならない点は、教示位置においてセンサの検出範囲を満
足するように効果器の位置姿勢を決めなければならない
ことである。つまり、センサを導入したことにより、セ
ンシング可能なセンサ姿勢を予め決められている効果器
の位置姿勢を満足させながら教示位置において決定しな
ければならないという問題が新たに発生する。
【0011】本発明は、上記の点に鑑みなされたもの
で、効果器にセンサを付けて作業を実行する場合に、使
用センサの仕様に応じたセンサの姿勢の保証、センサ及
び効果器の姿勢を同時に最適にすることが可能な教示装
置を提供することを目的とする。
【0012】
【課題を解決するための手段】図1は、本発明の原理構
成図である。本発明は、マニピュレータと該マニピュレ
ータのコントローラ、該マニピュレータに保持された効
果器、該効果器近傍に保持されたセンサ、該センサから
得られる情報をモニタするモニタ手段より構成され、該
マニピュレータを被作業対象物上を所定の経路に沿って
動作するように教示データを作成する教示装置であっ
て、効果器及びセンサの位置・姿勢を決定するためにマ
ニピュレータに付設されているセンサの情報をフィード
バックするセンサデータ転送手段10と、フィードバッ
クされた情報を2次元及び3次元のグラフィックス指
示、音声指示にマルチモーダル変換する変換手段20
と、変換された情報をオペレータに提示するオペレータ
提示手段30を有する。
【0013】本発明は、効果器とセンサを含むマニピュ
レータ及び被作業対象のグラフィクスモデルを生成する
グラフィクスモデル生成手段21と、グラフィクスモデ
ル生成手段の実映像を獲得する実映像獲得手段22と、
マニピュレータの手先位置・姿勢座標を検出する検出手
段23と、オペレータの3次元位置・姿勢を検出する位
置・姿勢検出手段24と、効果器とセンサを含むマニピ
ュレータ及び被作業対象のグラフィクスモデルをモニタ
表示するモニタ表示手段31と、手先位置・姿勢座標と
オペレータ3次元位置・姿勢座標から効果器に対するビ
ューイング変換するビューイング変換手段25と、セン
サデータから演算される特徴点データの位置に従ってマ
ニピュレータを動作させる方向をグラフィクスモデルを
用いて表示する方向表示手段32を有する。
【0014】また、上記の方向表示手段32は、シース
ルー型ディスプレイモニタ上に、グラフィクスモデル及
びその実映像を単独あるいはオーバレイして表示する手
段と、ディスプレイモニタにオーバレイした3次元グラ
フィクスモデルを動作させマニピュレータの移動方向を
指示する手段とを含む。
【0015】また、本発明は、教示作業に必要な指示を
音声あるいは音響としてオペレータに提示する手段と、
マニピュレータの手先のセンサのセンサデータから演算
される特徴点データに基づいて指示音声あるは音響を選
択する手段を更に有する。また、本発明は、音声等をヘ
ッドホーンを用いてオペレータに提示する手段と、効果
器またはセンサ近傍に設置したスピーカにより提示する
手段を含む。
【0016】また、本発明は、音声によりモニタ画面上
のウィンドウを制御する手段と、音声によりウィンドウ
内に表示されている図面を拡大/縮小する手段と、音声
により教示指示のために音声の出力を制御する手段を含
む。また、本発明は、マニピュレータ付近に取り付けら
れた一連の光源群を駆動する手段と、センサデータから
演算される特徴点データの位置に基づいて光源群駆動パ
ターンを決定する手段と、駆動パターンに基づいてLE
Dにマニピュレータ移動方向を表示させる手段を更に有
する。
【0017】また、本発明の、光源群は、LEDであ
り、効果器、センサまたは、それらの近傍に取り付けら
れる。また、本発明は、マニピュレータの効果器に取付
けられたCCDカメラにより作業ワークの局所的情報を
モニタリングする手段と、マニピュレータの効果器に取
付けられた複数の近傍のセンサにより作業ワークと干渉
チェックする手段を更に有する。
【0018】また、本発明は、センサデータのモニタ情
報に基づいて、効果器及びセンサの3次元モデルによる
グラフィクス指示、音声による指示、光源群による指示
をマルチモーダルに出力する手段を含む。また、本発明
は、効果器及びセンサの3次元モデルによるグラフィク
ス指示、音声による指示、光源群による指示を同時出
力、選択的出力または、グルーピング出力する。
【0019】また、本発明は、与えられた作業仕様及び
該作業仕様の許容値を入力する手段と、マニピュレータ
の動作範囲に代表される作業システムの制約条件を入力
する手段と、マニピュレータに装着された各種センサ情
報を入力する手段と、作業仕様、制約条件、センサ情報
を統合する手段と、統合された情報をマルチモーダルイ
ンタフェースを介してオペレータに提示する手段を有す
る。
【0020】このように、本発明は、センサ情報から得
られる効果器位置・姿勢情報から作業仕様を満足するた
めに必要な教示位置・姿勢にロボットを位置付けするた
めの支援手段として、多種類のメディアを利用してオペ
レータに提示するものであり、画面に2次元及び3次元
のグラフィックインタフェースによりロボットを動作さ
せる方向を指示すると共に、音声によってもロボットを
移動させる方向をオペレータに知らせる。
【0021】また、ディスプレイ上に表示する場合に、
センサデータとオペレータに指示するためのデータをオ
ーバーレイして表示することにより、適切な作業が可能
となる。また、表示手段に表示される2次元、3次元の
グラフィックインタフェースにより作業仕様とセンサ視
野を対応付けて教示作業を行うことが可能である。
【0022】また、ディスプレイに表示するのみなら
ず、音声や音響を用いることにより、視覚のみならず、
聴覚による支援も可能である。さらに、表示するのはデ
ィスプレイのみならず、LEDによる提示等も可能であ
る。
【0023】従って、オペレータは、これらの情報に従
ってロボットを動かすことにより、教示データを容易に
作成することができる。
【0024】
【発明の実施の形態】以下に、本発明の実施の形態とし
て、第1〜第6の教示装置ついて説明する。 [第1の教示装置]図2は、本発明の第1の教示装置の
構成を示す。同図に示す教示装置は、多関節マニピュレ
ータ101、手先効果器102、手先効果器102に搭
載したレンジセンサ103、マニピュレータ101に接
続されるコントーラ200、教示ボックス201、教示
部300より構成される。
【0025】コントーラ200は、教示ボックス201
から入力された教示データを記憶する教示データ記憶部
204、教示データ記憶部204より教示データを読み
出してマニピュレータ101の位置・姿勢を演算する位
置姿勢演算部203により求められた位置・姿勢に基づ
いてマニピュレータ101の動作経路を生成する経路生
成部202より構成される。
【0026】教示部300は、モデル生成部351、レ
ンジセンサ103から転送されたデータを処理するセン
シングデータ処理部310、マニピレータの位置や姿勢
情報を記憶するロボット手先位置姿勢記憶部321、モ
デル生成部351、オペレータの位置・姿勢情報よりオ
ペレータの位置を検出するオペレータ位置姿勢記憶部3
31、モデル動作制御部352及びモデル姿勢変換部3
53より構成される。また、教示部300には、オペレ
ータ位置検出部400と表示部500が接続されてい
る。
【0027】センシングデータ処理部310は、前処理
部311、特徴点検出部312及びデータ記憶部313
を有し、マニピュレータ101から転送されたセンシン
グデータのノイズ除去、経路105の断面データ取得、
及び特徴点の検出を行う。また、ロボット手先位置姿勢
記憶部321、オペレータ位置姿勢記憶部331及びオ
ペレータ位置検出部400は、ロボット(マニピュレー
タ)やオペレータの位置姿勢を検出し、モデル生成部3
51、モデル姿勢変換部353及びモデル動作制御部3
52は、手先効果器102とレンジセンサ103の3次
元モデルを生成・変換・制御する。
【0028】なお、同図において、説明のためのマニピ
ュレータ101は、作業対象ワーク104において作業
経路105に沿って作業を行うものとする。図3は、本
発明の第1の教示装置の動作を示すフローチャートであ
る。 ステップ101) オペレータは、作業対象ワーク10
4の作業経路105に対して教示ボックス201を用い
て、マニピュレータ101を作業経路105上の所望の
教示位置付近に位置付ける。
【0029】ステップ102) センシングデータ処理
部310では、ノイズ除去処理、経路断面データ、特徴
点位置を求める。 ステップ103) オペレータ位置検出部400は、ロ
ボットワールド座標系におけるオペレータの3次元位置
・姿勢を検出する。
【0030】ステップ104) 次に、モデル姿勢変換
部353において、コントローラ200からのロボット
の手先位置・姿勢データとオペレータ位置姿勢検出部3
31からのデータを、オペレータから見た効果器102
とレンジセンサ103の3次元モデルにビューイング変
換する。
【0031】ステップ105) モデル動作制御部35
23は、3次元モデルにビューイング変換されたデータ
を表示できる形式にする。 ステップ106) モデル動作制御部352においてオ
ペレータに教示ボックス201の操作指示を表示部50
0に表示することにより、提示する。
【0032】ステップ107) これにより、オペレー
タは操作指示に従って教示位置にマニピュレータ101
を位置付けする。 上記のような教示装置により教示ボックス201で教示
データを作成する際に、レンジセンサ103からのセン
シングデータに基づいてマニピュレータ101を移動さ
せる方向を多種類のメディアを介してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する機能を実現する。
【0033】[第2の教示装置]図4は、本発明の第2
の教示装置の構成を示す。同図に示す第2の教示装置
は、第1の教示装置と教示部300の構成が異なる。第
2の教示装置の教示部300は、センシングデータ処理
部310と、ロボット手先位置姿勢記憶部321、オペ
レータ位置姿勢演算部331よりなる位置姿勢処理部3
20と、モデル姿勢変換部353、モデル動作制御部3
52、第1のモデル生成部354、及び第2のモデル生
成部355よりなるモデル処理部350から構成され
る。また、この教示部300には、モデル合成部(表示
部)510が接続される。このモデル合成部(表示部)
510は、シースルー型のディスプレイモニタを用いる
ものとする。
【0034】この第2の教示装置は、第1のモデル生成
部354と第2のモデル生成部355においてオペレー
タの位置姿勢からオペレータの右目、左目で見た3次元
のモデルを生成する。例えば、オペレータの右目のモデ
ルを第1のモデル生成部354で生成し、左目のモデル
を第2のモデル生成部355で生成する。これにより、
グラフィックモデル及びその実映像を単独またはオーバ
ーレイして表示する。そして、モデル動作制御部352
により表示部510にオーバーレイした3次元モデルを
動作させ、マニピュレータ101の移動方向の指示を行
う。これにより、オペレータは、当該指示に従って、教
示ボックス201を用いて教示作業を行う。
【0035】[第3の教示装置]図5は、本発明の第3
の教示装置の構成を示す。同図に示す第3の教示装置
は、前述の第1、第2の教示装置と教示部の構成が異な
る。第3の教示装置の教示部300は、センシングデー
タ処理部310と音声処理部360から構成される。
【0036】音声処理部360は、音声コマンド入力部
361、音声コマンド記憶部362、音声コマンド選択
部363、音声コマンド出力部364より構成される。
まず、音声教示時に、音声コマンドを音声コマンド入力
部361より入力し、音声コマンド記憶部362に記憶
する。特徴点検出部312から取得される特徴点データ
の位置に従って、音声コマンド選択部363において適
切な教示用指示コマンドが選択されて、音声コマンド出
力部364から出力される。
【0037】従って、センシングデータ処理部310の
特徴点検出部312で検出された特徴点データのセンサ
座標系での位置に従って音声出力される。 [第4の教示装置]図6は、本発明の第4の教示装置の
構成を示す。同図に示す第4の教示装置の教示部300
は、前処理部311、特徴点検出部312、特徴点記憶
部313よりなるセンシングデータ処理部310と、ロ
ボット手先位置姿勢記憶部321、オペレータ位置姿勢
演算部331よりなる位置姿勢処理部320と、モデル
生成部391、モデル動作制御部392よりなる3次元
モデル処理部390と、画面制御部381、選択部38
2、演算部383よりなる画面処理部380と、音声認
識部371、音声識別部372、第1の音声記憶部37
3、第2の音声記憶部374よりなる音声処理部370
と、表示部510、音声入力部375、及び音声出力部
376より構成される。
【0038】まず、教示用指示コマンドを第1の音声記
憶部373、画面制御用コマンド及び教示用指示コマン
ドを制御するコマンドを第2の音声記憶部374に音声
入力部375より登録しておき、マニピュレータ101
を教示位置付近に近づけた時、表示部510に方向指示
が表示される。さらに、上記の第3の教示装置の教示用
指示コマンドを音声コマンド出力部364から出力され
る。
【0039】[第5の教示装置]図7は、本発明の第5
の教示装置の構成を示す。同図に示す第5の教示装置の
教示部300は、センシングデータ処理部310と、矢
印パターン選択部710、LED駆動部720からなる
LED処理部700及びLED表示部800より構成さ
れる。センシングデータ処理部310において、特徴点
データが演算され、マニピュレータを動かす方向が決定
され、その方向に従ってLED処理部700においてL
ED表示部800に矢印パターンを表示する。
【0040】[第6の教示装置]図8は、本発明の第6
の教示装置の構成を示す。同図に示す第6の教示装置の
教示部300、前処理部311、特徴点検出部312及
びデータ記憶部313よりなるセンシングデータ処理部
310と、距離演算部910、距離判定部920よりな
る干渉チェック検出部900と、距離−音声/音響変換
部530と、音声/音響出力部540及びグラフィック
表示部510から構成される。
【0041】干渉チェック検出部900は、CCDカメ
ラ120により作業ワークの局所的情報をモニタリング
された結果を用いてワーク104と周囲物体の空間的距
離を計算する距離演算部910、距離判定部920で算
出された距離と所定の値を比較して周囲物体との距離が
所定値より小さくなった場合、即ち、他の物体に近づい
た時に、その旨を距離−音声/音響変換部530で音声
または音響に変換して、音声/音響出力部540に転送
する。音声/音響出力部540は、変換された音声また
は音響を出力する。表示部510は、干渉チェック検出
部900で得られた他物体との近接情報を表示する。
【0042】つまり、オペレータに対して表示されるデ
ータは、センサデータにCCDカメラ120により取得
した作業ワークの局所情報とがオーバーレイされて表示
されると共に、マニピュレータ101が近づきすぎた場
合に音声または、音響により警告が出力される。
【0043】
【実施例】以下、本発明の実施例を説明する。以下に、
マニピュレータ101の作業を溶接作業を例として作業
内容を説明する。
【0044】溶接作業では、ワーク104の作業経路1
05に沿って手先効果器102である溶接トーチを近づ
け、経路に従って連続的に溶接を実行し、ワーク104
同士を貼り合わせる。教示システムでは、ロボットの動
作の経路を決定するために、教示ボックス201を用い
てオペレータが溶接線路上の点を入力していく。 以下
に説明する教示装置では、教示ボックス201で教示デ
ータを作成する際に、レンジセンサ103からのセンシ
ングデータに基づいて、マニピュレータ101を移動さ
せる方向を多種類のメディアを通してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する。
【0045】[第1の実施例]本実施例は、図2に基づ
いて説明する。まず、オペレータは、作業対象ワーク1
04の作業経路105に対して教示ボックス201を用
いて、マニピュレータ101を作業経路105上の望ん
だ教示位置付近に位置付ける。この際、予め決められた
作業仕様とセンサ視野範囲を確保するという拘束条件を
満足するように、効果器102の位置・姿勢を決めるた
めに、教示部300では、以下に示す方法でマルチモー
ダルな情報をオペレータに提示する。
【0046】(1) まず、効果器102の先端を教示
位置付近に位置づけた時のレンジセンサ103のセンシ
ングデータ(この場合、作業経路105の断面データ)
は教示部300のセンサ処理部310の前処理部311
によってフィルタリング処理等によりノイズ除去が行わ
れる。
【0047】(2) 次に、作業経路105の断面デー
タからエッジに相当する位置(特徴点位置)を特徴点検
出部312により検出する。この経路断面データと特徴
点位置はセンサ座標系で求められる。これらのデータを
データ記憶部313に記憶する。
【0048】(3) 次に、予めマニピュレータ101
の手先効果器102とレンジセンサ103の3次元モデ
ルをモデル作成部351において作成する。作成された
3次元モデルはモデル姿勢変換部353によりビューイ
ングデータに変換されて、モデル動作制御部352に送
られる。
【0049】(4) モデル動作制御部352は、上記
の教示位置付近での経路の断面データと3次元モデルを
表示部500上の各ウィンドウに表示する。 (5) 一方、オペレータ位置・姿勢検出部400にお
いて、ロボットワールド座標系におけるオペレータの3
次元位置・姿勢を検出し、オペレータ位置・姿勢記憶部
331に転送する。この位置・姿勢データはリアルタイ
ムで取得されるものとする。また、この処理と並行して
コントローラ200からロボットの手先位置・姿勢デー
タが送られ、ロボット手先位置姿勢記憶部321に格納
される。これらの2種類の位置・姿勢データは同期、非
同期のどちらでも構わない。
【0050】(6) モデル姿勢変換部353は、ロボ
ット手先位置姿勢記憶部321とオペレータ位置姿勢記
憶部331の2つの位置・姿勢データよりオペレータか
らみた効果器102とレンジセンサ103の3次元モデ
ルにビューイング変換し、表示部500に表示する。
【0051】これにより表示部500に表示された効果
器102とレンジセンサ103の3次元モデルと、オペ
レータが実際に見ている効果器102とレンジセンサ1
03の実体が一致するため、操作性のすぐれたグラフィ
ックユーザインタフェース環境を提供することができ
る。
【0052】(7) 次に、モデル動作制御部352に
おいて、オペレータにグラフィックユーザインタフェー
スを用いて、教示ボックス201の操作の指示を提示す
る。つまり、このモニタ画面の3次元モデルに表示され
る指示と断面データウィンドウの表示結果により、オペ
レータは、作業仕様及びセンサ視野を満足させた教示位
置にマニピュレータ101を位置付けることができる。
【0053】図9は、本発明の第1の実施例において表
示部に表示されるモニタ画面の例を示す。同図を用いて
教示データ作成手順を説明する。同図においてウィンド
ウ28は、レンジセンサ103から得られるセンシング
データのウィンドウであり、ウィンドウ33〜35は、
効果器102とレンジセンサ103の3次元モデル表示
ウィンドウである。センシングデータのウィンドウ28
において、aは作業経路の断面データ、bはセンサ座標
系での特徴点座標30、cは使用レンジセンサ103の
仕様から決まるセンサ視野、dは、作業仕様から決まる
効果器姿勢許容範囲を表している。ここでは、一般に、
教示作業で困難とされている効果器102の姿勢を決定
するための情報提示について説明する。まず、マニピュ
レータ101を教示位置付近に位置付けたとき、特徴点
座標bがセンサ視野外にある場合、センサ視野内に特徴
点を入れる必要がある。この場合、特徴点位置に従っ
て、モデルウィンドウ33〜35にマニピュレータの姿
勢を変更する方向が矢印で表示される。この指示に従っ
て、オペレータは教示ボックス201を操作する。矢印
の方向を決定する方法は、例えば、特願平7−4317
に開示されている方法を適用するものとする。
【0054】ウィンドウ33では、x方向操作のための
z軸回りの姿勢変更を、ウィンドウ34はz方向操作の
ためのx軸回りの姿勢変更を、また、ウィンドウ35
は、ウィンドウ28のθを調整するための操作方向を示
している。なお、各軸回りの姿勢変更に伴って効果器1
02の姿勢許容範囲dも移動するため、オペレータは特
徴点がこの範囲内にも入るように姿勢を変更することに
より、センサ視野範囲と作業使用を同時に満足する教示
データを作成することができる。
【0055】姿勢方向を指示する方法は、上記の矢印以
外にも可能であり、例えば、モデル自身の揺動によりオ
ペレータに指示することも可能である。 [第2の実施例]次に本発明の第2の実施例を図4と共
に説明する。
【0056】本実施例の教示部300は、位置姿勢演算
部331、センシングデータ処理部310、モデル処理
部350とオペレータが頭部に装着するタイプの表示部
500より構成される。センシングデータ処理部31
0、位置姿勢演算部320のロボット手先位置姿勢記憶
部321とオペレータ位置姿勢演算部331及びモデル
姿勢変換部353、モデル動作制御部352については
前述の第1の実施例と同様である。
【0057】本実施例では、マニピュレータ101を教
示位置付近に移動させた時のレンジセンサ103から得
られる作業経路の断面データから演算される特徴点の位
置から前述の第1の実施例と同様の方法で、マニピュレ
ータを動かす方向を自動的に演算する。この際、ロボッ
トの手先位置姿勢とオペレータの位置姿勢からオペレー
タの右目及び左目で見た3次元のモデルを各々第1のモ
デル生成部354、第2のモデル生成部355とモデル
姿勢変換部353により作成し、表示部510に表示す
る。この効果器102とレンジセンサ103の実像に、
第1のモデル生成部354、第2のモデル生成部355
により生成された3次元のモデルを重ね合わせて表示す
ることが可能である。
【0058】次に、モデル動作制御部352によって特
徴点の位置から演算されたマニピュレータ101の動作
方向へ表示部510に表示されている3次元モデルを揺
動させ、オペレータにマニピュレータ動作方向を提示す
る。この指示に従って、オペレータは教示ボックス20
1を使って教示作業を実行する。
【0059】このような機能を実現することにより、オ
ペレータは従来の教示法と同様に表示部510を介して
マニピュレータ101の手先のみを見て教示すればよい
ため、作業仕様及びセンサ視野を考慮した教示作業が容
易になる。 [第3の実施例]次に、第3の実施例を図5と共に説明
する。
【0060】本実施例の教示部300は、センシングデ
ータ処理部310と音声処理部360から構成される。 (1) まず、教示時にオペレータにとって容易に理解
できる教示用指示コマンドを予め音声コマンド入力部3
61から入力し、音声コマンド記憶部362に登録して
おく。
【0061】(2) 次に、実際の教示作業時にレンジ
センサ103から入力される作業経路105の断面デー
タとデータ記憶部313を読み込んで得られる特徴点デ
ータのセンサ座標系での位置に従って、音声コマンド選
択部363により適切な教示用指示コマンドが選択さ
れ、音声コマンド出力部364から出力される。
【0062】図10は、本発明の第3の実施例の教示用
指示コマンドの登録の例を示す。同図に示すコマンド
は、音声記憶部362の音声コマンド登録テーブル47
に登録されている。例えば、レンジセンサ103が作業
経路105から離れている時に適切な距離に位置付ける
必要がある場合、音声コマンド選択部363は、音声記
憶部362の音声コマンド登録テーブル47から16番
目のコマンド『PITCH DOWN』を選択する。移動方向の決
定方法は、前述の第1の実施例と同様に、特徴点位置に
よって決定される。また、教示用指示コマンドの出力
は、特徴点がセンサ視野に入るまで音声出力部364か
ら出力される。
【0063】(3) 特徴点がセンサ視野に入ると、音
声コマンド選択部363は、音声登録テーブル47から
32番目の“OK”コマンドを選択し、音声コマンド出
力部364に送り、z方向の姿勢が所望の教示姿勢にな
ったことを知らせる。また、他の姿勢決定についても同
様な手順で行われる。
【0064】従って、本実施例によれば、教示操作時に
音声により適切なマニピュレータ101の移動指示をセ
ンサデータに基づいて、オペレータに対して与えること
が可能である。 [第4の実施例]次に、本発明の第4の実施例を図6と
共に説明する。
【0065】本実施例において、センシングデータ処理
部310、ビュー変換部320、3次元モデル処理部3
90で実行される処理は、第1の実施例と同様である。
本実施例では、これらの処理と同期して、音声による教
示指示が行われる。本実施例では、教示用の音声コマン
ドを格納するための第1の記憶部373と画面制御用コ
マンドを格納するための第2の記憶部374を設け、音
声入力部375から入力されたコマンドを認識し、教示
音声コマンドか制御コマンドかを識別し、それぞれの記
憶部に格納しておき、オペレータの操作に応じて、音声
による教示用指示または、画面による指示を提示するも
のである。
【0066】(1) 第2の実施例と同様に音声入力部
361より教示用指示コマンドを第1の音声コマンド記
憶部373に格納し、画面制御用コマンド及び教示用指
示コマンドを制御する制御コマンドを第2の音声記憶部
374に格納する。 (2) 次に、マニピュレータ101を教示位置付近に
近づけた時に、センシングデータと3次元モデルによる
方向指示が表示部510に表示される。
【0067】(3) これと並行して前述の第2の実施
例に従った教示用指示コマンドを出力するために、音声
入力部375より教示開始コマンドを音声入力する。こ
れらのコマンドは、音声認識部371で認識され、さら
に、音声識別部372で登録音声から識別され、対応す
る教示用指示コマンドが第1の音声記憶部373から選
択され、音声出力部376から出力される。
【0068】また、音声停止コマンド、結果確認コマン
ド等を用意しておくことにより、マニピュレータとのイ
ンタラクディブな教示作業が可能となる。このように、
オペレータは3次元モデルによる指示と教示用指示コマ
ンドを聞きながら教示作業を実行する。
【0069】(4) この際、さらに、第2の音声記憶
部374に記憶されている画面制御コマンドを音声入力
部361から入力することにより、教示作業中に表示部
500に表示させるセンサデータモニタと3次元モデル
ウィンドウの各種制御を行うことができる。
【0070】例えば、ウィンドウ選択コマンドを音声入
力部361から入力すると、画面選択部382により所
望の画面のみが表示部500に表示される。また、制御
コマンドである拡大/縮小コマンドを音声入力すると、
画面内の一部分がコマンドに応じて拡大/縮小され、教
示作業に必要な詳細情報のみを提示させることができ
る。
【0071】なお、音声コマンド指示と3次元モデルに
よるマニピュレータの移動方向指示は、並列に実行され
るため、オペレータは必要に応じてどちらか一方、ある
いは両方の指示を参考に教示作業を実行することもでき
る。 [第5の実施例]次に本実施例を図7と共に説明する。
【0072】本実施例は、マニピュレータ101付近に
LEDを駆動するためのLED駆動部720にマニピュ
レータ101の移動方向を表示させる例である。 (1) まず、レンジセンサからのセンシングデータを
センシングデータ処理部310で特徴点データが求めら
れ、特徴点の位置に従ってマニピュレータ101を動か
す方向が決定される。
【0073】(2) 決定された方向に従って、LED
処理部700でLED表示部800に表示するための矢
印パターンを矢印パターン選択部710を用いて選択す
る。 (3) 選択されたパターンは、LED駆動部720に
よりLED表示部800に矢印パターンを表示する。表
示する矢印パターンとしては、所望の座標系での並進3
自由度、回転3自由度の6自由度に対して2パターンず
つ計12パターンと、“OK”パターン合わせて13パ
ターンを表示する。
【0074】このようにすることにより、オペレータ
は、実際の効果器102とレンジセンサ103と作業経
路105の位置関係を実際に見ながら教示ボックス20
1を操作して教示データを入力できるため、教示作業が
容易となる。 [第6の実施例]次に、本実施例を図8と共に説明す
る。
【0075】本実施例は、マニピュレータ101の効果
器102に取り付けられたCCDカメラ120により作
業ワーク104のモニタリングされた局所的情報をセン
サデータにオーバーレイして表示するものである。 (1) レンジセンサ103からセンシングデータとセ
ンシングデータ処理部310から特徴点データを求め、
マニピュレータ101を動かす方向を決定する。
【0076】(2) (1)と同時に、レンジセンサ1
03に付けられたCCDカメラ120から被作業対象物
の大局的な2次元映像を取得し、表示部510にセンサ
データとオーバーレイさせて表示する。 (3) 次に、教示データを作成するためにマニピュレ
ータ101動作中に、レンジセンサ103に取付けられ
た近接センサ130より実時間で被作業対象物の周囲物
体との空間的距離が検出され、周囲物体との干渉チェッ
クを実行する。これは、近接センサ130からの信号を
距離演算部910で距離値に変換し、距離判定部920
において、予め設定されている閾値と比較し、閾値以下
になった場合に、その旨を距離−音声/音響変換部53
0において音声または音響に変換して、音声/音響出力
部540に出力する。
【0077】(4) これにより、音声/音響出力部5
40は、音声あるいは音響を出力してオペレータに知ら
せる。 (5) また、同時に、この出力を表示部510により
グラフィックス情報としてオペレータに提示する。
【0078】オペレータは、上記の被作業対象物の2次
元映像による大局的な情報、音声/音響情報及びグラフ
ィック情報による干渉チェック情報を実時間で提示させ
ることにより、教示作業を安全に進めることが可能とな
る。なお、干渉チェック用の近接センサとしては、例え
ば、超音波センサ、レーザポイントセンサが使用でき
る。また、センサを複数個使用することにより、より精
密な干渉チェックが可能となる。
【0079】なお、本発明は、上記の各実施例に限定さ
れることなく、特許請求の範囲内において、種々変更・
応用が可能である。
【0080】
【発明の効果】上述のように、本発明の教示装置は以下
のような効果を奏する。効果器にセンサを付けて作業実
行するような装置において、本発明の教示装置のような
マルチモーダルなインタフェースを用いることにより、
作業仕様及びその許容値、システム制約条件、センサ情
報の有効利用を図った教示、即ち仕様センサの仕様に応
じたセンサの姿勢保証、センサ及び効果器の姿勢を同時
に最適にする教示データの作成を容易に行うことが可能
である。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の第1の教示装置の構成図である。
【図3】本発明の第1の教示装置の動作を示すフローチ
ャートである。
【図4】本発明の第2の教示装置の構成図である。
【図5】本発明の第3の教示装置の構成図である。
【図6】本発明の第4の教示装置の構成図である。
【図7】本発明の第5の教示装置の構成図である。
【図8】本発明の第6の教示装置の構成図である。
【図9】本発明の第1の実施例において表示部に表示さ
れるモニタ画面の例を示す図である。
【図10】本発明の第3の実施例の教示用指示コマンド
の登録の例を示す図である。
【図11】従来の教示ボックスによるリモートティーチ
法を説明するための図である。
【符号の説明】
10 センサデータ転送手段 20 変換手段 21 グラフィックモデル生成手段 22 実映像獲得手段 23 マニピュレータ位置姿勢検出手段 24 オペレータ位置・姿勢検出手段 25 ビューイング変換手段 30 オペレータ提示手段 31 モニタ表示手段 32 方向表示手段 28,33,34,35 ウィンドウ 47 音声コマンド登録テーブル 101 マニピュレータ 102 効果器 103 レンジセンサ 104 作業ワーク 105 作業経路 110 LED 200 コントーラ 201 教示ボックス 202 経路生成部 203 位置姿勢演算部 204 教示データ記憶部 300 教示部 310 センシングデータ処理部 311 前処理部 312 特徴点検出部 313 データ記憶部 320 ビュー変換部 321 ロボット手先位置姿勢記憶部 331 オペレータ位置姿勢記憶部 351 モデル生成部 352 モデル動作制御部 353 モデル姿勢変換部 354 第1のモデル生成部 355 第2のモデル生成部 361 音声コマンド入力部 362 音声コマンド記憶部 363 音声コマンド選択部 364 音声コマンド出力部 370 音声処理部 371 音声認識部 372 音声識別部 373 第1の音声記憶部 374 第2の音声記憶部 375 音声入力部 376 音声出力部 380 画面処理部 381 画面制御部 382 選択部 383 演算部 390 3次元モデル処理部 391 モデル生成部 392 モデル動作制御部 400 オペレータ位置検出部 500,510 表示部 530 距離−音声/音響変換部 540 音声/音響出力部 700 LED処理部 710 矢印パターン選択部 720 LED駆動部 800 LED表示部 900 干渉チェック部 910 距離演算部 920 距離判定部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 梅野 光 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 マニピュレータと該マニピュレータのコ
    ントローラ、該マニピュレータに保持された効果器、該
    効果器近傍に保持されたセンサ、該センサから得られる
    情報をモニタするモニタ手段より構成され、該マニピュ
    レータを被作業対象物上を所定の経路に沿って動作する
    ように教示データを作成する教示装置であって、 前記効果器及び前記センサの位置・姿勢を決定するため
    に前記マニピュレータに付設されている前記センサの情
    報をフィードバックするセンサデータ転送手段と、 フィードバックされた情報を2次元及び3次元のグラフ
    ィックス指示、音声指示にマルチモーダル変換する変換
    手段と、 変換された情報をオペレータに提示するオペレータ提示
    手段を有することを特徴とする教示装置。
  2. 【請求項2】 前記効果器と前記センサを含む前記マニ
    ピュレータ及び被作業対象のグラフィクスモデルを生成
    するグラフィクスモデル生成手段と、 前記グラフィクスモデル生成手段の実映像を獲得する実
    映像獲得手段と、 前記マニピュレータの手先位置・姿勢座標を検出するマ
    ニピュレータ位置・姿勢検出手段と、 オペレータの3次元位置・姿勢を検出するオペレータ位
    置・姿勢検出手段と、 前記効果器と前記センサを含む前記マニピュレータ及び
    前記被作業対象のグラフィクスモデルをモニタ表示する
    モニタ表示手段と、 手先位置・姿勢座標とオペレータ3次元位置・姿勢座標
    から前記効果器に対するビューイング変換するビューイ
    ング変換手段と、 センサデータから演算される特徴点データの位置に従っ
    て前記マニピュレータを動作させる方向を前記グラフィ
    クスモデルを用いて表示する方向表示手段を有する請求
    項1記載の教示装置。
  3. 【請求項3】 前記方向表示手段は、 シースルー型ディスプレイモニタ上に、前記グラフィク
    スモデル及びその実映像を単独あるいはオーバレイして
    表示する手段と、 前記ディスプレイモニタにオーバレイした前記3次元グ
    ラフィクスモデルを動作させ前記マニピュレータの移動
    方向を指示する手段とを含む請求項2記載の教示装置。
  4. 【請求項4】 教示作業に必要な指示を音声あるいは音
    響としてオペレータに提示する手段と、 前記マニピュレータの手先のセンサのセンサデータから
    演算される特徴点データに基づいて指示音声あるは音響
    を選択する手段を更に有する請求項2記載の教示装置。
  5. 【請求項5】 音声等をヘッドホーンを用いてオペレー
    タに提示する手段と、 前記効果器または前記センサ近傍に設置したスピーカに
    より提示する手段を含む請求項4記載の教示装置。
  6. 【請求項6】 音声によりモニタ画面上のウィンドウを
    制御する手段と、 音声によりウィンドウ内に表示されている図面を拡大/
    縮小する手段と、 音声により教示指示のために音声の出力を制御する手段
    を含む請求項4記載の教示装置。
  7. 【請求項7】 前記マニピュレータ付近に取り付けられ
    た一連の光源群を駆動する手段と、 前記センサデータから演算される特徴点データの位置に
    基づいて光源群駆動パターンを決定する手段と、 駆動パターンに基づいてLEDにマニピュレータ移動方
    向を表示させる手段を更に有する請求項2記載の教示装
    置。
  8. 【請求項8】 前記光源群は、LEDである請求項7記
    載の教示装置。
  9. 【請求項9】 前記光源群は、前記効果器、前記センサ
    または、それらの近傍に取り付けられる請求項7記載の
    教示装置。
  10. 【請求項10】 前記マニピュレータの前記効果器に取
    付けられたCCDカメラにより作業ワークの局所的情報
    をモニタリングする手段と、 前記マニピュレータの前記効果器に取付けられた複数の
    近傍のセンサにより作業ワークと干渉チェックする手段
    を更に有する請求項2記載の教示装置。
  11. 【請求項11】 センサデータのモニタ情報に基づい
    て、前記効果器及び前記センサの3次元モデルによるグ
    ラフィクス指示、音声による指示、光源群による指示を
    マルチモーダルに出力する手段を含む請求項2記載の教
    示装置。
  12. 【請求項12】 前記効果器及び前記センサの3次元モ
    デルによるグラフィクス指示、音声による指示、光源群
    による指示を同時出力、選択的出力または、グルーピン
    グ出力する請求項11記載の教示装置。
  13. 【請求項13】 与えられた作業仕様及び該作業仕様の
    許容値を入力する手段と、 前記マニピュレータの動作範囲に代表される作業システ
    ムの制約条件を入力する手段と、 前記マニピュレータに装着された各種センサ情報を入力
    する手段と、 前記作業仕様、前記制約条件、前記センサ情報を統合す
    る手段と、 統合された情報をマルチモーダルインタフェースを介し
    てオペレータに提示する手段を有する請求項2記載の教
    示装置。
JP29286695A 1995-11-10 1995-11-10 教示装置 Expired - Fee Related JP3409105B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29286695A JP3409105B2 (ja) 1995-11-10 1995-11-10 教示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29286695A JP3409105B2 (ja) 1995-11-10 1995-11-10 教示装置

Publications (2)

Publication Number Publication Date
JPH09131681A true JPH09131681A (ja) 1997-05-20
JP3409105B2 JP3409105B2 (ja) 2003-05-26

Family

ID=17787396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29286695A Expired - Fee Related JP3409105B2 (ja) 1995-11-10 1995-11-10 教示装置

Country Status (1)

Country Link
JP (1) JP3409105B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
JP2004180817A (ja) * 2002-12-02 2004-07-02 National Institute Of Advanced Industrial & Technology 生体信号を利用した作業支援マニピュレータシステム
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2010201582A (ja) * 2009-03-05 2010-09-16 Mitsubishi Heavy Ind Ltd 工作機械のワーク形状測定装置
JP5875740B1 (ja) * 2014-10-01 2016-03-02 三菱電機株式会社 数値制御装置
JP2018045727A (ja) * 2017-12-22 2018-03-22 株式会社牧野フライス製作所 工作機械の制御方法および工作機械の制御装置
JP2018529543A (ja) * 2015-10-08 2018-10-11 カスターニェンバウム ゲーエムベーハー ロボット・システム
KR102449765B1 (ko) * 2021-05-26 2022-09-29 한국로봇융합연구원 로봇 매니퓰레이터의 기구학적 정보를 구성하기 위한 장치 및 이를 위한 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11202928A (ja) * 1998-01-08 1999-07-30 Nippon Telegr & Teleph Corp <Ntt> 作業支援装置
JP2004180817A (ja) * 2002-12-02 2004-07-02 National Institute Of Advanced Industrial & Technology 生体信号を利用した作業支援マニピュレータシステム
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP4680516B2 (ja) * 2003-02-11 2011-05-11 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング ロボットの情報を現実環境の画像へとフェードインするための方法、およびロボットの情報を現実環境の画像に視覚化するための装置
JP2010201582A (ja) * 2009-03-05 2010-09-16 Mitsubishi Heavy Ind Ltd 工作機械のワーク形状測定装置
JP5875740B1 (ja) * 2014-10-01 2016-03-02 三菱電機株式会社 数値制御装置
US10203687B2 (en) 2014-10-01 2019-02-12 Mitsubishi Electric Corporation Numerical control device
JP2018529543A (ja) * 2015-10-08 2018-10-11 カスターニェンバウム ゲーエムベーハー ロボット・システム
JP2018045727A (ja) * 2017-12-22 2018-03-22 株式会社牧野フライス製作所 工作機械の制御方法および工作機械の制御装置
KR102449765B1 (ko) * 2021-05-26 2022-09-29 한국로봇융합연구원 로봇 매니퓰레이터의 기구학적 정보를 구성하기 위한 장치 및 이를 위한 방법

Also Published As

Publication number Publication date
JP3409105B2 (ja) 2003-05-26

Similar Documents

Publication Publication Date Title
US11504790B2 (en) Virtual reality controlled mobile robot
JP4167940B2 (ja) ロボットシステム
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP5022868B2 (ja) 情報処理装置、情報処理方法
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
Hillers et al. Augmented Reality—Helmet for the Manual Welding Process
JP2018167334A (ja) 教示装置および教示方法
KR102452924B1 (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
JP3409105B2 (ja) 教示装置
JPS62274404A (ja) ロボツトのオフライン教示システム
JP2003196681A (ja) 作業指図システム、作業指図方法及びそれを実現するためのプログラムを格納した記録媒体
JP3446050B2 (ja) 教示装置及び教示データ作成方法
JPH1177568A (ja) 教示支援方法及び装置
JPH1076489A (ja) ロボットアーム教示方法及び装置
Yanagihara et al. A multi-modal teaching-advisory system using complementary operator and sensor information
JPH02205494A (ja) マニピュレータ画像追従方法及び装置並びに該装置を備えたマニピュレータ装置
WO2020203819A1 (ja) 遠隔操作装置
JPS60126985A (ja) 遠隔操作における作業状況表示装置
WO2023162164A1 (ja) 教示支援装置、作業システム、教示支援方法および教示支援プログラム
JPH08276388A (ja) ロボット教示装置
JPH05245791A (ja) ロボットの制御方法
JPH1142580A (ja) ロボット教示方法及びロボット教示システム
JPH05228862A (ja) ロボット制御装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees