JP3409105B2 - 教示装置 - Google Patents
教示装置Info
- Publication number
- JP3409105B2 JP3409105B2 JP29286695A JP29286695A JP3409105B2 JP 3409105 B2 JP3409105 B2 JP 3409105B2 JP 29286695 A JP29286695 A JP 29286695A JP 29286695 A JP29286695 A JP 29286695A JP 3409105 B2 JP3409105 B2 JP 3409105B2
- Authority
- JP
- Japan
- Prior art keywords
- teaching
- manipulator
- sensor
- unit
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Description
【0001】
【発明の属する技術分野】本発明は、教示装置に係り、
特に、マニピュレータに保持された効果器を被作業対象
物上の所定の経路に沿って動作させるために必要な教示
データを映像、音声等のマルチモーダルなインタフェー
スの支援により容易に作成するための教示装置に関す
る。
特に、マニピュレータに保持された効果器を被作業対象
物上の所定の経路に沿って動作させるために必要な教示
データを映像、音声等のマルチモーダルなインタフェー
スの支援により容易に作成するための教示装置に関す
る。
【0002】
【従来の技術】従来のロボットの教示技術としては、例
えば、“ロボット工学ハンドブック(コロナ社、199
0、pp552−529)”に開示されているように、
ロボットの動作方向等に対応した押しボタン類を備えた
教示ボックスによるリモートティーチ法が多く使用され
ている。
えば、“ロボット工学ハンドブック(コロナ社、199
0、pp552−529)”に開示されているように、
ロボットの動作方向等に対応した押しボタン類を備えた
教示ボックスによるリモートティーチ法が多く使用され
ている。
【0003】図11は、従来の教示ボックスによるリモ
ートティーチ法を説明するための図である。同図に示す
システムは、多関節型マニピュレータ1、マニピュレー
タ1の手先に付けられた効果器2、作業ワーク3、加工
経路4、マニピュレータ1の制御部5、教示ボックス6
より構成される。
ートティーチ法を説明するための図である。同図に示す
システムは、多関節型マニピュレータ1、マニピュレー
タ1の手先に付けられた効果器2、作業ワーク3、加工
経路4、マニピュレータ1の制御部5、教示ボックス6
より構成される。
【0004】このシステムにおいて、教示データを作成
する場合について説明する。オペレータは、教示ボック
ス6を用いて効果器2を作業対象ワーク3の加工経路4
の先端、あるいはワーク3から一定距離離した位置に位
置付け、その時のマニピュレータ1の先端の位置・姿勢
座標を入力し、これを教示データとしてコントローラ5
に転送する。この処理を加工経路4に沿って所望の回数
だけマニピュレータ1を動作させ、全教示データを取得
する。
する場合について説明する。オペレータは、教示ボック
ス6を用いて効果器2を作業対象ワーク3の加工経路4
の先端、あるいはワーク3から一定距離離した位置に位
置付け、その時のマニピュレータ1の先端の位置・姿勢
座標を入力し、これを教示データとしてコントローラ5
に転送する。この処理を加工経路4に沿って所望の回数
だけマニピュレータ1を動作させ、全教示データを取得
する。
【0005】また、このようなシステムは、作業におい
て、経路が複雑になれば教示ポイントも増え、教示時間
が増加し、コストの増大の要因となると共に、オペレー
タにかかる負荷も増大する等の問題があるため、センサ
情報を利用した教示法が行われている。例えば、特開昭
63−15306にあるように、効果器に手動でねじを
調節して高さ方向の位置を替えられるレーザレンジセン
サを付与し、教示時には効果器の姿勢だけを正確に教え
る。高さ方向は作業時にセンサデータをフィードバック
させるという教示方法を提案している。この方法は、効
果器姿勢だけを教示時に注意して教えればよいため、教
える自由度が減少し、オペレータの負荷の軽減には役立
つ。
て、経路が複雑になれば教示ポイントも増え、教示時間
が増加し、コストの増大の要因となると共に、オペレー
タにかかる負荷も増大する等の問題があるため、センサ
情報を利用した教示法が行われている。例えば、特開昭
63−15306にあるように、効果器に手動でねじを
調節して高さ方向の位置を替えられるレーザレンジセン
サを付与し、教示時には効果器の姿勢だけを正確に教え
る。高さ方向は作業時にセンサデータをフィードバック
させるという教示方法を提案している。この方法は、効
果器姿勢だけを教示時に注意して教えればよいため、教
える自由度が減少し、オペレータの負荷の軽減には役立
つ。
【0006】また、他の例として、特開平5−1081
31のようにテレビカメラを用いて予めワークに付けた
マークを認識し、経路を識別して教示データを計算機上
で自動生成する方式もある。
31のようにテレビカメラを用いて予めワークに付けた
マークを認識し、経路を識別して教示データを計算機上
で自動生成する方式もある。
【0007】
【発明が解決しようとする課題】上記図11に示すよう
な従来の教示システムは、作業において、経路が複雑に
なれば教示ポイントも増え、教示時間が増加し、コスト
の増大の要因となる。また、オペレータにかかる負荷も
増大する等の問題がある。
な従来の教示システムは、作業において、経路が複雑に
なれば教示ポイントも増え、教示時間が増加し、コスト
の増大の要因となる。また、オペレータにかかる負荷も
増大する等の問題がある。
【0008】さらに、特開昭63−15306のような
システムでは、経路が複雑になった場合、センシング条
件が満足されているかを確認する手段がないため、作業
時にはセンシングそのものがうまくいかない場合が生じ
る。また、特開平5−108131のようなシステム
は、奥行き方向は拘束されているため、平面データのみ
の取扱いしかできないという問題がある。
システムでは、経路が複雑になった場合、センシング条
件が満足されているかを確認する手段がないため、作業
時にはセンシングそのものがうまくいかない場合が生じ
る。また、特開平5−108131のようなシステム
は、奥行き方向は拘束されているため、平面データのみ
の取扱いしかできないという問題がある。
【0009】このように、教示ボックスを使った教示デ
ータの作成には多大な時間と労力がかかり、作業コスト
を大きく増大させてしまうという大きな欠点がある。ま
た、センサ情報を一部取り入れ、教示作業の負荷軽減を
狙った例はあるが、その機能は不十分であり、3次元ワ
ーク上での追従作業のように経路が複雑になると、セン
シング条件を完全に満足させた教示作業を実行させるこ
とが困難である。
ータの作成には多大な時間と労力がかかり、作業コスト
を大きく増大させてしまうという大きな欠点がある。ま
た、センサ情報を一部取り入れ、教示作業の負荷軽減を
狙った例はあるが、その機能は不十分であり、3次元ワ
ーク上での追従作業のように経路が複雑になると、セン
シング条件を完全に満足させた教示作業を実行させるこ
とが困難である。
【0010】マニピュレータによる作業では、対象物
(ワーク)の所定の経路表面に沿って効果器を追従させ
ることにより、所定の作業を達成する。このような作業
のための装置では、近年作業の効率化を図るためにセン
サを導入したシステムの利用が増加している。従来は、
多くの場合、教示再生型のマニピュレータが用いられて
いるが、このような従来の装置に比べて、センサを導入
したシステムでは、作業実行時の環境不確実性、例え
ば、ワークの固体差により教示データとのずれ等をオン
ラインで対処できるというメリットはあるが、作業時
に、上記の環境不確実性に対処できるようにさせるため
には、教示時に使用するセンサの動作条件を満足させる
ような教示作業を実行しなければならない。一般に、セ
ンサは効果器に対して位置姿勢が拘束されている。この
ため、センサの動作条件のなかでも特に考慮しなければ
ならない点は、教示位置においてセンサの検出範囲を満
足するように効果器の位置姿勢を決めなければならない
ことである。つまり、センサを導入したことにより、セ
ンシング可能なセンサ姿勢を予め決められている効果器
の位置姿勢を満足させながら教示位置において決定しな
ければならないという問題が新たに発生する。
(ワーク)の所定の経路表面に沿って効果器を追従させ
ることにより、所定の作業を達成する。このような作業
のための装置では、近年作業の効率化を図るためにセン
サを導入したシステムの利用が増加している。従来は、
多くの場合、教示再生型のマニピュレータが用いられて
いるが、このような従来の装置に比べて、センサを導入
したシステムでは、作業実行時の環境不確実性、例え
ば、ワークの固体差により教示データとのずれ等をオン
ラインで対処できるというメリットはあるが、作業時
に、上記の環境不確実性に対処できるようにさせるため
には、教示時に使用するセンサの動作条件を満足させる
ような教示作業を実行しなければならない。一般に、セ
ンサは効果器に対して位置姿勢が拘束されている。この
ため、センサの動作条件のなかでも特に考慮しなければ
ならない点は、教示位置においてセンサの検出範囲を満
足するように効果器の位置姿勢を決めなければならない
ことである。つまり、センサを導入したことにより、セ
ンシング可能なセンサ姿勢を予め決められている効果器
の位置姿勢を満足させながら教示位置において決定しな
ければならないという問題が新たに発生する。
【0011】本発明は、上記の点に鑑みなされたもの
で、効果器にセンサを付けて作業を実行する場合に、使
用センサの仕様に応じたセンサの姿勢の保証、センサ及
び効果器の姿勢を同時に最適にすることが可能な教示装
置を提供することを目的とする。
で、効果器にセンサを付けて作業を実行する場合に、使
用センサの仕様に応じたセンサの姿勢の保証、センサ及
び効果器の姿勢を同時に最適にすることが可能な教示装
置を提供することを目的とする。
【0012】
【課題を解決するための手段】図1は、本発明の原理構
成図である。
成図である。
【0013】本発明は、マニピュレータと該マニピュレ
ータのコントローラ、該マニピュレータに保持された効
果器、該効果器近傍に保持されたセンサ、該センサから
得られる情報をモニタするモニタ手段より構成され、該
マニピュレータを被作業対象物上を所定の経路に沿って
動作するように教示データを作成する教示装置であっ
て、効果器とセンサを含むマニピュレータ及び被作業対
象のグラフィックスモデルを生成するグラフィックスモ
デル生成手段21と、グラフィックスモデル生成手段の
実映像を獲得する実映像獲得手段22と、マニピュレー
タの手先位置・姿勢座標を検出するマニピュレータ位置
・姿勢検出手段23と、オペレータの3次元位置・姿勢
を検出するオペレータ位置・姿勢検出手段24と、効果
器とセンサを含むマニピーレータ及び被作業対象のグラ
フィックスモデルをモニタ表示するモニタ表示手段31
と、手先位置・姿勢座標とオペレータ3次元位置・姿勢
座標より効果器の実像に対して重ね合わさるように効果
器の3次元モデルに変換するビューイング変換手段25
と、センサデータから演算される特徴点データの位置に
従ってマニピュレータを動作させる方向をグラフィック
スモデルを用いて表示する方向表示手段32と、を有す
る。
ータのコントローラ、該マニピュレータに保持された効
果器、該効果器近傍に保持されたセンサ、該センサから
得られる情報をモニタするモニタ手段より構成され、該
マニピュレータを被作業対象物上を所定の経路に沿って
動作するように教示データを作成する教示装置であっ
て、効果器とセンサを含むマニピュレータ及び被作業対
象のグラフィックスモデルを生成するグラフィックスモ
デル生成手段21と、グラフィックスモデル生成手段の
実映像を獲得する実映像獲得手段22と、マニピュレー
タの手先位置・姿勢座標を検出するマニピュレータ位置
・姿勢検出手段23と、オペレータの3次元位置・姿勢
を検出するオペレータ位置・姿勢検出手段24と、効果
器とセンサを含むマニピーレータ及び被作業対象のグラ
フィックスモデルをモニタ表示するモニタ表示手段31
と、手先位置・姿勢座標とオペレータ3次元位置・姿勢
座標より効果器の実像に対して重ね合わさるように効果
器の3次元モデルに変換するビューイング変換手段25
と、センサデータから演算される特徴点データの位置に
従ってマニピュレータを動作させる方向をグラフィック
スモデルを用いて表示する方向表示手段32と、を有す
る。
【0014】また、上記の方向表示手段32は、シース
ルー型ディスプレイモニタ上に、グラフィックスモデル
及びその実映像を単独あるいはオーバレイして表示する
手段と、ディスプレイモニタにオーバレイした3次元グ
ラフィックスモデルを動作させマニュピレータの移動方
向を指示する手段とを含む。
ルー型ディスプレイモニタ上に、グラフィックスモデル
及びその実映像を単独あるいはオーバレイして表示する
手段と、ディスプレイモニタにオーバレイした3次元グ
ラフィックスモデルを動作させマニュピレータの移動方
向を指示する手段とを含む。
【0015】また、本発明は、教示作業に必要な指示を
音声あるいは音響としてオペレータに提示する手段と、
マニピュレータの手先のセンサのセンサデータから演算
される特徴点データに基づいて指示音声あるは音響を選
択する手段を更に有する。また、本発明は、音声等をヘ
ッドホーンを用いてオペレータに提示する手段と、効果
器またはセンサ近傍に設置したスピーカにより提示する
手段を含む。
音声あるいは音響としてオペレータに提示する手段と、
マニピュレータの手先のセンサのセンサデータから演算
される特徴点データに基づいて指示音声あるは音響を選
択する手段を更に有する。また、本発明は、音声等をヘ
ッドホーンを用いてオペレータに提示する手段と、効果
器またはセンサ近傍に設置したスピーカにより提示する
手段を含む。
【0016】また、本発明は、音声によりモニタ画面上
のウィンドウを制御する手段と、音声によりウィンドウ
内に表示されている図面を拡大/縮小する手段と、音声
により教示指示のために音声の出力を制御する手段を含
む。また、本発明は、マニピュレータ付近に取り付けら
れた一連の光源群を駆動する手段と、センサデータから
演算される特徴点データの位置に基づいて光源群駆動パ
ターンを決定する手段と、駆動パターンに基づいてLE
Dにマニピュレータ移動方向を表示させる手段を更に有
する。
のウィンドウを制御する手段と、音声によりウィンドウ
内に表示されている図面を拡大/縮小する手段と、音声
により教示指示のために音声の出力を制御する手段を含
む。また、本発明は、マニピュレータ付近に取り付けら
れた一連の光源群を駆動する手段と、センサデータから
演算される特徴点データの位置に基づいて光源群駆動パ
ターンを決定する手段と、駆動パターンに基づいてLE
Dにマニピュレータ移動方向を表示させる手段を更に有
する。
【0017】また、本発明の、光源群は、LEDであ
り、効果器、センサまたは、それらの近傍に取り付けら
れる。また、本発明は、マニピュレータの効果器に取付
けられたCCDカメラにより作業ワークの局所的情報を
モニタリングする手段と、マニピュレータの効果器に取
付けられた複数の近傍のセンサにより作業ワークと干渉
チェックする手段を更に有する。
り、効果器、センサまたは、それらの近傍に取り付けら
れる。また、本発明は、マニピュレータの効果器に取付
けられたCCDカメラにより作業ワークの局所的情報を
モニタリングする手段と、マニピュレータの効果器に取
付けられた複数の近傍のセンサにより作業ワークと干渉
チェックする手段を更に有する。
【0018】また、本発明は、センサデータのモニタ情
報に基づいて、効果器及びセンサの3次元モデルによる
グラフィックス指示、音声による指示、光源群による指
示をマルチモーダルに出力する手段を含む。また、本発
明は、効果器及びセンサの3次元モデルによるグラフィ
ックス指示、音声による指示、光源群による指示を同時
出力、選択的出力または、グルーピング出力する。
報に基づいて、効果器及びセンサの3次元モデルによる
グラフィックス指示、音声による指示、光源群による指
示をマルチモーダルに出力する手段を含む。また、本発
明は、効果器及びセンサの3次元モデルによるグラフィ
ックス指示、音声による指示、光源群による指示を同時
出力、選択的出力または、グルーピング出力する。
【0019】また、本発明は、与えられた作業仕様及び
該作業仕様の許容値を入力する手段と、マニピュレータ
の動作範囲に代表される作業システムの制約条件を入力
する手段と、マニピュレータに装着された各種センサ情
報を入力する手段と、作業仕様、制約条件、センサ情報
を統合する手段と、統合された情報をマルチモーダルイ
ンタフェースを介してオペレータに提示する手段を有す
る。
該作業仕様の許容値を入力する手段と、マニピュレータ
の動作範囲に代表される作業システムの制約条件を入力
する手段と、マニピュレータに装着された各種センサ情
報を入力する手段と、作業仕様、制約条件、センサ情報
を統合する手段と、統合された情報をマルチモーダルイ
ンタフェースを介してオペレータに提示する手段を有す
る。
【0020】このように、本発明は、センサ情報から得
られる効果器位置・姿勢情報から作業仕様を満足するた
めに必要な教示位置・姿勢にロボットを位置付けするた
めの支援手段として、多種類のメディアを利用してオペ
レータに提示するものであり、画面に2次元及び3次元
のグラフィックインタフェースによりロボットを動作さ
せる方向を指示すると共に、音声によってもロボットを
移動させる方向をオペレータに知らせる。
られる効果器位置・姿勢情報から作業仕様を満足するた
めに必要な教示位置・姿勢にロボットを位置付けするた
めの支援手段として、多種類のメディアを利用してオペ
レータに提示するものであり、画面に2次元及び3次元
のグラフィックインタフェースによりロボットを動作さ
せる方向を指示すると共に、音声によってもロボットを
移動させる方向をオペレータに知らせる。
【0021】また、ディスプレイ上に表示する場合に、
センサデータとオペレータに指示するためのデータをオ
ーバーレイして表示することにより、適切な作業が可能
となる。また、表示手段に表示される2次元、3次元の
グラフィックインタフェースにより作業仕様とセンサ視
野を対応付けて教示作業を行うことが可能である。
センサデータとオペレータに指示するためのデータをオ
ーバーレイして表示することにより、適切な作業が可能
となる。また、表示手段に表示される2次元、3次元の
グラフィックインタフェースにより作業仕様とセンサ視
野を対応付けて教示作業を行うことが可能である。
【0022】また、ディスプレイに表示するのみなら
ず、音声や音響を用いることにより、視覚のみならず、
聴覚による支援も可能である。さらに、表示するのはデ
ィスプレイのみならず、LEDによる提示等も可能であ
る。
ず、音声や音響を用いることにより、視覚のみならず、
聴覚による支援も可能である。さらに、表示するのはデ
ィスプレイのみならず、LEDによる提示等も可能であ
る。
【0023】従って、オペレータは、これらの情報に従
ってロボットを動かすことにより、教示データを容易に
作成することができる。
ってロボットを動かすことにより、教示データを容易に
作成することができる。
【0024】
【発明の実施の形態】以下に、本発明の実施の形態とし
て、第1〜第6の教示装置ついて説明する。 [第1の教示装置]図2は、本発明の第1の教示装置の
構成を示す。同図に示す教示装置は、多関節マニピュレ
ータ101、手先効果器102、手先効果器102に搭
載したレンジセンサ103、マニピュレータ101に接
続されるコントーラ200、教示ボックス201、教示
部300より構成される。
て、第1〜第6の教示装置ついて説明する。 [第1の教示装置]図2は、本発明の第1の教示装置の
構成を示す。同図に示す教示装置は、多関節マニピュレ
ータ101、手先効果器102、手先効果器102に搭
載したレンジセンサ103、マニピュレータ101に接
続されるコントーラ200、教示ボックス201、教示
部300より構成される。
【0025】コントーラ200は、教示ボックス201
から入力された教示データを記憶する教示データ記憶部
204、教示データ記憶部204より教示データを読み
出してマニピュレータ101の位置・姿勢を演算する位
置姿勢演算部203により求められた位置・姿勢に基づ
いてマニピュレータ101の動作経路を生成する経路生
成部202より構成される。
から入力された教示データを記憶する教示データ記憶部
204、教示データ記憶部204より教示データを読み
出してマニピュレータ101の位置・姿勢を演算する位
置姿勢演算部203により求められた位置・姿勢に基づ
いてマニピュレータ101の動作経路を生成する経路生
成部202より構成される。
【0026】教示部300は、モデル生成部351、レ
ンジセンサ103から転送されたデータを処理するセン
シングデータ処理部310、マニピレータの位置や姿勢
情報を記憶するロボット手先位置姿勢記憶部321、モ
デル生成部351、オペレータの位置・姿勢情報よりオ
ペレータの位置を検出するオペレータ位置姿勢記憶部3
31、モデル動作制御部352及びモデル姿勢変換部3
53より構成される。また、教示部300には、オペレ
ータ位置検出部400と表示部500が接続されてい
る。
ンジセンサ103から転送されたデータを処理するセン
シングデータ処理部310、マニピレータの位置や姿勢
情報を記憶するロボット手先位置姿勢記憶部321、モ
デル生成部351、オペレータの位置・姿勢情報よりオ
ペレータの位置を検出するオペレータ位置姿勢記憶部3
31、モデル動作制御部352及びモデル姿勢変換部3
53より構成される。また、教示部300には、オペレ
ータ位置検出部400と表示部500が接続されてい
る。
【0027】センシングデータ処理部310は、前処理
部311、特徴点検出部312及びデータ記憶部313
を有し、マニピュレータ101から転送されたセンシン
グデータのノイズ除去、経路105の断面データ取得、
及び特徴点の検出を行う。また、ロボット手先位置姿勢
記憶部321、オペレータ位置姿勢記憶部331及びオ
ペレータ位置検出部400は、ロボット(マニピュレー
タ)やオペレータの位置姿勢を検出し、モデル生成部3
51、モデル姿勢変換部353及びモデル動作制御部3
52は、手先効果器102とレンジセンサ103の3次
元モデルを生成・変換・制御する。
部311、特徴点検出部312及びデータ記憶部313
を有し、マニピュレータ101から転送されたセンシン
グデータのノイズ除去、経路105の断面データ取得、
及び特徴点の検出を行う。また、ロボット手先位置姿勢
記憶部321、オペレータ位置姿勢記憶部331及びオ
ペレータ位置検出部400は、ロボット(マニピュレー
タ)やオペレータの位置姿勢を検出し、モデル生成部3
51、モデル姿勢変換部353及びモデル動作制御部3
52は、手先効果器102とレンジセンサ103の3次
元モデルを生成・変換・制御する。
【0028】なお、同図において、説明のためのマニピ
ュレータ101は、作業対象ワーク104において作業
経路105に沿って作業を行うものとする。図3は、本
発明の第1の教示装置の動作を示すフローチャートであ
る。 ステップ101) オペレータは、作業対象ワーク10
4の作業経路105に対して教示ボックス201を用い
て、マニピュレータ101を作業経路105上の所望の
教示位置付近に位置付ける。
ュレータ101は、作業対象ワーク104において作業
経路105に沿って作業を行うものとする。図3は、本
発明の第1の教示装置の動作を示すフローチャートであ
る。 ステップ101) オペレータは、作業対象ワーク10
4の作業経路105に対して教示ボックス201を用い
て、マニピュレータ101を作業経路105上の所望の
教示位置付近に位置付ける。
【0029】ステップ102) センシングデータ処理
部310では、ノイズ除去処理、経路断面データ、特徴
点位置を求める。 ステップ103) オペレータ位置検出部400は、ロ
ボットワールド座標系におけるオペレータの3次元位置
・姿勢を検出する。
部310では、ノイズ除去処理、経路断面データ、特徴
点位置を求める。 ステップ103) オペレータ位置検出部400は、ロ
ボットワールド座標系におけるオペレータの3次元位置
・姿勢を検出する。
【0030】ステップ104) 次に、モデル姿勢変換
部353において、コントローラ200からのロボット
の手先位置・姿勢データとオペレータ位置姿勢検出部3
31からのデータを、オペレータから見た効果器102
とレンジセンサ103の3次元モデルにビューイング変
換する。
部353において、コントローラ200からのロボット
の手先位置・姿勢データとオペレータ位置姿勢検出部3
31からのデータを、オペレータから見た効果器102
とレンジセンサ103の3次元モデルにビューイング変
換する。
【0031】ステップ105) モデル動作制御部35
23は、3次元モデルにビューイング変換されたデータ
を表示できる形式にする。 ステップ106) モデル動作制御部352においてオ
ペレータに教示ボックス201の操作指示を表示部50
0に表示することにより、提示する。
23は、3次元モデルにビューイング変換されたデータ
を表示できる形式にする。 ステップ106) モデル動作制御部352においてオ
ペレータに教示ボックス201の操作指示を表示部50
0に表示することにより、提示する。
【0032】ステップ107) これにより、オペレー
タは操作指示に従って教示位置にマニピュレータ101
を位置付けする。 上記のような教示装置により教示ボックス201で教示
データを作成する際に、レンジセンサ103からのセン
シングデータに基づいてマニピュレータ101を移動さ
せる方向を多種類のメディアを介してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する機能を実現する。
タは操作指示に従って教示位置にマニピュレータ101
を位置付けする。 上記のような教示装置により教示ボックス201で教示
データを作成する際に、レンジセンサ103からのセン
シングデータに基づいてマニピュレータ101を移動さ
せる方向を多種類のメディアを介してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する機能を実現する。
【0033】[第2の教示装置]図4は、本発明の第2
の教示装置の構成を示す。同図に示す第2の教示装置
は、第1の教示装置と教示部300の構成が異なる。第
2の教示装置の教示部300は、センシングデータ処理
部310と、ロボット手先位置姿勢記憶部321、オペ
レータ位置姿勢演算部331よりなる位置姿勢処理部3
20と、モデル姿勢変換部353、モデル動作制御部3
52、第1のモデル生成部354、及び第2のモデル生
成部355よりなるモデル処理部350から構成され
る。また、この教示部300には、モデル合成部(表示
部)510が接続される。このモデル合成部(表示部)
510は、シースルー型のディスプレイモニタを用いる
ものとする。
の教示装置の構成を示す。同図に示す第2の教示装置
は、第1の教示装置と教示部300の構成が異なる。第
2の教示装置の教示部300は、センシングデータ処理
部310と、ロボット手先位置姿勢記憶部321、オペ
レータ位置姿勢演算部331よりなる位置姿勢処理部3
20と、モデル姿勢変換部353、モデル動作制御部3
52、第1のモデル生成部354、及び第2のモデル生
成部355よりなるモデル処理部350から構成され
る。また、この教示部300には、モデル合成部(表示
部)510が接続される。このモデル合成部(表示部)
510は、シースルー型のディスプレイモニタを用いる
ものとする。
【0034】この第2の教示装置は、第1のモデル生成
部354と第2のモデル生成部355においてオペレー
タの位置姿勢からオペレータの右目、左目で見た3次元
のモデルを生成する。例えば、オペレータの右目のモデ
ルを第1のモデル生成部354で生成し、左目のモデル
を第2のモデル生成部355で生成する。これにより、
グラフィックモデル及びその実映像を単独またはオーバ
ーレイして表示する。そして、モデル動作制御部352
により表示部510にオーバーレイした3次元モデルを
動作させ、マニピュレータ101の移動方向の指示を行
う。これにより、オペレータは、当該指示に従って、教
示ボックス201を用いて教示作業を行う。
部354と第2のモデル生成部355においてオペレー
タの位置姿勢からオペレータの右目、左目で見た3次元
のモデルを生成する。例えば、オペレータの右目のモデ
ルを第1のモデル生成部354で生成し、左目のモデル
を第2のモデル生成部355で生成する。これにより、
グラフィックモデル及びその実映像を単独またはオーバ
ーレイして表示する。そして、モデル動作制御部352
により表示部510にオーバーレイした3次元モデルを
動作させ、マニピュレータ101の移動方向の指示を行
う。これにより、オペレータは、当該指示に従って、教
示ボックス201を用いて教示作業を行う。
【0035】[第3の教示装置]図5は、本発明の第3
の教示装置の構成を示す。同図に示す第3の教示装置
は、前述の第1、第2の教示装置と教示部の構成が異な
る。第3の教示装置の教示部300は、センシングデー
タ処理部310と音声処理部360から構成される。
の教示装置の構成を示す。同図に示す第3の教示装置
は、前述の第1、第2の教示装置と教示部の構成が異な
る。第3の教示装置の教示部300は、センシングデー
タ処理部310と音声処理部360から構成される。
【0036】音声処理部360は、音声コマンド入力部
361、音声コマンド記憶部362、音声コマンド選択
部363、音声コマンド出力部364より構成される。
まず、音声教示時に、音声コマンドを音声コマンド入力
部361より入力し、音声コマンド記憶部362に記憶
する。特徴点検出部312から取得される特徴点データ
の位置に従って、音声コマンド選択部363において適
切な教示用指示コマンドが選択されて、音声コマンド出
力部364から出力される。
361、音声コマンド記憶部362、音声コマンド選択
部363、音声コマンド出力部364より構成される。
まず、音声教示時に、音声コマンドを音声コマンド入力
部361より入力し、音声コマンド記憶部362に記憶
する。特徴点検出部312から取得される特徴点データ
の位置に従って、音声コマンド選択部363において適
切な教示用指示コマンドが選択されて、音声コマンド出
力部364から出力される。
【0037】従って、センシングデータ処理部310の
特徴点検出部312で検出された特徴点データのセンサ
座標系での位置に従って音声出力される。 [第4の教示装置]図6は、本発明の第4の教示装置の
構成を示す。同図に示す第4の教示装置の教示部300
は、前処理部311、特徴点検出部312、特徴点記憶
部313よりなるセンシングデータ処理部310と、ロ
ボット手先位置姿勢記憶部321、オペレータ位置姿勢
演算部331よりなる位置姿勢処理部320と、モデル
生成部391、モデル動作制御部392よりなる3次元
モデル処理部390と、画面制御部381、選択部38
2、演算部383よりなる画面処理部380と、音声認
識部371、音声識別部372、第1の音声記憶部37
3、第2の音声記憶部374よりなる音声処理部370
と、表示部510、音声入力部375、及び音声出力部
376より構成される。
特徴点検出部312で検出された特徴点データのセンサ
座標系での位置に従って音声出力される。 [第4の教示装置]図6は、本発明の第4の教示装置の
構成を示す。同図に示す第4の教示装置の教示部300
は、前処理部311、特徴点検出部312、特徴点記憶
部313よりなるセンシングデータ処理部310と、ロ
ボット手先位置姿勢記憶部321、オペレータ位置姿勢
演算部331よりなる位置姿勢処理部320と、モデル
生成部391、モデル動作制御部392よりなる3次元
モデル処理部390と、画面制御部381、選択部38
2、演算部383よりなる画面処理部380と、音声認
識部371、音声識別部372、第1の音声記憶部37
3、第2の音声記憶部374よりなる音声処理部370
と、表示部510、音声入力部375、及び音声出力部
376より構成される。
【0038】まず、教示用指示コマンドを第1の音声記
憶部373、画面制御用コマンド及び教示用指示コマン
ドを制御するコマンドを第2の音声記憶部374に音声
入力部375より登録しておき、マニピュレータ101
を教示位置付近に近づけた時、表示部510に方向指示
が表示される。さらに、上記の第3の教示装置の教示用
指示コマンドを音声コマンド出力部364から出力され
る。
憶部373、画面制御用コマンド及び教示用指示コマン
ドを制御するコマンドを第2の音声記憶部374に音声
入力部375より登録しておき、マニピュレータ101
を教示位置付近に近づけた時、表示部510に方向指示
が表示される。さらに、上記の第3の教示装置の教示用
指示コマンドを音声コマンド出力部364から出力され
る。
【0039】[第5の教示装置]図7は、本発明の第5
の教示装置の構成を示す。同図に示す第5の教示装置の
教示部300は、センシングデータ処理部310と、矢
印パターン選択部710、LED駆動部720からなる
LED処理部700及びLED表示部800より構成さ
れる。センシングデータ処理部310において、特徴点
データが演算され、マニピュレータを動かす方向が決定
され、その方向に従ってLED処理部700においてL
ED表示部800に矢印パターンを表示する。
の教示装置の構成を示す。同図に示す第5の教示装置の
教示部300は、センシングデータ処理部310と、矢
印パターン選択部710、LED駆動部720からなる
LED処理部700及びLED表示部800より構成さ
れる。センシングデータ処理部310において、特徴点
データが演算され、マニピュレータを動かす方向が決定
され、その方向に従ってLED処理部700においてL
ED表示部800に矢印パターンを表示する。
【0040】[第6の教示装置]図8は、本発明の第6
の教示装置の構成を示す。同図に示す第6の教示装置の
教示部300、前処理部311、特徴点検出部312及
びデータ記憶部313よりなるセンシングデータ処理部
310と、距離演算部910、距離判定部920よりな
る干渉チェック検出部900と、距離−音声/音響変換
部530と、音声/音響出力部540及びグラフィック
表示部510から構成される。
の教示装置の構成を示す。同図に示す第6の教示装置の
教示部300、前処理部311、特徴点検出部312及
びデータ記憶部313よりなるセンシングデータ処理部
310と、距離演算部910、距離判定部920よりな
る干渉チェック検出部900と、距離−音声/音響変換
部530と、音声/音響出力部540及びグラフィック
表示部510から構成される。
【0041】干渉チェック検出部900は、CCDカメ
ラ120により作業ワークの局所的情報をモニタリング
された結果を用いてワーク104と周囲物体の空間的距
離を計算する距離演算部910、距離判定部920で算
出された距離と所定の値を比較して周囲物体との距離が
所定値より小さくなった場合、即ち、他の物体に近づい
た時に、その旨を距離−音声/音響変換部530で音声
または音響に変換して、音声/音響出力部540に転送
する。音声/音響出力部540は、変換された音声また
は音響を出力する。表示部510は、干渉チェック検出
部900で得られた他物体との近接情報を表示する。
ラ120により作業ワークの局所的情報をモニタリング
された結果を用いてワーク104と周囲物体の空間的距
離を計算する距離演算部910、距離判定部920で算
出された距離と所定の値を比較して周囲物体との距離が
所定値より小さくなった場合、即ち、他の物体に近づい
た時に、その旨を距離−音声/音響変換部530で音声
または音響に変換して、音声/音響出力部540に転送
する。音声/音響出力部540は、変換された音声また
は音響を出力する。表示部510は、干渉チェック検出
部900で得られた他物体との近接情報を表示する。
【0042】つまり、オペレータに対して表示されるデ
ータは、センサデータにCCDカメラ120により取得
した作業ワークの局所情報とがオーバーレイされて表示
されると共に、マニピュレータ101が近づきすぎた場
合に音声または、音響により警告が出力される。
ータは、センサデータにCCDカメラ120により取得
した作業ワークの局所情報とがオーバーレイされて表示
されると共に、マニピュレータ101が近づきすぎた場
合に音声または、音響により警告が出力される。
【0043】
【実施例】以下、本発明の実施例を説明する。以下に、
マニピュレータ101の作業を溶接作業を例として作業
内容を説明する。
マニピュレータ101の作業を溶接作業を例として作業
内容を説明する。
【0044】溶接作業では、ワーク104の作業経路1
05に沿って手先効果器102である溶接トーチを近づ
け、経路に従って連続的に溶接を実行し、ワーク104
同士を貼り合わせる。教示システムでは、ロボットの動
作の経路を決定するために、教示ボックス201を用い
てオペレータが溶接線路上の点を入力していく。 以下
に説明する教示装置では、教示ボックス201で教示デ
ータを作成する際に、レンジセンサ103からのセンシ
ングデータに基づいて、マニピュレータ101を移動さ
せる方向を多種類のメディアを通してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する。
05に沿って手先効果器102である溶接トーチを近づ
け、経路に従って連続的に溶接を実行し、ワーク104
同士を貼り合わせる。教示システムでは、ロボットの動
作の経路を決定するために、教示ボックス201を用い
てオペレータが溶接線路上の点を入力していく。 以下
に説明する教示装置では、教示ボックス201で教示デ
ータを作成する際に、レンジセンサ103からのセンシ
ングデータに基づいて、マニピュレータ101を移動さ
せる方向を多種類のメディアを通してオペレータに指示
し、作業仕様とセンサ視野を満足する教示データを作成
する。
【0045】[第1の実施例]本実施例は、図2に基づ
いて説明する。まず、オペレータは、作業対象ワーク1
04の作業経路105に対して教示ボックス201を用
いて、マニピュレータ101を作業経路105上の望ん
だ教示位置付近に位置付ける。この際、予め決められた
作業仕様とセンサ視野範囲を確保するという拘束条件を
満足するように、効果器102の位置・姿勢を決めるた
めに、教示部300では、以下に示す方法でマルチモー
ダルな情報をオペレータに提示する。
いて説明する。まず、オペレータは、作業対象ワーク1
04の作業経路105に対して教示ボックス201を用
いて、マニピュレータ101を作業経路105上の望ん
だ教示位置付近に位置付ける。この際、予め決められた
作業仕様とセンサ視野範囲を確保するという拘束条件を
満足するように、効果器102の位置・姿勢を決めるた
めに、教示部300では、以下に示す方法でマルチモー
ダルな情報をオペレータに提示する。
【0046】(1) まず、効果器102の先端を教示
位置付近に位置づけた時のレンジセンサ103のセンシ
ングデータ(この場合、作業経路105の断面データ)
は教示部300のセンサ処理部310の前処理部311
によってフィルタリング処理等によりノイズ除去が行わ
れる。
位置付近に位置づけた時のレンジセンサ103のセンシ
ングデータ(この場合、作業経路105の断面データ)
は教示部300のセンサ処理部310の前処理部311
によってフィルタリング処理等によりノイズ除去が行わ
れる。
【0047】(2) 次に、作業経路105の断面デー
タからエッジに相当する位置(特徴点位置)を特徴点検
出部312により検出する。この経路断面データと特徴
点位置はセンサ座標系で求められる。これらのデータを
データ記憶部313に記憶する。
タからエッジに相当する位置(特徴点位置)を特徴点検
出部312により検出する。この経路断面データと特徴
点位置はセンサ座標系で求められる。これらのデータを
データ記憶部313に記憶する。
【0048】(3) 次に、予めマニピュレータ101
の手先効果器102とレンジセンサ103の3次元モデ
ルをモデル作成部351において作成する。作成された
3次元モデルはモデル姿勢変換部353によりビューイ
ングデータに変換されて、モデル動作制御部352に送
られる。
の手先効果器102とレンジセンサ103の3次元モデ
ルをモデル作成部351において作成する。作成された
3次元モデルはモデル姿勢変換部353によりビューイ
ングデータに変換されて、モデル動作制御部352に送
られる。
【0049】(4) モデル動作制御部352は、上記
の教示位置付近での経路の断面データと3次元モデルを
表示部500上の各ウィンドウに表示する。 (5) 一方、オペレータ位置・姿勢検出部400にお
いて、ロボットワールド座標系におけるオペレータの3
次元位置・姿勢を検出し、オペレータ位置・姿勢記憶部
331に転送する。この位置・姿勢データはリアルタイ
ムで取得されるものとする。また、この処理と並行して
コントローラ200からロボットの手先位置・姿勢デー
タが送られ、ロボット手先位置姿勢記憶部321に格納
される。これらの2種類の位置・姿勢データは同期、非
同期のどちらでも構わない。
の教示位置付近での経路の断面データと3次元モデルを
表示部500上の各ウィンドウに表示する。 (5) 一方、オペレータ位置・姿勢検出部400にお
いて、ロボットワールド座標系におけるオペレータの3
次元位置・姿勢を検出し、オペレータ位置・姿勢記憶部
331に転送する。この位置・姿勢データはリアルタイ
ムで取得されるものとする。また、この処理と並行して
コントローラ200からロボットの手先位置・姿勢デー
タが送られ、ロボット手先位置姿勢記憶部321に格納
される。これらの2種類の位置・姿勢データは同期、非
同期のどちらでも構わない。
【0050】(6) モデル姿勢変換部353は、ロボ
ット手先位置姿勢記憶部321とオペレータ位置姿勢記
憶部331の2つの位置・姿勢データよりオペレータか
らみた効果器102とレンジセンサ103の3次元モデ
ルにビューイング変換し、表示部500に表示する。
ット手先位置姿勢記憶部321とオペレータ位置姿勢記
憶部331の2つの位置・姿勢データよりオペレータか
らみた効果器102とレンジセンサ103の3次元モデ
ルにビューイング変換し、表示部500に表示する。
【0051】これにより表示部500に表示された効果
器102とレンジセンサ103の3次元モデルと、オペ
レータが実際に見ている効果器102とレンジセンサ1
03の実体が一致するため、操作性のすぐれたグラフィ
ックユーザインタフェース環境を提供することができ
る。
器102とレンジセンサ103の3次元モデルと、オペ
レータが実際に見ている効果器102とレンジセンサ1
03の実体が一致するため、操作性のすぐれたグラフィ
ックユーザインタフェース環境を提供することができ
る。
【0052】(7) 次に、モデル動作制御部352に
おいて、オペレータにグラフィックユーザインタフェー
スを用いて、教示ボックス201の操作の指示を提示す
る。つまり、このモニタ画面の3次元モデルに表示され
る指示と断面データウィンドウの表示結果により、オペ
レータは、作業仕様及びセンサ視野を満足させた教示位
置にマニピュレータ101を位置付けることができる。
おいて、オペレータにグラフィックユーザインタフェー
スを用いて、教示ボックス201の操作の指示を提示す
る。つまり、このモニタ画面の3次元モデルに表示され
る指示と断面データウィンドウの表示結果により、オペ
レータは、作業仕様及びセンサ視野を満足させた教示位
置にマニピュレータ101を位置付けることができる。
【0053】図9は、本発明の第1の実施例において表
示部に表示されるモニタ画面の例を示す。同図を用いて
教示データ作成手順を説明する。同図においてウィンド
ウ28は、レンジセンサ103から得られるセンシング
データのウィンドウであり、ウィンドウ33〜35は、
効果器102とレンジセンサ103の3次元モデル表示
ウィンドウである。センシングデータのウィンドウ28
において、aは作業経路の断面データ、bはセンサ座標
系での特徴点座標30、cは使用レンジセンサ103の
仕様から決まるセンサ視野、dは、作業仕様から決まる
効果器姿勢許容範囲を表している。ここでは、一般に、
教示作業で困難とされている効果器102の姿勢を決定
するための情報提示について説明する。まず、マニピュ
レータ101を教示位置付近に位置付けたとき、特徴点
座標bがセンサ視野外にある場合、センサ視野内に特徴
点を入れる必要がある。この場合、特徴点位置に従っ
て、モデルウィンドウ33〜35にマニピュレータの姿
勢を変更する方向が矢印で表示される。この指示に従っ
て、オペレータは教示ボックス201を操作する。矢印
の方向を決定する方法は、例えば、特願平7−4317
に開示されている方法を適用するものとする。
示部に表示されるモニタ画面の例を示す。同図を用いて
教示データ作成手順を説明する。同図においてウィンド
ウ28は、レンジセンサ103から得られるセンシング
データのウィンドウであり、ウィンドウ33〜35は、
効果器102とレンジセンサ103の3次元モデル表示
ウィンドウである。センシングデータのウィンドウ28
において、aは作業経路の断面データ、bはセンサ座標
系での特徴点座標30、cは使用レンジセンサ103の
仕様から決まるセンサ視野、dは、作業仕様から決まる
効果器姿勢許容範囲を表している。ここでは、一般に、
教示作業で困難とされている効果器102の姿勢を決定
するための情報提示について説明する。まず、マニピュ
レータ101を教示位置付近に位置付けたとき、特徴点
座標bがセンサ視野外にある場合、センサ視野内に特徴
点を入れる必要がある。この場合、特徴点位置に従っ
て、モデルウィンドウ33〜35にマニピュレータの姿
勢を変更する方向が矢印で表示される。この指示に従っ
て、オペレータは教示ボックス201を操作する。矢印
の方向を決定する方法は、例えば、特願平7−4317
に開示されている方法を適用するものとする。
【0054】ウィンドウ33では、x方向操作のための
z軸回りの姿勢変更を、ウィンドウ34はz方向操作の
ためのx軸回りの姿勢変更を、また、ウィンドウ35
は、ウィンドウ28のθを調整するための操作方向を示
している。なお、各軸回りの姿勢変更に伴って効果器1
02の姿勢許容範囲dも移動するため、オペレータは特
徴点がこの範囲内にも入るように姿勢を変更することに
より、センサ視野範囲と作業使用を同時に満足する教示
データを作成することができる。
z軸回りの姿勢変更を、ウィンドウ34はz方向操作の
ためのx軸回りの姿勢変更を、また、ウィンドウ35
は、ウィンドウ28のθを調整するための操作方向を示
している。なお、各軸回りの姿勢変更に伴って効果器1
02の姿勢許容範囲dも移動するため、オペレータは特
徴点がこの範囲内にも入るように姿勢を変更することに
より、センサ視野範囲と作業使用を同時に満足する教示
データを作成することができる。
【0055】姿勢方向を指示する方法は、上記の矢印以
外にも可能であり、例えば、モデル自身の揺動によりオ
ペレータに指示することも可能である。 [第2の実施例]次に本発明の第2の実施例を図4と共
に説明する。
外にも可能であり、例えば、モデル自身の揺動によりオ
ペレータに指示することも可能である。 [第2の実施例]次に本発明の第2の実施例を図4と共
に説明する。
【0056】本実施例の教示部300は、位置姿勢演算
部331、センシングデータ処理部310、モデル処理
部350とオペレータが頭部に装着するタイプの表示部
500より構成される。センシングデータ処理部31
0、位置姿勢演算部320のロボット手先位置姿勢記憶
部321とオペレータ位置姿勢演算部331及びモデル
姿勢変換部353、モデル動作制御部352については
前述の第1の実施例と同様である。
部331、センシングデータ処理部310、モデル処理
部350とオペレータが頭部に装着するタイプの表示部
500より構成される。センシングデータ処理部31
0、位置姿勢演算部320のロボット手先位置姿勢記憶
部321とオペレータ位置姿勢演算部331及びモデル
姿勢変換部353、モデル動作制御部352については
前述の第1の実施例と同様である。
【0057】本実施例では、マニピュレータ101を教
示位置付近に移動させた時のレンジセンサ103から得
られる作業経路の断面データから演算される特徴点の位
置から前述の第1の実施例と同様の方法で、マニピュレ
ータを動かす方向を自動的に演算する。この際、ロボッ
トの手先位置姿勢とオペレータの位置姿勢からオペレー
タの右目及び左目で見た3次元のモデルを各々第1のモ
デル生成部354、第2のモデル生成部355とモデル
姿勢変換部353により作成し、表示部510に表示す
る。この効果器102とレンジセンサ103の実像に、
第1のモデル生成部354、第2のモデル生成部355
により生成された3次元のモデルを重ね合わせて表示す
ることが可能である。
示位置付近に移動させた時のレンジセンサ103から得
られる作業経路の断面データから演算される特徴点の位
置から前述の第1の実施例と同様の方法で、マニピュレ
ータを動かす方向を自動的に演算する。この際、ロボッ
トの手先位置姿勢とオペレータの位置姿勢からオペレー
タの右目及び左目で見た3次元のモデルを各々第1のモ
デル生成部354、第2のモデル生成部355とモデル
姿勢変換部353により作成し、表示部510に表示す
る。この効果器102とレンジセンサ103の実像に、
第1のモデル生成部354、第2のモデル生成部355
により生成された3次元のモデルを重ね合わせて表示す
ることが可能である。
【0058】次に、モデル動作制御部352によって特
徴点の位置から演算されたマニピュレータ101の動作
方向へ表示部510に表示されている3次元モデルを揺
動させ、オペレータにマニピュレータ動作方向を提示す
る。この指示に従って、オペレータは教示ボックス20
1を使って教示作業を実行する。
徴点の位置から演算されたマニピュレータ101の動作
方向へ表示部510に表示されている3次元モデルを揺
動させ、オペレータにマニピュレータ動作方向を提示す
る。この指示に従って、オペレータは教示ボックス20
1を使って教示作業を実行する。
【0059】このような機能を実現することにより、オ
ペレータは従来の教示法と同様に表示部510を介して
マニピュレータ101の手先のみを見て教示すればよい
ため、作業仕様及びセンサ視野を考慮した教示作業が容
易になる。 [第3の実施例]次に、第3の実施例を図5と共に説明
する。
ペレータは従来の教示法と同様に表示部510を介して
マニピュレータ101の手先のみを見て教示すればよい
ため、作業仕様及びセンサ視野を考慮した教示作業が容
易になる。 [第3の実施例]次に、第3の実施例を図5と共に説明
する。
【0060】本実施例の教示部300は、センシングデ
ータ処理部310と音声処理部360から構成される。 (1) まず、教示時にオペレータにとって容易に理解
できる教示用指示コマンドを予め音声コマンド入力部3
61から入力し、音声コマンド記憶部362に登録して
おく。
ータ処理部310と音声処理部360から構成される。 (1) まず、教示時にオペレータにとって容易に理解
できる教示用指示コマンドを予め音声コマンド入力部3
61から入力し、音声コマンド記憶部362に登録して
おく。
【0061】(2) 次に、実際の教示作業時にレンジ
センサ103から入力される作業経路105の断面デー
タとデータ記憶部313を読み込んで得られる特徴点デ
ータのセンサ座標系での位置に従って、音声コマンド選
択部363により適切な教示用指示コマンドが選択さ
れ、音声コマンド出力部364から出力される。
センサ103から入力される作業経路105の断面デー
タとデータ記憶部313を読み込んで得られる特徴点デ
ータのセンサ座標系での位置に従って、音声コマンド選
択部363により適切な教示用指示コマンドが選択さ
れ、音声コマンド出力部364から出力される。
【0062】図10は、本発明の第3の実施例の教示用
指示コマンドの登録の例を示す。同図に示すコマンド
は、音声記憶部362の音声コマンド登録テーブル47
に登録されている。例えば、レンジセンサ103が作業
経路105から離れている時に適切な距離に位置付ける
必要がある場合、音声コマンド選択部363は、音声記
憶部362の音声コマンド登録テーブル47から16番
目のコマンド『PITCH DOWN』を選択する。移動方向の決
定方法は、前述の第1の実施例と同様に、特徴点位置に
よって決定される。また、教示用指示コマンドの出力
は、特徴点がセンサ視野に入るまで音声出力部364か
ら出力される。
指示コマンドの登録の例を示す。同図に示すコマンド
は、音声記憶部362の音声コマンド登録テーブル47
に登録されている。例えば、レンジセンサ103が作業
経路105から離れている時に適切な距離に位置付ける
必要がある場合、音声コマンド選択部363は、音声記
憶部362の音声コマンド登録テーブル47から16番
目のコマンド『PITCH DOWN』を選択する。移動方向の決
定方法は、前述の第1の実施例と同様に、特徴点位置に
よって決定される。また、教示用指示コマンドの出力
は、特徴点がセンサ視野に入るまで音声出力部364か
ら出力される。
【0063】(3) 特徴点がセンサ視野に入ると、音
声コマンド選択部363は、音声登録テーブル47から
32番目の“OK”コマンドを選択し、音声コマンド出
力部364に送り、z方向の姿勢が所望の教示姿勢にな
ったことを知らせる。また、他の姿勢決定についても同
様な手順で行われる。
声コマンド選択部363は、音声登録テーブル47から
32番目の“OK”コマンドを選択し、音声コマンド出
力部364に送り、z方向の姿勢が所望の教示姿勢にな
ったことを知らせる。また、他の姿勢決定についても同
様な手順で行われる。
【0064】従って、本実施例によれば、教示操作時に
音声により適切なマニピュレータ101の移動指示をセ
ンサデータに基づいて、オペレータに対して与えること
が可能である。 [第4の実施例]次に、本発明の第4の実施例を図6と
共に説明する。
音声により適切なマニピュレータ101の移動指示をセ
ンサデータに基づいて、オペレータに対して与えること
が可能である。 [第4の実施例]次に、本発明の第4の実施例を図6と
共に説明する。
【0065】本実施例において、センシングデータ処理
部310、ビュー変換部320、3次元モデル処理部3
90で実行される処理は、第1の実施例と同様である。
本実施例では、これらの処理と同期して、音声による教
示指示が行われる。本実施例では、教示用の音声コマン
ドを格納するための第1の記憶部373と画面制御用コ
マンドを格納するための第2の記憶部374を設け、音
声入力部375から入力されたコマンドを認識し、教示
音声コマンドか制御コマンドかを識別し、それぞれの記
憶部に格納しておき、オペレータの操作に応じて、音声
による教示用指示または、画面による指示を提示するも
のである。
部310、ビュー変換部320、3次元モデル処理部3
90で実行される処理は、第1の実施例と同様である。
本実施例では、これらの処理と同期して、音声による教
示指示が行われる。本実施例では、教示用の音声コマン
ドを格納するための第1の記憶部373と画面制御用コ
マンドを格納するための第2の記憶部374を設け、音
声入力部375から入力されたコマンドを認識し、教示
音声コマンドか制御コマンドかを識別し、それぞれの記
憶部に格納しておき、オペレータの操作に応じて、音声
による教示用指示または、画面による指示を提示するも
のである。
【0066】(1) 第2の実施例と同様に音声入力部
361より教示用指示コマンドを第1の音声コマンド記
憶部373に格納し、画面制御用コマンド及び教示用指
示コマンドを制御する制御コマンドを第2の音声記憶部
374に格納する。 (2) 次に、マニピュレータ101を教示位置付近に
近づけた時に、センシングデータと3次元モデルによる
方向指示が表示部510に表示される。
361より教示用指示コマンドを第1の音声コマンド記
憶部373に格納し、画面制御用コマンド及び教示用指
示コマンドを制御する制御コマンドを第2の音声記憶部
374に格納する。 (2) 次に、マニピュレータ101を教示位置付近に
近づけた時に、センシングデータと3次元モデルによる
方向指示が表示部510に表示される。
【0067】(3) これと並行して前述の第2の実施
例に従った教示用指示コマンドを出力するために、音声
入力部375より教示開始コマンドを音声入力する。こ
れらのコマンドは、音声認識部371で認識され、さら
に、音声識別部372で登録音声から識別され、対応す
る教示用指示コマンドが第1の音声記憶部373から選
択され、音声出力部376から出力される。
例に従った教示用指示コマンドを出力するために、音声
入力部375より教示開始コマンドを音声入力する。こ
れらのコマンドは、音声認識部371で認識され、さら
に、音声識別部372で登録音声から識別され、対応す
る教示用指示コマンドが第1の音声記憶部373から選
択され、音声出力部376から出力される。
【0068】また、音声停止コマンド、結果確認コマン
ド等を用意しておくことにより、マニピュレータとのイ
ンタラクディブな教示作業が可能となる。このように、
オペレータは3次元モデルによる指示と教示用指示コマ
ンドを聞きながら教示作業を実行する。
ド等を用意しておくことにより、マニピュレータとのイ
ンタラクディブな教示作業が可能となる。このように、
オペレータは3次元モデルによる指示と教示用指示コマ
ンドを聞きながら教示作業を実行する。
【0069】(4) この際、さらに、第2の音声記憶
部374に記憶されている画面制御コマンドを音声入力
部361から入力することにより、教示作業中に表示部
500に表示させるセンサデータモニタと3次元モデル
ウィンドウの各種制御を行うことができる。
部374に記憶されている画面制御コマンドを音声入力
部361から入力することにより、教示作業中に表示部
500に表示させるセンサデータモニタと3次元モデル
ウィンドウの各種制御を行うことができる。
【0070】例えば、ウィンドウ選択コマンドを音声入
力部361から入力すると、画面選択部382により所
望の画面のみが表示部500に表示される。また、制御
コマンドである拡大/縮小コマンドを音声入力すると、
画面内の一部分がコマンドに応じて拡大/縮小され、教
示作業に必要な詳細情報のみを提示させることができ
る。
力部361から入力すると、画面選択部382により所
望の画面のみが表示部500に表示される。また、制御
コマンドである拡大/縮小コマンドを音声入力すると、
画面内の一部分がコマンドに応じて拡大/縮小され、教
示作業に必要な詳細情報のみを提示させることができ
る。
【0071】なお、音声コマンド指示と3次元モデルに
よるマニピュレータの移動方向指示は、並列に実行され
るため、オペレータは必要に応じてどちらか一方、ある
いは両方の指示を参考に教示作業を実行することもでき
る。 [第5の実施例]次に本実施例を図7と共に説明する。
よるマニピュレータの移動方向指示は、並列に実行され
るため、オペレータは必要に応じてどちらか一方、ある
いは両方の指示を参考に教示作業を実行することもでき
る。 [第5の実施例]次に本実施例を図7と共に説明する。
【0072】本実施例は、マニピュレータ101付近に
LEDを駆動するためのLED駆動部720にマニピュ
レータ101の移動方向を表示させる例である。 (1) まず、レンジセンサからのセンシングデータを
センシングデータ処理部310で特徴点データが求めら
れ、特徴点の位置に従ってマニピュレータ101を動か
す方向が決定される。
LEDを駆動するためのLED駆動部720にマニピュ
レータ101の移動方向を表示させる例である。 (1) まず、レンジセンサからのセンシングデータを
センシングデータ処理部310で特徴点データが求めら
れ、特徴点の位置に従ってマニピュレータ101を動か
す方向が決定される。
【0073】(2) 決定された方向に従って、LED
処理部700でLED表示部800に表示するための矢
印パターンを矢印パターン選択部710を用いて選択す
る。 (3) 選択されたパターンは、LED駆動部720に
よりLED表示部800に矢印パターンを表示する。表
示する矢印パターンとしては、所望の座標系での並進3
自由度、回転3自由度の6自由度に対して2パターンず
つ計12パターンと、“OK”パターン合わせて13パ
ターンを表示する。
処理部700でLED表示部800に表示するための矢
印パターンを矢印パターン選択部710を用いて選択す
る。 (3) 選択されたパターンは、LED駆動部720に
よりLED表示部800に矢印パターンを表示する。表
示する矢印パターンとしては、所望の座標系での並進3
自由度、回転3自由度の6自由度に対して2パターンず
つ計12パターンと、“OK”パターン合わせて13パ
ターンを表示する。
【0074】このようにすることにより、オペレータ
は、実際の効果器102とレンジセンサ103と作業経
路105の位置関係を実際に見ながら教示ボックス20
1を操作して教示データを入力できるため、教示作業が
容易となる。 [第6の実施例]次に、本実施例を図8と共に説明す
る。
は、実際の効果器102とレンジセンサ103と作業経
路105の位置関係を実際に見ながら教示ボックス20
1を操作して教示データを入力できるため、教示作業が
容易となる。 [第6の実施例]次に、本実施例を図8と共に説明す
る。
【0075】本実施例は、マニピュレータ101の効果
器102に取り付けられたCCDカメラ120により作
業ワーク104のモニタリングされた局所的情報をセン
サデータにオーバーレイして表示するものである。 (1) レンジセンサ103からセンシングデータとセ
ンシングデータ処理部310から特徴点データを求め、
マニピュレータ101を動かす方向を決定する。
器102に取り付けられたCCDカメラ120により作
業ワーク104のモニタリングされた局所的情報をセン
サデータにオーバーレイして表示するものである。 (1) レンジセンサ103からセンシングデータとセ
ンシングデータ処理部310から特徴点データを求め、
マニピュレータ101を動かす方向を決定する。
【0076】(2) (1)と同時に、レンジセンサ1
03に付けられたCCDカメラ120から被作業対象物
の大局的な2次元映像を取得し、表示部510にセンサ
データとオーバーレイさせて表示する。 (3) 次に、教示データを作成するためにマニピュレ
ータ101動作中に、レンジセンサ103に取付けられ
た近接センサ130より実時間で被作業対象物の周囲物
体との空間的距離が検出され、周囲物体との干渉チェッ
クを実行する。これは、近接センサ130からの信号を
距離演算部910で距離値に変換し、距離判定部920
において、予め設定されている閾値と比較し、閾値以下
になった場合に、その旨を距離−音声/音響変換部53
0において音声または音響に変換して、音声/音響出力
部540に出力する。
03に付けられたCCDカメラ120から被作業対象物
の大局的な2次元映像を取得し、表示部510にセンサ
データとオーバーレイさせて表示する。 (3) 次に、教示データを作成するためにマニピュレ
ータ101動作中に、レンジセンサ103に取付けられ
た近接センサ130より実時間で被作業対象物の周囲物
体との空間的距離が検出され、周囲物体との干渉チェッ
クを実行する。これは、近接センサ130からの信号を
距離演算部910で距離値に変換し、距離判定部920
において、予め設定されている閾値と比較し、閾値以下
になった場合に、その旨を距離−音声/音響変換部53
0において音声または音響に変換して、音声/音響出力
部540に出力する。
【0077】(4) これにより、音声/音響出力部5
40は、音声あるいは音響を出力してオペレータに知ら
せる。 (5) また、同時に、この出力を表示部510により
グラフィックス情報としてオペレータに提示する。
40は、音声あるいは音響を出力してオペレータに知ら
せる。 (5) また、同時に、この出力を表示部510により
グラフィックス情報としてオペレータに提示する。
【0078】オペレータは、上記の被作業対象物の2次
元映像による大局的な情報、音声/音響情報及びグラフ
ィック情報による干渉チェック情報を実時間で提示させ
ることにより、教示作業を安全に進めることが可能とな
る。なお、干渉チェック用の近接センサとしては、例え
ば、超音波センサ、レーザポイントセンサが使用でき
る。また、センサを複数個使用することにより、より精
密な干渉チェックが可能となる。
元映像による大局的な情報、音声/音響情報及びグラフ
ィック情報による干渉チェック情報を実時間で提示させ
ることにより、教示作業を安全に進めることが可能とな
る。なお、干渉チェック用の近接センサとしては、例え
ば、超音波センサ、レーザポイントセンサが使用でき
る。また、センサを複数個使用することにより、より精
密な干渉チェックが可能となる。
【0079】なお、本発明は、上記の各実施例に限定さ
れることなく、特許請求の範囲内において、種々変更・
応用が可能である。
れることなく、特許請求の範囲内において、種々変更・
応用が可能である。
【0080】
【発明の効果】上述のように、本発明の教示装置は以下
のような効果を奏する。効果器にセンサを付けて作業実
行するような装置において、本発明の教示装置のような
マルチモーダルなインタフェースを用いることにより、
作業仕様及びその許容値、システム制約条件、センサ情
報の有効利用を図った教示、即ち仕様センサの仕様に応
じたセンサの姿勢保証、センサ及び効果器の姿勢を同時
に最適にする教示データの作成を容易に行うことが可能
である。
のような効果を奏する。効果器にセンサを付けて作業実
行するような装置において、本発明の教示装置のような
マルチモーダルなインタフェースを用いることにより、
作業仕様及びその許容値、システム制約条件、センサ情
報の有効利用を図った教示、即ち仕様センサの仕様に応
じたセンサの姿勢保証、センサ及び効果器の姿勢を同時
に最適にする教示データの作成を容易に行うことが可能
である。
【図1】本発明の原理構成図である。
【図2】本発明の第1の教示装置の構成図である。
【図3】本発明の第1の教示装置の動作を示すフローチ
ャートである。
ャートである。
【図4】本発明の第2の教示装置の構成図である。
【図5】本発明の第3の教示装置の構成図である。
【図6】本発明の第4の教示装置の構成図である。
【図7】本発明の第5の教示装置の構成図である。
【図8】本発明の第6の教示装置の構成図である。
【図9】本発明の第1の実施例において表示部に表示さ
れるモニタ画面の例を示す図である。
れるモニタ画面の例を示す図である。
【図10】本発明の第3の実施例の教示用指示コマンド
の登録の例を示す図である。
の登録の例を示す図である。
【図11】従来の教示ボックスによるリモートティーチ
法を説明するための図である。
法を説明するための図である。
10 センサデータ転送手段
20 変換手段
21 グラフィックモデル生成手段
22 実映像獲得手段
23 マニピュレータ位置姿勢検出手段
24 オペレータ位置・姿勢検出手段
25 ビューイング変換手段
30 オペレータ提示手段
31 モニタ表示手段
32 方向表示手段
28,33,34,35 ウィンドウ
47 音声コマンド登録テーブル
101 マニピュレータ
102 効果器
103 レンジセンサ
104 作業ワーク
105 作業経路
110 LED
200 コントーラ
201 教示ボックス
202 経路生成部
203 位置姿勢演算部
204 教示データ記憶部
300 教示部
310 センシングデータ処理部
311 前処理部
312 特徴点検出部
313 データ記憶部
320 ビュー変換部
321 ロボット手先位置姿勢記憶部
331 オペレータ位置姿勢記憶部
351 モデル生成部
352 モデル動作制御部
353 モデル姿勢変換部
354 第1のモデル生成部
355 第2のモデル生成部
361 音声コマンド入力部
362 音声コマンド記憶部
363 音声コマンド選択部
364 音声コマンド出力部
370 音声処理部
371 音声認識部
372 音声識別部
373 第1の音声記憶部
374 第2の音声記憶部
375 音声入力部
376 音声出力部
380 画面処理部
381 画面制御部
382 選択部
383 演算部
390 3次元モデル処理部
391 モデル生成部
392 モデル動作制御部
400 オペレータ位置検出部
500,510 表示部
530 距離−音声/音響変換部
540 音声/音響出力部
700 LED処理部
710 矢印パターン選択部
720 LED駆動部
800 LED表示部
900 干渉チェック部
910 距離演算部
920 距離判定部
─────────────────────────────────────────────────────
フロントページの続き
(72)発明者 梅野 光
東京都新宿区西新宿三丁目19番2号 日
本電信電話株式会社内
(56)参考文献 特開 平5−301182(JP,A)
特開 平6−106489(JP,A)
特開 平6−262563(JP,A)
(58)調査した分野(Int.Cl.7,DB名)
B25J 9/22
G05B 19/42
Claims (12)
- 【請求項1】 マニピュレータと該マニピュレータのコ
ントローラ、該マニピュレータに保持された効果器、該
効果器近傍に保持されたセンサ、該センサから得られる
情報をモニタするモニタ手段より構成され、該マニピュ
レータを被作業対象物上を所定の経路に沿って動作する
ように教示データを作成する教示装置であって、 前記効果器と前記センサを含む前記マニピュレータ及び
被作業対象のグラフィックスモデルを生成するグラフィ
ックスモデル生成手段と、 前記グラフィックスモデル生成手段の実映像を獲得する
実映像獲得手段と、 前記マニピュレータの手先位置・姿勢座標を検出するマ
ニピュレータ位置・姿勢検出手段と、 オペレータの3次元位置・姿勢を検出するオペレータ位
置・姿勢検出手段と、 前記効果器と前記センサを含む前記マニピーレータ及び
前記被作業対象のグラフィックスモデルをモニタ表示す
るモニタ表示手段と、 手先位置・姿勢座標とオペレータ3次元位置・姿勢座標
より前記効果器の実像に対して重ね合わさるように前記
効果器の3次元モデルに変換するビューイング変換手段
と、 センサデータから演算される特徴点データの位置に従っ
て前記マニピュレータを動作させる方向を前記グラフィ
ックスモデルを用いて表示する方向表示手段と、を有す
ることを特徴とする教示装置。 - 【請求項2】 前記方向表示手段は、 シースルー型ディスプレイモニタ上に、前記グラフィッ
クスモデル及びその実映像を単独あるいはオーバレイし
て表示する手段と、 前記ディスプレイモニタにオーバレイした前記3次元グ
ラフィクスモデルを動作させ前記マニピュレータの移動
方向を指示する手段とを含む請求項1記載の教示装置。 - 【請求項3】 教示作業に必要な指示を音声あるいは音
響としてオペレータに提示する手段と、 前記マニピュレータの手先のセンサのセンサデータから
演算される特徴点データに基づいて指示音声あるいは音
響を選択する手段を更に有する請求項1記載の教示装
置。 - 【請求項4】 音声等をヘッドホーンを用いてオペレー
タに提示する手段と、 前記効果器または前記センサ近傍に設置したスピーカに
より提示する手段を含む請求項3記載の教示装置。 - 【請求項5】 音声によりモニタ画面上のウィンドウを
制御する手段と、 音声によりウィンドウ内に表示されている図面を拡大/
縮小する手段と、 音声により教示指示のために音声の出力を制御する手段
を含む請求項4記載の教示装置。 - 【請求項6】 前記マニピュレータ付近に取り付けられ
た一連の光源群を駆動する手段と、 前記センサデータから演算される特徴点データの位置に
基づいて、光源群駆動パターンを決定する手段と、 前記光源群駆動パターンに基づいてLEDにマニピュレ
ータ移動方向を表示させる手段を更に有する請求項1記
載の教示装置。 - 【請求項7】 前記光源群は、LEDである請求項6記
載の教示装置。 - 【請求項8】 前記光源群は、前記効果器、前記センサ
または、それらの近傍に取り付けられる請求項6記載の
教示装置。 - 【請求項9】 前記マニピュレータの前記効果器に取り
付けられたCCDカメラにより作業ワークの局所的情報
をモニタリングする手段と、 前記マニピュレータの前記効果器に取り付けられた複数
の近傍のセンサにより作業ワークと干渉チェックする手
段を更に有する請求項1記載の教示装置。 - 【請求項10】 センサデータのモニタ情報に基づい
て、前記効果器及び前記センサの3次元モデルによるグ
ラフィックス指示、音声による指示、光源群による指示
をマルチモーダルに出力する手段を含む請求項1記載の
教示装置。 - 【請求項11】 前記効果器及び前記センサの3次元モ
デルによるグラフィックス指示、音声による指示、光源
群による指示を同時出力、選択的出力または、グルーピ
ング出力する請求項10記載の教示装置。 - 【請求項12】 与えられた作業仕様及び該作業仕様の
許容値を入力する手段と、 前記マニピュレータの動作範囲に代表される作業システ
ムの制約条件を入力する手段と、 前記マニピュレータに装着された各種センサ情報を入力
する手段と、 前記作業仕様、前記制約条件、前記センサ情報を統合す
る手段と、 統合された情報をマルチモーダルインタフェースを介し
てオペレータに提示する手段を有する請求項1記載の教
示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29286695A JP3409105B2 (ja) | 1995-11-10 | 1995-11-10 | 教示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29286695A JP3409105B2 (ja) | 1995-11-10 | 1995-11-10 | 教示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09131681A JPH09131681A (ja) | 1997-05-20 |
JP3409105B2 true JP3409105B2 (ja) | 2003-05-26 |
Family
ID=17787396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29286695A Expired - Fee Related JP3409105B2 (ja) | 1995-11-10 | 1995-11-10 | 教示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3409105B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3560216B2 (ja) * | 1998-01-08 | 2004-09-02 | 日本電信電話株式会社 | 作業支援装置 |
JP2004180817A (ja) * | 2002-12-02 | 2004-07-02 | National Institute Of Advanced Industrial & Technology | 生体信号を利用した作業支援マニピュレータシステム |
DE10305384A1 (de) * | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
JP5351564B2 (ja) * | 2009-03-05 | 2013-11-27 | 三菱重工業株式会社 | 工作機械のワーク形状測定装置 |
DE112014006931B4 (de) * | 2014-10-01 | 2022-06-09 | Mitsubishi Electric Corporation | Numerische Steuerungsvorrichtung |
DE102015012961B4 (de) * | 2015-10-08 | 2022-05-05 | Kastanienbaum GmbH | Robotersystem |
JP6584488B2 (ja) * | 2017-12-22 | 2019-10-02 | 株式会社牧野フライス製作所 | 工作機械の制御方法および工作機械の制御装置 |
KR102449765B1 (ko) * | 2021-05-26 | 2022-09-29 | 한국로봇융합연구원 | 로봇 매니퓰레이터의 기구학적 정보를 구성하기 위한 장치 및 이를 위한 방법 |
-
1995
- 1995-11-10 JP JP29286695A patent/JP3409105B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09131681A (ja) | 1997-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4167940B2 (ja) | ロボットシステム | |
US11504790B2 (en) | Virtual reality controlled mobile robot | |
US20200078951A1 (en) | Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
EP1435737A1 (en) | An augmented reality system and method | |
JP2005106825A (ja) | 受像装置の位置および方向づけの決定方法および装置 | |
JP3047890B2 (ja) | 溶接ロボット | |
JP2018167334A (ja) | 教示装置および教示方法 | |
KR102452924B1 (ko) | 역각 시각화 장치, 로봇 및 역각 시각화 프로그램 | |
KR20140021354A (ko) | 수중 로봇의 주변 영상 생성 장치 및 수중 로봇의 주변 영상 생성 방법 | |
JP3409105B2 (ja) | 教示装置 | |
US20230219223A1 (en) | Programming device | |
JPH09225872A (ja) | ロボット教示装置 | |
JP2003196681A (ja) | 作業指図システム、作業指図方法及びそれを実現するためのプログラムを格納した記録媒体 | |
JPH1076489A (ja) | ロボットアーム教示方法及び装置 | |
JPS62274404A (ja) | ロボツトのオフライン教示システム | |
JPH1177568A (ja) | 教示支援方法及び装置 | |
JP2020175453A (ja) | 遠隔操作装置 | |
JP3446050B2 (ja) | 教示装置及び教示データ作成方法 | |
Yanagihara et al. | A multi-modal teaching-advisory system using complementary operator and sensor information | |
WO2020203819A1 (ja) | 遠隔操作装置 | |
KR20200069713A (ko) | 용접로봇의 작업 경로 생성방법 | |
WO2023162164A1 (ja) | 教示支援装置、作業システム、教示支援方法および教示支援プログラム | |
JPH02205494A (ja) | マニピュレータ画像追従方法及び装置並びに該装置を備えたマニピュレータ装置 | |
JPH08276388A (ja) | ロボット教示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090320 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |