JPS59229619A - ロボツトの作業教示システムおよびその使用方法 - Google Patents
ロボツトの作業教示システムおよびその使用方法Info
- Publication number
- JPS59229619A JPS59229619A JP10259683A JP10259683A JPS59229619A JP S59229619 A JPS59229619 A JP S59229619A JP 10259683 A JP10259683 A JP 10259683A JP 10259683 A JP10259683 A JP 10259683A JP S59229619 A JPS59229619 A JP S59229619A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- block
- work
- command
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4069—Simulating machining process on screen
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35287—Verify, check program by drawing, display part, testpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36417—Programmed coarse position, fine position by alignment, follow line, path adaptive
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37572—Camera, tv, vision
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明はロボットに作業を教示するシステムに係シ、視
覚などの高度な感覚を持ったロボットを〔発明の背景〕 従来、ロボットに作業を教示する場合、実際のロボット
を使い、ロボットの動きを人間の目で確認しながら作業
を教示していた。ところが、ロボットに周囲の状況や作
業の内容に応じた知能的な動作をさせるためには、プロ
グラムによって制御することが必要となる。このために
ロボット言語の研究が行なわれている。ロボット言語で
書かれたプログラムを、実際のロボットにかけると、プ
ログラムミス等のために、ロボットが暴走し機械や加工
物を破損する場合が出てくる。このため、ロボットの動
作をチェックするシミュレータが必要不可欠である。こ
れに対して、ロボットのモデルを計算機の中に作シ、そ
れをグラフィック上に表示して、人間がグラフィック上
でロボット動作の確認を行なう方法の研究がなされてい
る。ところが、グラフィック上(計算機上)では、ロボ
ットモデルの精度、個々のロボットの個体差(ガタ)等
のため、微小なずれのチェックは困難であり、適用範囲
も限定されるという問題があった。
覚などの高度な感覚を持ったロボットを〔発明の背景〕 従来、ロボットに作業を教示する場合、実際のロボット
を使い、ロボットの動きを人間の目で確認しながら作業
を教示していた。ところが、ロボットに周囲の状況や作
業の内容に応じた知能的な動作をさせるためには、プロ
グラムによって制御することが必要となる。このために
ロボット言語の研究が行なわれている。ロボット言語で
書かれたプログラムを、実際のロボットにかけると、プ
ログラムミス等のために、ロボットが暴走し機械や加工
物を破損する場合が出てくる。このため、ロボットの動
作をチェックするシミュレータが必要不可欠である。こ
れに対して、ロボットのモデルを計算機の中に作シ、そ
れをグラフィック上に表示して、人間がグラフィック上
でロボット動作の確認を行なう方法の研究がなされてい
る。ところが、グラフィック上(計算機上)では、ロボ
ットモデルの精度、個々のロボットの個体差(ガタ)等
のため、微小なずれのチェックは困難であり、適用範囲
も限定されるという問題があった。
本発明の目的は、ロボットに周囲の状況や作業の自答に
応じた知能的な作業を、短期間にかつ安〔発明の概要〕 ロボット言語でロボットの高度な作業を記述し、加工物
の位itのズレ、ロボット個体差(ガタ)等に対する微
調整を視覚をもとに行なうロボットにおいて、作業手順
、干渉などのマクロなチェックを、3次元ロボット7ミ
ユレータを用いてロボットの動作をグラフィック上に表
示し人間に行なわせる作業教示システムである。
応じた知能的な作業を、短期間にかつ安〔発明の概要〕 ロボット言語でロボットの高度な作業を記述し、加工物
の位itのズレ、ロボット個体差(ガタ)等に対する微
調整を視覚をもとに行なうロボットにおいて、作業手順
、干渉などのマクロなチェックを、3次元ロボット7ミ
ユレータを用いてロボットの動作をグラフィック上に表
示し人間に行なわせる作業教示システムである。
以下、本発明を実施例によシ説明する。第1図に示すよ
うに、本発明のロボット作業教示システムは7つの部分
、すなわち、ロボット本体1、制御装置f2、テレビカ
メラ3、画像処理装量4、ディスプレイ5、グラフィッ
ク処理装置6、オペレータ7から成る。
うに、本発明のロボット作業教示システムは7つの部分
、すなわち、ロボット本体1、制御装置f2、テレビカ
メラ3、画像処理装量4、ディスプレイ5、グラフィッ
ク処理装置6、オペレータ7から成る。
本発明を、ロボット1で部品8を組立てる作業に適用し
た場合について、第2図を用いて説明する。第2図は、
本発明のソフトウェア構造を示したもので、4角の箱は
データを示し、楕円は処理を示す(特に人間の処理を破
線で表わす)。オペレータ20は、ブロック10で作業
の要求仕様9をもとにロボット言語によシ、ロボットの
作業手順と作業環境(ブロック11)を記述する。ブロ
ック12では、ブロック11のデータをもとにして前処
理をし、環境モデル(ブロック13)とロボット動作指
令(ブロック14)を出力する。
た場合について、第2図を用いて説明する。第2図は、
本発明のソフトウェア構造を示したもので、4角の箱は
データを示し、楕円は処理を示す(特に人間の処理を破
線で表わす)。オペレータ20は、ブロック10で作業
の要求仕様9をもとにロボット言語によシ、ロボットの
作業手順と作業環境(ブロック11)を記述する。ブロ
ック12では、ブロック11のデータをもとにして前処
理をし、環境モデル(ブロック13)とロボット動作指
令(ブロック14)を出力する。
ブロック15は、ブロック14とブロック15のロボッ
ト・カイネマティック・モデルのデータを使って、ロボ
ットの動きをシミュレートし、ロボット動作データ(ブ
ロック17)を出力する。
ト・カイネマティック・モデルのデータを使って、ロボ
ットの動きをシミュレートし、ロボット動作データ(ブ
ロック17)を出力する。
ブロック18は、ブロック13とブロック17のデータ
をもとに、ロボットの3次元動作のアニメーションをデ
ィスプレイ19に表示する。オペレータ20は、ディス
プレイ19に表示されたロボットの動きを見ながら、ロ
ボット動作手順、ロボット、設備、加工物間の干渉をチ
ェックする。
をもとに、ロボットの3次元動作のアニメーションをデ
ィスプレイ19に表示する。オペレータ20は、ディス
プレイ19に表示されたロボットの動きを見ながら、ロ
ボット動作手順、ロボット、設備、加工物間の干渉をチ
ェックする。
オペレータ20は、ディスプレイ19に表示する3次ロ
ボット動作に対する視点の位・tを変換することで、容
易に、干渉チェックを行なうことができる。異常があれ
ば、ブロック21で、ブロック11を・條正し、再度、
ブロック12、ブロック15、ブロック18を繰り返す
。
ボット動作に対する視点の位・tを変換することで、容
易に、干渉チェックを行なうことができる。異常があれ
ば、ブロック21で、ブロック11を・條正し、再度、
ブロック12、ブロック15、ブロック18を繰り返す
。
異常がないことが確認されれば、ブロック22に移る。
ブロック22は、確認されたロボット動作データ(ブロ
ック17)を1111RAIコマンド(ブロック23)
に変換する。ブロック24は、ブロック23にもとづい
て、実際のロボット25を動かす。
ック17)を1111RAIコマンド(ブロック23)
に変換する。ブロック24は、ブロック23にもとづい
て、実際のロボット25を動かす。
ロボット25が部品8iつかむ時などの微調整は、次の
ようにして行なう。まずロボット25に取りつけである
テレビカメラ26を通して得られる画像情報(ブロック
29)をブロック30で処理し、つかみ位置を補正した
センサ情報(ブロン1)、2) 。
ようにして行なう。まずロボット25に取りつけである
テレビカメラ26を通して得られる画像情報(ブロック
29)をブロック30で処理し、つかみ位置を補正した
センサ情報(ブロン1)、2) 。
り27)として出力する 。フロック28は、ロボッ
ト25とブロック3oから得られるセンサ情報(ブロッ
ク27)をもとに、制御計算を行ない、微調整の制御コ
マンド(ブロック23)を出3) 力する 。ブロック24は、ブロック23のデータをも
とにロボット25を制御する。
ト25とブロック3oから得られるセンサ情報(ブロッ
ク27)をもとに、制御計算を行ない、微調整の制御コ
マンド(ブロック23)を出3) 力する 。ブロック24は、ブロック23のデータをも
とにロボット25を制御する。
参考文献
1)辻三部:産業用ロボットの視覚とその応用、電気学
会誌、 Vol 、 100.46 (1980)。
会誌、 Vol 、 100.46 (1980)。
2)日本の最近技術シリーズ:ロボット技術百科。
日刊工業新聞社(1982)。
3)高瀬国克:ロボットのプログラミングと教示とサー
ボ、電気学会誌T 、VOI 、100 * A 6(
1980)。
ボ、電気学会誌T 、VOI 、100 * A 6(
1980)。
次に、本発明の中心をなす、ロボット言語で記述された
マクロな作業データ11とロボット視覚にもとづく微調
整との機能分担について述べる。
マクロな作業データ11とロボット視覚にもとづく微調
整との機能分担について述べる。
例として、部品8を組立てる作業について説明する。ま
ず、第3図のように作業プログラムを記述する。ここで
は、部品8の正確な位置を記述する必要はない。
ず、第3図のように作業プログラムを記述する。ここで
は、部品8の正確な位置を記述する必要はない。
ブロック31はタイプAの部品8がある台の中心上10
0叫上に移動する命令である。ブロック32は、カメラ
による画像を入力する命令でちる。
0叫上に移動する命令である。ブロック32は、カメラ
による画像を入力する命令でちる。
ブロック33は、画像処理装置4によシ、部品8とロボ
ット1との相対座標を計算する命令である。
ット1との相対座標を計算する命令である。
この命令が出されると、画像処理装置4は、第4図の処
理を行なう。ブロック51で、部品の画像を2直画像に
変換する。ブロック52は、この画像とすでにその部品
8に対して登録済の部品画像トノパターン・マツチング
を行ない、ズレt−計算する。ブロック53は、現在の
カメラ位置から、部品8のつかみ位置とロボット10手
先との相対位置を計算する。ブロック53は、この相対
位置を出力する。
理を行なう。ブロック51で、部品の画像を2直画像に
変換する。ブロック52は、この画像とすでにその部品
8に対して登録済の部品画像トノパターン・マツチング
を行ない、ズレt−計算する。ブロック53は、現在の
カメラ位置から、部品8のつかみ位置とロボット10手
先との相対位置を計算する。ブロック53は、この相対
位置を出力する。
ブロック34は、つかみ位置30閣上へ手先を移動する
命令である。この命令は、つかみ位置まで移動するとき
のロボット1の振動を防ぐためのものである。ブロック
35は、つかみ位置へ移動する命令である。ブロック3
6は、部品8をつかむ命令である。ブロック37は、部
品8f:つかんだあと100間上へ移動する命令である
。
命令である。この命令は、つかみ位置まで移動するとき
のロボット1の振動を防ぐためのものである。ブロック
35は、つかみ位置へ移動する命令である。ブロック3
6は、部品8をつかむ命令である。ブロック37は、部
品8f:つかんだあと100間上へ移動する命令である
。
ブロック38は、部品組立のもう一方の部品8′のある
台の中心上100+amに移動する命令である。
台の中心上100+amに移動する命令である。
ブロック39〜ブロツク42はブロック32〜35と同
じ動作をする命令である。ブロック43は、つかんでい
る部品8を卸すための命令である。
じ動作をする命令である。ブロック43は、つかんでい
る部品8を卸すための命令である。
ブロック44は、部品8を卸したあと、100+m上へ
移動する命令である。
移動する命令である。
以上、述べた命令データ11をブロック12は前処理を
し、ロボットの動きのシミュレータ15と18にかけて
、オペレータ20がチェックする。
し、ロボットの動きのシミュレータ15と18にかけて
、オペレータ20がチェックする。
オペレータ20は、ディスプレイ19で表示されるロボ
ット作業の手+1[と、マクロな位置データ。
ット作業の手+1[と、マクロな位置データ。
干渉などをチェックする。ディスプレイ19上では、正
確な位置のチェックは困難である。仮に、できたとして
も、実機では、ロボット1の個体性(ガタ)や部品8の
位置ズレ等のため、部品8とロボット1の手先との相対
座標は異なるためである(実際のロボット1ごとに人間
が直接教示する場合には、この問題はなくなる)。
確な位置のチェックは困難である。仮に、できたとして
も、実機では、ロボット1の個体性(ガタ)や部品8の
位置ズレ等のため、部品8とロボット1の手先との相対
座標は異なるためである(実際のロボット1ごとに人間
が直接教示する場合には、この問題はなくなる)。
ロボット10作業手順等のチェックが済み、異常がない
ことが確認されれば、ブロック17は制御コマンド23
に変換される。制御器24は、制御コマンド23によシ
、ロボット1や画像処理装置4を制御する。例えば、ブ
ロック31の命令では、ロボット1の手先を部品8の置
いである台の中心上100mmに移動させる。この時に
は、まだ部品8とロボット1の手先との相対座標は決め
られていない。ブロック32.33の命令は、画像処理
装置4を制御する。ブロック32は、カメラ3の現在写
っている画像を画像処理装置4内に取シ込む。ブロック
33は、画像処理装置4で、ブロック51からブロック
54の処理をして、部品8とロボット1の手先との相対
座標を求め、制御装置t2に出力する。制御装置2はこ
の座標データをもとに、ブロック34で、正確につかみ
位置30m+上へ手先を移動する。この場合、ロボット
3次元シミュレータ18でシミュレーションシタ場合と
実際のロボットの場合ではロボット1の手先と部品8と
の相対座標は異なつ工いるかもしれないが、ブロック3
4で補正するため問題はない。
ことが確認されれば、ブロック17は制御コマンド23
に変換される。制御器24は、制御コマンド23によシ
、ロボット1や画像処理装置4を制御する。例えば、ブ
ロック31の命令では、ロボット1の手先を部品8の置
いである台の中心上100mmに移動させる。この時に
は、まだ部品8とロボット1の手先との相対座標は決め
られていない。ブロック32.33の命令は、画像処理
装置4を制御する。ブロック32は、カメラ3の現在写
っている画像を画像処理装置4内に取シ込む。ブロック
33は、画像処理装置4で、ブロック51からブロック
54の処理をして、部品8とロボット1の手先との相対
座標を求め、制御装置t2に出力する。制御装置2はこ
の座標データをもとに、ブロック34で、正確につかみ
位置30m+上へ手先を移動する。この場合、ロボット
3次元シミュレータ18でシミュレーションシタ場合と
実際のロボットの場合ではロボット1の手先と部品8と
の相対座標は異なつ工いるかもしれないが、ブロック3
4で補正するため問題はない。
本発明によれば、実際のロボットを更わずに作業の教示
を行なうことができるので、教示のために生産ラインを
停止しなくてよい、プログラムミスのために生じるロボ
ットの暴走を回避できるなどの効果がある。また、教示
したデータは複数台のロボットを動かすことができるの
で、教示作業の時間を少なくすることができる。
を行なうことができるので、教示のために生産ラインを
停止しなくてよい、プログラムミスのために生じるロボ
ットの暴走を回避できるなどの効果がある。また、教示
したデータは複数台のロボットを動かすことができるの
で、教示作業の時間を少なくすることができる。
第1図は本発明におけるロボットの作業教示システムの
構成を示す概念図、第2図は本発明におけるソフト構成
を示すブロック図、第3図は本発明における部品組立の
作業手順を示すフローチャート、第4図は本発明におけ
る画像処理による部品とロボット手先との相対座標を計
算するためのフロー図である。 1・・・ロボット木本、2・・・制御装置、3・・・テ
レビカメラ、4・・・画像処理装置、5・・・ディスプ
レイ、6・・・グラフィック処理装置、7・・・オペレ
ータ、18第 1 口 ′fI 3 図 第 4 図 第1頁の続き 0発 明 者 新香定則 川崎市麻生区王禅寺1099番地株 式会社日立製作所システム開発 研究所内 115−
構成を示す概念図、第2図は本発明におけるソフト構成
を示すブロック図、第3図は本発明における部品組立の
作業手順を示すフローチャート、第4図は本発明におけ
る画像処理による部品とロボット手先との相対座標を計
算するためのフロー図である。 1・・・ロボット木本、2・・・制御装置、3・・・テ
レビカメラ、4・・・画像処理装置、5・・・ディスプ
レイ、6・・・グラフィック処理装置、7・・・オペレ
ータ、18第 1 口 ′fI 3 図 第 4 図 第1頁の続き 0発 明 者 新香定則 川崎市麻生区王禅寺1099番地株 式会社日立製作所システム開発 研究所内 115−
Claims (1)
- 1.ロボット視覚によシ微細動作を行う手段と、ロボッ
トの動作を制御する計算機システムトマクロ的動作を教
示するための3次元ロボットシミュレータとその動きを
表示するグラフィックシステムを有することを特徴とす
るロボットの作業教示システム。 2、ロボット動作指令データと作業環境データに変換す
るステップと、ロボット3次元動作シミュレーションを
行ないグラフィック上に該ロボットの3次元動作を表示
するステップと、該動作が問題なくなるまでロボット動
作データをロボット制御コマンドに変換し、ロボットの
作業手順を制御するステップと画像情報tαに微調整を
行なうステップを有することを特徴とする吾+妥冊燈う
ロボットの作業教示システムの使用方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10259683A JPS59229619A (ja) | 1983-06-10 | 1983-06-10 | ロボツトの作業教示システムおよびその使用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10259683A JPS59229619A (ja) | 1983-06-10 | 1983-06-10 | ロボツトの作業教示システムおよびその使用方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS59229619A true JPS59229619A (ja) | 1984-12-24 |
Family
ID=14331614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10259683A Pending JPS59229619A (ja) | 1983-06-10 | 1983-06-10 | ロボツトの作業教示システムおよびその使用方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS59229619A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS621005A (ja) * | 1985-06-27 | 1987-01-07 | Amada Co Ltd | ロボツトの教示方法 |
JPS62165212A (ja) * | 1986-01-17 | 1987-07-21 | Agency Of Ind Science & Technol | ロボツト作業教示システム |
JPS62165213A (ja) * | 1986-01-17 | 1987-07-21 | Agency Of Ind Science & Technol | 作業環境教示装置 |
JPS62226203A (ja) * | 1986-03-27 | 1987-10-05 | Kobe Steel Ltd | ロボツトのオフライン教示システム |
JPS62274308A (ja) * | 1986-05-22 | 1987-11-28 | Kobe Steel Ltd | ロボツトのオフライン教示方法 |
JPS6394307A (ja) * | 1986-10-09 | 1988-04-25 | Mitsubishi Heavy Ind Ltd | ロボツトア−ムの動作シミユレ−タ装置 |
JPS63255706A (ja) * | 1987-04-14 | 1988-10-24 | Fanuc Ltd | ビジヨンシステムのプログラム作成方法 |
JPS63273908A (ja) * | 1987-05-06 | 1988-11-11 | Honda Motor Co Ltd | 産業用ロボットのティ−チングデ−タ作成システム |
JPH01111208A (ja) * | 1987-10-26 | 1989-04-27 | Hitachi Ltd | ロボット教示装置 |
WO1991010179A1 (en) * | 1989-12-26 | 1991-07-11 | Fanuc Ltd | Display system of numerical controller |
JPH07132475A (ja) * | 1993-11-09 | 1995-05-23 | Matsushita Electric Ind Co Ltd | ロボット位置教示装置 |
JPH0985655A (ja) * | 1995-09-18 | 1997-03-31 | Fanuc Ltd | ロボット教示操作盤 |
JP2006142480A (ja) * | 2006-02-23 | 2006-06-08 | Fanuc Ltd | ロボット教示操作盤 |
CN106003033A (zh) * | 2016-06-16 | 2016-10-12 | 哈尔滨工程大学 | 一种具有力控制的六自由度机械臂标准汉字书写方法 |
-
1983
- 1983-06-10 JP JP10259683A patent/JPS59229619A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS621005A (ja) * | 1985-06-27 | 1987-01-07 | Amada Co Ltd | ロボツトの教示方法 |
JPS62165212A (ja) * | 1986-01-17 | 1987-07-21 | Agency Of Ind Science & Technol | ロボツト作業教示システム |
JPS62165213A (ja) * | 1986-01-17 | 1987-07-21 | Agency Of Ind Science & Technol | 作業環境教示装置 |
JPS62226203A (ja) * | 1986-03-27 | 1987-10-05 | Kobe Steel Ltd | ロボツトのオフライン教示システム |
JPS62274308A (ja) * | 1986-05-22 | 1987-11-28 | Kobe Steel Ltd | ロボツトのオフライン教示方法 |
JPS6394307A (ja) * | 1986-10-09 | 1988-04-25 | Mitsubishi Heavy Ind Ltd | ロボツトア−ムの動作シミユレ−タ装置 |
JPS63255706A (ja) * | 1987-04-14 | 1988-10-24 | Fanuc Ltd | ビジヨンシステムのプログラム作成方法 |
JPS63273908A (ja) * | 1987-05-06 | 1988-11-11 | Honda Motor Co Ltd | 産業用ロボットのティ−チングデ−タ作成システム |
JPH01111208A (ja) * | 1987-10-26 | 1989-04-27 | Hitachi Ltd | ロボット教示装置 |
WO1991010179A1 (en) * | 1989-12-26 | 1991-07-11 | Fanuc Ltd | Display system of numerical controller |
JPH07132475A (ja) * | 1993-11-09 | 1995-05-23 | Matsushita Electric Ind Co Ltd | ロボット位置教示装置 |
JPH0985655A (ja) * | 1995-09-18 | 1997-03-31 | Fanuc Ltd | ロボット教示操作盤 |
JP2006142480A (ja) * | 2006-02-23 | 2006-06-08 | Fanuc Ltd | ロボット教示操作盤 |
CN106003033A (zh) * | 2016-06-16 | 2016-10-12 | 哈尔滨工程大学 | 一种具有力控制的六自由度机械臂标准汉字书写方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110573308B (zh) | 用于机器人设备的空间编程的基于计算机的方法及系统 | |
Pan et al. | Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device | |
EP1769891B1 (en) | Offline teaching apparatus for robot | |
US20060025890A1 (en) | Processing program generating device | |
JPS59229619A (ja) | ロボツトの作業教示システムおよびその使用方法 | |
JP6669715B2 (ja) | 振動抑制装置 | |
CN108687767B (zh) | 离线编程装置以及离线编程方法 | |
CN104002297A (zh) | 示教系统、示教方法及机器人系统 | |
DE102018112403A1 (de) | Robotersystem, das informationen zur unterweisung eines roboters anzeigt | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JP2018001393A (ja) | ロボット装置、ロボット制御方法、プログラム及び記録媒体 | |
US10507585B2 (en) | Robot system that displays speed | |
JPS6179589A (ja) | ロボツト運転装置 | |
CN114800523B (zh) | 机械臂轨迹修正方法、系统、计算机及可读存储介质 | |
JPH11338532A (ja) | 教示装置 | |
JP2007136671A (ja) | ロボットプログラム評価・修正方法及びロボットプログラム評価・修正装置 | |
JPS6097409A (ja) | ロボツトの動作教示法 | |
JPH07328968A (ja) | ロボット装置 | |
Foit | Mixed reality as a tool supporting programming of the robot | |
Aksu et al. | Virtual experimental investigation for industrial robotics in gazebo environment | |
RU2813444C1 (ru) | Система взаимодействия человек-робот на основе смешанной реальности | |
WO2022181500A1 (ja) | 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置 | |
JPH01111208A (ja) | ロボット教示装置 | |
JPH03287394A (ja) | 遠隔ハンドリング装置 | |
Mazlan et al. | Robot arm system based on augmented reality approach |