JPH04217480A - ロボットの動作手順教示装置 - Google Patents

ロボットの動作手順教示装置

Info

Publication number
JPH04217480A
JPH04217480A JP40293490A JP40293490A JPH04217480A JP H04217480 A JPH04217480 A JP H04217480A JP 40293490 A JP40293490 A JP 40293490A JP 40293490 A JP40293490 A JP 40293490A JP H04217480 A JPH04217480 A JP H04217480A
Authority
JP
Japan
Prior art keywords
robot
work
motion
procedure
work space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP40293490A
Other languages
English (en)
Inventor
Yuichi Takahashi
友一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP40293490A priority Critical patent/JPH04217480A/ja
Publication of JPH04217480A publication Critical patent/JPH04217480A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はロボットの動作手順教示
装置に関し、特に、ロボットの操作指示を容易にするた
めに、実際のロボットの作業空間(以後実作業空間と呼
ぶ)を模して計算機ディスプレイ上等にコンピュータグ
ラフィックスにより作られる作業環境(以後仮想作業空
間と呼ぶ)を利用して、実作業空間におけるロボットの
動作手順を作成するロボットの動作手順教示装置に関す
る。
【0002】近年、ロボット技術の発達により、従来人
力で行われていた単純労働、或いは重労働や危険な作業
をロボット作業によって代行することができるようにな
ってきている。ところが、機械的な機構とそれを制御す
る基本的な動作コマンドを持つ制御装置から構成される
ロボットにより作業を行わせるためには、最初にロボッ
トに動作手順を覚え込ませる必要があるので、ロボット
に動作手順を簡単に教示することができる装置が望まれ
ている。
【0003】
【従来の技術】一般に、ロボットに作業をさせるために
必要な情報には、ロボットが操作する部品の大きさや形
等の作業部品のデータと、作業部品の位置や姿勢などの
作業環境データ、および部品を組み立てたり加工するた
めの作業手順がある。
【0004】ロボットを動かす方法としては現在次の以
下の2通りの方法がある。
【0005】 (1)ティーチングボックスなどを使用してロボットの
位置を記録し、その記録された順にロボットを動かすダ
イレクト教示方法 (2)実際の作業空間の位置座標のデータ、動きの手順
をロボット制御言語を用いてプログラムされた手順に従
ってロボットを動かすプログラム教示方法
【0006】
【発明が解決しようとする課題】しかしながら、従来の
ロボットを動かす方法には次のような問題がある。
【0007】(1)ダイレクト教示方法部品データや作
業環境データが整理された状態で、作業手順に対応する
動きの情報を繰り返すだけなので「ネジ締め」作業を指
示するにも、サイズが異なるボルトに対しては再度、新
しく動作点をティーチングボックスで指示し直す手間が
いる。また、実作業空間で教示する必要があるため、作
業内容によっては危険な場所で教示する事になる。また
、教示者が指示する場所と実際のロボットが動作する場
所が離れているマスタスレーブ方式の教示においては、
この作業場所の問題はいくらか対処されているが、マス
タスレーブ間のデータは、操作者の動きを解釈したデー
タでないため、サイズの違いに対する動作点の再教示の
問題は解決されていない。
【0008】(2)プログラム教示方法プログラムのデ
ータとして定義された作業部品データや、実作業空間に
おける作業部品の位置データから、ロボットが衝突しな
いような動きの制御命令を、作業部品を動かす毎に検討
する必要がある。ロボット作業のプログラミングは、本
来の動きのプログラミングのほかにこの様な処理の記述
が多くなり、ロボットプログラミングの一つの障害とな
っている。
【0009】そこで、本発明は、計算機によって作り出
されている仮想作業空間の中で操作者が行う部品の組立
、加工作業を動き認識装置により認識し、部品の性質に
応じたロボットの動き命令に変換する事により、従来の
ロボット教示方法より安全にロボットに動作手順を教示
でき、かつ、プログラム作成の作業量が軽減できる使い
やすいロボットの動作手順教示装置を提供することを目
的とする。
【0010】
【課題を解決するための手段】前記目的を達成する本発
明のロボットの動作手順教示装置は、機械的な機構とそ
れを制御する基本的な動作コマンドを持つ制御装置から
構成されるロボットの動作手順教示装置であって、ロボ
ットが作業する部品の種類や位置等の作業環境のデータ
を格納する作業環境データ格納手段と、ロボットによる
組立や加工作業に使用される部品の形状情報、作業情報
のデータを格納する作業部品データ格納手段と、実際の
ロボットの作業空間を模してディスプレイ等にコンピュ
ータグラフィックスにより仮想作業環境を作る仮想作業
空間作成手段と、仮想作業空間における操作者の3次元
動作を読み取り、動作に応じた命令の種類と仮想作業空
間での3次元位置を記録する動き認識手段と、記録され
た仮想作業空間での命令種類と3次元位置に基づいて、
操作者の手の動きを実作業空間におけるロボットの動作
手順に翻訳するロボット手順変換手段と、翻訳された動
作手順を基に、センサからの実作業空間のデータを用い
て、実作業空間におけるロボットの動作に必要な一連の
動作コマンドを生成する動作コマンド生成手段とを備え
ることを特徴としている。
【0011】
【作用】本発明のロボットの動作手順教示装置では、実
作業空間を模して計算機ディスプレイ等にコンピュータ
グラフィックスにより仮想作業空間が作り出され、この
仮想作業空間において操作者の手の動きが認識され、仮
想作業空間において認識された操作者の手の動きが実作
業空間におけるロボットの動作手順に翻訳され、翻訳さ
れた動作手順を基に、センサからの実作業空間のデータ
を用いて、実作業空間におけるロボットの動作に必要な
一連の動作コマンドが生成されてロボットが動作する。
【0012】
【実施例】以下添付図面を用いて本発明の実施例を詳細
に説明する。
【0013】図1は、本発明のロボットの動作手順教示
装置の一実施例の全体の説明図である。まず、ロボット
10は、ハンド、アーム、関節、3次元移動機構等の機
械的な機構11と、それを制御する基本的な動作コマン
ド(動作パターン表)を持つ動作メモリ12から構成さ
れるものとする。
【0014】図1において、1は組立や加工作業を構成
する部品モデルデータを格納する作業部品データベース
、2は実作業空間を模して計算機ディスプレイ上等にコ
ンピュータグラフィックスにより仮想作業空間を作り出
す計算機、3は操作者の体の動きを測定する動き認識装
置、4は読み取った作業者の体の動きと作業部品データ
ベースに記載されている部品の性質からロボット制御言
語に変換するロボット手順変換装置、5は変換された動
作手順とセンサデータをもとにロボットを制御するロボ
ット制御装置を示している。
【0015】まず、作業部品データベース1について説
明する。作業部品データベース1はロボットによる組立
や加工作業に使用される作業部品の情報を含んでいる。 つまり、CADなどで設計された部品の形状データのほ
かに、部品を操作する時に必要となる部品対応のロボッ
ト運動制御命令のまとまり、例えば、ネジに対してはネ
ジ締め操作、ピンに対してはピン挿入操作に対応する手
順が登録されている。以下に、ネジの部品aに対するデ
ータベースの登録例を示す。この例では、ロボット制御
装置5が使用する動作メモリ12に格納された動作パタ
ーン表の#nにこのネジに対するネジ締め動作モジュー
ルが格納されている事を示している。
【0016】     〔ねじ部品a:(分類      ねじ)  
                (ねじ種類  JI
S××番(Tr40×7LH))          
        (ねじ径    六角ボルト)   
               (締め命令  動作パ
ターン#n番)〕ここで、仮想作業空間について説明す
る。この仮想作業空間は、ロボット10が作業する部品
の種類や位置などの作業環境のデータと作業部品データ
ベースに記載されている形状データから、コンピュータ
グラフィックスにより作り出された仮想空間である。こ
の仮想作業空間で部品を移動させる事は、実作業空間に
おいてロボットに部品の移動をさせることに等しい。図
2に、仮想作業空間における手順の教示例を示す。この
例では、下に見える操作者の手Hが、仮想作業空間の右
側にあるネジ21を掴み、左側にあるネジ穴22の位置
(X9,Y9,Z9 )で放す動作を行う。
【0017】次に、動き認識装置3について説明する。 ロボット10が加工や組立作業をするための基本的な動
作は、指定された場所に動く命令(Move)、物を掴
むなどのための命令(Close)と、物を離すなどの
ための命令(Open)などに限られている。これらの
基本的な動作に対応する、仮想作業空間で操作者が物を
掴む、物を運ぶ、物を置くなどの動作を読み取り、命令
の種類(Move,Close,Openなど)と仮想
作業空間での3次元位置を記録する。図2の仮想作業空
間における手Hの動き対して、動き認識装置3により読
み取られた基本動作の例を以下に示す。
【0018】 (Move  (X1,Y1,Z1 ))(Move 
 (X2,Y2,Z2 ))(Close(X3,Y3
,Z3 ))(Move  (X4,Y4,Z4 ))
(Close(X5,Y5,Z5 ))(Move  
(X6,Y6,Z6 ))(Open  (X7,Y7
,Z7 ))(Move  (X8,Y8,Z8 ))
(Open  (X9,Y9,Z9 ))(Move 
 (X1,Y1,Z1 ))この操作者の手Hの動作を
記録し、内部にもつ動き辞書に従ってコード化する方法
は、手の形のコード化方法と認識方法とそれを用いた計
算機のインタフェースの方法として発表されているもの
を使用する。この方法は、「手動作認識装置と手話言語
変換装置」(特公平2−1144675 号公報参照)
 に示されている。
【0019】次に、ロボット手順変換装置4について説
明する。動き認識装置3により記録された(命令種類、
3次元位置)の順序は、図3に示すようにすべての命令
の種類(Move,Close,Openなど)に遷移
できる。この遷移の中にはClose命令の後に更にC
lose命令が続くといった無駄な命令も含まれる。ロ
ボットの操作命令の遷移にはこのような無駄はなく、図
4または図5に示すように命令の順序はどちらかになる
。この様なロボット作業の特徴を基に以下に示すような
操作者によって追加、修正できる規則に従って余分の動
きをなくす。
【0020】・Close,Open命令までの一連の
Move命令は、途中で他の部品と衝突しなければ、1
つにまとめる。
【0021】・Close(Open)命令がMove
命令を挟んで連続する時は、最後の命令にまとめる。
【0022】・Close命令に対しては、予め設定さ
れた範囲内で記録された3次元位置の最近傍にある部品
を掴む動作と解釈する。
【0023】・設定された範囲内に部品がない時は、該
当Close命令と直後のMove命令を削除する。
【0024】・更に、作業部品データベースを利用して
、部品にあったロボット制御コマンドを生成する。
【0025】・Open命令に対しては、次のMove
命令の間に現在、掴んでいる部品に対し、作業部品デー
タベースに登録されている制御命令の,まとまりを追加
する。
【0026】前述の動き認識結果に対して、ロボット手
順変換装置4でこのような余分の動きをなくす修正を行
って変換された出力例を以下に示す。
【0027】 (Move  (X4,Y4,Z4 ))(Close
(X5,Y5,Z5 ))(Move  (X8,Y8
,Z8 ))(動作パターン  #n) (Move  (X1,Y1,Z1 ))ここで、(X
5,Y5,Z5 )はネジ21に対して設定された範囲
内のため、命令、 (Close(X5,Y5,Z5 ))はネジ21を掴
む動作と解釈される。また、命令、(Open  (X
9,Y9,Z9 ))は図1に示すある部品24のネジ
穴22の1つに対して設定された範囲内のため、現在、
持っているネジ21をネジ穴22に締める作業と解釈さ
れ、 (Open  (X9,Y9,Z9 ))の代わりにネ
ジ締め作業に対応する動作パターン#nが作成される。
【0028】このように、ロボット手順変換装置4では
、動き認識装置3により読み取られた人の動きを単純に
並べただけの手順から、余分な動きをなくした操作手順
列が作成される。また、同じ動き対しても作業の対照と
する部品の作業部品データベース1の登録情報に応じて
、異なる操作手順が作成される。
【0029】最後に、ロボット制御装置5について説明
する。ロボット制御装置5は、ロボット手順変換装置4
において手順変換された制御命令のまとまりを、ロボッ
ト10の制御装置12に登録されている動作パターンと
照合しながらロボットを動かす。このとき、ロボット操
作手順に対して予め定義してあるセンサの使用方法、セ
ンサの値に応じたロボット動作を実行する。この方法は
、動作パターンを用いたロボット動作の教示、センサ情
報を活用したロボット制御方法として既に発表されてい
る「簡易ロボット教示装置」(特願平2−230525
号参照)を使用することができる。
【0030】以上のように、本発明のロボットの動作手
順教示装置は、操作者が実作業空間でティーチングボッ
クスを用いて動作点列を教示したり、ロボットプログラ
ミング言語を学習しプログラミングしなくても、計算機
によって作り出される仮想作業空間において、仮想の部
品を組み立てるなどの動きをするだけでロボットが作業
するのに必要な制御命令が自動作成される点が従来のロ
ボット教示の方法とは異なる。そして、ロボットにさせ
る作業環境を模し、計算機で作成される仮想作業空間で
操作者が部品を移動させる事で、ロボットに教えたい作
業手順を教示できるので、ティーチングボックスや制御
プログラムなどのロボット固有の操作方法に習熟しなく
てもロボット操作が可能になる。さらに、仮想作業空間
での教示には操作者に危険はなく、動作点のほかに部品
データベースの情報と併せることで、より多くのロボッ
ト動作に変換できる。
【0031】
【発明の効果】以上説明したように本発明によれば、計
算機によって作り出されている仮想作業空間の中で操作
者が行う部品の組立、加工作業を動き認識装置により認
識し、部品の性質に応じたロボットの動き命令に変換す
る事により、従来のロボット教示方法より安全にロボッ
トに動作手順を教示でき、かつ、プログラム作成の作業
量が軽減できるという効果がある。
【図面の簡単な説明】
【図1】本発明のロボットの動作手順教示装置の一実施
例の構成を示す図である。
【図2】仮想作業空間での教示例を示す説明図である。
【図3】動き認識装置におけるコマンド遷移を示す図で
ある。
【図4】ロボット手順装置におけるコマンド遷移を示す
図である。
【図5】ロボット手順装置におけるコマンド遷移を示す
図である。
【符号の説明】
1  作業部品データベース 2  計算機 3  動き認識装置 4  ロボット手順変換装置 5  ロボット制御装置 10  ロボット 12  動作メモリ

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】  機械的な機構とそれを制御する基本的
    な動作コマンドを持つ制御装置から構成されるロボット
    の動作手順教示装置であって、ロボットが作業する部品
    の種類や位置等の作業環境のデータを格納する作業環境
    データ格納手段と、ロボットによる組立や加工作業に使
    用される部品の形状情報、作業情報のデータを格納する
    作業部品データ格納手段と、実際のロボットの作業空間
    を模してディスプレイ等にコンピュータグラフィックス
    により仮想作業環境を作る仮想作業空間作成手段と、仮
    想作業空間における操作者の3次元動作を読み取り、動
    作に応じた命令の種類と仮想作業空間での3次元位置を
    記録する動き認識手段と、記録された仮想作業空間での
    命令種類と3次元位置に基づいて、操作者の手の動きを
    実作業空間におけるロボットの動作手順に翻訳するロボ
    ット手順変換手段と、翻訳された動作手順を基に、セン
    サからの実作業空間のデータを用いて、実作業空間にお
    けるロボットの動作に必要な一連の動作コマンドを生成
    する動作コマンド生成手段と、を備えることを特徴とす
    るロボットの動作手順教示装置。
JP40293490A 1990-12-17 1990-12-17 ロボットの動作手順教示装置 Pending JPH04217480A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP40293490A JPH04217480A (ja) 1990-12-17 1990-12-17 ロボットの動作手順教示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP40293490A JPH04217480A (ja) 1990-12-17 1990-12-17 ロボットの動作手順教示装置

Publications (1)

Publication Number Publication Date
JPH04217480A true JPH04217480A (ja) 1992-08-07

Family

ID=18512698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP40293490A Pending JPH04217480A (ja) 1990-12-17 1990-12-17 ロボットの動作手順教示装置

Country Status (1)

Country Link
JP (1) JPH04217480A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314527A (ja) * 1995-05-22 1996-11-29 Ricoh Elemex Corp ロボットの動作教示システム
JP2010049322A (ja) * 2008-08-19 2010-03-04 Denso Wave Inc シミュレーション装置の画像データ生成装置
JP2012123846A (ja) * 2012-03-27 2012-06-28 Denso Wave Inc シミュレーション装置の画像データ生成装置
JP2012123847A (ja) * 2012-03-27 2012-06-28 Denso Wave Inc シミュレーション装置の画像データ生成装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314527A (ja) * 1995-05-22 1996-11-29 Ricoh Elemex Corp ロボットの動作教示システム
JP2010049322A (ja) * 2008-08-19 2010-03-04 Denso Wave Inc シミュレーション装置の画像データ生成装置
JP2012123846A (ja) * 2012-03-27 2012-06-28 Denso Wave Inc シミュレーション装置の画像データ生成装置
JP2012123847A (ja) * 2012-03-27 2012-06-28 Denso Wave Inc シミュレーション装置の画像データ生成装置

Similar Documents

Publication Publication Date Title
US5511147A (en) Graphical interface for robot
Miner et al. An interactive virtual reality simulation system for robot control and operator training
Onda et al. Assembly motion teaching system using position/force simulator-extracting a sequence of contact state transition
JPS6179589A (ja) ロボツト運転装置
Zhang et al. Interactive assembly by a two-arm robot agent
Michas et al. Interactive programming of industrial robots for edge tracing using a virtual reality gaming environment
JPH04217480A (ja) ロボットの動作手順教示装置
Myers et al. Automated programming of an industrial robot through teach-by showing
Pickett et al. RoboTeach: An off-line robot programming system based on GMSolid
Marín et al. A predictive interface based on virtual and augmented reality for task specification in a Web telerobotic system
Pai et al. INEFFABELLE-An environment for interactive computer graphic simulation of robotic applications
Myers An approach to automated programming of industrial robots
JPH01131904A (ja) ロボット操作支援システム
Sun et al. Direct virtual-hand interface in robot assembly programming
JPS62208103A (ja) ロボツト運動制御システム
JP2955654B2 (ja) マニピュレータ作業教示装置
Doshi et al. Simulation and implementation of calligraphic writing using ABB 1410 industrial manipulator
JP2658492B2 (ja) ロボットの作業教示方法
JP4074151B2 (ja) ロボットの制御方法及び装置並びにプログラム及び記録媒体
Al-Khalidy et al. Interactive Manipulator Arm
Kazi et al. Multimodally controlled intelligent assistive robot
Christensen Virtual environments for telerobotic shared control
Matsumura et al. A man-machine interface with verbal communication: command with demonstrative pronoun
Manseur Modeling and visualization of robotic arms
Asthana et al. Advanced Journal of Ai & Robotics