JP2005148789A - 音声入力によるロボット教示プログラム編集装置 - Google Patents

音声入力によるロボット教示プログラム編集装置 Download PDF

Info

Publication number
JP2005148789A
JP2005148789A JP2003380698A JP2003380698A JP2005148789A JP 2005148789 A JP2005148789 A JP 2005148789A JP 2003380698 A JP2003380698 A JP 2003380698A JP 2003380698 A JP2003380698 A JP 2003380698A JP 2005148789 A JP2005148789 A JP 2005148789A
Authority
JP
Japan
Prior art keywords
robot
character string
command
program
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003380698A
Other languages
English (en)
Inventor
Atsushi Watanabe
淳 渡邉
Yoshiharu Nagatsuka
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2003380698A priority Critical patent/JP2005148789A/ja
Priority to DE602004009264T priority patent/DE602004009264T2/de
Priority to EP04256831A priority patent/EP1531375B1/en
Priority to US10/983,717 priority patent/US7430457B2/en
Publication of JP2005148789A publication Critical patent/JP2005148789A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39441Voice command, camera detects object, grasp, move

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】 ロボットシステムの動作等を音声入力できるプログラム編集装置。
【解決手段】 ワークセル中の配置物体を表わす文字列候補、可変部を持つロボット作業指示の雛形、各配置物体に関連するロボット指令を予め定義しておく。『物体・・はどれ?』等の質問を音声入力し、該当物体を表示色等で応答させてワークセル確認を行なう。作業指示の雛形、編集対象プログラムを表示させ、編集希望箇所を選択する。雛形の文型に即して作業指示を音声入力すると、各雛形の各可変部への文字列候補あてはめを行い、音声認識された文章と一致する完成文章を探し出し、各物体に定義されたロボット動作指令を表示し、画面上でロボット動作を表示する。希望箇所にロボット動作指令をエントリすることができる。物体に関連して予め定義されたサブルーチン等を加入させる編集も可能である。
【選択図】 図3

Description

本発明は、ロボットシステムのための教示プログラムの編集に使用することができるプログラム編集装置に関する。
ロボットシステムのための教示プログラムの作成、修正、追加等(以下、まとめて「編集」という)を行なう場合、従来より教示操作盤あるいはオフラインプログラミングシステムが利用されている。例えば教示操作盤を用いてプログラミングを行なう場合は、ロボットのプログラミング言語に従ってこれを行い、更にロボットを移動させるなどして位置教示等を行っている。また、オフラインプログラミング装置でキーボード、マウスを使い、プログラミングと教示を行う方法も広く利用されている。
このように、ロボットシステムの教示プログラムの作成や編集には、教示操作盤あるいはオフラインプログラミングシステムでのプログラミング、教示、あるいは、それらの修正等の作業を行なう訳であるが、この作業にはロボット専用プログラム言語を修得したり、キーボード等による煩雑な入力が必要なことが一般的であり、専門的な知識、技能が欠かせなかった。そのため、それらに習熟した専門家以外には困難であった。この問題を音声入力で解決した例は、公知文献の中に見当らない。
そこで、本発明の目的は上記した従来技術の難点を解消し、ロボット専用プログラム言語等の専門的知識や特別な技能を修得していない者でも、ロボットシステムのプログラミングを容易に行えるようにすることにある。
本発明は、上記課題を解決するために、音声を入力とし、これに関連した、動作、シーケンスを入力するプログラム編集装置を提供するものである。
具体的に言えば、本発明は、少なくとも1つのロボット及び少なくとも1つの周辺物体の3次元モデルを画面上に配置して表示し、前記ロボットの教示プログラムを編集するプログラム編集装置に係り、同装置に、音声入力手段と、1以上の文字列を所定箇所に当て嵌めて1つの文章を完成させるための雛形を複数個記憶する手段と、前記雛形に当て嵌める複数の文字列候補を記憶する文字列候補記憶手段と、前記雛形に前記文字列候補を当て嵌めて完成した文章と、ロボットの教示プログラムで使用する指令との対応関係を記憶する対応関係記憶手段と、前記記憶された何れかの雛形に前記何れかの文字列候補を当て嵌めた文章の中に、前記音声入力手段から入力された文章と一致する文章があれば、該一致する文章を探し出すサーチ手段と、前記サーチ手段によって探し出された前記一致する文章を、前記対応関係記憶手段によって記憶されている対応関係に基づいて、ロボット指令に変換し、該ロボット指令を前記教示プログラムに挿入する手段とを具備させることを基本的な要件とするものである。
ここで、プログラム編集装置には、前記教示プログラムの編集中に前記雛型の文字列を画面上に表示する手段を更に具備させることができる。また、前記教示プログラムの編集中に該教示プログラムの内容を画面上に表示する手段を具備させ、前記教示プログラムに前記ロボット指令の挿入結果を確認可能とすることができる。前記文字列候補としては、例えば前記3次元モデルで示された物体を特定可能な識別文字列を採用することができる。
また、プログラム編集装置に、前記3次元モデルで示された各物体に関係するロボットの動作指令を、その物体と関連付けて記憶する物体関連指令記憶手段と、前記サーチ手段によって探し出された文章中に当て嵌められた前記文字列候補が、前記物体を特定する識別文字列である時、該識別文字列を前記物体関連記憶手段に記憶された内容に基づいて、ロボット指令に変換する手段とを更に具備させることもできる。また、前記ロボット指令により、画面上のロボットの3次元モデルを動作させる手段を具備させることもできるし、音声により前記ロボット又は前記ワークが指定された時、画面上の前記ロボット又は前記ワークが認識されたことを示すための表示状態変化を起こさせる手段を具備させることもできる。
ここで、前記ロボット又は前記ワークの表示状態変化は、例えば表示色の変化として良い。また、前記ロボット指令は、ロボットの動作指令、周辺機器との入出カ指令及び条件文の内の少なくとも1つを含むマクロ指令とすることができる。
本発明によれば、音声を入力とし、これに関連した、動作、シーケンスを入力するプログラム編集装置が提供されるので、専門的知識、技能の修得を行なわなくても簡単にプログラミングを行えるようになる。その結果、ロボットシステム構築のための工数や人的負担を軽減することが可能になる。
以下、図面を参照して本発明の実施形態について説明する。先ず図1は、本実施形態に係るプログラム編集装置の概略構成をブロック図で示したものである。同図に記した通り、プログラム編集装置は、CPUと、このCPUのバスラインに接続されたメモリ(ROM、RAM、不揮発性メモリ)、グラフィック制御回路、キーボード/マウス(ニュアル入力装置)、通信インターフェイス及びヘッドフォン/マイクと、グラフィック制御回路に接続されたディスプレイ(例えば液晶表示装置、CRT等)からなる。また、図示を省略したが、必要に応じて、プリンタ、パーソナルコンピュータ等の外部機器との間でデータの授受を行なうための入出力装置等が装備される。
メモリには、以下に説明する表示やプログラミングの対象とされるロボットの3次元形状データ(寸法データを含む;以下、同様)、ワークの3次元形状データの他、必要に応じて、ロボットに搭載する視覚センサ(撮像装置)やツール(例えばハンド、アーク溶接トーチ、スポット溶接ガンなど)、あるいは、周辺物体(例えばワークの治具、工作機械など)の3次元形状データ等が格納される。
また、グラフィック制御回路を動作させて、それら3次元モデルで定義された諸物体を表示空間(プログラミングムを行なう3次元空間)内で表示させたり、ロボット指令に対応した動きをアニメーション形式で表示させたりするためのプログラム、諸設定値等が格納されている。ここで、表示空間内での諸物体(3次元モデル)の配置位置/姿勢は、ワークセルのデータで定義される。ワークセルは、プログラミング対象とされるロボットシステムの配置単位で、プログラミング対象とされるロボットシステムに含まれる物体(ロボット、ワーク、周辺機器等の3次元モデル)を指定し、それら指定された各物体の初期位置/姿勢を指定するデータを含む。ワークセルの定義内容の変更は、例えばキーボード/マウスを操作して随時可能である。
そして、本実施形態に係るプログラム編集装置には、これら構成及び機能に加えて、以下に説明する手順と処理内容で、マイクを用いた音声入力によるプログラム編集(詳細後述)及びそれらに関連する表示、音声出力等を行なわせるためのソフトウェア(音声認識プログラム等)が装備されている。
本実施形態では、先ず、音声入力によるプログラム編集に必要な準備を図2のフローチャートに示した手順で行なっておく。各ステップの要点は次の通りである。なお、以下の説明においては、特にことわりの無い限り、ロボット、ワーク、ツール、その他周辺物体等の呼称は、それぞれ各物体の3次元モデルのことを指すものとする。
ステップS1;編集対象のプログラムに対応するワークセルで配置される可能性がある複数個の物体のそれぞれに対応させて、文字列候補を例えばキーボードを用いて入力しておく。文字列候補には、ロボット名、ワーク名、周辺物体名等が含まれる。入力された文字列は、プログラム編集装置の不揮発性メモリに格納される。ここで、ワークセルを記述するデータ中の配置物体(3次元モデル;以下、同じ)ラベルデータと文字列候補とは、1対1で対応付けられており、従って、ワークセルをディスプレイに表示した時、配置物体を文字列で指定すれば、それがどれを指すのか、CPUが判断できるようになっている。そして、後述するように、本実施形態ではこの配置物体の指定を音声入力(質問形式)で行なうことができるようになっている。
また、入力される文字列候補は2つのカテゴリのいずれかが属性として定義されているものとする。第1のカテゴリはロボット名のカテゴリで、便義上●印で表わすことにする。そして、第2のカテゴリはロボット以外の物体名(ワーク名、周辺物体名、ツール名等)のカテゴリで、便義上○印で表わすことにする。プログラム編集装置は、これら文字列候補をカテゴリ情報とともに記憶する。ここでは、一例として、下記の文字列候補を入力しておくものとする。
●ロボット1
●ロボット2
○ワーク1
○ワーク2
○ワーク3
○ワーク4
○ワーク5
○工作機械1
○ワーク出入口1(工作機械1のワーク出入口)
○テーブル1
文字列の入力が完了したらステップS2へ進む。
ステップS2;ロボット作業指示の複数の雛形を例えばキーボードを用いて入力しておく。雛形の記述は、可変部と非可変部からなる文章で行なわれる。可変部はロボット名(第1のカテゴリの文字列)をあてはめることを意味するバリアブル(可変ターム;以下、同じ)あるいはそれ以外の物体名(第2のカテゴリの文字列)をあてはめることを意味するバリアブルとして記憶される。以下の雛形記述では、ロボット名をあてはめることを意味するバリアブルを「ロボットX」、「ロボットY」等で表わし、それ以外の物体名をあてはめることを意味するバリアブルを「物体A」、「物体B」等で表わすことにする。表示画面においてもこの表記が採用される。X、Y、A、B等のアルファベットは、ロボットあるいは物体名が特定の具体物体名でないことを意味している。
また、非可変部には述語、助詞、名詞等を表わす文字または文字列が含まれ、名詞を表わす文字列に、後述するステップS3で入力するロボット動作指令中で使用されている特定タームの内のいずれかと一致する文字列が含まれていても良い。以下の説明では、このような文字列を“”内にその具体名を入れて表わすことにする。例えば、“アーク溶接位置”、“スポット溶接位置”などがこれに相当する。
このように、可変部、非可変部のいずれについても、後の音声入力時にあてはめを行なうべき箇所は「・・・・」で表示し、物体に付属して次のステップS3で準備されるロボット指令中の特定タームは、“・・・・”で表示する。また、プログラム編集装置は、雛形の記憶にあたって、「・・・・」については「」に対応するヘッダを付して「」内の・・・・を記憶し、“・・・・”については、“”に対応するヘッダを付して“”内の・・・・を記憶する。このようにして用意された雛形は、随時、ディスプレイに画面表示可能とされる。雛形を表示した画面の一例を図3に示した。
ステップS3;ステップS1で入力された文字列候補が意味するロボット以外の物体について、関連するロボット指令を予め定義しておく。例えば、図3の例にあるように、『「ロボットX」が「物体A」を持つ』という雛形が用意されているケースでは、物体Aとして指定(後述する音声入力で指定)されることが考えられるのは上記したワーク1〜ワーク5であるとして、ワーク1〜ワーク5の各々について、ロボットハンドによる把持のためのアプローチ点のロボット位置・姿勢データ及び把持を行なう点のロボット位置・姿勢データなどが予め記憶される。このデータは、『「ロボットX」が「物体A」を持つ』という雛形に所属するデータとして記憶される。同様に、各雛形に所属させて、各雛形の完成時に含まれ得る各物体に関連させて、動作指令の具体データが記憶される。
次に、本実施形態ではワークセルの確認を図4のフローチャートに示した手順で行なっておく。各ステップの要点は次の通りである。
ステップT1;編集対象のプログラムに対応するワークセルを表示する。なお、ワークセルの定義は周知の方式で予め完了しているものとする。即ち、例えばロボット、ワーク、周辺物体等を仮配置したワークセルの雛形を外部のCAD装置(図示省略)で予め用意しておき、これを通信インターフェイスを介して一旦プログラム編集装置に取り込み、画面上で必要な修正、追加、削除等を行なって、ワークセルを定める。勿論、他の方法、例えば既存の類似したワークセルのデータを他の電子データ記憶媒体(パーソナルコンピュータのハードディスク、フレクシブル磁気ディスク等)から取り込んで良いし、プログラム編集装置上で新たに作成しても良い。図5に表示されるワークセルの一例を示す。
本例のワークセルで配置されている物体名は、下記のものである(括弧内は図5における参照符号)。
ロボット1(RB1)
ワーク1(W1)
ワーク2(W2)
ワーク3(W3)
ワーク4(W4)
ワーク5(W5)
工作機械1(MC1)
ワーク出入口1(MH1)
テーブル1(TB1)
なお、図5中の符号H1は、テーブル1(ワーク用の治具を装備したワーク置台)上に位置決めされて置かれているワーク1〜ワーク5の把持に適合したハンドで、ロボット1(RB)のアーム先端に装着されている。また、符号MH1は工作機械1のワーク受入口で、ここにハンドH1で把持したワークを置く(挿入する)例が後述される。
ステップT2;音声認識モード1を起動する。この音声認識モード1は、下記のステップT3で音声入力される文、節あるいは単語を音声認識し、「質問」として解釈・応答するモードである。
ステップT3;質問を音声入力する。質問は、『・・・・はどれですか?』、『・・・・はどれ?』、『・・・・は?』などの物体名を付けて尋ねる呼びかけ文、あるいは、単純に『・・・・』と物体名のみを呼びかけるもののいずれであっても良い。具体例を挙げれば、『ロボット1はどれですか?』、『ワーク1はどれ?』、『工作機械は?』、『ワーク3』などとなる。
ステップT4;入力された音声を音声認識し、表示されているワークセル中のどの物体(3次元モデル)であるかを判断して応答表示する。例えば図5に示したワークセルについて、『ワーク2はどれ?』、『ワーク2』などと音声入力されていれば、画面上のワーク2(W2)を表示色変更等で強調表示する。ワークセル中に該当物体がない場合には、その旨のメッセージを画面表示する。なお、応答にあたっては、ヘッドフォンに人工音声で該当物体の有無を出力しても良い。
ステップT5;音声入力すべき質問が残っていれば、ステップT3へ戻って次の質問を音声入力する。以後、質問が無くなるまで、ステップT3〜T5を繰り返す。質問が無くなれば処理は終了する。
なお、このような音声入力による質問−応答の対象物は、ワークセルの定義に使用しているターム(文字列)を媒介にして拡張することができる。例えば、;音声認識モード1で有効となる文字列候補として、図5中のハンドH1に対応させる文字列『ハンドイチ』を用意しておけば、音声で『ハンドイチは?』という入力があった時、図5中のハンドH1を強調表示することができる。
以上のようにして、準備とワークセルの確認を終えたなら、プログラム編集を行なう。プログラム編集の処理の流れの一例を図6にフローチャートで示した。各ステップの要点を説明すれば次のようになる。
ステップU1;上述のステップT1と同じく、編集対象のプログラムに対応するワークセルを表示する。ここでは、図5に例示したワークセルを表示する。
ステップU2;音声認識モード2を起動する。この音声認識モード2は、下記のステップU6で音声入力される文、節あるいは単語を音声認識し、作業指示を行なう解釈モードである(詳細後述)。
ステップU3;作業指示の雛形を表示する。例えば、図3に示した雛形を表示する。
ステップU4;編集対象のプログラムを表示する。表示例(プログラム名;S5A_01A2)を図7に示した。なお、3行目の命令文が強調表示(網かけ等)されているが、これは次ステップでの編集箇所の識別のためである。
ステップU5;プログラムのどの箇所を編集(手を加えること)するかを選択し、選択結果を表示する。編集箇所の選択は、ここでは[行の指定+同行の前挿入]、[行の指定+同行の後挿入]、[行の指定+同行の置換(上書き更新)]のいずれかをオペレータがキーボード等で指定するものとする。指定行は強調表示される。また、前挿入/後挿入/上書き更新]の区別は、例えば指定行の強調表示の種別(色別、網掛け、アンダーライン、明暗反転等)で表現すれば良い。図7で示した例では、3行目の命令文が指定行で網掛け表示されている。ここでは一例として、後挿入を選択したものとする。
ステップU6;作業指示を音声入力する。入力にあたっては、必要に応じて雛形表示画面を呼出し、それを見ながら、ステップU5で指定した箇所に書き入れたい作業指示を、雛形の文型に整合するように話す。ここでは一例として、図3に示した雛形リスト中の1番目に挙げられている雛形に文型をならって、『ロボット1がワーク1を持つ』と音声入力するものとする。
ステップU7/U8/U9;プログラム編集装置は、音声認識機能を使って作業指示の理解処理を実行する。即ち、各雛形の各可変部に文字列候補をあてはめて完成した文章を順次作成し、各完成文章と音声認識された文章が一致するか否かをチェックしていく。一致した文章が見つかったら、ステップU8でイエスを出力し(画面にその旨表示)、ステップU10へ進む。もし、あらゆる雛形について、各可変部にどの文字列候補をあてはめて文章を完成させても、音声認識された文章と一致する文章を探し出せなかったら、ステップU8でノーを出力し、ステップU9で再入力の指示を表示(あるいはヘッドフォンで人工音声告知)してステップU6へ戻る。
なお、ステップU6〜ステップU9を何度繰り返しても、ステップU10へ進めない場合は、なんらかの異常(例えば文字列候補の入力漏れ)と考えられるので、処理を強制終了して原因を調べる。
ステップU10;ステップU9で探し出した完成文の雛形に所属し、且つ、各物体に対応して記憶されているロボット動作指令(前述した準備のステップS3を参照)を読み出し、表示する。上記の例では、『ロボット1がワーク1を持つ』という音声入力に対して雛形リスト(図3)中の1番目の雛形が完成されるので、それに応じて、ワーク1に対応して記憶されているロボット動作指令が読み出され、表示される。そこには、ロボット1がワーク1を把持する際のアプローチ点及び把持点の位置/姿勢のデータが含まれている。
ステップU11;表示されたロボット動作指令データに対応した動作をアニメーション形式で画面表示する。例えば、図5に示した画面中のロボット1(RB1)が、アプローチ点を経て把持点まで動く様子が表示される。
ステップU12;その動作指令を採用して、ステップU5で選択した箇所にエントリしても良いか(例えば周辺機器との干渉の危険はないか)を検討し、問題がなければステップU13へ進む。採用を取りやめる場合は、ステップU4からやり直す。
ステップU13;動作指令をステップU5で選択した箇所にエントリする。これにより、例えば図7に示したプログラムの第3行目と、第4行目の間に、上記の採用されたロボット動作指令に対応する動作文が挿入される。動作文の行数に応して、編集前の第4行目以下の文は順次行番号が繰り下がることになる。
ステップU14;編集続行の必要があれば、ステップU4へ戻り、次の編集希望に従ってステップU4以下を実行する。編集続行の必要がなければ、処理を終了する。
なお、ここまでの説明では、物体に対応して定義されている指令はロボットの動作指令であるとしたが、これを拡張して、周辺機器との入出カ指令や条件文等を含むマクロ指令を扱うようにすることもできる。以下、その一例について簡単に説明しておく。ここでは、次のケースを考える。
(1)上記した実施形態のステップS3で、ワーク1及び工作機械1に対応させて下記のようなサブルーチンを予め定義しておく。()内は、文の趣旨を表わしている。
先ず、ワーク1に対応定義しておくサブルーチンは次の通りとする。
PROG WorkPick (サブルーチンの名前)
JP1 100% CNT,100 (アプローチ点への動作)
LP2 500M FINE (把持点への動作)
SDO [1] ON (ワークを把持;ハンド閉める)
IF RDI[1]=OFF, GO TO LBL[999] (把持できなければエラー;システム停止)
LP3 500M CONT,100 (離反点への動作)
END
LBL[999]
END
一方、工作機械に対応定義しておくサブルーチンは次の通りとする。
PROG KousakuInsert (サブルーチンの名前)
WAIT SDI[1]=ON (工作機械1が先行するワークの加工を完了し、次のワークの受け入れが可能になるまで待機)
JP1 100% CNT,100 (アプローチ点への動作)
LP2 500M FINE (工作機械1(ワーク出入口1)に挿入する)
SDO [1] OFF (ワークを離す;ハンド開放)
IF RD[1]=ON, GO TO LBL[999] (もし把持解除できなければエラー;システム停止)
LP3 500M CONT,100 (離反点への動作)
END
LBL[999]
END
以上が上記した実施形態のステップS3で、ワーク1及び工作機械1に対応させて定義しておくサブルーチンである。
(2)上記した実施形態におけるワークセル確認を終えたら、ステップU1以下の手順を順次実行する。ステップU4で表示されるプログラムは、ここでは同じとする(プログラム名;S5A_01A2)。そして、ステップU5で選択する編集箇所は、今度は第3行の前挿入(あくまで一例)として、ステップU6へ進む。ステップU6で音声入力される作業指示は、『ロボット1がワーク1を持ち、工作機械1に置く』とする。
すると続くステップU7で、プログラム編集装置は、音声認識機能を使って作業指示の理解処理を実行し、各雛形の各可変部に文字列候補をあてはめて完成した文章を順次作成し、一致した文章をサーチする。ここでは、図3の雛形リスト中の4番目の雛形が完成される。即ち、ロボットX=ロボット1、物体A=ワーク1、物体B=工作機械1で、完成文と音声認識された文とが一致する。
ステップU9からステップU10へ進むと、上記の通りワーク1に対応して記憶されているサブルーチン(PROG WorkPick)と、工作機械1に対応して記憶されているサブルーチン(PROG KousakuInsert)が順次読み出され、表示される。そして、ステップU11で表示されたデータに対応した動作がアニメーション形式で画面表示される。
ステップU12でその動作指令を採用すれば、選択し箇所に上記各サブルーチンが挿入される。関連部分だけを示せば、下記のようになる。
(編集前)
・・・・・・・・・・・・・・・・・・・・・・・・
2:カクジク イチレジ [1] 30% イチギメ
3:チョクセン イチ [1:cf_01a2]2000mm/sec ナメラカ 50;
・・・・・・・・・・・・・・・・・・・・・・・・
(編集後)
・・・・・・・・・・・・・・・・・・・・・・・・
2:カクジク イチレジ [1] 30% イチギメ
CALL PROG WorkPick
CALL PROG KousakuInsert
3:チョクセン イチ [1:cf_01a2]2000mm/sec ナメラカ 50;
・・・・・・・・・・・・・・・・・・・・・・・・
このようにして、条件文やマムロ指令を含むような指令をエントリする形での編集を音声入力で行なうことができる。
本実施形態に係るプログラム編集装置の概略構成をブロック図で示したものである。 本発明の実施形態においてプログラム編集に先だって実行される準備の手順の概略を示したフローチャートである。 雛形シスト表示画面の一例を示す図である。 本発明の実施形態においてプログラム編集に先だって実行されるワークセル確認の手順の概略を示したフローチャートである。 ワークセル表示画面の一例を示す図である。 本発明の実施形態で実行されるプログラム編集の手順の概略を示したフローチャートである。 本発明の実施形態におけるプログラム編集の対象プログラムの一例を示した図である。
符号の説明
H1 ロボット1に装着されたハンド
MC1 工作機械1
MH1 工作機械1のワーク出入口1
RB1 ロボット1
TB1 テーブル1
W1〜W5 ワーク

Claims (9)

  1. 少なくとも1つのロボット及び少なくとも1つの周辺物体の3次元モデルを画面上に配置して表示し、前記ロボットの教示プログラムを編集するプログラム編集装置において、
    音声入力手段と、
    1以上の文字列を所定箇所に当て嵌めて1つの文章を完成させるための雛形を複数個記憶する手段と、
    前記雛形に当て嵌める複数の文字列候補を記憶する文字列候補記憶手段と、
    前記雛形に前記文字列候補を当て嵌めて完成した文章と、ロボットの教示プログラムで使用する指令との対応関係を記憶する対応関係記憶手段と、
    前記記憶された何れかの雛形に前記何れかの文字列候補を当て嵌めた文章の中に、前記音声入力手段から入力された文章と一致する文章があれば、該一致する文章を探し出すサーチ手段と、
    前記サーチ手段によって探し出された前記一致する文章を、前記対応関係記憶手段によって記憶されている対応関係に基づいて、ロボット指令に変換し、該ロボット指令を前記教示プログラムに挿入する手段とを備えたことを特徴とする、プログラム編集装置。
  2. 前記教示プログラムの編集中に前記雛型の文字列を画面上に表示する手段を備えたことを特徴とする、請求項1に記載のプログラム編集装置。
  3. 前記教示プログラムの編集中に該教示プログラムの内容を画面上に表示する手段を備え、
    前記教示プログラムに前記ロボット指令の挿入結果を確認可能としたことを特徴とする、請求項1又は請求項2に記載のプログラム編集装置。
  4. 前記文字列候補は、前記3次元モデルで示された物体を特定可能な識別文字列であることを特徴とする、請求項1〜請求項3の内の何れか1項に記載のプログラム編集装置。
  5. 前記3次元モデルで示された各物体に関係するロボットの動作指令を、その物体と関連付けて記憶する物体関連指令記憶手段と、
    前記サーチ手段によって探し出された文章中に当て嵌められた前記文字列候補が、前記物体を特定する識別文字列である時、該識別文字列を前記物体関連記憶手段に記憶された内容に基づいて、ロボット指令に変換する手段を備えたことを特徴とする、請求項1〜請求項4の内の何れか1項に記載のプログラム編集装置。
  6. 前記ロボット指令により、画面上のロボットの3次元モデルを動作させる手段を備えたことを特徴とする、請求項1〜請求項5の内の何れか1項に記載のプログラム編集装置。
  7. 音声により前記ロボット又は前記ワークが指定された時、画面上の前記ロボット又は前記ワークが認識されたことを示すための表示状態変化を起こさせる手段を備えたことを特徴とする、請求項1〜請求項6の内の何れか1項に記載のプログラム編集装置。
  8. 前記ロボット又は前記ワークの表示状態変化が、表示色の変化であることを特徴とする、請求項7に記載のプログラム編集装置。
  9. 前記ロボット指令が、ロボットの動作指令、周辺機器との入出力指令及び条件文の内の少なくとも1つを含むマクロ指令であることを特徴とする、請求項1〜請求項6の内の何れか1項に記載のシミュレーション装置。
JP2003380698A 2003-11-11 2003-11-11 音声入力によるロボット教示プログラム編集装置 Pending JP2005148789A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003380698A JP2005148789A (ja) 2003-11-11 2003-11-11 音声入力によるロボット教示プログラム編集装置
DE602004009264T DE602004009264T2 (de) 2003-11-11 2004-11-04 Sprachgesteuertes Gerät zum Editieren eines Roboterlehrprogrammes
EP04256831A EP1531375B1 (en) 2003-11-11 2004-11-04 Robot teaching program editing apparatus based on voice input
US10/983,717 US7430457B2 (en) 2003-11-11 2004-11-09 Robot teaching program editing apparatus based on voice input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003380698A JP2005148789A (ja) 2003-11-11 2003-11-11 音声入力によるロボット教示プログラム編集装置

Publications (1)

Publication Number Publication Date
JP2005148789A true JP2005148789A (ja) 2005-06-09

Family

ID=34431408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003380698A Pending JP2005148789A (ja) 2003-11-11 2003-11-11 音声入力によるロボット教示プログラム編集装置

Country Status (4)

Country Link
US (1) US7430457B2 (ja)
EP (1) EP1531375B1 (ja)
JP (1) JP2005148789A (ja)
DE (1) DE602004009264T2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107358A1 (ja) * 2008-02-28 2009-09-03 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
WO2011036865A1 (ja) * 2009-09-28 2011-03-31 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
US9833897B2 (en) 2011-09-28 2017-12-05 Universal Robots A/S Calibration and programming of robots
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
US10399232B2 (en) 2014-03-04 2019-09-03 Universal Robots A/S Safety system for industrial robot
JP2020006472A (ja) * 2018-07-06 2020-01-16 ファナック株式会社 ロボットプログラム生成装置
CN111844085A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
JP2020182988A (ja) * 2019-04-26 2020-11-12 ファナック株式会社 ロボット教示装置
US10850393B2 (en) 2015-07-08 2020-12-01 Universal Robots A/S Method for extending end user programming of an industrial robot with third party contributions
US11474510B2 (en) 2016-04-12 2022-10-18 Universal Robots A/S Programming a robot by demonstration
US11822355B2 (en) 2010-11-16 2023-11-21 Universal Robot A/S Programmable robot

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181590B2 (ja) * 2006-08-30 2008-11-19 株式会社東芝 インタフェース装置及びインタフェース処理方法
US20080255433A1 (en) * 2007-04-11 2008-10-16 The Board Of Regents Of The University Of Texas Syatem Optoacoustic monitoring of multiple parameters
KR101631496B1 (ko) 2008-06-03 2016-06-17 삼성전자주식회사 로봇 장치 및 그 단축 명령 등록 방법
JP2010092330A (ja) * 2008-10-09 2010-04-22 Seiko Epson Corp 動作シーケンス作成装置、動作シーケンス作成装置の制御方法およびプログラム
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
SG182033A1 (en) * 2011-01-03 2012-07-30 Katotec Pte Ltd Singapore Robot controllers and content files therefor
JP5565392B2 (ja) * 2011-08-11 2014-08-06 株式会社安川電機 携帯遠隔操作装置およびロボットシステム
US9443515B1 (en) * 2012-09-05 2016-09-13 Paul G. Boyce Personality designer system for a detachably attachable remote audio object
US20150129581A1 (en) * 2013-11-12 2015-05-14 Lincoln Global, Inc. System and method for pendant component for a welding system
EP3112079A4 (en) * 2014-02-24 2017-03-15 Howon Co. Ltd. Hybrid welder
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US20160221190A1 (en) * 2015-01-29 2016-08-04 Yiannis Aloimonos Learning manipulation actions from unconstrained videos
JP6653064B2 (ja) * 2016-12-28 2020-02-26 オムロン株式会社 シミュレーション装置、ロボット、シミュレーション方法、及びそのプログラム
JP6568169B2 (ja) * 2017-09-12 2019-08-28 ファナック株式会社 溶接ロボットプログラミング装置および溶接ロボットのプログラミング方法
JP7251224B2 (ja) * 2019-03-11 2023-04-04 セイコーエプソン株式会社 制御装置およびロボットシステム
JP2023080596A (ja) * 2021-11-30 2023-06-09 セイコーエプソン株式会社 プログラム作成装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60156111A (ja) * 1983-09-30 1985-08-16 アセア・アクチボラグ 産業用ロボツト
JP2002283259A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3884160B2 (ja) * 1997-11-17 2007-02-21 富士通株式会社 用語付きデータを扱うデータ処理方法,データ処理装置およびプログラム記憶媒体
IT1313346B1 (it) * 1999-09-06 2002-07-23 Abb Ricerca Spa Metodo per eseguire la programmazione fuori linea di un robotindustriale.
JP2001222309A (ja) * 2000-02-10 2001-08-17 Yaskawa Electric Corp ロボット制御装置
WO2001058649A1 (fr) * 2000-02-14 2001-08-16 Sony Corporation Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees
US6754560B2 (en) * 2000-03-31 2004-06-22 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP4765155B2 (ja) * 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002337079A (ja) * 2001-05-11 2002-11-26 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP3708097B2 (ja) * 2003-10-08 2005-10-19 ファナック株式会社 ロボットの手動送り装置
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60156111A (ja) * 1983-09-30 1985-08-16 アセア・アクチボラグ 産業用ロボツト
JP2002283259A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170719B2 (en) 2008-02-28 2012-05-01 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
CN102152313B (zh) * 2008-02-28 2012-12-12 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序、及机器人手臂控制用集成电子电路
JP4531126B2 (ja) * 2008-02-28 2010-08-25 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
JP4531123B2 (ja) * 2008-02-28 2010-08-25 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
WO2009107358A1 (ja) * 2008-02-28 2009-09-03 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
JPWO2009107358A1 (ja) * 2008-02-28 2011-06-30 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
JP2010137357A (ja) * 2008-02-28 2010-06-24 Panasonic Corp ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及びロボットアーム制御用集積電子回路
US8175749B2 (en) 2008-02-28 2012-05-08 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
WO2011036865A1 (ja) * 2009-09-28 2011-03-31 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
US8290621B2 (en) 2009-09-28 2012-10-16 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and robot arm control-purpose integrated electronic circuit
US8175750B2 (en) 2009-09-28 2012-05-08 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and robot arm control-purpose integrated electronic circuit
US11822355B2 (en) 2010-11-16 2023-11-21 Universal Robot A/S Programmable robot
US9833897B2 (en) 2011-09-28 2017-12-05 Universal Robots A/S Calibration and programming of robots
US10399232B2 (en) 2014-03-04 2019-09-03 Universal Robots A/S Safety system for industrial robot
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
US10850393B2 (en) 2015-07-08 2020-12-01 Universal Robots A/S Method for extending end user programming of an industrial robot with third party contributions
US11474510B2 (en) 2016-04-12 2022-10-18 Universal Robots A/S Programming a robot by demonstration
US11345026B2 (en) 2018-07-06 2022-05-31 Fanuc Corporation Robot program generation apparatus
DE102019117877B4 (de) 2018-07-06 2022-11-10 Fanuc Corporation Roboterprogrammgenerierungsvorrichtung
JP2020006472A (ja) * 2018-07-06 2020-01-16 ファナック株式会社 ロボットプログラム生成装置
CN111844085A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
JP2020182988A (ja) * 2019-04-26 2020-11-12 ファナック株式会社 ロボット教示装置
JP2020184117A (ja) * 2019-04-26 2020-11-12 ファナック株式会社 ロボット教示装置
JP6993382B2 (ja) 2019-04-26 2022-02-04 ファナック株式会社 ロボット教示装置
JP7063844B2 (ja) 2019-04-26 2022-05-09 ファナック株式会社 ロボット教示装置
US11580972B2 (en) 2019-04-26 2023-02-14 Fanuc Corporation Robot teaching device

Also Published As

Publication number Publication date
DE602004009264D1 (de) 2007-11-15
US7430457B2 (en) 2008-09-30
US20050102066A1 (en) 2005-05-12
EP1531375A2 (en) 2005-05-18
DE602004009264T2 (de) 2008-07-24
EP1531375B1 (en) 2007-10-03
EP1531375A3 (en) 2005-11-09

Similar Documents

Publication Publication Date Title
JP2005148789A (ja) 音声入力によるロボット教示プログラム編集装置
US6292715B1 (en) Robotic process planning method and apparatus using templates
CN104972468B (zh) 示教系统、机器人系统和示教方法
US9676101B2 (en) Operating program writing system
US10534349B2 (en) Machining program editing apparatus, method, and storage medium
JP4329248B2 (ja) Nc加工シミュレーション装置
JP2002091523A (ja) 自動プログラミング・シミュレーション装置
JP6468000B2 (ja) シミュレーションプログラム生成装置、シミュレーションプログラム生成方法、及びプログラム
CN115981615B (zh) 融合语言模型与知识图谱的g代码生成方法及相关设备
WO1994029775A1 (fr) Procede d'apprentissage autonome pour robot
JP2773517B2 (ja) プログラム表示装置
CN104076804B (zh) 作业路径信息设定装置以及作业路径信息设定方法
JP2020144667A (ja) 工作機械の数値制御システム
JP5374405B2 (ja) モデルデバッグ装置およびモデルデバッグ方法
JP2011059801A (ja) プログラム作成・教示装置及び方法
JPH10291183A (ja) ロボット言語処理装置
JPS63133210A (ja) Nc装置の加工プログラム作成方式
JPS63148307A (ja) Nc情報作成装置
JP2754533B2 (ja) 流れ図作成装置
JPS6260006A (ja) ロボツト制御プログラムの干渉チエツク方法
WO2020067256A1 (ja) 制御装置
JP2022165170A (ja) 情報処理装置、情報処理方法、制御プログラム、記録媒体、プログラム生成方法、物品の製造方法
JPH07302107A (ja) 数値制御装置
JPH05158741A (ja) コンピュータプログラムのテスト検証方法
JPH06131015A (ja) シーケンス制御装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070109

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070209