JP6385627B1 - 表示制御装置、表示制御方法および表示制御プログラム - Google Patents

表示制御装置、表示制御方法および表示制御プログラム Download PDF

Info

Publication number
JP6385627B1
JP6385627B1 JP2018526967A JP2018526967A JP6385627B1 JP 6385627 B1 JP6385627 B1 JP 6385627B1 JP 2018526967 A JP2018526967 A JP 2018526967A JP 2018526967 A JP2018526967 A JP 2018526967A JP 6385627 B1 JP6385627 B1 JP 6385627B1
Authority
JP
Japan
Prior art keywords
straight line
dimensional data
robot
information
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018526967A
Other languages
English (en)
Other versions
JPWO2019092792A1 (ja
Inventor
高徳 三宅
高徳 三宅
秀人 岩本
秀人 岩本
加藤 伸一
伸一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6385627B1 publication Critical patent/JP6385627B1/ja
Publication of JPWO2019092792A1 publication Critical patent/JPWO2019092792A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

ロボット(2)の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、ロボット(2)に設定された制御点(Aを)通る直線Zを含む照準座標軸の3次元データを生成する情報処理部(103)と、ロボット(2)の3次元データ、構造物の3次元データおよび情報処理部(103)が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置(5)に表示するための制御情報を生成する出力制御部(104)とを備える。

Description

この発明は、機器の操作を支援するための情報を表示するための技術に関するものである。
従来、定められた作業等を機器(以下では、機器がロボットの場合を例に説明する)に行わせるための教示データに基づいて、ロボットの動作をシミュレート演算して表示するロボットシミュレータが種々提案されている。ロボットシミュレータを用いることにより、オペレータは、実際にロボットを動作させることなく、ロボットが周囲の構造物に干渉しないか等の検証を行いながら、教示データを作成することができる。オペレータは、ロボットのアームの先端部が通過する3次元空間上のポイントまたは軌道を指定することにより、教示データを作成する。
教示データの作成方法として、数値入力によりロボットのアームを動かして作成する方法、矢印ボタンまたはジョイスティック等を用いた間接的な操作でロボットのアームを動かして作成する方法、およびオペレータがロボットのアームを掴んで直接動かして作成する方法等が存在する。
しかし、数値入力によりロボットのアームを動かして教示データを作成する場合、教示データの結果がオペレータの意図通りになるまで、数値入力を繰り返す必要があり、時間を要するという問題があった。
また、間接的な操作でロボットのアームを動かして教示データを作成する場合、オペレータは、自身に対する上下左右の方向と、ロボットのアームに対する上下左右方向とを一致させて操作する必要がある。そのため、オペレータは直感的にロボットのアームを操作することができず、誤操作を誘発する可能性があるという問題があった。
また、オペレータがロボットのアームを掴んで直接動かすことにより教示データを作成する場合、各オペレータの能力に依存する作業であるため、作成された教示データにバラつきが生じ、高精度な教示データを得ることが困難であるという問題があった。また、ロボットが稼動している場合、またはロボットの周辺領域への立ち入りが禁止されている場合には、オペレータが教示データを作成する作業を行うことができないという問題があった。
この問題を解消するための技術として、ロボットシミュレータにおいて、画面上に仮想空間を表示し、当該仮想空間内に位置するロボットのアームを操作して駆動させることにより、教示データを作成する技術が存在する。例えば、特許文献1に開示された装置は、コンピュータによって支援された情報を視覚装置上にある画像受取装置によって検出される現実環境の画像に視覚化するための装置である。当該特許文献1に開示された装置では、画像受け取り装置の位置および方向付け、またはポーズについての判定が行われ、当該判定に対応するロボット特有の情報、例えば少なくとも1つのロボットに特有の座標系の表示を含む情報が視覚装置上の現実環境の画像に重ねて表示する。
特開2004−243516号公報
上述した特許文献1に記載された装置では、情報が現実環境の画像に重ねられて表示されるため、直感的にロボットのアームを操作することができる。しかし、ロボットの現在位置と、ロボットを移動させる目的位置との関係を把握することが困難であるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することを目的とする。
この発明に係る表示制御装置は、駆動対象機器の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、駆動対象機器に設定された制御点を通る第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、駆動対象機器の3次元データ、構造物の3次元データおよび情報処理部が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備え、第1の直線は、制御点と構造物の表面との交点までの部分の線分である。
この発明によれば、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することができる。
実施の形態1に係る表示制御装置を備えた教示システムの構成を示す図である。 教示システムに適用されるロボットの構成例を示す図である。 ロボットのフランジ部へのツールの取り付け例を示す図である。 実施の形態1に係る表示制御装置の構成を示すブロック図である。 図5A、図5Bは、実施の形態1に係る表示制御装置のハードウェア構成例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の設定例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の設定例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の設定例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の表示例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の表示例を示す図である。 実施の形態1に係る表示制御装置による照準座標軸の表示例を示す図である。 実施の形態1に係る表示制御装置の動作を示すフローチャートである。 実施の形態1に係る表示制御装置の情報処理部の動作を示すフローチャートである。 実施の形態1に係る表示制御装置の情報処理部の動作を示すフローチャートである。 図11A、図11Bは、実施の形態1に係る表示制御装置による照準座標軸のその他の表示例を示す図である。 実施の形態2に係る表示制御装置の構成を示すブロック図である。 実施の形態2に係る表示制御装置におけるロボットの駆動可能領域および照準座標軸を示す図である。 実施の形態2に係る表示制御装置におけるロボットの駆動可能領域および照準座標軸を示す図である。 実施の形態2に係る表示制御装置の情報処理部の動作を示すフローチャートである。 実施の形態3に係る表示制御装置の構成を示すブロック図である。 図17A、図17B、図17Cは、実施の形態3に係る表示制御装置の軌道生成部が生成する駆動軌道の種別を示す図である。 実施の形態3に係る表示制御装置の軌道生成部の動作を示すフローチャートである。 実施の形態3に係る表示制御装置の再生処理部の動作を示すフローチャートである。 実施の形態3に係る発明の表示制御装置による干渉箇所の表示例を示す図である。 実施の形態1から実施の形態3で示した表示制御装置の制御情報を、拡張現実空間の出力装置に出力した場合の表示例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る表示制御装置1を備えた教示システムの構成を示す図である。図1では、表示制御装置1を、ロボット(駆動対象機器)の教示データを作成する教示システムに適用した場合を例に示している。なお、表示制御装置1は、ロボットの教示システムへの適用に限定されるものではなく、機器を操作するための種々のシステムへの適用が可能である。
また、表示制御装置1は、表示手段に表示された3次元データまたは拡張現実(Augmented Reality、AR)コンテンツに、生成した教示データを重ね合わせて表示する用途に使用される。具体的には、表示制御装置1は、パソコン、タブレット、スマートフォンおよび専用の教示装置等に表示された3次元データ、または拡張現実メガネに表示された拡張現実コンテンツに、教示データを重ね合わせて表示する制御を行う。拡張現実メガネは、ユーザの頭部に装着されて、ユーザの眼前に画像を表示するヘッドマウントディスプレイ(Head Mounted Display、HMD)である。ヘッドマウントディスプレイは、非透過型であってもよいし、透過型であってもよい。表示制御装置1は、例えば、上述したパソコン、タブレット、スマートフォン、専用の教示装置および拡張現実メガネ等の処理回路またはチップ等として実装される。
教示システムは、表示制御装置1、ロボット2、周辺情報取得装置3、教示装置4およびロボット制御装置7で構成される。教示装置4は、出力装置5および入力装置6を備える。
ロボット2は、制御プログラムに従って動作して、目的とする作業を行う装置である。制御プログラムとは、ロボット2の動作を指令する情報である。ロボット2の動作を指令する情報には、ロボット2が駆動する際の通過点、軌道、速度および動作回数等の情報が含まれる。オペレータが、当該制御プログラムを入力または修正する操作をロボット教示という。また、ロボット教示により得られたデータを、教示データという。
周辺情報取得装置3は、ロボット2の3次元データ、および、ロボット2の周辺環境の3次元データを取得して表示制御装置1に出力する。3次元データとは、ロボット2および周辺環境の、外形、位置および動きを数値で示したデータである。周辺情報取得装置3は、カメラ、3次元スキャナまたはサーバ等で構成される。周辺情報取得装置3が、例えばカメラまたは3次元スキャナで構成される場合、現実環境のロボット2および周辺環境を撮影またはスキャンし、ロボット2および周辺環境の3次元データを取得し、表示制御装置1に出力する。また、周辺情報取得装置3が、例えばサーバで構成される場合、予め記憶装置等に記憶されたロボット2および周辺環境の3次元データを取得し、表示制御装置1に出力する。
周辺環境とは、ロボット2が設置される空間における床、壁、柱、台、関連する機器、配線およびワーク等(以下、構造物という)である。ここで、ワークとは、ロボット2の作業対象をいう。ロボット2が、例えば、組み立てまたは搬送を行う装置である場合、ワークは、ロボット2に取り付けられた把持用のツールが把持する対象である。また、ロボット2が、例えば、バリ取りを行う装置である場合、ワークは、ロボット2に取り付けられたバリ取り用のツールを押し当てる対象である。なお、ツールの詳細は後述する。
表示制御装置1は、周辺情報取得装置3から、ロボット2の3次元データおよび構造物の3次元データを取得する。表示制御装置1内の情報処理において仮想的に構築される空間であって、構造物の3次元データにより規定される空間を、仮想空間という。表示制御装置1は、構造物の3次元データに基づいて、仮想空間を規定する構造物を出力装置5に表示させるための制御を行う。また、表示制御装置1は、仮想空間内に配置されたロボット2を示す画像および操作支援情報を出力装置5に表示させるための制御を行う。表示制御装置1は、制御情報を教示装置4に出力する。
教示装置4の出力装置5は、例えば、パソコンまたはタブレット端末等のディスプレイ、またはヘッドマウントディスプレイで構成される。出力装置5は、表示制御装置1から入力された制御情報に基づいて、仮想空間、ロボット2および操作支援情報等を表示する。また、出力装置5は、表示制御装置1からの指令に基づき、ロボット2の制御プログラムを表示してもよい。
教示装置4の入力装置6は、例えばマウス、タッチパネル、専用の教示端末、またはヘッドマウントディスプレイの入力手段で構成され、出力装置5で表示された情報に対する操作入力を受け付ける。入力装置6は、受け付けた操作入力に応じた操作情報を表示制御装置1に出力する。表示制御装置1は、入力装置6から入力された操作情報に基づいて、操作後のロボット2の状態に応じた制御情報を生成する。
また、入力装置6は、出力装置5に制御プログラムが表示されている場合、表示された制御プログラムの修正等の操作入力を受け付ける。表示制御装置1は、入力装置6から入力された操作情報に基づいて、ロボット2の制御プログラムを修正する。
表示制御装置1は、オペレータによる操作入力が終了すると、ロボット2の制御プログラムを確定する。表示制御装置1は、確定した制御プログラムをロボット制御装置7に出力する。ロボット制御装置7は、表示制御装置1から入力された制御プログラムを保存し、保存した制御プログラムをロボット2の駆動信号に変換してロボット2に送信する。ロボット2は、ロボット制御装置7から受信した駆動信号に基づいて駆動し、定められた作業等を行う。
次に、ロボット2の構成について説明する。
図2は、教示システムに適用されるロボット2の構成例を示す図である。
図2に例示されたロボット2は、6軸の自由度を有するいわゆる垂直多関節形のロボットであり、据付部2a、第1アーム2b、第2アーム2c、第3アーム2d、第4アーム2e、第5アーム2fおよびフランジ部2gを備える。
据付部2aは、床に固定される。第1アーム2bは、軸線J1を回転軸として、据付部2aに対して回動する。第2アーム2cは、軸線J2を回転軸として、第1アーム2bに対して回動する。第3アーム2dは、軸線J3を回転軸として、第2アーム2cに対して回動する。第4アーム2eは、軸線J4を回転軸として、第3アーム2dに対して回動する。第5アーム2fは、軸線J5を回転軸として、第4アーム2eに対して回動する。フランジ部2gは、軸線J6を回転軸として、第5アーム2fに対して回動する。フランジ部2gは、第5アーム2fとの接続側と反対側の端部に、種々のツールを取り付けて固定する機構を備える。ツールは、ロボット2の作業内容に応じて選択される。ツールは、ワークを把持する器具およびワークを研磨するグラインダ等の工具である。
図3は、ロボット2のフランジ部2gへのツール8の取り付け例を示す図である。
図3Aは、フランジ部2gにツール8として、ワークを把持する器具8aを取り付けた場合を示す図である。図3Bは、フランジ部2gにツール8として、グラインダ8bを取り付けた場合を示す図である。図3Aおよび図3Bで示した点Aは、ツール8に応じて設定された制御点を示している(以下、制御点Aという)。制御点Aは、オペレータが、出力装置5に表示された仮想空間内でロボット2を動かす場合に、表示されたロボット2上またはロボット2近傍のどの位置を操作すべきかを示すものである。制御点Aは、出力装置5に表示された仮想空間内に例えば円形または矩形の形状で表示される。ツール8が、図3Aで示したワークを把持する器具8aの場合、制御点Aは器具8aがワークを把持する点に設定される。ツール8が、図3Bで示したグラインダ8bの場合、制御点Aはグラインダ8bの研磨点に設定される。図3Bの例のように、ツール8がワークに対して加工を行う工具である場合、制御点Aは当該工具の加工点または加工領域に設定される。
次に、表示制御装置1の内部構成について説明する。
図4は、実施の形態1に係る表示制御装置1の構成を示すブロック図である。
表示制御装置1は、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104を備える。また、図4で示した表示制御装置1は、周辺情報取得装置3、入力装置6および出力装置5に接続されている。
3次元データ取得部101は、周辺情報取得装置3から、ロボット2の3次元データおよび構造物の3次元データを取得する。3次元データ取得部101は、取得した3次元データを情報処理部103に出力する。操作情報取得部102は、入力装置6を介して、オペレータの操作情報を取得する。操作情報取得部102は、取得した操作情報を情報処理部103に出力する。
情報処理部103は、3次元データ取得部101から入力された3次元データから、仮想空間内のロボット2の制御点Aの位置座標を取得する。情報処理部103は、取得した制御点Aの位置座標および構造物の3次元データから、仮想空間内に設定する照準座標軸の位置および方向等を算出し、当該照準座標軸の3次元データを生成する。照準座標軸は、直線X(第2の直線)、直線Y(第3の直線)および直線Z(第1の直線)の3軸で構成される座標軸である。照準座標軸は、オペレータがロボット2の教示データを作成する際に参照する操作支援情報である。なお、照準座標軸の詳細については後述する。
また、情報処理部103は、操作情報取得部102が取得した操作情報に応じて、仮想空間内のロボット2をオペレータの操作入力に追従させて駆動させた場合の、ロボット2の3次元データおよび照準座標軸の3次元データを生成する。なお、情報処理部103は、仮想空間内でのロボット2の移動を算出するために必要なロボット2の仕様データを予め適宜の方法で取得しているものとする。情報処理部103は、構造物の3次元データ、ロボット2の3次元データおよび照準座標軸の3次元データを出力制御部104に出力する。
出力制御部104は、情報処理部103から取得した構造物の3次元データ、ロボット2の3次元データおよび照準座標軸の3次元データに基づいて、構造物、ロボット2および照準座標軸を表示する制御情報を生成する。制御情報は、仮想空間内の構造物、ロボット2および照準座標軸を、仮想空間内の特定の位置からみた場合の画像を、出力装置5に表示させるための情報である。仮想空間内の特定の位置とは、例えば、現実環境におけるユーザの視点の位置と対応する、仮想空間内の位置である。出力制御部104は、生成した制御情報を出力装置5に出力する。
次に、表示制御装置1のハードウェア構成例を説明する。
図5Aおよび図5Bは、実施の形態1に係る表示制御装置1のハードウェア構成例を示す図である。
表示制御装置1における3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能は、処理回路により実現される。即ち、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104は、上記各機能を実現するための処理回路を備える。当該処理回路は、図5Aに示すように専用のハードウェアである処理回路1aであってもよいし、図5Bに示すようにメモリ1cに格納されているプログラムを実行するプロセッサ1bであってもよい。
図5Aに示すように、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104が専用のハードウェアである場合、処理回路1aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図5Bに示すように、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104がプロセッサ1bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ1cに格納される。プロセッサ1bは、メモリ1cに記憶されたプログラムを読み出して実行することにより、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能を実現する。即ち、表示制御装置1の3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104は、プロセッサ1bにより実行されるときに、後述する図8から図10に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ1cを備える。また、これらのプログラムは、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ1bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ1cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、表示制御装置1における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、情報処理部103が3次元データを生成する照準座標軸について、図6A、図6B、図6C、図7A、図7Bおよび図7Cを参照しながら説明する。
図6Aから図6Cは、実施の形態1に係る表示制御装置1による照準座標軸の設定例を示す図である。
具体的には、図6Aから図6Cでは、表示制御装置1がロボット2、ツール8およびロボット2の設置面Bを表示する制御を行い、さらに、制御点Aおよび照準座標軸を表示する制御を行った場合の例を示している。
図6Aから図6Cにおいて、照準座標軸は、制御点Aを通る直線Zと、当該直線Z上の照準点Cで互いに直交する直線Xおよび直線Yで構成された座標軸である。照準点Cは、仮想空間内において、直線Zと構造物の表面とが交わる点である。そのため、直線Zと構造物とが交わる点が存在しない場合、情報処理部103は、照準点Cは存在しないと判断し、直線Zのみの3次元データを生成する。
この発明における直線Xおよび直線Yには、一般的な定義による直線(以下、真直線という)が含まれるほか、照準点Cを含む構造物の表面形状に沿った線であって、特定の一方向からみた場合に直線形状、且つ互いに直交する形状となる線が含まれる。すなわち、直線Xおよび直線Yが上記のように構造物の表面形状に沿った線である場合、両直線の3次元形状は、当該構造物の表面形状に依存するため、必ずしも真直線とはならない。同様に、直線Xおよび直線Yが上記のように構造物の表面形状に沿った線である場合、直線Xと直線Yとが3次元空間である仮想空間内において交わる角度は、当該構造物の表面の形状に依存するため、必ずしも直角とはならない。なお、特定の一方向とは、例えば、後述するグローバル座標またはローカル座標のz座標の方向である。
直線Zの方向は、フランジ部2gに取り付けられたツール8に応じて設定される。ツール8が、例えば、図3Aで示したワークを把持する器具8aである場合、図6Aおよび図6Bに示すように、直線Zは、矢印8aで示した器具8aの把持部の開閉方向と直交し且つ把持部が延びる方向(例えば、図2の軸線J6の方向)と平行な方向であり、且つ制御点Aを通る直線となる。ツール8が、例えば、図3Bで示したグラインダ8bである場合、図6Cに示すように、直線Zは、矢印8bで示したグラインダ8bをワーク等に押し当てる方向と同一方向であり、且つ制御点Aを通る直線となる。このように、直線Zの方向は、フランジ部2gに取り付けられたツール8が、ワークに対してどのような作業を行うか等に基づいて適宜設定される。
直線Zの方向からみた場合の直線Xと直線Yの方向は、グローバル座標またはローカル座標に基づいて設定される。グローバル座標とは、3次元空間そのものに対して設定される座標であり、3次元空間に固定して設定されたロボット2本体または3次元空間に固定されたいずれかの構造物が持つ座標である。ローカル座標とは、3次元空間において移動可能な物体を基準とする座標であり、例えば、ロボット2のフランジ部2gに取り付けられたツール8を基準として設定された座標である。図6Aはグローバル座標に基づいて方向が設定された直線Xおよび直線Yによる照準座標軸を示し、図6Bおよび図6Cはローカル座標に基づいて方向が設定された直線Xおよび直線Yによる照準座標軸を示している。
図6Aは、ロボット2が持つx軸、y軸およびz軸をグローバル座標とし、当該グローバル座標に基づいて照準座標軸の直線Xおよび直線Yの方向を設定した場合の例を示している。グローバル座標のz軸はロボット2の軸線J1と重なる位置および方向の座標軸とし、当該z軸とロボット2の設置面Bとの交点を原点Oとする。グローバル座標のy軸は、原点Oを通り、ロボット2の設置面Bと平行であり、且つ予め定められたロボット2の正面方向と平行な座標軸である。グローバル座標のx軸は、原点Oでz軸およびとy軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれグローバル座標のx軸およびy軸の軸方向と一致するように設定される。
図6Bは、フランジ部2gに取り付けられた器具8aに設定されたx軸、y軸およびz軸をローカル座標とし、当該ローカル座標に基づいて照準座標軸の直線Xおよび直線Yの方向を設定した場合の例を示している。ローカル座標のz軸は、器具8aの把持部の開閉方向(矢印8a参照)と直交し、且つ把持部が延びる方向(図2の軸線J6の方向)と平行な方向であり、且つ制御点Aを通る座標軸である。この場合の原点は制御点Aとなる。ローカル座標のx軸は、器具8aの把持部の開閉方向(矢印8a参照)と同一方向、且つ制御点Aを通る座標軸である。ローカル座標のy軸は、制御点Aでx軸およびz軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれローカル座標のx軸およびy軸の軸方向一致するように設定される。
図6Cは、フランジ部2gに取り付けられたグラインダ8bに設定されたx軸、y軸およびz軸をローカル座標とし、当該ローカル座標に基づいて照準座標軸の直線Xおよび直線Yを設定した場合の例を示している。ローカル座標のz軸は、グラインダ8bをワーク等に押し当てる方向(矢印8b参照)に延び、且つ制御点Aを通る座標軸である。ローカル座標のx軸は、制御点Aを通り、且つz軸と直交する座標軸である。ローカル座標のy軸は、制御点Aでx軸およびz軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれローカル座標のx軸およびy軸の軸方向と一致するように設定される。
図6Aから図6Cでは、照準座標軸の直線Xおよび直線Yの方向が、グローバル座標またはローカル座標のx軸とy軸の軸方向と同一方向である場合を示した。しかし、照準座標軸の直線Xおよび直線Yの軸方向は、グローバル座標またはローカル座標が有するx軸とy軸の軸方向と同一方向である必要はない。すなわち、直線Xおよび直線Yの方向は、それぞれがグローバル座標またはローカル座標が有するx軸およびy軸の軸方向と同一方向に向いた状態に対して、直線Zを回転軸として任意の角度だけ回転した方向に設定されてもよい。
図7Aから図7Cは、実施の形態1に係る表示制御装置1による照準座標軸の表示例を示す図である。
図7Aおよび図7Bは、出力装置5における照準座標軸の表示例を示している。情報処理部103は、仮想空間内のロボット2の制御点Aの位置情報および構造物の3次元データを用いて、仮想空間内における直線Zの方向および直線Z上の照準点Cを算出する。また、情報処理部103は、直線Xおよび直線Yについて、仮想空間内においてそれぞれが延びる方向と形状等とを算出する。さらに、情報処理部103は、算出した照準座標軸について、構造物の3次元データを参照し、3次元データを生成する。これにより、図7Aおよび図7Bに示すように、照準座標軸の直線Xおよび直線Yは、仮想空間内に存在するワークDaまたは構造物Dbの表面形状、およびロボット2の設置面Bの表面形状に沿うように、出力装置5に表示される。
直線Xおよび直線Yは、構造物の表面形状に沿った形状でなくてもよい。図7Cは、照準座標軸の直線Xおよび直線Yを真直線とした場合の表示例を示している。照準座標軸の直線Xおよび直線Yを真直線とする場合、図7Cに示すように、照準座標軸の両直線は、照準点Cを通る真直線として、出力装置5に表示される。
表示制御装置1は、オペレータが、照準座標軸の直線Xおよび直線Yを構造物に沿った形状として表示するか、または真直線の形状で表示するかを選択できる構成としてもよい。これにより、表示制御装置1は、オペレータの選択した表示方法に応じた照準座標軸の表示制御を行うことができる。
上述した説明では、直線Zは、ロボット2のフランジ部2gに取り付けられたツール8が、ワークに対してどのような作業を行うか等に基づいて適宜設定される場合を示した。しかし、直線Zの設定方法は上述した方法に限定されることなく、直線Zは制御点Aから鉛直下向きあるいは鉛直上向き方向に延びる直線に設定されてもよい。また、直線Zは制御点Aから任意に設定された方向に延びる直線と設定されてもよい。
次に、表示制御装置1の動作について、図8のフローチャートを参照しながら説明する。
図8は、実施の形態1に係る表示制御装置1の動作を示すフローチャートである。
3次元データ取得部101は、周辺情報取得装置3から、ロボット2および構造物の3次元データを取得する(ステップST1)。3次元データ取得部101は、取得した3次元データを情報処理部103に出力する。情報処理部103は、ステップST1で取得された3次元データに基づいて、照準座標軸の位置および方向等を算出する(ステップST2)。情報処理部103は、算出した照準座標軸の位置および方向等に基づいて、照準座標軸の3次元データを生成する(ステップST3)。情報処理部103は、ステップST3で生成した3次元データと、ロボット2および構造物の3次元データとを、出力制御部104に出力する。
出力制御部104は、情報処理部103から入力された3次元データに基づいて、仮想空間内の構造物、ロボット2および照準座標軸を表示する制御情報を生成する(ステップST4)。出力制御部104は、ステップST4で生成した制御情報を出力装置5に出力する(ステップST5)。続いて、情報処理部103は、操作情報取得部102から操作情報が入力されたか否か判定を行う(ステップST6)。操作情報が入力された場合(ステップST6;YES)、情報処理部103は入力された操作情報で示された位置情報に基づいて、前回生成したロボット2および照準座標軸の3次元データを修正する(ステップST7)。情報処理部103は、ステップST7で修正した3次元データを、出力制御部104に出力する。
出力制御部104は、ステップST7で修正された3次元データに基づいて、仮想空間内のロボット2および照準座標軸を表示する制御情報を生成する(ステップST8)。出力制御部104は、ステップST8で生成した制御情報を出力装置5に出力する(ステップST9)。その後、フローチャートはステップST6の処理に戻る。一方、操作情報が入力されなかった場合(ステップST6;NO)、前回の操作情報が入力されてから所定時間経過したか否か判定を行う(ステップST10)。所定時間経過した場合(ステップST10;YES)、処理を終了する。一方、所定時間経過していない場合(ステップST10;NO)、ステップST6の判定処理に戻る。
次に、図8のフローチャートのステップST3の処理の詳細について、図9のフローチャートを参照しながら説明する。
図9は、実施の形態1に係る表示制御装置1の情報処理部103の動作を示すフローチャートである。
なお、以下の説明において、情報処理部103は、フランジ部2gに取り付けられたツール8の種別を予め認識しているものとする。また、情報処理部103には、照準座標軸の直線Xおよび直線Yを、グローバル座標またはローカル座標のどちらに基づいて設定するのか、予め設定されているものとする。さらに、情報処理部103には、照準座標軸を構造物の表面形状に沿った線として表示するか、または真直線として表示するか、予め設定されているものとする。
情報処理部103は、ステップST2でロボット2および構造物の3次元データを生成すると、フランジ部2gに取り付けられたツール8の種別に応じて、当該ツール8の制御点A、および当該制御点Aを通る直線Zを決定して3次元データを生成する(ステップST11)。情報処理部103は、例えば、ツール8の種別と、制御点Aの位置および直線Zの方向を示す情報とを関連付けて記憶したデータベース(図示しない)を参照し、制御点Aおよび直線Zを決定する。ここで、直線Zの方向を示す情報とは、例えば、ツール8が器具8aである場合に、当該器具8aの把持部の開閉方向と直交し、且つ制御点Aを通る直線を直線Zとすることを示す情報である。
情報処理部103は、ステップST11で決定した直線Zの3次元データと、構造物の3次元データとを参照し、仮想空間内で直線Zと構造物の表面とが交わる点が存在するか否か判定を行う(ステップST12)。直線Zと構造物の表面とが交わる点が存在しない場合(ステップST12;NO)、情報処理部103は、制御点Aの3次元データを生成し(ステップST13)、ステップST21の処理に進む。
一方、直線Zと構造物の表面とが交わる点が存在する場合(ステップST12;YES)、情報処理部103は、直線Zと構造物の表面とが交わる点を全て算出する(ステップST14)。
例えば、図7Aで示したようにロボット2の設置面B上にワークDaが置かれている場合、ステップST14の処理では、情報処理部103は、直線ZがワークDaの表面と交わる点、および直線Zがロボット2の設置面Bの表面と交わる点等を算出する。
情報処理部103は、ステップST14で算出した点から、制御点Aまでの距離を算出し、算出した距離が最短となる点を照準点Cに設定する(ステップST15)。情報処理部103は、グローバル座標またはローカル座標を用いて、ステップST15で設定した照準点Cにおいて互いに直交する直線Xおよび直線Yの方向を決定する(ステップST16)。情報処理部103は、予め設定された条件を参照して、直線Xおよび直線Yを構造物の表面形状に沿う線とするか否か判定を行う(ステップST17)。直線Xおよび直線Yを構造物の表面形状に沿う線とする場合(ステップST17;YES)、情報処理部103は、構造物の3次元データを参照し、ステップST11で決定した直線Zを照準点Cまでの長さとすると共に、ステップST16で方向を決定した直線Xおよび直線Yを、当該構造物の表面形状に沿う線とする照準座標軸の3次元データを生成する(ステップST18)。
一方、直線Xおよび直線Yを構造物の表面形状に沿う線としない場合(ステップST17;NO)、すなわち直線Xおよび直線Yを真直線とする場合、情報処理部103は、ステップST11で決定した直線Zを照準点Cまでの長さとすると共に、ステップST16で方向を決定した直線Xおよび直線Yを真直線とする照準座標軸の3次元データを生成する(ステップST19)。情報処理部103は、制御点Aの3次元データを生成する(ステップST20)。情報処理部103は、ステップST18からステップST20で生成した照準座標軸および制御点Aの3次元データ、またはステップST11で生成した直線Zの3次元データおよびステップST13で生成した制御点Aの3次元データを、出力制御部104に出力する(ステップST21)。その後、フローチャートは、図8のフローチャートのステップST4の処理に進む。
次に、図8のフローチャートのステップST7の処理の詳細について、図10のフローチャートを参照しながら説明する。
図10は、実施の形態1に係る表示制御装置1の情報処理部103の動作を示すフローチャートである。
なお、以下では、仮想空間に表示されたロボット2を動かす操作として、制御点Aに重畳して表示されたポインタを移動させる操作が入力された場合を例に説明する。
ポインタを移動させる操作情報が入力されると(ステップST6;YES)、情報処理部103は、入力された操作情報と、3次元データ取得部101から入力された3次元データとを参照し、仮想空間におけるポインタの位置情報を取得する(ステップST31)。情報処理部103は、バッファ等に格納された前回の制御点Aの位置情報と、ステップST31で取得したポインタの位置情報とから、直線X、直線Y、および直線Zにおけるポインタの移動方向および移動量を算出する(ステップST32)。
情報処理部103は、前回算出した照準座標軸を、ステップST32で算出した移動方向および移動量を用いて移動させ、新たな照準座標軸の位置及び方向等を算出し、当該新たな照準座標軸の3次元データを生成する(ステップST33)。なお、直線Xおよび直線Yを構造物の表面形状に沿う線とするように設定されている場合、情報処理部103は、構造物の3次元データも参照して、照準座標軸の直線Xおよび直線Yを構造物の表面形状に沿うような線とした3次元データを生成する。情報処理部103は、新たな制御点Aの3次元データを生成する(ステップST34)。
情報処理部103は、ステップST32からステップST34の処理と並行して、以下のステップST35およびステップST36の処理を行う。情報処理部103は、ステップST31で取得されたポインタの位置情報と、ロボット2の3次元データとから、ロボット2の移動方向および移動量を算出する(ステップST35)。情報処理部103は、ステップST35で算出したロボット2の移動方向および移動量を用いて、移動後のロボット2の3次元データを生成する(ステップST36)。次に、情報処理部103は、ステップST33で生成した新たな照準座標軸の3次元データ、ステップST34で生成した新たな制御点Aの3次元データ、およびステップST36で生成した移動後のロボット2の3次元データを、出力制御部104に出力する(ステップST37)。その後、フローチャートは、図8のフローチャートのステップST8の処理に進む。
オペレータは、制御点Aにカーソルを重ね合わせて選択状態とし、ジョグレバー、操作キーまたはマウスなどで目的の位置に移動させる。また、教示装置4がタブレット端末の場合、オペレータは、タッチパネルに表示された制御点Aに指を重ね合わせて選択状態とし、当該指を目的とする位置に移動させる。オペレータが制御点Aを選択すると、出力制御部104は、制御点Aの形状を拡大させる、または制御点Aの色を変化させるなどの強調表示を行い、制御点Aが選択中であることを知らせる表示制御を行う。また、出力制御部104は、制御点Aが選択された場合、または制御点Aが移動されている場合に、効果音を出力する制御を行ってもよい。制御点Aの移動に応じて情報処理部103が、図10のフローチャートで示した処理を行うことにより、ロボット形状をインタラクティブに変化させる処理を行う。オペレータは、照準座標軸を参考にしながら、制御点Aを移動させて仮想空間内のロボット2を駆動させると共に、ロボット2の通過点の登録等を行う。
出力制御部104は、直線Xおよび直線Yを構造物の表面形状に沿う線とした照準座標軸、または直線Xおよび直線Yを真直線とした照準座標軸に対して、図11に示すような表示方法を適用してもよい。
図11は、実施の形態1に係る表示制御装置1の照準座標軸のその他の表示例を示す図である。
図11Aは、出力制御部104が、ロボット2の駆動が制限された方向の照準座標軸を破線で示す表示制御を行った場合を示している。オペレータがジョグレバーを操作して、出力装置5に表示されたロボット2を駆動する場合、ロボット2の一方向のみへの直線駆動を認識し易くするために、表示制御装置1はロボット2の駆動方向を一方向に制限した上で、ジョグレバーへの操作を受け付ける場合がある。その場合、出力制御部104は、直線X、直線Yおよび直線Zのうち、ロボットの駆動が制限された方向の直線を、破線、非表示または半透過で表示する制御情報を生成する。これにより、表示制御装置1は、ロボット2を駆動させることが可能な方向をオペレータに明示する表示制御を行うことができる。オペレータは、図11Aに示した表示を参照しながらジョグレバーの操作を行うことにより、ロボット2を駆動させることができる方向を直感的に認識しながら操作することができる。
図11Bは、出力制御部104が、照準座標軸の表示に加えて、制御点Aの座標値および照準点Cの座標値を表示する制御を行った場合の表示例を示している。
出力制御部104は、情報処理部103から入力された3次元データから、制御点Aおよび照準点Cの座標値を取得する。出力制御部104は、取得した座標値を表示する表示領域Eaおよび表示領域Ebを、制御点Aおよび照準点Cの近傍に表示する制御情報を生成する。また、出力制御部104は、制御点Aおよび照準点Cの座標値の数値を修正可能に表示する制御情報を生成してもよい。この場合、オペレータは、座標値の修正を希望する表示領域を選択し、新たな座標値を入力する。操作情報取得部102が座標値を修正する操作情報を取得すると、情報処理部103は当該操作情報に基づいて、新たな照準座標軸、新たな制御点Aおよび駆動後のロボット2の3次元データを生成する。これにより、オペレータは、座標値を入力することにより、ロボット2を駆動させることができる。
以上のように、この実施の形態1によれば、ロボット2の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、ロボット2に設定された制御点Aを通る直線Zを含む照準座標軸の3次元データを生成する情報処理部103と、ロボット2の3次元データ、構造物の3次元データおよび情報処理部103が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置5に表示するための制御情報を生成する出力制御部104とを備えるように構成したので、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することができる。
また、この実施の形態1によれば、照準座標軸を、直線Zに加え、それぞれ直線Z上に位置する照準点Cを通る直線Xおよび直線Yで構成したので、表示された画像から奥行き方向の空間も容易に把握可能な情報を提示することができる。
また、この実施の形態1によれば、直線Zは、ロボット2に取り付けられたツール8に応じて設定された方向に延びる直線であるので、ロボットに取り付けられたツールがワークに対してどのような操作を行うか、またはワークに対してどのような加工を行うかに応じて照準座標軸の直線を決定することができる。これにより、ロボットが行う作業に適した照準座標軸を表示することができる。
また、この実施の形態1によれば、直線Zは鉛直方向に延びる直線であるので、照準座標軸の直線Zの軸方向が常に一定となり、オペレータは自身に対する上下方向と、ロボットに対する上下方向とを、容易に一致させて操作することができる。
また、この実施の形態1によれば、照準点Cは、仮想空間内において、第1の直線と、構造物の表面とが交わる点であるので、照準点が構造物上の点となり、オペレータが操作の目標とする点を提示することができる。
また、この実施の形態1によれば、直線Xおよび直線Yは、構造物の表面形状に沿った線であって、特定の一方向からみた場合に直線形状且つ互いに直交する形状となる線であるので、構造物の形状に合わせて移動する座標軸を提示することができる。
また、この実施の形態1によれば、直線Xおよび直線Yは、仮想空間内において、真っ直ぐに延びる線であるように構成したので、ロボットを構造物に衝突させないように移動する座標軸を提示することができる。
また、この実施の形態1によれば、出力制御部104が、直線Z、直線Xおよび直線Yのうち、ロボット2の駆動が制限される方向と同一方向に延びる直線の表示形態を変化させて表示するための制御情報を生成するように構成したので、オペレータはロボットを駆動させることができる方向を直感的に認識しながら操作することができる。
また、この実施の形態1によれば、出力制御部104が、制御点Aの座標値および照準点Cの座標値を表示するための制御情報を生成するように構成したので、オペレータは座標値を確認しながら操作を行うことができる。
実施の形態2.
この実施の形態2では、ロボット2の駆動限界を考慮して照準座標軸を表示する構成を示す。
図12は、実施の形態2に係る表示制御装置1Aの構成を示すブロック図である。
表示制御装置1Aは、図4で示した実施の形態1の表示制御装置1の情報処理部103に、駆動領域設定部105を追加して構成している。以下では、実施の形態1に係る表示制御装置1の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
駆動領域設定部105は、ロボット2が駆動できる限界の位置を示す情報(以下、駆動限界情報という)を取得する。駆動領域設定部105は、駆動限界情報を表示制御装置1A内の記憶領域(図示しない)から取得してもよいし、表示制御装置1Aの外部から取得してもよい。駆動領域設定部105は、取得した駆動限界情報に基づいて、仮想空間内に、ロボット2が駆動可能な領域(以下、駆動可能領域という)を設定する。情報処理部103aは、駆動領域設定部105が設定した駆動可能領域に基づいて、照準座標軸の3次元データを生成する。情報処理部103aは、補正した照準座標軸、制御点A、ロボット2および構造物の3次元データを出力制御部104に出力する。
次に、表示制御装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
表示制御装置100Aにおける情報処理部103aおよび駆動領域設定部105は、図5Aで示した処理回路1a、または図5Bで示したメモリ1cに格納されるプログラムを実行するプロセッサ1bである。
図13および図14は、実施の形態2に係る表示制御装置1Aにおけるロボット2の駆動可能領域および照準座標軸を示す図である。
駆動可能領域Fは、第1の曲面Gと、第2の曲面Hと、ロボット2の設置面Bのうちの一部の面Baとで囲まれた領域の内側の領域である。第1の曲面Gは、駆動限界情報が示す面であり、ロボット2が駆動できる最外域を示す曲面である。第2の曲面Hは、駆動限界情報が示す面であり、ロボット2が駆動できる最内域を示す曲面である。第1の曲面Gの外側、すなわちロボット2が存在していない側の領域、および第2の曲面の内側、すなわちロボット2の据付部2aが位置する側の領域には、ロボット2の制御点Aが位置することができない。面Baは、設置面Bにおいて、第1の曲面Gとロボット2の設置面Bとが交わる際に形成される第1の円Gaの外側、且つ第2の曲面Hとロボット2の設置面Bとが交わる際に形成される第2の円Haの内側の領域である。
駆動領域設定部105は、上述した駆動限界情報と、構造物の3次元データとから、仮想空間内の駆動可能領域Fを示す3次元データを生成する。情報処理部103aは、駆動領域設定部105が生成した駆動可能領域Fの3次元データに基づいて、生成済みの直線X、直線Y、および直線Zからなる照準座標軸(図6参照)の3次元データを、駆動可能領域F内の線分Xa、線分Yaおよび線分Zaからなる照準座標軸の3次元データに補正する(図13A参照)。
図13Aで示すように、表示制御装置1Aが、駆動可能領域F内の照準座標軸のみを表示することにより、線分Xa、線分Yaおよび線分Zaの直線の長さによって、ロボット2が駆動可能な範囲を表示することができる。
図13Aにおいて、線分Zaは現在のロボット2の状態から、ロボット2を線分Za方向にどの程度駆動させることができるかを示している。また、図13Aにおいて、線分Xaおよび線分Yaは、現在のロボット2の状態から、ロボット2を線分Za方向に駆動して制御点Aと照準点Cとが最も近づいた場合に、それぞれ線分Xa方向および線分Ya方向にどの程度駆動させることができるかを示している。オペレータは、例えば図13Aの表示例を視認することにより、現在の状態から、線分Za方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。また、例えば、現在の状態からロボット2を線分Za方向に駆動させて、制御点Aと照準点Cとを最も近づけた場合に、オペレータはロボット2を線分Xa方向および線分Ya方向に、どの程度駆動させることができるかを認識することができる。
また、情報処理部103aは、図13Bに示すように、補正後の照準座標軸である線分Zaを、制御点Aを通過して第1の曲面Gと交差する点まで延ばした線分Zbとし、生成済みの直線X、直線Y、および直線Zからなる照準座標軸の3次元データを、線分Xa、線分Yaおよび線分Zbからなる照準座標軸に補正してもよい。
図13Bで示すように、駆動可能領域F内の照準座標軸のみを表示し、且つ線分Zbを表示することにより、オペレータはロボット2を線分Zb方向にどの程度駆動させることができるかを認識することができる。
また、情報処理部103aは、図14に示すように、照準座標軸の照準点Cが、駆動可能領域F内に位置しない場合には、生成済みの直線X、直線Y、および直線Zからなる照準座標軸の3次元データを、駆動可能領域F内に存在する線分Zcのみの3次元データとする補正を行う。
図14に示すように、駆動可能領域F内に線分Zcのみを表示することにより、オペレータは、現在の線分Zcの方向では駆動可能領域F内にワーク等の構造物が存在していないこと、およびロボット2を線分Zc方向にどの程度駆動させることができるかを認識することができる。
また、情報処理部103aは、線分Zcが第1の曲面Gと交わる点に接する任意の仮想平面を設定し、当該仮想平面上における線分Xおよび線分Yの3次元データを生成することで、線分X、線分Y、および線分Zcからなる照準座標軸の3次元データを生成してもよい。
出力制御部104は、情報処理部103aから入力された3次元データに基づいて、構造物、ロボット2、補正後の照準座標軸、および制御点Aを、出力装置5に表示するための制御を行う。また、出力制御部104は、駆動可能領域Fを出力装置5に表示するための制御を行ってもよい。
次に、表示制御装置1Aの動作について説明する。
図15は、実施の形態2に係る表示制御装置1Aの情報処理部103aの動作を示すフローチャートである。
以下では、実施の形態1に係る表示制御装置1と同一のステップには、図9で示した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST13またはステップST20において、制御点Aの3次元データが生成されると、駆動領域設定部105は駆動限界情報から駆動可能領域Fの3次元データを生成する(ステップST41)。
情報処理部103aは、ステップST41で生成された駆動可能領域Fの3次元データに基づいて、ステップST18またはステップST19で生成した照準座標軸を構成する直線X、直線Yおよび直線Zの3次元データ、またはステップST11で生成された直線Zの3次元データを、駆動可能領域F内の線分の3次元データに補正する(ステップST42)。情報処理部103aは、ステップST42で補正した後の照準座標軸の3次元データ、およびステップST20またはステップST13で生成した制御点Aの3次元データを、出力制御部104に出力する(ステップST43)。その後、フローチャートは、図8のフローチャートのステップST4の処理に進む。
以上のように、この実施の形態2によれば、ロボット2の駆動限界に基づいて、ロボット2の駆動可能領域Fを設定する駆動領域設定部105を備え、直線Zを駆動可能領域F内に位置する部分の線分としたので、照準座標軸を構成する線分Zの直線の長さによって、ロボット2が駆動可能な範囲を表示することができる。これにより、オペレータは、線分Zの方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。
また、この実施の形態2によれば、ロボット2の駆動限界に基づいて、ロボット2の駆動可能領域Fを設定する駆動領域設定部105を備え、直線Z、直線X、および直線Yを、駆動可能領域F内に位置する部分の線分としたので、線分の直線の長さによって、ロボットが駆動可能な範囲を表示することができる。これにより、オペレータは各線分の方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。
実施の形態3.
この実施の形態3では、ロボット2の教示データを作成する構成を示す。
図16は、実施の形態3に係る表示制御装置1Bの構成を示すブロック図である。
表示制御装置1Bは、図4で示した実施の形態1の表示制御装置1に、位置情報記憶部106、軌道生成部107および再生処理部108を追加して構成している。また、図4で示した実施の形態1の表示制御装置1の情報処理部103および出力制御部104に替えて、情報処理部103bおよび出力制御部104aを設けて構成している。
以下では、実施の形態1に係る表示制御装置1の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
操作情報取得部102は、実施の形態1で示した、オペレータの操作情報として制御点Aに重畳して表示されたポインタを移動させる操作情報に加えて、以下の操作情報を取得する。操作情報取得部102は、オペレータの操作情報として、ロボット2の教示データを作成する際に、ロボット2に設定された制御点Aが通過すべき通過点を指定する操作情報を取得する。また、操作情報取得部102は、オペレータの操作情報として、ロボット2の駆動軌道の生成を指示する操作情報、および生成されたロボット2のシミュレーション再生を指示する操作情報を取得する。
情報処理部103bは、操作情報取得部102から、通過点を指定する操作情報が入力されると、当該操作情報が入力された際の制御点Aの位置情報を、通過点の位置情報として位置情報記憶部106に記憶させる。また、情報処理部103bは、通過点の位置情報に基づいて、通過点の3次元データを生成する。情報処理部103bは、ロボット2、構造物および照準座標軸の3次元データに加えて、通過点の3次元データを出力制御部104aに出力する。また、情報処理部103bは、ロボット2の3次元データを再生処理部108に出力する。
軌道生成部107は、操作情報取得部102から、ロボット2の駆動軌道の生成指示が入力されると、位置情報記憶部106に記憶された通過点の位置情報を取得する。軌道生成部107は、取得した通過点の位置情報を用いて、当該通過点を通る軌道を示す位置座標の群である駆動軌道を生成する。駆動軌道の生成方法の詳細は後述する。軌道生成部107は、生成した駆動軌道を出力制御部104aおよび再生処理部108に出力する。
再生処理部108は、操作情報取得部102から、ロボット2のシミュレーション再生を指示する操作情報が入力されると、軌道生成部107から入力された駆動軌道と、情報処理部103bから入力されたロボット2の3次元データとに基づいて、ロボット2が駆動軌道に沿って駆動する動作を算出する。再生処理部108は、算出した動作から、ロボット2の動きを示すシミュレーション情報を生成する。再生処理部108は、生成したシミュレーション情報を出力制御部104aに出力する。また、再生処理部108は、生成したシミュレーション情報と、情報処理部103bから入力された構造物の3次元データとを照合し、仮想空間においてロボット2と構造物とが干渉するか否か判定を行う。再生処理部108は、仮想空間において、ロボット2と構造物とが干渉すると判定した場合、干渉が発生する箇所の位置情報も合わせて出力制御部104aに出力する。
出力制御部104aは、情報処理部103bから入力された3次元データに基づいて、仮想空間内のロボット2、構造物、照準座標軸および通過点を表示する制御情報を生成する。また、出力制御部104aは、軌道生成部107が生成した駆動軌道を、出力装置5に表示する制御情報を生成する。また、出力制御部104aは、再生処理部108から入力されたシミュレーション情報を出力装置5において再生表示する制御情報を生成する。また、出力制御部104aは、干渉が発生する箇所を点または線などで強調表示する制御情報を生成する。また、出力制御部104aは、干渉が発生することを音声によってオペレータに通知する制御情報を生成してもよい。
出力制御部104aが制御情報を出力する教示装置4は、図1で示したように出力装置5および入力装置6で構成される。教示装置4は、出力制御部104aから入力された制御情報に基づいて、ロボット2および構造物を表示し、表示したロボット2に対して操作入力を行うことが可能な装置である。教示装置4は、汎用パソコン、タッチパネルで操作するタブレット端末、ヘッドマウントディスプレイなどを適用可能である。
出力装置5のディスプレイ51には、ロボット2および構造物が表示され、さらに操作入力を受け付ける教示ボタン等のグラフィックインタフェースが表示される。教示ボタンは、教示装置4に設けられたボタン、またはパソコンのキーボード等、ハードウェアのボタンであってもよい。教示ボタンは複数存在し、教示処理の開始または終了を入力するボタン、通過点の決定または削除を入力するボタン、生成された駆動軌道を確認するためのシミュレーションの再生または停止を入力するボタン、操作手順を進めるまたは戻すためのボタン等で構成される。
次に、表示制御装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
表示制御装置100Bにおける情報処理部103b、軌道生成部107、再生処理部108および出力制御部104aは、図5Aで示した処理回路1a、または図5Bで示したメモリ1cに格納されるプログラムを実行するプロセッサ1bである。
次に、軌道生成部107の詳細について説明する。
軌道生成部107は、ロボット2の駆動開始点と、通過点と、目的地点であるロボット2の駆動終了点とを結ぶ、ロボット2の駆動軌道を生成する。駆動開始点および駆動終了点は、予め設定された地点であってもよいし、オペレータが任意に設定した地点であってもよい。軌道生成部107は、位置情報記憶部106に、少なくとも1点の通過点が記憶されれば、ロボット2の駆動軌道を生成することが可能である。ロボット2の駆動開始点は、制御プログラムの開始点としてもよい。
軌道生成部107は、例えば直動軌道、接線軌道または手動軌道によって駆動軌道を生成する。
図17は、実施の形態3に係る表示制御装置1Bの軌道生成部107が生成する駆動軌道の種別を示す図である。図17Aは直動軌道の一例、図17Bは接線軌道の一例、および図17Cは手動軌道の一例を示している。
直動軌道は、2つの通過点間を直線で結んで得られる駆動軌道である。具体的には、図17Aに示すように、第1の通過点P1と第2の通過点P2とを直線で結び、第2の通過点P2と第3の通過点P3とを直線で結んで得られる軌道Qaである。
接線軌道は、開始点と1つ目の通過点を直線で結び、2つ目以降の通過点については接線の連続性を維持して滑らかに結んで得られる駆動軌道である。具体的には、図17Bに示すように、第1の通過点P1と第2の通過点P2とを直線で結び、第2の通過点P2および第3の通過点P3において接点の連続性を維持して滑らかに結んで得られた軌道Qbである。
手動軌道は、オペレータが、ジョグレバー、操作キーまたはマウスなどを操作して生成した軌道を、そのまま駆動軌道としたものである。具体的には、図17Cに示すように、第1の通過点P1と第2の通過点P2とをオペレータが出力装置5のディスプレイ51上で描画した線分で結び、第2の通過点P2と第3の通過点P3とをオペレータが描画した線分で結んで得られる軌道Qcである。
軌道生成部107は、生成した駆動軌道、および当該駆動軌道上の通過点の位置情報を、出力制御部104aおよび再生処理部108に出力する。
通過点は、図17Aから図17Cで示した円形、または矩形等の形状で強調表示される。これにより、オペレータは、通過点を容易に認識することができる。出力制御部104aは、表示する通過点の近傍に、通過点の識別を示す文字、例えば「通過点1」、「Point1」または「P1」等を表示する制御情報を生成してもよい。オペレータが通過点を決定すると、出力制御部104aは、通過点の確定を印象付ける効果音を出力する制御を行ってもよい。オペレータが複数の通過点を決定した場合、各通過点は、決定された順に識別を示す文字が付され、例えば「通過点1」、「通過点2」および「通過点3」等の連番で表示される。
軌道生成部107は、ディスプレイ51に表示された駆動軌道上の通過点を移動させる操作情報が入力されると、当該通過点の位置情報を操作情報に従って移動させる修正を行う。また、軌道生成部107は、駆動軌道を、修正した通過点を結ぶ軌道に修正する。軌道生成部107は、出力制御部104aを介してディスプレイ51に表示された駆動軌道上の通過点を選択して削除する操作情報が入力されると、当該通過点の位置情報を削除する。また、軌道生成部107は、駆動軌道を削除した通過点を通過しない軌道に修正し、各通過点に付した識別を示す文字を修正する。軌道生成部107は、修正した駆動軌道、および修正した駆動軌道上の通過点の位置情報を、出力制御部104aおよび再生処理部108に出力する。なお、軌道生成部107は、ディスプレイ51に表示された駆動軌道を選択して移動させる操作情報の入力を受け付け、駆動軌道を移動させる修正を行ってもよい。
教示装置4は、駆動軌道の修正が完了したことを示す、例えば完了ボタンの押下操作を受け付ける。また、教示装置4は、通過点を移動または削除する操作情報の入力が完了すると、駆動軌道の修正が完了したと判断し、完了ボタンの押下操作を不要としてもよい。教示装置4は、駆動軌道の修正が完了したことを、表示制御装置1に通知する。表示制御装置1は、駆動軌道の修正が完了したことが通知されると、生成した駆動軌道に沿ってロボット2を駆動させる制御プログラムをロボット制御装置7に出力する。
次に、再生処理部108の詳細について説明する。
再生処理部108は、軌道生成部107から入力された駆動軌道を示す情報と、情報処理部103bから取得したロボット2の3次元データとから、ロボット2が駆動軌道に沿って駆動する動作を算出し、シミュレーション情報を生成する。再生処理部108は、生成したシミュレーション情報を出力制御部104aに出力する。出力制御部104aは、再生処理部108から入力されたシミュレーション情報と、情報処理部103bから入力された3次元データとに基づいて、仮想空間においてロボット2が駆動軌道に沿って駆動する動画を表示する制御情報を生成し、出力装置5に出力する。
また、再生処理部108は、シミュレーション情報を生成する処理と並行して、シミュレーション情報と、情報処理部103bから入力された構造物の3次元データとの照合を行う。再生処理部108は、照合結果を参照し、仮想空間においてロボット2と構造物とが干渉するか否か判定を行う。ここでロボット2と構造物との干渉には、図3で示したロボット2のフランジ部2gに取り付けられたツール8と構造物との干渉も含まれるものとする。詳細には、再生処理部108は、ロボット2が駆動軌道に沿って駆動した際に、ロボット2のアーム、ロボット2の軸部材、ロボット2のフランジ部2g、およびツール8等のいずれかが、構造物と干渉するか否か判定を行う。再生処理部108は、干渉すると判定した場合に、干渉が発生する箇所の位置情報を取得し、出力制御部104aに出力する。出力制御部104aは、再生処理部108から干渉が発生する箇所の位置情報が入力されると、当該干渉が発生する箇所を明示するための制御情報を生成する。
出力制御部104aは、シミュレーション情報を再生している際に干渉が発生する箇所を明示する制御情報を生成してもよいし、シミュレーション情報を再生することなく、ロボット2の駆動軌道を表示する際に干渉が発生する箇所を明示する制御情報を生成してもよい。例えば、軌道生成部107が、直動軌道または接線軌道を生成する場合、再生処理部108はシミュレーション情報を生成することなく、仮想空間においてロボット2と構造物とが干渉するか否かの判定を行う。再生処理部108は、干渉すると判定した場合に、干渉が発生する箇所の位置情報を出力制御部104aに出力する。これにより、出力制御部104aは、瞬時に駆動軌道上において干渉が発生する箇所を明示する制御を行うことができる。
出力制御部104aは、ロボット2の制御点Aが駆動軌道の開始点に位置する姿勢で表示し、次に駆動軌道に沿ってロボット2が駆動する動画を表示する制御を生成する。出力制御部104aは、ロボット2の駆動が終了すると、ロボット2の制御点Aが駆動軌道の終点に位置する姿勢で静止させて表示する制御情報を生成する。また、ロボット2が駆動軌道に沿って駆動する表示を行っている際に、操作情報取得部102が、例えば停止ボタンを押下する操作情報を取得すると、出力制御部104aは、情報処理部103bおよび再生処理部108を介して、停止ボタンが押下された際の姿勢で停止したロボット2を表示する制御情報を生成する。また、ある姿勢でロボット2が停止している表示を行っている際に、操作情報取得部102が、例えば再生ボタンを押下する操作情報を取得すると、出力制御部104aは、情報処理部103bおよび再生処理部108を介して、停止した姿勢から再度ロボット2の駆動を再開させる表示制御を行う。
出力制御部104aは、再生処理部108から干渉が発生する箇所の位置情報が入力されると、ロボット2との干渉箇所を、駆動軌道上で点または線等で強調表示する表示制御を行う。また、出力制御部104aは、駆動軌道の線の太さを変化させる、または線の色を変化させる等により、干渉箇所を強調表示する表示制御を行う。さらに、出力制御部104aは、仮想空間においてロボット2と構造物とが干渉する際に、スピーカ52から効果音を出力する制御を行ってもよい。
次に、表示制御装置1Bの軌道生成部107、再生処理部108および出力制御部104aの動作について、図18および図19のフローチャートを参照しながら説明する。
図18は、実施の形態3に係る表示制御装置1Bの軌道生成部107の動作を示すフローチャートである。なお、以下では、位置情報記憶部106に新たな通過点の位置情報が記憶されると、軌道生成部107が駆動軌道を生成するものとして説明する。
位置情報記憶部106に新たな通過点の位置情報が記憶されると(ステップST51)、軌道生成部107は位置情報記憶部106に記憶された通過点の位置情報を取得する(ステップST52)。軌道生成部107は、ステップST52で取得した通過点の位置情報を用いて、ロボット2の駆動軌道を生成する(ステップST53)。軌道生成部107は、生成した駆動軌道を示す情報を出力制御部104aに出力する。
一方、出力制御部104aは、入力された駆動軌道を示す情報に基づいて、駆動軌道および駆動軌道上の通過点を、仮想空間内に表示する制御情報を生成する(ステップST54)。出力制御部104aは、生成した制御情報を出力装置5に出力する。その後、軌道生成部107は、駆動軌道を修正する指示、または通過点を修正指示が入力されたか否か判定を行う(ステップST55)。ここで、修正指示には、通過点の修正と、通過点の削除とが含まれるものとする。修正指示が入力された場合(ステップST55;YES)、軌道生成部107は、修正指示に基づいて、前回生成した駆動軌道を修正する(ステップST56)。軌道生成部107は、修正した駆動軌道を示す情報を、出力制御部104aに出力し、ステップST54の処理に戻る。
一方、修正指示が入力されない場合(ステップST55;NO)、軌道生成部107は、生成または修正した駆動軌道を示す情報を再生処理部108に出力する。再生処理部108は、軌道生成部107から入力された駆動軌道を示す情報をバッファ等の一時格納領域に格納し(ステップST57)、処理を終了する。
図19は、実施の形態3に係る表示制御装置1Bの再生処理部108によるシミュレーション情報の生成を示すフローチャートである。なお、以下では、シミュレーション情報の生成指示が入力された場合に、再生処理部108がシミュレーション情報を生成するものとして説明する。
操作情報取得部102からシミュレーション再生指示が入力されると(ステップST61)、再生処理部108は、図18のフローチャートのステップST57でバッファ等に格納した駆動軌道を示す情報と、情報処理部103bから入力されたロボット2および構造物の3次元データとから、ロボット2が駆動軌道に沿って駆動するシミュレーション情報を生成する(ステップST62)。
また、再生処理部108は、仮想空間において、ロボット2が駆動軌道に沿って駆動した場合に、ロボット2と構造物とが干渉するか否か判定を行う(ステップST63)。干渉しないと判定した場合(ステップST63;NO)、再生処理部108は、ステップST62で生成したシミュレーション情報を出力制御部104aに出力する。出力制御部104aは、再生処理部108から入力されたシミュレーション情報を再生する制御情報を生成する(ステップST64)。
一方、干渉すると判定した場合(ステップST63;YES)、再生処理部108は干渉が発生する箇所の位置情報を取得する(ステップST65)。再生処理部108は、ステップST62で生成したシミュレーション情報およびステップST63で取得した干渉が発生する箇所の位置情報を、出力制御部104aに出力する。出力制御部104aは、シミュレーション情報を再生すると共に、干渉が発生する箇所を駆動軌道上に表示する制御情報を生成する(ステップST66)。出力制御部104aは、ステップST64またはステップST66で生成した制御情報を出力装置5に出力し、処理を終了する。
図20は、実施の形態3に係る発明の表示制御装置1Bによる干渉箇所の表示例を示す図である。
駆動軌道Qdは、ロボット2の制御点Aが、第1の通過点P1、第2の通過点P2および第3の通過点P3を通過する軌道である。領域Raは、ロボット2と構造物Dcとが干渉する箇所を示す領域である。領域Rbは、ロボット2が領域Raで構造物Dcと干渉する際に、制御点Aが駆動軌道Qd上のどこを駆動しているかを示す領域である。領域Raは、円形状で干渉箇所を明示している。一方、領域Rbは、駆動軌道Qdの一部を線分の太さを太く描画して干渉が発生する駆動軌道の箇所を明示している。
出力装置5において、図20で示す表示が行われた場合に、オペレータは当該表示を確認しながら、駆動軌道Qdを修正する指示を、入力装置6を介して入力するように構成してもよい。その場合、軌道生成部107は、入力された修正指示に基づいて、前回生成した駆動軌道を修正する。再生処理部108は、修正した駆動軌道に沿ってロボット2が駆動した場合に、ロボット2と構造物とに干渉が発生するか判定を行う。出力制御部104aは、判定結果に応じた制御情報を生成し、出力装置5に出力する。これにより、オペレータは、干渉箇所を視認しながら、駆動軌道の修正を行うことができる。
また、上述したシミュレーション再生において、オペレータは、ロボット2の駆動速度、各通過点における静止時間、駆動の繰り返し回数およびツール8の制御条件などを設定可能である。再生処理部108は、設定された条件に基づいて、シミュレーション情報を生成する。
上述したシミュレーション再生が終了する、または教示データの生成が終了すると、再生処理部108は現在設定されているロボット2の駆動軌道に沿ってロボット2を駆動させる制御プログラムをロボット制御装置7に出力する。
なお、シミュレーション再生の終了、または教示データ生成の終了は、例えばオペレータによる終了ボタンの押下によって判断してもよいし、ロボット2と構造物との干渉する駆動軌道が生成された場合に教示データの生成が終了したと判断してもよい。
以上のように、この実施の形態3によれば、ロボット2の通過点を指定する操作情報に基づいて、指定された通過点を経由するロボット2の駆動軌道を生成する軌道生成部107を備え、出力制御部104aは、軌道生成部107が生成した駆動軌道および駆動軌道上の通過点を表示するための制御情報を生成するように構成したので、設定した通過点を経由する駆動軌道を確認するための情報を提示することができる。
また、この実施の形態3によれば、軌道生成部107が生成した駆動軌道に沿って、ロボット2が駆動する動作を算出し、ロボット2の動きを示すシミュレーション情報を生成する再生処理部108を備え、出力制御部104aは、再生処理部108が生成したシミュレーション情報を再生するための制御情報を生成するように構成したので、駆動軌道に沿ってロボットが駆動する際の動きを確認するための情報を提示することができる。
また、この実施の形態3によれば、再生処理部108は、軌道生成部107が生成した駆動軌道に沿って、ロボット2が駆動した場合に、ロボット2と構造物とが干渉するか否か判定を行い、出力制御部104aは、再生処理部108がロボット2と構造物とが干渉すると判定した場合に、干渉が発生する箇所を表示するための制御情報を生成するように構成したので、駆動軌道に沿ってロボットが駆動した際に干渉が発生することを示す情報を提示することができる。
なお、上述した説明では、実施の形態1で示した表示制御装置1に、位置情報記憶部106、軌道生成部107、再生処理部108および干渉判定部109を追加して構成する例を示したが、実施の形態2で示した表示制御装置1Aに、位置情報記憶部106、軌道生成部107、再生処理部108および干渉判定部109を追加して構成してもよい。
上述した実施の形態1から実施の形態3の表示制御装置1,1A,1Bから出力された制御情報を、出力装置5を介して拡張現実空間で表示する場合が想定される。この場合、現実環境のロボット2に対して、制御点A、照準座標軸、通過点、駆動軌道および干渉領域等の情報を重畳表示する。また、現実環境にロボット2が存在しない場合には、現実環境の情報に対して、表示制御装置1,1A,1Bが生成したロボット2の情報も合わせて重畳表示する。
このように拡張現実空間で表示を行う場合、出力装置5として、3次元スキャニング用デバイスと加速度センサとを備えたタブレット端末またはヘッドマウントディスプレイ等を使用する。拡張現実空間の出力装置5は、ステレオカメラまたは深度センサ等を用いて、現実環境のロボット2および構造物の形状をスキャニングして3次元データを生成する。拡張現実空間の出力装置5は、生成した3次元データと、予め入力された教示データを入力するためのロボット2および構造物の3次元データとに、共通する特徴点を検出し、2つの3次元データの位置を一致させる。
拡張現実空間の出力装置5として、タブレット端末、または密閉式ヘッドマウントディスプレイを適用する場合、3次元スキャニング用デバイスの近傍に備えた画像入力用のカメラで撮像した現実環境のロボット2および周辺環境の画像に、予め入力された教示データを入力するためのロボット2および構造物の3次元データを重畳表示する。
一方、拡張現実空間の出力装置5として、透過式ヘッドマウントディスプレイを適用する場合、表示用のレンズを通して見える実物のロボット2および周辺環境に、予め入力された教示データを入力するためのロボット2および構造物を重畳表示する。
拡張現実空間の出力装置5は、3次元スキャニングを定期的に行い、加速度センサによるオペレータの動きの検出結果と合わせて演算を行い、上述したロボット2および構造物の重畳表示をリアルタイムに更新する。なお、実物のロボット2および構造物の形状をスキャニングした情報は表示しない。
3次元データが重畳表示されたデータは、仮想現実空間で教示データの生成およびシミュレーション情報の作成と同様に、通過点、駆動軌道および操作ボタン等の重畳表示を行うことができる。
また、拡張現実空間の出力装置5は、予め入力された教示データを入力するためのロボット2および構造物を表示しない設定としてもよい。これにより、ロボット2と構造物との干渉を確認する場合に、実物の構造物と、3次元データのロボット2とが実際に干渉しているかのように、オペレータに実感させることができる。
図21は、実施の形態1から実施の形態3で示した表示制御装置100,100A,100Bの制御情報を、拡張現実空間の出力装置5に出力した場合の表示例を示す図である。
図21では、現実環境のロボット2Aおよび現実環境の周辺環境に、ロボット2の3次元データ2B、制御点A、照準座標軸、第1の通過点P1および駆動軌道Qeを重畳表示した場合の表示例を示している。
上述した説明では、出力制御部104が生成する制御情報は、ロボット2および照準座標軸を、仮想空間内の特定の位置から見た場合の画像を、出力装置5に表示させるための情報である場合を示した。しかし、図21で示したように、制御情報は、少なくとも照準座標軸を、仮想空間内の特定の位置から見た場合の画像を、出力装置5に表示させるための情報であってもよい。
上述した実施の形態1から実施の形態3で示した表示制御装置1,1A,1Bは、機器を遠隔操作する制御プログラムを生成するための装置として適用することも可能である。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る表示制御装置は、作業等を行わせるロボットの制御プログラムを生成するための機器、または機器を遠隔操作する制御プログラムを生成するための機器等に適用可能である。
1,1A,1B 表示制御装置、101 3次元データ取得部、102 操作情報取得部、103,103a,103b 情報処理部、104,104a 出力制御部、105 駆動領域設定部、106 位置情報記憶部、107 軌道生成部、108 再生処理部。

Claims (19)

  1. 駆動対象機器の3次元データおよび構造物の3次元データに基づいて、前記構造物の3次元データが規定する仮想空間内において、前記駆動対象機器に設定された制御点を通る第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、
    前記駆動対象機器の3次元データ、前記構造物の3次元データおよび情報処理部が生成した前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備え
    前記第1の直線は、前記制御点と前記構造物の表面との交点までの部分の線分である表示制御装置。
  2. 前記照準座標軸は、前記第1の直線に加え、それぞれ前記第1の直線上に位置する照準点を通る第2の直線および第3の直線で構成されたことを特徴とする請求項1記載の表示制御装置。
  3. 前記第1の直線は、前記駆動対象機器に取り付けられたツールに応じて設定された方向に延びる直線であることを特徴とする請求項1記載の表示制御装置。
  4. 前記第1の直線は、鉛直方向に延びる直線であることを特徴とする請求項1記載の表示制御装置。
  5. 前記第2の直線および前記第3の直線は、互いに直交するx軸およびy軸と、鉛直方向のz軸を含むグローバル座標における、前記x軸および前記y軸の軸方向と同一方向に延びる直線であることを特徴とする請求項2記載の表示制御装置。
  6. 前記第2の直線および前記第3の直線は、互いに直交するx軸、y軸およびz軸を含むローカル座標における、前記x軸および前記y軸と同一方向に延びる直線であることを特徴とする請求項2記載の表示制御装置。
  7. 前記照準点は、前記仮想空間内において、前記第1の直線と、前記構造物の表面とが交わる点であることを特徴とする請求項2記載の表示制御装置。
  8. 前記第2の直線および前記第3の直線は、前記構造物の表面形状に沿った線であって、特定の一方向からみた場合に直線形状且つ互いに直交する形状となる線であることを特徴とする請求項2記載の表示制御装置。
  9. 前記第2の直線および前記第3の直線は、前記仮想空間内において、真っ直ぐに延びる線であることを特徴とする請求項2記載の表示制御装置。
  10. 前記出力制御部は、前記第1の直線、前記第2の直線および前記第3の直線のうち、前記駆動対象機器の駆動が制限される方向と同一方向に延びる直線の表示形態を変化させて表示するための制御情報を生成することを特徴とする請求項2記載の表示制御装置。
  11. 前記出力制御部は、前記制御点の座標値を表示するための制御情報を生成することを特徴とする請求項1記載の表示制御装置。
  12. 前記出力制御部は、前記照準点の座標値を表示するための制御情報を生成することを特徴とする請求項2記載の表示制御装置。
  13. 駆動対象機器の3次元データおよび構造物の3次元データに基づいて、前記構造物の3次元データが規定する仮想空間内において、前記駆動対象機器に設定された制御点を通る第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、
    前記駆動対象機器の3次元データ、前記構造物の3次元データおよび情報処理部が生成した前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する出力制御部と、
    前記駆動対象機器の駆動限界に基づいて、前記駆動対象機器の駆動可能領域を設定する駆動領域設定部を備え、
    前記第1の直線は、前記駆動可能領域内に位置する部分の線分であることを特徴とする表示制御装置。
  14. 前記照準座標軸は、前記第1の直線に加え、それぞれ前記第1の直線上に位置する照準点を通る第2の直線および第3の直線で構成され、
    記第2の直線、および前記第3の直線は、前記駆動可能領域内に位置する部分の線分であることを特徴とする請求項13記載の表示制御装置。
  15. 前記駆動対象機器の通過点を指定する操作情報に基づいて、前記指定された通過点を経由する前記駆動対象機器の駆動軌道を生成する軌道生成部を備え、
    前記出力制御部は、前記軌道生成部が生成した前記駆動軌道および前記駆動軌道上の通過点を表示するための制御情報を生成することを特徴とする請求項1又は13記載の表示制御装置。
  16. 前記軌道生成部が生成した前記駆動軌道に沿って、前記駆動対象機器が駆動する動作を算出し、前記駆動対象機器の動きを示すシミュレーション情報を生成する再生処理部を備え、
    前記出力制御部は、前記再生処理部が生成した前記シミュレーション情報を再生するための制御情報を生成することを特徴とする請求項15記載の表示制御装置。
  17. 前記再生処理部は、前記軌道生成部が生成した前記駆動軌道に沿って、前記駆動対象機器が駆動した場合に、前記駆動対象機器と前記構造物とが干渉するか否か判定を行い、
    前記出力制御部は、前記再生処理部が前記駆動対象機器と前記構造物とが干渉すると判定した場合に、前記干渉が発生する箇所を表示するための制御情報を生成することを特徴とする請求項16記載の表示制御装置。
  18. 情報処理部が、駆動対象機器の3次元データおよび構造物の3次元データに基づいて、前記構造物の3次元データが規定する仮想空間内において、前記駆動対象機器に設定された制御点と前記構造物の表面との交点までの部分の線分である第1の直線を含む照準座標軸の3次元データを生成するステップと、
    出力制御部が、前記駆動対象機器の3次元データ、前記構造物の3次元データおよび前記生成された前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成するステップとを備えた表示制御方法。
  19. 駆動対象機器の3次元データおよび構造物の3次元データに基づいて、前記構造物の3次元データが規定する仮想空間内において、前記駆動対象機器に設定された制御点と前記構造物の表面との交点までの部分の線分である第1の直線を含む照準座標軸の3次元データを生成する手順と、
    前記駆動対象機器の3次元データ、前記構造物の3次元データおよび前記生成された前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する手順とをコンピュータに実行させるための表示制御プログラム。
JP2018526967A 2017-11-07 2017-11-07 表示制御装置、表示制御方法および表示制御プログラム Active JP6385627B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040132 WO2019092792A1 (ja) 2017-11-07 2017-11-07 表示制御装置、表示制御方法および表示制御プログラム

Publications (2)

Publication Number Publication Date
JP6385627B1 true JP6385627B1 (ja) 2018-09-05
JPWO2019092792A1 JPWO2019092792A1 (ja) 2019-11-14

Family

ID=63444307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526967A Active JP6385627B1 (ja) 2017-11-07 2017-11-07 表示制御装置、表示制御方法および表示制御プログラム

Country Status (3)

Country Link
JP (1) JP6385627B1 (ja)
TW (1) TW201918807A (ja)
WO (1) WO2019092792A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200101598A (ko) * 2019-02-20 2020-08-28 한국기술교육대학교 산학협력단 증강현실을 이용한 로봇팔의 움직임 확인 방법
JP2020179484A (ja) * 2019-04-26 2020-11-05 ファナック株式会社 振動表示装置、動作プログラム作成装置、およびシステム
US11538201B2 (en) 2019-12-04 2022-12-27 Fanuc Corporation Display device and display program
US11904478B2 (en) 2019-11-22 2024-02-20 Fanuc Corporation Simulation device and robot system using augmented reality

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7260428B2 (ja) * 2019-07-18 2023-04-18 ファナック株式会社 拡張現実グラス装置及び表示プログラム
JP7293057B2 (ja) * 2019-09-13 2023-06-19 株式会社東芝 放射線量分布表示システムおよび放射線量分布表示方法
WO2021260898A1 (ja) * 2020-06-25 2021-12-30 株式会社日立ハイテク ロボット教示装置及び作業教示方法
EP4190513A4 (en) * 2020-08-03 2024-01-24 Mitsubishi Electric Corporation REMOTE CONTROL DEVICE
JPWO2022131068A1 (ja) * 2020-12-14 2022-06-23
JP2022186476A (ja) * 2021-06-04 2022-12-15 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09300256A (ja) * 1996-05-14 1997-11-25 Nippon Telegr & Teleph Corp <Ntt> ロボット教示方法及び装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2006190228A (ja) * 2005-01-07 2006-07-20 Kobe Steel Ltd 動作プログラムの作成方法
JP2009226561A (ja) * 2008-03-25 2009-10-08 Kobe Steel Ltd ロボットの動作余裕量演算表示方法及びその装置
JP2013136123A (ja) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd ロボット動作教示支援装置及び方法
JP2014161921A (ja) * 2013-02-21 2014-09-08 Yaskawa Electric Corp ロボットシミュレータ、ロボット教示装置およびロボット教示方法
JP2015147260A (ja) * 2014-02-05 2015-08-20 株式会社デンソーウェーブ ロボットの教示装置
JP2017019068A (ja) * 2015-07-14 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09300256A (ja) * 1996-05-14 1997-11-25 Nippon Telegr & Teleph Corp <Ntt> ロボット教示方法及び装置
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
JP2006190228A (ja) * 2005-01-07 2006-07-20 Kobe Steel Ltd 動作プログラムの作成方法
JP2009226561A (ja) * 2008-03-25 2009-10-08 Kobe Steel Ltd ロボットの動作余裕量演算表示方法及びその装置
JP2013136123A (ja) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd ロボット動作教示支援装置及び方法
JP2014161921A (ja) * 2013-02-21 2014-09-08 Yaskawa Electric Corp ロボットシミュレータ、ロボット教示装置およびロボット教示方法
JP2015147260A (ja) * 2014-02-05 2015-08-20 株式会社デンソーウェーブ ロボットの教示装置
JP2017019068A (ja) * 2015-07-14 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200101598A (ko) * 2019-02-20 2020-08-28 한국기술교육대학교 산학협력단 증강현실을 이용한 로봇팔의 움직임 확인 방법
KR102184935B1 (ko) * 2019-02-20 2020-12-01 한국기술교육대학교 산학협력단 증강현실을 이용한 로봇팔의 움직임 확인 방법
JP2020179484A (ja) * 2019-04-26 2020-11-05 ファナック株式会社 振動表示装置、動作プログラム作成装置、およびシステム
JP7048539B2 (ja) 2019-04-26 2022-04-05 ファナック株式会社 振動表示装置、動作プログラム作成装置、およびシステム
US11534912B2 (en) 2019-04-26 2022-12-27 Fanuc Corporation Vibration display device, operation program creating device, and system
DE102020110252B4 (de) 2019-04-26 2023-11-02 Fanuc Corporation Vibrationsanzeigeeinrichtung, Betriebsprogrammerstellungseinrichtung und System
US11904478B2 (en) 2019-11-22 2024-02-20 Fanuc Corporation Simulation device and robot system using augmented reality
US11538201B2 (en) 2019-12-04 2022-12-27 Fanuc Corporation Display device and display program

Also Published As

Publication number Publication date
TW201918807A (zh) 2019-05-16
WO2019092792A1 (ja) 2019-05-16
JPWO2019092792A1 (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
JP6385627B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
CN108453702B (zh) 机器人仿真器、机器人系统以及仿真方法
JP6810093B2 (ja) ロボットのシミュレーション装置
JP6787966B2 (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP6311421B2 (ja) ティーチングシステム、ロボットシステムおよびティーチング方法
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
JP3841439B2 (ja) ロボットのジョグ送り方法
JP4347313B2 (ja) ロボット教示操作盤
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
WO2016103307A1 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
US20140236356A1 (en) Teaching system, teaching method and robot system
WO2019044766A1 (ja) ロボットシステム及びその運転方法
JP6625266B1 (ja) ロボット制御装置
JP2019211487A (ja) 測定システム
JP7035555B2 (ja) 教示装置、及びシステム
CN109661621B (zh) 加工仿真显示装置及加工仿真显示方法
JP2015058493A (ja) 制御装置、ロボットシステム、ロボット、ロボット動作情報生成方法及びプログラム
JP2018132847A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2024071251A (ja) Ar表示の作業シナリオ作成システム及びar表示の作業シナリオ作成方法
WO2023106353A1 (ja) 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム
WO2020067256A1 (ja) 制御装置
JP2023017440A (ja) 画像処理装置
WO2020067257A1 (ja) 制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180524

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180704

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180807

R150 Certificate of patent or registration of utility model

Ref document number: 6385627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250