JPWO2019092792A1 - Display control apparatus, display control method, and display control program - Google Patents
Display control apparatus, display control method, and display control program Download PDFInfo
- Publication number
- JPWO2019092792A1 JPWO2019092792A1 JP2018526967A JP2018526967A JPWO2019092792A1 JP WO2019092792 A1 JPWO2019092792 A1 JP WO2019092792A1 JP 2018526967 A JP2018526967 A JP 2018526967A JP 2018526967 A JP2018526967 A JP 2018526967A JP WO2019092792 A1 JPWO2019092792 A1 JP WO2019092792A1
- Authority
- JP
- Japan
- Prior art keywords
- straight line
- dimensional data
- robot
- information
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
ロボット(2)の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、ロボット(2)に設定された制御点(Aを)通る直線Zを含む照準座標軸の3次元データを生成する情報処理部(103)と、ロボット(2)の3次元データ、構造物の3次元データおよび情報処理部(103)が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置(5)に表示するための制御情報を生成する出力制御部(104)とを備える。Based on the three-dimensional data of the robot (2) and the three-dimensional data of the structure, a straight line Z passing through the control point (A) set in the robot (2) in the virtual space defined by the three-dimensional data of the structure Processing unit (103) for generating three-dimensional data of the aiming coordinate axis including the three-dimensional data of the robot (2), the three-dimensional data of the structure, and the three-dimensional data of the aiming coordinate axis generated by the information processing unit (103) And an output control unit (104) for generating control information for displaying the aiming coordinate axis on the output device (5).
Description
この発明は、機器の操作を支援するための情報を表示するための技術に関するものである。 The present invention relates to a technique for displaying information for supporting operation of a device.
従来、定められた作業等を機器(以下では、機器がロボットの場合を例に説明する)に行わせるための教示データに基づいて、ロボットの動作をシミュレート演算して表示するロボットシミュレータが種々提案されている。ロボットシミュレータを用いることにより、オペレータは、実際にロボットを動作させることなく、ロボットが周囲の構造物に干渉しないか等の検証を行いながら、教示データを作成することができる。オペレータは、ロボットのアームの先端部が通過する3次元空間上のポイントまたは軌道を指定することにより、教示データを作成する。 Conventionally, there are various robot simulators that simulate and display the operation of a robot based on teaching data for causing a device (hereinafter, a case where the device is a robot) to perform a predetermined operation or the like. Proposed. By using the robot simulator, the operator can create teaching data while verifying whether or not the robot interferes with surrounding structures without actually operating the robot. The operator creates teaching data by designating a point or trajectory in a three-dimensional space through which the tip of the robot arm passes.
教示データの作成方法として、数値入力によりロボットのアームを動かして作成する方法、矢印ボタンまたはジョイスティック等を用いた間接的な操作でロボットのアームを動かして作成する方法、およびオペレータがロボットのアームを掴んで直接動かして作成する方法等が存在する。
しかし、数値入力によりロボットのアームを動かして教示データを作成する場合、教示データの結果がオペレータの意図通りになるまで、数値入力を繰り返す必要があり、時間を要するという問題があった。The teaching data can be created by moving the robot arm by numerical input, creating the robot arm by moving the robot arm indirectly using an arrow button or joystick, and the operator creating the robot arm. There are methods to create by grabbing and moving directly.
However, when teaching data is created by moving the robot arm by numerical input, it is necessary to repeat numerical input until the result of the teaching data becomes as intended by the operator, and there is a problem that it takes time.
また、間接的な操作でロボットのアームを動かして教示データを作成する場合、オペレータは、自身に対する上下左右の方向と、ロボットのアームに対する上下左右方向とを一致させて操作する必要がある。そのため、オペレータは直感的にロボットのアームを操作することができず、誤操作を誘発する可能性があるという問題があった。
また、オペレータがロボットのアームを掴んで直接動かすことにより教示データを作成する場合、各オペレータの能力に依存する作業であるため、作成された教示データにバラつきが生じ、高精度な教示データを得ることが困難であるという問題があった。また、ロボットが稼動している場合、またはロボットの周辺領域への立ち入りが禁止されている場合には、オペレータが教示データを作成する作業を行うことができないという問題があった。In addition, when creating teaching data by moving a robot arm by indirect operation, the operator needs to operate by making the vertical and horizontal directions with respect to itself and the vertical and horizontal directions with respect to the robot arm coincide. Therefore, there is a problem that the operator cannot intuitively operate the arm of the robot and may induce an erroneous operation.
In addition, when teaching data is created by the operator grabbing and directly moving the robot arm, the work depends on the ability of each operator, so the created teaching data varies and high-precision teaching data is obtained. There was a problem that it was difficult. Further, when the robot is operating or when entry into the peripheral area of the robot is prohibited, there is a problem that the operator cannot perform the work of creating teaching data.
この問題を解消するための技術として、ロボットシミュレータにおいて、画面上に仮想空間を表示し、当該仮想空間内に位置するロボットのアームを操作して駆動させることにより、教示データを作成する技術が存在する。例えば、特許文献1に開示された装置は、コンピュータによって支援された情報を視覚装置上にある画像受取装置によって検出される現実環境の画像に視覚化するための装置である。当該特許文献1に開示された装置では、画像受け取り装置の位置および方向付け、またはポーズについての判定が行われ、当該判定に対応するロボット特有の情報、例えば少なくとも1つのロボットに特有の座標系の表示を含む情報が視覚装置上の現実環境の画像に重ねて表示する。
As a technique for solving this problem, there is a technique for creating teaching data by displaying a virtual space on a screen and operating and driving a robot arm located in the virtual space in a robot simulator. To do. For example, the apparatus disclosed in
上述した特許文献1に記載された装置では、情報が現実環境の画像に重ねられて表示されるため、直感的にロボットのアームを操作することができる。しかし、ロボットの現在位置と、ロボットを移動させる目的位置との関係を把握することが困難であるという課題があった。
In the apparatus described in
この発明は、上記のような課題を解決するためになされたもので、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することを目的とする。 The present invention has been made to solve the above-described problems, and presents information capable of visually grasping the relationship between the current position of the device to be operated and the target position to which the device to be operated is moved. With the goal.
この発明に係る表示制御装置は、駆動対象機器の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、駆動対象機器に設定された制御点を通る第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、駆動対象機器の3次元データ、構造物の3次元データおよび情報処理部が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備えるものである。 The display control apparatus according to the present invention provides a control point set for a drive target device in a virtual space defined by the three-dimensional data of the structure based on the three-dimensional data of the drive target device and the three-dimensional data of the structure. An information processing unit for generating three-dimensional data of the aiming coordinate axis including the first straight line passing through the three-dimensional data of the driving target device, the three-dimensional data of the structure, and the three-dimensional data of the aiming coordinate axis generated by the information processing unit. And an output control unit that generates control information for displaying the aiming coordinate axis on the output device.
この発明によれば、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することができる。 According to the present invention, it is possible to present information that can visually grasp the relationship between the current position of the device to be operated and the target position to which the device to be operated is moved.
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る表示制御装置1を備えた教示システムの構成を示す図である。図1では、表示制御装置1を、ロボット(駆動対象機器)の教示データを作成する教示システムに適用した場合を例に示している。なお、表示制御装置1は、ロボットの教示システムへの適用に限定されるものではなく、機器を操作するための種々のシステムへの適用が可能である。Hereinafter, in order to explain the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating a configuration of a teaching system including a
また、表示制御装置1は、表示手段に表示された3次元データまたは拡張現実(Augmented Reality、AR)コンテンツに、生成した教示データを重ね合わせて表示する用途に使用される。具体的には、表示制御装置1は、パソコン、タブレット、スマートフォンおよび専用の教示装置等に表示された3次元データ、または拡張現実メガネに表示された拡張現実コンテンツに、教示データを重ね合わせて表示する制御を行う。拡張現実メガネは、ユーザの頭部に装着されて、ユーザの眼前に画像を表示するヘッドマウントディスプレイ(Head Mounted Display、HMD)である。ヘッドマウントディスプレイは、非透過型であってもよいし、透過型であってもよい。表示制御装置1は、例えば、上述したパソコン、タブレット、スマートフォン、専用の教示装置および拡張現実メガネ等の処理回路またはチップ等として実装される。
The
教示システムは、表示制御装置1、ロボット2、周辺情報取得装置3、教示装置4およびロボット制御装置7で構成される。教示装置4は、出力装置5および入力装置6を備える。
ロボット2は、制御プログラムに従って動作して、目的とする作業を行う装置である。制御プログラムとは、ロボット2の動作を指令する情報である。ロボット2の動作を指令する情報には、ロボット2が駆動する際の通過点、軌道、速度および動作回数等の情報が含まれる。オペレータが、当該制御プログラムを入力または修正する操作をロボット教示という。また、ロボット教示により得られたデータを、教示データという。The teaching system includes a
The
周辺情報取得装置3は、ロボット2の3次元データ、および、ロボット2の周辺環境の3次元データを取得して表示制御装置1に出力する。3次元データとは、ロボット2および周辺環境の、外形、位置および動きを数値で示したデータである。周辺情報取得装置3は、カメラ、3次元スキャナまたはサーバ等で構成される。周辺情報取得装置3が、例えばカメラまたは3次元スキャナで構成される場合、現実環境のロボット2および周辺環境を撮影またはスキャンし、ロボット2および周辺環境の3次元データを取得し、表示制御装置1に出力する。また、周辺情報取得装置3が、例えばサーバで構成される場合、予め記憶装置等に記憶されたロボット2および周辺環境の3次元データを取得し、表示制御装置1に出力する。
周辺環境とは、ロボット2が設置される空間における床、壁、柱、台、関連する機器、配線およびワーク等(以下、構造物という)である。ここで、ワークとは、ロボット2の作業対象をいう。ロボット2が、例えば、組み立てまたは搬送を行う装置である場合、ワークは、ロボット2に取り付けられた把持用のツールが把持する対象である。また、ロボット2が、例えば、バリ取りを行う装置である場合、ワークは、ロボット2に取り付けられたバリ取り用のツールを押し当てる対象である。なお、ツールの詳細は後述する。The peripheral
The surrounding environment is a floor, a wall, a pillar, a stand, related equipment, wiring, a work, and the like (hereinafter referred to as a structure) in a space where the
表示制御装置1は、周辺情報取得装置3から、ロボット2の3次元データおよび構造物の3次元データを取得する。表示制御装置1内の情報処理において仮想的に構築される空間であって、構造物の3次元データにより規定される空間を、仮想空間という。表示制御装置1は、構造物の3次元データに基づいて、仮想空間を規定する構造物を出力装置5に表示させるための制御を行う。また、表示制御装置1は、仮想空間内に配置されたロボット2を示す画像および操作支援情報を出力装置5に表示させるための制御を行う。表示制御装置1は、制御情報を教示装置4に出力する。
The
教示装置4の出力装置5は、例えば、パソコンまたはタブレット端末等のディスプレイ、またはヘッドマウントディスプレイで構成される。出力装置5は、表示制御装置1から入力された制御情報に基づいて、仮想空間、ロボット2および操作支援情報等を表示する。また、出力装置5は、表示制御装置1からの指令に基づき、ロボット2の制御プログラムを表示してもよい。
The
教示装置4の入力装置6は、例えばマウス、タッチパネル、専用の教示端末、またはヘッドマウントディスプレイの入力手段で構成され、出力装置5で表示された情報に対する操作入力を受け付ける。入力装置6は、受け付けた操作入力に応じた操作情報を表示制御装置1に出力する。表示制御装置1は、入力装置6から入力された操作情報に基づいて、操作後のロボット2の状態に応じた制御情報を生成する。
また、入力装置6は、出力装置5に制御プログラムが表示されている場合、表示された制御プログラムの修正等の操作入力を受け付ける。表示制御装置1は、入力装置6から入力された操作情報に基づいて、ロボット2の制御プログラムを修正する。The
Further, when a control program is displayed on the
表示制御装置1は、オペレータによる操作入力が終了すると、ロボット2の制御プログラムを確定する。表示制御装置1は、確定した制御プログラムをロボット制御装置7に出力する。ロボット制御装置7は、表示制御装置1から入力された制御プログラムを保存し、保存した制御プログラムをロボット2の駆動信号に変換してロボット2に送信する。ロボット2は、ロボット制御装置7から受信した駆動信号に基づいて駆動し、定められた作業等を行う。
When the operation input by the operator is completed, the
次に、ロボット2の構成について説明する。
図2は、教示システムに適用されるロボット2の構成例を示す図である。
図2に例示されたロボット2は、6軸の自由度を有するいわゆる垂直多関節形のロボットであり、据付部2a、第1アーム2b、第2アーム2c、第3アーム2d、第4アーム2e、第5アーム2fおよびフランジ部2gを備える。
据付部2aは、床に固定される。第1アーム2bは、軸線J1を回転軸として、据付部2aに対して回動する。第2アーム2cは、軸線J2を回転軸として、第1アーム2bに対して回動する。第3アーム2dは、軸線J3を回転軸として、第2アーム2cに対して回動する。第4アーム2eは、軸線J4を回転軸として、第3アーム2dに対して回動する。第5アーム2fは、軸線J5を回転軸として、第4アーム2eに対して回動する。フランジ部2gは、軸線J6を回転軸として、第5アーム2fに対して回動する。フランジ部2gは、第5アーム2fとの接続側と反対側の端部に、種々のツールを取り付けて固定する機構を備える。ツールは、ロボット2の作業内容に応じて選択される。ツールは、ワークを把持する器具およびワークを研磨するグラインダ等の工具である。Next, the configuration of the
FIG. 2 is a diagram illustrating a configuration example of the
The
The
図3は、ロボット2のフランジ部2gへのツール8の取り付け例を示す図である。
図3Aは、フランジ部2gにツール8として、ワークを把持する器具8aを取り付けた場合を示す図である。図3Bは、フランジ部2gにツール8として、グラインダ8bを取り付けた場合を示す図である。図3Aおよび図3Bで示した点Aは、ツール8に応じて設定された制御点を示している(以下、制御点Aという)。制御点Aは、オペレータが、出力装置5に表示された仮想空間内でロボット2を動かす場合に、表示されたロボット2上またはロボット2近傍のどの位置を操作すべきかを示すものである。制御点Aは、出力装置5に表示された仮想空間内に例えば円形または矩形の形状で表示される。ツール8が、図3Aで示したワークを把持する器具8aの場合、制御点Aは器具8aがワークを把持する点に設定される。ツール8が、図3Bで示したグラインダ8bの場合、制御点Aはグラインダ8bの研磨点に設定される。図3Bの例のように、ツール8がワークに対して加工を行う工具である場合、制御点Aは当該工具の加工点または加工領域に設定される。FIG. 3 is a diagram illustrating an example of attachment of the
FIG. 3A is a diagram illustrating a case where a
次に、表示制御装置1の内部構成について説明する。
図4は、実施の形態1に係る表示制御装置1の構成を示すブロック図である。
表示制御装置1は、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104を備える。また、図4で示した表示制御装置1は、周辺情報取得装置3、入力装置6および出力装置5に接続されている。Next, the internal configuration of the
FIG. 4 is a block diagram illustrating a configuration of the
The
3次元データ取得部101は、周辺情報取得装置3から、ロボット2の3次元データおよび構造物の3次元データを取得する。3次元データ取得部101は、取得した3次元データを情報処理部103に出力する。操作情報取得部102は、入力装置6を介して、オペレータの操作情報を取得する。操作情報取得部102は、取得した操作情報を情報処理部103に出力する。
The three-dimensional
情報処理部103は、3次元データ取得部101から入力された3次元データから、仮想空間内のロボット2の制御点Aの位置座標を取得する。情報処理部103は、取得した制御点Aの位置座標および構造物の3次元データから、仮想空間内に設定する照準座標軸の位置および方向等を算出し、当該照準座標軸の3次元データを生成する。照準座標軸は、直線X(第2の直線)、直線Y(第3の直線)および直線Z(第1の直線)の3軸で構成される座標軸である。照準座標軸は、オペレータがロボット2の教示データを作成する際に参照する操作支援情報である。なお、照準座標軸の詳細については後述する。
The
また、情報処理部103は、操作情報取得部102が取得した操作情報に応じて、仮想空間内のロボット2をオペレータの操作入力に追従させて駆動させた場合の、ロボット2の3次元データおよび照準座標軸の3次元データを生成する。なお、情報処理部103は、仮想空間内でのロボット2の移動を算出するために必要なロボット2の仕様データを予め適宜の方法で取得しているものとする。情報処理部103は、構造物の3次元データ、ロボット2の3次元データおよび照準座標軸の3次元データを出力制御部104に出力する。
In addition, the
出力制御部104は、情報処理部103から取得した構造物の3次元データ、ロボット2の3次元データおよび照準座標軸の3次元データに基づいて、構造物、ロボット2および照準座標軸を表示する制御情報を生成する。制御情報は、仮想空間内の構造物、ロボット2および照準座標軸を、仮想空間内の特定の位置からみた場合の画像を、出力装置5に表示させるための情報である。仮想空間内の特定の位置とは、例えば、現実環境におけるユーザの視点の位置と対応する、仮想空間内の位置である。出力制御部104は、生成した制御情報を出力装置5に出力する。
The
次に、表示制御装置1のハードウェア構成例を説明する。
図5Aおよび図5Bは、実施の形態1に係る表示制御装置1のハードウェア構成例を示す図である。
表示制御装置1における3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能は、処理回路により実現される。即ち、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104は、上記各機能を実現するための処理回路を備える。当該処理回路は、図5Aに示すように専用のハードウェアである処理回路1aであってもよいし、図5Bに示すようにメモリ1cに格納されているプログラムを実行するプロセッサ1bであってもよい。Next, a hardware configuration example of the
5A and 5B are diagrams illustrating a hardware configuration example of the
Each function of the three-dimensional
図5Aに示すように、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104が専用のハードウェアである場合、処理回路1aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
As shown in FIG. 5A, when the three-dimensional
図5Bに示すように、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104がプロセッサ1bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ1cに格納される。プロセッサ1bは、メモリ1cに記憶されたプログラムを読み出して実行することにより、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能を実現する。即ち、表示制御装置1の3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104は、プロセッサ1bにより実行されるときに、後述する図8から図10に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ1cを備える。また、これらのプログラムは、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の手順または方法をコンピュータに実行させるものであるともいえる。
As shown in FIG. 5B, when the three-dimensional
ここで、プロセッサ1bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ1cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。Here, the processor 1b is, for example, a CPU (Central Processing Unit), a processing device, an arithmetic device, a processor, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
The
なお、3次元データ取得部101、操作情報取得部102、情報処理部103および出力制御部104の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、表示制御装置1における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
In addition, about each function of the three-dimensional
次に、情報処理部103が3次元データを生成する照準座標軸について、図6A、図6B、図6C、図7A、図7Bおよび図7Cを参照しながら説明する。
図6Aから図6Cは、実施の形態1に係る表示制御装置1による照準座標軸の設定例を示す図である。
具体的には、図6Aから図6Cでは、表示制御装置1がロボット2、ツール8およびロボット2の設置面Bを表示する制御を行い、さらに、制御点Aおよび照準座標軸を表示する制御を行った場合の例を示している。
図6Aから図6Cにおいて、照準座標軸は、制御点Aを通る直線Zと、当該直線Z上の照準点Cで互いに直交する直線Xおよび直線Yで構成された座標軸である。照準点Cは、仮想空間内において、直線Zと構造物の表面とが交わる点である。そのため、直線Zと構造物とが交わる点が存在しない場合、情報処理部103は、照準点Cは存在しないと判断し、直線Zのみの3次元データを生成する。Next, the aiming coordinate axes for the
6A to 6C are diagrams illustrating an example of setting the aiming coordinate axes by the
Specifically, in FIGS. 6A to 6C, the
6A to 6C, the aiming coordinate axis is a coordinate axis constituted by a straight line Z passing through the control point A and a straight line X and a straight line Y that are orthogonal to each other at the aiming point C on the straight line Z. The aiming point C is a point where the straight line Z and the surface of the structure intersect in the virtual space. Therefore, when there is no point where the straight line Z intersects the structure, the
この発明における直線Xおよび直線Yには、一般的な定義による直線(以下、真直線という)が含まれるほか、照準点Cを含む構造物の表面形状に沿った線であって、特定の一方向からみた場合に直線形状、且つ互いに直交する形状となる線が含まれる。すなわち、直線Xおよび直線Yが上記のように構造物の表面形状に沿った線である場合、両直線の3次元形状は、当該構造物の表面形状に依存するため、必ずしも真直線とはならない。同様に、直線Xおよび直線Yが上記のように構造物の表面形状に沿った線である場合、直線Xと直線Yとが3次元空間である仮想空間内において交わる角度は、当該構造物の表面の形状に依存するため、必ずしも直角とはならない。なお、特定の一方向とは、例えば、後述するグローバル座標またはローカル座標のz座標の方向である。 The straight line X and the straight line Y in the present invention include a straight line according to a general definition (hereinafter referred to as a straight line), and are lines along the surface shape of the structure including the aiming point C. Lines that are linear when viewed from the direction and orthogonal to each other are included. That is, when the straight line X and the straight line Y are lines along the surface shape of the structure as described above, the three-dimensional shape of both straight lines is not necessarily a straight line because it depends on the surface shape of the structure. . Similarly, when the straight line X and the straight line Y are lines along the surface shape of the structure as described above, the angle at which the straight line X and the straight line Y intersect in the virtual space that is a three-dimensional space is Since it depends on the shape of the surface, it is not necessarily a right angle. The specific one direction is, for example, a direction of a later-described global coordinate or a local coordinate z coordinate.
直線Zの方向は、フランジ部2gに取り付けられたツール8に応じて設定される。ツール8が、例えば、図3Aで示したワークを把持する器具8aである場合、図6Aおよび図6Bに示すように、直線Zは、矢印8a1で示した器具8aの把持部の開閉方向と直交し且つ把持部が延びる方向(例えば、図2の軸線J6の方向)と平行な方向であり、且つ制御点Aを通る直線となる。ツール8が、例えば、図3Bで示したグラインダ8bである場合、図6Cに示すように、直線Zは、矢印8b1で示したグラインダ8bをワーク等に押し当てる方向と同一方向であり、且つ制御点Aを通る直線となる。このように、直線Zの方向は、フランジ部2gに取り付けられたツール8が、ワークに対してどのような作業を行うか等に基づいて適宜設定される。The direction of the straight line Z is set according to the
直線Zの方向からみた場合の直線Xと直線Yの方向は、グローバル座標またはローカル座標に基づいて設定される。グローバル座標とは、3次元空間そのものに対して設定される座標であり、3次元空間に固定して設定されたロボット2本体または3次元空間に固定されたいずれかの構造物が持つ座標である。ローカル座標とは、3次元空間において移動可能な物体を基準とする座標であり、例えば、ロボット2のフランジ部2gに取り付けられたツール8を基準として設定された座標である。図6Aはグローバル座標に基づいて方向が設定された直線Xおよび直線Yによる照準座標軸を示し、図6Bおよび図6Cはローカル座標に基づいて方向が設定された直線Xおよび直線Yによる照準座標軸を示している。
The directions of the straight line X and the straight line Y when viewed from the direction of the straight line Z are set based on global coordinates or local coordinates. The global coordinates are the coordinates set for the three-dimensional space itself, and are the coordinates of either the
図6Aは、ロボット2が持つx軸、y軸およびz軸をグローバル座標とし、当該グローバル座標に基づいて照準座標軸の直線Xおよび直線Yの方向を設定した場合の例を示している。グローバル座標のz軸はロボット2の軸線J1と重なる位置および方向の座標軸とし、当該z軸とロボット2の設置面Bとの交点を原点Oとする。グローバル座標のy軸は、原点Oを通り、ロボット2の設置面Bと平行であり、且つ予め定められたロボット2の正面方向と平行な座標軸である。グローバル座標のx軸は、原点Oでz軸およびとy軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれグローバル座標のx軸およびy軸の軸方向と一致するように設定される。
FIG. 6A shows an example in which the x-axis, y-axis, and z-axis of the
図6Bは、フランジ部2gに取り付けられた器具8aに設定されたx軸、y軸およびz軸をローカル座標とし、当該ローカル座標に基づいて照準座標軸の直線Xおよび直線Yの方向を設定した場合の例を示している。ローカル座標のz軸は、器具8aの把持部の開閉方向(矢印8a1参照)と直交し、且つ把持部が延びる方向(図2の軸線J6の方向)と平行な方向であり、且つ制御点Aを通る座標軸である。この場合の原点は制御点Aとなる。ローカル座標のx軸は、器具8aの把持部の開閉方向(矢印8a1参照)と同一方向、且つ制御点Aを通る座標軸である。ローカル座標のy軸は、制御点Aでx軸およびz軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれローカル座標のx軸およびy軸の軸方向一致するように設定される。FIG. 6B shows a case where the x-axis, y-axis, and z-axis set in the
図6Cは、フランジ部2gに取り付けられたグラインダ8bに設定されたx軸、y軸およびz軸をローカル座標とし、当該ローカル座標に基づいて照準座標軸の直線Xおよび直線Yを設定した場合の例を示している。ローカル座標のz軸は、グラインダ8bをワーク等に押し当てる方向(矢印8b1参照)に延び、且つ制御点Aを通る座標軸である。ローカル座標のx軸は、制御点Aを通り、且つz軸と直交する座標軸である。ローカル座標のy軸は、制御点Aでx軸およびz軸と直交する座標軸である。照準座標軸の直線Xおよび直線Yは、それぞれローカル座標のx軸およびy軸の軸方向と一致するように設定される。FIG. 6C shows an example in which the x-axis, y-axis, and z-axis set on the
図6Aから図6Cでは、照準座標軸の直線Xおよび直線Yの方向が、グローバル座標またはローカル座標のx軸とy軸の軸方向と同一方向である場合を示した。しかし、照準座標軸の直線Xおよび直線Yの軸方向は、グローバル座標またはローカル座標が有するx軸とy軸の軸方向と同一方向である必要はない。すなわち、直線Xおよび直線Yの方向は、それぞれがグローバル座標またはローカル座標が有するx軸およびy軸の軸方向と同一方向に向いた状態に対して、直線Zを回転軸として任意の角度だけ回転した方向に設定されてもよい。 6A to 6C show a case where the directions of the straight line X and the straight line Y of the aiming coordinate axis are the same as the axial directions of the global coordinate or the local coordinate x-axis and y-axis. However, the axial directions of the straight line X and the straight line Y of the aiming coordinate axis do not need to be the same as the axial directions of the x axis and the y axis that the global coordinate or the local coordinate has. That is, the direction of the straight line X and the straight line Y is rotated by an arbitrary angle about the straight line Z as the rotation axis with respect to the state in which each of them is oriented in the same direction as the x-axis and y-axis directions of the global coordinates or local coordinates The direction may be set.
図7Aから図7Cは、実施の形態1に係る表示制御装置1による照準座標軸の表示例を示す図である。
図7Aおよび図7Bは、出力装置5における照準座標軸の表示例を示している。情報処理部103は、仮想空間内のロボット2の制御点Aの位置情報および構造物の3次元データを用いて、仮想空間内における直線Zの方向および直線Z上の照準点Cを算出する。また、情報処理部103は、直線Xおよび直線Yについて、仮想空間内においてそれぞれが延びる方向と形状等とを算出する。さらに、情報処理部103は、算出した照準座標軸について、構造物の3次元データを参照し、3次元データを生成する。これにより、図7Aおよび図7Bに示すように、照準座標軸の直線Xおよび直線Yは、仮想空間内に存在するワークDaまたは構造物Dbの表面形状、およびロボット2の設置面Bの表面形状に沿うように、出力装置5に表示される。FIG. 7A to FIG. 7C are diagrams showing display examples of aiming coordinate axes by the
7A and 7B show display examples of the aiming coordinate axes in the
直線Xおよび直線Yは、構造物の表面形状に沿った形状でなくてもよい。図7Cは、照準座標軸の直線Xおよび直線Yを真直線とした場合の表示例を示している。照準座標軸の直線Xおよび直線Yを真直線とする場合、図7Cに示すように、照準座標軸の両直線は、照準点Cを通る真直線として、出力装置5に表示される。
表示制御装置1は、オペレータが、照準座標軸の直線Xおよび直線Yを構造物に沿った形状として表示するか、または真直線の形状で表示するかを選択できる構成としてもよい。これにより、表示制御装置1は、オペレータの選択した表示方法に応じた照準座標軸の表示制御を行うことができる。The straight line X and the straight line Y may not be a shape along the surface shape of the structure. FIG. 7C shows a display example when the straight line X and the straight line Y of the aiming coordinate axis are straight lines. When the straight line X and the straight line Y of the aiming coordinate axis are straight lines, both straight lines of the aiming coordinate axis are displayed on the
The
上述した説明では、直線Zは、ロボット2のフランジ部2gに取り付けられたツール8が、ワークに対してどのような作業を行うか等に基づいて適宜設定される場合を示した。しかし、直線Zの設定方法は上述した方法に限定されることなく、直線Zは制御点Aから鉛直下向きあるいは鉛直上向き方向に延びる直線に設定されてもよい。また、直線Zは制御点Aから任意に設定された方向に延びる直線と設定されてもよい。
In the above description, the straight line Z indicates a case where the
次に、表示制御装置1の動作について、図8のフローチャートを参照しながら説明する。
図8は、実施の形態1に係る表示制御装置1の動作を示すフローチャートである。
3次元データ取得部101は、周辺情報取得装置3から、ロボット2および構造物の3次元データを取得する(ステップST1)。3次元データ取得部101は、取得した3次元データを情報処理部103に出力する。情報処理部103は、ステップST1で取得された3次元データに基づいて、照準座標軸の位置および方向等を算出する(ステップST2)。情報処理部103は、算出した照準座標軸の位置および方向等に基づいて、照準座標軸の3次元データを生成する(ステップST3)。情報処理部103は、ステップST3で生成した3次元データと、ロボット2および構造物の3次元データとを、出力制御部104に出力する。Next, the operation of the
FIG. 8 is a flowchart showing the operation of the
The three-dimensional
出力制御部104は、情報処理部103から入力された3次元データに基づいて、仮想空間内の構造物、ロボット2および照準座標軸を表示する制御情報を生成する(ステップST4)。出力制御部104は、ステップST4で生成した制御情報を出力装置5に出力する(ステップST5)。続いて、情報処理部103は、操作情報取得部102から操作情報が入力されたか否か判定を行う(ステップST6)。操作情報が入力された場合(ステップST6;YES)、情報処理部103は入力された操作情報で示された位置情報に基づいて、前回生成したロボット2および照準座標軸の3次元データを修正する(ステップST7)。情報処理部103は、ステップST7で修正した3次元データを、出力制御部104に出力する。
Based on the three-dimensional data input from the
出力制御部104は、ステップST7で修正された3次元データに基づいて、仮想空間内のロボット2および照準座標軸を表示する制御情報を生成する(ステップST8)。出力制御部104は、ステップST8で生成した制御情報を出力装置5に出力する(ステップST9)。その後、フローチャートはステップST6の処理に戻る。一方、操作情報が入力されなかった場合(ステップST6;NO)、前回の操作情報が入力されてから所定時間経過したか否か判定を行う(ステップST10)。所定時間経過した場合(ステップST10;YES)、処理を終了する。一方、所定時間経過していない場合(ステップST10;NO)、ステップST6の判定処理に戻る。
The
次に、図8のフローチャートのステップST3の処理の詳細について、図9のフローチャートを参照しながら説明する。
図9は、実施の形態1に係る表示制御装置1の情報処理部103の動作を示すフローチャートである。
なお、以下の説明において、情報処理部103は、フランジ部2gに取り付けられたツール8の種別を予め認識しているものとする。また、情報処理部103には、照準座標軸の直線Xおよび直線Yを、グローバル座標またはローカル座標のどちらに基づいて設定するのか、予め設定されているものとする。さらに、情報処理部103には、照準座標軸を構造物の表面形状に沿った線として表示するか、または真直線として表示するか、予め設定されているものとする。Next, details of the process in step ST3 of the flowchart of FIG. 8 will be described with reference to the flowchart of FIG.
FIG. 9 is a flowchart showing the operation of the
In the following description, it is assumed that the
情報処理部103は、ステップST2でロボット2および構造物の3次元データを生成すると、フランジ部2gに取り付けられたツール8の種別に応じて、当該ツール8の制御点A、および当該制御点Aを通る直線Zを決定して3次元データを生成する(ステップST11)。情報処理部103は、例えば、ツール8の種別と、制御点Aの位置および直線Zの方向を示す情報とを関連付けて記憶したデータベース(図示しない)を参照し、制御点Aおよび直線Zを決定する。ここで、直線Zの方向を示す情報とは、例えば、ツール8が器具8aである場合に、当該器具8aの把持部の開閉方向と直交し、且つ制御点Aを通る直線を直線Zとすることを示す情報である。
When the
情報処理部103は、ステップST11で決定した直線Zの3次元データと、構造物の3次元データとを参照し、仮想空間内で直線Zと構造物の表面とが交わる点が存在するか否か判定を行う(ステップST12)。直線Zと構造物の表面とが交わる点が存在しない場合(ステップST12;NO)、情報処理部103は、制御点Aの3次元データを生成し(ステップST13)、ステップST21の処理に進む。
The
一方、直線Zと構造物の表面とが交わる点が存在する場合(ステップST12;YES)、情報処理部103は、直線Zと構造物の表面とが交わる点を全て算出する(ステップST14)。
例えば、図7Aで示したようにロボット2の設置面B上にワークDaが置かれている場合、ステップST14の処理では、情報処理部103は、直線ZがワークDaの表面と交わる点、および直線Zがロボット2の設置面Bの表面と交わる点等を算出する。On the other hand, when there are points where the straight line Z intersects the surface of the structure (step ST12; YES), the
For example, when the work Da is placed on the installation surface B of the
情報処理部103は、ステップST14で算出した点から、制御点Aまでの距離を算出し、算出した距離が最短となる点を照準点Cに設定する(ステップST15)。情報処理部103は、グローバル座標またはローカル座標を用いて、ステップST15で設定した照準点Cにおいて互いに直交する直線Xおよび直線Yの方向を決定する(ステップST16)。情報処理部103は、予め設定された条件を参照して、直線Xおよび直線Yを構造物の表面形状に沿う線とするか否か判定を行う(ステップST17)。直線Xおよび直線Yを構造物の表面形状に沿う線とする場合(ステップST17;YES)、情報処理部103は、構造物の3次元データを参照し、ステップST11で決定した直線Zを照準点Cまでの長さとすると共に、ステップST16で方向を決定した直線Xおよび直線Yを、当該構造物の表面形状に沿う線とする照準座標軸の3次元データを生成する(ステップST18)。
The
一方、直線Xおよび直線Yを構造物の表面形状に沿う線としない場合(ステップST17;NO)、すなわち直線Xおよび直線Yを真直線とする場合、情報処理部103は、ステップST11で決定した直線Zを照準点Cまでの長さとすると共に、ステップST16で方向を決定した直線Xおよび直線Yを真直線とする照準座標軸の3次元データを生成する(ステップST19)。情報処理部103は、制御点Aの3次元データを生成する(ステップST20)。情報処理部103は、ステップST18からステップST20で生成した照準座標軸および制御点Aの3次元データ、またはステップST11で生成した直線Zの3次元データおよびステップ13で生成した制御点Aの3次元データを、出力制御部104に出力する(ステップST21)。その後、フローチャートは、図8のフローチャートのステップST4の処理に進む。
On the other hand, when the straight line X and the straight line Y are not lines along the surface shape of the structure (step ST17; NO), that is, when the straight line X and the straight line Y are assumed to be straight lines, the
次に、図8のフローチャートのステップST7の処理の詳細について、図10のフローチャートを参照しながら説明する。
図10は、実施の形態1に係る表示制御装置1の情報処理部103の動作を示すフローチャートである。
なお、以下では、仮想空間に表示されたロボット2を動かす操作として、制御点Aに重畳して表示されたポインタを移動させる操作が入力された場合を例に説明する。
ポインタを移動させる操作情報が入力されると(ステップST6;YES)、情報処理部103は、入力された操作情報と、3次元データ取得部101から入力された3次元データとを参照し、仮想空間におけるポインタの位置情報を取得する(ステップST31)。情報処理部103は、バッファ等に格納された前回の制御点Aの位置情報と、ステップST31で取得したポインタの位置情報とから、直線X、直線Y、および直線Zにおけるポインタの移動方向および移動量を算出する(ステップST32)。Next, details of the process of step ST7 in the flowchart of FIG. 8 will be described with reference to the flowchart of FIG.
FIG. 10 is a flowchart showing the operation of the
In the following, a case will be described as an example in which an operation for moving the pointer displayed superimposed on the control point A is input as an operation for moving the
When the operation information for moving the pointer is input (step ST6; YES), the
情報処理部103は、前回算出した照準座標軸を、ステップST32で算出した移動方向および移動量を用いて移動させ、新たな照準座標軸の位置及び方向等を算出し、当該新たな照準座標軸の3次元データを生成する(ステップST33)。なお、直線Xおよび直線Yを構造物の表面形状に沿う線とするように設定されている場合、情報処理部103は、構造物の3次元データも参照して、照準座標軸の直線Xおよび直線Yを構造物の表面形状に沿うような線とした3次元データを生成する。情報処理部103は、新たな制御点Aの3次元データを生成する(ステップST34)。
The
情報処理部103は、ステップST32からステップST34の処理と並行して、以下のステップST35およびステップST36の処理を行う。情報処理部103は、ステップST31で取得されたポインタの位置情報と、ロボット2の3次元データとから、ロボット2の移動方向および移動量を算出する(ステップST35)。情報処理部103は、ステップST35で算出したロボット2の移動方向および移動量を用いて、移動後のロボット2の3次元データを生成する(ステップST36)。次に、情報処理部103は、ステップST33で生成した新たな照準座標軸の3次元データ、ステップST34で生成した新たな制御点Aの3次元データ、およびステップST36で生成した移動後のロボット2の3次元データを、出力制御部104に出力する(ステップST37)。その後、フローチャートは、図8のフローチャートのステップST8の処理に進む。
The
オペレータは、制御点Aにカーソルを重ね合わせて選択状態とし、ジョグレバー、操作キーまたはマウスなどで目的の位置に移動させる。また、教示装置4がタブレット端末の場合、オペレータは、タッチパネルに表示された制御点Aに指を重ね合わせて選択状態とし、当該指を目的とする位置に移動させる。オペレータが制御点Aを選択すると、出力制御部104は、制御点Aの形状を拡大させる、または制御点Aの色を変化させるなどの強調表示を行い、制御点Aが選択中であることを知らせる表示制御を行う。また、出力制御部104は、制御点Aが選択された場合、または制御点Aが移動されている場合に、効果音を出力する制御を行ってもよい。制御点Aの移動に応じて情報処理部103が、図10のフローチャートで示した処理を行うことにより、ロボット形状をインタラクティブに変化させる処理を行う。オペレータは、照準座標軸を参考にしながら、制御点Aを移動させて仮想空間内のロボット2を駆動させると共に、ロボット2の通過点の登録等を行う。
The operator puts the cursor on the control point A to select it, and moves it to the target position with a jog lever, operation keys, mouse, or the like. When the
出力制御部104は、直線Xおよび直線Yを構造物の表面形状に沿う線とした照準座標軸、または直線Xおよび直線Yを真直線とした照準座標軸に対して、図11に示すような表示方法を適用してもよい。
図11は、実施の形態1に係る表示制御装置1の照準座標軸のその他の表示例を示す図である。
図11Aは、出力制御部104が、ロボット2の駆動が制限された方向の照準座標軸を破線で示す表示制御を行った場合を示している。オペレータがジョグレバーを操作して、出力装置5に表示されたロボット2を駆動する場合、ロボット2の一方向のみへの直線駆動を認識し易くするために、表示制御装置1はロボット2の駆動方向を一方向に制限した上で、ジョグレバーへの操作を受け付ける場合がある。その場合、出力制御部104は、直線X、直線Yおよび直線Zのうち、ロボットの駆動が制限された方向の直線を、破線、非表示または半透過で表示する制御情報を生成する。これにより、表示制御装置1は、ロボット2を駆動させることが可能な方向をオペレータに明示する表示制御を行うことができる。オペレータは、図11Aに示した表示を参照しながらジョグレバーの操作を行うことにより、ロボット2を駆動させることができる方向を直感的に認識しながら操作することができる。The
FIG. 11 is a diagram illustrating another display example of the aiming coordinate axes of the
FIG. 11A shows a case where the
図11Bは、出力制御部104が、照準座標軸の表示に加えて、制御点Aの座標値および照準点Cの座標値を表示する制御を行った場合の表示例を示している。
出力制御部104は、情報処理部103から入力された3次元データから、制御点Aおよび照準点Cの座標値を取得する。出力制御部104は、取得した座標値を表示する表示領域Eaおよび表示領域Ebを、制御点Aおよび照準点Cの近傍に表示する制御情報を生成する。また、出力制御部104は、制御点Aおよび照準点Cの座標値の数値を修正可能に表示する制御情報を生成してもよい。この場合、オペレータは、座標値の修正を希望する表示領域を選択し、新たな座標値を入力する。操作情報取得部102が座標値を修正する操作情報を取得すると、情報処理部103は当該操作情報に基づいて、新たな照準座標軸、新たな制御点Aおよび駆動後のロボット2の3次元データを生成する。これにより、オペレータは、座標値を入力することにより、ロボット2を駆動させることができる。FIG. 11B shows a display example when the
The
以上のように、この実施の形態1によれば、ロボット2の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、ロボット2に設定された制御点Aを通る直線Zを含む照準座標軸の3次元データを生成する情報処理部103と、ロボット2の3次元データ、構造物の3次元データおよび情報処理部103が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置5に表示するための制御情報を生成する出力制御部104とを備えるように構成したので、操作する機器の現在位置と、操作する機器を移動させる目的位置との関係を視覚的に把握可能な情報を提示することができる。
As described above, according to the first embodiment, the
また、この実施の形態1によれば、照準座標軸を、直線Zに加え、それぞれ直線Z上に位置する照準点Cを通る直線Xおよび直線Yで構成したので、表示された画像から奥行き方向の空間も容易に把握可能な情報を提示することができる。 Further, according to the first embodiment, the aiming coordinate axes are configured by the straight line X and the straight line Y passing through the aiming point C located on the straight line Z in addition to the straight line Z. Information that can easily grasp the space can be presented.
また、この実施の形態1によれば、直線Zは、ロボット2に取り付けられたツール8に応じて設定された方向に延びる直線であるので、ロボットに取り付けられたツールがワークに対してどのような操作を行うか、またはワークに対してどのような加工を行うかに応じて照準座標軸の直線を決定することができる。これにより、ロボットが行う作業に適した照準座標軸を表示することができる。
Further, according to the first embodiment, the straight line Z is a straight line extending in a direction set according to the
また、この実施の形態1によれば、直線Zは鉛直方向に延びる直線であるので、照準座標軸の直線Zの軸方向が常に一定となり、オペレータは自身に対する上下方向と、ロボットに対する上下方向とを、容易に一致させて操作することができる。 Further, according to the first embodiment, since the straight line Z is a straight line extending in the vertical direction, the axial direction of the straight line Z of the aiming coordinate axis is always constant, and the operator has a vertical direction with respect to himself and a vertical direction with respect to the robot. Can be easily matched and operated.
また、この実施の形態1によれば、照準点Cは、仮想空間内において、第1の直線と、構造物の表面とが交わる点であるので、照準点が構造物上の点となり、オペレータが操作の目標とする点を提示することができる。 Further, according to the first embodiment, the aiming point C is a point where the first straight line and the surface of the structure intersect in the virtual space, so that the aiming point becomes a point on the structure, and the operator Can present the target point of the operation.
また、この実施の形態1によれば、直線Xおよび直線Yは、構造物の表面形状に沿った線であって、特定の一方向からみた場合に直線形状且つ互いに直交する形状となる線であるので、構造物の形状に合わせて移動する座標軸を提示することができる。 Further, according to the first embodiment, the straight line X and the straight line Y are lines along the surface shape of the structure, and are lines that are linear and orthogonal to each other when viewed from a specific direction. Therefore, it is possible to present a coordinate axis that moves in accordance with the shape of the structure.
また、この実施の形態1によれば、直線Xおよび直線Yは、仮想空間内において、真っ直ぐに延びる線であるように構成したので、ロボットを構造物に衝突させないように移動する座標軸を提示することができる。 Further, according to the first embodiment, the straight line X and the straight line Y are configured to be straight lines extending in the virtual space, so that the coordinate axes that move so that the robot does not collide with the structure are presented. be able to.
また、この実施の形態1によれば、出力制御部104が、直線Z、直線Xおよび直線Yのうち、ロボット2の駆動が制限される方向と同一方向に延びる直線の表示形態を変化させて表示するための制御情報を生成するように構成したので、オペレータはロボットを駆動させることができる方向を直感的に認識しながら操作することができる。
Further, according to the first embodiment, the
また、この実施の形態1によれば、出力制御部104が、制御点Aの座標値および照準点Cの座標値を表示するための制御情報を生成するように構成したので、オペレータは座標値を確認しながら操作を行うことができる。
According to the first embodiment, the
実施の形態2.
この実施の形態2では、ロボット2の駆動限界を考慮して照準座標軸を表示する構成を示す。
図12は、実施の形態2に係る表示制御装置1Aの構成を示すブロック図である。
表示制御装置1Aは、図4で示した実施の形態1の表示制御装置1の情報処理部103に、駆動領域設定部105を追加して構成している。以下では、実施の形態1に係る表示制御装置1の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
In the second embodiment, a configuration in which the aiming coordinate axis is displayed in consideration of the driving limit of the
FIG. 12 is a block diagram showing the configuration of the
The
駆動領域設定部105は、ロボット2が駆動できる限界の位置を示す情報(以下、駆動限界情報という)を取得する。駆動領域設定部105は、駆動限界情報を表示制御装置1A内の記憶領域(図示しない)から取得してもよいし、表示制御装置1Aの外部から取得してもよい。駆動領域設定部105は、取得した駆動限界情報に基づいて、仮想空間内に、ロボット2が駆動可能な領域(以下、駆動可能領域という)を設定する。情報処理部103aは、駆動領域設定部105が設定した駆動可能領域に基づいて、照準座標軸の3次元データを生成する。情報処理部103aは、補正した照準座標軸、制御点A、ロボット2および構造物の3次元データを出力制御部104に出力する。
The drive
次に、表示制御装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
表示制御装置100Aにおける情報処理部103aおよび駆動領域設定部105は、図5Aで示した処理回路1a、または図5Bで示したメモリ1cに格納されるプログラムを実行するプロセッサ1bである。Next, a hardware configuration example of the display control apparatus 100A will be described. Note that the description of the same configuration as that of
The
図13および図14は、実施の形態2に係る表示制御装置1Aにおけるロボット2の駆動可能領域および照準座標軸を示す図である。
駆動可能領域Fは、第1の曲面Gと、第2の曲面Hと、ロボット2の設置面Bのうちの一部の面Baとで囲まれた領域の内側の領域である。第1の曲面Gは、駆動限界情報が示す面であり、ロボット2が駆動できる最外域を示す曲面である。第2の曲面Hは、駆動限界情報が示す面であり、ロボット2が駆動できる最内域を示す曲面である。第1の曲面Gの外側、すなわちロボット2が存在していない側の領域、および第2の曲面の内側、すなわちロボット2の据付部2aが位置する側の領域には、ロボット2の制御点Aが位置することができない。面Baは、設置面Bにおいて、第1の曲面Gとロボット2の設置面Bとが交わる際に形成される第1の円Gaの外側、且つ第2の曲面Hとロボット2の設置面Bとが交わる際に形成される第2の円Haの内側の領域である。13 and 14 are diagrams showing a drivable area and aiming coordinate axes of the
The drivable area F is an area inside the area surrounded by the first curved surface G, the second curved surface H, and a part of the surface Ba of the installation surface B of the
駆動領域設定部105は、上述した駆動限界情報と、構造物の3次元データとから、仮想空間内の駆動可能領域Fを示す3次元データを生成する。情報処理部103aは、駆動領域設定部105が生成した駆動可能領域Fの3次元データに基づいて、生成済みの直線X、直線Y、および直線Zからなる照準座標軸(図6参照)の3次元データを、駆動可能領域F内の線分Xa、線分Yaおよび線分Zaからなる照準座標軸の3次元データに補正する(図13A参照)。
図13Aで示すように、表示制御装置1Aが、駆動可能領域F内の照準座標軸のみを表示することにより、線分Xa、線分Yaおよび線分Zaの直線の長さによって、ロボット2が駆動可能な範囲を表示することができる。The drive
As shown in FIG. 13A, the
図13Aにおいて、線分Zaは現在のロボット2の状態から、ロボット2を線分Za方向にどの程度駆動させることができるかを示している。また、図13Aにおいて、線分Xaおよび線分Yaは、現在のロボット2の状態から、ロボット2を線分Za方向に駆動して制御点Aと照準点Cとが最も近づいた場合に、それぞれ線分Xa方向および線分Ya方向にどの程度駆動させることができるかを示している。オペレータは、例えば図13Aの表示例を視認することにより、現在の状態から、線分Za方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。また、例えば、現在の状態からロボット2を線分Za方向に駆動させて、制御点Aと照準点Cとを最も近づけた場合に、オペレータはロボット2を線分Xa方向および線分Ya方向に、どの程度駆動させることができるかを認識することができる。
In FIG. 13A, a line segment Za indicates how much the
また、情報処理部103aは、図13Bに示すように、補正後の照準座標軸である線分Zaを、制御点Aを通過して第1の曲面Gと交差する点まで延ばした線分Zbとし、生成済みの直線X、直線Y、および直線Zからなる照準座標軸の3次元データを、線分Xa、線分Yaおよび線分Zbからなる照準座標軸に補正してもよい。
図13Bで示すように、駆動可能領域F内の照準座標軸のみを表示し、且つ線分Zbを表示することにより、オペレータはロボット2を線分Zb方向にどの程度駆動させることができるかを認識することができる。Further, as illustrated in FIG. 13B, the
As shown in FIG. 13B, by displaying only the aiming coordinate axis in the drivable region F and displaying the line segment Zb, the operator recognizes how much the
また、情報処理部103aは、図14に示すように、照準座標軸の照準点Cが、駆動可能領域F内に位置しない場合には、生成済みの直線X、直線Y、および直線Zからなる照準座標軸の3次元データを、駆動可能領域F内に存在する線分Zcのみの3次元データとする補正を行う。
図14に示すように、駆動可能領域F内に線分Zcのみを表示することにより、オペレータは、現在の線分Zcの方向では駆動可能領域F内にワーク等の構造物が存在していないこと、およびロボット2を線分Zc方向にどの程度駆動させることができるかを認識することができる。
また、情報処理部103aは、線分Zcが第1の曲面Gと交わる点に接する任意の仮想平面を設定し、当該仮想平面上における線分Xおよび線分Yの3次元データを生成することで、線分X、線分Y、および線分Zcからなる照準座標軸の3次元データを生成してもよい。Further, as illustrated in FIG. 14, the
As shown in FIG. 14, by displaying only the line segment Zc in the drivable area F, the operator does not have a structure such as a workpiece in the drivable area F in the current line segment Zc direction. And how much the
Further, the
出力制御部104は、情報処理部103aから入力された3次元データに基づいて、構造物、ロボット2、補正後の照準座標軸、および制御点Aを、出力装置5に表示するための制御を行う。また、出力制御部104は、駆動可能領域Fを出力装置5に表示するための制御を行ってもよい。
The
次に、表示制御装置1Aの動作について説明する。
図15は、実施の形態2に係る表示制御装置1Aの情報処理部103aの動作を示すフローチャートである。
以下では、実施の形態1に係る表示制御装置1と同一のステップには、図9で示した符号と同一の符号を付し、説明を省略または簡略化する。
ステップST13またはステップST20において、制御点Aの3次元データが生成されると、駆動領域設定部105は駆動限界情報から駆動可能領域Fの3次元データを生成する(ステップST41)。Next, the operation of the
FIG. 15 is a flowchart showing the operation of the
In the following, the same steps as those of the
When the three-dimensional data of the control point A is generated in step ST13 or step ST20, the driving
情報処理部103aは、ステップST41で生成された駆動可能領域Fの3次元データに基づいて、ステップST18またはステップST19で生成した照準座標軸を構成する直線X、直線Yおよび直線Zの3次元データ、またはステップST11で生成された直線Zの3次元データを、駆動可能領域F内の線分の3次元データに補正する(ステップST42)。情報処理部103aは、ステップST42で補正した後の照準座標軸の3次元データ、およびステップST20またはステップST13で生成した制御点Aの3次元データを、出力制御部104に出力する(ステップST43)。その後、フローチャートは、図8のフローチャートのステップST4の処理に進む。
The
以上のように、この実施の形態2によれば、ロボット2の駆動限界に基づいて、ロボット2の駆動可能領域Fを設定する駆動領域設定部105を備え、直線Zを駆動可能領域F内に位置する部分の線分としたので、照準座標軸を構成する線分Zの直線の長さによって、ロボット2が駆動可能な範囲を表示することができる。これにより、オペレータは、線分Zの方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。
As described above, according to the second embodiment, the drive
また、この実施の形態2によれば、ロボット2の駆動限界に基づいて、ロボット2の駆動可能領域Fを設定する駆動領域設定部105を備え、直線Z、直線X、および直線Yを、駆動可能領域F内に位置する部分の線分としたので、線分の直線の長さによって、ロボットが駆動可能な範囲を表示することができる。これにより、オペレータは各線分の方向に、ロボット2をどの程度駆動させることができるかを容易に認識することができる。
Further, according to the second embodiment, the drive
実施の形態3.
この実施の形態3では、ロボット2の教示データを作成する構成を示す。
図16は、実施の形態3に係る表示制御装置1Bの構成を示すブロック図である。
表示制御装置1Bは、図4で示した実施の形態1の表示制御装置1に、位置情報記憶部106、軌道生成部107および再生処理部108を追加して構成している。また、図4で示した実施の形態1の表示制御装置1の情報処理部103および出力制御部104に替えて、情報処理部103bおよび出力制御部104aを設けて構成している。
以下では、実施の形態1に係る表示制御装置1の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
In the third embodiment, a configuration for creating teaching data of the
FIG. 16 is a block diagram showing the configuration of the
The
In the following, the same or corresponding parts as the constituent elements of the
操作情報取得部102は、実施の形態1で示した、オペレータの操作情報として制御点Aに重畳して表示されたポインタを移動させる操作情報に加えて、以下の操作情報を取得する。操作情報取得部102は、オペレータの操作情報として、ロボット2の教示データを作成する際に、ロボット2に設定された制御点Aが通過すべき通過点を指定する操作情報を取得する。また、操作情報取得部102は、オペレータの操作情報として、ロボット2の駆動軌道の生成を指示する操作情報、および生成されたロボット2のシミュレーション再生を指示する操作情報を取得する。
The operation
情報処理部103bは、操作情報取得部102から、通過点を指定する操作情報が入力されると、当該操作情報が入力された際の制御点Aの位置情報を、通過点の位置情報として位置情報記憶部106に記憶させる。また、情報処理部103bは、通過点の位置情報に基づいて、通過点の3次元データを生成する。情報処理部103bは、ロボット2、構造物および照準座標軸の3次元データに加えて、通過点の3次元データを出力制御部104aに出力する。また、情報処理部103bは、ロボット2の3次元データを再生処理部108に出力する。
When the operation information specifying the passing point is input from the operation
軌道生成部107は、操作情報取得部102から、ロボット2の駆動軌道の生成指示が入力されると、位置情報記憶部106に記憶された通過点の位置情報を取得する。軌道生成部107は、取得した通過点の位置情報を用いて、当該通過点を通る軌道を示す位置座標の群である駆動軌道を生成する。駆動軌道の生成方法の詳細は後述する。軌道生成部107は、生成した駆動軌道を出力制御部104aおよび再生処理部108に出力する。
The
再生処理部108は、操作情報取得部102から、ロボット2のシミュレーション再生を指示する操作情報が入力されると、軌道生成部107から入力された駆動軌道と、情報処理部103bから入力されたロボット2の3次元データとに基づいて、ロボット2が駆動軌道に沿って駆動する動作を算出する。再生処理部108は、算出した動作から、ロボット2の動きを示すシミュレーション情報を生成する。再生処理部108は、生成したシミュレーション情報を出力制御部104aに出力する。また、再生処理部108は、生成したシミュレーション情報と、情報処理部103bから入力された構造物の3次元データとを照合し、仮想空間においてロボット2と構造物とが干渉するか否か判定を行う。再生処理部108は、仮想空間において、ロボット2と構造物とが干渉すると判定した場合、干渉が発生する箇所の位置情報も合わせて出力制御部104aに出力する。
When the operation information instructing simulation reproduction of the
出力制御部104aは、情報処理部103bから入力された3次元データに基づいて、仮想空間内のロボット2、構造物、照準座標軸および通過点を表示する制御情報を生成する。また、出力制御部104aは、軌道生成部107が生成した駆動軌道を、出力装置5に表示する制御情報を生成する。また、出力制御部104aは、再生処理部108から入力されたシミュレーション情報を出力装置5において再生表示する制御情報を生成する。また、出力制御部104aは、干渉が発生する箇所を点または線などで強調表示する制御情報を生成する。また、出力制御部104aは、干渉が発生することを音声によってオペレータに通知する制御情報を生成してもよい。
The
出力制御部104aが制御情報を出力する教示装置4は、図1で示したように出力装置5および入力装置6で構成される。教示装置4は、出力制御部104aから入力された制御情報に基づいて、ロボット2および構造物を表示し、表示したロボット2に対して操作入力を行うことが可能な装置である。教示装置4は、汎用パソコン、タッチパネルで操作するタブレット端末、ヘッドマウントディスプレイなどを適用可能である。
出力装置5のディスプレイ51には、ロボット2および構造物が表示され、さらに操作入力を受け付ける教示ボタン等のグラフィックインタフェースが表示される。教示ボタンは、教示装置4に設けられたボタン、またはパソコンのキーボード等、ハードウェアのボタンであってもよい。教示ボタンは複数存在し、教示処理の開始または終了を入力するボタン、通過点の決定または削除を入力するボタン、生成された駆動軌道を確認するためのシミュレーションの再生または停止を入力するボタン、操作手順を進めるまたは戻すためのボタン等で構成される。The
The
次に、表示制御装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
表示制御装置100Bにおける情報処理部103b、軌道生成部107、再生処理部108および出力制御部104aは、図5Aで示した処理回路1a、または図5Bで示したメモリ1cに格納されるプログラムを実行するプロセッサ1bである。Next, a hardware configuration example of the display control apparatus 100B will be described. Note that the description of the same configuration as that of
The
次に、軌道生成部107の詳細について説明する。
軌道生成部107は、ロボット2の駆動開始点と、通過点と、目的地点であるロボット2の駆動終了点とを結ぶ、ロボット2の駆動軌道を生成する。駆動開始点および駆動終了点は、予め設定された地点であってもよいし、オペレータが任意に設定した地点であってもよい。軌道生成部107は、位置情報記憶部106に、少なくとも1点の通過点が記憶されれば、ロボット2の駆動軌道を生成することが可能である。ロボット2の駆動開始点は、制御プログラムの開始点としてもよい。Next, details of the
The
軌道生成部107は、例えば直動軌道、接線軌道または手動軌道によって駆動軌道を生成する。
図17は、実施の形態3に係る表示制御装置1Bの軌道生成部107が生成する駆動軌道の種別を示す図である。図17Aは直動軌道の一例、図17Bは接線軌道の一例、および図17Cは手動軌道の一例を示している。
直動軌道は、2つの通過点間を直線で結んで得られる駆動軌道である。具体的には、図17Aに示すように、第1の通過点P1と第2の通過点P2とを直線で結び、第2の通過点P2と第3の通過点P3とを直線で結んで得られる軌道Qaである。
接線軌道は、開始点と1つ目の通過点を直線で結び、2つ目以降の通過点については接線の連続性を維持して滑らかに結んで得られる駆動軌道である。具体的には、図17Bに示すように、第1の通過点P1と第2の通過点P2とを直線で結び、第2の通過点P2および第3の通過点P3において接点の連続性を維持して滑らかに結んで得られた軌道Qbである。The
FIG. 17 is a diagram illustrating types of drive trajectories generated by the
The linear motion track is a drive track obtained by connecting two passing points with a straight line. Specifically, as shown in FIG. 17A, the first passing point P1 and the second passing point P2 are connected by a straight line, and the second passing point P2 and the third passing point P3 are connected by a straight line. This is the obtained trajectory Qa.
The tangential trajectory is a drive trajectory obtained by connecting the start point and the first passing point with a straight line and smoothly connecting the second and subsequent passing points while maintaining continuity of the tangent. Specifically, as shown in FIG. 17B, the first passing point P1 and the second passing point P2 are connected by a straight line, and the continuity of the contacts at the second passing point P2 and the third passing point P3 is increased. This is the trajectory Qb obtained by maintaining and connecting smoothly.
手動軌道は、オペレータが、ジョグレバー、操作キーまたはマウスなどを操作して生成した軌道を、そのまま駆動軌道としたものである。具体的には、図17Cに示すように、第1の通過点P1と第2の通過点P2とをオペレータが出力装置5のディスプレイ51上で描画した線分で結び、第2の通過点P2と第3の通過点P3とをオペレータが描画した線分で結んで得られる軌道Qcである。
軌道生成部107は、生成した駆動軌道、および当該駆動軌道上の通過点の位置情報を、出力制御部104aおよび再生処理部108に出力する。In the manual trajectory, a trajectory generated by an operator by operating a jog lever, operation keys, a mouse, or the like is used as a drive trajectory as it is. Specifically, as shown in FIG. 17C, the first passing point P1 and the second passing point P2 are connected by a line segment drawn by the operator on the
The
通過点は、図17Aから図17Cで示した円形、または矩形等の形状で強調表示される。これにより、オペレータは、通過点を容易に認識することができる。出力制御部104aは、表示する通過点の近傍に、通過点の識別を示す文字、例えば「通過点1」、「Point1」または「P1」等を表示する制御情報を生成してもよい。オペレータが通過点を決定すると、出力制御部104aは、通過点の確定を印象付ける効果音を出力する制御を行ってもよい。オペレータが複数の通過点を決定した場合、各通過点は、決定された順に識別を示す文字が付され、例えば「通過点1」、「通過点2」および「通過点3」等の連番で表示される。
The passing point is highlighted in a circular shape or a rectangular shape shown in FIGS. 17A to 17C. Thereby, the operator can easily recognize the passing point. The
軌道生成部107は、ディスプレイ51に表示された駆動軌道上の通過点を移動させる操作情報が入力されると、当該通過点の位置情報を操作情報に従って移動させる修正を行う。また、軌道生成部107は、駆動軌道を、修正した通過点を結ぶ軌道に修正する。軌道生成部107は、出力制御部104aを介してディスプレイ51に表示された駆動軌道上の通過点を選択して削除する操作情報が入力されると、当該通過点の位置情報を削除する。また、軌道生成部107は、駆動軌道を削除した通過点を通過しない軌道に修正し、各通過点に付した識別を示す文字を修正する。軌道生成部107は、修正した駆動軌道、および修正した駆動軌道上の通過点の位置情報を、出力制御部104aおよび再生処理部108に出力する。なお、軌道生成部107は、ディスプレイ51に表示された駆動軌道を選択して移動させる操作情報の入力を受け付け、駆動軌道を移動させる修正を行ってもよい。
When the operation information for moving the passing point on the driving track displayed on the
教示装置4は、駆動軌道の修正が完了したことを示す、例えば完了ボタンの押下操作を受け付ける。また、教示装置4は、通過点を移動または削除する操作情報の入力が完了すると、駆動軌道の修正が完了したと判断し、完了ボタンの押下操作を不要としてもよい。教示装置4は、駆動軌道の修正が完了したことを、表示制御装置1に通知する。表示制御装置1は、駆動軌道の修正が完了したことが通知されると、生成した駆動軌道に沿ってロボット2を駆動させる制御プログラムをロボット制御装置7に出力する。
The
次に、再生処理部108の詳細について説明する。
再生処理部108は、軌道生成部107から入力された駆動軌道を示す情報と、情報処理部103bから取得したロボット2の3次元データとから、ロボット2が駆動軌道に沿って駆動する動作を算出し、シミュレーション情報を生成する。再生処理部108は、生成したシミュレーション情報を出力制御部104aに出力する。出力制御部104aは、再生処理部108から入力されたシミュレーション情報と、情報処理部103bから入力された3次元データとに基づいて、仮想空間においてロボット2が駆動軌道に沿って駆動する動画を表示する制御情報を生成し、出力装置5に出力する。Next, details of the
The
また、再生処理部108は、シミュレーション情報を生成する処理と並行して、シミュレーション情報と、情報処理部103bから入力された構造物の3次元データとの照合を行う。再生処理部108は、照合結果を参照し、仮想空間においてロボット2と構造物とが干渉するか否か判定を行う。ここでロボット2と構造物との干渉には、図3で示したロボット2のフランジ部2gに取り付けられたツール8と構造物との干渉も含まれるものとする。詳細には、再生処理部108は、ロボット2が駆動軌道に沿って駆動した際に、ロボット2のアーム、ロボット2の軸部材、ロボット2のフランジ部2g、およびツール8等のいずれかが、構造物と干渉するか否か判定を行う。再生処理部108は、干渉すると判定した場合に、干渉が発生する箇所の位置情報を取得し、出力制御部104aに出力する。出力制御部104aは、再生処理部108から干渉が発生する箇所の位置情報が入力されると、当該干渉が発生する箇所を明示するための制御情報を生成する。
Further, the
出力制御部104aは、シミュレーション情報を再生している際に干渉が発生する箇所を明示する制御情報を生成してもよいし、シミュレーション情報を再生することなく、ロボット2の駆動軌道を表示する際に干渉が発生する箇所を明示する制御情報を生成してもよい。例えば、軌道生成部107が、直動軌道または接線軌道を生成する場合、再生処理部108はシミュレーション情報を生成することなく、仮想空間においてロボット2と構造物とが干渉するか否かの判定を行う。再生処理部108は、干渉すると判定した場合に、干渉が発生する箇所の位置情報を出力制御部104aに出力する。これにより、出力制御部104aは、瞬時に駆動軌道上において干渉が発生する箇所を明示する制御を行うことができる。
The
出力制御部104aは、ロボット2の制御点Aが駆動軌道の開始点に位置する姿勢で表示し、次に駆動軌道に沿ってロボット2が駆動する動画を表示する制御を生成する。出力制御部104aは、ロボット2の駆動が終了すると、ロボット2の制御点Aが駆動軌道の終点に位置する姿勢で静止させて表示する制御情報を生成する。また、ロボット2が駆動軌道に沿って駆動する表示を行っている際に、操作情報取得部102が、例えば停止ボタンを押下する操作情報を取得すると、出力制御部104aは、情報処理部103bおよび再生処理部108を介して、停止ボタンが押下された際の姿勢で停止したロボット2を表示する制御情報を生成する。また、ある姿勢でロボット2が停止している表示を行っている際に、操作情報取得部102が、例えば再生ボタンを押下する操作情報を取得すると、出力制御部104aは、情報処理部103bおよび再生処理部108を介して、停止した姿勢から再度ロボット2の駆動を再開させる表示制御を行う。
The
出力制御部104aは、再生処理部108から干渉が発生する箇所の位置情報が入力されると、ロボット2との干渉箇所を、駆動軌道上で点または線等で強調表示する表示制御を行う。また、出力制御部104aは、駆動軌道の線の太さを変化させる、または線の色を変化させる等により、干渉箇所を強調表示する表示制御を行う。さらに、出力制御部104aは、仮想空間においてロボット2と構造物とが干渉する際に、スピーカ52から効果音を出力する制御を行ってもよい。
When the position information of the location where the interference occurs is input from the
次に、表示制御装置1Bの軌道生成部107、再生処理部108および出力制御部104aの動作について、図18および図19のフローチャートを参照しながら説明する。
図18は、実施の形態3に係る表示制御装置1Bの軌道生成部107の動作を示すフローチャートである。なお、以下では、位置情報記憶部106に新たな通過点の位置情報が記憶されると、軌道生成部107が駆動軌道を生成するものとして説明する。
位置情報記憶部106に新たな通過点の位置情報が記憶されると(ステップST51)、軌道生成部107は位置情報記憶部106に記憶された通過点の位置情報を取得する(ステップST52)。軌道生成部107は、ステップST52で取得した通過点の位置情報を用いて、ロボット2の駆動軌道を生成する(ステップST53)。軌道生成部107は、生成した駆動軌道を示す情報を出力制御部104aに出力する。Next, operations of the
FIG. 18 is a flowchart showing the operation of the
When position information of a new passing point is stored in the position information storage unit 106 (step ST51), the
一方、出力制御部104aは、入力された駆動軌道を示す情報に基づいて、駆動軌道および駆動軌道上の通過点を、仮想空間内に表示する制御情報を生成する(ステップST54)。出力制御部104aは、生成した制御情報を出力装置5に出力する。その後、軌道生成部107は、駆動軌道を修正する指示、または通過点を修正指示が入力されたか否か判定を行う(ステップST55)。ここで、修正指示には、通過点の修正と、通過点の削除とが含まれるものとする。修正指示が入力された場合(ステップST55;YES)、軌道生成部107は、修正指示に基づいて、前回生成した駆動軌道を修正する(ステップST56)。軌道生成部107は、修正した駆動軌道を示す情報を、出力制御部104aに出力し、ステップST54の処理に戻る。
On the other hand, the
一方、修正指示が入力されない場合(ステップST55;NO)、軌道生成部107は、生成または修正した駆動軌道を示す情報を再生処理部108に出力する。再生処理部108は、軌道生成部107から入力された駆動軌道を示す情報をバッファ等の一時格納領域に格納し(ステップST57)、処理を終了する。
On the other hand, when no correction instruction is input (step ST55; NO), the
図19は、実施の形態3に係る表示制御装置1Bの再生処理部108によるシミュレーション情報の生成を示すフローチャートである。なお、以下では、シミュレーション情報の生成指示が入力された場合に、再生処理部108がシミュレーション情報を生成するものとして説明する。
FIG. 19 is a flowchart showing generation of simulation information by the
操作情報取得部102からシミュレーション再生指示が入力されると(ステップST61)、再生処理部108は、図18のフローチャートのステップST57でバッファ等に格納した駆動軌道を示す情報と、情報処理部103bから入力されたロボット2および構造物の3次元データとから、ロボット2が駆動軌道に沿って駆動するシミュレーション情報を生成する(ステップST62)。
When a simulation reproduction instruction is input from the operation information acquisition unit 102 (step ST61), the
また、再生処理部108は、仮想空間において、ロボット2が駆動軌道に沿って駆動した場合に、ロボット2と構造物とが干渉するか否か判定を行う(ステップST63)。干渉しないと判定した場合(ステップST63;NO)、再生処理部108は、ステップST62で生成したシミュレーション情報を出力制御部104aに出力する。出力制御部104aは、再生処理部108から入力されたシミュレーション情報を再生する制御情報を生成する(ステップST64)。
In addition, the
一方、干渉すると判定した場合(ステップST63;YES)、再生処理部108は干渉が発生する箇所の位置情報を取得する(ステップST65)。再生処理部108は、ステップST62で生成したシミュレーション情報およびステップST63で取得した干渉が発生する箇所の位置情報を、出力制御部104aに出力する。出力制御部104aは、シミュレーション情報を再生すると共に、干渉が発生する箇所を駆動軌道上に表示する制御情報を生成する(ステップST66)。出力制御部104aは、ステップST64またはステップST66で生成した制御情報を出力装置5に出力し、処理を終了する。
On the other hand, when it determines with interference (step ST63; YES), the reproduction |
図20は、実施の形態3に係る発明の表示制御装置1Bによる干渉箇所の表示例を示す図である。
駆動軌道Qdは、ロボット2の制御点Aが、第1の通過点P1、第2の通過点P2および第3の通過点P3を通過する軌道である。領域Raは、ロボット2と構造物Dcとが干渉する箇所を示す領域である。領域Rbは、ロボット2が領域Raで構造物Dcと干渉する際に、制御点Aが駆動軌道Qd上のどこを駆動しているかを示す領域である。領域Raは、円形状で干渉箇所を明示している。一方、領域Rbは、駆動軌道Qdの一部を線分の太さを太く描画して干渉が発生する駆動軌道の箇所を明示している。FIG. 20 is a diagram showing a display example of an interference location by the
The driving trajectory Qd is a trajectory through which the control point A of the
出力装置5において、図20で示す表示が行われた場合に、オペレータは当該表示を確認しながら、駆動軌道Qdを修正する指示を、入力装置6を介して入力するように構成してもよい。その場合、軌道生成部107は、入力された修正指示に基づいて、前回生成した駆動軌道を修正する。再生処理部108は、修正した駆動軌道に沿ってロボット2が駆動した場合に、ロボット2と構造物とに干渉が発生するか判定を行う。出力制御部104aは、判定結果に応じた制御情報を生成し、出力装置5に出力する。これにより、オペレータは、干渉箇所を視認しながら、駆動軌道の修正を行うことができる。
In the
また、上述したシミュレーション再生において、オペレータは、ロボット2の駆動速度、各通過点における静止時間、駆動の繰り返し回数およびツール8の制御条件などを設定可能である。再生処理部108は、設定された条件に基づいて、シミュレーション情報を生成する。
上述したシミュレーション再生が終了する、または教示データの生成が終了すると、再生処理部108は現在設定されているロボット2の駆動軌道に沿ってロボット2を駆動させる制御プログラムをロボット制御装置7に出力する。
なお、シミュレーション再生の終了、または教示データ生成の終了は、例えばオペレータによる終了ボタンの押下によって判断してもよいし、ロボット2と構造物との干渉する駆動軌道が生成された場合に教示データの生成が終了したと判断してもよい。In the simulation reproduction described above, the operator can set the driving speed of the
When the above-described simulation reproduction is completed or generation of teaching data is completed, the
The end of simulation reproduction or the end of teaching data generation may be determined, for example, by pressing an end button by an operator, or when a driving trajectory that interferes with the
以上のように、この実施の形態3によれば、ロボット2の通過点を指定する操作情報に基づいて、指定された通過点を経由するロボット2の駆動軌道を生成する軌道生成部107を備え、出力制御部104aは、軌道生成部107が生成した駆動軌道および駆動軌道上の通過点を表示するための制御情報を生成するように構成したので、設定した通過点を経由する駆動軌道を確認するための情報を提示することができる。
As described above, according to the third embodiment, the
また、この実施の形態3によれば、軌道生成部107が生成した駆動軌道に沿って、ロボット2が駆動する動作を算出し、ロボット2の動きを示すシミュレーション情報を生成する再生処理部108を備え、出力制御部104aは、再生処理部108が生成したシミュレーション情報を再生するための制御情報を生成するように構成したので、駆動軌道に沿ってロボットが駆動する際の動きを確認するための情報を提示することができる。
Further, according to the third embodiment, the
また、この実施の形態3によれば、再生処理部108は、軌道生成部107が生成した駆動軌道に沿って、ロボット2が駆動した場合に、ロボット2と構造物とが干渉するか否か判定を行い、出力制御部104aは、再生処理部108がロボット2と構造物とが干渉すると判定した場合に、干渉が発生する箇所を表示するための制御情報を生成するように構成したので、駆動軌道に沿ってロボットが駆動した際に干渉が発生することを示す情報を提示することができる。
Further, according to the third embodiment, the
なお、上述した説明では、実施の形態1で示した表示制御装置1に、位置情報記憶部106、軌道生成部107、再生処理部108および干渉判定部109を追加して構成する例を示したが、実施の形態2で示した表示制御装置1Aに、位置情報記憶部106、軌道生成部107、再生処理部108および干渉判定部109を追加して構成してもよい。
In the above description, an example in which the position
上述した実施の形態1から実施の形態3の表示制御装置1,1A,1Bから出力された制御情報を、出力装置5を介して拡張現実空間で表示する場合が想定される。この場合、現実環境のロボット2に対して、制御点A、照準座標軸、通過点、駆動軌道および干渉領域等の情報を重畳表示する。また、現実環境にロボット2が存在しない場合には、現実環境の情報に対して、表示制御装置1,1A,1Bが生成したロボット2の情報も合わせて重畳表示する。
このように拡張現実空間で表示を行う場合、出力装置5として、3次元スキャニング用デバイスと加速度センサとを備えたタブレット端末またはヘッドマウントディスプレイ等を使用する。拡張現実空間の出力装置5は、ステレオカメラまたは深度センサ等を用いて、現実環境のロボット2および構造物の形状をスキャニングして3次元データを生成する。拡張現実空間の出力装置5は、生成した3次元データと、予め入力された教示データを入力するためのロボット2および構造物の3次元データとに、共通する特徴点を検出し、2つの3次元データの位置を一致させる。It is assumed that the control information output from the
Thus, when displaying in an augmented reality space, as the
拡張現実空間の出力装置5として、タブレット端末、または密閉式ヘッドマウントディスプレイを適用する場合、3次元スキャニング用デバイスの近傍に備えた画像入力用のカメラで撮像した現実環境のロボット2および周辺環境の画像に、予め入力された教示データを入力するためのロボット2および構造物の3次元データを重畳表示する。
一方、拡張現実空間の出力装置5として、透過式ヘッドマウントディスプレイを適用する場合、表示用のレンズを通して見える実物のロボット2および周辺環境に、予め入力された教示データを入力するためのロボット2および構造物を重畳表示する。When a tablet terminal or a sealed head mounted display is applied as the
On the other hand, when a transmissive head mounted display is applied as the
拡張現実空間の出力装置5は、3次元スキャニングを定期的に行い、加速度センサによるオペレータの動きの検出結果と合わせて演算を行い、上述したロボット2および構造物の重畳表示をリアルタイムに更新する。なお、実物のロボット2および構造物の形状をスキャニングした情報は表示しない。
3次元データが重畳表示されたデータは、仮想現実空間で教示データの生成およびシミュレーション情報の作成と同様に、通過点、駆動軌道および操作ボタン等の重畳表示を行うことができる。The
Similar to the generation of teaching data and the generation of simulation information, the data on which the three-dimensional data is displayed in a superimposed manner can be displayed in a superimposed manner such as passing points, driving trajectories, and operation buttons.
また、拡張現実空間の出力装置5は、予め入力された教示データを入力するためのロボット2および構造物を表示しない設定としてもよい。これにより、ロボット2と構造物との干渉を確認する場合に、実物の構造物と、3次元データのロボット2とが実際に干渉しているかのように、オペレータに実感させることができる。
Further, the augmented reality
図21は、実施の形態1から実施の形態3で示した表示制御装置100,100A,100Bの制御情報を、拡張現実空間の出力装置5に出力した場合の表示例を示す図である。
図21では、現実環境のロボット2Aおよび現実環境の周辺環境に、ロボット2の3次元データ2B、制御点A、照準座標軸、第1の通過点P1および駆動軌道Qeを重畳表示した場合の表示例を示している。
上述した説明では、出力制御部104が生成する制御情報は、ロボット2および照準座標軸を、仮想空間内の特定の位置から見た場合の画像を、出力装置5に表示させるための情報である場合を示した。しかし、図21で示したように、制御情報は、少なくとも照準座標軸を、仮想空間内の特定の位置から見た場合の画像を、出力装置5に表示させるための情報であってもよい。FIG. 21 is a diagram illustrating a display example when the control information of the display control devices 100, 100A, and 100B described in the first to third embodiments is output to the
In FIG. 21, a display example when the
In the above description, the control information generated by the
上述した実施の形態1から実施の形態3で示した表示制御装置1,1A,1Bは、機器を遠隔操作する制御プログラムを生成するための装置として適用することも可能である。
The
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。 In addition to the above, within the scope of the present invention, the present invention can freely combine each embodiment, modify any component of each embodiment, or omit any component of each embodiment. It is.
この発明に係る表示制御装置は、作業等を行わせるロボットの制御プログラムを生成するための機器、または機器を遠隔操作する制御プログラムを生成するための機器等に適用可能である。 The display control apparatus according to the present invention can be applied to a device for generating a control program for a robot that performs work or the like, or a device for generating a control program for remotely operating a device.
1,1A,1B 表示制御装置、101 3次元データ取得部、102 操作情報取得部、103,103a,103b 情報処理部、104,104a 出力制御部、105 駆動領域設定部、106 位置情報記憶部、107 軌道生成部、108 再生処理部。 1, 1A, 1B display control device, 101 three-dimensional data acquisition unit, 102 operation information acquisition unit, 103, 103a, 103b information processing unit, 104, 104a output control unit, 105 drive region setting unit, 106 position information storage unit, 107 trajectory generation unit, 108 reproduction processing unit.
この発明に係る表示制御装置は、駆動対象機器の3次元データおよび構造物の3次元データに基づいて、構造物の3次元データが規定する仮想空間内において、駆動対象機器に設定された制御点を通る第1の直線を含む照準座標軸の3次元データを生成する情報処理部と、駆動対象機器の3次元データ、構造物の3次元データおよび情報処理部が生成した照準座標軸の3次元データに基づいて、照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備え、第1の直線は、制御点と構造物の表面との交点までの部分の線分である。 The display control apparatus according to the present invention provides a control point set for a drive target device in a virtual space defined by the three-dimensional data of the structure based on the three-dimensional data of the drive target device and the three-dimensional data of the structure. An information processing unit for generating three-dimensional data of the aiming coordinate axis including the first straight line passing through the three-dimensional data of the driving target device, the three-dimensional data of the structure, and the three-dimensional data of the aiming coordinate axis generated by the information processing unit. An output control unit that generates control information for displaying the aiming coordinate axis on the output device, and the first straight line is a line segment of a portion up to the intersection of the control point and the surface of the structure .
一方、直線Xおよび直線Yを構造物の表面形状に沿う線としない場合(ステップST17;NO)、すなわち直線Xおよび直線Yを真直線とする場合、情報処理部103は、ステップST11で決定した直線Zを照準点Cまでの長さとすると共に、ステップST16で方向を決定した直線Xおよび直線Yを真直線とする照準座標軸の3次元データを生成する(ステップST19)。情報処理部103は、制御点Aの3次元データを生成する(ステップST20)。情報処理部103は、ステップST18からステップST20で生成した照準座標軸および制御点Aの3次元データ、またはステップST11で生成した直線Zの3次元データおよびステップST13で生成した制御点Aの3次元データを、出力制御部104に出力する(ステップST21)。その後、フローチャートは、図8のフローチャートのステップST4の処理に進む。
On the other hand, when the straight line X and the straight line Y are not lines along the surface shape of the structure (step ST17; NO), that is, when the straight line X and the straight line Y are assumed to be straight lines, the
Claims (19)
前記駆動対象機器の3次元データ、前記構造物の3次元データおよび情報処理部が生成した前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する出力制御部とを備えた表示制御装置。Based on the three-dimensional data of the device to be driven and the three-dimensional data of the structure, a first straight line passing through the control point set in the device to be driven is defined in the virtual space defined by the three-dimensional data of the structure. An information processing unit for generating three-dimensional data of the aiming coordinate axes including;
Control information for displaying the aiming coordinate axis on the output device is generated based on the three-dimensional data of the device to be driven, the three-dimensional data of the structure, and the three-dimensional data of the aiming coordinate axis generated by the information processing unit. A display control device comprising an output control unit.
前記第1の直線は、前記駆動可能領域内に位置する部分の線分であることを特徴とする請求項1記載の表示制御装置。A drive region setting unit that sets a driveable region of the drive target device based on a drive limit of the drive target device;
The display control apparatus according to claim 1, wherein the first straight line is a line segment of a portion located in the drivable region.
前記第1の直線、前記第2の直線、および前記第3の直線は、前記駆動可能領域内に位置する部分の線分であることを特徴とする請求項2記載の表示制御装置。A drive region setting unit that sets a driveable region of the drive target device based on a drive limit of the drive target device;
3. The display control apparatus according to claim 2, wherein the first straight line, the second straight line, and the third straight line are line segments of a portion located in the drivable region.
前記出力制御部は、前記軌道生成部が生成した前記駆動軌道および前記駆動軌道上の通過点を表示するための制御情報を生成することを特徴とする請求項1記載の表示制御装置。A trajectory generating unit that generates a driving trajectory of the driving target device via the specified passing point based on operation information specifying the passing point of the driving target device;
The display control apparatus according to claim 1, wherein the output control unit generates control information for displaying the driving trajectory generated by the trajectory generating unit and a passing point on the driving trajectory.
前記出力制御部は、前記再生処理部が生成した前記シミュレーション情報を再生するための制御情報を生成することを特徴とする請求項15記載の表示制御装置。A reproduction processing unit that calculates an operation of driving the drive target device along the drive track generated by the track generation unit, and generates simulation information indicating the movement of the drive target device;
The display control apparatus according to claim 15, wherein the output control unit generates control information for reproducing the simulation information generated by the reproduction processing unit.
前記出力制御部は、前記再生処理部が前記駆動対象機器と前記構造物とが干渉すると判定した場合に、前記干渉が発生する箇所を表示するための制御情報を生成することを特徴とする請求項16記載の表示制御装置。The regeneration processing unit determines whether or not the driving target device and the structure interfere when the driving target device is driven along the driving trajectory generated by the trajectory generation unit,
The output control unit generates control information for displaying a location where the interference occurs when the reproduction processing unit determines that the drive target device and the structure interfere with each other. Item 17. The display control device according to Item 16.
出力制御部が、前記駆動対象機器の3次元データ、前記構造物の3次元データおよび前記生成された前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成するステップとを備えた表示制御方法。Based on the three-dimensional data of the driving target device and the three-dimensional data of the structure, the information processing unit passes through the control point set in the driving target device in the virtual space defined by the three-dimensional data of the structure. Generating three-dimensional data of the aiming coordinate axes including the first straight line;
Control information for the output control unit to display the aiming coordinate axis on the output device based on the three-dimensional data of the device to be driven, the three-dimensional data of the structure, and the generated three-dimensional data of the aiming coordinate axis A display control method.
前記駆動対象機器の3次元データ、前記構造物の3次元データおよび前記生成された前記照準座標軸の3次元データに基づいて、前記照準座標軸を出力装置に表示するための制御情報を生成する手順とをコンピュータに実行させるための表示制御プログラム。Based on the three-dimensional data of the device to be driven and the three-dimensional data of the structure, a first straight line passing through the control point set in the device to be driven is defined in the virtual space defined by the three-dimensional data of the structure. A procedure for generating three-dimensional data of the aiming coordinate axes including;
Generating control information for displaying the aiming coordinate axis on an output device based on the three-dimensional data of the device to be driven, the three-dimensional data of the structure, and the generated three-dimensional data of the aiming coordinate axis; Display control program for causing a computer to execute.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/040132 WO2019092792A1 (en) | 2017-11-07 | 2017-11-07 | Display control device, display control method, and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6385627B1 JP6385627B1 (en) | 2018-09-05 |
JPWO2019092792A1 true JPWO2019092792A1 (en) | 2019-11-14 |
Family
ID=63444307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018526967A Active JP6385627B1 (en) | 2017-11-07 | 2017-11-07 | Display control apparatus, display control method, and display control program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6385627B1 (en) |
TW (1) | TW201918807A (en) |
WO (1) | WO2019092792A1 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102184935B1 (en) * | 2019-02-20 | 2020-12-01 | 한국기술교육대학교 산학협력단 | Method of Confirming Motion of Robot Arm Using Augmented Reality |
JP7048539B2 (en) | 2019-04-26 | 2022-04-05 | ファナック株式会社 | Vibration display device, operation program creation device, and system |
JP7260428B2 (en) | 2019-07-18 | 2023-04-18 | ファナック株式会社 | Augmented reality glasses device and display program |
JP7293057B2 (en) * | 2019-09-13 | 2023-06-19 | 株式会社東芝 | Radiation dose distribution display system and radiation dose distribution display method |
JP7396872B2 (en) | 2019-11-22 | 2023-12-12 | ファナック株式会社 | Simulation device and robot system using augmented reality |
JP7409848B2 (en) | 2019-12-04 | 2024-01-09 | ファナック株式会社 | Display device and display program |
JP7454046B2 (en) | 2020-06-25 | 2024-03-21 | 株式会社日立ハイテク | Robot teaching device and work teaching method |
US20230292000A1 (en) * | 2020-08-03 | 2023-09-14 | Mitsubishi Electric Corporation | Remote control device |
WO2022131068A1 (en) * | 2020-12-14 | 2022-06-23 | ファナック株式会社 | Augmented reality display device and augmented reality display system |
JP2022186476A (en) * | 2021-06-04 | 2022-12-15 | パナソニックIpマネジメント株式会社 | Information processing device, information processing method, and computer program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09300256A (en) * | 1996-05-14 | 1997-11-25 | Nippon Telegr & Teleph Corp <Ntt> | Robot teaching method and device |
DE10305384A1 (en) * | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Method and device for visualizing computer-aided information |
JP4836458B2 (en) * | 2005-01-07 | 2011-12-14 | 株式会社神戸製鋼所 | How to create an operation program |
JP5103237B2 (en) * | 2008-03-25 | 2012-12-19 | 株式会社神戸製鋼所 | Robot operation margin calculation display method and apparatus |
JP5872894B2 (en) * | 2011-12-28 | 2016-03-01 | 川崎重工業株式会社 | Robot motion teaching support apparatus and method |
JP5716769B2 (en) * | 2013-02-21 | 2015-05-13 | 株式会社安川電機 | Robot simulator, robot teaching apparatus, and robot teaching method |
JP6361153B2 (en) * | 2014-02-05 | 2018-07-25 | 株式会社デンソーウェーブ | Robot teaching device |
JP2017019068A (en) * | 2015-07-14 | 2017-01-26 | セイコーエプソン株式会社 | Teaching device, robot, and robot system |
-
2017
- 2017-11-07 WO PCT/JP2017/040132 patent/WO2019092792A1/en active Application Filing
- 2017-11-07 JP JP2018526967A patent/JP6385627B1/en active Active
-
2018
- 2018-05-16 TW TW107116580A patent/TW201918807A/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2019092792A1 (en) | 2019-05-16 |
JP6385627B1 (en) | 2018-09-05 |
TW201918807A (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6385627B1 (en) | Display control apparatus, display control method, and display control program | |
CN110977931B (en) | Robot control device and display device using augmented reality and mixed reality | |
CN108453702B (en) | Robot simulator, robot system, and simulation method | |
JP6810093B2 (en) | Robot simulation device | |
JP6311421B2 (en) | Teaching system, robot system, and teaching method | |
JP3841439B2 (en) | Robot jog feed method | |
US11173601B2 (en) | Teaching device for performing robot teaching operations and teaching method | |
US20160328887A1 (en) | Systems and methods for providing assistance for manipulating objects using virtual proxies and virtual replicas | |
US20150151431A1 (en) | Robot simulator, robot teaching device, and robot teaching method | |
WO2016103307A1 (en) | Method for generating robot operation program, and device for generating robot operation program | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
US20140236356A1 (en) | Teaching system, teaching method and robot system | |
JP2006142480A (en) | Teaching operation panel of robot | |
WO2019044766A1 (en) | Robot system and method for operating same | |
JP2015229234A (en) | Device and method for creating teaching data of working robot | |
JP6625266B1 (en) | Robot controller | |
JPH06131442A (en) | Three-dimensional virtual image modeling device | |
JP7035555B2 (en) | Teaching device and system | |
JP2019211487A (en) | Measuring system | |
JPH10264065A (en) | Remote operation support device for robot | |
CN109661621B (en) | Machining simulation display device and machining simulation display method | |
KR102361985B1 (en) | Method and system for wearable device-based manual providing | |
JP2015058493A (en) | Control device, robot system, robot, robot operation information generation method, and program | |
JP2018132847A (en) | Information processing apparatus, information processing method, and program | |
CN111077805A (en) | Measurement program selection assistance apparatus and measurement control apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180524 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180524 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180704 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6385627 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |