JP5113666B2 - Robot teaching system and display method of robot operation simulation result - Google Patents
Robot teaching system and display method of robot operation simulation result Download PDFInfo
- Publication number
- JP5113666B2 JP5113666B2 JP2008207281A JP2008207281A JP5113666B2 JP 5113666 B2 JP5113666 B2 JP 5113666B2 JP 2008207281 A JP2008207281 A JP 2008207281A JP 2008207281 A JP2008207281 A JP 2008207281A JP 5113666 B2 JP5113666 B2 JP 5113666B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- dimensional model
- viewpoint
- display
- attention area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Description
本発明は、オフラインプログラミングで3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示装置に表示する方法及びロボットの動作のシミュレーション結果を表示しながらロボットの動作の教示を行うためのロボット教示システムに関する。 The present invention relates to a method for displaying a simulation result of a robot operation in a three-dimensional model space on a display device by offline programming and a robot teaching system for teaching a robot operation while displaying the simulation result of the robot operation. .
ロボットに動作を教示する教示作業では、教示用操作盤を用いて実際にロボットを動かしながら教示を行うオンラインプログラミングが一般的に用いられる。しかしながら、オンラインプログラミングでは、教示作業中はロボットを使用できなくなるので、教示作業のために製造ラインを停止させる必要があるという短所がある。また、正確な教示作業のためには、実際にロボット使用するための製造ラインを構築して作業環境を確定しなければならないという短所があった。 In teaching work for teaching a robot to perform an operation, online programming is generally used in which teaching is performed while actually moving a robot using a teaching operation panel. However, in online programming, since the robot cannot be used during the teaching work, there is a disadvantage that it is necessary to stop the production line for the teaching work. In addition, for accurate teaching work, there is a disadvantage in that it is necessary to establish a production line for actually using a robot and to determine the work environment.
この短所を解消するために、実機に代えて3次元モデルを使用したシミュレーションに基づいてロボットの教示を行うオフラインプログラミングが用いられるようになってきている。オフラインプログラミングでは、相対位置関係を把握しやすいように、サーフェイスモデルやソリッドモデルを用いて、周囲環境を構成する物体、ロボット及びワークなどをグラフィカルに表示装置上に表示し、作業者は、表示装置上に表示された情報を見ながら、入力装置を用いて教示点を入力する。この際、作業者がロボットと周囲の物体との位置関係を直感的に把握しやすいように、例えば特許文献1に記載されているように、各物体、ロボット及びワークなどを3次元モデル空間において指定された視点から見たときの画像を表示装置上に表示するようにしている。
In order to eliminate this disadvantage, off-line programming for teaching a robot based on a simulation using a three-dimensional model is used instead of an actual machine. In offline programming, objects, robots, and workpieces that make up the surrounding environment are graphically displayed on the display device using surface models and solid models so that the relative positional relationship can be easily grasped. The teaching point is input using the input device while viewing the information displayed above. At this time, in order to make it easy for the operator to intuitively grasp the positional relationship between the robot and surrounding objects, for example, as described in
例えば、工作機械が加工セル内に配置されており工作機械の周囲がセル壁などによって覆われている環境下で、ロボットが、セル壁の一部に設けられた扉を通して加工セルの内部にアクセスすることにより、各種作業を行うことがある。オフラインプログラミング装置を用いて、このような環境下で例えばロボットのアームの先端部分に把持されたワークを加工セル内に搬入する動作を教示するとき、セル壁に遮られて、ロボットのアームの先端の手首部分やそこに把持されるワークなど、動作の検討や確認に必要な部分(以下注目領域と記載する。)が見えなくなることがある。このような場合、表示装置上で視点を変更して注目領域が見えるようになるまで試行錯誤を繰り返す必要があった。また、どうしてもセル壁など工作機械の構成要素の陰になって見えない領域も存在するという問題もあった。 For example, in an environment where a machine tool is placed in a processing cell and the surroundings of the machine tool are covered with a cell wall, the robot accesses the inside of the processing cell through a door provided on a part of the cell wall. As a result, various operations may be performed. In such an environment, using an offline programming device, for example, when teaching the operation of loading a workpiece held by the tip of the robot arm into the machining cell, the tip of the robot arm is blocked by the cell wall. In some cases, a part necessary for examination and confirmation of the operation (hereinafter referred to as a region of interest) such as a wrist part or a work held by the wrist part may not be visible. In such a case, it was necessary to repeat trial and error until the region of interest can be seen by changing the viewpoint on the display device. In addition, there is a problem in that there are areas that cannot be seen behind the machine tool components, such as cell walls.
よって、本発明の目的は、従来技術に存する問題を解決して、オフラインプログラミングで3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示しながらロボットの動作の教示を行う際に、注目領域を確実に表示できるようにするようにすることにある。 Therefore, the object of the present invention is to solve the problems existing in the prior art, and to display the attention area when teaching the robot motion while displaying the simulation result of the robot motion in the three-dimensional model space by offline programming. The purpose is to ensure display.
上記目的を達成するために、本発明によれば、ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークの3次元モデルを含む3次元モデル空間において前記ロボットの動作のシミュレーションを行うシミュレーション装置と、前記3次元モデル空間における視点及び注目領域を入力するための入力装置と、前記入力装置によって入力された前記視点から見たときの画像として前記3次元モデル空間を表示する表示装置とを備え、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を前記表示装置に表示しながら前記ロボットの動作の教示を行うためのロボット教示システムであって、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算する表示画像演算装置をさらに備え、前記表示画像演算装置によって演算された画像データに基づく画像を前記表示装置に表示するようにし、さらに、前記表示画像演算装置は、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分又は全体を前記視覚的障害となる物体の部分として非表示にするロボット教示システムが提供される。 In order to achieve the above object, according to the present invention, an operation of the robot in a three-dimensional model space including a three-dimensional model of a robot, a plurality of objects constituting the surrounding environment of the robot, and a workpiece handled by the robot. A simulation apparatus for performing the simulation, an input apparatus for inputting a viewpoint and a region of interest in the three-dimensional model space, and displaying the three-dimensional model space as an image when viewed from the viewpoint input by the input apparatus A robot teaching system for teaching the robot operation while displaying the result of the simulation of the robot operation in the three-dimensional model space on the display device. Visual obstacles when viewing the region of interest from the viewpoint in space An image calculated by the display image calculation device, further comprising a display image calculation device for calculating image data for displaying the result of the simulation of the operation of the robot in the three-dimensional model space. An image based on the data is displayed on the display device , and the display image calculation device is configured to display the object of the three-dimensional model in the line-of-sight direction when viewing the attention area from the viewpoint in the three-dimensional model space. A projection plane is defined on the side closer to the viewpoint than all, and a figure obtained by projecting the region of interest parallel to the line-of-sight direction on the projection plane is swept toward the region of interest in the line-of-sight direction. The part or the whole of the object of the three-dimensional model that interferes with the swept figure defined in the three-dimensional model space Robot teaching system to hide the portion of the object to be visually disorder.
本発明のロボット教示システムによれば、3次元モデル空間において指定された注目領域を見るときに視覚的障害となる物体の部分が非表示にされるので、注目領域が物体によって覆われている場合でも注目領域が常に表示装置上に表示されるようになる。 According to the robot teaching system of the present invention, the part of the object that becomes a visual obstacle when the attention area designated in the three-dimensional model space is viewed is hidden, so that the attention area is covered with the object. However, the attention area is always displayed on the display device.
前記表示画像演算装置は、前記視覚的障害となる部分を含む個々の物体の全体を非表示にして前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算することもできる。 The display image calculation device may calculate image data that displays a result of a simulation of the operation of the robot in the three-dimensional model space while hiding all the individual objects including the visually disturbing portion. it can.
上記ロボット教示システムにおいて、前記入力装置によって強制表示領域を指定することができ、前記表示画像演算装置は、前記強制表示領域内に位置する物体の部分が視覚的障害となっても、前記物体の部分又は当該部分を含む個々の物体の全体を強制的に表示するようになっていることが好ましい。 In the robot teaching system, a forced display area can be specified by the input device, and the display image calculation device is configured such that even if a portion of an object located in the forced display area becomes a visual obstacle, It is preferable that the part or the whole of the individual object including the part is forcibly displayed.
また、前記3次元モデル空間において前記視点から前記注目領域を見たときに視覚的障害となっても強制的に表示する物体の部分又は当該部分を含む個々の物体の全体を前記入力装置によって指定できるようになっていることが好ましい。 Further, the input device designates a part of an object to be forcibly displayed even when a visual obstacle occurs when the attention area is viewed from the viewpoint in the three-dimensional model space, or an entire individual object including the part. It is preferable to be able to do this.
前記注目領域は、前記ロボットの可動部分に対して所定の相対関係を有した領域として設定されるようになっていてもよい。 The region of interest may be set as a region having a predetermined relative relationship with the movable part of the robot.
また、本発明によれば、ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークを含む3次元モデルを含む3次元モデル空間における前記ロボットの動作のシミュレーション結果を表示装置に表示する方法において、
3次元モデル空間において視点及び注目領域を設定し、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記注目領域が常に表示されるように前記ロボットの動作のシミュレーションの結果を表示する画像データを演算し、演算された画像データに基づく画像を前記表示装置に表示するようにし、前記視覚的障害となる物体の部分を非表示にする際には、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分又は全体を前記視覚的障害となる物体の部分として非表示にするようにしたロボットの動作のシミュレーション結果の表示方法が提供される。
In addition, according to the present invention, the simulation result of the operation of the robot in the three-dimensional model space including the three-dimensional model including the robot, the plurality of objects constituting the surrounding environment of the robot, and the work handled by the robot is displayed. In a method of displaying on a device,
The viewpoint and the attention area are set in the three-dimensional model space, and the part of the object that becomes a visual obstacle when the attention area is viewed from the viewpoint in the three-dimensional model space is hidden, and the attention area is always displayed. The image data for displaying the result of the simulation of the operation of the robot is calculated so that an image based on the calculated image data is displayed on the display device, and the portion of the object that becomes the visual obstacle is hidden. In the three-dimensional model space, a projection plane is defined on the side closer to the viewpoint than all of the objects of the three-dimensional model in the line-of-sight direction when the attention area is viewed from the viewpoint. A figure obtained by projecting the region of interest in parallel to the line-of-sight direction with respect to a surface is swept toward the region of interest in the line-of-sight direction. The three-dimensional model of the three dimensional model interfere with defined swept shape in a space object part or whole of the simulation results of the operation of the robot so as to hide as part of the object of the visual impairment A display method is provided.
本発明のロボット教示システム及びロボットの動作のシミュレーション結果の表示方法によれば、注目領域が物体によって覆われている場合でも注目領域が常に表示装置上に表示されるようになるので、教示作業の際に注目領域が見えるように視点の変更を試行錯誤する必要がなくなり、教示作業の効率が向上する。 According to the robot teaching system and the robot simulation display method of the present invention, the attention area is always displayed on the display device even when the attention area is covered with an object. At this time, it is not necessary to change the viewpoint so that the attention area can be seen, and the efficiency of teaching work is improved.
以下、図面を参照して本発明によるロボット教示システムの好ましい実施形態を説明する。図1は本発明によるロボット教示システムの全体構成を示す機能ブロック図、図2はロボット動作のシミュレーション結果を単純に表示した状態を示す斜視図、図3は視点から注目領域を見たときに視覚的障害になる物体を非表示にしてロボット動作のシミュレーション結果を表示した状態を示す斜視図、図4は本発明によるロボット教示システムにおける処理の流れを示すフローチャート、図5は注目領域を所定の投影面に投影した状態を示す斜視図、図6は投影面に投影された図形を視線方向に掃引することにより規定される掃引領域を示す斜視図である。 Hereinafter, preferred embodiments of a robot teaching system according to the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram showing the overall configuration of a robot teaching system according to the present invention, FIG. 2 is a perspective view showing a state in which a simulation result of a robot operation is simply displayed, and FIG. 3 is a visual view when an attention area is viewed from a viewpoint. FIG. 4 is a flowchart showing the flow of processing in the robot teaching system according to the present invention, and FIG. 5 is a predetermined projection of a region of interest. FIG. 6 is a perspective view showing a sweep area defined by sweeping a figure projected on the projection surface in the line-of-sight direction.
最初に、図1を参照して本発明によるロボット教示システム10の全体構成を説明する。
ロボット教示システム10は、記憶装置12と、入力装置14と、シミュレーション装置16と、表示画像演算装置18と、表示装置20とを備え、シミュレーション装置16によって得られたシミュレーションの結果を、設定された視点から注目領域を見たときの画像として、表示装置20上に表示するようになっている。
First, the overall configuration of the
The
記憶装置12は、RAMなどのメモリやハードディスク装置などにより構成されており、他の装置と独立して設けられてもよく、シミュレーション装置16や表示画像演算装置18など他の装置に内蔵されていてもよい。記憶装置12には、入力装置14などにより、ロボット22(図2及び図3)や、工作機械24(図2及び図3)、テーブル26(図3)及び工作機械24を取り囲むセル壁28(図2及び図3)のようなロボット22の周囲環境などの3次元モデルのデータが入力され、記憶される。3次元モデルは、操作者がロボット22とその周囲環境との位置関係を把握しやすいようにサーフェイスモデルやソリッドモデルなどとすることが好ましい。また、入力装置14は、キーボード、3次元マウス、6自由度入力装置などとすることができ、操作者が、3次元モデルのデータを入力したり、3次元モデル空間における視点や注目領域を指定したりするときに使用される。
The
シミュレーション装置16は、操作者により入力装置14を通して入力されたロボット22に対する動作指示に従って、記憶装置12に記憶された3次元モデルデータに基づいて規定される3次元モデル空間におけるロボット22の動作をシミュレーションする。また、表示画像演算装置18は、得られたシミュレーション結果に基づいて、指定された視点42(図5)から見たときのロボット22の動作及び周囲環境を示す画像データを演算により求め、求められた画像データに基づいてシミュレーションの結果を画像として表示装置20上に表示する。
The
表示画像演算装置18は、視点設定部32と、注目領域設定部34と、非表示決定部36と、画像演算部38とを含む。視点設定部32は、操作者が入力装置14によって入力した指示に従って3次元モデル空間における視点42の位置および視線方向50を設定し、注目領域設定部34は、操作者が入力装置14によって入力した指示に従って3次元モデル空間における注目領域(すなわち、操作者が関心のある3次元領域)44(図5)の3次元的範囲を設定する。注目領域44は、入力時に、例えば表示装置20上で半透明の物体として一時的に表示することによって、その位置を容易に確認できるようになっていることが好ましい。
The display
非表示決定部36は、視点設定部32に設定された視点42から注目領域44を見たときに視覚的障害となって注目領域44の視認を妨げる3次元モデルの物体の部分を特定する。視覚的障害となる部分を特定する方法については後述する。画像演算部38は、視覚的障害となる部分をあたかも3次元モデル空間に存在しないかのごとく非表示となるように、3次元モデルデータ及びシミュレーションの結果に基づいて3次元モデル空間におけるロボット22の動作を表す画像データを演算により求め、設定された視点42から見たときに視覚的障害となる部分の影になって見えない部分を表示装置20上に表示できるようにする。視覚的障害となる物体の部分を非表示にするときには、その部分のみを非表示にしてもよく、その部分を含む個々の物体の全体を非表示にしてもよい。なお、視覚的障害となる部分を含む物体の単位は、個々の装置の構成要素など可能な限り小さく予め設定されていることが好ましい。
The non-display determining
例えば、工作機械24が加工セル内に配置されており工作機械24の周囲がセル壁28で取り囲まれている場合に、セル壁28に設けられた扉30(図2及び図3)を通して、ロボット22のエンドエフェクタ22aによって把持されたワークWを加工セルの内部に設けられたテーブル26上の所定の位置に載置する動作をロボット22に教示するために、テーブル26の周囲を注目領域44として設定すると仮定する。この場合、3次元モデル空間において設定された視点42から注目領域44を見ると、注目領域44はセル壁28の影に隠れてしまう。したがって、セル壁28に設けられた扉30を通してロボット22のアームの先端のエンドエフェクタ22aをセル壁28の内部に進入させて注目領域44にアクセスさせる動作のシミュレーション結果を表示装置20に単純に表示させると、図2に示されているように、エンドエフェクタ22aがセル壁28の影に隠れてしまい、エンドエフェクタ22aやこれに把持されたワークWの正確な位置を確認できなくなる。したがって、テーブル26上の所定の位置にワークWを正確に載置させるためには、視点42を変えて表示装置20上にロボット22のエンドエフェクタ22aや注目領域44を表示させる必要があり、試行錯誤を繰り返さなくてはならない。
For example, when the
本発明では、表示画像演算装置18の非表示決定部36が、設定された視点42から注目領域44を見たときに視覚的障害となるセル壁28の部分を非表示にすることを自動的に決定し、図3に示されているように、視覚的障害となる部分を含むセル壁28を非表示の状態にして表示装置20上に3次元モデル空間が表示される。したがって、設定された視点42から注目領域44が常に見えるように表示される。このようにして、セル壁28に設けられた扉30を通してロボット22のアームの先端のエンドエフェクタ22aを加工セルの内部に進入させて注目領域44にアクセスさせるときでも、エンドエフェクタ22aに把持されたワークWの位置を正確に確認することを可能にさせ、ロボット22の動作の教示を容易且つ効率的に行うことを可能にさせている。
In the present invention, the
なお、特定部分を非表示にしたときにその影になって見えないはずの部分を3次元モデルデータやシミュレーションの結果に基づいて表示する技術は3次元モデルの利用分野において公知のものであるので、ここでは詳しく説明しない。 A technique for displaying a portion that should be invisible when a specific portion is hidden based on 3D model data or simulation results is well known in the field of using 3D models. I won't go into detail here.
また、表示画像演算装置18は、強制表示設定部40をさらに含んでいてもよい。強制表示設定部40は、操作者が入力装置14によって指定した3次元領域又は物体を強制的に表示する部分として設定するものである。非表示決定部36は、強制表示設定部40に設定された領域内に位置する部分や強制表示設定部40に設定された物体を非表示にする対象から除外し、設定された視点42から注目領域44を見たときに視覚的障害となる部分であっても強制表示設定部40に設定された物体や部分が表示装置20上に必ず表示されるようにする。このように強制的に表示される部分や物体を設定できるようにすることにより、注目領域44の視覚的障害となったとしても表示装置20上に常に表示しておきたい物体又は領域がある場合に、当該物体又は領域を非表示処理の対象外とすることが可能になる。
In addition, the display
次に、図4を参照して、図1に示されるロボット教示システム10における処理の流れを説明する。
最初に、操作者は、ロボット22や、工作機械24、テーブル26及びそれらを取り囲むセル壁28のようなロボットの周囲環境の3次元モデルデータを入力装置14によって入力して3次元モデルを作成し、これを記憶装置12に記憶させる(ステップS100)。3次元モデルデータはキーボードなどによって直接入力してもよく、携帯可能な記憶媒体から予め作成された3次元モデルデータを読み取り装置などを通して記憶装置12に読み込ませてもよい。
Next, with reference to FIG. 4, the flow of processing in the
First, the operator creates a three-dimensional model by inputting three-dimensional model data of the surrounding environment of the robot such as the
次に、操作者は、入力装置14を用いて、3次元モデルデータに基づいて表示装置20上に表示された3次元モデル空間における視点42の位置及び注目領域44の3次元的範囲を入力し、視点設定部32及び注目領域設定部34にそれぞれ設定する(ステップS102)。注目領域44は、例えばロボット22のエンドエフェクタ(例えばワークWを把持するハンド部分など)22a、ワークW及びワークWを載置するテーブル26などの周囲の領域とすることができ、3次元モデル空間内において固定的に設定されてもよく、また、ロボット22やエンドエフェクタ22aの移動に応じて注目領域44も移動するようにロボット22のエンドエフェクタ22aなどの可動部分に対して相対的な位置関係で設定されてもよい。また、ロボット22以外の周辺装置の可動部分に対して相対的な位置関係で設定して、周辺装置の移動に応じて注目領域44も移動するようにしてもよい。注目領域44が入力時に表示装置20上で半透明の物体として表示されるようになっていれば、操作者は表示装置20上で注目領域44の位置を視覚的に確認しながら容易に設定することができる。
Next, the operator uses the
次に、操作者が入力装置14によってロボット22に動作指示を与えると、シミュレーション装置16が、与えられた動作指示に基づいてロボット22の動作のシミュレーションを行い、表示画像演算装置18が、シミュレーションの結果に基づいて、3次元モデル空間において設定された視点42から注目領域44を見たときのロボット22の動作を表す画像データを演算し、シミュレーションの結果に基づく3次元モデル空間におけるロボット22の動作を示す画像を表示装置20上に表示させる(ステップS104)。操作者によって与えられる動作指示は、絶対座標値により与えられてもよく、その時点の位置及び姿勢に対する座標値の相対変化量として与えられてもよい。また、動作指示は、入力装置14を用いて、数値で与えられてもよく、表示装置20上に表示される3次元モデル空間においてポインタを移動させることによって与えられてもよい。
Next, when the operator gives an operation instruction to the
ここで、表示装置20上に表示される3次元モデル空間の画像において、固定的に設定された注目領域44がそもそも視覚的障害物の影になって設定された視点42から見えないたときに、又はエンドエフェクタ22aなどロボット22の可動部の位置に対する相対的な位置関係で設定された注目領域44がシミュレーションの結果として視覚的障害物の影に移動して設定された視点42から見えなくなるときに、本発明のロボット教示システム10において行われる処理について説明する。
Here, in the image of the three-dimensional model space displayed on the
3次元モデル空間において固定的に設定された注目領域44の位置が確定されると、又はロボット22の可動部に対して相対的な位置関係で設定されている注目領域44の位置がロボット22の動作のシミュレーションの結果に基づいて確定されると、表示画像演算装置18の画像演算部38は、設定された視点42から注目領域44を見たときの画像データを演算して画像を求める。次に、表示画像演算装置18の非表示決定部36は、求められた画像において注目領域44の表示の妨げとなる視覚的障害物が視点42と注目領域44との間に存在するときに、視覚的障害となる3次元モデルの物体の部分又はその部分を含む個々の物体の全体を特定し、その部分又は物体を非表示にするように自動的に決定する(ステップS106)。画像演算部38は、非表示決定部36の決定に従って、非表示にするように決定された3次元モデルの物体の部分又はその部分を含む個々の物体の全体があたかも3次元モデル空間に存在しないかのごとく非表示にした画像データを再度演算し、得られた画像データに基づいた画像を表示装置20に表示させる(ステップS108)。
When the position of the
これにより、たとえ視点42と注目領域44との間に視覚的障害物があっても注目領域44が常に表示装置20上に表示されるようになる。したがって、操作者は表示装置20上で注目領域44の状態を常に確認することができるようになるので、注目領域44が表示されるように視点設定部32に設定される視点42の変更を試行錯誤する必要がなくなり、ロボット22の動作の教示を容易且つ効率的に行うことが可能となる。
Thereby, even if there is a visual obstacle between the
また、操作者が入力装置14によって強制的に表示する物体又は3次元的領域を強制表示設定部40に設定している場合、表示画像演算装置18の非表示決定部36は、強制表示設定部40に設定された領域内に位置する物体やその部分を非表示にする対象から自動的に除外し、設定された視点42から注目領域44を見たときの画像において視覚的障害となる物体又はその部分であっても強制表示設定部40に設定された物体やその部分が表示装置20上に強制的に表示されるようにする。これにより、表示装置20上に常に表示しておきたい物体がある場合に対処することが可能となる。なお、この場合に、視覚的障害物が注目領域44の一部又は全部の表示を妨げることによりロボットの動作の必要な確認が行えなくなったときには、操作者は、強制表示設定部40に設定される物体や領域を適宜に変更したり、表示装置20上に注目領域44が表示されるように視点を変更したりすることにより対処することになる。
When the operator has forcibly set an object or a three-dimensional area to be displayed by the
このようにして表示装置20上に表示される3次元モデル空間におけるロボット22の動作を表す画像を参照して、操作者はロボット22に対する動作指示を変えながら適切なロボット22の動作を確認し、ロボット22の動作の教示を行う(ステップS110)。以上のステップを繰り返し、必要なロボット22の動作の教示が全て終了すると、教示作業を終了する(ステップS112)。また、教示作業の終了と共にシミュレーションも終了する。
By referring to the image representing the operation of the
最後に、図5及び図6を参照して、表示画像演算装置18の非表示決定部36が視覚的障害となる部分を特定する手法の例について説明する。
平行投影法によって3次元モデル空間を表示装置20に表示する場合、表示画像演算装置18の非表示決定部36は、一つの例として、図5に示されるように、3次元モデル空間において、ロボット22や周囲環境などの物体の全てよりも視点42に近い側に所定の投影面46を規定する。この投影面46の法線方向と視点42の視線方向50は一致するように規定される。視線方向50に注目領域44を平行投影することによって投影面46上に投影される図形48を求めた後、例えば投影面46上の図形48の頂点の少なくとも一つとこれに対応する3次元モデル空間内の注目領域44の境界上の点とが重なるまで、この図形48を視線方向50に注目領域44に向かって掃引することによって図6に示されるような掃引図形52を求め、3次元モデル空間内の物体の一部分又は全体が求められた掃引図形52と干渉するとき、すなわち掃引図形の内部領域に位置するときに、その物体の部分又は全体を、設定された視点42から注目領域44を見るときに注目領域44の表示の妨げとなる視覚的障害と判定する。注目領域44を球形状や直方体形状の組み合わせで定義する場合、注目領域44を投影面46に平行投影することによって得られる図形48は球の中心や直方体の各頂点を投影するだけで容易に算出することが可能である。
透視投影法によって3次元モデル空間を表示装置20に表示する場合、表示画像演算装置18の非表示決定部36は、一つの例として、図7に示されるように、視点42の始点位置と注目領域44を結ぶ干渉確認図形54を求める。注目領域44を構成する要素が直方体形状の場合は、直方体の各稜線と、その稜線の両端の頂点と視点位置を結んだ線分で構成される各3角形で囲まれた領域として定義される。注目領域44を構成する要素が球形状の場合は、球の中心位置と半径から得られる円を底面とした円錐状の形状として定義される。干渉確認図形54から視覚的障害と判定される物体を求める方法は、平行投影法の場合と同様である。
Finally, with reference to FIGS. 5 and 6, an example of a method in which the
When displaying the three-dimensional model space on the
When displaying the three-dimensional model space on the
なお、このような視覚的障害の判定の際には、干渉チェックが必要となるので、描画処理の負荷を軽減するために、3次元モデルの各物体の形状に対応して干渉チェック用の簡易形状を予め定義しておき、干渉チェックの際にこの簡易形状を用いて干渉チェックを行うことが好ましい。 It should be noted that when such a visual obstacle is determined, an interference check is required. Therefore, in order to reduce the load of the drawing process, a simple interference check corresponding to the shape of each object of the three-dimensional model is performed. It is preferable to define the shape in advance and perform the interference check using this simple shape when performing the interference check.
以上、図示される実施形態を参照して、本発明のロボット教示システム10を説明したが、本発明は図示される実施形態に限定されるものではない。例えば、図示される実施形態では、視覚的障害となる物体の部分を判定するために、3次元モデル空間に規定された投影面46に注目領域44を視線方向50に平行投影することによって得られた図形48を視線方向50に掃引することによって得られた掃引図形52を用いているが、これに代えて、3次元モデル空間において視点42を頂点として注目領域44に向かって延び且つ注目領域44を内部に収容するように規定された錘状視野空間を用い、視野空間内において注目領域44よりも視点42に近い側に位置する3次元モデルの物体の部分を視覚的障害物と判定することも可能である。
The
10 ロボット教示システム
16 シミュレーション装置
18 表示画像演算装置
20 表示装置
22 ロボット
32 視点設定部
34 注目領域設定部
36 非表示決定部
38 画像演算部
40 強制表示設定部
42 視点
44 注目領域
46 投影面
48 図形
50 視線方向
52 掃引図形
54 干渉確認図形
DESCRIPTION OF
Claims (6)
前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算する表示画像演算装置をさらに備え、前記表示画像演算装置によって演算された画像データに基づく画像を前記表示装置に表示するようにし、
さらに、前記表示画像演算装置は、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分又は全体を前記視覚的障害となる物体の部分として非表示にすることを特徴とするロボット教示システム。 A simulation apparatus for simulating the operation of the robot in a three-dimensional model space including a robot, a plurality of objects constituting the surrounding environment of the robot, and a three-dimensional model of a work handled by the robot; An input device for inputting a viewpoint and a region of interest; and a display device that displays the three-dimensional model space as an image when viewed from the viewpoint input by the input device; A robot teaching system for teaching robot operation while displaying a result of simulation of robot operation on the display device,
Image data for displaying a simulation result of the operation of the robot in the three-dimensional model space by hiding a portion of an object that becomes a visual obstacle when the attention area is viewed from the viewpoint in the three-dimensional model space; Further comprising a display image calculation device for calculating, an image based on the image data calculated by the display image calculation device is displayed on the display device ,
Further, the display image calculation device defines a projection plane on the side closer to the viewpoint than all of the objects of the three-dimensional model in the line-of-sight direction when viewing the attention area from the viewpoint in the three-dimensional model space. , A sweep defined in the three-dimensional model space by sweeping a figure obtained by projecting the region of interest parallel to the line-of-sight direction onto the projection plane in the direction of the line of sight toward the region of interest A robot teaching system , wherein a part or the whole of an object of the three-dimensional model that interferes with a figure is hidden as a part of an object that becomes a visual obstacle .
3次元モデル空間において視点及び注目領域を設定し、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記注目領域が常に表示されるように前記ロボットの動作のシミュレーションの結果を表示する画像データを演算し、演算された画像データに基づく画像を前記表示装置に表示するようにし、 The viewpoint and the attention area are set in the three-dimensional model space, and the part of the object that becomes a visual obstacle when the attention area is viewed from the viewpoint in the three-dimensional model space is hidden, and the attention area is always displayed. So as to calculate the image data to display the result of the simulation of the operation of the robot, and to display an image based on the calculated image data on the display device,
前記視覚的障害となる物体の部分を非表示にする際には、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分又は全体を前記視覚的障害となる物体の部分として非表示にするようにしたことを特徴とするロボットの動作のシミュレーション結果の表示方法。 When hiding the part of the object that becomes the visual obstacle, the viewpoint is more than all of the objects of the three-dimensional model in the line-of-sight direction when viewing the attention area from the viewpoint in the three-dimensional model space. The projection plane is defined on the side close to the projection plane, and the figure obtained by projecting the region of interest parallel to the line-of-sight direction on the projection surface is swept toward the region of interest in the line-of-sight direction. The movement of the robot is characterized in that the part or the whole of the object of the three-dimensional model that interferes with the sweep figure defined in the three-dimensional model space is hidden as the part of the object that becomes the visual obstacle. How to display simulation results.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008207281A JP5113666B2 (en) | 2008-08-11 | 2008-08-11 | Robot teaching system and display method of robot operation simulation result |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008207281A JP5113666B2 (en) | 2008-08-11 | 2008-08-11 | Robot teaching system and display method of robot operation simulation result |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010042466A JP2010042466A (en) | 2010-02-25 |
JP5113666B2 true JP5113666B2 (en) | 2013-01-09 |
Family
ID=42014267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008207281A Active JP5113666B2 (en) | 2008-08-11 | 2008-08-11 | Robot teaching system and display method of robot operation simulation result |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5113666B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103213125B (en) | 2011-11-04 | 2016-05-18 | 范努克机器人技术美国有限公司 | There is robot teaching's device that 3D shows |
JP5426719B2 (en) * | 2012-05-18 | 2014-02-26 | ファナック株式会社 | Robot system motion simulation device |
JP2014079824A (en) * | 2012-10-15 | 2014-05-08 | Toshiba Corp | Work screen display method and work screen display device |
KR101933336B1 (en) * | 2015-02-12 | 2018-12-27 | 도시바 미쓰비시덴키 산교시스템 가부시키가이샤 | Display system |
US10384347B2 (en) | 2016-03-25 | 2019-08-20 | Seiko Epson Corporation | Robot control device, robot, and simulation device |
JP6743453B2 (en) * | 2016-03-30 | 2020-08-19 | セイコーエプソン株式会社 | Robot controller, robot and simulation device |
JP6889574B2 (en) * | 2017-03-03 | 2021-06-18 | 株式会社キーエンス | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment |
CN107610579A (en) * | 2017-09-05 | 2018-01-19 | 芜湖瑞思机器人有限公司 | Industrial robot teaching system and its teaching method based on the control of VR systems |
JP7118725B2 (en) * | 2018-04-27 | 2022-08-16 | 川崎重工業株式会社 | Robot teaching method and robot teaching system |
JP6699700B2 (en) * | 2018-10-04 | 2020-05-27 | 東芝三菱電機産業システム株式会社 | Rolling line display system |
JP7370755B2 (en) * | 2019-08-05 | 2023-10-30 | キヤノン株式会社 | Information processing devices, information processing methods, programs, recording media, and article manufacturing methods |
CN114905506A (en) * | 2022-04-15 | 2022-08-16 | 北京航空航天大学杭州创新研究院 | Robot navigation system based on visual perception and spatial cognitive neural mechanism |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3383563B2 (en) * | 1997-12-18 | 2003-03-04 | 富士通株式会社 | Object movement simulation device |
JP2004310591A (en) * | 2003-04-09 | 2004-11-04 | Toyota Motor Corp | Layout design device, and layout design method |
JP4168002B2 (en) * | 2004-04-07 | 2008-10-22 | ファナック株式会社 | Offline programming device |
JP2007061983A (en) * | 2005-09-01 | 2007-03-15 | Fanuc Ltd | Robot monitoring system |
-
2008
- 2008-08-11 JP JP2008207281A patent/JP5113666B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010042466A (en) | 2010-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5113666B2 (en) | Robot teaching system and display method of robot operation simulation result | |
Ong et al. | Augmented reality-assisted robot programming system for industrial applications | |
CN110977931B (en) | Robot control device and display device using augmented reality and mixed reality | |
Lampen et al. | Combining simulation and augmented reality methods for enhanced worker assistance in manual assembly | |
Pai et al. | Augmented reality–based programming, planning and simulation of a robotic work cell | |
JP4817603B2 (en) | Method and system for programming an industrial robot | |
JP3732494B2 (en) | Simulation device | |
Pan et al. | Recent progress on programming methods for industrial robots | |
US7236854B2 (en) | Method and a system for programming an industrial robot | |
EP2263837B1 (en) | Operation teaching system and operation teaching method | |
US7724380B2 (en) | Method and system for three-dimensional measurement | |
Fang et al. | Novel AR-based interface for human-robot interaction and visualization | |
US10166673B2 (en) | Portable apparatus for controlling robot and method thereof | |
EP1847359A2 (en) | Robot simulation apparatus | |
JP2001105359A (en) | Graphic display device for robot system | |
Andersson et al. | AR-enhanced human-robot-interaction-methodologies, algorithms, tools | |
CN101140598A (en) | Part identification image processor, program for generating part identification image, and recording medium storing the same | |
Pai et al. | Virtual planning, control, and machining for a modular-based automated factory operation in an augmented reality environment | |
JP2021016922A (en) | Three-dimensional data generator and robot control system | |
JP2015066668A (en) | Method for adjusting teaching point of robot, method for calculating installation position of robot, robot system, program, and recording medium | |
CN117103277A (en) | Mechanical arm sensing method based on multi-mode data fusion | |
Makita et al. | Offline direct teaching for a robotic manipulator in the computational space | |
Solvang et al. | Robot programming in machining operations | |
US20220410394A1 (en) | Method and system for programming a robot | |
JP3765061B2 (en) | Offline teaching system for multi-dimensional coordinate measuring machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120626 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120918 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121012 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5113666 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |