JP2010042466A - ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 - Google Patents

ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 Download PDF

Info

Publication number
JP2010042466A
JP2010042466A JP2008207281A JP2008207281A JP2010042466A JP 2010042466 A JP2010042466 A JP 2010042466A JP 2008207281 A JP2008207281 A JP 2008207281A JP 2008207281 A JP2008207281 A JP 2008207281A JP 2010042466 A JP2010042466 A JP 2010042466A
Authority
JP
Japan
Prior art keywords
robot
dimensional model
attention area
display
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008207281A
Other languages
English (en)
Other versions
JP5113666B2 (ja
Inventor
Takayuki Ito
孝幸 伊藤
Yoshiharu Nagatsuka
嘉治 長塚
Toshiya Takeda
俊也 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2008207281A priority Critical patent/JP5113666B2/ja
Publication of JP2010042466A publication Critical patent/JP2010042466A/ja
Application granted granted Critical
Publication of JP5113666B2 publication Critical patent/JP5113666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オフラインプログラミングで3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示しながらロボットの動作の教示を行う際に、注目領域を確実に表示できるようにするようにする。
【解決手段】ロボット教示システム10は、ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークの3次元モデルを含む3次元モデル空間におけるロボットの動作のシミュレーションを行うシミュレーション装置16と、設定された視点から注目領域を見るときに視覚的障害となる物体の部分を非表示にして3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示する画像データを演算する表示画像演算装置18とを備え、表示画像演算装置18によって演算された画像データに基づく画像を表示装置20に表示する。
【選択図】図1

Description

本発明は、オフラインプログラミングで3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示装置に表示する方法及びロボットの動作のシミュレーション結果を表示しながらロボットの動作の教示を行うためのロボット教示システムに関する。
ロボットに動作を教示する教示作業では、教示用操作盤を用いて実際にロボットを動かしながら教示を行うオンラインプログラミングが一般的に用いられる。しかしながら、オンラインプログラミングでは、教示作業中はロボットを使用できなくなるので、教示作業のために製造ラインを停止させる必要があるという短所がある。また、正確な教示作業のためには、実際にロボット使用するための製造ラインを構築して作業環境を確定しなければならないという短所があった。
この短所を解消するために、実機に代えて3次元モデルを使用したシミュレーションに基づいてロボットの教示を行うオフラインプログラミングが用いられるようになってきている。オフラインプログラミングでは、相対位置関係を把握しやすいように、サーフェイスモデルやソリッドモデルを用いて、周囲環境を構成する物体、ロボット及びワークなどをグラフィカルに表示装置上に表示し、作業者は、表示装置上に表示された情報を見ながら、入力装置を用いて教示点を入力する。この際、作業者がロボットと周囲の物体との位置関係を直感的に把握しやすいように、例えば特許文献1に記載されているように、各物体、ロボット及びワークなどを3次元モデル空間において指定された視点から見たときの画像を表示装置上に表示するようにしている。
特開平9−212228号公報
例えば、工作機械が加工セル内に配置されており工作機械の周囲がセル壁などによって覆われている環境下で、ロボットが、セル壁の一部に設けられた扉を通して加工セルの内部にアクセスすることにより、各種作業を行うことがある。オフラインプログラミング装置を用いて、このような環境下で例えばロボットのアームの先端部分に把持されたワークを加工セル内に搬入する動作を教示するとき、セル壁に遮られて、ロボットのアームの先端の手首部分やそこに把持されるワークなど、動作の検討や確認に必要な部分(以下注目領域と記載する。)が見えなくなることがある。このような場合、表示装置上で視点を変更して注目領域が見えるようになるまで試行錯誤を繰り返す必要があった。また、どうしてもセル壁など工作機械の構成要素の陰になって見えない領域も存在するという問題もあった。
よって、本発明の目的は、従来技術に存する問題を解決して、オフラインプログラミングで3次元モデル空間におけるロボットの動作のシミュレーションの結果を表示しながらロボットの動作の教示を行う際に、注目領域を確実に表示できるようにするようにすることにある。
上記目的を達成するために、本発明によれば、ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークの3次元モデルを含む3次元モデル空間において前記ロボットの動作のシミュレーションを行うシミュレーション装置と、前記3次元モデル空間における視点及び注目領域を入力するための入力装置と、前記入力装置によって入力された前記視点から見たときの画像として前記3次元モデル空間を表示する表示装置とを備え、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を前記表示装置に表示しながら前記ロボットの動作の教示を行うためのロボット教示システムであって、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算する表示画像演算装置をさらに備え、前記表示画像演算装置によって演算された画像データに基づく画像を前記表示装置に表示するようにしたロボット教示システムが提供される。
本発明のロボット教示システムによれば、3次元モデル空間において指定された注目領域を見るときに視覚的障害となる物体の部分が非表示にされるので、注目領域が物体によって覆われている場合でも注目領域が常に表示装置上に表示されるようになる。
上記ロボット教示システムでは、前記表示画像演算装置は、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分を前記視覚的障害となる物体の部分として非表示にすることができる。
前記表示画像演算装置は、前記視覚的障害となる部分を含む個々の物体の全体を非表示にして前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算することもできる。
上記ロボット教示システムにおいて、前記入力装置によって強制表示領域を指定することができ、前記表示画像演算装置は、前記強制表示領域内に位置する物体の部分が視覚的障害となっても、前記物体の部分又は当該部分を含む個々の物体の全体を強制的に表示するようになっていることが好ましい。
また、前記3次元モデル空間において前記視点から前記注目領域を見たときに視覚的障害となっても強制的に表示する物体の部分又は当該部分を含む個々の物体の全体を前記入力装置によって指定できるようになっていることが好ましい。
前記注目領域は、前記ロボットの可動部分に対して所定の相対関係を有した領域として設定されるようになっていてもよい。
また、本発明によれば、ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークを含む3次元モデルを含む3次元モデル空間における前記ロボットの動作のシミュレーション結果を表示装置に表示する方法において、
3次元モデル空間において視点及び注目領域を設定し、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記注目領域が常に表示されるように前記ロボットの動作のシミュレーションの結果を表示する画像データを演算し、演算された画像データに基づく画像を前記表示装置に表示するようにしたロボットの動作のシミュレーション結果の表示方法が提供される。
本発明のロボット教示システム及びロボットの動作のシミュレーション結果の表示方法によれば、注目領域が物体によって覆われている場合でも注目領域が常に表示装置上に表示されるようになるので、教示作業の際に注目領域が見えるように視点の変更を試行錯誤する必要がなくなり、教示作業の効率が向上する。
以下、図面を参照して本発明によるロボット教示システムの好ましい実施形態を説明する。図1は本発明によるロボット教示システムの全体構成を示す機能ブロック図、図2はロボット動作のシミュレーション結果を単純に表示した状態を示す斜視図、図3は視点から注目領域を見たときに視覚的障害になる物体を非表示にしてロボット動作のシミュレーション結果を表示した状態を示す斜視図、図4は本発明によるロボット教示システムにおける処理の流れを示すフローチャート、図5は注目領域を所定の投影面に投影した状態を示す斜視図、図6は投影面に投影された図形を視線方向に掃引することにより規定される掃引領域を示す斜視図である。
最初に、図1を参照して本発明によるロボット教示システム10の全体構成を説明する。
ロボット教示システム10は、記憶装置12と、入力装置14と、シミュレーション装置16と、表示画像演算装置18と、表示装置20とを備え、シミュレーション装置16によって得られたシミュレーションの結果を、設定された視点から注目領域を見たときの画像として、表示装置20上に表示するようになっている。
記憶装置12は、RAMなどのメモリやハードディスク装置などにより構成されており、他の装置と独立して設けられてもよく、シミュレーション装置16や表示画像演算装置18など他の装置に内蔵されていてもよい。記憶装置12には、入力装置14などにより、ロボット22(図2及び図3)や、工作機械24(図2及び図3)、テーブル26(図3)及び工作機械24を取り囲むセル壁28(図2及び図3)のようなロボット22の周囲環境などの3次元モデルのデータが入力され、記憶される。3次元モデルは、操作者がロボット22とその周囲環境との位置関係を把握しやすいようにサーフェイスモデルやソリッドモデルなどとすることが好ましい。また、入力装置14は、キーボード、3次元マウス、6自由度入力装置などとすることができ、操作者が、3次元モデルのデータを入力したり、3次元モデル空間における視点や注目領域を指定したりするときに使用される。
シミュレーション装置16は、操作者により入力装置14を通して入力されたロボット22に対する動作指示に従って、記憶装置12に記憶された3次元モデルデータに基づいて規定される3次元モデル空間におけるロボット22の動作をシミュレーションする。また、表示画像演算装置18は、得られたシミュレーション結果に基づいて、指定された視点42(図5)から見たときのロボット22の動作及び周囲環境を示す画像データを演算により求め、求められた画像データに基づいてシミュレーションの結果を画像として表示装置20上に表示する。
表示画像演算装置18は、視点設定部32と、注目領域設定部34と、非表示決定部36と、画像演算部38とを含む。視点設定部32は、操作者が入力装置14によって入力した指示に従って3次元モデル空間における視点42の位置および視線方向50を設定し、注目領域設定部34は、操作者が入力装置14によって入力した指示に従って3次元モデル空間における注目領域(すなわち、操作者が関心のある3次元領域)44(図5)の3次元的範囲を設定する。注目領域44は、入力時に、例えば表示装置20上で半透明の物体として一時的に表示することによって、その位置を容易に確認できるようになっていることが好ましい。
非表示決定部36は、視点設定部32に設定された視点42から注目領域44を見たときに視覚的障害となって注目領域44の視認を妨げる3次元モデルの物体の部分を特定する。視覚的障害となる部分を特定する方法については後述する。画像演算部38は、視覚的障害となる部分をあたかも3次元モデル空間に存在しないかのごとく非表示となるように、3次元モデルデータ及びシミュレーションの結果に基づいて3次元モデル空間におけるロボット22の動作を表す画像データを演算により求め、設定された視点42から見たときに視覚的障害となる部分の影になって見えない部分を表示装置20上に表示できるようにする。視覚的障害となる物体の部分を非表示にするときには、その部分のみを非表示にしてもよく、その部分を含む個々の物体の全体を非表示にしてもよい。なお、視覚的障害となる部分を含む物体の単位は、個々の装置の構成要素など可能な限り小さく予め設定されていることが好ましい。
例えば、工作機械24が加工セル内に配置されており工作機械24の周囲がセル壁28で取り囲まれている場合に、セル壁28に設けられた扉30(図2及び図3)を通して、ロボット22のエンドエフェクタ22aによって把持されたワークWを加工セルの内部に設けられたテーブル26上の所定の位置に載置する動作をロボット22に教示するために、テーブル26の周囲を注目領域44として設定すると仮定する。この場合、3次元モデル空間において設定された視点42から注目領域44を見ると、注目領域44はセル壁28の影に隠れてしまう。したがって、セル壁28に設けられた扉30を通してロボット22のアームの先端のエンドエフェクタ22aをセル壁28の内部に進入させて注目領域44にアクセスさせる動作のシミュレーション結果を表示装置20に単純に表示させると、図2に示されているように、エンドエフェクタ22aがセル壁28の影に隠れてしまい、エンドエフェクタ22aやこれに把持されたワークWの正確な位置を確認できなくなる。したがって、テーブル26上の所定の位置にワークWを正確に載置させるためには、視点42を変えて表示装置20上にロボット22のエンドエフェクタ22aや注目領域44を表示させる必要があり、試行錯誤を繰り返さなくてはならない。
本発明では、表示画像演算装置18の非表示決定部36が、設定された視点42から注目領域44を見たときに視覚的障害となるセル壁28の部分を非表示にすることを自動的に決定し、図3に示されているように、視覚的障害となる部分を含むセル壁28を非表示の状態にして表示装置20上に3次元モデル空間が表示される。したがって、設定された視点42から注目領域44が常に見えるように表示される。このようにして、セル壁28に設けられた扉30を通してロボット22のアームの先端のエンドエフェクタ22aを加工セルの内部に進入させて注目領域44にアクセスさせるときでも、エンドエフェクタ22aに把持されたワークWの位置を正確に確認することを可能にさせ、ロボット22の動作の教示を容易且つ効率的に行うことを可能にさせている。
なお、特定部分を非表示にしたときにその影になって見えないはずの部分を3次元モデルデータやシミュレーションの結果に基づいて表示する技術は3次元モデルの利用分野において公知のものであるので、ここでは詳しく説明しない。
また、表示画像演算装置18は、強制表示設定部40をさらに含んでいてもよい。強制表示設定部40は、操作者が入力装置14によって指定した3次元領域又は物体を強制的に表示する部分として設定するものである。非表示決定部36は、強制表示設定部40に設定された領域内に位置する部分や強制表示設定部40に設定された物体を非表示にする対象から除外し、設定された視点42から注目領域44を見たときに視覚的障害となる部分であっても強制表示設定部40に設定された物体や部分が表示装置20上に必ず表示されるようにする。このように強制的に表示される部分や物体を設定できるようにすることにより、注目領域44の視覚的障害となったとしても表示装置20上に常に表示しておきたい物体又は領域がある場合に、当該物体又は領域を非表示処理の対象外とすることが可能になる。
次に、図4を参照して、図1に示されるロボット教示システム10における処理の流れを説明する。
最初に、操作者は、ロボット22や、工作機械24、テーブル26及びそれらを取り囲むセル壁28のようなロボットの周囲環境の3次元モデルデータを入力装置14によって入力して3次元モデルを作成し、これを記憶装置12に記憶させる(ステップS100)。3次元モデルデータはキーボードなどによって直接入力してもよく、携帯可能な記憶媒体から予め作成された3次元モデルデータを読み取り装置などを通して記憶装置12に読み込ませてもよい。
次に、操作者は、入力装置14を用いて、3次元モデルデータに基づいて表示装置20上に表示された3次元モデル空間における視点42の位置及び注目領域44の3次元的範囲を入力し、視点設定部32及び注目領域設定部34にそれぞれ設定する(ステップS102)。注目領域44は、例えばロボット22のエンドエフェクタ(例えばワークWを把持するハンド部分など)22a、ワークW及びワークWを載置するテーブル26などの周囲の領域とすることができ、3次元モデル空間内において固定的に設定されてもよく、また、ロボット22やエンドエフェクタ22aの移動に応じて注目領域44も移動するようにロボット22のエンドエフェクタ22aなどの可動部分に対して相対的な位置関係で設定されてもよい。また、ロボット22以外の周辺装置の可動部分に対して相対的な位置関係で設定して、周辺装置の移動に応じて注目領域44も移動するようにしてもよい。注目領域44が入力時に表示装置20上で半透明の物体として表示されるようになっていれば、操作者は表示装置20上で注目領域44の位置を視覚的に確認しながら容易に設定することができる。
次に、操作者が入力装置14によってロボット22に動作指示を与えると、シミュレーション装置16が、与えられた動作指示に基づいてロボット22の動作のシミュレーションを行い、表示画像演算装置18が、シミュレーションの結果に基づいて、3次元モデル空間において設定された視点42から注目領域44を見たときのロボット22の動作を表す画像データを演算し、シミュレーションの結果に基づく3次元モデル空間におけるロボット22の動作を示す画像を表示装置20上に表示させる(ステップS104)。操作者によって与えられる動作指示は、絶対座標値により与えられてもよく、その時点の位置及び姿勢に対する座標値の相対変化量として与えられてもよい。また、動作指示は、入力装置14を用いて、数値で与えられてもよく、表示装置20上に表示される3次元モデル空間においてポインタを移動させることによって与えられてもよい。
ここで、表示装置20上に表示される3次元モデル空間の画像において、固定的に設定された注目領域44がそもそも視覚的障害物の影になって設定された視点42から見えないたときに、又はエンドエフェクタ22aなどロボット22の可動部の位置に対する相対的な位置関係で設定された注目領域44がシミュレーションの結果として視覚的障害物の影に移動して設定された視点42から見えなくなるときに、本発明のロボット教示システム10において行われる処理について説明する。
3次元モデル空間において固定的に設定された注目領域44の位置が確定されると、又はロボット22の可動部に対して相対的な位置関係で設定されている注目領域44の位置がロボット22の動作のシミュレーションの結果に基づいて確定されると、表示画像演算装置18の画像演算部38は、設定された視点42から注目領域44を見たときの画像データを演算して画像を求める。次に、表示画像演算装置18の非表示決定部36は、求められた画像において注目領域44の表示の妨げとなる視覚的障害物が視点42と注目領域44との間に存在するときに、視覚的障害となる3次元モデルの物体の部分又はその部分を含む個々の物体の全体を特定し、その部分又は物体を非表示にするように自動的に決定する(ステップS106)。画像演算部38は、非表示決定部36の決定に従って、非表示にするように決定された3次元モデルの物体の部分又はその部分を含む個々の物体の全体があたかも3次元モデル空間に存在しないかのごとく非表示にした画像データを再度演算し、得られた画像データに基づいた画像を表示装置20に表示させる(ステップS108)。
これにより、たとえ視点42と注目領域44との間に視覚的障害物があっても注目領域44が常に表示装置20上に表示されるようになる。したがって、操作者は表示装置20上で注目領域44の状態を常に確認することができるようになるので、注目領域44が表示されるように視点設定部32に設定される視点42の変更を試行錯誤する必要がなくなり、ロボット22の動作の教示を容易且つ効率的に行うことが可能となる。
また、操作者が入力装置14によって強制的に表示する物体又は3次元的領域を強制表示設定部40に設定している場合、表示画像演算装置18の非表示決定部36は、強制表示設定部40に設定された領域内に位置する物体やその部分を非表示にする対象から自動的に除外し、設定された視点42から注目領域44を見たときの画像において視覚的障害となる物体又はその部分であっても強制表示設定部40に設定された物体やその部分が表示装置20上に強制的に表示されるようにする。これにより、表示装置20上に常に表示しておきたい物体がある場合に対処することが可能となる。なお、この場合に、視覚的障害物が注目領域44の一部又は全部の表示を妨げることによりロボットの動作の必要な確認が行えなくなったときには、操作者は、強制表示設定部40に設定される物体や領域を適宜に変更したり、表示装置20上に注目領域44が表示されるように視点を変更したりすることにより対処することになる。
このようにして表示装置20上に表示される3次元モデル空間におけるロボット22の動作を表す画像を参照して、操作者はロボット22に対する動作指示を変えながら適切なロボット22の動作を確認し、ロボット22の動作の教示を行う(ステップS110)。以上のステップを繰り返し、必要なロボット22の動作の教示が全て終了すると、教示作業を終了する(ステップS112)。また、教示作業の終了と共にシミュレーションも終了する。
最後に、図5及び図6を参照して、表示画像演算装置18の非表示決定部36が視覚的障害となる部分を特定する手法の例について説明する。
平行投影法によって3次元モデル空間を表示装置20に表示する場合、表示画像演算装置18の非表示決定部36は、一つの例として、図5に示されるように、3次元モデル空間において、ロボット22や周囲環境などの物体の全てよりも視点42に近い側に所定の投影面46を規定する。この投影面46の法線方向と視点42の視線方向50は一致するように規定される。視線方向50に注目領域44を平行投影することによって投影面46上に投影される図形48を求めた後、例えば投影面46上の図形48の頂点の少なくとも一つとこれに対応する3次元モデル空間内の注目領域44の境界上の点とが重なるまで、この図形48を視線方向50に注目領域44に向かって掃引することによって図6に示されるような掃引図形52を求め、3次元モデル空間内の物体の一部分又は全体が求められた掃引図形52と干渉するとき、すなわち掃引図形の内部領域に位置するときに、その物体の部分又は全体を、設定された視点42から注目領域44を見るときに注目領域44の表示の妨げとなる視覚的障害と判定する。注目領域44を球形状や直方体形状の組み合わせで定義する場合、注目領域44を投影面46に平行投影することによって得られる図形48は球の中心や直方体の各頂点を投影するだけで容易に算出することが可能である。
透視投影法によって3次元モデル空間を表示装置20に表示する場合、表示画像演算装置18の非表示決定部36は、一つの例として、図7に示されるように、視点42の始点位置と注目領域44を結ぶ干渉確認図形54を求める。注目領域44を構成する要素が直方体形状の場合は、直方体の各稜線と、その稜線の両端の頂点と視点位置を結んだ線分で構成される各3角形で囲まれた領域として定義される。注目領域44を構成する要素が球形状の場合は、球の中心位置と半径から得られる円を底面とした円錐状の形状として定義される。干渉確認図形54から視覚的障害と判定される物体を求める方法は、平行投影法の場合と同様である。
なお、このような視覚的障害の判定の際には、干渉チェックが必要となるので、描画処理の負荷を軽減するために、3次元モデルの各物体の形状に対応して干渉チェック用の簡易形状を予め定義しておき、干渉チェックの際にこの簡易形状を用いて干渉チェックを行うことが好ましい。
以上、図示される実施形態を参照して、本発明のロボット教示システム10を説明したが、本発明は図示される実施形態に限定されるものではない。例えば、図示される実施形態では、視覚的障害となる物体の部分を判定するために、3次元モデル空間に規定された投影面46に注目領域44を視線方向50に平行投影することによって得られた図形48を視線方向50に掃引することによって得られた掃引図形52を用いているが、これに代えて、3次元モデル空間において視点42を頂点として注目領域44に向かって延び且つ注目領域44を内部に収容するように規定された錘状視野空間を用い、視野空間内において注目領域44よりも視点42に近い側に位置する3次元モデルの物体の部分を視覚的障害物と判定することも可能である。
本発明によるロボット教示システムの全体構成を示す機能ブロック図である。 ロボット動作のシミュレーション結果を単純に表示した状態を示す斜視図である。 視点から注目領域を見たときに視覚的障害になる物体を非表示にしてロボット動作のシミュレーション結果を表示した状態を示す斜視図である。 本発明によるロボット教示システムにおける処理の流れを示すフローチャートである。 注目領域を所定の投影面に投影した状態を示す斜視図である。 投影面に投影された図形を視線方向に掃引することにより規定される掃引領域を示す斜視図である。 視点の始点位置と注目領域を結ぶことにより規定される干渉確認図形を示す斜視図である。
符号の説明
10 ロボット教示システム
16 シミュレーション装置
18 表示画像演算装置
20 表示装置
22 ロボット
32 視点設定部
34 注目領域設定部
36 非表示決定部
38 画像演算部
40 強制表示設定部
42 視点
44 注目領域
46 投影面
48 図形
50 視線方向
52 掃引図形
54 干渉確認図形

Claims (7)

  1. ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークの3次元モデルを含む3次元モデル空間において前記ロボットの動作のシミュレーションを行うシミュレーション装置と、前記3次元モデル空間における視点及び注目領域を入力するための入力装置と、前記入力装置によって入力された前記視点から見たときの画像として前記3次元モデル空間を表示する表示装置とを備え、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を前記表示装置に表示しながら前記ロボットの動作の教示を行うためのロボット教示システムであって、
    前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算する表示画像演算装置をさらに備え、前記表示画像演算装置によって演算された画像データに基づく画像を前記表示装置に表示するようにしたことを特徴とするロボット教示システム。
  2. 前記表示画像演算装置は、前記3次元モデル空間において、前記視点から前記注目領域を見るときの視線方向において前記3次元モデルの物体の全てよりも前記視点に近い側に投影面を規定し、前記投影面に対して前記注目領域を前記視線方向に平行投影したことにより得られた図形を前記視線方向に前記注目領域に向かって掃引することによって前記3次元モデル空間内に規定された掃引図形に干渉する前記3次元モデルの物体の部分を前記視覚的障害となる物体の部分として非表示にする、請求項1に記載のロボット教示システム。
  3. 前記表示画像演算装置は、前記視覚的障害となる部分を含む個々の物体の全体を非表示にして前記3次元モデル空間における前記ロボットの動作のシミュレーションの結果を表示する画像データを演算する、請求項1又は請求項2に記載のロボット教示システム。
  4. 前記入力装置によって強制表示領域を指定することができ、前記表示画像演算装置は、前記強制表示領域内に位置する物体の部分が視覚的障害となっても、前記物体の部分又は当該部分を含む個々の物体の全体を強制的に表示する、請求項1から請求項3の何れか一項に記載のロボット教示システム。
  5. 前記3次元モデル空間において前記視点から前記注目領域を見たときに視覚的障害となっても強制的に表示する物体の部分又は当該部分を含む個々の物体の全体を前記入力装置によって指定できるようにした、請求項4に記載のロボット教示システム。
  6. 前記注目領域は、前記ロボットの可動部分に対して所定の相対関係を有した領域として設定される、請求項1から請求項5の何れか一項に記載のロボット教示システム。
  7. ロボット、該ロボットの周囲環境を構成する複数の物体、及び該ロボットによって取り扱われるワークを含む3次元モデルを含む3次元モデル空間における前記ロボットの動作のシミュレーション結果を表示装置に表示する方法において、
    3次元モデル空間において視点及び注目領域を設定し、前記3次元モデル空間において前記視点から前記注目領域を見るときに視覚的障害となる物体の部分を非表示にして、前記注目領域が常に表示されるように前記ロボットの動作のシミュレーションの結果を表示する画像データを演算し、演算された画像データに基づく画像を前記表示装置に表示するようにしたことを特徴とするロボットの動作のシミュレーション結果の表示方法。
JP2008207281A 2008-08-11 2008-08-11 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 Active JP5113666B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008207281A JP5113666B2 (ja) 2008-08-11 2008-08-11 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008207281A JP5113666B2 (ja) 2008-08-11 2008-08-11 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法

Publications (2)

Publication Number Publication Date
JP2010042466A true JP2010042466A (ja) 2010-02-25
JP5113666B2 JP5113666B2 (ja) 2013-01-09

Family

ID=42014267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008207281A Active JP5113666B2 (ja) 2008-08-11 2008-08-11 ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法

Country Status (1)

Country Link
JP (1) JP5113666B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013094961A (ja) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp 3次元表示部を備えたロボット教示装置
JP2014079824A (ja) * 2012-10-15 2014-05-08 Toshiba Corp 作業画面表示方法および作業画面表示装置
DE102013008062B4 (de) * 2012-05-18 2015-07-16 Fanuc Corporation Betriebssimulationssystem für ein Robotersystem
WO2016129081A1 (ja) * 2015-02-12 2016-08-18 東芝三菱電機産業システム株式会社 表示システム
JP2017177283A (ja) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびシミュレーション装置
CN107610579A (zh) * 2017-09-05 2018-01-19 芜湖瑞思机器人有限公司 基于vr系统控制的工业机器人示教系统及其示教方法
CN108527362A (zh) * 2017-03-03 2018-09-14 株式会社基恩士 机器人设置设备、机器人设置方法和计算机可读记录介质
JP2019048337A (ja) * 2018-10-04 2019-03-28 東芝三菱電機産業システム株式会社 圧延ラインの表示システム
CN112041128A (zh) * 2018-04-27 2020-12-04 川崎重工业株式会社 机器人的教导方法和机器人的教导系统
JP2021024028A (ja) * 2019-08-05 2021-02-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、および物品の製造方法
CN114905506A (zh) * 2022-04-15 2022-08-16 北京航空航天大学杭州创新研究院 一种基于视觉感知和空间认知神经机制的机器人导航系统
US11420330B2 (en) 2016-03-25 2022-08-23 Seiko Epson Corporation Robot control device, robot, and simulation device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184898A (ja) * 1997-12-18 1999-07-09 Fujitsu Ltd 物体移動シミュレーション装置
JP2004310591A (ja) * 2003-04-09 2004-11-04 Toyota Motor Corp レイアウト設計装置およびレイアウト設計方法
JP2005297097A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd オフラインプログラミング装置
JP2007061983A (ja) * 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184898A (ja) * 1997-12-18 1999-07-09 Fujitsu Ltd 物体移動シミュレーション装置
JP2004310591A (ja) * 2003-04-09 2004-11-04 Toyota Motor Corp レイアウト設計装置およびレイアウト設計方法
JP2005297097A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd オフラインプログラミング装置
JP2007061983A (ja) * 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9415509B2 (en) 2011-11-04 2016-08-16 Fanuc America Corporation Robot teach device with 3-D display
JP2013094961A (ja) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp 3次元表示部を備えたロボット教示装置
DE102013008062B4 (de) * 2012-05-18 2015-07-16 Fanuc Corporation Betriebssimulationssystem für ein Robotersystem
JP2014079824A (ja) * 2012-10-15 2014-05-08 Toshiba Corp 作業画面表示方法および作業画面表示装置
CN107209912B (zh) * 2015-02-12 2021-02-26 东芝三菱电机产业系统株式会社 显示系统
WO2016129081A1 (ja) * 2015-02-12 2016-08-18 東芝三菱電機産業システム株式会社 表示システム
CN107209912A (zh) * 2015-02-12 2017-09-26 东芝三菱电机产业系统株式会社 显示系统
JPWO2016129081A1 (ja) * 2015-02-12 2017-10-05 東芝三菱電機産業システム株式会社 表示システム
US11420330B2 (en) 2016-03-25 2022-08-23 Seiko Epson Corporation Robot control device, robot, and simulation device
JP2017177283A (ja) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびシミュレーション装置
CN108527362A (zh) * 2017-03-03 2018-09-14 株式会社基恩士 机器人设置设备、机器人设置方法和计算机可读记录介质
CN108527362B (zh) * 2017-03-03 2022-10-04 株式会社基恩士 机器人设置设备、机器人设置方法和计算机可读记录介质
CN107610579A (zh) * 2017-09-05 2018-01-19 芜湖瑞思机器人有限公司 基于vr系统控制的工业机器人示教系统及其示教方法
CN112041128A (zh) * 2018-04-27 2020-12-04 川崎重工业株式会社 机器人的教导方法和机器人的教导系统
CN112041128B (zh) * 2018-04-27 2024-02-27 川崎重工业株式会社 机器人的教导方法和机器人的教导系统
JP2019048337A (ja) * 2018-10-04 2019-03-28 東芝三菱電機産業システム株式会社 圧延ラインの表示システム
JP2021024028A (ja) * 2019-08-05 2021-02-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、および物品の製造方法
JP7370755B2 (ja) 2019-08-05 2023-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、記録媒体、および物品の製造方法
CN114905506A (zh) * 2022-04-15 2022-08-16 北京航空航天大学杭州创新研究院 一种基于视觉感知和空间认知神经机制的机器人导航系统

Also Published As

Publication number Publication date
JP5113666B2 (ja) 2013-01-09

Similar Documents

Publication Publication Date Title
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
Ong et al. Augmented reality-assisted robot programming system for industrial applications
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
Pai et al. Augmented reality–based programming, planning and simulation of a robotic work cell
Lampen et al. Combining simulation and augmented reality methods for enhanced worker assistance in manual assembly
JP3732494B2 (ja) シミュレーション装置
JP4817603B2 (ja) 工業ロボットをプログラミングするための方法およびシステム
US7236854B2 (en) Method and a system for programming an industrial robot
CN101970184B (zh) 动作教导系统以及动作教导方法
Fang et al. Novel AR-based interface for human-robot interaction and visualization
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US20070293986A1 (en) Robot simulation apparatus
JP6449534B2 (ja) ロボットシミュレータ用の教示点プログラム選択方法
EP1847359A2 (en) Robot simulation apparatus
US20060269123A1 (en) Method and system for three-dimensional measurement
CN112313046A (zh) 使用增强现实可视化和修改操作界定区域
JP2001105359A (ja) ロボットシステム用グラフィック表示装置
Andersson et al. AR-enhanced human-robot-interaction-methodologies, algorithms, tools
CN101140598A (zh) 部件识别图像处理器、生成部件识别图像的程序和存储程序的记录介质
Pai et al. Virtual planning, control, and machining for a modular-based automated factory operation in an augmented reality environment
JP4649554B1 (ja) ロボット制御装置
Makita et al. Offline direct teaching for a robotic manipulator in the computational space
JP3765061B2 (ja) 多次元形状の座標計測機用オフライン・ティーチング・システム
JPS60195613A (ja) 検証機能付ロボツト教示装置
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5113666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150