JP2019081236A - シミュレーション装置、制御装置およびロボット - Google Patents
シミュレーション装置、制御装置およびロボット Download PDFInfo
- Publication number
- JP2019081236A JP2019081236A JP2017211092A JP2017211092A JP2019081236A JP 2019081236 A JP2019081236 A JP 2019081236A JP 2017211092 A JP2017211092 A JP 2017211092A JP 2017211092 A JP2017211092 A JP 2017211092A JP 2019081236 A JP2019081236 A JP 2019081236A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- robot
- field
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想ロボットによるシミュレーションにおいて、仮想撮像部の光軸方向の各部のレイアウト検証等を容易かつ迅速に行うことができるシミュレーション装置、制御装置およびロボットを提供すること。【解決手段】ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、仮想撮像部の被写界深度および視野に関する情報の入力を受け付ける受付部と、前記仮想ロボットと、前記仮想撮像部と、前記受付部が受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させる制御部と、を備えることを特徴とするシミュレーション装置。【選択図】図1
Description
本発明は、シミュレーション装置、制御装置およびロボットに関する。
基台と、複数のアーム(リンク)を有するロボットアームとを備えるロボットが知られている。ロボットアームの隣り合う2つのアームのうちの一方のアームは、関節部を介して、他方のアームに回動可能に連結され、最も基端側(最も上流側)のアームは、関節部を介して、基台に回動可能に連結されている。関節部はモーターにより駆動され、その関節部の駆動により、アームが回動する。また、最も先端側(最も下流側)のアームには、エンドエフェクターとして、例えば、着脱可能にハンドが装着される。そして、ロボットは、例えば、ハンドで対象物を把持し、その対象物を所定の場所へ移動させ、組立等の所定の作業を行う。このようなロボットでは、実際に作業を行う前に、ロボットに対して教示を行う必要がある。
特許文献1には、ロボットのシミュレーションを行うシミュレーション装置が開示されている。特許文献1に記載のシミュレーション装置では、表示装置の画面に、ロボットおよびカメラを表示し、シミュレーションを行う。また、表示装置の画面には、カメラの視野が四角錐(3次元形状)で表示される。これにより、カメラで撮像可能な撮像範囲を把握することができる。
特許文献1に記載のシミュレーション装置では、カメラで撮像可能な撮像範囲は判るが、カメラのピント(フォーカス)が合う光軸方向の範囲、すなわち、被写界深度は判らない。このため、カメラの光軸方向の各部のレイアウト検証等を行う場合、その作業に多大な労力および時間を要する。
本発明は、前述した課題の少なくとも一部を解決するためになされたものであり、以下により実現することが可能である。
本発明のシミュレーション装置は、ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
仮想撮像部の被写界深度および視野に関する情報の入力を受け付ける受付部と、
前記仮想ロボットと、前記仮想撮像部と、前記受付部が受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させる制御部と、を備えることを特徴とする。
仮想撮像部の被写界深度および視野に関する情報の入力を受け付ける受付部と、
前記仮想ロボットと、前記仮想撮像部と、前記受付部が受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させる制御部と、を備えることを特徴とする。
このようなシミュレーション装置によれば、仮想撮像部の被写界深度の前面における視野および後面における視野を表示部に表示することができるので、仮想撮像部の光軸方向の各部のレイアウト検証等を容易かつ迅速に行うことができる。
本発明のシミュレーション装置では、前記情報は、前記仮想撮像部に用いられる仮想レンズに関する情報および仮想エクステンションチューブに関する情報の少なくとも1つを含むことが好ましい。
これにより、適確に、仮想撮像部の被写界深度の前面における視野および後面における視野を表示部に表示することができる。
本発明のシミュレーション装置では、前記受付部は、前記仮想ロボットに前記仮想撮像部を取り付ける取付部分に関する情報の入力を受け付け可能であり、
前記制御部は、前記受付部が受け付けた前記取付部分に取り付けられた前記仮想撮像部を前記表示部に表示させることが好ましい。
これにより、容易に、仮想撮像部を取付部分に取り付けることができる。
前記制御部は、前記受付部が受け付けた前記取付部分に取り付けられた前記仮想撮像部を前記表示部に表示させることが好ましい。
これにより、容易に、仮想撮像部を取付部分に取り付けることができる。
本発明のシミュレーション装置では、前記制御部は、前記前面における前記視野の中心および前記後面における前記視野の中心を前記表示部に表示させることが好ましい。
これにより、容易に、被写界深度の前面における仮想撮像部の視野の中心および被写界深度の後面における仮想撮像部の視野の中心を容易に把握することができ、利便性が良い。
本発明のシミュレーション装置では、前記制御部は、前記前面と前記後面との間の中間位置を前記表示部に表示させることが好ましい。
これにより、容易に、被写界深度の前面と被写界深度の後面との間の中間位置を容易に把握することができ、利便性が良い。
本発明のシミュレーション装置では、前記制御部は、前記仮想撮像部の光軸を前記表示部に表示させることが好ましい。
これにより、仮想撮像部の光軸、すなわち、仮想撮像部からの各距離の地点における仮想撮像部の視野の中心を容易に把握することができ、利便性が良い。
本発明のシミュレーション装置では、前記制御部は、前記仮想撮像部の仮想撮像画像を前記表示部に表示させることが好ましい。
これにより、仮想撮像部の仮想撮像画像を見ることができ、利便性が良い。
これにより、仮想撮像部の仮想撮像画像を見ることができ、利便性が良い。
本発明のシミュレーション装置では、前記制御部は、前記仮想撮像画像、および前記仮想撮像部の視野外の部分を前記表示部に表示させることが好ましい。
これにより、仮想撮像画像のみを表示した場合では、仮想撮像部がどの部分を撮像したのかを把握し難い場合でも、さらに仮想撮像部の視野外の部分を表示することにより、容易に、仮想撮像部がどの部分を撮像したのかを把握することができる。
本発明の制御装置は、本発明のシミュレーション装置によるシミュレーション結果に基づいてロボットを制御することを特徴とする。
このような制御装置によれば、シミュレーション装置で作成した動作プログラムを用いてロボットに適切な動作を行わせることができる。
本発明のロボットは、ロボットアームを有し、
本発明の制御装置によって制御されることを特徴とする。
本発明の制御装置によって制御されることを特徴とする。
このようなロボットによれば、制御装置の制御により、適切な動作を行うことができる。
本発明のシミュレーション装置は、ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
プロセッサーを備え、
前記プロセッサーは、仮想撮像部の被写界深度および視野に関する情報の入力を受け付け、かつ、前記仮想ロボットと、前記仮想撮像部と、受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させることを特徴とする。
プロセッサーを備え、
前記プロセッサーは、仮想撮像部の被写界深度および視野に関する情報の入力を受け付け、かつ、前記仮想ロボットと、前記仮想撮像部と、受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させることを特徴とする。
このようなシミュレーション装置によれば、仮想撮像部の被写界深度の前面における視野および後面における視野を表示部に表示することができるので、仮想撮像部の光軸方向の各部のレイアウト検証等を容易かつ迅速に行うことができる。
以下、本発明のシミュレーション装置、制御装置およびロボットを添付図面に示す実施形態に基づいて詳細に説明する。
<第1実施形態>
≪ロボットシステム≫
図1は、実施形態に係るロボットシステムを示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、表示装置に表示される画面の1例(シミュレーション装置が行うシミュレーションの1例)を示す図である。図4〜図6は、それぞれ、表示装置に表示される画面の1例を示す図である。図7は、図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの1例を示す図である。図8は、図1に示すロボットシステムのシミュレーション装置が行うシミュレーションにおいて作業者が行う作業手順を説明するための図である。
≪ロボットシステム≫
図1は、実施形態に係るロボットシステムを示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、表示装置に表示される画面の1例(シミュレーション装置が行うシミュレーションの1例)を示す図である。図4〜図6は、それぞれ、表示装置に表示される画面の1例を示す図である。図7は、図1に示すロボットシステムのシミュレーション装置が行うシミュレーションの1例を示す図である。図8は、図1に示すロボットシステムのシミュレーション装置が行うシミュレーションにおいて作業者が行う作業手順を説明するための図である。
また、以下では、説明の都合上、図1および図3中の上側を「上」または「上方」、下側を「下」または「下方」と言う。また、図1および図3中の基台側を「基端」または「上流」、その反対側を「先端」または「下流」と言う。また、図1および図3中の上下方向が鉛直方向である。
また、本明細書において、「水平」とは、完全に水平な場合のみならず、水平に対して±5°以内で傾斜している場合も含む。同様に、本明細書において、「鉛直」とは、完全に鉛直な場合のみならず、鉛直に対して±5°以内で傾斜している場合も含む。また、本明細書において、「平行」とは、2つの線(軸を含む)または面が、互いに完全な平行である場合のみならず、±5°以内で傾斜している場合も含む。また、本明細書において、「直交」とは、2つの線(軸を含む)または面が、互いに完全な直交である場合のみならず、±5°以内で傾斜している場合も含む。
図1に示すロボットシステム100は、ロボット1と、ロボット1の動作(駆動)を制御するロボット制御装置2(制御装置)と、ロボット制御装置2と通信可能なシミュレーション装置5と、を有する。
以下、ロボットシステム100が有する各部を順次説明する。
〈ロボット〉
ロボット1の種類は、特に限定されないが、本実施形態では、ロボット1は、水平多関節ロボットの1例であるスカラーロボットである。また、ロボット1は、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の保持対象物(図示せず)の保持や搬送等の作業を行う。
〈ロボット〉
ロボット1の種類は、特に限定されないが、本実施形態では、ロボット1は、水平多関節ロボットの1例であるスカラーロボットである。また、ロボット1は、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の保持対象物(図示せず)の保持や搬送等の作業を行う。
ロボット1は、基台110と、基台110に接続されたロボットアーム10(可動部)とを有する。なお、保持対象物としては、ロボット1が行う作業で用いられるものであればよく、特に限定されない。
基台110は、ロボット1を例えば天井等の任意の設置箇所70に取り付ける部分である。ロボットアーム10は、アーム11(第1アーム)と、アーム12(第2アーム)と、シャフト131を有する作業ヘッド13(第3アーム)とを備える。
作業ヘッド13のシャフト131の先端には、エンドエフェクター17(保持部)を着脱可能に設ける(取り付ける)ことが可能になっている。これらアーム11〜13は、基台110側からエンドエフェクター17側に向かってこの順に連結されている。また、アーム11は、基台110に対して回動可能になっている。また、アーム12は、アーム11に対して回動可能になっている。また、作業ヘッド13のシャフト131は、アーム12に対して回動可能で、かつ、シャフト131の軸方向に移動可能になっている。すなわち、基台110とアーム11とは、関節171(ジョイント)を介して連結されている。また、アーム11とアーム12とは、関節172(ジョイント)を介して連結されている。
エンドエフェクター17としては、保持対象物を保持、解放(保持の解除)することが可能なもの(装置)であれば特に限定されないが、本実施形態では、エンドエフェクター17として、保持対象物を吸着(保持)、解放することが可能な吸着ヘッド(吸着装置)が用いられている。また、エンドエフェクター17の他の構成例としては、例えば、保持対象物を把持(保持)、解放することが可能なハンド等が挙げられる。また、保持対象物を保持するとは、保持対象物を移動または保持対象物の姿勢を変更させることが可能なように、保持対象物を持つことであり、例えば、把持(掴む)、吸着、載置等が含まれる。また、エンドエフェクター17の先端中心をツールセンターポイントという。なお、エンドエフェクター17は、ロボット1の構成要素として捉えてもよく、また、ロボット1の構成要素から除外するように捉えてもよい。
また、図2に示すように、ロボット1は、アーム11を基台110に対して回動(駆動)させるモーターおよび減速機等を備える駆動部130と、アーム12をアーム11に対して回動させるモーターおよび減速機等を備える駆動部130と、作業ヘッド13のシャフト131をアーム12に対して回動させるモーターおよび減速機等を備える駆動部130と、シャフト131をアーム12に対してシャフト131の軸方向に移動させるモーターおよび減速機等を備える駆動部130とを有する。
モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーターを用いることができる。また、減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。また、減速機は省略されていてもよい。また、ロボット1は、モーターまたは減速機の回転軸の回転角度を検出する角度センサー140を有する。角度センサー140としては、例えば、ロータリーエンコーダー等を用いることができる。また、駆動部130および角度センサー140は、アーム11、アーム12および作業ヘッド13に対応して設けられており、本実施形態では、ロボット1は、4つの駆動部130および4つの角度センサー140を有する。
また、各駆動部130は、図示はしないが、例えば図1に示す基台110に内蔵されたモータードライバーと電気的に接続(以下、単に「接続」とも言う)されている。各駆動部130は、対応するモータードライバーを介してロボット制御装置2により制御される。また、各角度センサー140は、ロボット制御装置2に電気的に接続されている。また、エンドエフェクター17を駆動する駆動部(図示せず)は、ロボット制御装置2により制御される。
また、ロボット1には、例えばエンドエフェクター17に加わる力(モーメントを含む)を検出する力覚センサー18(力検出装置)が設けられている。力覚センサー18は、本実施形態では、作業ヘッド13のシャフト131とエンドエフェクター17との間に配置され、ロボット制御装置2に電気的に接続されている。力覚センサー18を設けることにより、例えば、インピーダンス制御等の力制御を行うことが可能になる。力覚センサー18としては、特に限定されず、例えば、6軸力覚センサー等が挙げられる。この力覚センサー18は、ロボット1の構成要素として捉えてもよく、また、ロボット1の構成要素から除外して捉えてもよい。また、力覚センサー18は、省略されていてもよい。
以上、ロボット1の構成について簡単に説明した。このようなロボット1は、後述するロボット制御装置2によって制御される。これにより、ロボット1は、適切な動作を行うことができる。
〈ロボット制御装置〉
ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1およびシミュレーション装置5に対して通信可能に接続されている。
ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1およびシミュレーション装置5に対して通信可能に接続されている。
ロボット制御装置2とロボット1とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2は、ロボット1と別体であってもよく、また、ロボット1(例えば、基台110等)にその一部または全部が内蔵されていてもよい。
また、ロボット制御装置2とシミュレーション装置5とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
図2に示すように、ロボット制御装置2は、プロセッサーを備える制御部21と、制御部21に通信可能に接続されたメモリー等を備える記憶部22と、外部インターフェース(I/F)を備える外部入出力部23(受付部)と、を含む。外部入出力部23は、ロボット制御装置2の受付部の1例である。ロボット制御装置2の各構成要素は、種々のバスを介して相互通信可能に接続されている。
制御部21は、記憶部22に記憶された各種プログラム等を実行する。これにより、ロボット1の動作の制御や各種演算および判断等の処理を実現できる。
記憶部22には、制御部21により実行可能な各種プログラムが保存(記憶)されている。また、記憶部22には、外部入出力部23で受け付けた各種データの保存が可能である。記憶部22は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部22は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。
各種プログラムとしては、シミュレーション装置5から出力された動作プログラムや、動作プログラムの修正や変更をするプログラム等が挙げられる。各種データとしては、例えば、ツールセンターポイントの位置姿勢、各アーム11〜16の回動角度等に関するデータ等が挙げられる。
外部入出力部23は、外部インターフェース(I/F)を備え、ロボット1およびシミュレーション装置5の各接続のために用いられる。
このようなロボット制御装置2は、後述するシミュレーション装置5によるシミュレーション結果(動作プログラム)に基づいて(を用いて)ロボット1を制御する。これにより、シミュレーション装置5で作成した動作プログラムを用いて、ロボット1に適切な動作を行わせることができる。また、シミュレーション装置5で作成した動作プログラムを用いてロボット1を動作させることができるので、実機でのティーチング作業を省略することができる。そのため、作業者(ユーザー)が実際にロボット1を動作させてティーチングすることに比べ、ティーチング時間を大幅に短縮することができる。
なお、ロボット制御装置2は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、ロボット制御装置2には、ディスプレイ等を有する表示装置や、例えばマウスやキーボード等の入力装置が接続されていてもよい。また、記憶部22に保存されている各種プログラムやデータ等は、予め記憶部22に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。
〈シミュレーション装置〉
シミュレーション装置5は、仮想空間上で、実機であるロボット1を仮想化した仮想ロボット1Aを動作させ、実機であるロボット1の動作のシミュレーションを行う(図3等参照)。
シミュレーション装置5は、仮想空間上で、実機であるロボット1を仮想化した仮想ロボット1Aを動作させ、実機であるロボット1の動作のシミュレーションを行う(図3等参照)。
仮想ロボット1Aは、前述した実機であるロボット1に対応している(図1および図3参照)。具体的には、仮想ロボット1Aは、仮想基台110Aと、仮想基台110Aに接続された仮想ロボットアーム10A(仮想可動部)とを有する。また、仮想ロボットアーム10Aは、仮想アーム11A(仮想第1アーム)と、仮想アーム12A(仮想第2アーム)と、仮想シャフト131Aを有する仮想作業ヘッド13A(仮想第3アーム)とを備える。
また、仮想アーム11Aは、仮想基台110Aに対して回動可能になっている。また、仮想アーム12Aは、仮想アーム11Aに対して回動可能になっている。また、仮想作業ヘッド13Aの仮想シャフト131Aは、仮想アーム12Aに対して回動可能で、かつ、仮想シャフト131Aの軸方向に移動可能になっている。すなわち、仮想基台110Aと仮想アーム11Aとは、仮想関節171A(仮想ジョイント)を介して連結されている。また、仮想アーム11Aと仮想アーム12Aとは、仮想関節172A(仮想ジョイント)を介して連結されている。また、仮想作業ヘッド13Aの仮想シャフト131Aの先端には、仮想エンドエフェクター17A(仮想保持部)を着脱可能に設けることが可能になっている。また、仮想シャフト131Aと仮想エンドエフェクター17Aとの間に、仮想力覚センサー18Aを着脱可能に設けることが可能になっている。
このように、各部の符号については、シミュレーション装置5(シミュレーション)では、符号の最後に「A」を付けて表記し、実機では、符号に「A」を付けないで表記する。また、各部の名称については、シミュレーション装置5では、名称の最初に「仮想」を付けて表記し、実機では、名称に「仮想」を付けない。例えば、仮想ロボット1A(ロボット1)以外においては、実機での保持対象物は、シミュレーション装置5では、仮想保持対象物80Aとする。したがって、シミュレーション装置5と実機とのいずれか一方で説明したことは、他方ではそれに対応する説明は省略する。なお、ツールセンターポイント、取付部分、光軸、被写界深度の前面および後面、各座標系等、一部については、シミュレーション装置5で、「A」、「仮想」の記載を省略している。
図2に示すシミュレーション装置5は、例えばPC(Personal Computer)等の種々のコンピューターで構成されており、ロボット制御装置2に対して通信可能に接続されている。
シミュレーション装置5は、プロセッサーを備える制御部51と、制御部51に通信可能に接続されたメモリー等を備える記憶部52と、外部I/F(インターフェース)を備える外部入出力部53(受付部)と、を含む。外部入出力部53は、シミュレーション装置5の受付部の1例である。シミュレーション装置5の各構成要素は、種々のバスを介して相互通信可能に接続されている。
制御部51は、記憶部52に記憶された各種プログラム等を実行する。これにより、仮想ロボット1Aの動作の制御や各種演算および判断等の処理を実現できる。
記憶部52には、制御部51により実行可能な各種プログラムが保存されている。また、記憶部52には、外部入出力部53で受け付けた各種データの保存が可能である。記憶部52は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部52は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。
各種プログラムとしては、仮想ロボット1Aによるオフラインティーチング(ロボット1のティーチング作業を、実機であるロボット1を使用しないで行うティーチング)の設定および実行に関するプログラム等が挙げられる。当該プログラムには、仮想ロボット1Aを動作させる動作命令や、表示装置31に表示させる信号を出力する出力命令等が含まれる。各種データとしては、例えば、ツールセンターポイントの位置姿勢、仮想アーム11A、12Aの回動角度、仮想作業ヘッド13Aの仮想シャフト131Aの回動角度および位置等に関するデータ等が挙げられる。
外部入出力部53は、外部I/F(インターフェース)を備え、ロボット制御装置2、表示装置31および入力装置32との各接続のために用いられる。したがって、外部入出力部53は、作業者による入力装置32の操作(指令)を受け付ける受付部としての機能を有する。具体例を挙げると、本実施形態では、外部入出力部53は、後述する仮想撮像部81A、82Aの被写界深度および視野に関する情報、仮想ロボット1Aに仮想撮像部81Aを取り付ける取付部分に関する情報等の入力を受け付けることが可能になっている。また、外部入出力部53は、表示装置31のモニターに各種画面(例えば、図3の画面WD1等)に関する信号を出力する出力部としての機能を有する。
なお、シミュレーション装置5は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部52に保存されている各種プログラムやデータ等は、予め記憶部52に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。
〈表示装置および入力装置〉
図2に示す表示装置31(表示部)は、ディスプレイを備えており、例えば図3に示す画面WD1等の各種画面を表示する機能を有する。したがって、作業者は、表示装置31を介して仮想ロボット1Aの動作等を確認することができる。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。
図2に示す表示装置31(表示部)は、ディスプレイを備えており、例えば図3に示す画面WD1等の各種画面を表示する機能を有する。したがって、作業者は、表示装置31を介して仮想ロボット1Aの動作等を確認することができる。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。
入力装置32(入力部)は、例えばマウスやキーボード等を含んで構成されている。したがって、作業者は、入力装置32を操作することで、シミュレーション装置5に対して各種の処理等の指示(入力)を行うことができる。
具体的には、作業者は、表示装置31に表示される各種画面(ウィンドウ等)に対して入力装置32のマウスでクリックする操作や、入力装置32のキーボードで文字や数字等を入力する操作により、シミュレーション装置5に対する指示を行うことができる。以下、この作業者による入力装置32を用いた指示(入力装置32による入力)を「操作指示」とも言う。この操作指示は、入力装置32により、表示装置31に表示された内容から所望の内容を選択する選択操作や、入力装置32により、文字や数字等を入力する入力指示等を含む。また、入力には、選択も含まれる。
なお、シミュレーション装置5には、表示装置31および入力装置32がそれぞれ1つ接続されていてもよいし、それぞれ複数接続されていてもよい。また、表示装置31および入力装置32の代わりに、表示装置31および入力装置32の機能を兼ね備えた表示入力装置(図示せず)を用いてもよい。表示入力装置としては、例えばタッチパネル等を用いることができる。
以上、ロボットシステム100の基本的な構成について簡単に説明した。かかるロボットシステム100は、シミュレーション装置5と、シミュレーション装置5によるシミュレーション結果(動作プログラム)に基づいてロボット1の動作の制御を行うロボット制御装置2と、ロボット制御装置2により制御されるロボット1と、を有する。このようなロボットシステム100(シミュレーション装置5)によれば、実機であるロボット1を用いることなく、表示装置31が有するディスプレイ上(シミュレーション上の空間)で、仮想ロボット1Aに対して所定の作業を教示(ティーチング)し、その教示された作業を検証することができる。そのため、実機であるロボット1を用いずとも、例えば、ロボット1による作業におけるサイクルタイム等を検討することができる。
≪シミュレーション≫
次に、シミュレーション装置5が行うシミュレーションについて説明する。
次に、シミュレーション装置5が行うシミュレーションについて説明する。
シミュレーション装置5の制御部51は、表示装置31の駆動を制御し、表示装置31が有するディスプレイに画面WD1を表示し(図3参照)、その画面WD1に、仮想ロボット1A、仮想撮像部81A、82A、仮想ワーク71A、仮想ワーク71A(仮想対象物)を収納(載置)する仮想容器72A(仮想対象物)等を表示する(図3参照)。すなわち、制御部51は、表示装置31に仮想ロボット1Aによるシミュレーションを表示させる。
この場合、作業者は、入力装置32で所定の操作(操作指示)を行うことにより、画面WD1に仮想撮像部81A、82Aを表示することができる。また、入力装置32で所定の操作(操作指示)を行うことにより、仮想撮像部81A、82Aは、それぞれ、仮想ロボット1Aの取付部分や、仮想ロボット1A以外の取付部分に配置される(取り付けられる)。本実施形態では、仮想撮像部81Aは、仮想ロボット1Aの取付部分に配置(取り付けられる)モバイルカメラとし、仮想撮像部82Aは、仮想ロボット1A以外の取付部分に配置(取り付けられる)固定カメラとして説明する。仮想ロボット1Aの取付部分と仮想撮像部81Aとは、接触していてもよく、また、離間していてもよい(オフセットさせてもよい)。また、仮想ロボット1A以外の取付部分と仮想撮像部82Aとは、接触していてもよく、また、離間していてもよい。なお、仮想撮像部の数は、本実施形態では、2つであるが、これに限らず、1つ、または、3つ以上でもよい。
まず、仮想撮像部81A、82Aについて説明するが、仮想撮像部81Aの構成と仮想撮像部82Aの構成とは同様であるので、代表的に、仮想撮像部81Aについて説明する。
仮想撮像部81Aは、仮想撮像素子812Aを有する仮想本体811Aと、複数のレンズを有する仮想レンズユニット813Aと、仮想エクステンションチューブ814A(仮想筒体)とを備えている。仮想エクステンションチューブ814Aを設ける(取り付ける)か否かは、選択することができる。仮想エクステンションチューブ814Aを設けない場合は、仮想本体811Aに、仮想レンズユニット813Aが着脱可能に設けられる。また、仮想エクステンションチューブ814Aを設ける場合は、仮想本体811Aに、仮想エクステンションチューブ814Aが着脱可能に取り付けられ、仮想エクステンションチューブ814Aに、仮想レンズユニット813Aが着脱可能に取り付けられる。このように、仮想エクステンションチューブ814Aは、スペーサーの機能を有している。
また、仮想撮像素子812Aとしては、特に限定されず、例えば、CCDイメージセンサー、CMOSイメージセンサー等が挙げられる。
なお、仮想撮像部82Aは、仮想撮像素子822Aを有する仮想本体821Aと、複数のレンズを有する仮想レンズユニット823Aと、仮想エクステンションチューブ824A(仮想筒体)とを備えている。
次に、仮想撮像部81A、82Aを取り付ける(設ける)場合の作業者の操作手順および表示装置31の表示等を説明する。
まず、仮想撮像部82Aを仮想空間内の所定位置に設ける場合について説明する。
図3に示すように、制御部51は、表示装置31に、画面WD1を表示させる。なお、図3に示す画面WD1に表示されている仮想ロボット1A等のシミュレーションの画像は、最終的に略全部が表示させた状態の画像である。
図3に示すように、制御部51は、表示装置31に、画面WD1を表示させる。なお、図3に示す画面WD1に表示されている仮想ロボット1A等のシミュレーションの画像は、最終的に略全部が表示させた状態の画像である。
作業者は、画面WD1のツールバー40の所定のアイコンを選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、図4に示すように、制御部51は、表示装置31に、ダイアログ41を表示させる。
次に、図4に示すように、作業者は、ダイアログ41のドロップダウンリスト411で、仮想撮像部82Aのモデルを選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト412で、仮想エクステンションチューブ814Aの有無と、仮想エクステンションチューブ814Aを設ける場合は、その仮想エクステンションチューブ814Aの長さを選択する操作指示を行う。仮想エクステンションチューブ814Aを設けない場合は、長さを「0」にし、仮想エクステンションチューブ814Aを設ける場合は、長さを「0」以外の所定値にする。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト413で、仮想撮像部82Aのタイプ(メガピクセルまたは標準)を選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト414で、仮想レンズユニット823Aの焦点距離を選択する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト415で、仮想撮像部82Aの取付設定、すなわち、「固定」と「モバイル」とのいずれか一方を選択する操作指示を行う。この場合、仮想撮像部82Aは、固定カメラであるので、「固定」を選択する。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
次に、作業者は、「Add」と表示されたボタン418に対する操作指示を行う(ボタン418を押す)。外部入出力部53が前記操作指示を受け付けると、制御部51は、前記各設定(各設定値)の登録を行う。
次に、仮想撮像部81Aを仮想ロボット1Aに取り付ける(設ける)場合について説明する。
図5に示すように、作業者は、前記と同様に、ダイアログ41のドロップダウンリスト411〜414で、所定の操作指示を行う。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト415で、仮想撮像部82Aの取付設定、すなわち、「固定」と「モバイル」とのいずれか一方を選択する操作指示を行う。この場合、仮想撮像部81Aは、モバイルカメラであるので、「モバイル」を選択する。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト416で、仮想ロボット(Robot)を「1」、「2」、・・・の番号で選択する操作指示を行う。
ここで、複数の仮想ロボット(例えば、仮想垂直多関節ロボット、仮想スカラーロボット等の仮想水平多関節ロボット)は、それぞれ、前記番号と対応付けがなされている。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。
また、作業者は、ドロップダウンリスト417で、仮想撮像部81Aを取り付ける取付部分(Joint)、すなわち、取付部分に設けられている座標系を「1」、「2」、・・・の番号で選択する操作指示を行う。
この場合、関節171、関節172、作業ヘッド13のシャフト131の関節に相当する部分(図示せず)には、それぞれ座標系が設定されており、各座標系は、それぞれ、前記番号と対応付けがなされている。外部入出力部53が前記操作指示を受け付けると、制御部51は、その操作指示に応じた設定を行う。なお、仮想撮像部81Aには、互いに直交する3軸を有する座標系が設定されており、仮想撮像部81Aは、その座標系と選択された座標系とが一致するように設けられる。
次に、作業者は、「Add」と表示されたボタン418に対する操作指示を行う(ボタン418を押す)。外部入出力部53が前記操作指示を受け付けると、制御部51は、前記各設定(各設定値)の登録を行う。
また、作業者は、画面WD1の図3中の左上にある[Layout Objects]でカメラオブジェクトを選択し、所定の操作指示を行う。また、画面WD1の図3中の左下にある[Property]の中にある[Mount Type]プロパティー(図示せず)にて、設定値を「Fixed(固定)」から「Mobile(モバイル)」に変更する操作指示を行う。外部入出力部53が前記操作指示を受け付けると、図6に示すように、制御部51は、表示装置31に、ダイアログ42を表示させる。
なお、作業者が画面WD1のツールバー40の所定のアイコンを選択する操作指示を行い、外部入出力部53が前記操作指示を受け付けると、制御部51は、表示装置31に、ダイアログ42を表示させるようにしてもよい。
図6に示すように、ダイアログ42では、ドロップダウンリスト421で、仮想ロボット(Robot)の選択が可能であり、また、ドロップダウンリスト422で、仮想撮像部81Aを取り付ける取付部分(Joint)、すなわち、取付部分に設けられている座標系の選択が可能である。
また、[Offset From Selected Joint]46で、ドロップダウンリスト422(417)で選択した[Joint]に対する仮想撮像部81Aの位置(相対位置)および姿勢(相対姿勢)を設定(登録)することができる。すなわち、仮想撮像部81Aのオフセット量を設定することができる。
以上のようにして、図3に示すように、仮想ロボット1Aのうち、前記操作で選択された取付部分に仮想撮像部81Aが取り付けられ、例えば仮想床に仮想撮像部82Aが取り付けられる。すなわち、表示装置31には、前記操作で選択された取付部分に配置された仮想撮像部81Aが表示され、仮想床に配置された仮想撮像部82Aが表示される。
また、制御部51は、仮想ロボット1Aと仮想撮像部81Aとを連動させて動作させる入力(操作指示)を外部入出力部53が受け付けた場合は、仮想ロボット1Aの動作に連動して、仮想撮像部81Aを動作させる。すなわち、仮想撮像部81Aの取付部分と仮想撮像部81Aとを連動(一体的に動作)させる。これにより、仮想撮像部81Aの取付部分が移動すると、その取付部分とともに仮想撮像部81Aが移動し、取付部分の姿勢が変更されると、その取付部分とともに仮想撮像部81Aの姿勢が変更される。
ここで、「仮想ロボット1A(取付部分)と仮想撮像部81Aとを連動させる」とは、仮想ロボット1Aが動作した場合、取付部分に対する仮想撮像部81Aの位置(相対位置)および姿勢(相対姿勢)を保持したまま、仮想撮像部81Aを仮想ロボット1Aとともに動作させることを言う。
このようなシミュレーション装置5では、制御部51は、仮想撮像部81A、82Aの被写界深度の前面(近い側の面)における仮想撮像部81A、82Aの視野および後面(遠い側の面)における仮想撮像部81A、82Aの視野を表示装置31に表示させる。なお、仮想撮像部81Aの場合と仮想撮像部82Aの場合とは同様であるので以下では、代表的に仮想撮像部81Aの場合について説明する。
まず、制御部51は、仮想撮像部81Aの被写界深度および視野に関する情報に基づいて、仮想撮像部81Aの被写界深度の前面における仮想撮像部81Aの視野および後面における仮想撮像部81Aの視野を求める。
被写界深度の前面とは、仮想撮像部81Aのピント(フォーカス)が合う近位側の限界位置であり、被写界深度の後面とは、仮想撮像部81Aのピントが合う遠位側の限界位置である。したがって、前記前面と前記後面との間の領域において、仮想撮像部81Aのピントが合う。
また、被写界深度および視野に関する情報には、仮想撮像部81Aに用いられる仮想レンズユニット813A(仮想レンズ)に関する情報および仮想エクステンションチューブ814Aに関する情報の少なくとも1つが含まれる。
具体的には、被写界深度および視野に関する情報としては、例えば、仮想エクステンションチューブ814Aの有無、仮想エクステンションチューブ814Aの長さ(仮想エクステンションチューブ814Aを設けない場合は、長さは「0」である)、仮想レンズユニット813Aの焦点距離、仮想レンズユニット813A(仮想撮像部81A)のタイプ、仮想レンズユニット813Aの口径、仮想レンズユニット813AのF値等が挙げられ、これらのうちの少なくとも1つ(好ましくは2つ以上)が用いられる。
本実施形態では、前述したように、仮想エクステンションチューブ814Aの有無、仮想エクステンションチューブ814Aの長さ、仮想レンズユニット813A(仮想撮像部81A)のタイプ、仮想レンズユニット813Aの焦点距離が用いられる。
ここで、仮想エクステンションチューブ814Aの長さは、仮想撮像素子812Aと仮想レンズユニット813Aとの距離に相当する(相関がある)。
また、仮想レンズユニット813A(仮想撮像部81A)のタイプとしては、本実施形態では、「標準」と「メガピクセル」とがあり、それらは、例えば、解像度等の性能(特性)を示している。
次に、制御部51は、仮想撮像部81Aの被写界深度の前面における仮想撮像部81Aの視野および後面における仮想撮像部81Aの視野と、仮想撮像部81Aの光軸66Aとを表示装置31に表示させる。以下、仮想撮像部81Aの被写界深度の前面を単に「前面」とも言い、仮想撮像部81Aの被写界深度の後面を単に「後面」とも言う。また、仮想撮像部81Aの被写界深度の前面における仮想撮像部81Aの視野を単に「前面における視野」とも言い、仮想撮像部81Aの被写界深度の後面における仮想撮像部81Aの視野を単に「後面における視野」とも言う。
図7に示すように、本実施形態では、前面における視野は、枠61Aで示され、後面における視野は、枠62Aで示されている。これにより、前面における視野および後面における視野を容易に把握することができる。そして、この枠61Aおよび枠62Aを指標とし、枠61Aと枠62Aとの間で、かつ、仮想撮像部81Aの視野に、仮想対象物、例えば、仮想容器72Aが配置されるように、各部のレイアウト、仮想撮像部81Aの各部(例えば、光学機器等)の選定等を行うことができる。また、その作業を容易かつ迅速に行うことができる。
また、枠61Aの色と枠62Aの色は、異なっている。これにより、前面における視野と後面における視野とを容易に区別することができる。なお、枠61Aの色および枠62Aの色は、それぞれ、特に限定されない。また、枠61Aの色と枠62Aの色は、同じであってもよい。
また、枠61Aおよび枠62Aの色は、それぞれ、複数の色から任意の色を選択することが可能になっている。なお、選択ができないようにしてもよい。
また、枠61Aの内部の領域は、例えば、透明にしてもよく、また、半透明(枠61Aと同じ色でもよく、また、異なった色でもよい)にしてもよい。また、枠61Aを表示し、枠61Aの内部の領域を透明にする形態と、枠61Aを表示し、枠61Aの内部の領域を半透明にする形態とを選択できるようにしてもよい。
同様に、枠62Aの内部の領域は、例えば、透明にしてもよく、また、半透明(枠62Aと同じ色でもよく、また、異なった色でもよい)にしてもよい。また、枠62Aを表示し、枠62Aの内部の領域を透明にする形態と、枠62Aを表示し、枠62Aの内部の領域を半透明にする形態とを選択できるようにしてもよい。
また、制御部51は、前面における視野の中心および後面における視野の中心を表示装置31に表示させる。これにより、容易に、前面における視野の中心および後面における視野の中心を容易に把握することができ、利便性が良い。
本実施形態では、前面における視野の中心に、マーク611Aを配置し、後面における視野の中心に、マーク621Aを配置する。マーク611A、621Aは、それぞれ、後述する光軸66A上に位置し、「+」の形状をなしている。なお、マーク611A、621Aの形状は、それぞれ、他の形状、例えば、「×」の形状、「・」の形状、網目形状等であってもよい。また、マーク611Aの形状とマーク621Aの形状は、同じでもよく、また、異なっていてもよい。
また、マーク611Aの色は、枠61Aの色と同じでもよく、また、異なっていてもよい。また、マーク621Aの色は、枠62Aの色と同じでもよく、また、異なっていてもよい。
なお、前面における視野の中心および後面における視野の中心は、それぞれ、表示しなくてもよい。
また、制御部51は、仮想撮像部81Aの光軸66Aを表示装置31に表示させる。
仮想撮像部81Aの光軸66Aとは、仮想撮像部81Aの視野の中心を通る直線である。これにより、仮想撮像部81Aの光軸66A、すなわち、仮想撮像部81Aからの各距離の地点における仮想撮像部81Aの視野の中心を容易に把握することができ、利便性が良い。
仮想撮像部81Aの光軸66Aとは、仮想撮像部81Aの視野の中心を通る直線である。これにより、仮想撮像部81Aの光軸66A、すなわち、仮想撮像部81Aからの各距離の地点における仮想撮像部81Aの視野の中心を容易に把握することができ、利便性が良い。
また、光軸66Aの色は、特に限定されない。また、光軸66Aの色は、枠61Aの色と、同じであってもよく、また、異なっていてもよい。また、光軸66Aの色は、枠62Aの色と、同じであってもよく、また、異なっていてもよい。また、光軸66Aは、複数の色から任意の色を選択することが可能になっていてもよく、また、選択ができないようなっていてもよい。なお、光軸66Aは、表示しなくてもよい。
また、制御部51は、前面と後面との間の中間位置を表示装置31に表示させる。これにより、容易に、前面と後面との間の中間位置を容易に把握することができ、利便性が良い。
本実施形態では、前面と後面との間の中間位置であって、光軸66上に、マーク631Aを配置する。なお、マーク631Aは、後述する枠63Aの中心に配置されている。また、マーク631Aは、「+」の形状をなしている。なお、マーク631Aの形状は、他の形状、例えば、「×」の形状、「・」(点)の形状、網目形状等であってもよい。また、マーク631Aの形状とマーク611Aの形状は、同じでもよく、また、異なっていてもよい。また、マーク631Aの形状とマーク621Aの形状は、同じでもよく、また、異なっていてもよい。
また、マーク631Aの色は、枠63Aの色と同じでもよく、また、異なっていてもよい。
なお、前面と後面との間の中間位置は、表示しなくてもよい。
また、本実施形態では、前面と後面との間の中間位置(以下、単に「中間位置」とも言う)における視野は、枠63Aで示されている。これにより、中間位置における視野を容易に把握することができる。
また、本実施形態では、前面と後面との間の中間位置(以下、単に「中間位置」とも言う)における視野は、枠63Aで示されている。これにより、中間位置における視野を容易に把握することができる。
また、枠63Aの色は、枠61Aの色および枠62Aの色のそれぞれと異なっている。これにより、中間位置における視野と、前面における視野と、後面における視野とを容易に区別することができる。なお、枠63の色は、特に限定されない。また、枠63Aの色は、枠61Aの色と同じであってもよく、また、枠62Aの色と同じであってもよい。以下、枠63および枠63の内部の領域についての説明は、省略するが、前述した枠61A、枠62Aと同様に各種の形態が可能である。なお、枠63Aは表示しなくてもよい。
なお、仮想撮像部82Aの場合については説明を省略する。
なお、仮想撮像部82Aの場合については説明を省略する。
次に、シミュレーションにおいて作業者が行う作業手順の1例について、図8に基づいて簡単に説明する。
まず、作業者は、仮想ロボット1A、仮想ワーク71A、仮想容器72A等を所定の位置に配置する(ステップS101)。
次いで、仮想撮像部81A、仮想撮像部82Aの各部の選定を行う(ステップS102)。
次いで、仮想撮像部81A、仮想撮像部82Aを所定の位置に配置する(ステップS103)。
次いで、各部のレイアウトの検証を行い(ステップS104)、不合格の場合は、ステップS102に戻り、再度、ステップS102以降を行う。
また、合格の場合は、ロボットの動作プログラムを作成する(ステップS105)。
また、合格の場合は、ロボットの動作プログラムを作成する(ステップS105)。
次いで、経路、不本意な干渉(衝突、接触等)、サイクルタイム等の検証を行い(ステップS106)、不合格の場合は、ステップS105に戻り、再度、ステップS105以降を行う。
また、合格の場合は、以上で、作業を終了する。
また、合格の場合は、以上で、作業を終了する。
以上説明したように、ロボットシステム100によれば、ミュレーションにおいて、仮想撮像部81A、72Aの被写界深度の前面における視野および後面における視野を表示装置31に表示することができるので、仮想撮像部81A、82Aの光軸66A方向の各部のレイアウト検証等を容易かつ迅速に行うことができる。
具体的には、仮想撮像部81A、82A、すなわち、仮想本体811A、821A、仮想レンズユニット813A、823A、仮想エクステンションチューブ814A、824A等の光学機器の選定、レイアウト検証、経路検証、プログラム検証等のビジョンを用いたシステムを作成する一連のオフライン作業を完結させることができる。また、実機を制作する前に各検証を行うことができるので、実機でのやり直し、各機器の買い直し等が生じることを抑制することができる。
また、シミュレーションを行って、オフラインティーチングを行うことができ、ロボット1の動作プログラムの作成、検証を行うことができる。
以上説明したように、シミュレーション装置5は、ロボット1を仮想化した仮想ロボット1Aによるシミュレーションを行うシミュレーション装置である。シミュレーション装置5は、仮想撮像部81A、82Aの被写界深度および視野に関する情報の入力を受け付ける外部入出力部53(受付部)と、仮想ロボット1Aと、仮想撮像部81A、82Aと、外部入出力部53(受付部)が受け付けた前記情報に基づいて求めた被写界深度の前面における仮想撮像部81A、82Aの視野および被写界深度の後面における仮想撮像部81A、82Aの視野とを表示装置31(表示部)に表示させる制御部51と、を備える。
このようなシミュレーション装置によれば、仮想撮像部81A、82Aの被写界深度の前面における視野および後面における視野を表示装置31(表示部)に表示することができるので、仮想撮像部81A、82Aの光軸方向の各部のレイアウト検証等を容易かつ迅速に行うことができる。
また、仮想撮像部81A、82Aの被写界深度および視野に関する情報は、仮想撮像部81A、82Aに用いられる仮想レンズユニット813A、823A(仮想レンズ)に関する情報および仮想エクステンションチューブ814A、824Aに関する情報の少なくとも1つを含む。これにより、適確に、仮想撮像部81A、82Aの被写界深度の前面における視野および後面における視野を表示装置31(表示部)に表示することができる。
また、外部入出力部53(受付部)は、仮想ロボット1Aに仮想撮像部81A、82Aを取り付ける取付部分に関する情報の入力を受け付け可能であり、制御部51は、外部入出力部53(受付部)が受け付けた取付部分に取り付けられた仮想撮像部81A、82Aを表示装置31(表示部)に表示させる。これにより、容易に、仮想撮像部81A、82Aを取付部分に取り付けることができる。
また、制御部51は、仮想撮像部81A、82Aの被写界深度の前面における視野の中心および仮想撮像部81A、82Aの被写界深度の後面における視野の中心を表示装置31(表示部)に表示させる。これにより、容易に、仮想撮像部81A、82Aの被写界深度の前面における仮想撮像部81A、82Aの視野の中心および被写界深度の後面における仮想撮像部81A、82Aの視野の中心を容易に把握することができ、利便性が良い。
また、制御部51は、仮想撮像部81A、82Aの被写界深度の前面と被写界深度の後面との間の中間位置を表示装置31(表示部)に表示させる。これにより、容易に、仮想撮像部81A、82Aの被写界深度の前面と被写界深度の後面との間の中間位置を容易に把握することができ、利便性が良い。
また、制御部51は、仮想撮像部81A、82Aの光軸66Aを表示装置31(表示部)に表示させる。これにより、仮想撮像部81A、82Aの光軸66A、すなわち、仮想撮像部81A、82Aからの各距離の地点における仮想撮像部81A、82Aの視野の中心を容易に把握することができ、利便性が良い。
また、ロボット制御装置2(制御装置)は、シミュレーション装置5によるシミュレーション結果に基づいてロボット1を制御する。
このようなロボット制御装置2(制御装置)によれば、シミュレーション装置5で作成した動作プログラムを用いてロボット1に適切な動作を行わせることができる。
また、ロボット1は、ロボットアーム10を有し、ロボット制御装置2(制御装置)によって制御される。
このようなロボット1によれば、ロボット制御装置2(制御装置)の制御により、適切な動作を行うことができる。
また、シミュレーション装置5は、ロボットを仮想化した仮想ロボット1Aによるシミュレーションを行うシミュレーション装置である。シミュレーション装置5は、プロセッサーを備え、プロセッサーは、仮想撮像部81A、82Aの被写界深度および視野に関する情報の入力を受け付け、かつ、仮想ロボット1Aと、仮想撮像部81A、82Aと、受け付けた前記情報に基づいて求めた被写界深度の前面における仮想撮像部81A、82Aの視野および前記被写界深度の後面における仮想撮像部81A、82Aの視野とを表示装置31(表示部)に表示させる。
このようなシミュレーション装置によれば、仮想撮像部81A、82Aの被写界深度の前面における視野および後面における視野を表示装置31(表示部)に表示することができるので、仮想撮像部81A、82Aの光軸方向の各部のレイアウト検証等を容易かつ迅速に行うことができる。
<第2実施形態>
図9は、第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの1例を示す図である。
図9は、第2実施形態に係るロボットシステムのシミュレーション装置が行うシミュレーションの1例を示す図である。
以下、第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
図9に示すように、第2実施形態のシミュレーション装置5では、制御部51は、仮想撮像部81Aの仮想撮像画像を表示装置31に表示させる。すなわち、図3に示す画面WD1に、サブウィンドウ(別のサブウィンドウ)として、図9に示す画面WD2が表示される。そして、画面WD2には、枠61A、62A、マーク611A、612Aが表示される。これにより、仮想撮像部8Aの仮想撮像画像を見ることができ、利便性が良い。なお、画面WD2は、表示されなくてもよい。
また、制御部51は、仮想撮像部81Aの仮想撮像画像および仮想撮像部81Aの視野外の部分91(領域)を表示装置31に表示させる。この仮想撮像部81Aの視野外の部分91は、仮想撮像部81Aの視野の外側の部分(視野を囲む部分)であって、視野と連続している。すなわち、視野の周囲の部分である。これにより、仮想撮像画像のみを表示した場合では、仮想撮像部81Aがどの部分を撮像したのかを把握し難い場合でも、さらに仮想撮像部81Aの視野外の部分91Aを表示することにより、容易に、仮想撮像部81Aがどの部分を撮像したのかを把握することができる。
ここで、画面WD2に表示される仮想撮像部81Aの仮想撮像画像の部分と、視野外の部分91との配分は、特に限定されず、適宜設定される。この場合、視野外の部分91の面積は、例えば、仮想撮像画像の部分の面積に対する比率で設定したり、具体的な数値(面積、幅等)で設定する方法等が挙げられる。
なお、視野外の部分91は、表示されなくてもよい。
なお、視野外の部分91は、表示されなくてもよい。
また、制御部51は、仮想撮像部81Aの被写界深度から光軸66A方向にずれている仮想撮像部81Aの仮想撮像画像、すなわち、前面よりも仮想撮像部81Aに近い位置の仮想被写体を撮像して得られる仮想画像と、後面よりも仮想撮像部81Aから近い位置の仮想被写体を撮像して得られる仮想画像とは、それぞれ、ぼかして表示装置31に表示させる。これにより、仮想撮像部81Aの仮想撮像画像を見て、仮想被写体が仮想撮像部81Aの被写界深度から光軸66A方向にずれていることを容易に把握することができる。なお、このような仮想撮像画像をぼかして表示することは、行わなくてもよい。
また、制御部51は、仮想撮像部82Aの仮想撮像画像を表示装置31に表示させる。すなわち、図3に示す画面WD1に、サブウィンドウ(別のサブウィンドウ)として、前述した画面WD2と同様の画面(図示せず)が表示される。なお、仮想撮像部82Aの場合は、仮想撮像部81Aの場合と同様であるので、その説明は省略する。
このようにして、画面WD1には、仮想撮像部の台数分の画面がサブウィンドウとして表示される。
以上のような第2実施形態によっても、前述した実施形態と同様の効果を発揮することができる。
以上説明したように、制御部51は、仮想撮像部81A、82Aの仮想撮像画像を表示装置31に表示させる。これにより、仮想撮像部81A、82Aの仮想撮像画像を見ることができ、利便性が良い。
また、制御部51は、81A、82Aの仮想撮像画像、および仮想撮像部81A、82Aの視野外の部分91を表示装置31に表示させる。これにより、仮想撮像画像のみを表示した場合では、仮想撮像部81A、82Aがどの部分を撮像したのかを把握し難い場合でも、さらに仮想撮像部81A、82Aの視野外の部分91Aを表示することにより、容易に、仮想撮像部81A、82Aがどの部分を撮像したのかを把握することができる。
以上、ロボットシステム100について説明した。なお、「ロボットシステム」は、図10、図11に示す形態であってもよい。
図10、図11は、それぞれ、ロボットシステムの他の構成例を示す図(ブロック図)である。
図10には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成図を示す。ロボット1の制御はコンピューター63に存在するプロセッサーによりメモリーにある指令を読み出して直接実行される。コンピューター63は、前述したロボット制御装置2およびシミュレーション装置5の機能を有する。
図11には、コントローラー61が内蔵させたロボット1とコンピューター66とが接続され、コンピューター66がLAN(Local Area Network)等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成図を示す。ロボット1の制御はコンピューター66に存在するプロセッサーによりメモリーにある指令を読み出して実行されてもよいし、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読み出して実行されてもよい。コントローラー61が、前述したロボット制御装置2の機能を有し、コンピューター66またはクラウド64が、前述したシミュレーション装置5の機能を有する。
また、ロボットシステム100B、100Cでは、各プロセッサーは、それぞれ、1つの装置で構成されていてもよく、また、複数の装置で構成されていてもよい、すなわち、複数の単位プロセッサーに分かれていてもよい。
以上、本発明のシミュレーション装置、制御装置およびロボットを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。
また、本発明は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
また、前述した実施形態では、ロボットとして、スカラーロボット(水平多関節ロボット)を例示したが、当該ロボットは、これに限らず、例えば、垂直多関節ロボット、脚部を有する脚式歩行(走行)ロボット等の他の形態のロボットであってもよい。また、当該ロボットは、単腕ロボットに限定されず、例えば、双腕ロボット等の他のロボットであってもよい。したがって、ロボットアーム(可動部)の数は、1つに限定されず、2つ以上であってもよい。また、ロボットアーム(可動部)が有するアームの数は、前述した実施形態では、3つであるが、1つ、2つまたは4つ以上であってもよい。
1…ロボット、1A…仮想ロボット、2…ロボット制御装置、5…シミュレーション装置、10…ロボットアーム、10A…仮想ロボットアーム、11…アーム、11A…仮想アーム、12…アーム、12A…仮想アーム、13…作業ヘッド、13A…仮想作業ヘッド、17…エンドエフェクター、17A…仮想エンドエフェクター、18…力覚センサー、18A…仮想力覚センサー、21…制御部、22…記憶部、23…外部入出力部、31…表示装置、32…入力装置、40…ツールバー、41…ダイアログ、42…ダイアログ、51…制御部、52…記憶部、53…外部入出力部、61…コントローラー、61A…枠、62A…枠、63…コンピューター、63A…枠、64…クラウド、65…ネットワーク、66…コンピューター、66A…光軸、70…設置箇所、71A…仮想ワーク、72A…仮想容器、81A…仮想撮像部、82A…仮想撮像部、91A…視野外の部分、100…ロボットシステム、100B…ロボットシステム、100C…ロボットシステム、110…基台、110A…仮想基台、130…駆動部、131…シャフト、131A…仮想シャフト、140…角度センサー、171…関節、171A…仮想関節、172…関節、172A…仮想関節、411…ドロップダウンリスト、412…ドロップダウンリスト、413…ドロップダウンリスト、414…ドロップダウンリスト、415…ドロップダウンリスト、416…ドロップダウンリスト、417…ドロップダウンリスト、418…ボタン、421…ドロップダウンリスト、422…ドロップダウンリスト、611A…マーク、612A…マーク、621A…マーク、631A…マーク、811A…仮想本体、812A…仮想撮像素子、813A…仮想レンズユニット、814A…仮想エクステンションチューブ、821A…仮想本体、822A…仮想撮像素子、823A…仮想レンズユニット、824A…仮想エクステンションチューブ、S101…ステップ、S102…ステップ、S103…ステップ、S104…ステップ、S105…ステップ、S106…ステップ、WD1…画面、WD2…画面
Claims (11)
- ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
仮想撮像部の被写界深度および視野に関する情報の入力を受け付ける受付部と、
前記仮想ロボットと、前記仮想撮像部と、前記受付部が受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させる制御部と、を備えることを特徴とするシミュレーション装置。 - 前記情報は、前記仮想撮像部に用いられる仮想レンズに関する情報および仮想エクステンションチューブに関する情報の少なくとも1つを含む請求項1に記載のシミュレーション装置。
- 前記受付部は、前記仮想ロボットに前記仮想撮像部を取り付ける取付部分に関する情報の入力を受け付け可能であり、
前記制御部は、前記受付部が受け付けた前記取付部分に取り付けられた前記仮想撮像部を前記表示部に表示させる請求項1または2に記載のシミュレーション装置。 - 前記制御部は、前記前面における前記視野の中心および前記後面における前記視野の中心を前記表示部に表示させる請求項1ないし3のいずれか1項に記載のシミュレーション装置。
- 前記制御部は、前記前面と前記後面との間の中間位置を前記表示部に表示させる請求項1ないし4のいずれか1項に記載のシミュレーション装置。
- 前記制御部は、前記仮想撮像部の光軸を前記表示部に表示させる請求項1ないし5のいずれか1項に記載のシミュレーション装置。
- 前記制御部は、前記仮想撮像部の仮想撮像画像を前記表示部に表示させる請求項1ないし6のいずれか1項に記載のシミュレーション装置。
- 前記制御部は、前記仮想撮像画像、および前記仮想撮像部の視野外の部分を前記表示部に表示させる請求項7に記載のシミュレーション装置。
- 請求項1ないし8のいずれか1項に記載のシミュレーション装置によるシミュレーション結果に基づいてロボットを制御することを特徴とする制御装置。
- ロボットアームを有し、
請求項9に記載の制御装置によって制御されることを特徴とするロボット。 - ロボットを仮想化した仮想ロボットによるシミュレーションを行うシミュレーション装置であって、
プロセッサーを備え、
前記プロセッサーは、仮想撮像部の被写界深度および視野に関する情報の入力を受け付け、かつ、前記仮想ロボットと、前記仮想撮像部と、受け付けた前記情報に基づいて求めた前記被写界深度の前面における前記視野および前記被写界深度の後面における前記視野とを表示部に表示させることを特徴とするシミュレーション装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211092A JP2019081236A (ja) | 2017-10-31 | 2017-10-31 | シミュレーション装置、制御装置およびロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211092A JP2019081236A (ja) | 2017-10-31 | 2017-10-31 | シミュレーション装置、制御装置およびロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019081236A true JP2019081236A (ja) | 2019-05-30 |
Family
ID=66669930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017211092A Pending JP2019081236A (ja) | 2017-10-31 | 2017-10-31 | シミュレーション装置、制御装置およびロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019081236A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116619376A (zh) * | 2023-06-05 | 2023-08-22 | 广东环境保护工程职业学院 | 基于虚拟视觉的机器人示教控制方法 |
-
2017
- 2017-10-31 JP JP2017211092A patent/JP2019081236A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116619376A (zh) * | 2023-06-05 | 2023-08-22 | 广东环境保护工程职业学院 | 基于虚拟视觉的机器人示教控制方法 |
CN116619376B (zh) * | 2023-06-05 | 2024-01-23 | 广东环境保护工程职业学院 | 基于虚拟视觉的机器人示教控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3342561B1 (en) | Remote control robot system | |
DE102018213985B4 (de) | Robotersystem | |
JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
US9984178B2 (en) | Robot simulator, robot teaching apparatus and robot teaching method | |
US11027428B2 (en) | Simulation apparatus and robot control apparatus | |
US8406923B2 (en) | Apparatus for determining pickup pose of robot arm with camera | |
EP1447770B1 (de) | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen | |
US9958862B2 (en) | Intuitive motion coordinate system for controlling an industrial robot | |
JP7066357B2 (ja) | ロボットシステム及びその運転方法 | |
EP2923806A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
JP2005106825A (ja) | 受像装置の位置および方向づけの決定方法および装置 | |
US7403835B2 (en) | Device and method for programming an industrial robot | |
JP2019081242A (ja) | シミュレーション装置、制御装置およびロボット | |
US20180290299A1 (en) | Teaching device, display device, teaching program, and display program | |
JP2019022916A (ja) | ロボット制御装置、ロボット制御方法、ロボットシステムおよびシミュレーション装置 | |
KR100644174B1 (ko) | 로봇 용접의 보정방법 | |
JP2019025620A (ja) | ロボットシステム及びその運転方法 | |
JP5573537B2 (ja) | ロボットのティーチングシステム | |
JP2019081236A (ja) | シミュレーション装置、制御装置およびロボット | |
WO2018216204A1 (ja) | マスタスレーブマニピュレータとその制御方法 | |
JP2004009209A (ja) | ロボットの教示装置 | |
JP2019063879A (ja) | シミュレーション装置、ロボット制御装置およびロボット | |
JP6343930B2 (ja) | ロボットシステム、ロボット制御装置、及びロボット制御方法 | |
JP4595042B2 (ja) | 3次元測定方法およびシステム並びにマニピュレータの制御方法および装置 | |
JP2010069593A (ja) | 案内面指示装置及び作業補助アーム |