JP2014186588A - シミュレーション装置、プログラム及び画像生成方法 - Google Patents

シミュレーション装置、プログラム及び画像生成方法 Download PDF

Info

Publication number
JP2014186588A
JP2014186588A JP2013061544A JP2013061544A JP2014186588A JP 2014186588 A JP2014186588 A JP 2014186588A JP 2013061544 A JP2013061544 A JP 2013061544A JP 2013061544 A JP2013061544 A JP 2013061544A JP 2014186588 A JP2014186588 A JP 2014186588A
Authority
JP
Japan
Prior art keywords
camera
view
robot
work
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013061544A
Other languages
English (en)
Inventor
Kenichi Maruyama
健一 丸山
Hiroshi Hasegawa
浩 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013061544A priority Critical patent/JP2014186588A/ja
Publication of JP2014186588A publication Critical patent/JP2014186588A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 カメラの撮像範囲を作業者がより判別しやすい視界画像を生成することができるシミュレーション装置及びプログラム等の提供。
【解決手段】 シミュレーション装置は、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部10と、3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部20を含む。そして、処理部10は、カメラの位置及び撮像方向に基づき、カメラの視野を表すビューボリュームを設定し、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、ビューボリュームとの3次元オブジェクト空間における交線を求める。さらに、画像生成部20は、求められた交線が描画された視界画像を生成する。
【選択図】 図1

Description

本発明は、シミュレーション装置、プログラム及び画像生成方法等に関係する。
近年、工場などの作業現場において、人間の代わりに組み付け作業などを行う産業用ロボットを導入することが増えてきた。
このようなロボットを動作させる際には、ロボットの各部が、作業台やワークなどの他の物体と衝突しないように、注意して動作させる必要がある。また、ロボットの制御方法の一つとしては、ビジュアルサーボが知られており、ビジュアルサーボを行う場合には、カメラをどこに配置するかが重要になる。
ロボットを動作させても他の物体に衝突しないか否かや、ビジュアルサーボにおけるカメラ位置が適切かどうかは、実際にロボットを動作させながら人間が判断し、逐一調整してもよいが、これらは非常に手間がかかる作業である。
そこで、ロボットの動作をコンピューターの計算により、あらかじめシミュレーションするシミュレーション装置が用いられている。
このようなシミュレーション装置に関する従来技術としては、特許文献1に開示される技術が知られている。特許文献1において開示される発明では、少なくともロボット、ワーク及びカメラの3次元モデル(オブジェクト)を画面に配置して同時に表示し、ロボットの動作シミュレーションを行う。そして、カメラの視野を3次元形状(以下では、視体積又はビューボリュームと呼ぶ)で画面上に表示する。
特開2005−135278号公報
特許文献1において開示される発明では、カメラの視野を四角錐で表現しているが、四角錐の底面以外の辺が背景に混在してしまい、作業環境の把握に悪影響を及ぼす可能性がある。四角錐を表示せずに、視野が捉える画像のみを表示部に表示することも可能であるが、作業環境のどの部分が撮影されているかを、3次元的にとらえることが困難であった。
本発明の幾つかの態様によれば、カメラの撮像範囲を作業者がより判別しやすい視界画像を生成することができるシミュレーション装置、プログラム及び画像生成方法等を提供することができる。
本発明の一態様は、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、を含み、前記処理部は、カメラの位置及び前記カメラの撮像方向に基づいて、前記カメラの視野を表すビューボリュームを設定し、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記ビューボリュームとの前記3次元オブジェクト空間における交線を求め、前記画像生成部は、求められた前記交線が描画された前記視界画像を生成することを特徴とするシミュレーション装置に関係する。
本発明の一態様では、処理部10が、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つを含む複数のオブジェクトを3次元オブジェクト空間に設定する。そして、画像生成部20が、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、ロボットに取り付けられるカメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた視界画像を生成する。
これにより、カメラの撮像範囲を作業者がより判別しやすい視界画像を生成することが可能となる。
また、本発明の一態様では、前記画像生成部は、求められた前記交線の一端の位置と他端の位置とを求めて、前記一端の位置と前記他端の位置とを結ぶ線分を描画して、前記視界画像を生成してもよい。
これにより、例えばOpenGL(Open Graphics Library)などを用いて撮像範囲を描画すること等が可能になる。
また、本発明の一態様では、前記画像生成部は、求められた前記交線により設定されるポリゴンを描画して、前記カメラの撮像範囲を表す画像が描画された前記視界画像を生成してもよい。
これにより、撮像範囲をより目立たせて、作業者が判別しやすいように表示すること等が可能になる。
また、本発明の一態様では、前記処理部は、第1のカメラと第2のカメラが前記ロボットに取り付けられている場合に、前記第1のカメラの視野を表す第1のビューボリュームと、前記第2のカメラの視野を表す第2のビューボリュームとを設定し、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記第1のビューボリュームとの前記3次元オブジェクト空間における第1の交線を求め、さらに、前記少なくとも一つのオブジェクトと、前記第2のビューボリュームとの前記3次元オブジェクト空間における第2の交線を求め、前記画像生成部は、求められた前記第1の交線と前記第2の交線とが異なる表示態様で描画された前記視界画像を生成してもよい。
これにより、作業者が第1のカメラの撮像範囲と第2のカメラの撮像範囲とをより容易に判別すること等が可能になる。
また、本発明の一態様では、前記処理部は、第1のカメラと第2のカメラが前記ロボットに取り付けられている場合に、前記第1のカメラの視野を表す第1のビューボリュームと、前記第2のカメラの視野を表す第2のビューボリュームとを設定し、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記第1のビューボリュームとの前記3次元オブジェクト空間における第1の交線を求め、さらに、前記少なくとも一つのオブジェクトと、前記第2のビューボリュームとの前記3次元オブジェクト空間における第2の交線を求め、前記画像生成部は、求められた前記第1の交線により設定される第1のポリゴンと、前記第2の交線により設定される第2のポリゴンとが、異なる表示態様で描画された前記視界画像を生成してもよい。
これにより、作業者が第1のカメラの撮像範囲と第2のカメラの撮像範囲とをより容易に判別すること等が可能になる。
また、本発明の一態様では、前記画像生成部は、前記ロボットに取り付けられる前記カメラの撮像方向を表す線分が描画された前記視界画像を生成してもよい。
これにより、ロボットに取り付けられたカメラがどの方向を撮像しているかを作業者が容易に判別すること等が可能になる。
また、本発明の一態様では、前記処理部は、前記3次元オブジェクト空間上において、前記仮想カメラとして第1の仮想カメラを設定し、さらに、前記ロボットに取り付けられる前記カメラの位置に第2の仮想カメラを設定し、前記画像生成部は、前記第2の仮想カメラの第2の視界画像を生成し、前記第1の仮想カメラの前記視界画像として、前記処理部により求められた前記交線と、前記第2の視界画像の上下方向を表すマークとが描画された第1の視界画像を生成してもよい。
これにより、第1の視界画像において、第2の視界画像に映る像がどの方向を向いているかを、作業者が容易に判別すること等が可能になる。
また、本発明の一態様では、前記ロボットは、作業台に対して姿勢を変えることができるアームを有し、前記カメラは、前記ロボットの前記アームに取り付けられてもよい。
これにより、ロボットが、第1のアーム及び第2のアームが作業台に対して、平行にならないような姿勢を取ること等が可能になる。
また、本発明の他の態様では、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、を含み、前記画像生成部は、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、カメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた前記視界画像を生成するシミュレーション装置に関係する。
また、本発明の他の態様では、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、を含み、前記画像生成部は、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトの面と、カメラの撮像方向とがなす角に応じて、前記少なくとも一つのオブジェクトと、前記カメラの視野を表すビューボリュームとの交線の形状が異なる前記視界画像を生成するシミュレーション装置に関係する。
これにより、ロボットが作業台に対して姿勢を変えることができるアームを有している場合であっても、正確な撮像範囲を描画すること等が可能になる。
また、本発明の他の態様では、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトがある3次元オブジェクト空間において、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、カメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた画像を生成する画像生成部を含むシミュレーション装置に関係する。
また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。
また、本発明の他の態様では、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定し、カメラの位置及び前記カメラの撮像方向に基づいて、前記カメラの視野を表すビューボリュームを設定し、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記ビューボリュームとの前記3次元オブジェクト空間における交線を求め、前記3次元オブジェクト空間において、仮想カメラから見え、求められた前記交線が描画された視界画像を生成する画像生成方法に関係する。
本実施形態のシステム構成例。 図2(A)〜図2(C)は、第1の視界画像と第2の視界画像の説明図。 ビューボリュームとオブジェクトの交線の描画処理の説明図。 図4(A)〜図4(C)は、ポリゴンとマークが描画された第1の視界画像と第2の視界画像の説明図。 図5(A)〜図5(C)は、カメラの撮像範囲が重複する場合の第1の視界画像と第2の視界画像の説明図。 図6(A)〜図6(C)は、カメラの姿勢を変更した時の第1の視界画像と第2の視界画像の説明図。 本実施形態の処理の流れを説明するフローチャート。 図8(A)〜図8(C)は、オブジェクトの面と交差しないビューボリュームの面がある場合の第1の視界画像と第2の視界画像の説明図。
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次に本実施形態のシステム構成例について説明する。そして、本実施形態の手法について具体例を交えつつ詳細に説明し、最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.概要
近年、工場などの作業現場において、人間の代わりに組み付け作業などを行う産業用ロボットを導入することが増えてきた。このようなロボットを動作させる際には、ロボットの各部が、作業台やワークなどの他の物体と衝突しないように、注意して動作させる必要がある。
また、ロボットの制御方法の一つとして、ビジュアルサーボが知られている。ビジュアルサーボを行う際には、あらかじめロボットや作業現場にカメラを取り付けておき、取り付けられたカメラから得られる撮像画像に基づいて、ロボットの各部を動作させる。そのため、カメラの配置位置によっては、ロボットを動作させるために有用な撮像画像が得られないこともあり、この場合には期待通りにロボットを動作させることができない。よって、ビジュアルサーボを行う場合には、カメラをどこに配置するかが重要になる。
ロボットを動作させても他の物体に衝突しないか否かや、ビジュアルサーボにおけるカメラ位置が適切かどうかは、実際にロボットを動作させながら人間が判断し、逐一調整してもよいが、これらは非常に手間がかかる作業である。特にビジュアルサーボを行う場合には、あらかじめ大量の参照画像を準備しておく必要がある。そのため、カメラ位置が変更された場合には、参照画像も再度準備しなおす必要があり、コスト面から現実的ではない。
そこで、ロボットの動作をコンピューターの計算により、あらかじめシミュレーションするシミュレーション装置が用いられている。このシミュレーション装置を用いれば、衝突判定をあらかじめ行って、衝突する危険があると分かった場合には、ロボットの動作プログラムを変更したり、ビジュアルサーボにおける最適なカメラ位置を作業者が容易に探し出したりすることができる。また、シミュレーションの結果、ビジュアルサーボにおけるカメラ位置を変更することになっても、CG(Computer Graphics)を用いたシミュレーションであれば、参照画像の準備コストをほとんどかけずに再検証ができるという利点がある。
前述した特許文献1において開示されるシミュレーション装置では、少なくともロボット、ワーク及びカメラの3次元モデル(オブジェクト)を画面に配置して同時に表示し、ロボットの動作シミュレーションを行う。そして、特許文献1の図7などに示すように、カメラの視野を3次元形状(以下では、視体積又はビューボリュームと呼ぶ)で画面上に表示する。なお、ビューボリュームの形状は、典型的には四角錐となる。
しかし、特許文献1において開示される発明では、カメラの視野を四角錐で表現しているが、四角錐の底面以外の辺が背景に混在してしまい、作業環境の把握に悪影響を及ぼす可能性がある。四角錐を表示せずに、視野が捉える画像のみを表示部に表示することも可能であるが、作業環境のどの部分が撮影されているかを、3次元的にとらえることが困難であった。
そこで、本実施形態では、ロボットオブジェクト、ワークオブジェクト及び作業台オブジェクトのうちの少なくとも一つのオブジェクトと、ビューボリュームとの3次元オブジェクト空間における交線により、カメラの視野範囲を表す。そして、求めた交線が描画された視界画像を生成する。
これにより、カメラの撮像範囲をより判別しやすいように、表示することが可能になる。その結果として、オフラインで作成されたロボットの動作プログラムの評価、修正及び編集等を行う際に生じていた種々の不便さと作業効率の低下を緩和又は解消することができるようになる。
また、以下で説明する本実施形態のシミュレーション装置と、特許文献1に示すシミュレーション装置とでは、撮像範囲を表す画像の生成処理が明確に異なる。特許文献1に示す発明では、四角錐により表されるビューボリュームをそのまま撮像範囲を表す画像として表示するが、本実施形態では、配置されるオブジェクトとビューボリュームとの交線を求めて、撮像範囲を特定する処理を行って、撮像範囲を表す画像を生成する。
これにより、カメラの撮像範囲をより正確に表現することが可能となる。例えば、カメラが作業台に対して斜めに配置されている場合には、作業台に対して平行に配置されている場合に比べて、撮像範囲が広くなる。特許文献1に示される発明を用いた場合には、どちらの場合にも同じ四角錐を、向きを変えて表示するだけであるが、本実施形態では、それぞれ異なる撮像範囲を表現することができる。また、本実施形態のシミュレーション装置を用いれば、撮像範囲をワークの形状に沿って、変形して表示すること等も可能になる。
2.システム構成例
次に、本実施形態のシミュレーション装置の構成例を図1に示す。
シミュレーション装置は、処理部10と、画像生成部20と、を含む。なお、シミュレーション装置は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
次に各部で行われる処理について説明する。
処理部10は、各種の判定処理や制御処理などを行うものであり、オブジェクト空間設定部12と、仮想カメラ設定部14と、を含む。
オブジェクト空間設定部12は、オブジェクトを3次元オブジェクト空間に配置設定する処理等を行う。具体的には、ワールド座標系でのオブジェクトの位置や回転角度を決定し、その位置にその回転角度でオブジェクトを配置する。
ここで、オブジェクトとは、ロボット等の衝突検出対象物や、周辺構造物や周辺機器などの被衝突検出対象物を、モデル化したものであり、ポリゴンや自由曲面などのプリミティブ面で構成される。
また、仮想カメラ設定部14は、オブジェクト空間内の所与(任意)の視点から見える画像(視界画像)を生成するための仮想カメラ(視点、基準仮想カメラ)の設定処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を設定する処理(視点位置、撮像方向あるいは画角を制御する処理)を行う。
次に、画像生成部20は、3次元オブジェクト空間において、仮想カメラから見える視界画像の生成処理(描画処理)を行う。この画像生成部20での描画処理は、頂点シェーダープログラムにより実現される頂点シェーダーや、ピクセルシェーダープログラムにより実現されるピクセルシェーダーにより実現してもよい。頂点シェーダーでは、頂点の移動処理、座標変換処理、クリッピング処理などが行われる。そして、頂点処理後の頂点データに基づいてラスタライズ処理が行われる。また、ピクセルシェーダーでは、ラスタライズ処理後に、画像を構成するピクセル(フラグメント)単位での処理であるピクセル処理(フラグメント処理)が行われる。即ち、シェーディング言語によって記述されたシェーダープログラムによって、プログラマブルシェーダー処理が実現される。
なお、処理部10及び画像生成部20の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアーや、プログラムなどにより実現できる。
3.本実施形態の手法
次に、本実施形態の手法について説明する。
以上の本実施形態のシミュレーション装置は、ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部10と、3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部20と、を含む。そして、処理部10は、カメラの位置及びカメラの撮像方向に基づいて、カメラの視野を表すビューボリュームを設定し、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、ビューボリュームとの3次元オブジェクト空間における交線を求める。さらに、画像生成部20は、求められた交線が描画された視界画像を生成する。
ここで、撮像方向とは、カメラが撮像する方向を意味し、例えば、カメラの撮像レンズの中心点を通る光軸の方向である。
本実施形態において、処理部10は、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つを含む複数のオブジェクトを3次元オブジェクト空間に設定する。
そして、画像生成部20は、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、ロボットに取り付けられるカメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた視界画像を生成する。
ここで、ビューボリュームとは、3次元オブジェクト空間の部分空間であって、カメラが撮像する範囲を表す領域のことを言う。前述した特許文献1の図7においては、四角錐30によって表される。
図2(A)を用いて具体例を説明する。本例において、動作シミュレーションの対象となるロボットの3次元モデルを表すロボットオブジェクトRBは、第1のアームAM1と第2のアームAM2を有しており、第1のアームAM1の先端には第1のハンドHD1が設けられ、第2のアームAM2の先端には第2のハンドHD2が設けられている。さらに、第1のハンドHD1の周辺位置には、第1のカメラCM1が設けられており、第2のハンドHD2の周辺位置には、第2のカメラCM2が設けられている。また、作業台の3次元モデルを表す作業台オブジェクトWBの上には、ワークの3次元モデルを表すワークオブジェクトWK1〜WK4が置かれており、ロボットオブジェクトRBがこれらに対して作業を行うものとする。
そして、このようなロボットオブジェクトRBとワークオブジェクト(WK1〜WK4)と作業台オブジェクトWBとを3次元オブジェクト空間に配置設定し、同じく3次元オブジェクト空間に配置設定された仮想カメラから、これらのオブジェクトを見た時の図2(A)に示すような視界画像IM1を描画する。
本例では、視界画像IM1に示すように、第1のハンドHD1の周辺位置に設けられた第1のカメラCM1の視野範囲を四角形PA1により表し、第2のハンドHD2の周辺位置に設けられた第2のカメラCM2の視野範囲を四角形PA2により表す。
これにより、カメラの撮像範囲を作業者がより判別しやすい視界画像を生成することが可能となる。このように本実施形態では、前述した特許文献1において開示される発明とは異なり、ビューボリュームを表す四角錐の底面以外の辺(又は側面)を表示しないため、底面以外の辺が背景に混在し、作業環境の把握に悪影響を及ぼすことを防ぐことが可能になる。
また、画像生成部20は、求められた交線の一端の位置と他端の位置とを求めて、一端の位置と他端の位置とを結ぶ線分を描画して、視界画像を生成してもよい。
具体例を図3に示す。図3は、四角錐の形状をしたビューボリュームVBが任意のオブジェクトOBと交差している様子を表している。この時、本例では、ビューボリュームVBの各側面とオブジェクトOBの表面との交線(CL1〜CL4)を求め、この各交線の端点を求める。具体的に、交線CL1については端点CP1及びCP2が、交線CL2については端点CP2及びCP3が、交線CL3については端点CP3及びCP4が、交線CL4については端点CP4及びCP1が求められる。そして、実際にこれらの端点を結ぶ線分を描画して、図2(A)に示すような視野範囲(PA1及びPA2)が描画された視界画像IM1を生成する。
これにより、例えばOpenGL(Open Graphics Library)などを用いて撮像範囲を描画すること等が可能になる。
また、画像生成部20は、求められた交線により設定されるポリゴンを描画して、カメラの撮像範囲を表す画像が描画された視界画像を生成してもよい。
交線により設定されるポリゴンの具体例を図4(A)に示す。図4(A)では、第1のカメラCM1のビューボリュームと各オブジェクトとの交線により四角形のポリゴンPA1が設定され、ポリゴンPA1が第1のカメラCM1の視野範囲を表す。同様に、第2のカメラCM2のビューボリュームと各オブジェクトとの交線により四角形のポリゴンPA2が設定され、ポリゴンPA2が第2のカメラCM2の視野範囲を表す。
これにより、撮像範囲をより目立たせて、作業者が判別しやすいように表示すること等が可能になる。
また、処理部10は、図2(A)に示すように、第1のカメラCM1と第2のカメラCM2がロボットに取り付けられている場合に、第1のカメラCM1の視野を表す第1のビューボリュームと、第2のカメラCM2の視野を表す第2のビューボリュームとを設定してもよい。そして、処理部10は、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、第1のビューボリュームとの3次元オブジェクト空間における第1の交線を求めてもよい。さらに、処理部10は、前述した少なくとも一つのオブジェクトと、第2のビューボリュームとの3次元オブジェクト空間における第2の交線を求めてもよい。この時に、画像生成部20は、求められた第1の交線と第2の交線とが異なる表示態様で描画された視界画像を生成してもよい。
例えば図2(A)では、第1の交線はPA1のことを指し、第2の交線はPA2のことを指す。また、表示態様とは、色、太さ、輝度、及び実線や点線などの線のパターン等を指す。図2(A)の第1の交線PA1と第2の交線PA2は、線のパターンが異なる。
これにより、作業者が第1のカメラの撮像範囲と第2のカメラの撮像範囲とをより容易に判別すること等が可能になる。また、第1の交線と第2の交線の表示態様を変えることは、図5(A)のように、第1のカメラの撮像範囲と第2のカメラの撮像範囲とが重複しており、2つのカメラが同じワークWK5を撮像している場合などに特に有用である。
同様に、画像生成部20は、求められた第1の交線により設定される第1のポリゴンと、第2の交線により設定される第2のポリゴンとが、異なる表示態様で描画された視界画像を生成してもよい。
ここで、例えば図4(A)では、第1のポリゴンはPA1のことを指し、第2のポリゴンはPA2のことを指す。
この場合にも交線の表示態様を変える例と同様に、作業者が第1のカメラの撮像範囲と第2のカメラの撮像範囲とをより容易に判別すること等が可能になる。
また、画像生成部20は、第1の交線と第2の交線とが異なる色で描画され、かつ第1のポリゴンと第2のポリゴンとが異なる色で描画された視界画像を生成してもよい。他にも、交線の表示態様とポリゴンの表示態様とを任意の組み合わせで変更した視界画像を生成してもよく、様々な変形実施が可能である。
また、画像生成部20は、ロボットに取り付けられるカメラの撮像方向を表す線分が描画された視界画像を生成してもよい。
具体的には、図2(A)、図4(A)及び図5(A)に示すように、カメラの撮像方向を表す線分VD1と、線分VD2とを描画してもよい。図2(A)、図4(A)及び図5(A)では、線分VD1は第1のカメラCM1の撮像方向を表し、線分VD2は第2のカメラCM2の撮像方向を表す。
これにより、ロボットに取り付けられたカメラがどの方向を撮像しているかを作業者が容易に判別すること等が可能になる。
また、処理部10は、3次元オブジェクト空間上において、仮想カメラとして第1の仮想カメラを設定し、さらに、ロボットに取り付けられるカメラの位置に第2の仮想カメラを設定してもよい。そして、画像生成部20は、第2の仮想カメラの第2の視界画像を生成し、第1の仮想カメラの視界画像として、処理部10により求められた交線と、第2の視界画像の上下方向を表すマークとが描画された第1の視界画像を生成してもよい。
例えば、図2(A)の場合では、第2の仮想カメラが二つ配置設定されている。そして、第1のカメラCM1と同じ位置に第2の仮想カメラ1を設定し、図2(B)に示すように、第2の仮想カメラ1から見た第2の視界画像IM21を描画する。同様に、第2のカメラCM2と同じ位置にも第2の仮想カメラ2を設定し、図2(C)に示すように、その第2の仮想カメラ2から見た第2の視界画像IM22を描画する。なお、図4(B)及び図5(B)に示す第2の視界画像IM21と、図4(C)及び図5(C)に示す第2の視界画像IM22も、図2(B)及び図2(C)に示すものと同様に描画される。
そして、本例では、図4(A)に示すように、第2の視界画像IM21の上下方向を表すマークMK1と、第2の視界画像IM22の上下方向を表すマークMK2を、第1の視界画像IM1においてそれぞれの撮像範囲の近傍に表示する。
これにより、第1の視界画像において、第2の視界画像に映る像がどの方向を向いているかを、作業者が容易に判別すること等が可能になる。
また、ロボットは、作業台に対して姿勢を変えることができるアームを有してもよい。そして、カメラは、ロボットのアームに取り付けられてもよい。
これにより、図6(A)のように、ロボットRBは、第1のアームAM1及び第2のアームAM2が作業台WBに対して、平行にならないような姿勢を取ること等が可能になる。
しかし、この際には、アームが作業台に対して平行である図2(A)や図4(A)の場合とは異なり、実際の撮像範囲が長方形にならず、歪んだ四角形になる。
そこで、画像生成部20は、ロボットオブジェクトとワークオブジェクトと作業台オブジェクトとのうちの少なくとも一つのオブジェクトの面と、カメラの撮像方向とがなす角に応じて、少なくとも一つのオブジェクトと、カメラの視野を表すビューボリュームとの交線の形状が異なる視界画像を生成してもよい。
このように、ビューボリュームとオブジェクトの交線を求めて、撮像範囲を描画する本実施形態では、図6(A)のように歪んだ撮像範囲も再現すること等が可能になる。なお、図6(B)及び図6(C)は、図6(A)に示す3次元オブジェクト内に配置設定された各第2の仮想カメラの視界画像を表す。
これにより、ロボットが作業台に対して姿勢を変えることができるアームを有している場合であっても、正確な撮像範囲を描画すること等が可能になる。
なお、本実施形態のシミュレーション装置等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のシミュレーション装置等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
4.処理の詳細
以下では、図7のフローチャートを用いて、本実施形態の処理の流れについて説明する。
まず、複数のオブジェクトを表示部に表示し(S1)、カメラのビューボリュームを定義(設定)する(S2)。
次に、カメラを移動し(S3)、カメラの移動に従って、ビューボリュームを移動する(S4)。そして、カメラが撮像した画像を表示部に表示する(S5)。
ここで、以下のステップS8〜ステップS11の繰り返し回数を数えるカウンターnを1で初期化する(S6)。
次に、カウンターnが4未満であるか否かを判定する(S7)。カウンターnが4未満であると判定した場合には、3次元オブジェクト空間においてビューボリュームの側面nと交差するオブジェクトがあるか否かを判定する(S8)。なお、本例のビューボリュームは、四角錐の形状をしているものとし、四角錐の4つの側面をそれぞれ側面1〜側面4と呼ぶこととする。
ステップS8において、3次元オブジェクト空間でビューボリュームの側面nと交差するオブジェクトがないと判定した場合には、カウンターnをインクリメントする(S9)。
一方で、ステップS8において、3次元オブジェクト空間でビューボリュームの側面nと交差するオブジェクトがあると判定した場合には、側面nと交差した箇所の端点を算出し(S10)、算出した端点を結び線分を表示する(S11)。
そして、カウンターnをインクリメントして(S9)、ステップS7に戻り、カウンターnが4に達したと判定した場合には、処理を終了する。
このように、3次元オブジェクト空間においてビューボリュームの側面nと交差するオブジェクトがある場合にのみ、交線を描画するため、ビューボリュームの全ての側面において交差するオブジェクトがある場合には、カメラの視野範囲を表す四角形が描画されることになる。例えば、前述した図2(A)のPA1及びPA2に示すようなものである。一方で、どのオブジェクトとも交差しないビューボリュームの側面については、交線が描画されないため、図8(A)に示すような視野範囲(PA1及びPA2)が描画されることになる。なお、図8(B)及び図8(C)は、図8(A)に示す3次元オブジェクト内に配置設定された各第2の仮想カメラの視界画像を表す。
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、シミュレーション装置及びプログラムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
10 処理部、12 オブジェクト空間設定部、14 仮想カメラ設定部、
20 画像生成部

Claims (13)

  1. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、
    前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、
    を含み、
    前記処理部は、
    カメラの位置及び前記カメラの撮像方向に基づいて、前記カメラの視野を表すビューボリュームを設定し、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記ビューボリュームとの前記3次元オブジェクト空間における交線を求め、
    前記画像生成部は、
    求められた前記交線が描画された前記視界画像を生成することを特徴とするシミュレーション装置。
  2. 請求項1において、
    前記画像生成部は、
    求められた前記交線の一端の位置と他端の位置とを求めて、前記一端の位置と前記他端の位置とを結ぶ線分を描画して、前記視界画像を生成することを特徴とするシミュレーション装置。
  3. 請求項1又は2において、
    前記画像生成部は、
    求められた前記交線により設定されるポリゴンを描画して、前記カメラの撮像範囲を表す画像が描画された前記視界画像を生成することを特徴とするシミュレーション装置。
  4. 請求項1乃至3のいずれかにおいて、
    前記処理部は、
    第1のカメラと第2のカメラが前記ロボットに取り付けられている場合に、前記第1のカメラの視野を表す第1のビューボリュームと、前記第2のカメラの視野を表す第2のビューボリュームとを設定し、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記第1のビューボリュームとの前記3次元オブジェクト空間における第1の交線を求め、
    さらに、前記少なくとも一つのオブジェクトと、前記第2のビューボリュームとの前記3次元オブジェクト空間における第2の交線を求め、
    前記画像生成部は、
    求められた前記第1の交線と前記第2の交線とが異なる表示態様で描画された前記視界画像を生成することを特徴とするシミュレーション装置。
  5. 請求項1乃至4のいずれかにおいて、
    前記処理部は、
    第1のカメラと第2のカメラが前記ロボットに取り付けられている場合に、前記第1のカメラの視野を表す第1のビューボリュームと、前記第2のカメラの視野を表す第2のビューボリュームとを設定し、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記第1のビューボリュームとの前記3次元オブジェクト空間における第1の交線を求め、
    さらに、前記少なくとも一つのオブジェクトと、前記第2のビューボリュームとの前記3次元オブジェクト空間における第2の交線を求め、
    前記画像生成部は、
    求められた前記第1の交線により設定される第1のポリゴンと、前記第2の交線により設定される第2のポリゴンとが、異なる表示態様で描画された前記視界画像を生成することを特徴とするシミュレーション装置。
  6. 請求項1乃至5のいずれかにおいて、
    前記画像生成部は、
    前記ロボットに取り付けられる前記カメラの撮像方向を表す線分が描画された前記視界画像を生成することを特徴とするシミュレーション装置。
  7. 請求項1乃至6のいずれかにおいて、
    前記処理部は、
    前記3次元オブジェクト空間上において、前記仮想カメラとして第1の仮想カメラを設定し、さらに、前記ロボットに取り付けられる前記カメラの位置に第2の仮想カメラを設定し、
    前記画像生成部は、
    前記第2の仮想カメラの第2の視界画像を生成し、
    前記第1の仮想カメラの前記視界画像として、前記処理部により求められた前記交線と、前記第2の視界画像の上下方向を表すマークとが描画された第1の視界画像を生成することを特徴とするシミュレーション装置。
  8. 請求項1乃至7のいずれかにおいて、
    前記ロボットは、
    作業台に対して姿勢を変えることができるアームを有し、
    前記カメラは、
    前記ロボットの前記アームに取り付けられることを特徴とするシミュレーション装置。
  9. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、
    前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、
    を含み、
    前記画像生成部は、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、カメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた前記視界画像を生成することを特徴とするシミュレーション装置。
  10. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、
    前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部と、
    を含み、
    前記画像生成部は、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトの面と、カメラの撮像方向とがなす角に応じて、前記少なくとも一つのオブジェクトと、前記カメラの視野を表すビューボリュームとの交線の形状が異なる前記視界画像を生成することを特徴とするシミュレーション装置。
  11. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトがある3次元オブジェクト空間において、前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、カメラの視野を表すビューボリュームとの交差部分には線分が描画され、非交差部分には線分が非描画とされた画像を生成する画像生成部を含むことを特徴とするシミュレーション装置。
  12. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定する処理部と、
    前記3次元オブジェクト空間において、仮想カメラから見える視界画像を生成する画像生成部として、
    コンピューターを機能させ、
    前記処理部は、
    カメラの位置及び撮像方向に基づいて、前記カメラの視野を表すビューボリュームを設定し、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記ビューボリュームとの前記3次元オブジェクト空間における交線を求め、
    前記画像生成部は、
    求められた前記交線が描画された前記視界画像を生成することを特徴とするプログラム。
  13. ロボットの3次元モデルを表すロボットオブジェクトと、ワークの3次元モデルを表すワークオブジェクトと、作業台の3次元モデルを表す作業台オブジェクトとのうちの少なくとも一つのオブジェクトを3次元オブジェクト空間に設定し、
    カメラの位置及び前記カメラの撮像方向に基づいて、前記カメラの視野を表すビューボリュームを設定し、
    前記ロボットオブジェクトと前記ワークオブジェクトと前記作業台オブジェクトとのうちの少なくとも一つのオブジェクトと、前記ビューボリュームとの前記3次元オブジェクト空間における交線を求め、
    前記3次元オブジェクト空間において、仮想カメラから見え、求められた前記交線が描画された視界画像を生成することを特徴とする画像生成方法。
JP2013061544A 2013-03-25 2013-03-25 シミュレーション装置、プログラム及び画像生成方法 Withdrawn JP2014186588A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013061544A JP2014186588A (ja) 2013-03-25 2013-03-25 シミュレーション装置、プログラム及び画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013061544A JP2014186588A (ja) 2013-03-25 2013-03-25 シミュレーション装置、プログラム及び画像生成方法

Publications (1)

Publication Number Publication Date
JP2014186588A true JP2014186588A (ja) 2014-10-02

Family

ID=51834083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013061544A Withdrawn JP2014186588A (ja) 2013-03-25 2013-03-25 シミュレーション装置、プログラム及び画像生成方法

Country Status (1)

Country Link
JP (1) JP2014186588A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103265A (ja) * 2014-10-23 2016-06-02 株式会社東芝 対象の3次元モデルを生成する方法とシステム
CN109348122A (zh) * 2018-10-23 2019-02-15 深圳市盛世智能装备有限公司 用于摄像画图机的图像处理方法、系统、设备和存储介质
WO2019102822A1 (ja) * 2017-11-27 2019-05-31 アズビル株式会社 ポインタ装置
CN111103875A (zh) * 2018-10-26 2020-05-05 科沃斯机器人股份有限公司 避让的方法、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6017001670; 湯本 貢司: '大規模仮想環境における共同注意を支援する視覚化手法の実装' 電子情報通信学会技術研究報告 Vol.108 No.379 MVE2008-108 (2009-01), 20090108, P.63-68, 社団法人電子情報通信学会 *
JPN6017001671; 清川 清: 'バーチャルリアリティによる遠隔協同作業支援' ヒューマンインタフェース学会誌 Vol.11 No.1 Vol.11 No.1, 20090225, P.9-14, 特定非営利活動法人ヒューマンインタフェース学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103265A (ja) * 2014-10-23 2016-06-02 株式会社東芝 対象の3次元モデルを生成する方法とシステム
WO2019102822A1 (ja) * 2017-11-27 2019-05-31 アズビル株式会社 ポインタ装置
CN109348122A (zh) * 2018-10-23 2019-02-15 深圳市盛世智能装备有限公司 用于摄像画图机的图像处理方法、系统、设备和存储介质
CN111103875A (zh) * 2018-10-26 2020-05-05 科沃斯机器人股份有限公司 避让的方法、设备及存储介质

Similar Documents

Publication Publication Date Title
JP6551184B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5791976B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6264834B2 (ja) ガイド方法、情報処理装置およびガイドプログラム
JP6299234B2 (ja) 表示制御方法、情報処理装置、および表示制御プログラム
Novak-Marcincin et al. Augmented reality aided manufacturing
Chen et al. A virtual-physical collision detection interface for AR-based interactive teaching of robot
JP2008532149A (ja) Arオブジェクトとの光学的な重なり合いを判定する方法および装置
JP5708196B2 (ja) 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム
JP2004209641A (ja) 工業ロボットをプログラミングするための方法およびシステム
JP2018008347A (ja) ロボットシステムおよび動作領域表示方法
JP2010042466A (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP2014186588A (ja) シミュレーション装置、プログラム及び画像生成方法
JP6319804B2 (ja) 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP2012190428A (ja) 立体映像視覚効果処理方法
Sreenath et al. Monocular tracking of human hand on a smart phone camera using mediapipe and its application in robotics
Costa et al. Modeling of video projectors in OpenGL for implementing a spatial augmented reality teaching system for assembly operations
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
JP2023505322A (ja) ロボットをプログラムするための方法及びシステム
US10445940B2 (en) Modeling interactions between simulated characters and real-world objects for more realistic augmented reality
US8743123B2 (en) Visualization processing method and apparatus with mask surface
US20190197776A1 (en) Vertex optimization method using depth image in workspace modeling and system therefor
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
CN109064563A (zh) 一种3d开发的边缘融合程序中实时控制模型顶点的方法
US20220111518A1 (en) Techniques for robot control based on generated robot simulations

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170223