JP5874326B2 - 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム - Google Patents
衝突検出システム、ロボットシステム、衝突検出方法及びプログラム Download PDFInfo
- Publication number
- JP5874326B2 JP5874326B2 JP2011242083A JP2011242083A JP5874326B2 JP 5874326 B2 JP5874326 B2 JP 5874326B2 JP 2011242083 A JP2011242083 A JP 2011242083A JP 2011242083 A JP2011242083 A JP 2011242083A JP 5874326 B2 JP5874326 B2 JP 5874326B2
- Authority
- JP
- Japan
- Prior art keywords
- collision detection
- target object
- detection target
- viewpoint
- collision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 287
- 238000000034 method Methods 0.000 claims description 334
- 230000008569 process Effects 0.000 claims description 303
- 238000012545 processing Methods 0.000 claims description 121
- 230000008859 change Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
ロボット(マニピュレーター)の動作においては、周辺構造物や周辺機器への衝突や、自己衝突や、他のロボットへの衝突は非常に大きな問題となる。本実施形態の衝突検出手法では、このような衝突をシミュレーションにより事前に検出する。
止まっている。このため、最近のCPUの性能向上は、マルチコア化などの処理の並列度の向上によって実現されている。別の言い方をすれば、並列度を上げることができないアルゴリズムでは、処理性能を向上できなくなっている。
に用いられ、オブジェクトの深度情報を記憶するものである。具体的にはピクセル単位で深度値(Z値)を記憶する。また、深度情報とは、ピクセル毎の深度値に係る情報である。以下、深度バッファーを用いた深度バッファー処理(Zバッファー処理)について説明する。
2.1 構成例
以上のような問題を解決できる本実施形態の衝突検出システムの構成例を図4に示す。なお本実施形態の衝突検出システムの構成は図4の構成には限定されず、その一部の構成要素(例えば操作部、外部I/F部等)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
また本実施形態の衝突検出システムは、具体的には図6に示す構成であってもよい。図6に示したように、衝突検出システムは、視点設定部40と、ピクセル値入力部82と、処理部10と、描画部30と、記憶部50を含む。なお本実施形態の衝突検出システムの構成は図6の構成には限定されず、その一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。例えば、不図示の操作部70、外部I/F部80、情報記憶媒体90等を含んでもよい。
図5に本実施形態の衝突検出システムを含むロボットシステムの例を示す。このロボットシステムは、制御装置300(情報処理装置)とロボット310とを含む。制御装置300はロボット310の制御処理を行う。具体的には、動作シーケンス情報(シナリオ情報)に基づいてロボット310を動作させる制御を行う。ロボット310は、アーム320及びハンド(把持部)330を有する。そして制御装置300からの動作指示にしたがって動作する。例えば、図示しないパレットに載せられたワークを把持したり、移動するなどの動作を行う。また、図示しない撮像装置で取得された撮像画像情報に基づいて、ロボットの姿勢やワークの位置などの情報が検出され、検出された情報が制御装置300に送られる。
次に本実施形態の手法について図面を用いて更に詳細に説明する。
本実施形態の衝突判定手法について図7(A)〜図8(C)を用いて説明する。図7(A)等は説明を簡単にするために平面的な図を用いるが、オブジェクトが立体であってもよいことは言うまでもない。図7(A)において、四角が衝突検出対象オブジェクト(例えばロボット)を表し、X,Y,Zが他のオブジェクト(例えば周辺構造物、周辺機器、他のロボット、作業者等)を表す。本実施形態では、衝突検出対象オブジェクトと他のオブジェクトの衝突を検出するものであり、他のオブジェクト同士の衝突は考えなくてもよい。なお、他のオブジェクトに対して視点を設定し、当該他のオブジェクトを衝突検出対象オブジェクトとして扱うことにより、他のオブジェクト同士の検出も本実施形態の手法により実行可能である。
次に視点の設定手法について図9(A)〜図10(D)を用いて説明する。なお、本実施形態の視点は、上述したように衝突検出対象オブジェクトの内面全てを見渡すように設定されればよく、後述の手法に限定されるものではない。また、図9(A)〜図10(D)では説明を簡単にするために平面的な図を用いるが、オブジェクトが立体であってもよい。
以上の手法により、衝突検出対象オブジェクトと他のオブジェクトの衝突を検出することができる。ただし、本実施形態の処理はこれに限定されず、衝突検出対象オブジェクトの変形処理を含んでもよい。
次に本実施形態の詳細な処理例について図14、図15のフローチャートを用いて説明する。
以上では、描画部30における描画処理は、描画バッファー54に対して描画対象オブジェクトの色値を書き込むことで行われるものとしていたが、これに限定されない。例えば描画ピクセルカウンターを用いてもよい。描画ピクセルカウンターとは、例えば描画指示があった場合に値をインクリメントするようなカウンターであり、オブジェクトの実際の色値等は反映せず、描画指示が行われた回数を記憶するものである。
10 処理部、12 オブジェクト空間設定部、14 衝突判定部、
16 比較処理部、30 描画部、32 色値更新部、
34 描画ピクセルカウンター更新部、40 視点設定部、50 記憶部、
52 オブジェクトデータ記憶部、54 描画バッファー、
55 描画ピクセルカウンター、56 深度バッファー、58 初期画像記憶部、
70 操作部、80 外部I/F部、82 ピクセル値入力部、
90 情報記憶媒体、120 座標値変換部、130 深度値比較部、
140 深度値更新部、150 画像比較部、300 制御装置、310 ロボット、
320 アーム
Claims (17)
- 処理部と、
描画処理を行う描画部と、
衝突検出対象オブジェクトの外殻内面を見る視点を設定する視点設定部と、
を含み、
前記視点設定部は、
前記視点として、前記衝突検出対象オブジェクトの外殻内面上又は前記衝突検出対象オブジェクトの内部に、第1〜第Nの視点を設定し、
前記描画部は、
前記視点設定部で設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記処理部は、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とする衝突検出システム。 - 請求項1において、
前記視点設定部は、
前記第1〜第Nの視点により前記衝突検出対象オブジェクトの全ての外殻内面を見渡せるように、前記第1〜第Nの視点を設定することを特徴とする衝突検出システム。 - 処理部と、
描画処理を行う描画部と、
衝突検出対象オブジェクトの外殻内面を見る視点を設定する視点設定部と、
を含み、
前記処理部は、
前記衝突検出対象オブジェクトの形状を変更する変形処理を行い、
前記視点設定部は、
前記変形処理後の前記衝突検出対象オブジェクトに対して前記視点を設定し、
前記描画部は、
前記視点設定部で設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記処理部は、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とする衝突検出システム。 - 請求項3において、
前記処理部は、
前記変形処理として、前記変形処理後の前記衝突検出対象オブジェクトに、前記変形処理前の前記衝突検出対象オブジェクトを内包させる膨張処理を行い、
前記視点設定部は、
前記膨張処理後の前記衝突検出対象オブジェクトに対して前記視点を設定することを特徴とする衝突検出システム。 - 請求項3において、
前記処理部は、
前記変形処理として、前記変形処理後の前記衝突検出対象オブジェクトを、前記変形処理前の前記衝突検出対象オブジェクトに比べて簡略化された形状に設定する形状簡略化処理を行い、
前記視点設定部は、
前記形状簡略化処理後の前記衝突検出対象オブジェクトに対して前記視点を設定することを特徴とする衝突検出システム。 - 請求項5において、
前記処理部は、
前記衝突検出対象オブジェクトの形状を円柱形状又は角柱形状とする前記形状簡略化処理を行い、
前記視点設定部は、
前記視点として、前記円柱形状又は前記角柱形状の上面に第1の視点を設定し、底面に第2の視点を設定することを特徴とする衝突検出システム。 - 請求項1乃至6のいずれかにおいて、
前記処理部は、
前記第1の描画処理により生成された第1の画像と、前記第2の描画処理により生成された第2の画像との比較処理を行うことで、前記衝突判定を行うことを特徴とする衝突検出システム。 - 請求項1乃至6のいずれかにおいて、
前記処理部は、
前記第1の描画処理での描画ピクセル数情報と、前記第2の描画処理での描画ピクセル数情報との比較処理を行うことで、前記衝突判定を行うことを特徴とする衝突検出システム。 - 請求項8において、
前記描画ピクセル数情報は、描画ピクセルカウンターのカウンター値であり、
前記処理部は、
前記第1の描画処理後の前記描画ピクセルカウンターのカウンター値と、前記第2の描画処理後の前記描画ピクセルカウンターのカウンター値との比較処理を行うことで、前記衝突判定を行うことを特徴とする衝突検出システム。 - 請求項1乃至9のいずれかにおいて、
前記描画部は、
前記第1の描画処理と前記第2の描画処理の各描画処理において、前記衝突検出対象オブジェクト又は前記他のオブジェクトを、前記視点での透視投影で描画することを特徴とする衝突検出システム。 - 請求項1乃至10のいずれかにおいて、
前記深度値を記憶する深度バッファーを含むことを特徴とする衝突検出システム。 - 請求項1乃至11のいずれかにおいて、
前記衝突検出対象オブジェクトは、ロボットをモデル化したオブジェクトであることを特徴とする衝突検出システム。 - 請求項1乃至12のいずれかに記載の衝突検出システムを含むことを特徴とするロボットシステム。
- 衝突検出対象オブジェクトの外殻内面を見る視点として、前記衝突検出対象オブジェクトの外殻内面上又は前記衝突検出対象オブジェクトの内部に、第1〜第Nの視点を設定し、
設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とする衝突検出方法。 - 衝突検出対象オブジェクトの形状を変更する変形処理を行い、
前記変形処理後の前記衝突検出対象オブジェクトの外殻内面を見る視点を設定し、
設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とする衝突検出方法。 - 処理部と、
描画処理を行う描画部と、
衝突検出対象オブジェクトの外殻内面を見る視点を設定する視点設定部として、
コンピューターを機能させ、
前記視点設定部は、
前記視点として、前記衝突検出対象オブジェクトの外殻内面上又は前記衝突検出対象オブジェクトの内部に、第1〜第Nの視点を設定し、
前記描画部は、
前記視点設定部で設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記処理部は、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とするプログラム。 - 処理部と、
描画処理を行う描画部と、
衝突検出対象オブジェクトの外殻内面を見る視点を設定する視点設定部として、
コンピューターを機能させ、
前記処理部は、
前記衝突検出対象オブジェクトの形状を変更する変形処理を行い、
前記視点設定部は、
前記変形処理後の前記衝突検出対象オブジェクトに対して前記視点を設定し、
前記描画部は、
前記視点設定部で設定された前記視点から見たときの前記衝突検出対象オブジェクトを描画する第1の描画処理を行うとともに、前記衝突検出対象オブジェクトの前記外殻内面のうち、前記第1の描画処理により描画された領域に対応する各ピクセルの深度値を生成し、
生成した前記深度値に基づいて、前記衝突検出対象オブジェクト以外の他のオブジェクトを描画する第2の描画処理を行い、
前記処理部は、
前記第1の描画処理と前記第2の描画処理の結果に基づいて、前記衝突検出対象オブジェクトが前記他のオブジェクトと衝突したか否かを判定する衝突判定を行うことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242083A JP5874326B2 (ja) | 2011-11-04 | 2011-11-04 | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242083A JP5874326B2 (ja) | 2011-11-04 | 2011-11-04 | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013097706A JP2013097706A (ja) | 2013-05-20 |
JP5874326B2 true JP5874326B2 (ja) | 2016-03-02 |
Family
ID=48619552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011242083A Expired - Fee Related JP5874326B2 (ja) | 2011-11-04 | 2011-11-04 | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5874326B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101626795B1 (ko) * | 2014-10-22 | 2016-06-02 | 삼인정보시스템(주) | 충돌 검사 방법 및 그 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체 |
JP2021056610A (ja) * | 2019-09-27 | 2021-04-08 | 株式会社デンソーウェーブ | ロボット制御の演算処理用fpga |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5812138A (en) * | 1995-12-19 | 1998-09-22 | Cirrus Logic, Inc. | Method and apparatus for dynamic object indentification after Z-collision |
JP2000015595A (ja) * | 1998-06-29 | 2000-01-18 | Nippon Telegr & Teleph Corp <Ntt> | 物体衝突検出方法およびその装置 |
JP4266121B2 (ja) * | 2003-03-31 | 2009-05-20 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
US7928993B2 (en) * | 2006-07-28 | 2011-04-19 | Intel Corporation | Real-time multi-resolution 3D collision detection using cube-maps |
JP2008242859A (ja) * | 2007-03-27 | 2008-10-09 | Sony Corp | 物体の運動制御装置及び運動制御方法、並びにコンピュータ・プログラム |
-
2011
- 2011-11-04 JP JP2011242083A patent/JP5874326B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013097706A (ja) | 2013-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5708196B2 (ja) | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム | |
JP6309620B2 (ja) | 頂点シェーダのフロント・エンドとしてコンピュート・シェーダを使用すること | |
US8243061B2 (en) | Image processing apparatus and method of controlling operation of same | |
JP5634104B2 (ja) | タイルベースのレンダリング装置および方法 | |
US10032308B2 (en) | Culling objects from a 3-D graphics pipeline using hierarchical Z buffers | |
US7812837B2 (en) | Reduced Z-buffer generating method, hidden surface removal method and occlusion culling method | |
EP2102826B1 (en) | Real-time collision detection using clipping | |
JP5476378B2 (ja) | Gpuベジエ・パスのラスター化 | |
US20170061674A1 (en) | Rendering system and method | |
JP2017062789A (ja) | グラフィックス処理装置、及びテクスチャリングのためのlodを決定する方法 | |
KR20110016938A (ko) | 기하 셰이더를 사용하는 테셀레이션 엔진을 위한 시스템, 방법, 및 컴퓨터 프로그램 제품 | |
KR102811807B1 (ko) | 반사들을 렌더링하는 시스템들 및 방법들 | |
US20170061682A1 (en) | Rendering method and apparatus | |
JP5874326B2 (ja) | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム | |
JP2008305347A (ja) | 干渉判定情報の生成方法及び装置 | |
US10872473B2 (en) | Edge welding of geometries having differing resolutions | |
US9858709B2 (en) | Apparatus and method for processing primitive in three-dimensional (3D) graphics rendering system | |
Crause et al. | A system for real-time deformable terrain | |
JP2009146368A (ja) | 可視衝突検出回路 | |
JP2012243138A (ja) | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム | |
JP5846373B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、および、画像処理システム | |
JP2012226637A (ja) | 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム | |
JP2015127977A (ja) | 衝突検出システム、ロボットシステム及び衝突検出方法 | |
KR101068324B1 (ko) | 구좌표계 렌더링 방법 및 시스템 | |
US20120075288A1 (en) | Apparatus and method for back-face culling using frame coherence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5874326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |