JP7099052B2 - シミュレーション装置、シミュレーション方法およびプログラム - Google Patents
シミュレーション装置、シミュレーション方法およびプログラム Download PDFInfo
- Publication number
- JP7099052B2 JP7099052B2 JP2018102411A JP2018102411A JP7099052B2 JP 7099052 B2 JP7099052 B2 JP 7099052B2 JP 2018102411 A JP2018102411 A JP 2018102411A JP 2018102411 A JP2018102411 A JP 2018102411A JP 7099052 B2 JP7099052 B2 JP 7099052B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- measurement range
- sensors
- range
- effective measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Description
本開示の一例によれば、プログラムは、コンピュータに、計測対象フィールドに対応した仮想空間にセンサを配置するためのセンサの位置および姿勢の指定を受け付けるステップと、仮想空間に配置されたセンサが有する有効計測範囲情報に基づいて、仮想空間内におけるセンサの有効計測範囲を算出するステップと、仮想空間におけるセンサの位置および姿勢の情報を出力するステップとを実行させる。有効計測範囲を算出するステップは、仮想空間に複数のセンサが配置される場合に、複数のセンサの各々の有効計測範囲を算出するステップを含む。出力するステップは、複数のセンサのいずれかの有効計測範囲を、他のセンサの前記有効計測範囲とは異なる態様で表示するステップを含む。
図1は、複数の三次元センサを備えた三次元計測装置の構成例を模式的に示す図である。図1に示すように、三次元計測装置100は、工業製品の生産ラインなどにおいて、ワークWを照明しながら撮影し、得られた撮影画像を用いてワークWの三次元形状を測定する。
図3は、本実施の形態に係るシミュレーション装置200の機能を説明するブロック図である。シミュレーション装置200は、CPU201がメモリ203に格納されているプログラムを実行することにより各種の機能ブロックを実現する。
図4は、三次元センサの有効計測範囲を説明する模式図である。図4に示すように、三次元センサ1の有効計測範囲6は、立体的な範囲であり、6つのパラメータ(Hmin,Hmax,Wmin,Wmax,Dmin,Dmax)によって表現可能である。下記に説明する6つのパラメータは、三次元センサ1が有する有効計測範囲情報に相当する。
図8は、本実施の形態に係るシミュレーション装置200による、センサの位置の設定を説明するための図である。図8に示すように、センサ位置/角度設定部211は、ユーザからの入力(たとえばマウス操作による入力)を受け付ける。センサ位置/角度設定部211は、ユーザからの入力に従って、仮想空間300に三次元センサ1を配置するとともに、三次元センサ1の仮想空間300内での位置、および三次元センサ1の角度を設定する。計測範囲算出部212は、三次元センサ1の有効計測範囲6を算出する。
図12は、本実施の形態に係るシミュレーション装置200の第1の応用例を示した図である。図12に示すように、シミュレーション装置200は、計測対象8のCADデータを取り込み、仮想空間300に三次元センサ1とともに計測対象8を配置することができる。シミュレーション装置200は、三次元センサ1の有効計測範囲6に基づいて、計測対象8における、センサ1の計測可能範囲8Aを算出するとともに、その計測可能範囲8Aを計測対象8に重ねて表示する。
本実施の形態に係るシミュレーション装置200によって、三次元センサの位置および傾きを、ワークの計測に適するように決定することができる。ユーザは、決定された位置および傾きに従って三次元センサの位置関係を調整することができる。
図17は、本実施の形態に係る三次元計測装置の機能ブロック図である。図17に示すように、三次元センサ1は、カメラ3と、プロジェクタ4と、インジケータ5とを含む。形状測定部10は、パタン生成部11と、パタン検出部12と、三次元形状取得部13と、傾斜演算部14と、角度範囲指定部15と、基準領域設定部16とを含む。ディスプレイ60は、形状測定部10に接続され、各種の情報を表示する。
以上説明されるように、本実施の形態は、以下の開示を含む。
計測対象フィールドに対応した仮想空間(300)にセンサ(1,1A,1B,1C)を配置するための前記センサ(1,1A,1B,1C)の位置および姿勢の指定を受け付ける受付部(211)と、
前記センサ(1,1A,1B,1C)が前記仮想空間(300)に配置されると、前記センサ(1,1A,1B,1C)が有する有効計測範囲情報に基づいて、前記仮想空間(300)内における前記センサ(1,1A,1B,1C)の有効計測範囲(6,6A,6B,6C)を算出する計測範囲算出部(212)と、
前記仮想空間(300)における前記センサ(1,1A,1B,1C)の前記位置および前記姿勢の情報を出力する情報出力部(213)とを備え、
前記仮想空間(300)に複数の前記センサ(1A,1B,1C)が配置される場合、前記計測範囲算出部(212)は、前記複数のセンサ(1A,1B,1C)の各々の前記有効計測範囲(6A,6B,6C)を算出し、
前記情報出力部(213)は、前記複数のセンサ(1A,1B,1C)のいずれかの前記有効計測範囲を、他の前記センサの前記有効計測範囲とは異なる態様で表示する、シミュレーション装置(200)。
前記計測範囲算出部(212)は、前記複数のセンサ(1A,1B,1C)の各々の前記有効計測範囲(6,6A,6B,6C)によって形成される合成計測範囲(7)を算出し、
前記情報出力部(213)は、前記合成計測範囲(7)を表示する、構成1に記載のシミュレーション装置(200)。
前記計測範囲算出部(212)は、前記複数のセンサ(1A,1B,1C)のそれぞれの前記有効計測範囲(6A,6B,6C)のうちの互いに重なり合う範囲を前記合成計測範囲(7)として算出する、構成2に記載のシミュレーション装置(200)。
前記計測範囲算出部(212)は、前記複数のセンサ(1A,1B,1C)のうち少なくとも2つの前記有効計測範囲を足し合わせて、前記合成計測範囲(7)を算出する、構成2に記載のシミュレーション装置(200)。
前記受付部(211)は、前記計測対象フィールドにおいて前記センサが測定すべき物体(8)を表現するCADデータを受け付け、
前記計測範囲算出部(212)は、前記センサ(1,1A,1B,1C)が前記物体(8)を計測する際における前記センサ(1,1A,1B,1C)による前記物体(8)の計測可能範囲(8,8A,8B,8C)を算出し、
前記情報出力部(213)は、前記センサ(1,1A,1B,1C)の前記計測可能範囲を表示する、構成1から構成4のいずれか1項に記載のシミュレーション装置(200)。
前記受付部(211)は、さらに、前記計測対象フィールドに前記物体(8)とともに存在する構造物(9)を表現するデータを受け付けて、
前記計測範囲算出部(212)は、前記構造物(9)と前記物体(8)との位置の関係に基づいて、前記センサ(1,1A,1B,1C)の計測可能範囲(6,6A,6B,6C)を算出するとともに、前記物体の計測可能範囲(8,8A,8B,8C)を算出する、構成5に記載のシミュレーション装置(200)。
計測対象フィールドに対応した仮想空間(300)にセンサ(1,1A,1B,1C)を配置するための前記センサ(1,1A,1B,1C)の位置および姿勢の指定をコンピュータ(200)が受け付けるステップと、
前記コンピュータ(200)が、前記仮想空間(300)に配置されたセンサ(1,1A,1B,1C)が有する有効計測範囲情報に基づいて、前記仮想空間(300)内における前記センサ(1,1A,1B,1C)の有効計測範囲(6,6A,6B,6C)を算出するステップと、
前記コンピュータ(200)が、前記仮想空間(300)における前記センサ(1,1A,1B,1C)の前記位置および前記姿勢の情報を出力するステップとを備え、
前記有効計測範囲(6,6A,6B,6C)を算出するステップは、
前記仮想空間(300)に複数の前記センサ(1A,1B,1C)が配置される場合に、前記複数のセンサ(1A,1B,1C)の各々の前記有効計測範囲(6,6A,6B,6C)を算出するステップを含み、
前記出力するステップは、
前記複数のセンサ(1A,1B,1C)のいずれかの前記有効計測範囲(6,6A,6B,6C)を、他の前記センサの前記有効計測範囲(6,6A,6B,6C)とは異なる態様で表示するステップを含む、シミュレーション方法。
コンピュータ(200)に、
計測対象フィールドに対応した仮想空間(300)にセンサ(1,1A,1B,1C)を配置するための前記センサ(1,1A,1B,1C)の位置および姿勢の指定を受け付けるステップと、
前記仮想空間(300)に配置されたセンサ(1,1A,1B,1C)が有する有効計測範囲情報に基づいて、前記仮想空間(300)内における前記センサ(1,1A,1B,1C)の有効計測範囲(6,6A,6B,6C)を算出するステップと、
前記仮想空間(300)における前記センサ(1,1A,1B,1C)の前記位置および前記姿勢の情報を出力するステップとを実行させ、
前記有効計測範囲(6,6A,6B,6C)を算出するステップは、
前記仮想空間(300)に複数の前記センサ(1A,1B,1C)が配置される場合に、前記複数のセンサ(1A,1B,1C)の各々の前記有効計測範囲(6,6A,6B,6C)を算出するステップを含み、
前記出力するステップは、
前記複数のセンサ(1A,1B,1C)のいずれかの前記有効計測範囲(6,6A,6B,6C)を、他の前記センサの前記有効計測範囲(6,6A,6B,6C)とは異なる態様で表示するステップを含む、プログラム。
Claims (7)
- 計測対象フィールドに対応した仮想空間にセンサを配置するための前記センサの位置および姿勢の指定を受け付ける受付部と、
前記センサが前記仮想空間に配置されると、前記センサが有する有効計測範囲情報に基づいて、前記仮想空間内における前記センサの有効計測範囲を算出する計測範囲算出部と、
前記仮想空間における前記センサの前記位置および前記姿勢の情報を出力する情報出力部とを備え、
前記仮想空間に複数の前記センサが配置される場合、前記計測範囲算出部は、前記複数のセンサの各々の前記有効計測範囲を算出し、
前記情報出力部は、前記複数のセンサのいずれかの前記有効計測範囲を、他の前記センサの前記有効計測範囲とは異なる態様で表示し、
前記受付部は、前記計測対象フィールドにおいて前記センサが測定すべき物体を表現するCADデータを受け付け、
前記計測範囲算出部は、前記センサが前記物体を計測する際における前記センサによる前記物体の計測可能範囲を算出し、
前記情報出力部は、前記センサの前記計測可能範囲を表示する、シミュレーション装置。 - 前記計測範囲算出部は、前記複数のセンサの各々の前記有効計測範囲によって形成される合成計測範囲を算出し、
前記情報出力部は、前記合成計測範囲を表示する、請求項1に記載のシミュレーション装置。 - 前記計測範囲算出部は、前記複数のセンサのそれぞれの前記有効計測範囲のうちの互いに重なり合う範囲を前記合成計測範囲として算出する、請求項2に記載のシミュレーション装置。
- 前記計測範囲算出部は、前記複数のセンサのうち少なくとも2つの前記有効計測範囲を足し合わせて、前記合成計測範囲を算出する、請求項2に記載のシミュレーション装置。
- 前記受付部は、さらに、前記計測対象フィールドに前記物体とともに存在する構造物を表現するデータを受け付けて、
前記計測範囲算出部は、前記構造物と前記物体との位置の関係に基づいて、前記センサの計測可能範囲を算出するとともに、前記物体の計測可能範囲を算出する、請求項1から請求項4のいずれか1項に記載のシミュレーション装置。 - 計測対象フィールドに対応した仮想空間にセンサを配置するための前記センサの位置および姿勢の指定をコンピュータが受け付けるステップと、
前記コンピュータが、前記仮想空間に配置されたセンサが有する有効計測範囲情報に基づいて、前記仮想空間内における前記センサの有効計測範囲を算出するステップと、
前記コンピュータが、前記仮想空間における前記センサの前記位置および前記姿勢の情報を出力するステップとを備え、
前記有効計測範囲を算出するステップは、
前記仮想空間に複数の前記センサが配置される場合に、前記複数のセンサの各々の前記有効計測範囲を算出するステップを含み、
前記出力するステップは、
前記複数のセンサのいずれかの前記有効計測範囲を、他の前記センサの前記有効計測範囲とは異なる態様で表示するステップを含み、
前記受け付けるステップは、前記計測対象フィールドにおいて前記センサが測定すべき物体を表現するCADデータを受け付けるステップを含み、
前記有効計測範囲を算出するステップは、前記センサが前記物体を計測する際における前記センサによる前記物体の計測可能範囲を算出するステップを含み、
前記情報を出力するステップは、前記センサの前記計測可能範囲を表示するステップを含む、シミュレーション方法。 - コンピュータに、
計測対象フィールドに対応した仮想空間にセンサを配置するための前記センサの位置および姿勢の指定を受け付けるステップと、
前記仮想空間に配置されたセンサが有する有効計測範囲情報に基づいて、前記仮想空間内における前記センサの有効計測範囲を算出するステップと、
前記仮想空間における前記センサの前記位置および前記姿勢の情報を出力するステップとを実行させ、
前記有効計測範囲を算出するステップは、
前記仮想空間に複数の前記センサが配置される場合に、前記複数のセンサの各々の前記有効計測範囲を算出するステップを含み、
前記出力するステップは、
前記複数のセンサのいずれかの前記有効計測範囲を、他の前記センサの前記有効計測範囲とは異なる態様で表示するステップを含み、
前記受け付けるステップは、前記計測対象フィールドにおいて前記センサが測定すべき物体を表現するCADデータを受け付けるステップを含み、
前記有効計測範囲を算出するステップは、前記センサが前記物体を計測する際における前記センサによる前記物体の計測可能範囲を算出するステップを含み、
前記情報を出力するステップは、前記センサの前記計測可能範囲を表示するステップを含む、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102411A JP7099052B2 (ja) | 2018-05-29 | 2018-05-29 | シミュレーション装置、シミュレーション方法およびプログラム |
PCT/JP2019/017723 WO2019230285A1 (ja) | 2018-05-29 | 2019-04-25 | シミュレーション装置、シミュレーション方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102411A JP7099052B2 (ja) | 2018-05-29 | 2018-05-29 | シミュレーション装置、シミュレーション方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019207153A JP2019207153A (ja) | 2019-12-05 |
JP7099052B2 true JP7099052B2 (ja) | 2022-07-12 |
Family
ID=68697292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018102411A Active JP7099052B2 (ja) | 2018-05-29 | 2018-05-29 | シミュレーション装置、シミュレーション方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7099052B2 (ja) |
WO (1) | WO2019230285A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233971A (ja) | 2006-03-03 | 2007-09-13 | Canon Inc | 画像合成方法及び装置 |
JP2008309671A (ja) | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
JP2013217873A (ja) | 2012-04-12 | 2013-10-24 | Hitachi Information & Telecommunication Engineering Ltd | シミュレータ |
-
2018
- 2018-05-29 JP JP2018102411A patent/JP7099052B2/ja active Active
-
2019
- 2019-04-25 WO PCT/JP2019/017723 patent/WO2019230285A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233971A (ja) | 2006-03-03 | 2007-09-13 | Canon Inc | 画像合成方法及び装置 |
JP2008309671A (ja) | 2007-06-15 | 2008-12-25 | Ihi Corp | 物体認識方法および装置 |
JP2013217873A (ja) | 2012-04-12 | 2013-10-24 | Hitachi Information & Telecommunication Engineering Ltd | シミュレータ |
Also Published As
Publication number | Publication date |
---|---|
WO2019230285A1 (ja) | 2019-12-05 |
JP2019207153A (ja) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10401143B2 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
US6125197A (en) | Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects | |
KR101601331B1 (ko) | 물체의 모양을 삼차원 측정하기 위한 시스템 및 방법 | |
CN104335005B (zh) | 3d扫描以及定位系统 | |
US9972120B2 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
US6195455B1 (en) | Imaging device orientation information through analysis of test images | |
JP2013539147A5 (ja) | ||
JP2006099188A (ja) | 情報処理方法および装置 | |
JP2004127239A (ja) | 較正物体を用いて複数のカメラを較正するための方法およびシステム | |
KR20010053347A (ko) | 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치 | |
JPWO2011070927A1 (ja) | 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム | |
WO2010004466A1 (en) | Three dimensional mesh modeling | |
WO2020217878A1 (ja) | 対象物の位置姿勢を検出する装置、方法およびプログラム | |
CN106767526A (zh) | 一种基于激光mems振镜投影的彩色多线激光三维测量方法 | |
WO2016040271A1 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
JP4977436B2 (ja) | 光源位置推定装置 | |
WO2019230284A1 (ja) | 三次元計測装置、三次元計測装置の位置表示方法およびプログラム | |
JP2021507209A (ja) | コンピュータ生成された参照物体を有するマシンビジョンシステム | |
JP7099052B2 (ja) | シミュレーション装置、シミュレーション方法およびプログラム | |
JP3696335B2 (ja) | 複数枚の画像の各計測点の対応づけ方法 | |
KR101438514B1 (ko) | 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법 | |
Karan | Accuracy improvements of consumer-grade 3D sensors for robotic applications | |
JP2003042730A (ja) | 表面形状測定装置、及びその方法、並びに表面状態図化装置 | |
JP3052926B2 (ja) | 三次元座標計測装置 | |
Kong et al. | A Dual-SLS for Efficient 3D Scanning of Dynamic Objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7099052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |