JP2021076531A - Three-dimensional measuring device and three-dimensional measuring method - Google Patents
Three-dimensional measuring device and three-dimensional measuring method Download PDFInfo
- Publication number
- JP2021076531A JP2021076531A JP2019204927A JP2019204927A JP2021076531A JP 2021076531 A JP2021076531 A JP 2021076531A JP 2019204927 A JP2019204927 A JP 2019204927A JP 2019204927 A JP2019204927 A JP 2019204927A JP 2021076531 A JP2021076531 A JP 2021076531A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- image data
- dimensional
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 17
- 238000003384 imaging method Methods 0.000 claims abstract description 87
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 238000000691 measurement method Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 25
- 230000003287 optical effect Effects 0.000 description 9
- 230000010363 phase shift Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本開示は、3次元計測装置及び3次元計測方法に関する。 The present disclosure relates to a three-dimensional measuring device and a three-dimensional measuring method.
特許文献1に開示されているように、複数の方向から物体にパターン光を照射して、物体の3次元形状を計測する技術が知られている。
As disclosed in
物体は、撮像装置で撮像される。撮像装置は、パターン光を照射する照射装置とともにヘッドに配置され、物体上を走査しながら物体を撮像する。そのため、撮像装置が物体の全体を撮像するまでに時間が掛かってしまう可能性がある。 The object is imaged by the imaging device. The image pickup device is arranged on the head together with the irradiation device that irradiates the pattern light, and images the object while scanning on the object. Therefore, it may take time for the image pickup apparatus to take an image of the entire object.
本開示は、物体の3次元形状の情報を得るまでの時間を短縮することを目的とする。 An object of the present disclosure is to shorten the time required to obtain information on the three-dimensional shape of an object.
本開示に従えば、物体に対してパターン光を照射する投影装置と、前記パターン光が照射された前記物体の全領域を撮像するように配置され、それぞれが前記物体の部分的な領域を撮像する複数の撮像装置と、複数の前記撮像装置のそれぞれから前記物体の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された複数の前記物体の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定する制御装置と、を備える、3次元計測装置が提供される。 According to the present disclosure, a projection device that irradiates an object with pattern light and an object that is arranged so as to image the entire area of the object irradiated with the pattern light, each of which images a partial area of the object. The image data of the partial region of the object is acquired from each of the plurality of imaging devices and the plurality of the imaging devices, and the three-dimensional shape of the partial region of the object corresponding to the plurality of the image data is obtained. Provided is a three-dimensional measuring device including a control device that calculates and synthesizes the three-dimensional shapes of a plurality of calculated partial regions of the object to specify the overall three-dimensional shape of the object. ..
本開示によれば、物体の3次元形状の情報を得るまでの時間を短縮することを目的とする。 According to the present disclosure, it is an object of the present invention to shorten the time required to obtain information on the three-dimensional shape of an object.
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings, but the present disclosure is not limited thereto. The components of the embodiments described below can be combined as appropriate. In addition, some components may not be used.
以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。所定面のX軸と平行な方向をX軸方向とし、X軸と直交する所定面のY軸と平行な方向をY軸方向とし、所定面と直交するZ軸と平行な方向をZ軸方向とする。また、X軸を中心とする回転又は傾斜方向をθX方向とし、Y軸を中心とする回転又は傾斜方向をθY方向とし、Z軸を中心とする回転又は傾斜方向をθZ方向とする。XY平面は所定面である。 In the following description, the XYZ Cartesian coordinate system is set, and the positional relationship of each part will be described with reference to the XYZ Cartesian coordinate system. The direction parallel to the X-axis of the predetermined surface is the X-axis direction, the direction parallel to the Y-axis of the predetermined surface orthogonal to the X-axis is the Y-axis direction, and the direction parallel to the Z-axis orthogonal to the predetermined surface is the Z-axis direction. And. Further, the rotation or tilt direction centered on the X axis is defined as the θX direction, the rotation or tilt direction centered on the Y axis is defined as the θY direction, and the rotation or tilt direction centered on the Z axis is defined as the θZ direction. The XY plane is a predetermined plane.
[第1実施形態]
<3次元計測装置>
図1を用いて、第1実施形態について説明する。図1は、第1実施形態に係る3次元計測装置の一例を示す模式図である。
[First Embodiment]
<3D measuring device>
The first embodiment will be described with reference to FIG. FIG. 1 is a schematic view showing an example of a three-dimensional measuring device according to the first embodiment.
図1に示すように、第1実施形態に係る3次元計測装置1は、検査対象物である物体Sに対してパターン光PLを照射する複数の投影装置3と、パターン光PLが照射された物体Sを撮像し、撮像範囲Aにおける物体Sの部分的な画像データを取得する複数の撮像装置4と、撮像装置4により取得された物体Sの画像データに基づいて物体Sの3次元形状を算出する制御装置5とを備える。複数の撮像装置4は、物体Sの+Z方向側において、支持部材2により支持されている。第1実施形態において、物体Sは、例えば、電子部品E1、電子部品E2、および電子部品E3などが搭載された実装基板である。この場合、3次元計測装置1は、電子部品E1〜E3などが搭載された実装基板の表面の3次元形状を計測する。なお、本実施形態において、物体Sは、実装基板に限定されない。
As shown in FIG. 1, the three-
図2と、図3とを用いて、投影装置3および撮像装置4の構成について説明する。図2は、投影装置3の構成の一例を示す模式図である。図3は、撮像装置4の構成の一例を示す模式図である。
The configurations of the
投影装置3は、光を発生する光源31と、光源31から射出された光を光変調してパターン光PLを生成する光変調素子32と、光変調素子32で生成されたパターン光PLを物体Sに投影する投影光学系33とを有する。
The
光変調素子32は、デジタルミラーデバイス(Digital Mirror Device:DMD)を含む。なお、光変調素子32は、透過型の液晶パネルを含んでもよいし、反射型の液晶パネルを含んでもよい。光変調素子32は、制御装置5から出力されるパターンデータに基づいてパターン光PLを生成する。投影装置3は、パターンデータに基づいてパターン化されたパターン光PLを物体Sに照射する。
The
撮像装置4は、物体Sで反射したパターン光PLを結像する結像光学系41と、結像光学系41を介して物体Sの画像データを取得する撮像素子42とを有する。撮像素子42は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)又はCCDイメージセンサ(Charge Coupled Device Image Sensor)を含む固体撮像素子である。撮像素子42は、入射面41Sを介して入射した外部からの光を受光する。
The
撮像装置4は、比較的安価なカメラおよびレンズで構成することができる。撮像装置4として、例えば、スマートフォンに搭載されるような汎用的なカメラを用いてよい。撮像装置4のレンズとして、汎用的な非テレセントリックなレンズを用いてよい。
The
図4を用いて、3次元計測装置1の投影装置3および撮像装置4の配置について説明する。図4は、3次元計測装置1の投影装置3および撮像装置4の配置の一例を示す模式図である。
The arrangement of the
投影装置3の位置は、固定される。投影装置3は、物体Sの+Z方向側に配置される。投影装置3は、物体Sの表面の全領域にパターン光PLを照射できる位置に配置される。投影装置3は、例えば、矩形の物体Sの4辺のそれぞれに対向する位置に1台ずつの計4台が配置される。投影装置3は、物体Sの表面の全領域にパターン光PLを配置できるのであれば、配置する場所や、配置する数に特に制限はない。例えば、投影装置3は、物体Sと対向する位置に配置されてもよい。投影装置3は、物体Sの表面の全領域にパターン光PLを配置できるのであれば、1台であってもよい。
The position of the
複数の撮像装置4のそれぞれの位置は、固定される。複数の撮像装置4は、物体Sの+Z方向側に配置される。複数の撮像装置4は、XY平面上に2次元的に配置される。撮像装置4は、例えば、XY平面上でマトリックス状に配置される。この場合、撮像装置4は、例えば、X方向にN台配置され、Y方向にM台配置される。NとMは、数〜数十の整数であるが、これに限定されない。NとMは同じでもよいし、異なっていてもよい。複数の撮像装置4の結像光学系41の入射面41Sは、物体Sと対向する。複数の撮像装置4の結像光学系41の入射面41Sは、物体Sに対して傾いていてもよい。複数の撮像装置4の結像光学系41の入射面41Sの物体Sに対する角度は、それぞれ、同じでもよいし、異なっていてもよい。各撮像装置4の結像光学系41の入射面41Sと、物体Sの表面との間の距離は、それぞれ同じであってもよいし、異なっていてもよい。なお、複数の撮像装置4の配置方法はこれらに限定されず、物体Sの表面の全領域を撮影できるように物体Sの+Z方向側に配置されていればよい。
The positions of the plurality of
複数の撮像装置4は、それぞれ、例えば物体Sがベルトコンベアなどで運ばれ、各撮像装置4の−Z方向側に位置した物体Sを撮像する。複数の撮像装置4は、それぞれ、例えば作業者によって各撮像装置4の−Z方向側に配置された物体Sを撮像する。
Each of the plurality of
図5を用いて、物体Sにおける撮像装置4の撮像範囲について説明する。図5は撮像装置の撮像範囲を説明するための図である。
The image pickup range of the
図5では、撮像装置4は、物体Sに対向してマトリックス状にN×M台配置されている場合の、各撮像装置4の撮像範囲を示している。撮像範囲A11は1行1列目の撮像装置4の撮像範囲であり、撮像範囲ANMはN行M列目の撮像装置4の撮像範囲である。図5に示すように、3次元計測装置1は、複数の撮像装置4を用いることで、物体Sの表面を隙間なく撮像する。隣接する撮像装置4間の撮像範囲は、一部が重複してもよい。例えば、撮像範囲A11は、撮像範囲A12と、撮像範囲A21と、撮像範囲A22と、一部が重複してもよい。
FIG. 5 shows the imaging range of each
制御装置5は、コンピュータシステムを含み、投影装置3及び撮像装置4を制御する。制御装置5は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置と、ROM(Read Only Memory)又はRAM(Random Access Memory)のようなメモリ及びストレージを含む記憶装置とを有する。演算処理装置は、記憶装置に記憶されているコンピュータプログラムに従って演算処理を実施する。また、制御装置5は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
The
3次元計測装置1は、パターン投影法に基づいて、物体Sの3次元形状を計測する。投影装置3は、パターン光PLとして、例えば、正弦波状の明度分布の縞パターン光を位相シフトさせながら物体Sに照射する。投影装置3は、パターン光PLをダイレクトに物体Sに照射する。また、投影装置3は、空間コード法に基づいて、空間コードパターンの一種であるグレイコードパターンを物体Sに投影してもよい。
The three-
撮像装置4は、パターン光PLが照射された物体Sの画像データを取得する。具体的には、撮像装置4は、自身の撮像範囲に対応する範囲の物体Sの部分的な画像データを取得する。
The
<制御装置>
図6を用いて、第1実施形態に係る制御装置5の構成の一例について説明する。図6は、第1実施形態に係る制御装置5の構成の一例を示す機能ブロック図である。
<Control device>
An example of the configuration of the
図6に示すように、制御装置5は、入出力部51と、パターン生成部52と、画像データ取得部53と、相対位相値算出部54と、縞次数算出部55と、絶対位相値算出部56と、3次元形状算出部57と、3次元形状特定部58とを備える。本実施形態において、制御装置5は、複数の撮像装置4のそれぞれから物体Sの部分的な領域の画像データを取得する。制御装置5は、複数の画像データに対応する物体Sの部分的な領域の3次元形状を算出する。制御装置5は、算出された複数の物体Sの部分的な領域の3次元形状を合成して物体Sの全体的な形状を特定する。
As shown in FIG. 6, the
パターン生成部52は、パターンデータを生成する。パターン生成部52で生成されたパターンデータは、入出力部51を介して光変調素子32に出力される。光変調素子32は、パターン生成部52で生成されたパターンデータに基づいて、パターン光を生成する。本実施形態において、パターン生成部52は、パターンデータとして、縞パターンデータを生成する。パターン生成部52は、パターンデータとして、グレイコードパターンデータを生成してもよい。光変調素子32は、パターン生成部52で生成された縞パターンデータに基づいて、縞パターン光を生成する。光変調素子32は、パターン生成部52で生成されたグレイコードパターンデータに基づいて、グレイコードパターン光を生成する。
The
画像データ取得部53は、入出力部51を介して、各撮像装置4の撮像素子42から画像データを取得する。画像データ取得部53は、パターン光が照射された物体Sの画像データを取得する。具体的には、画像データ取得部53は、各撮像装置4の撮像素子42からそれぞれの撮像範囲に対応する物体Sの部分的な画像データを複数取得する。
The image
相対位相値算出部54は、複数の画像データMの輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する。相対位相値算出部54は、位相シフトされた縞パターンPBのそれぞれが投影された物体Sの画像を示す複数の画像データMの同一の点の輝度に基づいて、その点に対応する画像データMの画素pの相対位相値θpを算出する。相対位相値算出部54は、画像データMの複数の点それぞれの輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する。相対位相値算出部54は、各撮像装置4の撮像素子42から取得された画像データについて、相対位相値を算出する。
The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of the plurality of image data M. The relative phase value calculation unit 54 is based on the brightness of the same point of the plurality of image data M indicating the image of the object S on which each of the phase-shifted fringe patterns PB is projected, and the image data M corresponding to that point. Calculate the relative phase value θp of the pixel p of. The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of each of the plurality of points of the image data M. The relative phase value calculation unit 54 calculates the relative phase value of the image data acquired from the
縞次数算出部55は、複数の画像データMに基づいて、画像データMの複数の画素pそれぞれの縞パターンPBの縞次数nを算出する。縞次数nとは、物体Sに1度に投影される縞パターンPBの複数の縞のうち、特定の縞を基準として付される複数の縞それぞれの番号である。換言すれば、縞次数nとは、物体Sに1度に投影される縞パターンPBの複数の縞のうち、基準の縞から数えてn番目の縞であることを示す値である。縞次数算出部55は、各撮像装置4の撮像素子42から取得された画像データについて、縞次数を算出する。
The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern PB of each of the plurality of pixels p of the image data M based on the plurality of image data M. The fringe order n is a number of each of the plurality of fringes assigned with a specific fringe as a reference among the plurality of fringes of the fringe pattern PB projected on the object S at one time. In other words, the fringe order n is a value indicating that it is the nth fringe counted from the reference fringe among the plurality of fringes of the fringe pattern PB projected on the object S at one time. The fringe order calculation unit 55 calculates the fringe order for the image data acquired from the
絶対位相値算出部56は、相対位相値θと縞次数nとに基づいて、画像データMの複数の画素pそれぞれの絶対位相値θaを算出する。絶対位相値算出部56は、各撮像装置4の撮像素子42から取得された画像データについて、絶対位相値を算出する。
The absolute phase value calculation unit 56 calculates the absolute phase value θa of each of the plurality of pixels p of the image data M based on the relative phase value θ and the fringe order n. The absolute phase value calculation unit 56 calculates the absolute phase value of the image data acquired from the
3次元形状算出部57は、画像データMの複数の画素pそれぞれの絶対位相値θaに基づいて、画像データMの複数の画素pそれぞれに対応する物体Sの複数の点それぞれの高さデータを算出して、物体Sの部分的な3次元形状を算出する。3次元形状算出部57は、各撮像装置4の撮像素子42から取得された画像データについて、物体Sの部分的な3次元形状を算出する。
The three-dimensional
3次元形状特定部58は、物体Sの部分的な3次元形状に基づいて、物体Sの全体的な3次元形状を特定する。3次元形状特定部58は、物体Sの部分的な3次元形状の算出結果を合成することで、物体Sの全体的な3次元形状を算出する。
The three-dimensional
<3次元計測方法>
次に、図7を用いて、第1実施形態に係る3次元計測方法について説明する。図7は、第1実施形態に係る3次元計測方法の一例を示すフローチャートである。
<3D measurement method>
Next, the three-dimensional measurement method according to the first embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of the three-dimensional measurement method according to the first embodiment.
パターン生成部52は、縞パターンデータを生成する。縞パターンデータは、投影装置3の光変調素子32に出力される。投影装置3は、パターン光を位相シフトさせながら物体Sに照射する(ステップS10)。撮像装置4は、パターン光が照射された物体Sの部分的な画像データを複数取得する(ステップS11)。
The
図8は、第1実施形態に係る縞パターンPBの一例を示す図である。図8に示すように、縞パターンPBは、位相シフト量が0[°]である縞パターンPB1と、位相シフト量が90[°]である縞パターンPB2と、位相シフト量が180[°]である縞パターンPB3と、位相シフト量が270[°]である縞パターンPB4とを含む。投影装置3は、縞パターンPB1、縞パターンPB2、縞パターンPB2、及び縞パターンPB4のそれぞれを物体Sに順次投影する。
FIG. 8 is a diagram showing an example of the striped pattern PB according to the first embodiment. As shown in FIG. 8, the fringe pattern PB includes a fringe pattern PB1 having a phase shift amount of 0 [°], a fringe pattern PB2 having a phase shift amount of 90 [°], and a phase shift amount of 180 [°]. The striped pattern PB3 is and the striped pattern PB4 having a phase shift amount of 270 [°] is included. The
図9は、本実施形態に係る縞パターンPBが投影された物体Sの部分的な画像データMの一例を示す図である。図9に示すように、画像データMは、縞パターンPB1が投影された物体Sの画像データM1、縞パターンPB2が投影された物体Sの画像データM2、縞パターンPB3が投影された物体Sの画像データM3、及び縞パターンPB4が投影された物体Sの画像データM4を含む。画像データ取得部53は、複数の画像データM(M1,M2,M3,M4)を取得する。
FIG. 9 is a diagram showing an example of partial image data M of the object S on which the striped pattern PB according to the present embodiment is projected. As shown in FIG. 9, the image data M is the image data M1 of the object S on which the striped pattern PB1 is projected, the image data M2 of the object S on which the striped pattern PB2 is projected, and the object S on which the striped pattern PB3 is projected. The image data M3 and the image data M4 of the object S on which the striped pattern PB4 is projected are included. The image
図10は、本実施形態に係る画像データM1の画素p(x,y)の輝度a1、画像データM2の画素p(x,y)の輝度a2、画像データM3の画素p(x,y)の輝度a3、及び画像データM4の画素p(x,y)の輝度a4の一例を示す図である。4つの画像データM(M1,M2,M3,M4)において、画素p(x,y)は、物体Sの同一の点からの光が入射した画素である。図10に示すように、相対的な輝度は、縞パターンPBの位相シフト量だけ変化する。 Figure 10 is a luminance a 1, a pixel p of the image data M2 (x, y) of the luminance a 2, a pixel p (x of the image data M3 of pixel p of the image data M1 of the present embodiment (x, y), luminance a 3 of y), and is a diagram showing an example of luminance a 4 pixel p of image data M4 (x, y). In the four image data M (M1, M2, M3, M4), the pixel p (x, y) is a pixel in which light from the same point of the object S is incident. As shown in FIG. 10, the relative brightness changes by the amount of phase shift of the fringe pattern PB.
相対位相値算出部54は、複数の画像データM(M1,M2,M3,M4)の輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する(ステップS12)。 The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of the plurality of image data M (M1, M2, M3, M4) (step S12).
縞パターンPBが投影された物体Sの複数の点それぞれの相対位相値θpと、画像データMの複数の画素pそれぞれの相対位相値θpとは、1対1で対応する。相対位相値算出部54は、画像データMの複数の画素pそれぞれの相対位相値θpを算出して、縞パターンPBが投影された物体Sの複数の点それぞれの相対位相値θpを算出する。 The relative phase value θp of each of the plurality of points of the object S on which the fringe pattern PB is projected and the relative phase value θp of each of the plurality of pixels p of the image data M have a one-to-one correspondence. The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M, and calculates the relative phase value θp of each of the plurality of points of the object S on which the fringe pattern PB is projected.
相対位相値算出部54は、(1)式に基づいて、画素p(x,y)の相対位相値θp(x,y)を算出する。 The relative phase value calculation unit 54 calculates the relative phase value θp (x, y) of the pixel p (x, y) based on the equation (1).
相対位相値算出部54は、全ての画素pについて相対位相値θpを算出する。全ての画素pについての相対位相値θpが算出されることにより、縞パターンPBが投影された物体Sの全ての点についての相対位相値θpが算出される。 The relative phase value calculation unit 54 calculates the relative phase value θp for all the pixels p. By calculating the relative phase value θp for all the pixels p, the relative phase value θp for all the points of the object S on which the fringe pattern PB is projected is calculated.
図11は、本実施形態に係る相対位相値θp及び絶対位相値θaの一例を模式的に示す図である。図11に示すように、相対位相値θpは、縞パターンPBの1位相毎に算出される。(1)式は逆正接関数であるため、図11に示すように、各画素pの相対位相値θpは、縞パターンPBの1位相毎の値(−π〜πの間の値)となる。 FIG. 11 is a diagram schematically showing an example of the relative phase value θp and the absolute phase value θa according to the present embodiment. As shown in FIG. 11, the relative phase value θp is calculated for each phase of the fringe pattern PB. Since the equation (1) is an inverse tangent function, as shown in FIG. 11, the relative phase value θp of each pixel p is a value for each phase of the fringe pattern PB (a value between −π and π). ..
相対位相値θpから物体Sの3次元形状を算出するために、物体Sの各点における絶対位相値θaを算出する位相接続が実施される。本実施形態においては、位相接続のために、物体Sにグレイコードパターンを投影する空間コード化法が使用される。本実施形態においては、空間コード化法に基づいて縞パターンPBの縞次数nが算出される。図11に示すように、相対位相値θpと縞次数nとに基づいて、絶対位相値θa(=θp+2nπ)が算出される。 In order to calculate the three-dimensional shape of the object S from the relative phase value θp, a phase connection for calculating the absolute phase value θa at each point of the object S is performed. In this embodiment, a spatial coding method for projecting a Gray code pattern onto an object S is used for phase connection. In the present embodiment, the fringe order n of the fringe pattern PB is calculated based on the spatial coding method. As shown in FIG. 11, the absolute phase value θa (= θp + 2nπ) is calculated based on the relative phase value θp and the fringe order n.
図12は、本実施形態に係るグレイコードパターンPRの一例を示す図である。グレイコードパターンPRは、明暗のコードが所定の周期で反転するパターンである。図12に示すように、グレイコードパターンPRは、縞パターンPBの周期よりも短い周期でコードが変化するグレイコードパターンPR1と、グレイコードパターンPR1の周期とは異なる周期でコードが変化するグレイコードパターンPR2と、グレイコードパターンPR1,PR2の周期とは異なる周期でコードが変化するグレイコードパターンPR3と、グレイコードパターンPR1,PR2,PR3の周期とは異なる周期でコードが変化するグレイコードパターンPR4とを含む。投影装置3は、グレイコードパターンPR1、グレイコードパターンPR2、グレイコードパターンPR3、及びグレイコードパターンPR4のそれぞれを物体Sに順次投影する。
FIG. 12 is a diagram showing an example of the Gray code pattern PR according to the present embodiment. The gray code pattern PR is a pattern in which the light and dark codes are inverted at a predetermined cycle. As shown in FIG. 12, the gray code pattern PR includes a gray code pattern PR1 in which the code changes in a cycle shorter than the cycle of the stripe pattern PB, and a gray code in which the code changes in a cycle different from the cycle of the gray code pattern PR1. The gray code pattern PR3 in which the code changes in a cycle different from the cycle of the pattern PR2 and the gray code patterns PR1 and PR2, and the gray code pattern PR4 in which the code changes in a cycle different from the cycle of the gray code patterns PR1, PR2 and PR3. And include. The
図13は、本実施形態に係るグレイコードパターンPRが投影された物体Sの画像データNの一例を示す図である。画像データNは、グレイコードパターンPR1が投影された物体Sの画像データN1と、グレイコードパターンPR2が投影された物体Sの画像データN2と、グレイコードパターンPR3が投影された物体Sの画像データN3と、グレイコードパターンPR4が投影された物体Sの画像データN4とを含む。画像データ取得部53は、複数の画像データN(N1,N2,N3,N4)を取得する。
FIG. 13 is a diagram showing an example of image data N of the object S on which the Gray code pattern PR according to the present embodiment is projected. The image data N is the image data N1 of the object S on which the gray code pattern PR1 is projected, the image data N2 of the object S on which the gray code pattern PR2 is projected, and the image data of the object S on which the gray code pattern PR3 is projected. Includes N3 and image data N4 of the object S on which the Gray code pattern PR4 is projected. The image
縞次数算出部55は、複数の画像データNに基づいて、画像データMの複数の画素pそれぞれの縞パターンの縞次数nを算出する(ステップS13)。 The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern of each of the plurality of pixels p of the image data M based on the plurality of image data N (step S13).
縞次数算出部55は、空間コーディングの手法を用いて画像データMにおける縞パターンPBの縞次数nを算出する。 The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern PB in the image data M by using the spatial coding method.
図14は、本実施形態に係る縞パターンPBを投影して撮像された画像データMの輝度変化と、グレイコードパターンPRを投影して撮像された画像データNの輝度変化と、複数のグレイコードパターンPRを合成することにより生成されるグレイコードGC(縞次数コード)と、縞次数nとの関係を示す図である。 FIG. 14 shows a change in the brightness of the image data M captured by projecting the stripe pattern PB according to the present embodiment, a change in the brightness of the image data N captured by projecting the gray code pattern PR, and a plurality of Gray codes. It is a figure which shows the relationship between the gray code GC (striped order code) generated by synthesizing a pattern PR, and the fringed order n.
縞次数算出部55は、画像データMの複数の画素のそれぞれについて、複数のグレイコードパターンPRの合成値であるグレイコードGCを生成する。グレイコードGCは、同一の縞次数コードによって構成されるコードである。グレイコードGCは、所定の周期で生成される。本実施形態において、グレイコードGCの周期は、縞パターンPBの周期よりも短い。 The fringe order calculation unit 55 generates a gray code GC which is a composite value of a plurality of gray code patterns PR for each of the plurality of pixels of the image data M. The Gray code GC is a code composed of the same fringe order code. Gray code GC is generated at a predetermined cycle. In the present embodiment, the period of the Gray code GC is shorter than the period of the stripe pattern PB.
縞次数コードは、複数のグレイコードパターンPRが物体Sに投影されたときの明暗コードの組み合わせに基づいて規定される。グレイコードパターンPRは、明暗コードが交互に反転するパターンを含む。本実施形態においては、4つのグレイコードパターンPR(PR1,PR2,PR3,PR4)が物体Sのある点に投影されたとき、それら4つのグレイコードパターンPRの明コードと暗コードとの組み合わせにより、2進数に基づいて縞次数コードが規定される。図10に示す例では、縞次数コードとして、「0x0000」、「0x0001」、「0x0010」、「0x0011」、「0x0100」、「0x0101」、「0x0110」、「0x0111」が規定される。 The fringe order code is defined based on the combination of light and dark codes when a plurality of Gray code patterns PR are projected onto the object S. The gray code pattern PR includes a pattern in which light and dark codes are alternately inverted. In the present embodiment, when four Gray code patterns PR (PR1, PR2, PR3, PR4) are projected onto a certain point of the object S, the combination of the bright code and the dark code of the four Gray code patterns PR The stripe order code is defined based on the binary number. In the example shown in FIG. 10, "0x0000", "0x0001", "0x0010", "0x0011", "0x0100", "0x0101", "0x0110", and "0x0111" are defined as the fringe order codes.
本実施形態において、1回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、縞パターンPBの周期Lbよりも短い。2回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、1回目に投影されるグレイコードパターンPRの明暗コードの周期Lrの2倍である。3回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、2回目に投影されるグレイコードパターンPRの明暗コードの周期Lrの2倍である。4回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、3回目に投影されるグレイコードパターンPRの明暗のコードの周期Lrの2倍である。 In the present embodiment, the period Lr of the light / dark code of the gray code pattern PR projected for the first time is shorter than the period Lb of the stripe pattern PB. The period Lr of the light / dark code of the gray code pattern PR projected the second time is twice the period Lr of the light / dark code of the gray code pattern PR projected the first time. The period Lr of the light / dark code of the gray code pattern PR projected the third time is twice the period Lr of the light / dark code of the gray code pattern PR projected the second time. The period Lr of the light / dark code of the gray code pattern PR projected the fourth time is twice the period Lr of the light / dark code of the gray code pattern PR projected the third time.
1つのグレイコードGCは、1つの縞次数コードによって規定される。すなわち、グレイコードGCと縞次数コードとは、1対1で対応する。本実施形態においては、グレイコードGCの周期は、縞パターンPBの周期よりも短い。本実施形態において、グレイコードGCの周期は、縞パターンPBの周期の3/4である。すなわち、縞パターンPBの3周期分の長さとグレイコードGCの4周期分の長さとが等しい。 One Gray code GC is defined by one fringe order code. That is, the Gray code GC and the fringe order code have a one-to-one correspondence. In the present embodiment, the period of the Gray code GC is shorter than the period of the stripe pattern PB. In the present embodiment, the period of the Gray code GC is 3/4 of the period of the stripe pattern PB. That is, the length of the striped pattern PB for 3 cycles is equal to the length of the Gray code GC for 4 cycles.
縞パターンPBの周期をLb、グレイコードパターンの周期をLr、0.5以上1未満の数をT、0以上の整数をi、としたとき、本実施形態においては、(2)式の条件を満足する。 When the period of the fringe pattern PB is Lb, the period of the gray code pattern is Lr, the number of 0.5 or more and less than 1 is T, and the integer of 0 or more is i, the condition of the equation (2) is satisfied in the present embodiment. To be satisfied.
図14に示す例では、数Tは、3/4である。すなわち、グレイコードパターンPR1の周期Lrは、(3/4)×Lbである。グレイコードパターンPR2の周期Lrは、(6/4)×Lbである。グレイコードパターンPR3の周期Lrは、(12/4)×Lbである。グレイコードパターンPR4の周期Lrは、(24/4)×Lbである。 In the example shown in FIG. 14, the number T is 3/4. That is, the period Lr of the Gray code pattern PR1 is (3/4) × Lb. The period Lr of the Gray code pattern PR2 is (6/4) × Lb. The period Lr of the Gray code pattern PR3 is (12/4) × Lb. The period Lr of the Gray code pattern PR4 is (24/4) × Lb.
このように、複数のグレイコードパターンPRの合成値から縞次数コード及び縞次数コードに1対1で対応するグレイコードGCが算出され、縞次数nが算出される。 In this way, the gray code GC corresponding to the fringe order code and the fringe order code on a one-to-one basis is calculated from the composite value of the plurality of gray code patterns PR, and the fringe order n is calculated.
絶対位相値算出部56は、相対位相値θpと縞次数nとに基づいて、画像データMの複数の画素pそれぞれの絶対位相値θaを算出する(ステップS14)。 The absolute phase value calculation unit 56 calculates the absolute phase value θa of each of the plurality of pixels p of the image data M based on the relative phase value θp and the fringe order n (step S14).
3次元形状算出部57は、画像データMの複数の画素pそれぞれの絶対位相値θaに基づいて、物体Sの部分的な3次元形状を算出する(ステップS15)。
The three-dimensional
3次元形状算出部57は、絶対位相値θaに基づいて、三角測量の原理により、画像データMの各画素pにおける高さデータを算出する。画像データMの各画素pにおける高さデータと物体Sの表面の各点における高さデータとは1対1で対応する。物体Sの表面の各点における高さデータは、3次元空間における各点の座標値を示す。3次元形状算出部57は、各点における高さデータに基づいて、物体Sの3次元形状データを算出する。
The three-dimensional
制御装置5は、物体Sを撮像する全ての撮像装置から取得した画像データに基づいて、物体Sの部分的な3次元形状を算出したか否かを判定する(ステップS16)。算出したと判定された場合(ステップS16:Yes)、ステップS17に進む。一方、算出したと判定されない場合(ステップS16:No)、ステップS10に進む。
The
ステップS16でYesと判定された場合、3次元形状特定部58は、3次元形状算出部57によって算出された物体Sの部分的な3次元形状に基づいて、物体Sの全体的な3次元形状を特定する(ステップS17)。3次元形状特定部58は、物体Sの部分的な3次元形状データを物体Sの全領域に渡って合成して、物体Sの全体的な3次元形状データを算出する。
When it is determined Yes in step S16, the three-dimensional
上述のとおり、第1実施形態では、物体Sを撮像する撮像装置4を移動させることなく、物体Sの3次元形状を特定することができる。これにより、3次元計測装置1は、物体Sまたは撮像装置4の走査時間を省略することができるため、物体Sの全体の3次元形状を特定するまでの時間を短縮することができる。
As described above, in the first embodiment, the three-dimensional shape of the object S can be specified without moving the
また、第1実施形態では、物体Sを撮像する撮像装置4を移動させる必要がないので、物体Sを撮像する際のブレを少なくすることができる。これにより、3次元計測装置1は、物体Sの全体の3次元形状をより精度よく特定することができる。
Further, in the first embodiment, since it is not necessary to move the
また、第1実施形態では、撮像装置4を汎用的なカメラで構成することができる。これにより、3次元計測装置1は、物体Sの全体の3次元形状を低コストで特定することができる。
Further, in the first embodiment, the
[第2実施形態]
図15を用いて、第2実施形態について説明する。図15は、第2実施形態に係る3次元計測装置1Aの一例を示す模式図である。
[Second Embodiment]
The second embodiment will be described with reference to FIG. FIG. 15 is a schematic view showing an example of the three-dimensional measuring device 1A according to the second embodiment.
図15に示すように、第2実施形態に係る3次元計測装置1Aは、通常画角の撮像装置4(第1カメラ)に加えて、パターン光PLが照射された物体Sを撮像し、撮像範囲Bにおける物体Sの部分的な画像データを取得する複数の撮像装置4A(第2カメラ)を備える点で、図1に図示の3次元計測装置1と異なっている。撮像装置4Aの撮像範囲Bは、撮像装置4の撮像範囲Aよりも広い。すなわち、撮像装置4Aは、撮像装置4よりも広角な範囲を撮像可能な撮像装置である。
As shown in FIG. 15, the three-dimensional measuring device 1A according to the second embodiment captures and captures an object S irradiated with the pattern light PL in addition to the image pickup device 4 (first camera) having a normal angle of view. It differs from the three-
撮像装置4Aは、例えば、X方向にQ台配置され、Y方向にR台配置される。Qは、撮像装置4のX方向における台数であるNよりも小さい。Rは、撮像装置4のY方向における台数であるMよりも小さい。
The
図16を用いて、物体Sにおける撮像装置4Aの撮像範囲について説明する。図16は、撮像装置4Aの撮像範囲を説明するための図である。
The imaging range of the
図16では、撮像装置4Aが物体Sに対向してマトリックス状にQ×R台配置されている場合の、各撮像装置4Aの撮像範囲を示している。撮像範囲B11は1行1列目の撮像装置4Aの撮像範囲であり、撮像範囲BQRはQ行R列目の撮像装置4Aの撮像範囲である。図16に示すように、3次元計測装置1Aは、複数の撮像装置4を用いることで、物体Sの表面を隙間なく撮像する。撮像装置4Aの撮像範囲B11〜BQRは、撮像装置4の撮像範囲A11〜ANMよりも広い。そのため、3次元計測装置1Aは、3次元計測装置1よりも少ない撮像回数で物体Sの表面を隙間なく撮像することができる。
FIG. 16 shows the imaging range of each
図17を用いて、第2実施形態に係る制御装置5Aの構成について説明する。図17は、第2実施形態に係る制御装置5Aの構成の一例を示す機能ブロック図である。
The configuration of the
図17に示すように、制御装置5Aは、設定部59を備える点で、図6に図示の制御装置5と異なっている。
As shown in FIG. 17, the
設定部59は、物体Sを撮像するための撮像装置を判定する。設定部59は、判定結果に基づいて、物体Sを撮像する撮像装置として、撮像装置4または撮像装置4Aを設定する。
The setting
設定部59は、物体Sを撮像する撮像装置として、物体Sそのものに応じて、撮像装置4または撮像装置4Aを設定する。設定部59は、物体Sを撮像する撮像装置として、ユーザからの指示に基づいて、撮像装置4または撮像装置4Aを設定する。設定部59は、物体Sの形状をより精度よく算出する場合には、物体Sを撮像する撮像装置を撮像装置4に設定する。設定部59は、物体Sの形状をより短時間で算出する場合には、物体Sを撮像する撮像装置を撮像装置4Aに設定する。
The setting
図18を用いて、第2実施形態に係る3次元計測方法について説明する。図18は、第2実施形態に係る3次元計測方法の一例を示すフローチャートである。 The three-dimensional measurement method according to the second embodiment will be described with reference to FIG. FIG. 18 is a flowchart showing an example of the three-dimensional measurement method according to the second embodiment.
まず、制御装置5Aは、物体Sを撮像する撮像装置を広角へ切り替えるか否かを判定する(ステップS20)。広角に切り替えると判定された場合(ステップS20:Yes)、ステップS21に進む。一方、広角に切り替えると判定されなかった場合(ステップS20:No)、ステップS22に進む。
First, the
ステップS20でYesと判定された場合、設定部59は、物体Sを撮像する撮像する撮像装置として広角の撮像装置4Aを設定する(ステップS21)。そして、ステップS23に進む。一方、ステップS20でNoと判定された場合、設定部59は、物体Sを撮像する撮像装置として通常画角の撮像装置4を設定する(ステップS22)。そして、ステップS23に進む。
If it is determined to be Yes in step S20, the setting
ステップS23〜ステップS30の処理は、図7に図示のステップS10〜ステップS17の処理と同一なので、説明を省略する。 Since the processes of steps S23 to S30 are the same as the processes of steps S10 to S17 shown in FIG. 7, the description thereof will be omitted.
上述のとおり、第2実施形態では、3次元形状の検査対象である物体Sに応じて、通常の撮像装置から広角の撮像装置に切り替えることができる。これにより、第2実施形態では、物体Sのおおよその形状を把握したい場合には、撮像装置4Aを用いることで、より短時間で、物体Sのおおよその形状を算出することができる。
As described above, in the second embodiment, it is possible to switch from the normal imaging device to the wide-angle imaging device according to the object S to be inspected in the three-dimensional shape. Thereby, in the second embodiment, when it is desired to grasp the approximate shape of the object S, the approximate shape of the object S can be calculated in a shorter time by using the
[コンピュータシステム]
図19は、各実施形態に係るコンピュータシステム1000を示すブロック図である。上述の制御装置5,5Aは、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。制御装置5,5Aの機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
[Computer system]
FIG. 19 is a block diagram showing a
プログラムは、上述の実施形態に従って、コンピュータシステム1000に、物体Sに対してパターン光を照射することと、パターン光が照射された物体Sの全領域を撮像するように、物体Sの複数の部分的な領域を撮像することと、物体Sの複数の部分的な領域の画像データを取得するとともに、複数の画像データに対応する物体Sの部分的な領域の3次元形状を算出し、算出された物体Sの複数の部分的な領域の3次元形状を合成して物体Sの全体的な3次元形状を特定することと、を実行させることができる。 According to the above-described embodiment, the program irradiates the object S with the pattern light and images the entire area of the object S irradiated with the pattern light. The three-dimensional shape of the partial region of the object S corresponding to the plurality of image data is calculated and calculated, while the image of the specific region and the image data of the plurality of partial regions of the object S are acquired. It is possible to synthesize the three-dimensional shapes of a plurality of partial regions of the object S to specify the overall three-dimensional shape of the object S, and to execute.
1,1A…3次元計測装置、2…支持部材、3…投影装置、31…光源、32…光変調素子、33…投影光学系、4,4A…撮像装置、41…結像光学系、42…撮像素子、5,5A…制御装置、51…入出力部、52…パターン生成部、53…画像データ取得部、54…相対位相値算出部、55…縞次数算出部、56…絶対位相値算出部、57…3次元形状算出部、58…3次元形状特定部、59…設定部 1,1A ... 3D measuring device, 2 ... Support member, 3 ... Projection device, 31 ... Light source, 32 ... Light modulation element, 33 ... Projection optical system, 4,4A ... Imaging device, 41 ... Imaging optical system, 42 ... Imaging element, 5, 5A ... Control device, 51 ... Input / output unit, 52 ... Pattern generation unit, 53 ... Image data acquisition unit, 54 ... Relative phase value calculation unit, 55 ... Stripe order calculation unit, 56 ... Absolute phase value Calculation unit, 57 ... 3D shape calculation unit, 58 ... 3D shape identification unit, 59 ... Setting unit
Claims (6)
前記パターン光が照射された前記物体の全領域を撮像するように配置され、それぞれが前記物体の部分的な領域を撮像する複数の撮像装置と、
複数の前記撮像装置のそれぞれから前記物体の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された複数の前記物体の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定する制御装置と、
を備える、3次元計測装置。 A projection device that irradiates an object with patterned light,
A plurality of imaging devices arranged so as to image the entire area of the object irradiated with the pattern light, each of which images a partial area of the object.
A plurality of calculated images of a partial region of the object are acquired from each of the plurality of imaging devices, and a three-dimensional shape of the partial region of the object corresponding to the plurality of image data is calculated. A control device that synthesizes the three-dimensional shape of a partial region of the object to specify the overall three-dimensional shape of the object.
A three-dimensional measuring device.
請求項1に記載の3次元計測装置。 The plurality of the imaging devices are arranged two-dimensionally so as to face the object.
The three-dimensional measuring device according to claim 1.
請求項2に記載の3次元計測装置。 The plurality of the imaging devices are arranged in a matrix.
The three-dimensional measuring device according to claim 2.
請求項1〜3のいずれか1項に記載の3次元計測装置。 The projection device irradiates the object with fringe pattern light having a sinusoidal brightness distribution while shifting the phase.
The three-dimensional measuring device according to any one of claims 1 to 3.
前記制御装置は、前記物体に応じて前記物体を撮像するために前記第1カメラと前記第2カメラとを設定する、
請求項1〜4のいずれか1項に記載の3次元計測装置。 The plurality of imaging devices include a first camera that images the object at a normal angle of view and a second camera that images the object at a wide angle with respect to the normal angle of view.
The control device sets the first camera and the second camera in order to image the object according to the object.
The three-dimensional measuring device according to any one of claims 1 to 4.
前記パターン光が照射された前記物体の全領域を撮像するように、前記物体の複数の部分的な領域を撮像することと、
前記物体の複数の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された前記物体の複数の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定することと、
を含む、3次元計測方法。 Irradiating an object with patterned light and
Imaging a plurality of partial regions of the object so as to image the entire region of the object irradiated with the pattern light.
The image data of the plurality of partial regions of the object is acquired, and the three-dimensional shape of the partial region of the object corresponding to the plurality of the image data is calculated, and the calculated plurality of partial regions of the object are calculated. To identify the overall 3D shape of the object by synthesizing the 3D shape of the area
Three-dimensional measurement method including.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204927A JP2021076531A (en) | 2019-11-12 | 2019-11-12 | Three-dimensional measuring device and three-dimensional measuring method |
KR1020200151162A KR20210057698A (en) | 2019-11-12 | 2020-11-12 | Three-dimensional measurement device and three-dimensional measurement method |
CN202011259614.3A CN112857259A (en) | 2019-11-12 | 2020-11-12 | 3-dimensional measuring device and 3-dimensional measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204927A JP2021076531A (en) | 2019-11-12 | 2019-11-12 | Three-dimensional measuring device and three-dimensional measuring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021076531A true JP2021076531A (en) | 2021-05-20 |
Family
ID=75898459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019204927A Pending JP2021076531A (en) | 2019-11-12 | 2019-11-12 | Three-dimensional measuring device and three-dimensional measuring method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2021076531A (en) |
KR (1) | KR20210057698A (en) |
CN (1) | CN112857259A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2009042015A (en) * | 2007-08-08 | 2009-02-26 | Ckd Corp | Three-dimensional measuring device and board inspection machine |
JP2011179982A (en) * | 2010-03-01 | 2011-09-15 | Fukuoka Institute Of Technology | Surface inspection apparatus, method of inspecting surface, and surface inspection program |
JP2014206547A (en) * | 2008-01-16 | 2014-10-30 | オルボテック リミテッド | Inspection of substrate using multiple cameras |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003202296A (en) | 2002-01-07 | 2003-07-18 | Canon Inc | Image input device, three-dimensional measuring device and three-dimensional image processing system |
US8878929B2 (en) * | 2009-05-27 | 2014-11-04 | Koh Young Technology Inc. | Three dimensional shape measurement apparatus and method |
JP5818341B2 (en) * | 2010-12-13 | 2015-11-18 | 国立大学法人 和歌山大学 | Shape measuring apparatus and shape measuring method |
JP5709009B2 (en) * | 2011-11-17 | 2015-04-30 | Ckd株式会社 | 3D measuring device |
JP6320051B2 (en) * | 2014-01-17 | 2018-05-09 | キヤノン株式会社 | 3D shape measuring device, 3D shape measuring method |
JP6357949B2 (en) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | Control system, robot system, and control method |
KR101659302B1 (en) * | 2015-04-10 | 2016-09-23 | 주식회사 고영테크놀러지 | Three-dimensional shape measurement apparatus |
JP6823985B2 (en) * | 2016-09-28 | 2021-02-03 | Juki株式会社 | 3D shape measurement method and 3D shape measurement device |
-
2019
- 2019-11-12 JP JP2019204927A patent/JP2021076531A/en active Pending
-
2020
- 2020-11-12 CN CN202011259614.3A patent/CN112857259A/en active Pending
- 2020-11-12 KR KR1020200151162A patent/KR20210057698A/en active Search and Examination
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008014940A (en) * | 2006-06-08 | 2008-01-24 | Fast:Kk | Camera calibration method for camera measurement of planar subject and measuring device applying same |
JP2009042015A (en) * | 2007-08-08 | 2009-02-26 | Ckd Corp | Three-dimensional measuring device and board inspection machine |
JP2014206547A (en) * | 2008-01-16 | 2014-10-30 | オルボテック リミテッド | Inspection of substrate using multiple cameras |
JP2011179982A (en) * | 2010-03-01 | 2011-09-15 | Fukuoka Institute Of Technology | Surface inspection apparatus, method of inspecting surface, and surface inspection program |
Also Published As
Publication number | Publication date |
---|---|
CN112857259A (en) | 2021-05-28 |
KR20210057698A (en) | 2021-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9628779B2 (en) | Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface | |
US9683837B2 (en) | Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface | |
TWI582383B (en) | Three-dimensional measuring device | |
JP6823985B2 (en) | 3D shape measurement method and 3D shape measurement device | |
US8243286B2 (en) | Device and method for the contactless detection of a three-dimensional contour | |
JP5485889B2 (en) | Apparatus and method for performing phase analysis measurement | |
KR20180003528A (en) | Updating calibration of a three-dimensional measurement system | |
US6509559B1 (en) | Binary optical grating and method for generating a moire pattern for 3D imaging | |
JP2006514739A5 (en) | ||
KR101281454B1 (en) | Inspection apparatus and compensating method thereof | |
CN104937367A (en) | Multi-camera sensor for three-dimensional imaging of a circuit board | |
JP2006514739A (en) | Dental laser digitizer system | |
CN110612428B (en) | Three-dimensional measurement method using characteristic quantity and apparatus therefor | |
KR101562467B1 (en) | 3 dimensional measurement device using smart phone | |
JP2008190962A (en) | Three-dimensional measurement apparatus | |
JP5956296B2 (en) | Shape measuring apparatus and shape measuring method | |
KR100982051B1 (en) | moire measurement device using digital micromirror device | |
JP2021076531A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP2006084286A (en) | Three-dimensional measuring method and its measuring device | |
JP2015081894A (en) | Surface shape measurement device and surface shape measurement method | |
KR20130022415A (en) | Inspection apparatus and compensating method thereof | |
JP2008170282A (en) | Shape measuring device | |
JP2010210410A (en) | Three-dimensional shape measuring device | |
JP7509182B2 (en) | Parameter determination method, information processing device, and program | |
JP2005265816A (en) | Non-contact shape measuring method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240312 |