JP2021076531A - Three-dimensional measuring device and three-dimensional measuring method - Google Patents

Three-dimensional measuring device and three-dimensional measuring method Download PDF

Info

Publication number
JP2021076531A
JP2021076531A JP2019204927A JP2019204927A JP2021076531A JP 2021076531 A JP2021076531 A JP 2021076531A JP 2019204927 A JP2019204927 A JP 2019204927A JP 2019204927 A JP2019204927 A JP 2019204927A JP 2021076531 A JP2021076531 A JP 2021076531A
Authority
JP
Japan
Prior art keywords
pattern
image data
dimensional
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019204927A
Other languages
Japanese (ja)
Inventor
大輔 千賀
Daisuke Chiga
大輔 千賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2019204927A priority Critical patent/JP2021076531A/en
Priority to KR1020200151162A priority patent/KR20210057698A/en
Priority to CN202011259614.3A priority patent/CN112857259A/en
Publication of JP2021076531A publication Critical patent/JP2021076531A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To shorten the time needed until the three-dimensional shape information of an object is obtained.SOLUTION: A three-dimensional measuring device comprises: a projection device for projecting pattern light to an object; a plurality of imaging devices arranged so as to image the whole area of the object irradiated with pattern light, each of which images a partial region of the object; and a control device for acquiring the image data of partial region of the object from each of the plurality of imaging devices, calculating the three-dimensional shapes of partial regions of the object corresponding to the plurality of image data, and synthesizing the three-dimensional shapes of the plurality of calculated partial regions of the object and specifying the overall shape of the object.SELECTED DRAWING: Figure 1

Description

本開示は、3次元計測装置及び3次元計測方法に関する。 The present disclosure relates to a three-dimensional measuring device and a three-dimensional measuring method.

特許文献1に開示されているように、複数の方向から物体にパターン光を照射して、物体の3次元形状を計測する技術が知られている。 As disclosed in Patent Document 1, there is known a technique of irradiating an object with pattern light from a plurality of directions to measure the three-dimensional shape of the object.

特開2003−202296号公報Japanese Unexamined Patent Publication No. 2003-202296

物体は、撮像装置で撮像される。撮像装置は、パターン光を照射する照射装置とともにヘッドに配置され、物体上を走査しながら物体を撮像する。そのため、撮像装置が物体の全体を撮像するまでに時間が掛かってしまう可能性がある。 The object is imaged by the imaging device. The image pickup device is arranged on the head together with the irradiation device that irradiates the pattern light, and images the object while scanning on the object. Therefore, it may take time for the image pickup apparatus to take an image of the entire object.

本開示は、物体の3次元形状の情報を得るまでの時間を短縮することを目的とする。 An object of the present disclosure is to shorten the time required to obtain information on the three-dimensional shape of an object.

本開示に従えば、物体に対してパターン光を照射する投影装置と、前記パターン光が照射された前記物体の全領域を撮像するように配置され、それぞれが前記物体の部分的な領域を撮像する複数の撮像装置と、複数の前記撮像装置のそれぞれから前記物体の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された複数の前記物体の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定する制御装置と、を備える、3次元計測装置が提供される。 According to the present disclosure, a projection device that irradiates an object with pattern light and an object that is arranged so as to image the entire area of the object irradiated with the pattern light, each of which images a partial area of the object. The image data of the partial region of the object is acquired from each of the plurality of imaging devices and the plurality of the imaging devices, and the three-dimensional shape of the partial region of the object corresponding to the plurality of the image data is obtained. Provided is a three-dimensional measuring device including a control device that calculates and synthesizes the three-dimensional shapes of a plurality of calculated partial regions of the object to specify the overall three-dimensional shape of the object. ..

本開示によれば、物体の3次元形状の情報を得るまでの時間を短縮することを目的とする。 According to the present disclosure, it is an object of the present invention to shorten the time required to obtain information on the three-dimensional shape of an object.

図1は、第1実施形態に係る3次元計測装置の一例を示す模式図である。FIG. 1 is a schematic view showing an example of a three-dimensional measuring device according to the first embodiment. 図2は、照射装置の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the irradiation device. 図3は、撮像装置の構成の一例を示す図である。FIG. 3 is a diagram showing an example of the configuration of the image pickup apparatus. 図4は、第1実施形態に係る3次元計測装置の撮像装置の配置の一例を示す模式図である。FIG. 4 is a schematic view showing an example of the arrangement of the imaging device of the three-dimensional measuring device according to the first embodiment. 図5は、第1実施形態に係る3次元計測装置の撮像装置の撮像範囲の一例を示す図である。FIG. 5 is a diagram showing an example of an imaging range of the imaging device of the three-dimensional measuring device according to the first embodiment. 図6は、第1実施形態に係る3次元計測装置の制御装置の構成の一例を示す機能ブロック図である。FIG. 6 is a functional block diagram showing an example of the configuration of the control device of the three-dimensional measuring device according to the first embodiment. 図7は、第1実施形態に係る3次元計測方法の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the three-dimensional measurement method according to the first embodiment. 図8は、第1実施形態に係る縞パターンの一例を示す図である。FIG. 8 is a diagram showing an example of a striped pattern according to the first embodiment. 図9は、第1実施形態に係るパターンが投影された物体の画像データの一例を示す図である。FIG. 9 is a diagram showing an example of image data of an object on which the pattern according to the first embodiment is projected. 図10は、第1実施形態に係る画像データの画素の輝度の一例を示す図である。FIG. 10 is a diagram showing an example of the brightness of the pixels of the image data according to the first embodiment. 図11は、第1実施形態に係る相対位相値及び絶対位相値の一例を模式的に示す図である。FIG. 11 is a diagram schematically showing an example of a relative phase value and an absolute phase value according to the first embodiment. 図12は、第1実施形態に係るグレイコードパターンの一例を示す図である。FIG. 12 is a diagram showing an example of the Gray code pattern according to the first embodiment. 図13は、第1実施形態に係るグレイコードパターンが投影された物体の画像データの一例を示す図である。FIG. 13 is a diagram showing an example of image data of an object on which the Gray code pattern according to the first embodiment is projected. 図14は、第1実施形態に係る第1画像データの輝度変化と、第2画像データの輝度変化と、複数のグレイコードパターンを合成することにより生成される縞次数コードと、縞次数との関係を示す図である。FIG. 14 shows a change in the brightness of the first image data according to the first embodiment, a change in the brightness of the second image data, a fringe order code generated by synthesizing a plurality of Gray code patterns, and a fringe order. It is a figure which shows the relationship. 図15は、第2実施形態に係る3次元計測装置の一例を示す図である。FIG. 15 is a diagram showing an example of the three-dimensional measuring device according to the second embodiment. 図16は、第2実施形態に係る3次元計測装置の撮像装置の撮像範囲の一例を示す図である。FIG. 16 is a diagram showing an example of an imaging range of the imaging device of the three-dimensional measuring device according to the second embodiment. 図17は、第2実施形態に係る3次元計測装置の制御装置の構成の一例を示す機能ブロック図である。FIG. 17 is a functional block diagram showing an example of the configuration of the control device of the three-dimensional measuring device according to the second embodiment. 図18は、第2実施形態に係る3次元計測方法の一例を示すフローチャートである。FIG. 18 is a flowchart showing an example of the three-dimensional measurement method according to the second embodiment. 図19は、各実施形態に係るコンピュータシステムを示すブロック図である。FIG. 19 is a block diagram showing a computer system according to each embodiment.

以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings, but the present disclosure is not limited thereto. The components of the embodiments described below can be combined as appropriate. In addition, some components may not be used.

以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。所定面のX軸と平行な方向をX軸方向とし、X軸と直交する所定面のY軸と平行な方向をY軸方向とし、所定面と直交するZ軸と平行な方向をZ軸方向とする。また、X軸を中心とする回転又は傾斜方向をθX方向とし、Y軸を中心とする回転又は傾斜方向をθY方向とし、Z軸を中心とする回転又は傾斜方向をθZ方向とする。XY平面は所定面である。 In the following description, the XYZ Cartesian coordinate system is set, and the positional relationship of each part will be described with reference to the XYZ Cartesian coordinate system. The direction parallel to the X-axis of the predetermined surface is the X-axis direction, the direction parallel to the Y-axis of the predetermined surface orthogonal to the X-axis is the Y-axis direction, and the direction parallel to the Z-axis orthogonal to the predetermined surface is the Z-axis direction. And. Further, the rotation or tilt direction centered on the X axis is defined as the θX direction, the rotation or tilt direction centered on the Y axis is defined as the θY direction, and the rotation or tilt direction centered on the Z axis is defined as the θZ direction. The XY plane is a predetermined plane.

[第1実施形態]
<3次元計測装置>
図1を用いて、第1実施形態について説明する。図1は、第1実施形態に係る3次元計測装置の一例を示す模式図である。
[First Embodiment]
<3D measuring device>
The first embodiment will be described with reference to FIG. FIG. 1 is a schematic view showing an example of a three-dimensional measuring device according to the first embodiment.

図1に示すように、第1実施形態に係る3次元計測装置1は、検査対象物である物体Sに対してパターン光PLを照射する複数の投影装置3と、パターン光PLが照射された物体Sを撮像し、撮像範囲Aにおける物体Sの部分的な画像データを取得する複数の撮像装置4と、撮像装置4により取得された物体Sの画像データに基づいて物体Sの3次元形状を算出する制御装置5とを備える。複数の撮像装置4は、物体Sの+Z方向側において、支持部材2により支持されている。第1実施形態において、物体Sは、例えば、電子部品E1、電子部品E2、および電子部品E3などが搭載された実装基板である。この場合、3次元計測装置1は、電子部品E1〜E3などが搭載された実装基板の表面の3次元形状を計測する。なお、本実施形態において、物体Sは、実装基板に限定されない。 As shown in FIG. 1, the three-dimensional measuring device 1 according to the first embodiment is irradiated with a plurality of projection devices 3 that irradiate an object S, which is an inspection object, with a pattern light PL, and a pattern light PL. A plurality of imaging devices 4 that image an object S and acquire partial image data of the object S in the imaging range A, and a three-dimensional shape of the object S based on the image data of the object S acquired by the imaging device 4. A control device 5 for calculating is provided. The plurality of image pickup devices 4 are supported by the support member 2 on the + Z direction side of the object S. In the first embodiment, the object S is, for example, a mounting board on which electronic components E1, electronic components E2, electronic components E3, and the like are mounted. In this case, the three-dimensional measuring device 1 measures the three-dimensional shape of the surface of the mounting substrate on which the electronic components E1 to E3 and the like are mounted. In this embodiment, the object S is not limited to the mounting substrate.

図2と、図3とを用いて、投影装置3および撮像装置4の構成について説明する。図2は、投影装置3の構成の一例を示す模式図である。図3は、撮像装置4の構成の一例を示す模式図である。 The configurations of the projection device 3 and the image pickup device 4 will be described with reference to FIGS. 2 and 3. FIG. 2 is a schematic view showing an example of the configuration of the projection device 3. FIG. 3 is a schematic view showing an example of the configuration of the image pickup apparatus 4.

投影装置3は、光を発生する光源31と、光源31から射出された光を光変調してパターン光PLを生成する光変調素子32と、光変調素子32で生成されたパターン光PLを物体Sに投影する投影光学系33とを有する。 The projection device 3 objects the light source 31 that generates light, the light modulation element 32 that light-modulates the light emitted from the light source 31 to generate the pattern light PL, and the pattern light PL generated by the light modulation element 32. It has a projection optical system 33 that projects onto S.

光変調素子32は、デジタルミラーデバイス(Digital Mirror Device:DMD)を含む。なお、光変調素子32は、透過型の液晶パネルを含んでもよいし、反射型の液晶パネルを含んでもよい。光変調素子32は、制御装置5から出力されるパターンデータに基づいてパターン光PLを生成する。投影装置3は、パターンデータに基づいてパターン化されたパターン光PLを物体Sに照射する。 The light modulation element 32 includes a digital mirror device (DMD). The light modulation element 32 may include a transmissive liquid crystal panel or a reflective liquid crystal panel. The light modulation element 32 generates a pattern light PL based on the pattern data output from the control device 5. The projection device 3 irradiates the object S with the pattern light PL patterned based on the pattern data.

撮像装置4は、物体Sで反射したパターン光PLを結像する結像光学系41と、結像光学系41を介して物体Sの画像データを取得する撮像素子42とを有する。撮像素子42は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)又はCCDイメージセンサ(Charge Coupled Device Image Sensor)を含む固体撮像素子である。撮像素子42は、入射面41Sを介して入射した外部からの光を受光する。 The imaging device 4 includes an imaging optical system 41 that forms an image of the pattern light PL reflected by the object S, and an imaging element 42 that acquires image data of the object S via the imaging optical system 41. The image sensor 42 is a solid-state image sensor including a CMOS image sensor (Complementary Metal Oxide Semiconductor Image Sensor) or a CCD image sensor (Charge Coupled Device Image Sensor). The image sensor 42 receives light from the outside that is incident through the incident surface 41S.

撮像装置4は、比較的安価なカメラおよびレンズで構成することができる。撮像装置4として、例えば、スマートフォンに搭載されるような汎用的なカメラを用いてよい。撮像装置4のレンズとして、汎用的な非テレセントリックなレンズを用いてよい。 The image pickup apparatus 4 can be composed of a relatively inexpensive camera and lens. As the image pickup device 4, for example, a general-purpose camera mounted on a smartphone may be used. As the lens of the image pickup apparatus 4, a general-purpose non-telecentric lens may be used.

図4を用いて、3次元計測装置1の投影装置3および撮像装置4の配置について説明する。図4は、3次元計測装置1の投影装置3および撮像装置4の配置の一例を示す模式図である。 The arrangement of the projection device 3 and the image pickup device 4 of the three-dimensional measurement device 1 will be described with reference to FIG. FIG. 4 is a schematic view showing an example of the arrangement of the projection device 3 and the image pickup device 4 of the three-dimensional measurement device 1.

投影装置3の位置は、固定される。投影装置3は、物体Sの+Z方向側に配置される。投影装置3は、物体Sの表面の全領域にパターン光PLを照射できる位置に配置される。投影装置3は、例えば、矩形の物体Sの4辺のそれぞれに対向する位置に1台ずつの計4台が配置される。投影装置3は、物体Sの表面の全領域にパターン光PLを配置できるのであれば、配置する場所や、配置する数に特に制限はない。例えば、投影装置3は、物体Sと対向する位置に配置されてもよい。投影装置3は、物体Sの表面の全領域にパターン光PLを配置できるのであれば、1台であってもよい。 The position of the projection device 3 is fixed. The projection device 3 is arranged on the + Z direction side of the object S. The projection device 3 is arranged at a position where the pattern light PL can be applied to the entire surface area of the object S. For example, a total of four projection devices 3 are arranged at positions facing each of the four sides of the rectangular object S. As long as the pattern light PL can be arranged in the entire area of the surface of the object S, the projection device 3 is not particularly limited in the place and the number of arrangements. For example, the projection device 3 may be arranged at a position facing the object S. The number of projection devices 3 may be one as long as the pattern light PL can be arranged in the entire area of the surface of the object S.

複数の撮像装置4のそれぞれの位置は、固定される。複数の撮像装置4は、物体Sの+Z方向側に配置される。複数の撮像装置4は、XY平面上に2次元的に配置される。撮像装置4は、例えば、XY平面上でマトリックス状に配置される。この場合、撮像装置4は、例えば、X方向にN台配置され、Y方向にM台配置される。NとMは、数〜数十の整数であるが、これに限定されない。NとMは同じでもよいし、異なっていてもよい。複数の撮像装置4の結像光学系41の入射面41Sは、物体Sと対向する。複数の撮像装置4の結像光学系41の入射面41Sは、物体Sに対して傾いていてもよい。複数の撮像装置4の結像光学系41の入射面41Sの物体Sに対する角度は、それぞれ、同じでもよいし、異なっていてもよい。各撮像装置4の結像光学系41の入射面41Sと、物体Sの表面との間の距離は、それぞれ同じであってもよいし、異なっていてもよい。なお、複数の撮像装置4の配置方法はこれらに限定されず、物体Sの表面の全領域を撮影できるように物体Sの+Z方向側に配置されていればよい。 The positions of the plurality of image pickup devices 4 are fixed. The plurality of image pickup devices 4 are arranged on the + Z direction side of the object S. The plurality of image pickup devices 4 are arranged two-dimensionally on the XY plane. The image pickup apparatus 4 is arranged in a matrix on an XY plane, for example. In this case, for example, N image pickup devices 4 are arranged in the X direction and M units are arranged in the Y direction. N and M are integers of several to several tens, but are not limited to this. N and M may be the same or different. The incident surface 41S of the imaging optical system 41 of the plurality of imaging devices 4 faces the object S. The incident surface 41S of the imaging optical system 41 of the plurality of imaging devices 4 may be tilted with respect to the object S. The angles of the incident surfaces 41S of the imaging optical systems 41 of the plurality of imaging devices 4 with respect to the object S may be the same or different. The distance between the incident surface 41S of the imaging optical system 41 of each imaging device 4 and the surface of the object S may be the same or different. The method of arranging the plurality of image pickup devices 4 is not limited to these, and may be arranged on the + Z direction side of the object S so that the entire area of the surface of the object S can be photographed.

複数の撮像装置4は、それぞれ、例えば物体Sがベルトコンベアなどで運ばれ、各撮像装置4の−Z方向側に位置した物体Sを撮像する。複数の撮像装置4は、それぞれ、例えば作業者によって各撮像装置4の−Z方向側に配置された物体Sを撮像する。 Each of the plurality of image pickup devices 4 takes an image of the object S located on the −Z direction side of each image pickup device 4, for example, the object S is carried by a belt conveyor or the like. Each of the plurality of image pickup devices 4 images an object S arranged on the −Z direction side of each image pickup device 4 by, for example, an operator.

図5を用いて、物体Sにおける撮像装置4の撮像範囲について説明する。図5は撮像装置の撮像範囲を説明するための図である。 The image pickup range of the image pickup apparatus 4 in the object S will be described with reference to FIG. FIG. 5 is a diagram for explaining an imaging range of the imaging apparatus.

図5では、撮像装置4は、物体Sに対向してマトリックス状にN×M台配置されている場合の、各撮像装置4の撮像範囲を示している。撮像範囲A11は1行1列目の撮像装置4の撮像範囲であり、撮像範囲ANMはN行M列目の撮像装置4の撮像範囲である。図5に示すように、3次元計測装置1は、複数の撮像装置4を用いることで、物体Sの表面を隙間なく撮像する。隣接する撮像装置4間の撮像範囲は、一部が重複してもよい。例えば、撮像範囲A11は、撮像範囲A12と、撮像範囲A21と、撮像範囲A22と、一部が重複してもよい。 FIG. 5 shows the imaging range of each imaging device 4 when the imaging devices 4 are arranged in a matrix of N × M units facing the object S. The imaging range A 11 is the imaging range of the imaging device 4 in the 1st row and 1st column, and the imaging range ANM is the imaging range of the imaging device 4 in the Nth row and Mth column. As shown in FIG. 5, the three-dimensional measuring device 1 uses a plurality of image pickup devices 4 to image the surface of the object S without gaps. The imaging range between the adjacent imaging devices 4 may partially overlap. For example, the imaging range A11 may partially overlap the imaging range A12, the imaging range A21, and the imaging range A22.

制御装置5は、コンピュータシステムを含み、投影装置3及び撮像装置4を制御する。制御装置5は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置と、ROM(Read Only Memory)又はRAM(Random Access Memory)のようなメモリ及びストレージを含む記憶装置とを有する。演算処理装置は、記憶装置に記憶されているコンピュータプログラムに従って演算処理を実施する。また、制御装置5は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。 The control device 5 includes a computer system and controls the projection device 3 and the image pickup device 4. The control device 5 includes an arithmetic processing device including a processor such as a CPU (Central Processing Unit), and a storage device including a memory and storage such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The arithmetic processing unit performs arithmetic processing according to a computer program stored in the storage device. Further, the control device 5 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

3次元計測装置1は、パターン投影法に基づいて、物体Sの3次元形状を計測する。投影装置3は、パターン光PLとして、例えば、正弦波状の明度分布の縞パターン光を位相シフトさせながら物体Sに照射する。投影装置3は、パターン光PLをダイレクトに物体Sに照射する。また、投影装置3は、空間コード法に基づいて、空間コードパターンの一種であるグレイコードパターンを物体Sに投影してもよい。 The three-dimensional measuring device 1 measures the three-dimensional shape of the object S based on the pattern projection method. The projection device 3 irradiates the object S as the pattern light PL, for example, while shifting the phase of the fringe pattern light having a sinusoidal brightness distribution. The projection device 3 directly irradiates the object S with the pattern light PL. Further, the projection device 3 may project a gray code pattern, which is a kind of space code pattern, onto the object S based on the space code method.

撮像装置4は、パターン光PLが照射された物体Sの画像データを取得する。具体的には、撮像装置4は、自身の撮像範囲に対応する範囲の物体Sの部分的な画像データを取得する。 The image pickup apparatus 4 acquires the image data of the object S irradiated with the pattern light PL. Specifically, the image pickup apparatus 4 acquires partial image data of an object S in a range corresponding to its own imaging range.

<制御装置>
図6を用いて、第1実施形態に係る制御装置5の構成の一例について説明する。図6は、第1実施形態に係る制御装置5の構成の一例を示す機能ブロック図である。
<Control device>
An example of the configuration of the control device 5 according to the first embodiment will be described with reference to FIG. FIG. 6 is a functional block diagram showing an example of the configuration of the control device 5 according to the first embodiment.

図6に示すように、制御装置5は、入出力部51と、パターン生成部52と、画像データ取得部53と、相対位相値算出部54と、縞次数算出部55と、絶対位相値算出部56と、3次元形状算出部57と、3次元形状特定部58とを備える。本実施形態において、制御装置5は、複数の撮像装置4のそれぞれから物体Sの部分的な領域の画像データを取得する。制御装置5は、複数の画像データに対応する物体Sの部分的な領域の3次元形状を算出する。制御装置5は、算出された複数の物体Sの部分的な領域の3次元形状を合成して物体Sの全体的な形状を特定する。 As shown in FIG. 6, the control device 5 includes an input / output unit 51, a pattern generation unit 52, an image data acquisition unit 53, a relative phase value calculation unit 54, a stripe order calculation unit 55, and an absolute phase value calculation. A unit 56, a three-dimensional shape calculation unit 57, and a three-dimensional shape specifying unit 58 are provided. In the present embodiment, the control device 5 acquires image data of a partial region of the object S from each of the plurality of image pickup devices 4. The control device 5 calculates the three-dimensional shape of the partial region of the object S corresponding to the plurality of image data. The control device 5 identifies the overall shape of the object S by synthesizing the three-dimensional shapes of the calculated partial regions of the object S.

パターン生成部52は、パターンデータを生成する。パターン生成部52で生成されたパターンデータは、入出力部51を介して光変調素子32に出力される。光変調素子32は、パターン生成部52で生成されたパターンデータに基づいて、パターン光を生成する。本実施形態において、パターン生成部52は、パターンデータとして、縞パターンデータを生成する。パターン生成部52は、パターンデータとして、グレイコードパターンデータを生成してもよい。光変調素子32は、パターン生成部52で生成された縞パターンデータに基づいて、縞パターン光を生成する。光変調素子32は、パターン生成部52で生成されたグレイコードパターンデータに基づいて、グレイコードパターン光を生成する。 The pattern generation unit 52 generates pattern data. The pattern data generated by the pattern generation unit 52 is output to the light modulation element 32 via the input / output unit 51. The light modulation element 32 generates pattern light based on the pattern data generated by the pattern generation unit 52. In the present embodiment, the pattern generation unit 52 generates fringe pattern data as pattern data. The pattern generation unit 52 may generate gray code pattern data as pattern data. The light modulation element 32 generates fringe pattern light based on the fringe pattern data generated by the pattern generation unit 52. The light modulation element 32 generates Gray code pattern light based on the Gray code pattern data generated by the pattern generation unit 52.

画像データ取得部53は、入出力部51を介して、各撮像装置4の撮像素子42から画像データを取得する。画像データ取得部53は、パターン光が照射された物体Sの画像データを取得する。具体的には、画像データ取得部53は、各撮像装置4の撮像素子42からそれぞれの撮像範囲に対応する物体Sの部分的な画像データを複数取得する。 The image data acquisition unit 53 acquires image data from the image sensor 42 of each image pickup device 4 via the input / output unit 51. The image data acquisition unit 53 acquires the image data of the object S irradiated with the pattern light. Specifically, the image data acquisition unit 53 acquires a plurality of partial image data of the object S corresponding to each imaging range from the imaging element 42 of each imaging device 4.

相対位相値算出部54は、複数の画像データMの輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する。相対位相値算出部54は、位相シフトされた縞パターンPBのそれぞれが投影された物体Sの画像を示す複数の画像データMの同一の点の輝度に基づいて、その点に対応する画像データMの画素pの相対位相値θpを算出する。相対位相値算出部54は、画像データMの複数の点それぞれの輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する。相対位相値算出部54は、各撮像装置4の撮像素子42から取得された画像データについて、相対位相値を算出する。 The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of the plurality of image data M. The relative phase value calculation unit 54 is based on the brightness of the same point of the plurality of image data M indicating the image of the object S on which each of the phase-shifted fringe patterns PB is projected, and the image data M corresponding to that point. Calculate the relative phase value θp of the pixel p of. The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of each of the plurality of points of the image data M. The relative phase value calculation unit 54 calculates the relative phase value of the image data acquired from the image sensor 42 of each image pickup device 4.

縞次数算出部55は、複数の画像データMに基づいて、画像データMの複数の画素pそれぞれの縞パターンPBの縞次数nを算出する。縞次数nとは、物体Sに1度に投影される縞パターンPBの複数の縞のうち、特定の縞を基準として付される複数の縞それぞれの番号である。換言すれば、縞次数nとは、物体Sに1度に投影される縞パターンPBの複数の縞のうち、基準の縞から数えてn番目の縞であることを示す値である。縞次数算出部55は、各撮像装置4の撮像素子42から取得された画像データについて、縞次数を算出する。 The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern PB of each of the plurality of pixels p of the image data M based on the plurality of image data M. The fringe order n is a number of each of the plurality of fringes assigned with a specific fringe as a reference among the plurality of fringes of the fringe pattern PB projected on the object S at one time. In other words, the fringe order n is a value indicating that it is the nth fringe counted from the reference fringe among the plurality of fringes of the fringe pattern PB projected on the object S at one time. The fringe order calculation unit 55 calculates the fringe order for the image data acquired from the image sensor 42 of each image pickup device 4.

絶対位相値算出部56は、相対位相値θと縞次数nとに基づいて、画像データMの複数の画素pそれぞれの絶対位相値θaを算出する。絶対位相値算出部56は、各撮像装置4の撮像素子42から取得された画像データについて、絶対位相値を算出する。 The absolute phase value calculation unit 56 calculates the absolute phase value θa of each of the plurality of pixels p of the image data M based on the relative phase value θ and the fringe order n. The absolute phase value calculation unit 56 calculates the absolute phase value of the image data acquired from the image sensor 42 of each image pickup device 4.

3次元形状算出部57は、画像データMの複数の画素pそれぞれの絶対位相値θaに基づいて、画像データMの複数の画素pそれぞれに対応する物体Sの複数の点それぞれの高さデータを算出して、物体Sの部分的な3次元形状を算出する。3次元形状算出部57は、各撮像装置4の撮像素子42から取得された画像データについて、物体Sの部分的な3次元形状を算出する。 The three-dimensional shape calculation unit 57 obtains height data of each of a plurality of points of the object S corresponding to each of the plurality of pixels p of the image data M based on the absolute phase value θa of each of the plurality of pixels p of the image data M. Calculate to calculate the partial three-dimensional shape of the object S. The three-dimensional shape calculation unit 57 calculates a partial three-dimensional shape of the object S with respect to the image data acquired from the image sensor 42 of each image pickup device 4.

3次元形状特定部58は、物体Sの部分的な3次元形状に基づいて、物体Sの全体的な3次元形状を特定する。3次元形状特定部58は、物体Sの部分的な3次元形状の算出結果を合成することで、物体Sの全体的な3次元形状を算出する。 The three-dimensional shape specifying unit 58 identifies the overall three-dimensional shape of the object S based on the partial three-dimensional shape of the object S. The three-dimensional shape specifying unit 58 calculates the overall three-dimensional shape of the object S by synthesizing the calculation results of the partial three-dimensional shape of the object S.

<3次元計測方法>
次に、図7を用いて、第1実施形態に係る3次元計測方法について説明する。図7は、第1実施形態に係る3次元計測方法の一例を示すフローチャートである。
<3D measurement method>
Next, the three-dimensional measurement method according to the first embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of the three-dimensional measurement method according to the first embodiment.

パターン生成部52は、縞パターンデータを生成する。縞パターンデータは、投影装置3の光変調素子32に出力される。投影装置3は、パターン光を位相シフトさせながら物体Sに照射する(ステップS10)。撮像装置4は、パターン光が照射された物体Sの部分的な画像データを複数取得する(ステップS11)。 The pattern generation unit 52 generates fringe pattern data. The fringe pattern data is output to the light modulation element 32 of the projection device 3. The projection device 3 irradiates the object S with the pattern light while shifting the phase (step S10). The image pickup apparatus 4 acquires a plurality of partial image data of the object S irradiated with the pattern light (step S11).

図8は、第1実施形態に係る縞パターンPBの一例を示す図である。図8に示すように、縞パターンPBは、位相シフト量が0[°]である縞パターンPB1と、位相シフト量が90[°]である縞パターンPB2と、位相シフト量が180[°]である縞パターンPB3と、位相シフト量が270[°]である縞パターンPB4とを含む。投影装置3は、縞パターンPB1、縞パターンPB2、縞パターンPB2、及び縞パターンPB4のそれぞれを物体Sに順次投影する。 FIG. 8 is a diagram showing an example of the striped pattern PB according to the first embodiment. As shown in FIG. 8, the fringe pattern PB includes a fringe pattern PB1 having a phase shift amount of 0 [°], a fringe pattern PB2 having a phase shift amount of 90 [°], and a phase shift amount of 180 [°]. The striped pattern PB3 is and the striped pattern PB4 having a phase shift amount of 270 [°] is included. The projection device 3 sequentially projects each of the striped pattern PB1, the striped pattern PB2, the striped pattern PB2, and the striped pattern PB4 onto the object S.

図9は、本実施形態に係る縞パターンPBが投影された物体Sの部分的な画像データMの一例を示す図である。図9に示すように、画像データMは、縞パターンPB1が投影された物体Sの画像データM1、縞パターンPB2が投影された物体Sの画像データM2、縞パターンPB3が投影された物体Sの画像データM3、及び縞パターンPB4が投影された物体Sの画像データM4を含む。画像データ取得部53は、複数の画像データM(M1,M2,M3,M4)を取得する。 FIG. 9 is a diagram showing an example of partial image data M of the object S on which the striped pattern PB according to the present embodiment is projected. As shown in FIG. 9, the image data M is the image data M1 of the object S on which the striped pattern PB1 is projected, the image data M2 of the object S on which the striped pattern PB2 is projected, and the object S on which the striped pattern PB3 is projected. The image data M3 and the image data M4 of the object S on which the striped pattern PB4 is projected are included. The image data acquisition unit 53 acquires a plurality of image data M (M1, M2, M3, M4).

図10は、本実施形態に係る画像データM1の画素p(x,y)の輝度a、画像データM2の画素p(x,y)の輝度a、画像データM3の画素p(x,y)の輝度a、及び画像データM4の画素p(x,y)の輝度aの一例を示す図である。4つの画像データM(M1,M2,M3,M4)において、画素p(x,y)は、物体Sの同一の点からの光が入射した画素である。図10に示すように、相対的な輝度は、縞パターンPBの位相シフト量だけ変化する。 Figure 10 is a luminance a 1, a pixel p of the image data M2 (x, y) of the luminance a 2, a pixel p (x of the image data M3 of pixel p of the image data M1 of the present embodiment (x, y), luminance a 3 of y), and is a diagram showing an example of luminance a 4 pixel p of image data M4 (x, y). In the four image data M (M1, M2, M3, M4), the pixel p (x, y) is a pixel in which light from the same point of the object S is incident. As shown in FIG. 10, the relative brightness changes by the amount of phase shift of the fringe pattern PB.

相対位相値算出部54は、複数の画像データM(M1,M2,M3,M4)の輝度に基づいて、画像データMの複数の画素pそれぞれの相対位相値θpを算出する(ステップS12)。 The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M based on the brightness of the plurality of image data M (M1, M2, M3, M4) (step S12).

縞パターンPBが投影された物体Sの複数の点それぞれの相対位相値θpと、画像データMの複数の画素pそれぞれの相対位相値θpとは、1対1で対応する。相対位相値算出部54は、画像データMの複数の画素pそれぞれの相対位相値θpを算出して、縞パターンPBが投影された物体Sの複数の点それぞれの相対位相値θpを算出する。 The relative phase value θp of each of the plurality of points of the object S on which the fringe pattern PB is projected and the relative phase value θp of each of the plurality of pixels p of the image data M have a one-to-one correspondence. The relative phase value calculation unit 54 calculates the relative phase value θp of each of the plurality of pixels p of the image data M, and calculates the relative phase value θp of each of the plurality of points of the object S on which the fringe pattern PB is projected.

相対位相値算出部54は、(1)式に基づいて、画素p(x,y)の相対位相値θp(x,y)を算出する。 The relative phase value calculation unit 54 calculates the relative phase value θp (x, y) of the pixel p (x, y) based on the equation (1).

Figure 2021076531
Figure 2021076531

相対位相値算出部54は、全ての画素pについて相対位相値θpを算出する。全ての画素pについての相対位相値θpが算出されることにより、縞パターンPBが投影された物体Sの全ての点についての相対位相値θpが算出される。 The relative phase value calculation unit 54 calculates the relative phase value θp for all the pixels p. By calculating the relative phase value θp for all the pixels p, the relative phase value θp for all the points of the object S on which the fringe pattern PB is projected is calculated.

図11は、本実施形態に係る相対位相値θp及び絶対位相値θaの一例を模式的に示す図である。図11に示すように、相対位相値θpは、縞パターンPBの1位相毎に算出される。(1)式は逆正接関数であるため、図11に示すように、各画素pの相対位相値θpは、縞パターンPBの1位相毎の値(−π〜πの間の値)となる。 FIG. 11 is a diagram schematically showing an example of the relative phase value θp and the absolute phase value θa according to the present embodiment. As shown in FIG. 11, the relative phase value θp is calculated for each phase of the fringe pattern PB. Since the equation (1) is an inverse tangent function, as shown in FIG. 11, the relative phase value θp of each pixel p is a value for each phase of the fringe pattern PB (a value between −π and π). ..

相対位相値θpから物体Sの3次元形状を算出するために、物体Sの各点における絶対位相値θaを算出する位相接続が実施される。本実施形態においては、位相接続のために、物体Sにグレイコードパターンを投影する空間コード化法が使用される。本実施形態においては、空間コード化法に基づいて縞パターンPBの縞次数nが算出される。図11に示すように、相対位相値θpと縞次数nとに基づいて、絶対位相値θa(=θp+2nπ)が算出される。 In order to calculate the three-dimensional shape of the object S from the relative phase value θp, a phase connection for calculating the absolute phase value θa at each point of the object S is performed. In this embodiment, a spatial coding method for projecting a Gray code pattern onto an object S is used for phase connection. In the present embodiment, the fringe order n of the fringe pattern PB is calculated based on the spatial coding method. As shown in FIG. 11, the absolute phase value θa (= θp + 2nπ) is calculated based on the relative phase value θp and the fringe order n.

図12は、本実施形態に係るグレイコードパターンPRの一例を示す図である。グレイコードパターンPRは、明暗のコードが所定の周期で反転するパターンである。図12に示すように、グレイコードパターンPRは、縞パターンPBの周期よりも短い周期でコードが変化するグレイコードパターンPR1と、グレイコードパターンPR1の周期とは異なる周期でコードが変化するグレイコードパターンPR2と、グレイコードパターンPR1,PR2の周期とは異なる周期でコードが変化するグレイコードパターンPR3と、グレイコードパターンPR1,PR2,PR3の周期とは異なる周期でコードが変化するグレイコードパターンPR4とを含む。投影装置3は、グレイコードパターンPR1、グレイコードパターンPR2、グレイコードパターンPR3、及びグレイコードパターンPR4のそれぞれを物体Sに順次投影する。 FIG. 12 is a diagram showing an example of the Gray code pattern PR according to the present embodiment. The gray code pattern PR is a pattern in which the light and dark codes are inverted at a predetermined cycle. As shown in FIG. 12, the gray code pattern PR includes a gray code pattern PR1 in which the code changes in a cycle shorter than the cycle of the stripe pattern PB, and a gray code in which the code changes in a cycle different from the cycle of the gray code pattern PR1. The gray code pattern PR3 in which the code changes in a cycle different from the cycle of the pattern PR2 and the gray code patterns PR1 and PR2, and the gray code pattern PR4 in which the code changes in a cycle different from the cycle of the gray code patterns PR1, PR2 and PR3. And include. The projection device 3 sequentially projects each of the gray code pattern PR1, the gray code pattern PR2, the gray code pattern PR3, and the gray code pattern PR4 onto the object S.

図13は、本実施形態に係るグレイコードパターンPRが投影された物体Sの画像データNの一例を示す図である。画像データNは、グレイコードパターンPR1が投影された物体Sの画像データN1と、グレイコードパターンPR2が投影された物体Sの画像データN2と、グレイコードパターンPR3が投影された物体Sの画像データN3と、グレイコードパターンPR4が投影された物体Sの画像データN4とを含む。画像データ取得部53は、複数の画像データN(N1,N2,N3,N4)を取得する。 FIG. 13 is a diagram showing an example of image data N of the object S on which the Gray code pattern PR according to the present embodiment is projected. The image data N is the image data N1 of the object S on which the gray code pattern PR1 is projected, the image data N2 of the object S on which the gray code pattern PR2 is projected, and the image data of the object S on which the gray code pattern PR3 is projected. Includes N3 and image data N4 of the object S on which the Gray code pattern PR4 is projected. The image data acquisition unit 53 acquires a plurality of image data N (N1, N2, N3, N4).

縞次数算出部55は、複数の画像データNに基づいて、画像データMの複数の画素pそれぞれの縞パターンの縞次数nを算出する(ステップS13)。 The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern of each of the plurality of pixels p of the image data M based on the plurality of image data N (step S13).

縞次数算出部55は、空間コーディングの手法を用いて画像データMにおける縞パターンPBの縞次数nを算出する。 The fringe order calculation unit 55 calculates the fringe order n of the fringe pattern PB in the image data M by using the spatial coding method.

図14は、本実施形態に係る縞パターンPBを投影して撮像された画像データMの輝度変化と、グレイコードパターンPRを投影して撮像された画像データNの輝度変化と、複数のグレイコードパターンPRを合成することにより生成されるグレイコードGC(縞次数コード)と、縞次数nとの関係を示す図である。 FIG. 14 shows a change in the brightness of the image data M captured by projecting the stripe pattern PB according to the present embodiment, a change in the brightness of the image data N captured by projecting the gray code pattern PR, and a plurality of Gray codes. It is a figure which shows the relationship between the gray code GC (striped order code) generated by synthesizing a pattern PR, and the fringed order n.

縞次数算出部55は、画像データMの複数の画素のそれぞれについて、複数のグレイコードパターンPRの合成値であるグレイコードGCを生成する。グレイコードGCは、同一の縞次数コードによって構成されるコードである。グレイコードGCは、所定の周期で生成される。本実施形態において、グレイコードGCの周期は、縞パターンPBの周期よりも短い。 The fringe order calculation unit 55 generates a gray code GC which is a composite value of a plurality of gray code patterns PR for each of the plurality of pixels of the image data M. The Gray code GC is a code composed of the same fringe order code. Gray code GC is generated at a predetermined cycle. In the present embodiment, the period of the Gray code GC is shorter than the period of the stripe pattern PB.

縞次数コードは、複数のグレイコードパターンPRが物体Sに投影されたときの明暗コードの組み合わせに基づいて規定される。グレイコードパターンPRは、明暗コードが交互に反転するパターンを含む。本実施形態においては、4つのグレイコードパターンPR(PR1,PR2,PR3,PR4)が物体Sのある点に投影されたとき、それら4つのグレイコードパターンPRの明コードと暗コードとの組み合わせにより、2進数に基づいて縞次数コードが規定される。図10に示す例では、縞次数コードとして、「0x0000」、「0x0001」、「0x0010」、「0x0011」、「0x0100」、「0x0101」、「0x0110」、「0x0111」が規定される。 The fringe order code is defined based on the combination of light and dark codes when a plurality of Gray code patterns PR are projected onto the object S. The gray code pattern PR includes a pattern in which light and dark codes are alternately inverted. In the present embodiment, when four Gray code patterns PR (PR1, PR2, PR3, PR4) are projected onto a certain point of the object S, the combination of the bright code and the dark code of the four Gray code patterns PR The stripe order code is defined based on the binary number. In the example shown in FIG. 10, "0x0000", "0x0001", "0x0010", "0x0011", "0x0100", "0x0101", "0x0110", and "0x0111" are defined as the fringe order codes.

本実施形態において、1回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、縞パターンPBの周期Lbよりも短い。2回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、1回目に投影されるグレイコードパターンPRの明暗コードの周期Lrの2倍である。3回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、2回目に投影されるグレイコードパターンPRの明暗コードの周期Lrの2倍である。4回目に投影されるグレイコードパターンPRの明暗コードの周期Lrは、3回目に投影されるグレイコードパターンPRの明暗のコードの周期Lrの2倍である。 In the present embodiment, the period Lr of the light / dark code of the gray code pattern PR projected for the first time is shorter than the period Lb of the stripe pattern PB. The period Lr of the light / dark code of the gray code pattern PR projected the second time is twice the period Lr of the light / dark code of the gray code pattern PR projected the first time. The period Lr of the light / dark code of the gray code pattern PR projected the third time is twice the period Lr of the light / dark code of the gray code pattern PR projected the second time. The period Lr of the light / dark code of the gray code pattern PR projected the fourth time is twice the period Lr of the light / dark code of the gray code pattern PR projected the third time.

1つのグレイコードGCは、1つの縞次数コードによって規定される。すなわち、グレイコードGCと縞次数コードとは、1対1で対応する。本実施形態においては、グレイコードGCの周期は、縞パターンPBの周期よりも短い。本実施形態において、グレイコードGCの周期は、縞パターンPBの周期の3/4である。すなわち、縞パターンPBの3周期分の長さとグレイコードGCの4周期分の長さとが等しい。 One Gray code GC is defined by one fringe order code. That is, the Gray code GC and the fringe order code have a one-to-one correspondence. In the present embodiment, the period of the Gray code GC is shorter than the period of the stripe pattern PB. In the present embodiment, the period of the Gray code GC is 3/4 of the period of the stripe pattern PB. That is, the length of the striped pattern PB for 3 cycles is equal to the length of the Gray code GC for 4 cycles.

縞パターンPBの周期をLb、グレイコードパターンの周期をLr、0.5以上1未満の数をT、0以上の整数をi、としたとき、本実施形態においては、(2)式の条件を満足する。 When the period of the fringe pattern PB is Lb, the period of the gray code pattern is Lr, the number of 0.5 or more and less than 1 is T, and the integer of 0 or more is i, the condition of the equation (2) is satisfied in the present embodiment. To be satisfied.

Figure 2021076531
Figure 2021076531

図14に示す例では、数Tは、3/4である。すなわち、グレイコードパターンPR1の周期Lrは、(3/4)×Lbである。グレイコードパターンPR2の周期Lrは、(6/4)×Lbである。グレイコードパターンPR3の周期Lrは、(12/4)×Lbである。グレイコードパターンPR4の周期Lrは、(24/4)×Lbである。 In the example shown in FIG. 14, the number T is 3/4. That is, the period Lr of the Gray code pattern PR1 is (3/4) × Lb. The period Lr of the Gray code pattern PR2 is (6/4) × Lb. The period Lr of the Gray code pattern PR3 is (12/4) × Lb. The period Lr of the Gray code pattern PR4 is (24/4) × Lb.

このように、複数のグレイコードパターンPRの合成値から縞次数コード及び縞次数コードに1対1で対応するグレイコードGCが算出され、縞次数nが算出される。 In this way, the gray code GC corresponding to the fringe order code and the fringe order code on a one-to-one basis is calculated from the composite value of the plurality of gray code patterns PR, and the fringe order n is calculated.

絶対位相値算出部56は、相対位相値θpと縞次数nとに基づいて、画像データMの複数の画素pそれぞれの絶対位相値θaを算出する(ステップS14)。 The absolute phase value calculation unit 56 calculates the absolute phase value θa of each of the plurality of pixels p of the image data M based on the relative phase value θp and the fringe order n (step S14).

3次元形状算出部57は、画像データMの複数の画素pそれぞれの絶対位相値θaに基づいて、物体Sの部分的な3次元形状を算出する(ステップS15)。 The three-dimensional shape calculation unit 57 calculates a partial three-dimensional shape of the object S based on the absolute phase value θa of each of the plurality of pixels p of the image data M (step S15).

3次元形状算出部57は、絶対位相値θaに基づいて、三角測量の原理により、画像データMの各画素pにおける高さデータを算出する。画像データMの各画素pにおける高さデータと物体Sの表面の各点における高さデータとは1対1で対応する。物体Sの表面の各点における高さデータは、3次元空間における各点の座標値を示す。3次元形状算出部57は、各点における高さデータに基づいて、物体Sの3次元形状データを算出する。 The three-dimensional shape calculation unit 57 calculates the height data of the image data M at each pixel p based on the absolute phase value θa by the principle of triangulation. There is a one-to-one correspondence between the height data at each pixel p of the image data M and the height data at each point on the surface of the object S. The height data at each point on the surface of the object S indicates the coordinate value of each point in the three-dimensional space. The three-dimensional shape calculation unit 57 calculates the three-dimensional shape data of the object S based on the height data at each point.

制御装置5は、物体Sを撮像する全ての撮像装置から取得した画像データに基づいて、物体Sの部分的な3次元形状を算出したか否かを判定する(ステップS16)。算出したと判定された場合(ステップS16:Yes)、ステップS17に進む。一方、算出したと判定されない場合(ステップS16:No)、ステップS10に進む。 The control device 5 determines whether or not the partial three-dimensional shape of the object S has been calculated based on the image data acquired from all the image pickup devices that image the object S (step S16). If it is determined that the calculation has been performed (step S16: Yes), the process proceeds to step S17. On the other hand, if it is not determined that the calculation has been performed (step S16: No), the process proceeds to step S10.

ステップS16でYesと判定された場合、3次元形状特定部58は、3次元形状算出部57によって算出された物体Sの部分的な3次元形状に基づいて、物体Sの全体的な3次元形状を特定する(ステップS17)。3次元形状特定部58は、物体Sの部分的な3次元形状データを物体Sの全領域に渡って合成して、物体Sの全体的な3次元形状データを算出する。 When it is determined Yes in step S16, the three-dimensional shape specifying unit 58 determines the overall three-dimensional shape of the object S based on the partial three-dimensional shape of the object S calculated by the three-dimensional shape calculation unit 57. Is specified (step S17). The three-dimensional shape specifying unit 58 synthesizes the partial three-dimensional shape data of the object S over the entire region of the object S to calculate the overall three-dimensional shape data of the object S.

上述のとおり、第1実施形態では、物体Sを撮像する撮像装置4を移動させることなく、物体Sの3次元形状を特定することができる。これにより、3次元計測装置1は、物体Sまたは撮像装置4の走査時間を省略することができるため、物体Sの全体の3次元形状を特定するまでの時間を短縮することができる。 As described above, in the first embodiment, the three-dimensional shape of the object S can be specified without moving the image pickup device 4 that images the object S. As a result, the three-dimensional measuring device 1 can omit the scanning time of the object S or the imaging device 4, so that the time required to specify the entire three-dimensional shape of the object S can be shortened.

また、第1実施形態では、物体Sを撮像する撮像装置4を移動させる必要がないので、物体Sを撮像する際のブレを少なくすることができる。これにより、3次元計測装置1は、物体Sの全体の3次元形状をより精度よく特定することができる。 Further, in the first embodiment, since it is not necessary to move the image pickup device 4 for imaging the object S, it is possible to reduce the blurring when the object S is imaged. As a result, the three-dimensional measuring device 1 can more accurately identify the entire three-dimensional shape of the object S.

また、第1実施形態では、撮像装置4を汎用的なカメラで構成することができる。これにより、3次元計測装置1は、物体Sの全体の3次元形状を低コストで特定することができる。 Further, in the first embodiment, the image pickup apparatus 4 can be configured by a general-purpose camera. As a result, the three-dimensional measuring device 1 can specify the entire three-dimensional shape of the object S at low cost.

[第2実施形態]
図15を用いて、第2実施形態について説明する。図15は、第2実施形態に係る3次元計測装置1Aの一例を示す模式図である。
[Second Embodiment]
The second embodiment will be described with reference to FIG. FIG. 15 is a schematic view showing an example of the three-dimensional measuring device 1A according to the second embodiment.

図15に示すように、第2実施形態に係る3次元計測装置1Aは、通常画角の撮像装置4(第1カメラ)に加えて、パターン光PLが照射された物体Sを撮像し、撮像範囲Bにおける物体Sの部分的な画像データを取得する複数の撮像装置4A(第2カメラ)を備える点で、図1に図示の3次元計測装置1と異なっている。撮像装置4Aの撮像範囲Bは、撮像装置4の撮像範囲Aよりも広い。すなわち、撮像装置4Aは、撮像装置4よりも広角な範囲を撮像可能な撮像装置である。 As shown in FIG. 15, the three-dimensional measuring device 1A according to the second embodiment captures and captures an object S irradiated with the pattern light PL in addition to the image pickup device 4 (first camera) having a normal angle of view. It differs from the three-dimensional measuring device 1 shown in FIG. 1 in that it includes a plurality of imaging devices 4A (second cameras) for acquiring partial image data of the object S in the range B. The imaging range B of the imaging device 4A is wider than the imaging range A of the imaging device 4. That is, the image pickup device 4A is an image pickup device capable of capturing a wider range than the image pickup device 4.

撮像装置4Aは、例えば、X方向にQ台配置され、Y方向にR台配置される。Qは、撮像装置4のX方向における台数であるNよりも小さい。Rは、撮像装置4のY方向における台数であるMよりも小さい。 The image pickup apparatus 4A is, for example, arranged in Q units in the X direction and R units in the Y direction. Q is smaller than N, which is the number of image pickup devices 4 in the X direction. R is smaller than M, which is the number of image pickup devices 4 in the Y direction.

図16を用いて、物体Sにおける撮像装置4Aの撮像範囲について説明する。図16は、撮像装置4Aの撮像範囲を説明するための図である。 The imaging range of the imaging device 4A in the object S will be described with reference to FIG. FIG. 16 is a diagram for explaining an imaging range of the imaging device 4A.

図16では、撮像装置4Aが物体Sに対向してマトリックス状にQ×R台配置されている場合の、各撮像装置4Aの撮像範囲を示している。撮像範囲B11は1行1列目の撮像装置4Aの撮像範囲であり、撮像範囲BQRはQ行R列目の撮像装置4Aの撮像範囲である。図16に示すように、3次元計測装置1Aは、複数の撮像装置4を用いることで、物体Sの表面を隙間なく撮像する。撮像装置4Aの撮像範囲B11〜BQRは、撮像装置4の撮像範囲A11〜ANMよりも広い。そのため、3次元計測装置1Aは、3次元計測装置1よりも少ない撮像回数で物体Sの表面を隙間なく撮像することができる。 FIG. 16 shows the imaging range of each imaging device 4A when the imaging devices 4A are arranged in a matrix of Q × R units facing the object S. The imaging range B 11 is the imaging range of the imaging device 4A in the 1st row and 1st column, and the imaging range B QR is the imaging range of the imaging device 4A in the Q row and R column. As shown in FIG. 16, the three-dimensional measuring device 1A uses a plurality of image pickup devices 4 to image the surface of the object S without gaps. The imaging range B 11 to B QR of the imaging device 4A is wider than the imaging range A 11 to A NM of the imaging device 4. Therefore, the three-dimensional measuring device 1A can image the surface of the object S without a gap with a smaller number of imaging times than the three-dimensional measuring device 1.

図17を用いて、第2実施形態に係る制御装置5Aの構成について説明する。図17は、第2実施形態に係る制御装置5Aの構成の一例を示す機能ブロック図である。 The configuration of the control device 5A according to the second embodiment will be described with reference to FIG. FIG. 17 is a functional block diagram showing an example of the configuration of the control device 5A according to the second embodiment.

図17に示すように、制御装置5Aは、設定部59を備える点で、図6に図示の制御装置5と異なっている。 As shown in FIG. 17, the control device 5A is different from the control device 5 shown in FIG. 6 in that the control device 5A includes a setting unit 59.

設定部59は、物体Sを撮像するための撮像装置を判定する。設定部59は、判定結果に基づいて、物体Sを撮像する撮像装置として、撮像装置4または撮像装置4Aを設定する。 The setting unit 59 determines an imaging device for imaging the object S. The setting unit 59 sets the image pickup device 4 or the image pickup device 4A as the image pickup device for capturing the image of the object S based on the determination result.

設定部59は、物体Sを撮像する撮像装置として、物体Sそのものに応じて、撮像装置4または撮像装置4Aを設定する。設定部59は、物体Sを撮像する撮像装置として、ユーザからの指示に基づいて、撮像装置4または撮像装置4Aを設定する。設定部59は、物体Sの形状をより精度よく算出する場合には、物体Sを撮像する撮像装置を撮像装置4に設定する。設定部59は、物体Sの形状をより短時間で算出する場合には、物体Sを撮像する撮像装置を撮像装置4Aに設定する。 The setting unit 59 sets the image pickup device 4 or the image pickup device 4A as the image pickup device for photographing the object S according to the object S itself. The setting unit 59 sets the image pickup device 4 or the image pickup device 4A as an image pickup device for imaging the object S based on an instruction from the user. When the setting unit 59 calculates the shape of the object S more accurately, the setting unit 59 sets the image pickup device for imaging the object S in the image pickup device 4. When calculating the shape of the object S in a shorter time, the setting unit 59 sets the image pickup device for capturing the object S in the image pickup device 4A.

図18を用いて、第2実施形態に係る3次元計測方法について説明する。図18は、第2実施形態に係る3次元計測方法の一例を示すフローチャートである。 The three-dimensional measurement method according to the second embodiment will be described with reference to FIG. FIG. 18 is a flowchart showing an example of the three-dimensional measurement method according to the second embodiment.

まず、制御装置5Aは、物体Sを撮像する撮像装置を広角へ切り替えるか否かを判定する(ステップS20)。広角に切り替えると判定された場合(ステップS20:Yes)、ステップS21に進む。一方、広角に切り替えると判定されなかった場合(ステップS20:No)、ステップS22に進む。 First, the control device 5A determines whether or not to switch the image pickup device for capturing the object S to a wide angle (step S20). If it is determined to switch to the wide angle (step S20: Yes), the process proceeds to step S21. On the other hand, if it is not determined to switch to the wide angle (step S20: No), the process proceeds to step S22.

ステップS20でYesと判定された場合、設定部59は、物体Sを撮像する撮像する撮像装置として広角の撮像装置4Aを設定する(ステップS21)。そして、ステップS23に進む。一方、ステップS20でNoと判定された場合、設定部59は、物体Sを撮像する撮像装置として通常画角の撮像装置4を設定する(ステップS22)。そして、ステップS23に進む。 If it is determined to be Yes in step S20, the setting unit 59 sets the wide-angle image pickup device 4A as an image pickup device for taking an image of the object S (step S21). Then, the process proceeds to step S23. On the other hand, when No is determined in step S20, the setting unit 59 sets the image pickup device 4 having a normal angle of view as the image pickup device for imaging the object S (step S22). Then, the process proceeds to step S23.

ステップS23〜ステップS30の処理は、図7に図示のステップS10〜ステップS17の処理と同一なので、説明を省略する。 Since the processes of steps S23 to S30 are the same as the processes of steps S10 to S17 shown in FIG. 7, the description thereof will be omitted.

上述のとおり、第2実施形態では、3次元形状の検査対象である物体Sに応じて、通常の撮像装置から広角の撮像装置に切り替えることができる。これにより、第2実施形態では、物体Sのおおよその形状を把握したい場合には、撮像装置4Aを用いることで、より短時間で、物体Sのおおよその形状を算出することができる。 As described above, in the second embodiment, it is possible to switch from the normal imaging device to the wide-angle imaging device according to the object S to be inspected in the three-dimensional shape. Thereby, in the second embodiment, when it is desired to grasp the approximate shape of the object S, the approximate shape of the object S can be calculated in a shorter time by using the image pickup apparatus 4A.

[コンピュータシステム]
図19は、各実施形態に係るコンピュータシステム1000を示すブロック図である。上述の制御装置5,5Aは、コンピュータシステム1000を含む。コンピュータシステム1000は、CPU(Central Processing Unit)のようなプロセッサ1001と、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。制御装置5,5Aの機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
[Computer system]
FIG. 19 is a block diagram showing a computer system 1000 according to each embodiment. The control devices 5 and 5A described above include a computer system 1000. The computer system 1000 includes a processor 1001 such as a CPU (Central Processing Unit), a main memory 1002 including a non-volatile memory such as a ROM (Read Only Memory) and a volatile memory such as a RAM (Random Access Memory). It has a storage 1003 and an interface 1004 including an input / output circuit. The functions of the control devices 5 and 5A are stored in the storage 1003 as a program. The processor 1001 reads the program from the storage 1003, expands it into the main memory 1002, and executes the above-described processing according to the program. The program may be distributed to the computer system 1000 via the network.

プログラムは、上述の実施形態に従って、コンピュータシステム1000に、物体Sに対してパターン光を照射することと、パターン光が照射された物体Sの全領域を撮像するように、物体Sの複数の部分的な領域を撮像することと、物体Sの複数の部分的な領域の画像データを取得するとともに、複数の画像データに対応する物体Sの部分的な領域の3次元形状を算出し、算出された物体Sの複数の部分的な領域の3次元形状を合成して物体Sの全体的な3次元形状を特定することと、を実行させることができる。 According to the above-described embodiment, the program irradiates the object S with the pattern light and images the entire area of the object S irradiated with the pattern light. The three-dimensional shape of the partial region of the object S corresponding to the plurality of image data is calculated and calculated, while the image of the specific region and the image data of the plurality of partial regions of the object S are acquired. It is possible to synthesize the three-dimensional shapes of a plurality of partial regions of the object S to specify the overall three-dimensional shape of the object S, and to execute.

1,1A…3次元計測装置、2…支持部材、3…投影装置、31…光源、32…光変調素子、33…投影光学系、4,4A…撮像装置、41…結像光学系、42…撮像素子、5,5A…制御装置、51…入出力部、52…パターン生成部、53…画像データ取得部、54…相対位相値算出部、55…縞次数算出部、56…絶対位相値算出部、57…3次元形状算出部、58…3次元形状特定部、59…設定部 1,1A ... 3D measuring device, 2 ... Support member, 3 ... Projection device, 31 ... Light source, 32 ... Light modulation element, 33 ... Projection optical system, 4,4A ... Imaging device, 41 ... Imaging optical system, 42 ... Imaging element, 5, 5A ... Control device, 51 ... Input / output unit, 52 ... Pattern generation unit, 53 ... Image data acquisition unit, 54 ... Relative phase value calculation unit, 55 ... Stripe order calculation unit, 56 ... Absolute phase value Calculation unit, 57 ... 3D shape calculation unit, 58 ... 3D shape identification unit, 59 ... Setting unit

Claims (6)

物体に対してパターン光を照射する投影装置と、
前記パターン光が照射された前記物体の全領域を撮像するように配置され、それぞれが前記物体の部分的な領域を撮像する複数の撮像装置と、
複数の前記撮像装置のそれぞれから前記物体の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された複数の前記物体の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定する制御装置と、
を備える、3次元計測装置。
A projection device that irradiates an object with patterned light,
A plurality of imaging devices arranged so as to image the entire area of the object irradiated with the pattern light, each of which images a partial area of the object.
A plurality of calculated images of a partial region of the object are acquired from each of the plurality of imaging devices, and a three-dimensional shape of the partial region of the object corresponding to the plurality of image data is calculated. A control device that synthesizes the three-dimensional shape of a partial region of the object to specify the overall three-dimensional shape of the object.
A three-dimensional measuring device.
複数の前記撮像装置は、前記物体に対向して2次元に配置されている、
請求項1に記載の3次元計測装置。
The plurality of the imaging devices are arranged two-dimensionally so as to face the object.
The three-dimensional measuring device according to claim 1.
複数の前記撮像装置は、マトリックス状に配置されている、
請求項2に記載の3次元計測装置。
The plurality of the imaging devices are arranged in a matrix.
The three-dimensional measuring device according to claim 2.
前記投影装置は、正弦波状の明度分布の縞パターン光を位相シフトさせながら前記物体に照射する、
請求項1〜3のいずれか1項に記載の3次元計測装置。
The projection device irradiates the object with fringe pattern light having a sinusoidal brightness distribution while shifting the phase.
The three-dimensional measuring device according to any one of claims 1 to 3.
複数の撮像装置は、通常画角で前記物体を撮像する第1カメラと、通常画角に対して広角で前記物体を撮像する第2カメラとを含み、
前記制御装置は、前記物体に応じて前記物体を撮像するために前記第1カメラと前記第2カメラとを設定する、
請求項1〜4のいずれか1項に記載の3次元計測装置。
The plurality of imaging devices include a first camera that images the object at a normal angle of view and a second camera that images the object at a wide angle with respect to the normal angle of view.
The control device sets the first camera and the second camera in order to image the object according to the object.
The three-dimensional measuring device according to any one of claims 1 to 4.
物体に対してパターン光を照射することと、
前記パターン光が照射された前記物体の全領域を撮像するように、前記物体の複数の部分的な領域を撮像することと、
前記物体の複数の部分的な領域の画像データを取得するとともに、複数の前記画像データに対応する前記物体の部分的な領域の3次元形状を算出し、算出された前記物体の複数の部分的な領域の3次元形状を合成して前記物体の全体的な3次元形状を特定することと、
を含む、3次元計測方法。
Irradiating an object with patterned light and
Imaging a plurality of partial regions of the object so as to image the entire region of the object irradiated with the pattern light.
The image data of the plurality of partial regions of the object is acquired, and the three-dimensional shape of the partial region of the object corresponding to the plurality of the image data is calculated, and the calculated plurality of partial regions of the object are calculated. To identify the overall 3D shape of the object by synthesizing the 3D shape of the area
Three-dimensional measurement method including.
JP2019204927A 2019-11-12 2019-11-12 Three-dimensional measuring device and three-dimensional measuring method Pending JP2021076531A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019204927A JP2021076531A (en) 2019-11-12 2019-11-12 Three-dimensional measuring device and three-dimensional measuring method
KR1020200151162A KR20210057698A (en) 2019-11-12 2020-11-12 Three-dimensional measurement device and three-dimensional measurement method
CN202011259614.3A CN112857259A (en) 2019-11-12 2020-11-12 3-dimensional measuring device and 3-dimensional measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019204927A JP2021076531A (en) 2019-11-12 2019-11-12 Three-dimensional measuring device and three-dimensional measuring method

Publications (1)

Publication Number Publication Date
JP2021076531A true JP2021076531A (en) 2021-05-20

Family

ID=75898459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019204927A Pending JP2021076531A (en) 2019-11-12 2019-11-12 Three-dimensional measuring device and three-dimensional measuring method

Country Status (3)

Country Link
JP (1) JP2021076531A (en)
KR (1) KR20210057698A (en)
CN (1) CN112857259A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008014940A (en) * 2006-06-08 2008-01-24 Fast:Kk Camera calibration method for camera measurement of planar subject and measuring device applying same
JP2009042015A (en) * 2007-08-08 2009-02-26 Ckd Corp Three-dimensional measuring device and board inspection machine
JP2011179982A (en) * 2010-03-01 2011-09-15 Fukuoka Institute Of Technology Surface inspection apparatus, method of inspecting surface, and surface inspection program
JP2014206547A (en) * 2008-01-16 2014-10-30 オルボテック リミテッド Inspection of substrate using multiple cameras

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202296A (en) 2002-01-07 2003-07-18 Canon Inc Image input device, three-dimensional measuring device and three-dimensional image processing system
US8878929B2 (en) * 2009-05-27 2014-11-04 Koh Young Technology Inc. Three dimensional shape measurement apparatus and method
JP5818341B2 (en) * 2010-12-13 2015-11-18 国立大学法人 和歌山大学 Shape measuring apparatus and shape measuring method
JP5709009B2 (en) * 2011-11-17 2015-04-30 Ckd株式会社 3D measuring device
JP6320051B2 (en) * 2014-01-17 2018-05-09 キヤノン株式会社 3D shape measuring device, 3D shape measuring method
JP6357949B2 (en) * 2014-07-29 2018-07-18 セイコーエプソン株式会社 Control system, robot system, and control method
KR101659302B1 (en) * 2015-04-10 2016-09-23 주식회사 고영테크놀러지 Three-dimensional shape measurement apparatus
JP6823985B2 (en) * 2016-09-28 2021-02-03 Juki株式会社 3D shape measurement method and 3D shape measurement device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008014940A (en) * 2006-06-08 2008-01-24 Fast:Kk Camera calibration method for camera measurement of planar subject and measuring device applying same
JP2009042015A (en) * 2007-08-08 2009-02-26 Ckd Corp Three-dimensional measuring device and board inspection machine
JP2014206547A (en) * 2008-01-16 2014-10-30 オルボテック リミテッド Inspection of substrate using multiple cameras
JP2011179982A (en) * 2010-03-01 2011-09-15 Fukuoka Institute Of Technology Surface inspection apparatus, method of inspecting surface, and surface inspection program

Also Published As

Publication number Publication date
CN112857259A (en) 2021-05-28
KR20210057698A (en) 2021-05-21

Similar Documents

Publication Publication Date Title
US9628779B2 (en) Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
US9683837B2 (en) Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
TWI582383B (en) Three-dimensional measuring device
JP6823985B2 (en) 3D shape measurement method and 3D shape measurement device
US8243286B2 (en) Device and method for the contactless detection of a three-dimensional contour
JP5485889B2 (en) Apparatus and method for performing phase analysis measurement
KR20180003528A (en) Updating calibration of a three-dimensional measurement system
US6509559B1 (en) Binary optical grating and method for generating a moire pattern for 3D imaging
JP2006514739A5 (en)
KR101281454B1 (en) Inspection apparatus and compensating method thereof
CN104937367A (en) Multi-camera sensor for three-dimensional imaging of a circuit board
JP2006514739A (en) Dental laser digitizer system
CN110612428B (en) Three-dimensional measurement method using characteristic quantity and apparatus therefor
KR101562467B1 (en) 3 dimensional measurement device using smart phone
JP2008190962A (en) Three-dimensional measurement apparatus
JP5956296B2 (en) Shape measuring apparatus and shape measuring method
KR100982051B1 (en) moire measurement device using digital micromirror device
JP2021076531A (en) Three-dimensional measuring device and three-dimensional measuring method
JP2006084286A (en) Three-dimensional measuring method and its measuring device
JP2015081894A (en) Surface shape measurement device and surface shape measurement method
KR20130022415A (en) Inspection apparatus and compensating method thereof
JP2008170282A (en) Shape measuring device
JP2010210410A (en) Three-dimensional shape measuring device
JP7509182B2 (en) Parameter determination method, information processing device, and program
JP2005265816A (en) Non-contact shape measuring method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240312