JP2008170282A - Shape measuring device - Google Patents

Shape measuring device Download PDF

Info

Publication number
JP2008170282A
JP2008170282A JP2007003912A JP2007003912A JP2008170282A JP 2008170282 A JP2008170282 A JP 2008170282A JP 2007003912 A JP2007003912 A JP 2007003912A JP 2007003912 A JP2007003912 A JP 2007003912A JP 2008170282 A JP2008170282 A JP 2008170282A
Authority
JP
Japan
Prior art keywords
pattern
projection
projection pattern
luminance
test object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007003912A
Other languages
Japanese (ja)
Inventor
Tomoaki Yamada
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007003912A priority Critical patent/JP2008170282A/en
Publication of JP2008170282A publication Critical patent/JP2008170282A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a measuring device capable of performing accurate three-dimensional shape measurement by creating a projection pattern so as to prevent influence of the surface shape of a specimen. <P>SOLUTION: This shape measuring device comprises a pattern projection section for projecting a predetermined projection pattern to the specimen, an imaging section for imaging the specimen to which the projection pattern is projected, a shape calculation section for calculating the position of the optical axis direction of a plurality of parts of the specimen corresponding to the projection pattern from an imaged image acquired by the imaging section, a brightness calculation section for performing position matching of the projection pattern projected by the pattern projection section with the imaged image acquired by the imaging section, and calculating the brightness of a point on an image surface of the imaged image, and a pattern correction section for correcting the brightness of the position on the projection pattern with the brightness of the point on the image surface of the imaged image acquired by the brightness calculation section. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、パターン投影により3次元形状を測定する装置に関する。   The present invention relates to an apparatus for measuring a three-dimensional shape by pattern projection.

工業製品等の物体の表面形状を測定する技術は従来から種々提案されており、その一つに光学式の三次元形状測定装置がある。光学式の三次元形状測定装置も種々の方式、構成のものがあるが、被検物に所定の投影パターン(縞模様や、格子模様)を投影して被検物を撮像し、その撮像画像から各画像位置(各画素)での縞の位相を求めて各画像位置の高さを算出し、被検物の三次元表面形状を測定するものがある(特許文献1参照)。   Various techniques for measuring the surface shape of an object such as an industrial product have been proposed, and one of them is an optical three-dimensional shape measuring apparatus. There are various types of optical three-dimensional shape measurement devices and configurations, but a predetermined projection pattern (a striped pattern or a lattice pattern) is projected onto the test object, and the test object is imaged. From the above, there is a method for calculating the height of each image position by calculating the phase of the stripes at each image position (each pixel) and measuring the three-dimensional surface shape of the test object (see Patent Document 1).

このような装置においては、例えば、被検物の表面に縞パターンからなる投影パターンを投影し、投影方向と異なる角度から被検物に投影された縞パターンを撮像し、撮像された被検物表面の撮像画像より縞パターンの位相分布を算出し、三角測量の原理等を用いて被検物表面の三次元形状を求めるように構成されている。   In such an apparatus, for example, a projection pattern composed of a fringe pattern is projected onto the surface of the test object, and a fringe pattern projected onto the test object from an angle different from the projection direction is imaged. The phase distribution of the fringe pattern is calculated from the captured image of the surface, and the three-dimensional shape of the surface of the test object is obtained using the principle of triangulation or the like.

その構成例を図4に示しており、光源51からの光が縞模様の投影パターンマスク52及び投影レンズ53を通して被検物54の表面に投影される。被検物54の表面に投影された投影パターンマスク52の縞模様は、被検物54の表面三次元形状に応じて変形され、このように変形された被検物54の表面のパターンを投影方向と異なる角度から撮像レンズ55を介して撮像装置56(例えば、CCDセンサ)により撮像されて、演算処理装置57に送られ、ここで撮像画像データの演算処理が行われる。演算処理装置57においては、このように撮像された被検物表面の撮像画像データより縞パターンの位相分布を算出し、三角測量の原理等を用いて被検物表面の三次元形状を求める演算処理が行われる。   An example of the configuration is shown in FIG. 4, and the light from the light source 51 is projected onto the surface of the test object 54 through the projection pattern mask 52 having a striped pattern and the projection lens 53. The stripe pattern of the projection pattern mask 52 projected on the surface of the test object 54 is deformed according to the three-dimensional shape of the surface of the test object 54, and the pattern of the surface of the test object 54 thus deformed is projected. The image is picked up by the image pickup device 56 (for example, a CCD sensor) through the image pickup lens 55 from an angle different from the direction, and sent to the arithmetic processing device 57, where the calculation processing of the picked-up image data is performed. The arithmetic processing unit 57 calculates the phase distribution of the fringe pattern from the captured image data of the surface of the test object imaged in this way, and calculates the three-dimensional shape of the test object surface using the triangulation principle or the like. Processing is performed.

特開2000−9444号公報JP 2000-9444 A

ところで、被検物上での散乱光を利用することから上述の三次元形状測定が行われているが、被検物の表面状態や投影パターンの入射角によっては散乱光が十分に得ることができなかったり、表面傾斜によっては正反射光の影響でハレーションを生じて、適正なコントラスト比の投影パターンの撮像画像を取得することができないという問題がある。当然ながらこのような投影パターンの撮像画像を用いて三次元測定を行った場合、その測定結果が誤差を有することになる。   By the way, the above-mentioned three-dimensional shape measurement is performed because the scattered light on the test object is used. However, depending on the surface state of the test object and the incident angle of the projection pattern, the scattered light can be obtained sufficiently. Depending on the surface inclination, there is a problem that halation occurs due to the influence of specular reflection light, and a captured image of a projection pattern with an appropriate contrast ratio cannot be obtained. Naturally, when a three-dimensional measurement is performed using a captured image of such a projection pattern, the measurement result has an error.

本発明は、このような問題に鑑みてなされたものであり、被検物の表面形状の影響を受けることがないように投影パターンを生成して正確な三次元形状測定を行うことができるような測定装置を提供することを目的とする。   The present invention has been made in view of such a problem, and it is possible to generate a projection pattern and perform accurate three-dimensional shape measurement so as not to be affected by the surface shape of the test object. An object of the present invention is to provide a simple measuring device.

上記課題を解決して目的を達成するため、本発明に係る形状測定装置は、被検物に所定の投影パターンを投影するパターン投影部と、前記投影パターンが投影された前記被検物を撮像する撮像部と、前記撮像部により得られた撮像画像から前記投影パターンに対応する前記被検物の複数の部分の光軸方向の位置を演算する形状演算部と、前記パターン投影部により投影された前記投影パターンと前記撮像部により得られた撮像画像との位置の対応づけを行うとともに、前記撮像画像の画像面上の点の輝度を演算する輝度演算部と、前記輝度演算部により得られた前記撮像画像の画像面上の点の輝度により、前記投影パターン上の点に対して輝度の補正を行うパターン補正部とを備える。   In order to solve the above problems and achieve the object, a shape measuring apparatus according to the present invention images a pattern projection unit that projects a predetermined projection pattern onto a test object, and the test object on which the projection pattern is projected. The image projection unit, the shape calculation unit that calculates the position in the optical axis direction of the plurality of portions of the test object corresponding to the projection pattern from the captured image obtained by the imaging unit, and the pattern projection unit The projection pattern and the captured image obtained by the imaging unit are associated with each other, and the luminance calculation unit that calculates the luminance of a point on the image plane of the captured image is obtained by the luminance calculation unit. And a pattern correction unit that corrects the luminance of the point on the projection pattern according to the luminance of the point on the image plane of the captured image.

なお、前記輝度演算部は、前記形状演算部により得られた前記被検物の形状測定結果から、前記パターン投影部により投影された前記投影パターン上の点と前記撮像部により得られた撮像画像の画像面上の点との位置の対応づけを行うように構成することが好ましい。   The luminance calculation unit is configured to obtain a point on the projection pattern projected by the pattern projection unit and a captured image obtained by the imaging unit based on the shape measurement result of the test object obtained by the shape calculation unit. It is preferable that the position is associated with a point on the image plane.

また、前記パターン補正部は、前記輝度演算部により得られた前記投影パターン上の点及び前記撮像画像の画像面上の点の輝度を用いて行う前記投影パターン上の点に対する輝度の補正は、輝度の明部が前記撮像部の感度範囲内で2次元の広がりをもつように補正するように構成することが好ましい。   In addition, the pattern correction unit performs luminance correction on the point on the projection pattern performed using the luminance of the point on the projection pattern and the point on the image plane of the captured image obtained by the luminance calculation unit, It is preferable that the bright portion of the luminance is corrected so as to have a two-dimensional spread within the sensitivity range of the imaging unit.

以上説明したように構成される本発明によれば、投影パターン上の点及び撮像画像の画像面上の点の輝度を算出し、投影パターン上の点に対して輝度の補正を行い、適正なコントラスト比の投影パターンの撮像画像から三角測量の原理に基づいて被検物の三次元形状を求める構成であり、被検物の表面形状により撮像された投影パターンのコントラスト比が極端に大きくなった場合でも、正確な三次元形状測定を行うことが可能である。   According to the present invention configured as described above, the luminance of the points on the projection pattern and the points on the image plane of the captured image is calculated, the luminance is corrected for the points on the projection pattern, Based on the principle of triangulation from the captured image of the projected pattern of the contrast ratio, the 3D shape of the test object is obtained, and the contrast ratio of the projected pattern captured by the surface shape of the test object has become extremely large Even in this case, it is possible to perform accurate three-dimensional shape measurement.

以下、本発明の好ましい実施形態について説明する。本発明に係る三次元形状測定装置の概略構成を図1に示しており、まず、この形状測定装置について、図1を参照して説明する。   Hereinafter, preferred embodiments of the present invention will be described. FIG. 1 shows a schematic configuration of a three-dimensional shape measuring apparatus according to the present invention. First, the shape measuring apparatus will be described with reference to FIG.

この形状測定装置は、光源1と、光源1からの光に縞模様を与えるための投影パターンマスク2と、投影パターンマスク2を通過した光源1からの光を被検物20の表面に投影させる投影レンズ(群)3とからなるパターン投影部と、被検物20からの反射光を撮像レンズ(群)4を介して撮像する撮像装置5からなる撮像部と、を有して構成される。   The shape measuring device projects a light source 1, a projection pattern mask 2 for giving a stripe pattern to the light from the light source 1, and light from the light source 1 that has passed through the projection pattern mask 2 onto the surface of the test object 20. A pattern projection unit including the projection lens (group) 3 and an imaging unit including the imaging device 5 that captures the reflected light from the test object 20 via the imaging lens (group) 4 are configured. .

パターン投影部において、投影パターンマスク2は例えば液晶素子により構成され、投影パターン発生装置6により任意のピッチ及び任意の輝度の投影パターン(例えば、正弦波状の縞模様パターン)を生成できる。これにより、光源1からの光をこの投影パターンマスク2を通過させ、投影レンズ3により集光させ、被検物20の表面に投影パターンマスク2により形成された所望の投影パターンを投影させることができる。   In the pattern projection unit, the projection pattern mask 2 is constituted by, for example, a liquid crystal element, and the projection pattern generator 6 can generate a projection pattern (for example, a sinusoidal striped pattern) having an arbitrary pitch and an arbitrary luminance. Thereby, the light from the light source 1 passes through the projection pattern mask 2, is condensed by the projection lens 3, and a desired projection pattern formed by the projection pattern mask 2 is projected onto the surface of the test object 20. it can.

撮像部は、被検物20からの反射光を撮像レンズ4を介して被検物20を撮像する撮像装置5(例えば、CCDカメラ)を備えている。撮像装置5により撮像された被検物20の画像データは、演算処理装置7に送られ、ここで以下に説明する画像演算処理がなされ、被検物20の表面形状測定が行われる。なお、パターン投影部、撮像部は一つのフレームにより一体に固定されて構成されており、被検物20は図示しない支持台上に載置されて支持されている。   The imaging unit includes an imaging device 5 (for example, a CCD camera) that captures an image of the test object 20 through the imaging lens 4 with reflected light from the test object 20. The image data of the test object 20 imaged by the imaging device 5 is sent to the arithmetic processing device 7, where the image arithmetic processing described below is performed, and the surface shape of the test object 20 is measured. Note that the pattern projection unit and the imaging unit are integrally fixed by a single frame, and the test object 20 is placed and supported on a support table (not shown).

演算処理装置7は、撮像装置5により撮像された被検物20の画像データから被検物20のパターンに対応する各部分の光軸方向の位置を演算する形状演算部8と、パターン投影部により投影された投影パターンマスク2上の点と撮像装置5により得られた撮像画像面上の点との位置の対応づけを行い、投影パターンマスク2上の点の輝度及び撮像画像面上の点の輝度を演算する輝度演算部9と、投影パターンマスク2の輝度を補正するパターン補正部10と、撮像装置5により得られた撮像画像の輝度を補正する画像補正部11とを備えている。   The arithmetic processing unit 7 includes a shape calculation unit 8 that calculates the position in the optical axis direction of each part corresponding to the pattern of the test object 20 from the image data of the test object 20 imaged by the imaging device 5, and a pattern projection unit. The positions of the points on the projection pattern mask 2 projected by the above and the points on the captured image plane obtained by the imaging device 5 are correlated, and the brightness of the points on the projection pattern mask 2 and the points on the captured image plane A luminance calculation unit 9 that calculates the luminance of the projection pattern mask 2, a pattern correction unit 10 that corrects the luminance of the projection pattern mask 2, and an image correction unit 11 that corrects the luminance of the captured image obtained by the imaging device 5.

以上のように構成された表面形状測定装置を用いて被検物20の表面形状を測定する方法を、図2のフローチャートを参照して以下に説明する。   A method of measuring the surface shape of the test object 20 using the surface shape measuring apparatus configured as described above will be described below with reference to the flowchart of FIG.

この測定に際しては、まず、投影パターン発生装置6により投影パターンマスク2を第一縞パターン(被検物20の形状測定が可能な程度ピッチの大きな正弦波状の粗な縞パターン)に生成する(ステップS1)。光源1からの光を投影パターンマスク2及び投影レンズ3を介して被検物20に照射させて被検物20の表面に第一縞パターンを投影する。このように投影されて被検物20から反射する光は撮像レンズ4を介して集光され、撮像装置5により被検物表面に投影された第一縞パターンを撮像する(ステップS2)。   In this measurement, first, the projection pattern generation device 6 generates the projection pattern mask 2 into a first fringe pattern (a sinusoidal coarse fringe pattern having a pitch large enough to measure the shape of the test object 20) (step). S1). The test object 20 is irradiated with light from the light source 1 through the projection pattern mask 2 and the projection lens 3 to project the first fringe pattern on the surface of the test object 20. The light thus projected and reflected from the test object 20 is collected through the imaging lens 4, and the first stripe pattern projected on the test object surface is imaged by the imaging device 5 (step S2).

これら撮像装置5による撮像は、投影パターンマスク2により形成された第一縞パターンの位相を変えて複数回(例えば、図2における位相1、位相2、位相3)行われて、一組の撮像画像群を得る。このようにして得られた画像データは、撮像装置5から演算処理装置7に送られる。   The imaging by these imaging devices 5 is performed a plurality of times (for example, phase 1, phase 2, and phase 3 in FIG. 2) by changing the phase of the first fringe pattern formed by the projection pattern mask 2, and a set of imaging Obtain an image group. The image data obtained in this way is sent from the imaging device 5 to the arithmetic processing device 7.

一般に、パターン投影法では、複数のエッジパターン又は同一位相の正弦波パターンが存在するために、隣接するパターンとの弁別(アンラッピング)をする必要がある。ここでは、第一縞パターン(ピッチの大きい粗な縞パターン)と以下に説明する第一縞パターンよりもピッチの小さい第二縞パターン(密な縞パターン)を投影し、アンラッピングを容易にすることができる。   In general, in the pattern projection method, since there are a plurality of edge patterns or sinusoidal patterns having the same phase, it is necessary to distinguish (unwrap) from adjacent patterns. Here, the first stripe pattern (coarse stripe pattern having a large pitch) and the second stripe pattern (dense stripe pattern) having a smaller pitch than the first stripe pattern described below are projected to facilitate unwrapping. be able to.

図3(A)に示すように、上記のようにして画像データが送られると、演算処理装置7内の形状演算部8において、被検物20の光軸方向の位置を演算する(ステップS3)。第一縞パターンを投影して得られた画像データから被検物20の光軸方向の位置(明確に演算できない部分を含む)を演算することにより、被検物20に投影された投影パターンマスク2上の点と撮像画像の画像面上の点との位置の対応づけを行うことができる。さらに、例えば、明確に被検物20の光軸方向の位置を演算できない部分に位置する撮像画像の画面上の点P(X,Y)を検出することにより、投影パターンマスク2が被検物20に十分なコントラスト比で投影されていない投影パターンマスク2上の点Q(x,y)を検出することができる。なお、投影パターンマスク2上の点と撮像画像の画像面上の点との位置の対応づけは、投影パターンマスク2上の点毎に点灯させて画像面上の点を結像させても行うことができる。   As shown in FIG. 3A, when the image data is sent as described above, the shape calculation unit 8 in the calculation processing device 7 calculates the position of the test object 20 in the optical axis direction (step S3). ). A projection pattern mask projected onto the test object 20 by calculating the position in the optical axis direction of the test object 20 (including a portion that cannot be clearly calculated) from the image data obtained by projecting the first fringe pattern. It is possible to associate the positions of the points on 2 and the points on the image plane of the captured image. Further, for example, the projection pattern mask 2 detects the point P (X, Y) on the screen of the picked-up image that is located in a portion where the position of the test object 20 in the optical axis direction cannot be calculated clearly. A point Q (x, y) on the projection pattern mask 2 that is not projected with a contrast ratio sufficient to 20 can be detected. Note that the correspondence between the points on the projection pattern mask 2 and the points on the image plane of the captured image is also performed by lighting each point on the projection pattern mask 2 and imaging the points on the image plane. be able to.

また、演算処理装置7内の輝度演算部9において、投影パターンマスク2が被検物20に十分なコントラスト比で投影されていない投影パターンマスク2上の点Q(x、y)の輝度B(x,y)及び前記点Q(x,y)と位置の対応づけがされた撮像画像の画像面上の点P(X,Y)の輝度B(X,Y)を求める(ステップS4)。したがって、前記点Q(x,y)の輝度B(x,y)と前記点P(X,Y)の輝度B(X,Y)の対応づけをすることができる。   Further, in the luminance calculation unit 9 in the arithmetic processing unit 7, the luminance B () of the point Q (x, y) on the projection pattern mask 2 on which the projection pattern mask 2 is not projected onto the test object 20 with a sufficient contrast ratio. The luminance B (X, Y) of the point P (X, Y) on the image plane of the captured image whose position is associated with x, y) and the point Q (x, y) is obtained (step S4). Therefore, the luminance B (x, y) of the point Q (x, y) can be associated with the luminance B (X, Y) of the point P (X, Y).

次に、被検物20の正確な形状を測定するために、第二縞パターン(第一縞パターンよりもピッチの小さい密な縞パターン)を被検物20に投影するが、図3(B)に示すように、被検物20に十分なコントラスト比で投影されない投影パターンマスク2の部分の輝度を補正する必要がある。したがって、演算処理装置7内のパターン補正部10において、投影パターンマスク2が被検物20に十分なコントラスト比で投影されていない投影パターンマスク2上の点Q(x,y)の輝度B(x,y)を用いて、被検物20に十分なコントラスト比で投影されない投影パターンマスク2の部分の輝度を補正する(ステップS5)。   Next, in order to measure the accurate shape of the test object 20, a second fringe pattern (a dense fringe pattern having a smaller pitch than the first stripe pattern) is projected onto the test object 20, but FIG. ), It is necessary to correct the luminance of the portion of the projection pattern mask 2 that is not projected onto the test object 20 with a sufficient contrast ratio. Therefore, in the pattern correction unit 10 in the arithmetic processing unit 7, the brightness B () of the point Q (x, y) on the projection pattern mask 2 on which the projection pattern mask 2 is not projected onto the test object 20 with a sufficient contrast ratio. x, y) is used to correct the luminance of the portion of the projection pattern mask 2 that is not projected onto the object 20 with a sufficient contrast ratio (step S5).

投影パターンマスク2が被検物20に十分なコントラスト比で投影されない投影パーンマスク2の部分の輝度の補正は、以下の式(1)を用いて行われる。   Correction of the luminance of the portion of the projection pattern mask 2 where the projection pattern mask 2 is not projected onto the test object 20 with a sufficient contrast ratio is performed using the following equation (1).

S(x,y)=c〔sin(ax+b)/B(x,y)〕 (1)
ここで、S(x,y)は補正後の投影パターンマスク2の輝度、aは投影パターンマスク2のピッチ、bは投影パターンマスク2の位相、cは任意に決めることができる輝度係数である。
S (x, y) = c [sin (ax + b) / B (x, y)] (1)
Here, S (x, y) is the luminance of the projection pattern mask 2 after correction, a is the pitch of the projection pattern mask 2, b is the phase of the projection pattern mask 2, and c is a luminance coefficient that can be arbitrarily determined. .

式1において、被検物20に十分なコントラスト比で投影されない投影パターンマスク2の部分の輝度は、投影パターンマスク2が被検物20に十分なコントラスト比で投影されていない撮像画像の画像面上の点P(X,Y)の輝度B(X,Y)と対応づけがされた投影パターンマスク2上の点Q(x,y)の輝度B(x,y)と逆数の関係にあるので、撮像画像が被検物20の明確な形状測定が可能な程度に十分な輝度B(X,Y)を得られない点P(X,Y)では、その点P(X,Y)に対応する投影パターンマスク2上の点Q(x,y)の輝度B(x,y)を正確な形状測定が可能な程度に十分な輝度に補正することができる。なお、輝度は、撮像装置5の感度で規格化することで輝度B(x,y)を撮像装置5の感度範囲内で適度な非線形性を有する広がりを持たせることができる。   In Equation 1, the brightness of the portion of the projection pattern mask 2 that is not projected onto the test object 20 with a sufficient contrast ratio is the image plane of the captured image where the projection pattern mask 2 is not projected onto the test object 20 with a sufficient contrast ratio. The luminance B (x, y) of the point Q (x, y) on the projection pattern mask 2 associated with the luminance B (X, Y) of the upper point P (X, Y) has an inverse relationship. Therefore, at a point P (X, Y) where the captured image cannot obtain a luminance B (X, Y) sufficient to enable a clear shape measurement of the test object 20, the point P (X, Y) The brightness B (x, y) of the point Q (x, y) on the corresponding projection pattern mask 2 can be corrected to a brightness sufficient to enable accurate shape measurement. The luminance is normalized by the sensitivity of the imaging device 5, so that the luminance B (x, y) can be spread with appropriate nonlinearity within the sensitivity range of the imaging device 5.

上記のような投影パターンマスク2が被検物20に十分なコントラスト比で投影されない投影パーンマスク2の部分の輝度の補正は、補正後の投影パターンマスク2上の点Q(x,y)の輝度B(x,y)の明部が広がりをもつように補正することにより、投影パターンマスク2が被検物20に十分なコントラスト比で投影されていない投影パターンマスク2上の点Q(x,y)と撮像画像の画像面上の点P(X,Y)との位置の対応づけにより生じる誤差の影響を軽減することができる。   The correction of the brightness of the portion of the projection pattern mask 2 in which the projection pattern mask 2 as described above is not projected on the test object 20 with a sufficient contrast ratio is performed by correcting the point Q (x, y) on the projection pattern mask 2 after the correction. The point Q (x on the projection pattern mask 2 on which the projection pattern mask 2 is not projected on the test object 20 with a sufficient contrast ratio is corrected by correcting the bright part of the brightness B (x, y) to be wide. , Y) and the position of the position P (X, Y) on the image plane of the captured image can be reduced.

図3(C)に示すように、上記にように投影パターンマスク2を被検物20に十分なコントラスト比で投影されない投影パターンマスク2の部分の補正を行い、第二縞パターンを生成する(ステップS6)。そして、第一縞パターンと同様にして、撮像装置5により被検物表面に投影された第二縞パターンを撮像する(ステップS7)。   As shown in FIG. 3 (C), as described above, the portion of the projection pattern mask 2 that does not project the projection pattern mask 2 onto the test object 20 with a sufficient contrast ratio is corrected to generate a second fringe pattern ( Step S6). Then, in the same manner as the first fringe pattern, the second fringe pattern projected on the surface of the test object is imaged by the imaging device 5 (step S7).

さらに、第一縞パターンの際と同様に、撮像装置5により第二縞パターンの位相を変えて複数回(例えば、図2における位相1、位相2、位相3)撮像を行い画像データを得る。このように得られた画像データを演算処理装置7に送り、演算処理装置7内の輝度演算部9において、被検物20に第二縞パターンを投影して得られた撮像画像の輝度C1(X,Y)を算出する。   Further, as in the case of the first fringe pattern, the imaging device 5 changes the phase of the second fringe pattern and performs imaging a plurality of times (for example, phase 1, phase 2, and phase 3 in FIG. 2) to obtain image data. The image data obtained in this way is sent to the arithmetic processing unit 7, and the luminance C1 (C1) of the captured image obtained by projecting the second fringe pattern onto the test object 20 in the luminance calculation unit 9 in the arithmetic processing unit 7. X, Y) is calculated.

しかしながら、第二縞パターンは、投影パターンマスク2において被検物20に十分なコントラスト比で投影されない投影パターンマスク2の部分の輝度を補正して生成されている部分があるので、第二縞パターンを投影して得られた撮像画像の輝度分布C1(X,Y)をこのまま用いても、正確な被検物20の形状測定結果を得ることができない。   However, since the second fringe pattern is generated by correcting the luminance of the portion of the projection pattern mask 2 that is not projected onto the test object 20 with a sufficient contrast ratio in the projection pattern mask 2, the second fringe pattern Even if the brightness distribution C1 (X, Y) of the captured image obtained by projecting is used as it is, an accurate shape measurement result of the test object 20 cannot be obtained.

そこで、第二縞パターンを投影して得られた撮像画像の輝度C1(X,Y)を、第二縞パターンの輝度S(x,y)に対応する部分の撮像画像の輝度R(X,Y)と、第二縞パターンの輝度S(x,y)に対応する部分以外の撮像画像の輝度T(X,Y)とに分けることができ、正確な被検物20の形状測定結果を得るためには前記輝度R(X,Y)を補正しなおす必要がある。したがって、演算処理装置7内の画像補正部11において、前記投影パターンマスク2の補正(ステップS5)のときに用いた輝度B(x,y)に対応する撮像画像の画像面上の点P(X,Y)の輝度B(X,Y)を用いて前記輝度R(X,Y)を補正する(ステップS8)。   Therefore, the brightness C1 (X, Y) of the captured image obtained by projecting the second stripe pattern is set to the brightness R (X, Y) of the portion of the captured image corresponding to the brightness S (x, y) of the second stripe pattern. Y) and the brightness T (X, Y) of the captured image other than the portion corresponding to the brightness S (x, y) of the second stripe pattern, and the accurate shape measurement result of the test object 20 can be obtained. In order to obtain this, it is necessary to correct the luminance R (X, Y) again. Accordingly, in the image correction unit 11 in the arithmetic processing unit 7, the point P (on the image plane of the captured image corresponding to the luminance B (x, y) used when the projection pattern mask 2 is corrected (step S5). The luminance R (X, Y) is corrected using the luminance B (X, Y) of X, Y) (step S8).

ここで、第二縞パターンによる投影は、第一縞パターンによる投影の際における投影パターンマスク2及び被検物20及び撮像装置5等の位置関係を全く変化させていないので、第一縞パターンを投影して得られた投影パターンマスク2上の点と撮像画像の画像面上の点との位置の対応をそのまま用いることができる。   Here, since the projection with the second stripe pattern does not change the positional relationship of the projection pattern mask 2, the test object 20, the imaging device 5, etc. at the time of projection with the first stripe pattern, the first stripe pattern is not changed. The correspondence between the position on the projection pattern mask 2 obtained by the projection and the position on the image plane of the captured image can be used as it is.

第二縞パターンを投影して得られた撮像画像の輝度C1(X,Y)の一部分である前記輝度S(x,y)に対応する部分の撮像画像の輝度R(X,Y)を補正して得られる撮像画像の輝度C2(X,Y)は、以下の式(2)を用いて算出される。   Correction of the luminance R (X, Y) of the captured image of a portion corresponding to the luminance S (x, y), which is a part of the luminance C1 (X, Y) of the captured image obtained by projecting the second stripe pattern The brightness C2 (X, Y) of the captured image obtained in this way is calculated using the following equation (2).

C2(X,Y)=R(X,Y)×B(X,Y)+T(X,Y) (2)   C2 (X, Y) = R (X, Y) × B (X, Y) + T (X, Y) (2)

そして、撮像画像の輝度C2(X,Y)を用いて各画像の位相値を算出し、三角測量の原理を用いて被検物20の形状測定を行う(ステップS9)。   Then, the phase value of each image is calculated using the luminance C2 (X, Y) of the captured image, and the shape of the test object 20 is measured using the principle of triangulation (step S9).

以上のようにして、被検物20に投影された投影パターンマスク2の撮像画像において、投影パターンマスク2の全ての必要箇所の詳細な位相情報(被検物20の正確な形状測定を行うことができる画像データ)を得ることができるので、被検物20の三次元形状を正確に測定することができる。   As described above, in the captured image of the projection pattern mask 2 projected onto the test object 20, detailed phase information (accurate shape measurement of the test object 20 is performed on all necessary portions of the projection pattern mask 2. Therefore, the three-dimensional shape of the test object 20 can be accurately measured.

本発明の実施形態に係る三次元形状測定装置の構成を示す概略構成説明図である。1 is a schematic configuration explanatory diagram showing a configuration of a three-dimensional shape measuring apparatus according to an embodiment of the present invention. 上記本発明に係る形状測定方法を示すフローチャートである。It is a flowchart which shows the shape measuring method which concerns on the said invention. 上記形状測定方法において、(A)は第一縞パターン投影による投影点Qと結像点Pの位置の対応を示す概略構成説明図、(B)は第二縞パターンの生成を示す概略構成説明図、(C)は第二縞パターン投影による輝度分布の概略構成説明図である。In the above-described shape measuring method, (A) is a schematic configuration explanatory diagram showing the correspondence between the projection point Q by the first fringe pattern projection and the position of the imaging point P, and (B) is a schematic configuration explanation showing the generation of the second fringe pattern. FIG. 4C is a schematic configuration explanatory diagram of the luminance distribution by the second stripe pattern projection. 従来の形状測定装置の構成を示す概略構成説明図である。It is schematic structure explanatory drawing which shows the structure of the conventional shape measuring apparatus.

符号の説明Explanation of symbols

1 光源 2 投影パターンマスク
3 投影レンズ 4 撮像レンズ
5 撮像装置 6 投影パターン発生装置
7 演算処理装置 8 形状演算部
9 輝度演算部 10 パターン補正部
11 画像補正部 20 被検物
DESCRIPTION OF SYMBOLS 1 Light source 2 Projection pattern mask 3 Projection lens 4 Imaging lens 5 Imaging apparatus 6 Projection pattern generation apparatus 7 Arithmetic processing apparatus 8 Shape calculation part 9 Luminance calculation part 10 Pattern correction part 11 Image correction part 20 Test object

Claims (3)

被検物に所定の投影パターンを投影するパターン投影部と、
前記投影パターンが投影された前記被検物を撮像する撮像部と、
前記撮像部により得られた撮像画像から前記投影パターンに対応する前記被検物の複数の部分の光軸方向の位置を演算する形状演算部と、
前記パターン投影部により投影された前記投影パターンと前記撮像部により得られた撮像画像との位置の対応づけを行うとともに、前記撮像画像の画像面上の点の輝度を演算する輝度演算部と、
前記輝度演算部により得られた前記撮像画像の画像面上の点の輝度により、前記投影パターン上の点に対して輝度の補正を行うパターン補正部と、
を備える形状測定装置。
A pattern projection unit that projects a predetermined projection pattern onto the test object;
An imaging unit that images the object on which the projection pattern is projected;
A shape calculation unit that calculates positions in the optical axis direction of a plurality of portions of the test object corresponding to the projection pattern from a captured image obtained by the imaging unit;
A brightness calculation unit that associates positions of the projection pattern projected by the pattern projection unit and a captured image obtained by the imaging unit, and calculates a luminance of a point on an image plane of the captured image;
A pattern correction unit that corrects the luminance of a point on the projection pattern based on the luminance of the point on the image plane of the captured image obtained by the luminance calculation unit;
A shape measuring device comprising:
前記輝度演算部は、前記形状演算部により得られた前記被検物の形状測定結果から、前記パターン投影部により投影された前記投影パターン上の点と前記撮像部により得られた撮像画像の画像面上の点との位置の対応づけを行うことを特徴とする請求項1に記載の形状測定装置。   The luminance calculation unit, based on the shape measurement result of the test object obtained by the shape calculation unit, points on the projection pattern projected by the pattern projection unit and an image of a captured image obtained by the imaging unit The shape measuring apparatus according to claim 1, wherein the position is associated with a point on the surface. 前記パターン補正部は、前記輝度演算部により得られた前記投影パターン上の点及び前記撮像画像の画像面上の点の輝度を用いて行う前記投影パターン上の点に対する輝度の補正は、輝度の明部が前記撮像部の感度範囲内で2次元の広がりをもつように補正することを特徴とする請求項1もしくは請求項2に記載の形状測定装置。   The pattern correction unit performs luminance correction on the points on the projection pattern using the luminances of the points on the projection pattern and the points on the image plane of the captured image obtained by the luminance calculation unit. The shape measuring apparatus according to claim 1, wherein the bright portion is corrected so as to have a two-dimensional spread within a sensitivity range of the imaging unit.
JP2007003912A 2007-01-11 2007-01-11 Shape measuring device Pending JP2008170282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007003912A JP2008170282A (en) 2007-01-11 2007-01-11 Shape measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003912A JP2008170282A (en) 2007-01-11 2007-01-11 Shape measuring device

Publications (1)

Publication Number Publication Date
JP2008170282A true JP2008170282A (en) 2008-07-24

Family

ID=39698521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003912A Pending JP2008170282A (en) 2007-01-11 2007-01-11 Shape measuring device

Country Status (1)

Country Link
JP (1) JP2008170282A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133328A (en) * 2009-12-24 2011-07-07 Roland Dg Corp Method and apparatus for measurement of three-dimensional shape
CN105651203A (en) * 2016-03-16 2016-06-08 广东工业大学 High-dynamic-range three-dimensional shape measurement method for self-adaptation fringe brightness
CN106091986A (en) * 2016-06-08 2016-11-09 韶关学院 A kind of method for three-dimensional measurement being applicable to glossy surface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011133328A (en) * 2009-12-24 2011-07-07 Roland Dg Corp Method and apparatus for measurement of three-dimensional shape
CN105651203A (en) * 2016-03-16 2016-06-08 广东工业大学 High-dynamic-range three-dimensional shape measurement method for self-adaptation fringe brightness
CN105651203B (en) * 2016-03-16 2018-09-04 广东工业大学 A kind of high dynamic range 3 D measuring method of adaptive striped brightness
CN106091986A (en) * 2016-06-08 2016-11-09 韶关学院 A kind of method for three-dimensional measurement being applicable to glossy surface

Similar Documents

Publication Publication Date Title
KR101461068B1 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP6602867B2 (en) How to update the calibration of a 3D measurement system
JP6457072B2 (en) Integration of point clouds from multiple cameras and light sources in 3D surface shape measurement
JP3937024B2 (en) Detection of misalignment, pattern rotation, distortion, and misalignment using moiré fringes
JP5123522B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
JP2009264862A (en) Three-dimensional shape measuring method and device
JP2009019941A (en) Shape measuring method
US11640673B2 (en) Method and system for measuring an object by means of stereoscopy
CN107730554B (en) Calibration method and device of area array structured light imaging system
JP2007322162A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2010281621A (en) Three-dimensional shape measuring instrument
JP2008145209A (en) Device for measuring three-dimensional shape, and method for measuring three-dimensional shape
JP5545932B2 (en) 3D shape measuring device
JP2011155412A (en) Projection system and distortion correction method in the same
JP5956296B2 (en) Shape measuring apparatus and shape measuring method
JP4797109B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP4962852B2 (en) Shape measuring method and shape measuring apparatus
JP2011075336A (en) Three-dimensional shape measuring instrument and method
JP2008170282A (en) Shape measuring device
JP2010175554A (en) Device and method for measuring three-dimensional shape
JP2006084286A (en) Three-dimensional measuring method and its measuring device
WO2020012707A1 (en) Three-dimensional measurement device and method
KR101465996B1 (en) Method for measurement of high speed 3d shape using selective long period
JP2008170281A (en) Shape measuring device and shape measuring method
JP5895733B2 (en) Surface defect inspection apparatus and surface defect inspection method