JP4962852B2 - Shape measuring method and shape measuring apparatus - Google Patents

Shape measuring method and shape measuring apparatus Download PDF

Info

Publication number
JP4962852B2
JP4962852B2 JP2007053836A JP2007053836A JP4962852B2 JP 4962852 B2 JP4962852 B2 JP 4962852B2 JP 2007053836 A JP2007053836 A JP 2007053836A JP 2007053836 A JP2007053836 A JP 2007053836A JP 4962852 B2 JP4962852 B2 JP 4962852B2
Authority
JP
Japan
Prior art keywords
pattern
shape
test object
near net
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007053836A
Other languages
Japanese (ja)
Other versions
JP2008216039A (en
Inventor
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007053836A priority Critical patent/JP4962852B2/en
Publication of JP2008216039A publication Critical patent/JP2008216039A/en
Application granted granted Critical
Publication of JP4962852B2 publication Critical patent/JP4962852B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、工業製品等の表面形状(三次元形状)を測定する形状測定方法に関する。   The present invention relates to a shape measuring method for measuring a surface shape (three-dimensional shape) of an industrial product or the like.

工業製品等の物体の表面形状を測定する技術は従来から種々提案されており、その一つに光学式の三次元形状測定装置がある。光学式三次元形状測定装置も種々の方式、構成のものがあるが、被検物に所定の投影パターン(縞模様や、格子模様)を投影して被検物を撮像し、その撮像画像から各画像位置(各画素)での縞の位相を求めて各画像位置の高さを算出し、被検物の三次元形状を測定するものがある(例えば、特許文献1を参照)。   Various techniques for measuring the surface shape of an object such as an industrial product have been proposed, and one of them is an optical three-dimensional shape measuring apparatus. There are various types of optical three-dimensional shape measurement devices and configurations, but a predetermined projection pattern (striped pattern or lattice pattern) is projected onto the test object, and the test object is imaged. There is a technique that calculates the height of each image position by calculating the fringe phase at each image position (each pixel) and measures the three-dimensional shape of the test object (see, for example, Patent Document 1).

このような装置においては、例えば、被検物(測定対象物)の表面に縞パターンからなる投影パターンを投影し、投影方向と異なる角度から被検物に投影された縞パターンを撮像し、三角測量の原理等を用いて縞パターンの位相分布を算出し、被検物表面の三次元形状を求めるように構成されている。   In such an apparatus, for example, a projection pattern consisting of a fringe pattern is projected onto the surface of a test object (measuring object), and a fringe pattern projected onto the test object from an angle different from the projection direction is imaged. The phase distribution of the fringe pattern is calculated using the surveying principle or the like, and the three-dimensional shape of the surface of the test object is obtained.

その構成例を図8に示しており、光源51からの光が縞模様の投影パターンマスク52および投影レンズ53を通して被検物54の表面に投影される。被検物54の表面に投影された投影パターンマスク52の縞模様は、被検物54の表面三次元形状に応じて変形され、このように変形された被検物54の表面のパターンを、投影方向と異なる角度から撮像レンズ55を介して撮像装置(例えば、CCDセンサ)により撮像されて、演算処理装置57に送られ、ここで撮像画像データの演算処理が行われる。演算処理装置57においては、このように撮像された被検物表面の撮像画像データを三角測量の原理等を用いて縞パターンの位相分布を算出し、被検物表面の三次元形状を求める演算処理が行われる。
特開2000−9444号公報
An example of the configuration is shown in FIG. 8, and the light from the light source 51 is projected onto the surface of the test object 54 through the projection pattern mask 52 having a striped pattern and the projection lens 53. The stripe pattern of the projection pattern mask 52 projected onto the surface of the test object 54 is deformed according to the three-dimensional shape of the surface of the test object 54, and the pattern of the surface of the test object 54 thus deformed An image is picked up by an image pickup device (for example, a CCD sensor) through an image pickup lens 55 from an angle different from the projection direction, and sent to the arithmetic processing device 57, where calculation processing of the picked-up image data is performed. In the arithmetic processing unit 57, the phase distribution of the fringe pattern is calculated using the imaged image data of the surface of the object imaged in this way by using the principle of triangulation, etc., and the three-dimensional shape of the surface of the object to be detected is calculated. Processing is performed.
JP 2000-9444 A

しかしながら、被検物の表面三次元形状に応じて被検物の表面の縞パターンが変形して観測されるため、被検物の傾斜によっては縞パターンの間隔が極端に狭くなって、撮像された縞パターンが十分に解像されない場合や、画素間の補間が十分にできなくなる場合があり、測定精度が低下するおそれがあった。   However, since the fringe pattern on the surface of the test object is deformed and observed according to the three-dimensional shape of the surface of the test object, the interval between the fringe patterns becomes extremely narrow depending on the inclination of the test object. In some cases, the fringe pattern is not sufficiently resolved, or interpolation between pixels may not be sufficiently performed, resulting in a decrease in measurement accuracy.

本発明は、このような問題に鑑みてなされたものであり、測定精度を向上させた形状測定方法および形状測定装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object thereof is to provide a shape measuring method and a shape measuring device with improved measurement accuracy.

このような目的達成のため、本発明に係る形状測定方法は、被検物に所定のパターンを第1の方向から投影し、被検物に投影されたパターンを第1の方向とは異なる第2の方向から観察し、観察されたパターンから被検物の形状を測定する形状測定方法であって、所定間隔の投影パターンを被検物に投影したときに被検物上に形成されるパターンに類似した形状のニアネットパターンを、被検物に投影するようになっている。
上述の形状測定方法において、被検物に投影されたニアネットパターンを観察し、観察されたニアネットパターンから被検物の形状を測定してもよい。さらに、被検物に投影されたニアネットパターンとして、ニアネットパターンが投影されて被検物上に形成された、投影パターンと同様の形状のパターンを観察してもよい。
In order to achieve such an object, the shape measuring method according to the present invention projects a predetermined pattern on a test object from a first direction, and the pattern projected on the test object is different from the first direction. A shape measuring method for observing from two directions and measuring the shape of the test object from the observed pattern, and a pattern formed on the test object when a projection pattern of a predetermined interval is projected onto the test object A near net pattern having a shape similar to the above is projected onto the test object.
In the above-described shape measuring method, the near net pattern projected on the test object may be observed, and the shape of the test object may be measured from the observed near net pattern. Further, as the near net pattern projected on the test object, a pattern having the same shape as the projection pattern formed on the test object by projecting the near net pattern may be observed.

上述の形状測定方法において、ニアネットパターンの形状は縞形状であり、縞の間隔がニアネットパターンの部分ごとに異なってもよい。さらに、縞の間隔は、投影パターンを被検物に投影したときに被検物上に形成されるパターンにおける縞模様の間隔の大小関係を逆転させたように異なってもよい。In the above-described shape measuring method, the shape of the near net pattern is a stripe shape, and the interval between the stripes may be different for each portion of the near net pattern. Further, the stripe interval may be different as if the size relationship of the stripe interval in the pattern formed on the test object is reversed when the projection pattern is projected onto the test object.
上述の形状測定方法において、ニアネットパターンを被検物に投影したときに被検物上に形成されるパターンの形状は、等間隔のパターン形状であってもよい。In the above-described shape measuring method, the shape of the pattern formed on the test object when the near net pattern is projected onto the test object may be a pattern shape at equal intervals.

上述の形状測定方法において、互いに異なる複数のニアネットパターンをそれぞれ、被検物に投影し、被検物にそれぞれ投影された複数のニアネットパターンをそれぞれ観察し、観察された複数のニアネットパターンから被検物の形状を測定してもよい。In the above-described shape measurement method, a plurality of near net patterns different from each other are projected onto the test object, and each of the near net patterns projected onto the test object is observed, and the observed near net patterns are observed. The shape of the test object may be measured.
上述の形状測定方法において、ニアネットパターンの形状は、投影パターンの形状と異なってもよい。In the shape measurement method described above, the shape of the near net pattern may be different from the shape of the projection pattern.
上述の形状測定方法において、前記所定間隔が等間隔であってもよい。In the above-described shape measuring method, the predetermined interval may be an equal interval.
上述の形状測定方法において、形状が既知である校正用部材にニアネットパターンを投影し、校正用部材に投影されたニアネットパターンを観察し、観察されたニアネットパターンから校正用部材の形状を測定し、既知である実際の校正用部材の形状と測定した校正用部材の形状との誤差を算出し、算出した誤差に応じて、測定する被検物の形状を補正してもよい。In the above-described shape measuring method, the near net pattern is projected onto a calibration member whose shape is known, the near net pattern projected onto the calibration member is observed, and the shape of the calibration member is determined from the observed near net pattern. An error between the measured actual shape of the calibration member and the measured shape of the calibration member may be calculated, and the shape of the object to be measured may be corrected according to the calculated error.

また、本発明に係る形状測定装置は、被検物に所定のパターンを第1の方向から投影するパターン投影系と、被検物に投影されたパターンを第1の方向とは異なる第2の方向から検出するパターン検出部とを備え、パターン検出部により検出されたパターンから被検物の形状を測定する形状測定装置であって、パターン投影系は、所定間隔の投影パターンを被検物に投影したときに被検物上に形成されるパターンに類似した形状のニアネットパターンを、被検物に投影するようになっている。In addition, the shape measuring apparatus according to the present invention includes a pattern projection system that projects a predetermined pattern on the test object from the first direction, and a second pattern that is different from the first direction on the pattern projected on the test object. A shape measuring device for measuring a shape of a test object from a pattern detected by the pattern detection unit, wherein the pattern projection system applies a projection pattern at a predetermined interval to the test object. A near net pattern having a shape similar to the pattern formed on the test object when projected is projected onto the test object.
上述の形状測定装置において、パターン検出部は、被検物に投影されたニアネットパターンを検出し、パターン検出部により検出されたニアネットパターンから被検物の形状を求める演算処理部をさらに備えてもよい。さらに、パターン検出部は、被検物に投影されたニアネットパターンとして、ニアネットパターンが投影されて被検物上に形成された、投影パターンと同様の形状のパターンを検出してもよい。In the above-described shape measuring apparatus, the pattern detection unit further includes an arithmetic processing unit that detects the near net pattern projected on the test object and obtains the shape of the test object from the near net pattern detected by the pattern detection unit. May be. Further, the pattern detection unit may detect a pattern having the same shape as the projected pattern formed on the test object by projecting the near net pattern as the near net pattern projected on the test object.

上述の形状測定装置において、ニアネットパターンの形状は縞形状であり、縞の間隔がニアネットパターンの部分ごとに異なってもよい。さらに、縞の間隔は、パターン投影系が投影パターンを被検物に投影したときに被検物上に形成されるパターンにおける縞模様の間隔の大小関係を逆転させたように異なってもよい。In the above-described shape measuring apparatus, the shape of the near net pattern is a stripe shape, and the interval between the stripes may be different for each portion of the near net pattern. Further, the fringe spacing may be different as when the pattern projection system projects the projection pattern onto the test object, and reverses the magnitude relation of the stripe pattern spacing in the pattern formed on the test object.
上述の形状測定装置において、パターン投影系がニアネットパターンを被検物に投影したときに被検物上に形成されるパターンの形状は、等間隔のパターン形状であってもよい。In the above-described shape measuring apparatus, the pattern shape formed on the test object when the pattern projection system projects the near net pattern onto the test object may be a pattern shape with equal intervals.

上述の形状測定装置において、パターン投影系は、互いに異なる複数のニアネットパターンをそれぞれ、被検物に投影し、パターン検出部は、被検物にそれぞれ投影された複数のニアネットパターンをそれぞれ検出し、パターン検出部により検出された複数のニアネットパターンから被検物の形状を求める演算処理部をさらに備えてもよい。In the above-described shape measuring apparatus, the pattern projection system projects a plurality of different near net patterns onto the test object, and the pattern detection unit detects the plurality of near net patterns projected onto the test object, respectively. And you may further provide the arithmetic processing part which calculates | requires the shape of a test object from the some near net pattern detected by the pattern detection part.
上述の形状測定装置において、ニアネットパターンの形状は、投影パターンの形状と異なってもよい。In the above-described shape measuring apparatus, the shape of the near net pattern may be different from the shape of the projection pattern.
上述の形状測定装置において、所定間隔が等間隔であってもよい。In the above-described shape measuring apparatus, the predetermined intervals may be equal intervals.
上述の形状測定装置において、パターン投影系に、形状が既知である校正用部材にニアネットパターンを投影させ、パターン検出部に、校正用部材に投影されたニアネットパターンを検出させ、パターン検出部により検出されたニアネットパターンから校正用部材の形状を求める校正用演算部と、既知である実際の校正用部材の形状と校正用演算部により求められた校正用部材の形状との誤差を算出する誤差算出部とをさらに備え、演算処理部は、誤差算出部により算出された誤差に応じて、求める被検物の形状を補正してもよい。In the above-described shape measuring apparatus, the pattern projection system causes the near net pattern to be projected onto the calibration member having a known shape, causes the pattern detection unit to detect the near net pattern projected onto the calibration member, and the pattern detection unit. Calculates the error between the calibration calculation unit that calculates the shape of the calibration member from the near net pattern detected by the above and the actual calibration member shape that is known and the shape of the calibration member calculated by the calibration calculation unit An error calculation unit that performs correction, and the arithmetic processing unit may correct the shape of the object to be obtained in accordance with the error calculated by the error calculation unit.

本発明によれば、測定精度を向上させることができる。   According to the present invention, measurement accuracy can be improved.

以下、本発明の好ましい実施形態について説明する。第一実施形態に係る形状測定方法が用いられる三次元形状測定装置の概略構成を図1に示しており、まず、この形状測定装置について、図1を参照しながら説明する。なお、図1において、図1(a)および図1(b)にそれぞれ形状測定装置M1を示しているが、これは同一のものであり、説明の便宜上、投影パターンマスク2に等間隔の縞模様を有する投影パターンPP1が形成されたものを図1(a)に示し、投影パターンマスク2にニアネットパターンNP1が形成されたものを図1(b)に示している。   Hereinafter, preferred embodiments of the present invention will be described. FIG. 1 shows a schematic configuration of a three-dimensional shape measuring apparatus in which the shape measuring method according to the first embodiment is used. First, the shape measuring apparatus will be described with reference to FIG. In FIG. 1, the shape measuring device M1 is shown in FIGS. 1 (a) and 1 (b). However, this is the same, and for the sake of convenience of description, the projection pattern mask 2 is striped at equal intervals. FIG. 1A shows a projection pattern PP1 having a pattern, and FIG. 1B shows a projection pattern mask 2 on which a near net pattern NP1 is formed.

この形状測定装置M1は、光源1と、光源1からの光に縞模様を与えるための投影パターンマスク2と、投影パターンマスク2を通過した光源1からの光を被検物10の表面に投影させる投影レンズ3とからなるパターン投影系MA1と、被検物10からの反射光を撮像レンズ6を介して撮像する撮像装置7からなる撮像光学系MB1とを有して構成される。   The shape measuring apparatus M1 projects the light from the light source 1, the projection pattern mask 2 for giving a stripe pattern to the light from the light source 1, and the light from the light source 1 that has passed through the projection pattern mask 2 on the surface of the test object 10. A pattern projection system MA1 composed of the projection lens 3 to be imaged, and an imaging optical system MB1 composed of the imaging device 7 that captures the reflected light from the test object 10 via the imaging lens 6.

パターン投影系MA1において、投影パターンマスク2は、液晶素子等により構成され、液晶素子と電気的に接続された表示制御部8からの制御信号を受けて、任意の形状およびピッチのパターン(例えば、輝度分布が正弦波関数となる縞模様パターンや、格子状パターン等)を形成することができるようになっている。これにより、光源1からの光をこの投影パターンマスク2に通過させ、投影レンズ3により集光させることで、投影パターンマスク2により形成された所望の投影パターンを被検物10の表面に投影させることができる。   In the pattern projection system MA1, the projection pattern mask 2 is composed of a liquid crystal element or the like, receives a control signal from the display control unit 8 electrically connected to the liquid crystal element, and receives a pattern of any shape and pitch (for example, It is possible to form a stripe pattern or a lattice pattern whose luminance distribution is a sine wave function. As a result, the light from the light source 1 passes through the projection pattern mask 2 and is condensed by the projection lens 3, thereby projecting a desired projection pattern formed by the projection pattern mask 2 onto the surface of the test object 10. be able to.

撮像光学系MB1において、撮像装置7は、被検物10からの光を受けて被検物10を撮像するCCDカメラ等から構成され、被検物10で反射した投影パターンの像を検出パターンとして検出できるようになっている。また、撮像装置7により撮像された被検物10の画像データは、演算処理装置9に送られ、ここで所定の画像演算処理がなされて被検物10の表面の高さが算出され、被検物10の三次元形状(表面形状)が求められる。   In the imaging optical system MB1, the imaging device 7 is composed of a CCD camera or the like that receives light from the test object 10 and images the test object 10, and uses a projected pattern image reflected by the test object 10 as a detection pattern. It can be detected. Further, the image data of the test object 10 imaged by the imaging device 7 is sent to the arithmetic processing device 9, where predetermined image calculation processing is performed to calculate the height of the surface of the test object 10, and The three-dimensional shape (surface shape) of the specimen 10 is obtained.

次に、以上のように構成された形状測定装置M1による被検物10の形状測定方法について、図2に示すフローチャートを参照しながら以下に説明する。まず、ステップS101において、光源1からの光を投影パターンマスク2および投影レンズ3を介して被検物10に照射させ、被検物10の表面に等間隔の縞模様を有する投影パターンPP1(図1(a)を参照)を投影する。なお、投影パターンPP1のピッチ(縞模様の間隔)は比較的広くなっており、測定精度が比較的粗くなっている。このように投影されて被検物10から反射する光は、撮像レンズ6を介して集光されて撮像装置7に入射する。   Next, the shape measuring method of the test object 10 by the shape measuring apparatus M1 configured as described above will be described below with reference to the flowchart shown in FIG. First, in step S101, the test object 10 is irradiated with light from the light source 1 through the projection pattern mask 2 and the projection lens 3, and the projection pattern PP1 (see FIG. 1 (see (a)). Note that the pitch (interval of the stripe pattern) of the projection pattern PP1 is relatively wide, and the measurement accuracy is relatively coarse. The light thus projected and reflected from the test object 10 is collected through the imaging lens 6 and enters the imaging device 7.

次に、ステップS102において、撮像装置7により、被検物10で反射した投影パターンの像(図1(a)を参照)を検出パターンとして撮像する。撮像により得られた画像データは、撮像装置7から演算処理装置9に送られる。なお、三角測量の原理を用いる場合、位相接続のため、撮像装置7による撮像は、投影パターンマスク2により投影パターンのピッチ(縞模様の間隔)を変えて複数回行われ、一組の画像データ群が取得される。   Next, in step S102, the image of the projection pattern reflected by the test object 10 (see FIG. 1A) is captured by the imaging device 7 as a detection pattern. Image data obtained by imaging is sent from the imaging device 7 to the arithmetic processing device 9. When the principle of triangulation is used, because of the phase connection, imaging by the imaging device 7 is performed a plurality of times with the projection pattern mask 2 changing the pitch of the projection pattern (striped pattern interval), and a set of image data. A group is acquired.

このようにして画像データが送られると、ステップS103において、演算処理装置9で所定の演算処理を行うことにより、被検物10で反射した投影パターンの像、すなわちステップS102で撮像された検出パターンに基づいて、検出パターンの形状分布がほぼ一様となるように、具体的には、検出パターンが等間隔の縞模様となるように投影パターンPP1に対して縞模様の形状補正を行ったニアネットパターンを作成する。   When the image data is sent in this manner, in step S103, a predetermined calculation process is performed by the calculation processing device 9, whereby the image of the projection pattern reflected by the test object 10, that is, the detection pattern captured in step S102. Specifically, the stripe pattern shape correction is performed on the projection pattern PP1 so that the detection pattern has a substantially uniform distribution so that the detection pattern has a uniform stripe pattern. Create a net pattern.

このとき例えば、図1(a)に示すように、被検物10で反射した投影パターンの像(検出パターン)は、被検物10の表面形状に応じて曲がった縞模様となる。これに対し、例えば、輝度分布が正弦波関数となる縞パターンの場合、正弦波関数(輝度分布)の位相を変えることで、図1(b)に示すように、検出パターンがほぼ等間隔の縞模様となるように投影パターンPP1に対して縞模様の形状補正を行う。この場合、ニアネットパターンの形状は、検出パターンにおけるピッチ(縞模様の間隔)の大小関係を逆転させたようなパターン形状になる。このようにニアネットパターンが作成されると、演算処理装置9から表示制御部8にニアネットパターンのデータが送られ、表示制御部8からの制御信号を受けて、投影パターンマスク2にニアネットパターンNP1(図1(b)を参照)が形成される。   At this time, for example, as shown in FIG. 1A, the projected pattern image (detection pattern) reflected by the test object 10 is a striped pattern bent according to the surface shape of the test object 10. On the other hand, for example, in the case of a fringe pattern in which the luminance distribution is a sine wave function, by changing the phase of the sine wave function (luminance distribution), as shown in FIG. Stripe pattern shape correction is performed on the projection pattern PP1 so as to form a stripe pattern. In this case, the shape of the near net pattern is a pattern shape in which the magnitude relation of the pitch (striped pattern interval) in the detection pattern is reversed. When the near net pattern is created in this way, the near net pattern data is sent from the arithmetic processing unit 9 to the display control unit 8, receives a control signal from the display control unit 8, and is applied to the projection pattern mask 2. A pattern NP1 (see FIG. 1B) is formed.

次に、ステップS104において、光源1からの光を投影パターンマスク2および投影レンズ3を介して被検物10に照射させ、被検物10の表面にニアネットパターンNP1を投影する。このように投影されて被検物10から反射する光は、撮像レンズ6を介して集光されて撮像装置7に入射する。   Next, in step S104, the test object 10 is irradiated with light from the light source 1 via the projection pattern mask 2 and the projection lens 3, and the near net pattern NP1 is projected onto the surface of the test object 10. The light thus projected and reflected from the test object 10 is collected through the imaging lens 6 and enters the imaging device 7.

次に、ステップS105において、撮像装置7により、被検物10で反射したニアネットパターンの像を検出パターンとして撮像する。このとき、被検物10で反射したニアネットパターンの像(検出パターン)は、図1(b)に示すように、ほぼ等間隔の縞模様となる。撮像により得られた画像データは、撮像装置7から演算処理装置9に送られる。なお、三角測量の原理を用いる場合、位相接続のため、撮像装置7による撮像は、ピッチの異なる投影パターンに応じて作成された複数のニアネットパターンを用いて複数回行われ、一組の画像データ群が取得される。   Next, in step S105, the imaging device 7 captures an image of the near net pattern reflected by the test object 10 as a detection pattern. At this time, the image (detection pattern) of the near net pattern reflected by the test object 10 becomes a striped pattern with substantially equal intervals, as shown in FIG. Image data obtained by imaging is sent from the imaging device 7 to the arithmetic processing device 9. When using the principle of triangulation, because of phase connection, imaging by the imaging device 7 is performed a plurality of times using a plurality of near net patterns created according to projection patterns having different pitches, and a set of images. Data groups are acquired.

そして、ステップS106において、ステップS105で撮像された画像データ、すなわち、ほぼ等間隔の縞模様となった検出パターンに基づいて、三角測量の原理等を用いて被検物10の表面の高さを算出する。   In step S106, the height of the surface of the test object 10 is determined using the triangulation principle or the like based on the image data imaged in step S105, that is, the detection pattern that is a striped pattern at substantially equal intervals. calculate.

なお、ある測定地点における投影パターンに対する検出パターンのずれ量をa(例えば、図1(a)を参照)とすると、被検物の高さ方向に対し30°の角度をなす方向から投影パターンを投影し、投影方向とは逆に30°の角度をなす方向から検出パターンを撮像した場合、被検物の高さtは次の(1)式で表される。   If the amount of deviation of the detection pattern with respect to the projection pattern at a certain measurement point is a (see, for example, FIG. 1A), the projection pattern is taken from a direction that forms an angle of 30 ° with respect to the height direction of the test object. When projecting and imaging a detection pattern from a direction that forms an angle of 30 ° opposite to the projection direction, the height t of the test object is expressed by the following equation (1).

t=(a/2)/sin30° …(1)   t = (a / 2) / sin30 ° (1)

また、図3に示すように、パターン投影系の光軸と垂直な面に対する被検物10の傾斜部分の角度をθ1とし、撮像光学系の光軸に対する被検物10の傾斜部分の角度をθ2とし、投影パターンのピッチ(縞模様の間隔)をp1とすると、検出パターンのピッチp2は、次の(2)式で表される。   In addition, as shown in FIG. 3, the angle of the inclined portion of the test object 10 with respect to the plane perpendicular to the optical axis of the pattern projection system is θ1, and the angle of the inclined portion of the test object 10 with respect to the optical axis of the imaging optical system is Assuming that θ2 is the pitch of the projection pattern (striped pattern interval) is p1, the pitch p2 of the detection pattern is expressed by the following equation (2).

p2=(sinθ2/cosθ1)×p1 …(2)   p2 = (sin θ2 / cos θ1) × p1 (2)

(2)式からわかるように、θ2が零に近づくと、検出パターンのピッチp2が小さくなって撮像装置の画素サイズに近くなり、画素間の補間が十分にできなくなってしまう。   As can be seen from the equation (2), when θ2 approaches zero, the pitch p2 of the detection pattern decreases and approaches the pixel size of the imaging device, and interpolation between pixels cannot be sufficiently performed.

これに対し、第1実施形態の形状測定方法および形状測定装置M1によれば、ニアネットパターンNP1を被検物10に投影し、ほぼ等間隔の縞模様となった検出パターンに基づいて被検物10の表面の高さを測定するため、検出パターンのピッチ(縞模様の間隔)を適切な値にすることが可能になることから、測定精度を向上させることができる。   On the other hand, according to the shape measuring method and the shape measuring apparatus M1 of the first embodiment, the near net pattern NP1 is projected onto the test object 10, and the test is performed on the basis of the detection pattern that is a striped pattern at substantially equal intervals. Since the height of the surface of the object 10 is measured, the detection pattern pitch (striped pattern interval) can be set to an appropriate value, so that the measurement accuracy can be improved.

なお、上述の第1実施形態において、ステップS103の後、図4に示すように、ニアネットパターンNP1を用いて表面の高さが既知である校正用部材15の表面の高さを算出し、実際の校正用部材15の表面の高さと算出した校正用部材15の表面の高さとの誤差に応じて、ステップS104以降で算出する被検物10の表面の高さを補正するようにしてもよい。このようにすれば、測定精度をより向上させることができる。   In the first embodiment described above, after step S103, as shown in FIG. 4, the near-net pattern NP1 is used to calculate the surface height of the calibration member 15 whose surface height is known, Depending on the error between the actual surface height of the calibration member 15 and the calculated surface height of the calibration member 15, the height of the surface of the test object 10 calculated in step S104 and subsequent steps may be corrected. Good. In this way, measurement accuracy can be further improved.

具体的には、図5に示すように、まず、ステップS104と同様にして、表面の高さが既知である校正用部材15の表面にニアネットパターンNP1を投影する(ステップS151)。次に、ステップS105と同様にして、校正用部材15で反射したニアネットパターンの像を検出パターンとして撮像する(ステップS152)。次に、ステップS106と同様にして、撮像した検出パターンに基づいて校正用部材15の表面の高さを算出する(ステップS153)。次に、実際の校正用部材15の表面の高さと算出した校正用部材15の表面の高さとの誤差を算出する(ステップS154)。   Specifically, as shown in FIG. 5, first, the near net pattern NP1 is projected onto the surface of the calibration member 15 whose surface height is known in the same manner as in step S104 (step S151). Next, similarly to step S105, an image of the near net pattern reflected by the calibration member 15 is captured as a detection pattern (step S152). Next, similarly to step S106, the height of the surface of the calibration member 15 is calculated based on the captured detection pattern (step S153). Next, an error between the actual surface height of the calibration member 15 and the calculated surface height of the calibration member 15 is calculated (step S154).

そして、ステップS154で算出した誤差に応じて、ステップS104以降で算出する被検物10の表面の高さを補正するようにすればよい。このとき例えば、誤差の割合に比例もしくは反比例する補正係数を、ステップS106で算出した被検物10の表面の高さ(算出値)に掛け合わせることにより、被検物10の表面の高さを補正することができる。なおこのとき、校正用部材15の表面の高さの算出および誤差の算出は、演算処理装置9により行われるが、校正用部材15の表面の高さの算出を行う校正用演算部および、誤差の算出を行う誤差算出部を、演算処理装置と別体に設けるようにしてもよい。また、量産品の検査のように被検物10の設計形状が分かる場合は、設計データからニアネットパターンNP1を求めることもできる。   Then, the height of the surface of the test object 10 calculated in and after step S104 may be corrected according to the error calculated in step S154. At this time, for example, the height of the surface of the test object 10 is calculated by multiplying the correction coefficient proportional to or inversely proportional to the error rate by the surface height (calculated value) of the test object 10 calculated in step S106. It can be corrected. At this time, the calculation of the height of the surface of the calibration member 15 and the calculation of the error are performed by the arithmetic processing unit 9, but the calibration calculation unit for calculating the height of the surface of the calibration member 15 and the error are calculated. An error calculation unit that calculates the above may be provided separately from the arithmetic processing unit. Further, when the design shape of the test object 10 is known as in the mass-produced product inspection, the near net pattern NP1 can be obtained from the design data.

続いて、形状測定装置の第2実施形態について、図6を参照しながら説明する。なお、図6において、図6(a)および図6(b)にそれぞれ形状測定装置M2を示しているが、これは同一のものであり、説明の便宜上、投影パターンマスク23に投影パターンPP2が形成されたものを図6(a)に示し、投影パターンマスク23にニアネットパターンNP2が形成されたものを図6(b)に示している。   Next, a second embodiment of the shape measuring apparatus will be described with reference to FIG. 6A and 6B, the shape measuring device M2 is shown, but this is the same, and the projection pattern PP2 is provided on the projection pattern mask 23 for convenience of explanation. FIG. 6A shows the formed pattern, and FIG. 6B shows the projection pattern mask 23 with the near net pattern NP2 formed.

第2実施形態の形状測定装置M2は、光源21と、光源21からの光を集光するコンデンサレンズ22と、光源21からの光に縞模様を与えるための投影パターンマスク23と、投影パターンマスク23を通過した光源21からの光を被検物30の表面に投影させる投影レンズ25とからなるパターン投影系MA2と、被検物30からの反射光をミラー24および撮像レンズ26を介して撮像する撮像装置27からなる撮像光学系MB2とを有して構成される。なお、被検物30は、所定の媒質32(例えば、着色された水)で満たされた透明の水槽31内に載置される。   The shape measuring apparatus M2 of the second embodiment includes a light source 21, a condenser lens 22 that condenses the light from the light source 21, a projection pattern mask 23 for giving a stripe pattern to the light from the light source 21, and a projection pattern mask. The pattern projection system MA2 including a projection lens 25 that projects the light from the light source 21 that has passed through 23 onto the surface of the test object 30 and the reflected light from the test object 30 are imaged via the mirror 24 and the imaging lens 26. And an imaging optical system MB2 including the imaging device 27. The test object 30 is placed in a transparent water tank 31 filled with a predetermined medium 32 (for example, colored water).

パターン投影系MA2において、投影パターンマスク23は、液晶素子等により構成され、液晶素子と電気的に接続された表示制御部28からの制御信号を受けて、任意の形状およびピッチのパターン(例えば、縞模様パターンや格子状パターン等)を形成することができるようになっている。これにより、コンデンサレンズ22を介して光源21からの光を投影パターンマスク23に通過させ、投影レンズ25により集光させることで、投影パターンマスク23により形成された所望の投影パターンを被検物30の表面に投影させることができる。   In the pattern projection system MA2, the projection pattern mask 23 is composed of a liquid crystal element or the like, receives a control signal from the display control unit 28 electrically connected to the liquid crystal element, and has a pattern (for example, an arbitrary shape and pitch). A striped pattern, a lattice pattern, etc.) can be formed. As a result, the light from the light source 21 is passed through the projection pattern mask 23 via the condenser lens 22 and is condensed by the projection lens 25, whereby a desired projection pattern formed by the projection pattern mask 23 is obtained as the test object 30. Can be projected onto the surface.

撮像光学系MB2において、撮像装置27は、被検物30からの光を受けて被検物30を撮像するCCDカメラ等から構成され、被検物30で反射して媒質32を透過した投影パターンの像を検出パターンとして検出できるようになっている。また、撮像装置27により撮像された被検物30の画像データは、演算処理装置29に送られ、ここで所定の画像演算処理がなされて被検物30の表面の高さが算出され、被検物30の三次元形状(表面形状)が求められる。なお、ミラー24は、投影パターンマスク23と投影レンズ25との間に設けられ、投影パターンマスク23からの光を投影レンズ25および被検物30に向けて透過させるとともに、被検物30からの光を撮像レンズ26および撮像装置27に向けて反射させるようになっている。   In the imaging optical system MB2, the imaging device 27 is configured by a CCD camera or the like that receives light from the test object 30 and images the test object 30, and is reflected by the test object 30 and transmitted through the medium 32. This image can be detected as a detection pattern. The image data of the test object 30 imaged by the imaging device 27 is sent to the arithmetic processing device 29, where a predetermined image calculation process is performed to calculate the height of the surface of the test object 30, The three-dimensional shape (surface shape) of the specimen 30 is obtained. The mirror 24 is provided between the projection pattern mask 23 and the projection lens 25, transmits light from the projection pattern mask 23 toward the projection lens 25 and the test object 30, and from the test object 30. Light is reflected toward the imaging lens 26 and the imaging device 27.

次に、第2実施形態の形状測定装置M2による被検物30の形状測定方法について、図7に示すフローチャートを参照しながら以下に説明する。まず、ステップS201において、光源21からの光を、コンデンサレンズ22、投影パターンマスク23、ミラー24、投影レンズ25、および媒質32を介して被検物30に照射させ、被検物30の表面に無模様の投影パターンPP2(図6(a)における円Aの内側を参照)を投影する。すなわち、投影パターンマスク23は光が全透過の状態になる。   Next, a method for measuring the shape of the test object 30 by the shape measuring apparatus M2 of the second embodiment will be described below with reference to the flowchart shown in FIG. First, in step S <b> 201, the light from the light source 21 is irradiated onto the test object 30 through the condenser lens 22, the projection pattern mask 23, the mirror 24, the projection lens 25, and the medium 32, and the surface of the test object 30 is irradiated. A patternless projection pattern PP2 (see the inside of the circle A in FIG. 6A) is projected. That is, the projection pattern mask 23 is in a state where light is totally transmitted.

なおこのとき、光源21から射出される光の波長は、媒質32中における(被検物30で反射する)光(輝度)の減衰が1/100程度となるような波長を選択する。これにより、被検物30の全高の1/300程度まで特定することができる。このように投影されて被検物30から反射する光は、媒質32、投影レンズ25、ミラー24、および撮像レンズ26を介して撮像装置27に入射する。   At this time, the wavelength of light emitted from the light source 21 is selected such that the attenuation of light (luminance) in the medium 32 (reflected by the test object 30) is about 1/100. Thereby, about 1/300 of the total height of the test object 30 can be specified. The light thus projected and reflected from the test object 30 enters the imaging device 27 via the medium 32, the projection lens 25, the mirror 24, and the imaging lens 26.

次に、ステップS202において、撮像装置27により、被検物30で反射して媒質32を透過した投影パターンの像を検出パターンとして撮像する。撮像により得られた画像データは、撮像装置27から演算処理装置29に送られる。   Next, in step S <b> 202, the image of the projection pattern reflected by the test object 30 and transmitted through the medium 32 is captured by the imaging device 27 as a detection pattern. Image data obtained by imaging is sent from the imaging device 27 to the arithmetic processing device 29.

このようにして画像データが送られると、ステップS203において、演算処理装置29で所定の演算処理を行うことにより、ステップS202で撮像された検出パターンに基づいて、検出パターンの形状分布がほぼ一様となるように、具体的には、検出パターンの明るさ(輝度)がほぼ一様となるように投影パターンPP2の形状補正を行ったニアネットパターンを作成する。   When the image data is sent in this way, in step S203, the arithmetic processing unit 29 performs predetermined arithmetic processing, so that the shape distribution of the detection pattern is substantially uniform based on the detection pattern imaged in step S202. Specifically, a near net pattern is generated by correcting the shape of the projection pattern PP2 so that the brightness (luminance) of the detection pattern is substantially uniform.

このとき、投影パターンPP2が無模様であるため、被検物30で反射して媒質32を透過した投影パターンの像(検出パターン)は、図6(a)における円Bの内側に示すように、被検物30の表面形状(凹凸)に応じて明暗が現れた模様となる(本実施形態においては、被検物30における上半分の高さが相対的に低くなっており、これに伴って検出パターンの上半分が相対的に暗くなっている)。これに対し、図6(b)における円Dの内側に示すように、検出パターンの明るさ(輝度)がほぼ一様となるように、検出パターンおける明暗の位置関係を逆転させたような(本実施形態においては、パターンの下半分を相対的に暗くした)パターン形状を有するニアネットパターンNP2(図6(b)における円Cの内側を参照)を作成する。このようにニアネットパターンが作成されると、演算処理装置29から表示制御部28にニアネットパターンのデータが送られ、表示制御部28からの制御信号を受けて、投影パターンマスク23にニアネットパターンNP2が形成される。   At this time, since the projection pattern PP2 is blank, an image (detection pattern) of the projection pattern reflected by the test object 30 and transmitted through the medium 32 is shown inside the circle B in FIG. In this embodiment, the height of the upper half of the test object 30 is relatively low, resulting in a pattern in which light and dark appear according to the surface shape (unevenness) of the test object 30. The upper half of the detection pattern is relatively dark). On the other hand, as shown inside the circle D in FIG. 6B, the light / dark positional relationship in the detection pattern is reversed so that the brightness (luminance) of the detection pattern is substantially uniform ( In the present embodiment, a near net pattern NP2 (see the inside of a circle C in FIG. 6B) having a pattern shape in which the lower half of the pattern is relatively darkened is created. When the near net pattern is created in this way, the data of the near net pattern is sent from the arithmetic processing unit 29 to the display control unit 28, receives the control signal from the display control unit 28, and receives the near net pattern on the projection pattern mask 23. A pattern NP2 is formed.

次に、ステップS204において、光源21からの光を、コンデンサレンズ22、投影パターンマスク23、ミラー24、投影レンズ25、および媒質32を介して被検物30に照射させ、被検物30の表面にニアネットパターンNP2を投影する。なおこのとき、光源21から射出される光の波長は、媒質32中における(被検物30で反射する)光(輝度)の減衰が1/30000程度となるような波長を選択する。このように投影されて被検物30から反射する光は、媒質32、投影レンズ25、ミラー24、および撮像レンズ26を介して撮像装置27に入射する。   Next, in step S <b> 204, the object 30 is irradiated with light from the light source 21 via the condenser lens 22, the projection pattern mask 23, the mirror 24, the projection lens 25, and the medium 32, and the surface of the object 30. Project a near net pattern NP2. At this time, the wavelength of the light emitted from the light source 21 is selected such that the attenuation of the light (luminance) in the medium 32 (reflected by the test object 30) is about 1/30000. The light thus projected and reflected from the test object 30 enters the imaging device 27 via the medium 32, the projection lens 25, the mirror 24, and the imaging lens 26.

次に、ステップS205において、撮像装置27により、被検物30で反射して媒質32を透過したニアネットパターンの像を検出パターンとして撮像する。このとき、被検物30で反射して媒質32を透過したニアネットパターンの像(検出パターン)は、図6(b)における円Dの内側に示すように、明るさ(輝度)がほぼ一様となる。撮像により得られた画像データは、撮像装置27から演算処理装置29に送られる。   Next, in step S <b> 205, the near-net pattern image reflected by the test object 30 and transmitted through the medium 32 is captured by the imaging device 27 as a detection pattern. At this time, the image (detection pattern) of the near net pattern reflected by the test object 30 and transmitted through the medium 32 has substantially the same brightness (luminance) as shown inside the circle D in FIG. 6B. It becomes like. Image data obtained by imaging is sent from the imaging device 27 to the arithmetic processing device 29.

そして、ステップS206において、ステップS205で撮像された画像データ、すなわち、明るさ(輝度)がほぼ一様となった検出パターンに基づいて、被検物30の表面の高さを算出する。具体的には、まず、撮像光学系と被検物30との間の距離Lを求める。この距離Lは、媒質の吸収係数をaとし、検出パターンの輝度をBpとし、ニアネットパターンの輝度をIpとしたとき、Bp=Ip×aという関係式から算出される。そして、予め設定した撮像光学系と所定基準位置との間の距離と、算出した距離Lとの差から、被検物30の表面の高さを算出する。 In step S206, the height of the surface of the test object 30 is calculated based on the image data captured in step S205, that is, the detection pattern in which the brightness (luminance) is substantially uniform. Specifically, first, a distance L between the imaging optical system and the test object 30 is obtained. This distance L is calculated from the relational expression Bp = Ip × a L where a is the absorption coefficient of the medium, Bp is the luminance of the detection pattern, and Ip is the luminance of the near net pattern. Then, the height of the surface of the test object 30 is calculated from the difference between the preset distance between the imaging optical system and the predetermined reference position and the calculated distance L.

このように、媒質中を透過する光の減衰を利用して被検物の表面の高さを算出する場合、測定精度を上げるためには、検出光の輝度に対する(被検物の)高さの感度が高くなるように、光の減衰を大きくしなければならない。しかしながら、光の減衰を大きくすると、被検物の凹凸が大きい場合、高さの低い部分が極端に暗くなってこの部分のSN比が低下し、測定精度が低下してしまう。   Thus, when calculating the height of the surface of the test object using the attenuation of light transmitted through the medium, the height (of the test object) with respect to the luminance of the detection light is required to increase the measurement accuracy. The attenuation of light must be increased so that the sensitivity of the light becomes high. However, if the attenuation of light is increased, if the unevenness of the test object is large, the low-height part becomes extremely dark, the SN ratio of this part is lowered, and the measurement accuracy is lowered.

これに対し、第2実施形態の形状測定方法および形状測定装置M2によれば、ニアネットパターンNP2を被検物30に投影し、明るさ(輝度)がほぼ一様となった検出パターンに基づいて被検物30の表面の高さを測定するため、光の減衰を大きく(本実施形態において、1/30000程度に)しても、検出パターンの明るさ(輝度)がほぼ一様であるためSN比の低下が抑えられることから、測定精度を向上させることができる。   On the other hand, according to the shape measuring method and the shape measuring apparatus M2 of the second embodiment, the near net pattern NP2 is projected onto the test object 30, and based on the detection pattern in which the brightness (luminance) is substantially uniform. In order to measure the height of the surface of the test object 30, the brightness (luminance) of the detection pattern is substantially uniform even if the attenuation of light is increased (in this embodiment, about 1/30000). Therefore, since the decrease in the SN ratio can be suppressed, the measurement accuracy can be improved.

なお、上述の第2実施形態において、ステップS203の後、第1実施形態の場合と同様に、ニアネットパターンを用いて表面の高さが既知である校正用部材の表面の高さを算出し、実際の校正用部材の表面の高さと算出した校正用部材の表面の高さとの誤差に応じて、ステップS204以降で算出する被検物30の表面の高さを補正するようにしてもよい。このようにすれば、測定精度をより向上させることができる。   In the second embodiment described above, after step S203, the height of the surface of the calibration member whose surface height is known is calculated using the near net pattern, as in the case of the first embodiment. The surface height of the test object 30 calculated in and after step S204 may be corrected according to the error between the actual surface height of the calibration member and the calculated surface height of the calibration member. . In this way, measurement accuracy can be further improved.

また、上述の各実施形態において、ニアネットパターンの作成が演算処理装置で行われているが、これに限られるものではなく、ニアネットパターンの作成を行うニアネットパターン作成部を演算処理装置と別体に設けるようにしてもよい。   Further, in each of the embodiments described above, the near net pattern is created by the arithmetic processing device. However, the present invention is not limited to this, and the near net pattern creating unit for creating the near net pattern is referred to as the arithmetic processing device. It may be provided separately.

第1実施形態の形状測定方法に用いられる形状測定装置の概略構成図である。It is a schematic block diagram of the shape measuring apparatus used for the shape measuring method of 1st Embodiment. 第1実施形態の形状測定方法を示すフローチャートである。It is a flowchart which shows the shape measuring method of 1st Embodiment. 被検物の傾斜部分を示す説明図である。It is explanatory drawing which shows the inclination part of a to-be-tested object. 第1実施形態の変形例を示した形状測定装置の概略構成図である。It is a schematic block diagram of the shape measuring apparatus which showed the modification of 1st Embodiment. 第1実施形態の変形例を示すフローチャートである。It is a flowchart which shows the modification of 1st Embodiment. 第2実施形態の形状測定方法に用いられる形状測定装置の概略構成図である。It is a schematic block diagram of the shape measuring apparatus used for the shape measuring method of 2nd Embodiment. 第2実施形態の形状測定方法を示すフローチャートである。It is a flowchart which shows the shape measuring method of 2nd Embodiment. 従来における形状測定装置の概略構成図である。It is a schematic block diagram of the conventional shape measuring apparatus.

符号の説明Explanation of symbols

M1 形状測定装置(第1実施形態) M2 形状測定装置(第2実施形態)
MA1 パターン投影系(第1実施形態) MA2 パターン投影系(第2実施形態)
MB1 撮像光学系(第1実施形態) MB2 撮像光学系(第2実施形態)
PP1 投影パターン(第1実施形態) PP2 投影パターン(第2実施形態)
PN1 ニアネットパターン(第1実施形態)
PN2 ニアネットパターン(第2実施形態)
9 演算処理装置(第1実施形態) 10 被検物(第1実施形態)
29 演算処理装置(第2実施形態) 30 被検物(第2実施形態)
M1 shape measuring device (first embodiment) M2 shape measuring device (second embodiment)
MA1 pattern projection system (first embodiment) MA2 pattern projection system (second embodiment)
MB1 imaging optical system (first embodiment) MB2 imaging optical system (second embodiment)
PP1 projection pattern (first embodiment) PP2 projection pattern (second embodiment)
PN1 near net pattern (first embodiment)
PN2 near net pattern (second embodiment)
9 Arithmetic processing device (first embodiment) 10 Test object (first embodiment)
29 arithmetic processing unit (second embodiment) 30 test object (second embodiment)

Claims (20)

被検物に所定のパターンを第1の方向から投影し、前記被検物に投影された前記パターンを前記第1の方向とは異なる第2の方向から観察し、観察された前記パターンから前記被検物の形状を測定する形状測定方法であって、
所定間隔の投影パターンを前記被検物に投影したときに前記被検物上に形成されるパターンに類似した形状のニアネットパターンを、前記被検物に投影することを特徴とする形状測定方法。
A predetermined pattern is projected on the test object from a first direction, the pattern projected on the test object is observed from a second direction different from the first direction, and the pattern is observed from the observed pattern. A shape measuring method for measuring the shape of a test object,
A shape measuring method , wherein a near net pattern having a shape similar to a pattern formed on the test object is projected onto the test object when projected patterns of a predetermined interval are projected onto the test object. .
前記被検物に投影された前記ニアネットパターンを観察し、
観察された前記ニアネットパターンから前記被検物の形状を測定することを特徴とする請求項1に記載の形状測定方法。
Observe the near net pattern projected on the test object,
The shape measuring method according to claim 1, wherein the shape of the test object is measured from the observed near net pattern .
前記被検物に投影された前記ニアネットパターンとして、前記ニアネットパターンが投影されて前記被検物上に形成された、前記投影パターンと同様の形状のパターンを観察することを特徴とする請求項2に記載の形状測定方法。The near-net pattern projected on the test object is characterized by observing a pattern having the same shape as the projection pattern formed on the test object by projecting the near-net pattern. Item 3. The shape measuring method according to Item 2. 前記ニアネットパターンの形状は縞形状であり、The shape of the near net pattern is a stripe shape,
前記縞の間隔が前記ニアネットパターンの部分ごとに異なることを特徴とする請求項1から3のいずれか一項に記載の形状測定方法。The shape measuring method according to any one of claims 1 to 3, wherein an interval of the stripes is different for each portion of the near net pattern.
前記縞の間隔は、前記投影パターンを前記被検物に投影したときに前記被検物上に形成されるパターンにおける縞模様の間隔の大小関係を逆転させたように異なることを特徴とする請求項4に記載の形状測定方法。The spacing between the fringes is different as if the size relation of the spacing between the striped patterns in the pattern formed on the test object is reversed when the projection pattern is projected onto the test object. Item 5. The shape measuring method according to Item 4. 前記ニアネットパターンを前記被検物に投影したときに前記被検物上に形成されるパターンの形状は、等間隔のパターン形状であることを特徴とする請求項1から5のいずれか一項に記載の形状測定方法。The shape of the pattern formed on the test object when the near net pattern is projected onto the test object is an equally spaced pattern shape. The shape measuring method described in 1. 互いに異なる複数の前記ニアネットパターンをそれぞれ、前記被検物に投影し、A plurality of near net patterns different from each other are projected onto the test object,
前記被検物にそれぞれ投影された前記複数の前記ニアネットパターンをそれぞれ観察し、Observing each of the plurality of near net patterns projected on the test object,
観察された前記複数の前記ニアネットパターンから前記被検物の形状を測定することを特徴とする請求項1から6のいずれか一項に記載の形状測定方法。The shape measurement method according to claim 1, wherein the shape of the test object is measured from the observed plurality of near net patterns.
前記ニアネットパターンの形状は、前記投影パターンの形状と異なることを特徴とする請求項1から7のいずれか一項に記載の形状測定方法。The shape measurement method according to claim 1, wherein a shape of the near net pattern is different from a shape of the projection pattern. 前記所定間隔が等間隔であることを特徴とする請求項1から8のいずれか一項に記載の形状測定方法。The shape measuring method according to claim 1, wherein the predetermined interval is an equal interval. 形状が既知である校正用部材に前記ニアネットパターンを投影し、前記校正用部材に投影された前記ニアネットパターンを観察し、観察された前記ニアネットパターンから前記校正用部材の形状を測定し、Projecting the near net pattern onto a calibration member having a known shape, observing the near net pattern projected onto the calibration member, and measuring the shape of the calibration member from the observed near net pattern ,
既知である実際の前記校正用部材の形状と前記測定した前記校正用部材の形状との誤差を算出し、Calculate the error between the known actual shape of the calibration member and the measured shape of the calibration member,
前記算出した誤差に応じて、前記測定する前記被検物の形状を補正することを特徴とする請求項2と3と7のうちいずれか一項に記載の形状測定方法。The shape measuring method according to claim 2, wherein the shape of the object to be measured is corrected in accordance with the calculated error.
被検物に所定のパターンを第1の方向から投影するパターン投影系と、前記被検物に投影された前記パターンを前記第1の方向とは異なる第2の方向から検出するパターン検出部とを備え、前記パターン検出部により検出された前記パターンから前記被検物の形状を測定する形状測定装置であって、A pattern projection system that projects a predetermined pattern onto the test object from a first direction; and a pattern detection unit that detects the pattern projected onto the test object from a second direction different from the first direction; A shape measuring device for measuring the shape of the test object from the pattern detected by the pattern detection unit,
前記パターン投影系は、所定間隔の投影パターンを前記被検物に投影したときに前記被検物上に形成されるパターンに類似した形状のニアネットパターンを、前記被検物に投影することを特徴とする形状測定装置。The pattern projection system projects a near net pattern having a shape similar to a pattern formed on the test object when a projection pattern of a predetermined interval is projected onto the test object. A feature measuring device.
前記パターン検出部は、前記被検物に投影された前記ニアネットパターンを検出し、The pattern detection unit detects the near net pattern projected on the test object,
前記パターン検出部により検出された前記ニアネットパターンから前記被検物の形状を求める演算処理部をさらに備えることを特徴とする請求項11に記載の形状測定装置。The shape measuring apparatus according to claim 11, further comprising an arithmetic processing unit that obtains the shape of the test object from the near net pattern detected by the pattern detection unit.
前記パターン検出部は、前記被検物に投影された前記ニアネットパターンとして、前記ニアネットパターンが投影されて前記被検物上に形成された、前記投影パターンと同様の形状のパターンを検出することを特徴とする請求項12に記載の形状測定装置。The pattern detection unit detects, as the near net pattern projected onto the test object, a pattern having the same shape as the projection pattern formed on the test object by projecting the near net pattern. The shape measuring apparatus according to claim 12. 前記ニアネットパターンの形状は縞形状であり、The shape of the near net pattern is a stripe shape,
前記縞の間隔が前記ニアネットパターンの部分ごとに異なることを特徴とする請求項11から13のいずれか一項に記載の形状測定装置。The shape measuring apparatus according to claim 11, wherein an interval between the stripes is different for each portion of the near net pattern.
前記縞の間隔は、前記パターン投影系が前記投影パターンを前記被検物に投影したときに前記被検物上に形成されるパターンにおける縞模様の間隔の大小関係を逆転させたように異なることを特徴とする請求項14に記載の形状測定装置。The fringe spacing is different as if the pattern projection system reversed the magnitude relation of the fringe spacing in the pattern formed on the test object when the projection pattern was projected onto the test object. The shape measuring apparatus according to claim 14. 前記パターン投影系が前記ニアネットパターンを前記被検物に投影したときに前記被検物上に形成されるパターンの形状は、等間隔のパターン形状であることを特徴とする請求項11から15のいずれか一項に記載の形状測定装置。16. The shape of a pattern formed on the test object when the pattern projection system projects the near net pattern onto the test object is an equally spaced pattern shape. The shape measuring device according to any one of the above. 前記パターン投影系は、互いに異なる複数の前記ニアネットパターンをそれぞれ、前記被検物に投影し、The pattern projection system projects a plurality of near net patterns different from each other onto the test object,
前記パターン検出部は、前記被検物にそれぞれ投影された前記複数の前記ニアネットパターンをそれぞれ検出し、The pattern detection unit detects the plurality of near net patterns respectively projected on the test object,
前記パターン検出部により検出された前記複数の前記ニアネットパターンから前記被検物の形状を求める演算処理部をさらに備えることを特徴とする請求項11から16のいずれか一項に記載の形状測定装置。The shape measurement according to claim 11, further comprising an arithmetic processing unit that obtains the shape of the test object from the plurality of near net patterns detected by the pattern detection unit. apparatus.
前記ニアネットパターンの形状は、前記投影パターンの形状と異なることを特徴とする請求項11から17のいずれか一項に記載の形状測定装置。The shape measurement apparatus according to claim 11, wherein the shape of the near net pattern is different from the shape of the projection pattern. 前記所定間隔が等間隔であることを特徴とする請求項11から18のいずれか一項に記載の形状測定装置。The shape measuring apparatus according to claim 11, wherein the predetermined interval is an equal interval. 前記パターン投影系に、形状が既知である校正用部材に前記ニアネットパターンを投影させ、前記パターン検出部に、前記校正用部材に投影された前記ニアネットパターンを検出させ、前記パターン検出部により検出された前記ニアネットパターンから前記校正用部材の形状を求める校正用演算部と、The pattern projection system projects the near net pattern onto a calibration member having a known shape, causes the pattern detection unit to detect the near net pattern projected onto the calibration member, and the pattern detection unit A calibration calculation unit for obtaining the shape of the calibration member from the detected near net pattern;
既知である実際の前記校正用部材の形状と前記校正用演算部により求められた前記校正用部材の形状との誤差を算出する誤差算出部とをさらに備え、An error calculating unit that calculates an error between the known shape of the actual calibration member and the shape of the calibration member obtained by the calibration calculating unit;
前記演算処理部は、前記誤差算出部により算出された誤差に応じて、前記求める前記被検物の形状を補正することを特徴とする請求項12と13と17のうちいずれか一項に記載の形状測定装置。The said arithmetic processing part correct | amends the shape of the said to-be-examined test object calculated | required according to the error calculated by the said error calculation part, It is any one of Claim 12, 13 and 17 characterized by the above-mentioned. Shape measuring device.
JP2007053836A 2007-03-05 2007-03-05 Shape measuring method and shape measuring apparatus Active JP4962852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007053836A JP4962852B2 (en) 2007-03-05 2007-03-05 Shape measuring method and shape measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053836A JP4962852B2 (en) 2007-03-05 2007-03-05 Shape measuring method and shape measuring apparatus

Publications (2)

Publication Number Publication Date
JP2008216039A JP2008216039A (en) 2008-09-18
JP4962852B2 true JP4962852B2 (en) 2012-06-27

Family

ID=39836253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053836A Active JP4962852B2 (en) 2007-03-05 2007-03-05 Shape measuring method and shape measuring apparatus

Country Status (1)

Country Link
JP (1) JP4962852B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137697A (en) * 2009-12-28 2011-07-14 Canon Inc Illumination apparatus, and measuring system using the illumination system
US9179106B2 (en) 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
CN105659106B (en) 2013-10-23 2018-12-28 脸谱公司 It is mapped using the three dimensional depth of dynamic structure light
JP6201783B2 (en) * 2014-01-22 2017-09-27 富士通株式会社 Distance measuring device, distance measuring method, and distance measuring program
JP6681658B2 (en) * 2014-10-15 2020-04-15 シャープ株式会社 Image recognition processing device and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61260106A (en) * 1985-05-15 1986-11-18 Agency Of Ind Science & Technol Method and device for three-dimensional measurement
JPH05113320A (en) * 1991-10-22 1993-05-07 Sharp Corp Measuring apparatus of three-dimensional shape
US7009718B2 (en) * 2000-06-07 2006-03-07 Citizen Watch Co., Ltd. Grating pattern projection apparatus using liquid crystal grating
JP2003202216A (en) * 2002-01-08 2003-07-18 Canon Inc Method, device, system and program for three-dimensional image processing
JP4383840B2 (en) * 2003-12-11 2009-12-16 浜松ホトニクス株式会社 3D shape measuring device
JP2006084286A (en) * 2004-09-15 2006-03-30 Olympus Corp Three-dimensional measuring method and its measuring device

Also Published As

Publication number Publication date
JP2008216039A (en) 2008-09-18

Similar Documents

Publication Publication Date Title
US8605983B2 (en) Non-contact probe
US9147247B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
US8970853B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
US9322643B2 (en) Apparatus and method for 3D surface measurement
JP4830871B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
US11640673B2 (en) Method and system for measuring an object by means of stereoscopy
JP2009019941A (en) Shape measuring method
JP4962852B2 (en) Shape measuring method and shape measuring apparatus
JP2008309551A (en) Method and apparatus for shape measurement and storage medium
WO2008075632A1 (en) Test method for compound-eye distance measuring device, its test device and chart used for same
JP2012013592A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP2018112476A (en) Minute displacement measuring device and minute displacement measuring method
JP2008170281A (en) Shape measuring device and shape measuring method
JP2020046229A (en) Three-dimensional measuring device and three-dimensional measuring method
JP2008170282A (en) Shape measuring device
JP2014149303A (en) Three-dimensional shape measuring device, calibration block, and calibration method for the three-dimensional shape measuring device
JP2008170280A (en) Shape measuring device and shape measuring method
JP6532158B2 (en) Surface shape strain measuring apparatus and method of measuring surface shape strain
JP2021103098A (en) Displacement measuring device and displacement measuring method
JP2008216076A (en) Shape measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4962852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250