JP2009097941A - Shape measuring device and surface state measuring device - Google Patents

Shape measuring device and surface state measuring device Download PDF

Info

Publication number
JP2009097941A
JP2009097941A JP2007268601A JP2007268601A JP2009097941A JP 2009097941 A JP2009097941 A JP 2009097941A JP 2007268601 A JP2007268601 A JP 2007268601A JP 2007268601 A JP2007268601 A JP 2007268601A JP 2009097941 A JP2009097941 A JP 2009097941A
Authority
JP
Japan
Prior art keywords
light
test object
unit
pattern
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007268601A
Other languages
Japanese (ja)
Inventor
Tomoaki Yamada
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007268601A priority Critical patent/JP2009097941A/en
Publication of JP2009097941A publication Critical patent/JP2009097941A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To measure accurately a surface shape, even in the case of a specimen having a mirror surface mixed with a diffusion surface. <P>SOLUTION: A floodlighting plate 2 diffuses each light from light sources 1-1 to 1-3 having each different light distribution characteristic by a large projection part 2a and a small projection part 2b, and floodlights it to a specimen 4. An angle measuring part 5b calculates a floodlighting angle θL based on the intensity ratio of each light reflected by the large projection part 2a of the floodlighting part 2, reflected on the specimen 4 imaged by an imaging part 3, relative to each light distribution characteristic. A trigonometry measuring part 5c measures the surface shape of the specimen 4 by trigonometry with a base line length Lb, an imaging angle θc and the floodlighting angle θL. An optical cutting method measuring part 5f controls a slit light emission part 7 for floodlighting to the specimen 4 so as to emit slit light, and measures by a shade on the specimen 4. A selection part 5e determines whether the surface is a diffusion surface or a mirror surface based on existence of recognition of the small projection part 2b reflected on the specimen 4, and selects an optical cutting method or trigonometry to measure the surface shape. This invention can be applied to a shape measuring device. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、形状測定装置および表面状態測定装置に関し、特に、表面において鏡面と拡散面とが混在する被検物の表面形状を測定できるようにした形状測定装置、および鏡面か拡散面かを特定できる表面状態測定装置に関する。   The present invention relates to a shape measuring device and a surface state measuring device, and in particular, a shape measuring device that can measure the surface shape of a test object in which a mirror surface and a diffusion surface are mixed on the surface, and whether the surface is a mirror surface or a diffusion surface The present invention relates to a surface state measuring apparatus that can be used.

被検物の表面形状を測定する技術が一般に普及しつつある。   A technique for measuring the surface shape of a test object is becoming widespread.

被検物の物体表面については、拡散面と鏡面との場合で測定の方法が異なる。拡散面においては、光切断法に代表される測定法により、スリット光を被検物に照射し、物体表面に現れるスリット光パタンの形状から表面形状を測定する方法が提案されている。   As for the object surface of the test object, the measurement method is different between the diffusion surface and the mirror surface. On the diffusing surface, a method has been proposed in which the surface shape is measured from the shape of the slit light pattern that appears on the object surface by irradiating the object with slit light by a measurement method typified by the light cutting method.

一方、鏡面の場合、被検物に対して被検物を撮像する方向に対して、所定角度だけずらした位置にパターン板を配置し、被検物の表面に映り込むパターンを撮像することにより、被検物表面における反射角θを測定し、そのθ/2を被検物の表面の法線の角度として測定することにより、表面の角度を順次測定することで、その連続性から表面形状を測定する方法が提案されている(特許文献1,2、および非特許文献1参照)。   On the other hand, in the case of a mirror surface, by arranging a pattern plate at a position shifted by a predetermined angle with respect to the direction in which the test object is imaged with respect to the test object, by imaging the pattern reflected on the surface of the test object By measuring the reflection angle θ on the surface of the test object and measuring the angle θ / 2 as the normal angle of the surface of the test object, the surface shape is measured from the continuity by measuring the surface angle. Has been proposed (see Patent Documents 1 and 2 and Non-Patent Document 1).

特許3553652号公報Japanese Patent No. 3535352 特開2006−214914号公報JP 2006-214914 A 豊田中央研究所R&DレビューVol.31,No.3Toyota Central R & D Review Vol.31, No.3

しかしながら、被検物の表面は、拡散面、および鏡面が混在していることもあるため、いずれか一方の手法だけでは、適切な測定ができないことがあった。   However, since the surface of the test object may include a diffusing surface and a mirror surface, appropriate measurement may not be possible with only one of the methods.

また、上述した鏡面における表面形状の測定については、被検物の表面の変化が十分に小さいことが前提となった測定方法であるため、表面の変化が大きいと、精度よく測定することができないことがあった。   The above-described measurement of the surface shape on the mirror surface is a measurement method based on the premise that the change in the surface of the test object is sufficiently small, and therefore cannot be measured accurately if the change in the surface is large. There was a thing.

本発明はこのような状況に鑑みてなされたものであり、特に、鏡面と拡散面とが混在するような被検物においても、精度良く表面形状を測定できるようにするものである。   The present invention has been made in view of such a situation. In particular, the present invention makes it possible to measure the surface shape with high accuracy even in a test object in which a mirror surface and a diffusion surface are mixed.

本発明の形状測定装置は、複数の異なる大きさを持ち、複数の異なる配光特性に切り替えられると共に、前記配光特性に傾斜を持たせたパタンを生成し、被検物に投影するパタン生成手段と、前記パタン生成手段からのパタンが投影された前記被検物を撮像する撮像手段と、前記撮像手段により撮像された画像データを基に、前記複数の異なる大きさを有するパタンのうち、小さなパタンが認識可能か否かを判定することで、前記被検物の表面状態を推定する推定手段と、前記推定手段に基づき、第1の形状測定部と第2の形状測定部のどちらかを選択する選択手段とを備えることを特徴とする。   The shape measuring apparatus according to the present invention generates a pattern having a plurality of different sizes, switched to a plurality of different light distribution characteristics, and having an inclination on the light distribution characteristics, and projecting the pattern onto a test object A plurality of patterns having different sizes based on image data captured by the imaging means, imaging means for imaging the test object on which the pattern from the pattern generation means is projected, and By determining whether or not a small pattern can be recognized, an estimation unit that estimates the surface state of the test object, and based on the estimation unit, either the first shape measurement unit or the second shape measurement unit And selecting means for selecting.

本発明の一側面によれば、鏡面と拡散面とが混在するような被検物においても、精度良く表面形状を測定することが可能となる。   According to one aspect of the present invention, it is possible to accurately measure the surface shape of a test object in which a mirror surface and a diffusion surface are mixed.

図1は、本発明を適用した一実施の形態の構成例を示す形状測定装置である。   FIG. 1 is a shape measuring apparatus showing a configuration example of an embodiment to which the present invention is applied.

図1の形状測定装置は、ステージ6上に載置された被検物4の表面形状を非接触で測定するものである。   The shape measuring apparatus of FIG. 1 measures the surface shape of the test object 4 placed on the stage 6 in a non-contact manner.

光源1−1乃至1−3は、それぞれ発光部1a−1乃至1a−3を備えており、フィルタ1b−1乃至1b−3により、投光板2に対して異なる方向から発光する。   The light sources 1-1 to 1-3 are respectively provided with light emitting units 1a-1 to 1a-3, and emit light from different directions with respect to the light projecting plate 2 by the filters 1b-1 to 1b-3.

投光板2は、被検物4が載置されたステージ6の上面の所定の位置に載置されている。また、投光板2は、ステージ6と対向する面に半球状の拡散面からなる大凸部2a−1乃至2a−nが配されており、それぞれ光源1−1乃至1−3により発せられる光を完全拡散反射させる。大凸部2a−1乃至2a−nは、例えば、表面に個別に色が施されるなどして、個別に識別することができ、したがって、投光板2における位置を外観により個別に認識することができる。また、投光板2は、大凸部2a−1乃至2a−nの隙間となる位置に、半球状の完全拡散面からなる小凸部2b−1乃至2b−mを備えている。   The light projecting plate 2 is placed at a predetermined position on the upper surface of the stage 6 on which the test object 4 is placed. Further, the light projecting plate 2 is provided with large convex portions 2a-1 to 2a-n made of hemispherical diffusing surfaces on the surface facing the stage 6, and light emitted from the light sources 1-1 to 1-3, respectively. Fully diffuse reflection. The large convex portions 2a-1 to 2a-n can be individually identified by, for example, individually coloring the surface, and accordingly, the position on the light projecting plate 2 can be individually recognized by appearance. Can do. In addition, the light projecting plate 2 includes small convex portions 2b-1 to 2b-m made of a hemispherical complete diffusion surface at positions that become gaps between the large convex portions 2a-1 to 2a-n.

尚、大凸部2a−1乃至2a−n、および、小凸部2b−1乃至2b−mについては、それぞれを特に区別して説明する必要がない場合、単に大凸部2aおよび小凸部2bと称するものとする。また、図1においては、図中に16個の大凸部2aおよび9個の小凸部2bが記載されているが、大凸部2aを構成する半球の直径は数mm以下程度の大きさのものであるため、当然のことながら、それ以外の数であってもよいものである。さらに、小凸部2bは、大凸部2aとは異なる配色が施されており、例えば、大凸部2aが灰色または黒などの場合、小凸部2bは赤などに配色されている。   In addition, about the large convex parts 2a-1 thru | or 2a-n, and the small convex parts 2b-1 thru | or 2b-m, when it is not necessary to explain each in particular, it is only the large convex part 2a and the small convex part 2b. Shall be referred to as Further, in FIG. 1, 16 large convex portions 2a and nine small convex portions 2b are shown in the drawing, but the diameter of the hemisphere constituting the large convex portion 2a is about several mm or less. As a matter of course, other numbers may be used. Further, the small convex portion 2b has a color scheme different from that of the large convex portion 2a. For example, when the large convex portion 2a is gray or black, the small convex portion 2b is colored red or the like.

撮像部3は、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子3aおよびレンズ3bなどから構成され、ステージ6に載置された被検物4を固定された位置で、固定された角度から撮像し、撮像した画像を形状測定部5に供給する。   The imaging unit 3 includes an imaging element 3a such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor), a lens 3b, and the like. Images are taken from a fixed angle, and the taken images are supplied to the shape measuring unit 5.

形状測定部5は、光源制御部5a、角度測定部5b、三角法測定部5c、表面判定部5d、選択部5e、および光切断法測定部5fを備えている。形状測定部5は、光源1−1乃至1−3の発光タイミングと、撮像部3により撮像された画像の情報とを対応付けて管理し、撮像された画像から被検物4の表面形状の各位置を演算により求める。また、形状測定部5は、ステージ6を図中のx,y方向、x,θ方向、または、y,θ方向のいずれかの組み合わせで動作させることにより、カメラ3の撮像方向を変えずに、被検物4の全体を撮像できる。尚、ステージ6は、当然のことながら、x,y,z,θのいずれにも動作できるように構成し、使用者が動作方向を切替えるようにしても良い。また、図1においては、形状測定部5についてのみ、機能ブロック図として記載されているが、形状測定部5は、例えば、いわゆる制御基板などにより構成されるものであり、図1においては、その制御基板により実現される形状測定部5の機能を機能ブロック図として表現している。   The shape measurement unit 5 includes a light source control unit 5a, an angle measurement unit 5b, a triangulation measurement unit 5c, a surface determination unit 5d, a selection unit 5e, and a light cutting method measurement unit 5f. The shape measuring unit 5 manages the light emission timing of the light sources 1-1 to 1-3 and the information of the image captured by the imaging unit 3 in association with each other, and determines the surface shape of the test object 4 from the captured image. Each position is obtained by calculation. In addition, the shape measuring unit 5 operates the stage 6 in any combination of x, y direction, x, θ direction, or y, θ direction in the figure without changing the imaging direction of the camera 3. The entire test object 4 can be imaged. Needless to say, the stage 6 may be configured to operate in any of x, y, z, and θ so that the user can switch the operation direction. Further, in FIG. 1, only the shape measuring unit 5 is described as a functional block diagram, but the shape measuring unit 5 is configured by, for example, a so-called control board, and in FIG. The function of the shape measuring unit 5 realized by the control board is expressed as a functional block diagram.

光源制御部5aは、光源1−1乃至1−3の発光タイミングを制御する。角度測定部5bは、後述する投光角θLを測定する。三角法測定部5cは、撮像部3により撮像された画像に基づいて、被検物4の表面との距離を三角法により測定し、その情報に基づいて被検物の表面形状の情報を生成する。   The light source control unit 5a controls the light emission timings of the light sources 1-1 to 1-3. The angle measuring unit 5b measures a projection angle θL described later. The trigonometric measurement unit 5c measures the distance from the surface of the test object 4 by trigonometry based on the image captured by the imaging unit 3, and generates information on the surface shape of the test object based on the information. To do.

表面判定部5dは、撮像部3により撮像された画像に基づいて、被検物4の表面が拡散面であるか、または、鏡面であるかを判定する。選択部5eは、表面判定部5dの判定結果に基づいて、三角法測定部5c、または、光切断法測定部5fの何れかにより被検物4の表面形状を測定させる。光切断法測定部5fは、スリット光発光部7よりスリット光(線状パタン光)、または、正弦波パタン光を発光させ、光切断法により被検物4の表面形状を測定する。   The surface determination unit 5d determines whether the surface of the test object 4 is a diffusion surface or a mirror surface based on the image captured by the imaging unit 3. The selection unit 5e causes the surface shape of the test object 4 to be measured by either the trigonometric measurement unit 5c or the light cutting method measurement unit 5f based on the determination result of the surface determination unit 5d. The light cutting method measuring unit 5f emits slit light (linear pattern light) or sine wave pattern light from the slit light emitting unit 7, and measures the surface shape of the test object 4 by the light cutting method.

光切断法については、周知の技術である方法であるので、特にここでの説明は控えるが、主に、レーザ光源を用い、指向性を有する光束を用い、所定の透過率分布を用いたマスクを通過した光束を被検物4に照射する。そのときの像を撮像部3で取得し、撮像部3で得られた画像データを基に、マスクを通過し、被検物に照明されたレーザ光束の像が撮像部3の素子のどの位置で結像されたかを求め、撮像部3のレーザ光束の像とステージ6の位置、レーザ光の照射方向に基づいて算出する方法である。光切断法の詳細は、例えば、「最新光三次元計測」(吉沢徹著 朝倉書店 2006/11/20発行)のP21乃至P23に開示されている。   Since the light cutting method is a well-known technique, a description thereof will be omitted here. However, a mask using a laser light source, a directional light beam, and a predetermined transmittance distribution is mainly used. The test object 4 is irradiated with the light beam that has passed through. The image at that time is acquired by the imaging unit 3, and based on the image data obtained by the imaging unit 3, the position of the element of the imaging unit 3 where the image of the laser beam passing through the mask and illuminating the test object is obtained. Is calculated based on the image of the laser beam of the imaging unit 3, the position of the stage 6, and the irradiation direction of the laser beam. Details of the light cutting method are disclosed in, for example, P21 to P23 of “Latest optical three-dimensional measurement” (issued by Toru Yoshizawa, Asakura Shoten 2006/11/20).

また、図1の形状測定装置は、光源1−1乃至1−3により発せられる光、または、スリット光発光部7により発せられるスリット光もしくは正弦波パタン光以外の外光を遮光するため、暗箱11により全体が覆われている。   Further, the shape measuring apparatus of FIG. 1 is a dark box for shielding light emitted from the light sources 1-1 to 1-3 or outside light other than slit light or sine wave pattern light emitted from the slit light emitting unit 7. 11 is entirely covered.

次に、図2のフローチャートを参照して、形状測定処理について説明する。   Next, the shape measurement process will be described with reference to the flowchart of FIG.

ステップS1において、形状測定部5の光源制御部5aは、光源1−1を制御して、発光させる。この処理により、投光板2は光源1−1によりななめから照明されるので、光源1−1の照明方向と各凸部2a、2bの各位置における面の法線方向との違いに応じて、明るさが変わる。   In step S1, the light source control unit 5a of the shape measuring unit 5 controls the light source 1-1 to emit light. By this process, the light projecting plate 2 is illuminated from the slant by the light source 1-1. Therefore, depending on the difference between the illumination direction of the light source 1-1 and the normal direction of the surface at each position of each convex portion 2a, 2b, The brightness changes.

例えば、図3の最上段で示されるように、各凸部2a、2bの図中の左下部が明るく、右上部が暗く照明され、配光特性が傾斜した拡散光分布からなるパタンを得ることができる。   For example, as shown in the uppermost part of FIG. 3, a pattern composed of a diffused light distribution in which the lower left part of each projection 2a, 2b in the figure is bright and the upper right part is darkly lit and the light distribution characteristics are inclined is obtained. Can do.

このような配光パタンが出来る理由は、以下の通りである。一つの凸部2aの断面を図4に示した。凸部2aに対して実線101で示した方向から例えば平行光が入射した場合、平行光の一部が凸部2aの斜面によって遮られる為、照明されるのは領域A0である。そのように照明された凸部2aを点線102で示した方向の反対方向から見渡したときに、照明された領域として見える範囲は両矢印線A1の範囲で、影として見える範囲は両矢印線B1の範囲になる。また、見渡す角度を変えて、一点差線103で示した方向の反対方向から見渡したときには、照明された領域として見える範囲は両矢印線A2の範囲で、影として見える範囲は両矢印線B2の範囲となる。このように見渡す角度が変わると、共に照明された範囲である両矢印線A1と影として見える範囲である両矢印線B1の比率と、両矢印線A2と両矢印線B2の比率が変わる。このように凸部2aの見渡す角度が変わると照明された領域として見える範囲も変わることが分かる。一方、見渡す角度が一定で照射角度が変わっても同様な変化が起こる。その変化の様子が図3で表されている。したがって、投光板2に照明する方向を変えることにより、投光板2の配光特性を変化させることができる。   The reason why such a light distribution pattern can be achieved is as follows. A cross section of one convex portion 2a is shown in FIG. When, for example, parallel light is incident on the convex portion 2a from the direction indicated by the solid line 101, a part of the parallel light is blocked by the slope of the convex portion 2a, so that the region A0 is illuminated. When the illuminated projection 2a is looked over from the direction opposite to the direction indicated by the dotted line 102, the range seen as the illuminated region is the range of the double arrow line A1, and the range seen as a shadow is the double arrow line B1. It becomes the range. In addition, when the viewing angle is changed and viewed from the direction opposite to the direction indicated by the one-point difference line 103, the range that can be seen as the illuminated area is the range of the double arrow line A2, and the range that appears as a shadow is the double arrow line B2. It becomes a range. When the angle to be looked at changes in this way, the ratio between the double arrow line A1 that is the area illuminated together and the double arrow line B1 that is the area that appears as a shadow, and the ratio between the double arrow line A2 and the double arrow line B2 change. Thus, it can be seen that the range that can be seen as the illuminated region changes when the angle over which the convex portion 2a looks is changed. On the other hand, the same change occurs even if the angle of view is constant and the irradiation angle changes. The state of the change is shown in FIG. Therefore, the light distribution characteristic of the light projecting plate 2 can be changed by changing the direction in which the light projecting plate 2 is illuminated.

一方、本形状測定装置では、このような明るさの分布を持った投光板2の像が、表面が鏡面である被検物に映りこむ。したがって、投光板2は、図1で示される例においては、反射により投光しているが、同様の光を投光できればよいので、例えば、図中の上部に光源を設けるようにして、透過により同様の分布からなる拡散光を被検物4に対して投光するようにしても良い。   On the other hand, in the present shape measuring apparatus, an image of the light projection plate 2 having such a brightness distribution is reflected on a test object whose surface is a mirror surface. Accordingly, the light projecting plate 2 projects light by reflection in the example shown in FIG. 1, but it is sufficient that the same light can be projected. For example, a light source is provided at the upper part in the drawing to transmit light. Accordingly, diffused light having a similar distribution may be projected onto the test object 4.

ステップS2において、撮像部3は、光源1−1が発光した状態において、被検物4の表面に映り込んだ、投光板2の大凸部2aおよび小凸部2bのそれぞれを含む第1画像を撮像する。撮像部3のレンズ3bが調整されることにより、撮像素子3aで撮像される合焦位置は、投光板2の表面とされている。このため、撮像部3は、被検物4を含む画像を撮像すると共に、被検物4の表面に映り込んだ投光板2を撮像する。   In step S <b> 2, the imaging unit 3 is a first image including each of the large convex portion 2 a and the small convex portion 2 b of the light projecting plate 2 reflected on the surface of the test object 4 in a state where the light source 1-1 emits light. Image. By adjusting the lens 3 b of the imaging unit 3, the in-focus position imaged by the imaging device 3 a is the surface of the light projecting plate 2. For this reason, the imaging unit 3 captures an image including the test object 4 and also images the light projection plate 2 reflected on the surface of the test object 4.

ステップS3において、形状測定部5の光源制御部5aは、光源1−2を制御して、光源1−1とは異なる位置から平行光を発光させる。この処理により、例えば、図3の中段で示されるように、各大凸部2aの図中の右上部が明るく、左下部が暗く反射することにより、各大凸部2aについて、配光特性が傾斜されたように投光板2が光を発する。   In step S3, the light source control unit 5a of the shape measuring unit 5 controls the light source 1-2 to emit parallel light from a position different from the light source 1-1. By this processing, for example, as shown in the middle part of FIG. 3, the upper right portion in the drawing of each large convex portion 2a is reflected brightly and the lower left portion is reflected darkly. The light projecting plate 2 emits light as if tilted.

ステップS4において、撮像部3は、光源1−2が発光した状態において、被検物4の表面に映り込んだ、投光板2の大凸部2aおよび小凸部2bのそれぞれを含む第2画像を撮像する。   In step S <b> 4, the imaging unit 3 is a second image including each of the large convex portion 2 a and the small convex portion 2 b of the light projecting plate 2 reflected on the surface of the test object 4 in a state where the light source 1-2 emits light. Image.

ステップS5において、形状測定部5の光源制御部5aは、光源1−3を制御して、光源1−1,1−2とは異なる位置から平行光を発光させる。この処理により、例えば、図3の最下段で示されるように、各大凸部2aの図中の右下部が明るく、左上部が暗く反射することにより、各大凸部2aについて、配光特性が傾斜されたように投光板2が光を発する。   In step S5, the light source control unit 5a of the shape measuring unit 5 controls the light source 1-3 to emit parallel light from a position different from the light sources 1-1 and 1-2. By this processing, for example, as shown in the lowermost stage of FIG. 3, the right lower portion in the figure of each large convex portion 2a is reflected brightly and the upper left portion is reflected darkly. The light projecting plate 2 emits light as if.

ステップS6において、撮像部3は、光源1−3が発光した状態において、被検物4の表面に映り込んだ、投光板2の大凸部2aおよび小凸部2bのそれぞれを含む第3画像を撮像する。   In step S <b> 6, the imaging unit 3 is a third image including each of the large convex portion 2 a and the small convex portion 2 b of the light projecting plate 2 reflected on the surface of the test object 4 in a state where the light source 1-3 emits light. Image.

ステップS7において、表面判定部5dは、先のステップで取得した3つの画像各々に、被検物4が映っている領域を設定し、被検物4の映っている領域を更に細分化して、被検物4の表面の位置を測定する領域を設定する。なお、本発明の実施の形態においては、被検物4の撮影領域を端から順次測定領域として決定する。   In step S7, the surface determination unit 5d sets a region where the test object 4 is reflected in each of the three images acquired in the previous step, and further subdivides the region where the test object 4 is reflected, An area for measuring the position of the surface of the test object 4 is set. In the embodiment of the present invention, the imaging region of the test object 4 is determined as the measurement region sequentially from the end.

ステップS8において、表面の位置を測定する領域が写っている画像について、表面判定部5dは、第1画像乃至第3画像を解析し、処理対象領域近傍の小凸部2bが認識できるか否かを判定する。被検物4に写りこんでいる大凸部2aの近傍には小凸部2bが映り込まれているはずである。そこで、大凸部2aの近傍に、小凸部2bが画像データ中に存在するかどうかを周知のパターンマッチングの技術で認識する。   In step S8, the surface determination unit 5d analyzes the first image to the third image for the image in which the region for measuring the position of the surface is reflected, and whether or not the small convex portion 2b in the vicinity of the processing target region can be recognized. Determine. The small convex part 2b should be reflected in the vicinity of the large convex part 2a reflected in the test object 4. Therefore, it is recognized by a well-known pattern matching technique whether or not the small convex portion 2b exists in the image data in the vicinity of the large convex portion 2a.

ところで、大凸部2aが映り込んでいる被検物4上の微小範囲が鏡面である場合、表面判定部5dは、小凸部2bが大凸部2aに比して小さくても、第1画像乃至第3画像の全てにおいて大凸部2aと同様に、例えば、隣接する4個の小凸部2bが映り込んでいることを認識することができる。一方、例えば、大凸部2aが映り込んでいる被検物4上の微小範囲が拡散面である場合、小凸部2bは、大凸部2aに比して小さく、ランバート則に基づいて、拡散反射が反射角に依存して小さくなるので、表面判定部5dは、第1画像乃至第3画像のすべてにおいて、もしくは、そのいずれかにおいて、小凸部2bが大凸部2aと同様に映り込んでいることを認識し難い状態となる。尚、小凸部2bの配色は認識を容易にするために施されているので、第1画像乃至第3画像におけるコントラストにより認識できれば、大凸部2aと必ずしも異なる配色とする必要はない。   By the way, when the minute range on the test object 4 in which the large convex part 2a is reflected is a mirror surface, the surface determination part 5d is the first even if the small convex part 2b is smaller than the large convex part 2a. In all of the images to the third images, it is possible to recognize that, for example, four adjacent small convex portions 2b are reflected in the same manner as the large convex portion 2a. On the other hand, for example, when the minute range on the test object 4 in which the large convex portion 2a is reflected is a diffusion surface, the small convex portion 2b is smaller than the large convex portion 2a, and based on the Lambert law, Since the diffuse reflection is reduced depending on the reflection angle, the surface determination unit 5d reflects the small convex portion 2b in the same manner as the large convex portion 2a in all or any of the first to third images. It becomes difficult to recognize that it is crowded. In addition, since the color scheme of the small convex portion 2b is provided for easy recognition, the color scheme is not necessarily different from that of the large convex portion 2a as long as it can be recognized by the contrast in the first to third images.

したがって、ステップS8において、第1画像乃至第3画像のいずれにおいても、小凸部2bの存在が認識できた場合、すなわち、処理対象領域の被検物4の表面が鏡面であると判定された場合、ステップS9において、角度測定部5bは、第1画像乃至第3画像を基に、投光板2のどの凸部2aが測定領域に写り込んでいるかを判断する。具体的には、予め形状測定部5の図示していない記憶部に記憶された各大凸部2aの特徴量と、測定領域に該当する画像情報とを基に参照しながら、どの大凸部2aが映り込んでいるか特定する。次に、特定された大凸部2aの位置情報を形状測定部5に設けられた記憶部から取得する。なお、この位置情報も予め記憶部に記憶されている。そして、図1に示す基線長Lbの長さと方向について、取得された位置情報を基に算出する。また、対象測定領域の画素と光軸上の画素との距離とレンズ3bの焦点距離に基づいて、θcを算出する。このθcの角度は対象測定領域の画素と対象測定領域とをレンズ3bによる屈折を無視して直線で結ぶ線axと基線長Lbとのなす角度と同じである。更に、対象測定領域の対応画素とステージ6の位置情報を取得して、レンズ3bの光軸を法線にした平面における測定領域の2次元座標値を取得する。   Therefore, in step S8, in any of the first image to the third image, when the presence of the small convex portion 2b can be recognized, that is, it is determined that the surface of the test object 4 in the processing target region is a mirror surface. In this case, in step S9, the angle measurement unit 5b determines which convex portion 2a of the light projecting plate 2 is reflected in the measurement region based on the first image to the third image. Specifically, referring to the feature amount of each large convex portion 2a stored in advance in the storage unit (not shown) of the shape measuring unit 5 and the image information corresponding to the measurement region, which large convex portion Specify whether 2a is reflected. Next, the positional information of the specified large convex portion 2 a is acquired from the storage unit provided in the shape measuring unit 5. This position information is also stored in advance in the storage unit. Then, the length and direction of the base line length Lb shown in FIG. 1 are calculated based on the acquired position information. Further, θc is calculated based on the distance between the pixel in the target measurement region and the pixel on the optical axis and the focal length of the lens 3b. The angle θc is the same as the angle formed by a line ax connecting the pixel in the target measurement region and the target measurement region with a straight line ignoring refraction by the lens 3b and the base line length Lb. Further, the corresponding pixels of the target measurement region and the position information of the stage 6 are acquired, and the two-dimensional coordinate value of the measurement region on the plane with the optical axis of the lens 3b as the normal line is acquired.

また、角度測定部5bでは、対象測定領域の面の方向を算出する。算出方法としては、第1画像乃至第3画像の対応画素の受光光量に基づいて、計算する。例えば、第1画像を取得時における投光板2を反射した散乱光が対象測定領域で正反射してレンズ3bに入射する場合には、最も対象画素の受光光量が大きく、反対に正反射条件から外れてゆくと受光光量が減少してゆく。そこで、本発明の実施の形態では、同一直線上に配置されていない3つの光源1−1、1−2、1−3を用いて、投光板2に照明して異なる配光特性を再現させ、その配光特性が映り込んだ被検物4を撮影することで、対象測定領域の立体的な面の方向を算出している。よって、得られた3つの画像における対象測定領域の画素の受光光量を取得し、対象測定領域の面方向を特定した。   Further, the angle measuring unit 5b calculates the direction of the surface of the target measurement region. As a calculation method, calculation is performed based on the amount of received light of the corresponding pixels of the first image to the third image. For example, when the scattered light reflected from the light projecting plate 2 at the time of acquiring the first image is specularly reflected in the target measurement region and enters the lens 3b, the received light amount of the target pixel is the largest, and conversely from the specular reflection condition. As it moves away, the amount of light received decreases. Therefore, in the embodiment of the present invention, the three light sources 1-1, 1-2, and 1-3 that are not arranged on the same straight line are used to illuminate the light projecting plate 2 to reproduce different light distribution characteristics. The direction of the three-dimensional surface of the target measurement region is calculated by photographing the test object 4 in which the light distribution characteristic is reflected. Therefore, the received light amount of the pixel in the target measurement area in the three obtained images was acquired, and the surface direction of the target measurement area was specified.

例えば、対象測定領域の法線方向のX-Y平面上における角度をθx-y、Y-Z平面上での角度をθy-zとしたときに、投光板2の配光特性が光源1−1で照明した場合の配光特性をf1(θx-y,θy-z)とする。同様に、光源1−2で照明した場合の配光特性をf2(θx-y,θy-z)とし、光源1−3で照明した場合の配光特性をf3(θx-y,θy-z)とする。一方、3つの光源1−1乃至1−3で投光板2を照明したときの撮像部3による受光光量が、それぞれRp1乃至Rp3であるとすると、次の式(1)乃至式(3)のように未知数が2つある3つの連立方程式が得られる。
Rp1=f1(θx-y,θy-z)
・・・(1)
Rp2=f2(θx-y,θy-z)
・・・(2)
Rp3=f3(θx-y,θy-z)
・・・(3)
For example, when the angle on the XY plane in the normal direction of the target measurement region is θx-y and the angle on the YZ plane is θy-z, the light distribution characteristic of the light projecting plate 2 is illuminated by the light source 1-1. In this case, the light distribution characteristic is assumed to be f1 (θx-y, θy-z). Similarly, the light distribution characteristic when illuminated with the light source 1-2 is f2 (θx-y, θy-z), and the light distribution characteristic when illuminated with the light source 1-3 is f3 (θx-y, θy-z). ). On the other hand, assuming that the amounts of light received by the imaging unit 3 when the light projecting plate 2 is illuminated by the three light sources 1-1 to 1-3 are Rp1 to Rp3, respectively, the following equations (1) to (3) Thus, three simultaneous equations with two unknowns are obtained.
Rp1 = f1 (θx-y, θy-z)
... (1)
Rp2 = f2 (θx-y, θy-z)
... (2)
Rp3 = f3 (θx-y, θy-z)
... (3)

尚、未知数が2つであるのに、3つの連立方程式が必要となるのは、2つの配光特性しかないとすると、投光軸(2つの光源で投光板2を照明した際に、投光板2による正反射方向のなす角度の丁度中間の角度方向と同じ方向の軸)周りに配光パタンが回転対象になるため、角度θx-y,θy-zの正負を判別することができないためである。   Although there are only two unknowns, three simultaneous equations are required if there are only two light distribution characteristics. When the light projection plate 2 is illuminated with two light sources, Since the light distribution pattern is a rotation target around the axis in the same direction as the angle direction just between the specular reflection directions by the light plate 2, the sign of the angles θx-y and θy-z cannot be determined. It is.

また、投光板2の配光特性が投光軸に対する角度に対してリニアに変化するものであれば、次のように捉えて、対象測定領域の面の角度を出すことができる。   Further, if the light distribution characteristic of the light projecting plate 2 changes linearly with respect to the angle with respect to the light projecting axis, the angle of the surface of the target measurement region can be obtained as follows.

ある光源で得られた受光光量と投光軸を含む1つの平面上における対象測定領域の法線方向の角度θaとの関係をRp1=θaと捉え、他の光源で得られた受光光量と投光軸と直交した平面上における対象測定領域の法線方向の角度θbとの関係をRp2=θa・θbと捉える。この2つの式からθaおよびθbが求められることになるが、角度θa,θbは、共に90°を越える場合に解が2つ以上現れることになる。このため、このいずれかを確定させるためにもう1つの配光パタンを用意する必要がある。 The relationship between the received light quantity obtained with one light source and the angle θ a in the normal direction of the target measurement area on one plane including the projection axis is regarded as Rp1 = θ a, and the received light quantity obtained with another light source And the angle θ b in the normal direction of the target measurement region on the plane orthogonal to the projection axis is taken as Rp2 = θ a · θ b . Θ a and θ b are obtained from these two equations, and when the angles θ a and θ b both exceed 90 °, two or more solutions appear. For this reason, it is necessary to prepare another light distribution pattern in order to determine one of these.

実際には、回転楕円体に近い配光特性となり、以下の式(4)とこれに回転変換とを加えたもので導くことができる。   Actually, the light distribution characteristic is close to that of a spheroid, and can be derived by adding the following equation (4) and rotational transformation.

r2=a2sin2θb・cos2θa+b2sin2θb・sin2θa+c2cos2θb
・・・(4)
r 2 = a 2 sin 2 θ b・ cos 2 θ a + b 2 sin 2 θ b・ sin 2 θ a + c 2 cos 2 θ b
... (4)

尚、このように解を解析的に求めるのではなく、予め作成されたルックアップテーブルを用意して、それぞれの受光光量から対象測定領域の面の方向を求めるようにしても良い。   Instead of analytically obtaining the solution in this way, a lookup table prepared in advance may be prepared, and the direction of the surface of the target measurement region may be obtained from each received light amount.

そして、この対象測定領域の面方向と写り込んだ凸部2a−xの位置情報を基に、対象測定領域Qに対して撮像部3の方向と写り込んだ凸部2a−xの方向とのなす角度θOを取得する。 Then, based on the surface direction of the target measurement region and the positional information of the projected portions 2a-x, the direction of the imaging unit 3 and the direction of the projected portions 2a-x with respect to the target measurement region Q Obtain the formed angle θ O.

ステップS10では、ステップS9で求められた角度θcと角度θOでもって、対象測定領域と対象測定領域に映り込んでいる大凸部2aとを結ぶ線と基線長Lbとのなす角度θLを取得する。 In step S10, at an angle θc and the angle theta O obtained in step S9, obtaining the angle θL of the line and the base line length Lb connecting the Daitotsu portion 2a which is reflected on the object measuring region and the target measurement area To do.

ステップS11において、先のステップS9やステップS10で取得したθL、θc及び基線長Lbに基づき、三角法に基づき、光軸axと平行な方向における座標位置を取得し、測定対象領域の空間的な座標値を取得することができる。   In step S11, the coordinate position in the direction parallel to the optical axis ax is acquired based on the trigonometry based on θL, θc and the baseline length Lb acquired in the previous step S9 and step S10, and the spatial area of the measurement target region is acquired. Coordinate values can be acquired.

一方、ステップS8において、小凸部2bが認識できない場合、すなわち、処理対象領域の被検物4の表面が拡散面であると判定された場合、ステップS13において、選択部5eは、被検物4の表面が拡散面であるときに対応している光切断法測定部5fにより被検物4の位置Qにおける、例えば、ステージ6の表面からの高さを表面形状の情報として求める。   On the other hand, when the small convex portion 2b cannot be recognized in step S8, that is, when it is determined that the surface of the test object 4 in the processing target region is a diffusion surface, in step S13, the selection unit 5e For example, the height from the surface of the stage 6 at the position Q of the test object 4 is obtained as surface shape information by the light cutting method measurement unit 5f corresponding to the case where the surface of 4 is a diffusion surface.

この判定により、光切断法測定部5fは、スリット光発光部7より線状パタン光(スリット光)を発光させ、ステージ6を動作させながら、撮像部3により撮像された被検物4における処理対象となる微量領域の表面の陰影により被検物4の表面形状を測定する。   By this determination, the light cutting method measuring unit 5 f emits linear pattern light (slit light) from the slit light emitting unit 7 and operates the stage 6 while processing the test object 4 imaged by the imaging unit 3. The surface shape of the test object 4 is measured by the shadow of the surface of the target minute region.

ステップS12において、形状判定部5は、各画像内の被検物4が撮像された範囲のうち、処理対象としていない領域が残されているか否かを判定する。例えば、処理対象としていない領域が残されている場合、処理は、ステップS7に戻る。すなわち、処理対象としていない、未処理の領域がなくなるまで、ステップS7乃至S13の処理が繰り返され、処理対象としていない、未処理の領域がなくなったとき、処理は、終了する。   In step S <b> 12, the shape determination unit 5 determines whether or not an area that is not a processing target remains in the range in which the test object 4 in each image is captured. For example, when an area that is not a processing target remains, the process returns to step S7. That is, the processes in steps S7 to S13 are repeated until there are no unprocessed areas that are not to be processed. When there are no unprocessed areas that are not to be processed, the process ends.

尚、以上においては、処理領域毎に三角法または光切断法を切替えて測定する例について説明してきたが、予め領域全体について、拡散面であるか、または、鏡面であるかを領域毎に測定し、鏡面の全領域を三角法により一斉に測定し、拡散面の全領域を光切断法により一斉に測定するようにしても良い。また、拡散面に対しては、以上においては、光切断法を用いた例について説明してきたが、拡散面における表面形状が計測できれば、必ずしも光切断法でなくてもよく、例えば、位相シフト法やフーリエ変換法であってもよい。   In the above description, an example in which measurement is performed by switching the trigonometric method or the light cutting method for each processing region has been described. However, whether the entire region is a diffusion surface or a mirror surface is previously measured for each region. Then, the entire area of the mirror surface may be measured all at once by the trigonometric method, and the entire area of the diffusion surface may be measured all at once by the light cutting method. In addition, for the diffusing surface, the example using the light cutting method has been described above. However, if the surface shape on the diffusing surface can be measured, the light cutting method is not necessarily used. Or a Fourier transform method.

また、本実施の形態における投光板2は、対称形状を有した大凸部2aにそれぞれ異なる方向から照明することで、異なる配光特性を有する複数種パタンを形成している。特に、大凸部2aが軸対称である回転対称形状であれば、投光板2を照明する照明手段の位置を厳密に位置決めしなくとも良く、3つの照明手段が一直線上に並ばなければ、被検物の面の傾斜方向を算出することが可能である。   In addition, the light projecting plate 2 in the present embodiment forms a plurality of patterns having different light distribution characteristics by illuminating the large convex portions 2a having a symmetrical shape from different directions. In particular, if the large convex portion 2a is a rotationally symmetric shape that is axially symmetric, the position of the illuminating means that illuminates the light projecting plate 2 does not need to be strictly positioned. It is possible to calculate the inclination direction of the surface of the inspection object.

さらに、投光板2以外にも配光傾向が異なるパタンが少なくとも3種類生成できるものであれば、一向に構わない。   Furthermore, as long as at least three types of patterns having different light distribution tendencies other than the light projecting plate 2 can be generated, it does not matter.

例えば、図5に図示した形状測定装置であっても構わない。この形状測定装置は、投光板2として、透明な材料から形成された投光板2を用いても良い。もちろん、投光板2の各大凸部2aが形成された面は拡散面であり、一方反対側の面はなめらかな面である。そして、投光板2の滑らかな面から光源の光を入射させるように、光源1を設置した。この光源1は光源位置移動機構8を介して、本体に支持されている。光源位置移動機構8は、少なくとも3箇所の位置に光源を移動させることができる。なお、光源を移動させることのできる位置は、同一直線上に並ばない位置になっている。このような構成を有した形状測定装置では、光源1の位置を適宜変えることで、投光板2の配光特性を変化させることが可能である。また、被検物の面の傾斜方向に関する測定精度に応じて、光源の位置の変化量を変えて、光源の位置を変化しても良い。   For example, the shape measuring apparatus illustrated in FIG. 5 may be used. In this shape measuring apparatus, the light projecting plate 2 made of a transparent material may be used as the light projecting plate 2. Of course, the surface on which the large convex portions 2a of the light projecting plate 2 are formed is a diffusing surface, while the opposite surface is a smooth surface. And the light source 1 was installed so that the light of a light source may enter from the smooth surface of the light projection plate 2. FIG. The light source 1 is supported by the main body via a light source position moving mechanism 8. The light source position moving mechanism 8 can move the light source to at least three positions. In addition, the position where the light source can be moved is a position that does not line up on the same straight line. In the shape measuring apparatus having such a configuration, it is possible to change the light distribution characteristics of the light projecting plate 2 by appropriately changing the position of the light source 1. Further, the position of the light source may be changed by changing the amount of change in the position of the light source in accordance with the measurement accuracy regarding the tilt direction of the surface of the test object.

また、投光板2の大凸部2aについては、半球状である例について説明してきたが、光源1からの光を投光板2に対して垂直な軸に対して対称に反射できるものであればよいので、その他の軸対称な凸部、または凹部により構成するようにしてもよい。   Further, the large convex portion 2a of the light projecting plate 2 has been described with respect to the hemispherical example. However, as long as it can reflect light from the light source 1 symmetrically with respect to an axis perpendicular to the light projecting plate 2. Since it is good, you may make it comprise with another axially symmetrical convex part or a recessed part.

以上の処理により、撮像部3により撮像される被検物4の表面が鏡面であり、映り込む小凸部2bが観測できる場合、三角法により表面形状として、被検物4の位置Qにおけるステージ6の表面からの高さを表面形状の情報として求め、撮像部3により撮像される被検物4の表面が拡散面であり、映り込む小凸部2bが観測できず、十分に大凸部2aが映り込んでいない場合、光切断法により表面形状として、被検物4の位置Qにおけるステージ6の表面からの高さを表面形状の情報として求めるようにした。   By the above processing, when the surface of the test object 4 imaged by the imaging unit 3 is a mirror surface and the reflected small convex part 2b can be observed, the stage at the position Q of the test object 4 is obtained as a surface shape by triangulation. 6 is obtained as surface shape information, and the surface of the test object 4 imaged by the imaging unit 3 is a diffusing surface, and the reflected small convex portion 2b cannot be observed, and the sufficiently large convex portion. When 2a is not reflected, the height from the surface of the stage 6 at the position Q of the test object 4 is obtained as surface shape information as the surface shape by the light cutting method.

結果として、被検物が鏡面の有無によらず、高い精度で表面形状を計測することが可能となる。また、被検物の表面に鏡面と拡散面とが混在していても、鏡面および拡散面に対して、それぞれ三角法および光切断法といった表面状態に応じて、適応的に表面形状の測定方式を切り替えるようにしたので、高い精度で表面形状を測定することが可能となる。   As a result, the surface shape can be measured with high accuracy regardless of whether the test object has a mirror surface. In addition, even if a mirror surface and a diffusing surface are mixed on the surface of the test object, the surface shape is adaptively measured for the mirror surface and the diffusing surface according to the surface condition such as trigonometry and light cutting method, respectively. Therefore, it is possible to measure the surface shape with high accuracy.

尚、本明細書において、処理を記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In the present specification, the steps for describing the processing are executed in parallel or individually even if processing that is performed in chronological order according to the described order is, of course, not necessarily processed in chronological order. It includes processing.

本発明を適用した形状測定装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the shape measuring apparatus to which this invention is applied. 形状測定処理を説明するフローチャートである。It is a flowchart explaining a shape measurement process. 光源により発光された光を反射することにより被検物に投光する投光板を説明する図である。It is a figure explaining the light projection plate which projects on the test object by reflecting the light light-emitted by the light source. 配光特性を説明する図である。It is a figure explaining a light distribution characteristic. 本発明を適用した形状測定装置の変形例を示す構成図である。It is a block diagram which shows the modification of the shape measuring apparatus to which this invention is applied.

符号の説明Explanation of symbols

1−1乃至1−3 光源, 2 投光板, 2a,2a−1乃至2a−n 大凸部, 2b,2b−1乃至2b−m 小凸部, 3 撮像部, 4 被検物, 5 形状測定部, 5a 光源制御部, 5b 角度測定部, 5c 三角法測定部, 5d 拡散判定部, 5e 選択部, 5f 光切断法測定部   1-1 to 1-3 light source, 2 projector plate, 2a, 2a-1 to 2a-n large convex part, 2b, 2b-1 to 2b-m small convex part, 3 imaging part, 4 test object, 5 shape Measurement unit, 5a Light source control unit, 5b Angle measurement unit, 5c Triangulation measurement unit, 5d Diffusion determination unit, 5e Selection unit, 5f Light cutting method measurement unit

Claims (7)

複数の異なる大きさを持ち、複数の異なる配光特性に切り替えられると共に、前記配光特性に傾斜を持たせたパタンを生成し、被検物に投影するパタン生成手段と、
前記パタン生成手段からのパタンが投影された前記被検物を撮像する撮像手段と、
前記撮像手段により撮像された画像データを基に、前記複数の異なる大きさを有するパタンのうち、小さなパタンが認識可能か否かを判定することで、前記被検物の表面状態を推定する推定手段と、
前記推定手段に基づき、第1の形状測定部と第2の形状測定部のどちらかを選択する選択手段とを
備えることを特徴とする形状測定装置。
A pattern generating means for generating a pattern having a plurality of different sizes, being switched to a plurality of different light distribution characteristics, and having an inclination to the light distribution characteristics, and projecting the pattern onto a test object,
Imaging means for imaging the test object on which the pattern from the pattern generation means is projected;
Estimation that estimates the surface state of the test object by determining whether or not a small pattern can be recognized among the plurality of patterns having different sizes based on the image data captured by the imaging unit. Means,
A shape measuring apparatus comprising: a selecting unit that selects one of the first shape measuring unit and the second shape measuring unit based on the estimating unit.
前記第1の形状測定部は、前記撮像手段により撮像された画像データを基に、前記被検物の表面に映り込んだパタンに対応するパタン生成手段上の位置を特定し、前記特定された前記パタン手段上の位置と撮像手段で撮像された位置に応じて、被検物表面の位置を特定する第1の算出手段と、
前記複数の異なる配光特性の各々で、前記撮像手段により撮像された複数の画像データを基に、前記被検物の表面の傾斜方向を測定する面方向測定手段とを有し、
前記第2の形状測定部は、前記選択手段での選択結果に基づき、指向性を有した光線を前記被検物に投光する指向性光投射部と、
前記指向性光投射部で投光された前記被検物を前記撮像手段で撮像することで得られた画像データを基に、前記被検物の表面形状を測定する第2の算出手段とを有することを特徴とする
請求項1に記載の形状測定装置。
The first shape measurement unit specifies a position on the pattern generation unit corresponding to a pattern reflected on the surface of the test object based on the image data captured by the imaging unit, and the specified First calculation means for specifying the position of the surface of the test object according to the position on the pattern means and the position imaged by the imaging means;
In each of the plurality of different light distribution characteristics, based on a plurality of image data imaged by the imaging means, having a surface direction measuring means for measuring the tilt direction of the surface of the test object,
The second shape measuring unit is a directional light projecting unit that projects a light beam having directivity onto the test object based on a selection result of the selecting unit;
Second calculation means for measuring the surface shape of the test object based on image data obtained by imaging the test object projected by the directional light projection unit with the imaging means; The shape measuring apparatus according to claim 1.
前記第2の投光手段は、正弦波パタン光、または線状パタン光を投光することを特徴とする
請求項2に記載の形状測定装置。
The shape measuring apparatus according to claim 2, wherein the second light projecting unit projects sinusoidal pattern light or linear pattern light.
前記パタン生成手段は、拡散面に凹部または凸部の立体形状を複数有した投光板と、前記投光板を照明する照明手段とを備えたことを特徴とする
請求項1に記載の形状測定装置。
The shape measuring apparatus according to claim 1, wherein the pattern generation unit includes a light projecting plate having a plurality of concave or convex solid shapes on a diffusion surface, and an illumination unit that illuminates the light projecting plate. .
前記投光板に形成された凹部または凸部は、軸対称形状であることを特徴とする
請求項4に記載の形状測定装置。
The shape measuring apparatus according to claim 4, wherein the concave portion or the convex portion formed on the light projecting plate has an axisymmetric shape.
外光を遮光する遮光手段をさらに備えることを特徴とする
請求項1に記載の形状測定装置。
The shape measuring apparatus according to claim 1, further comprising a light blocking unit that blocks external light.
複数の異なる大きさを持ち、複数の異なる配光特性に切り替えられると共に、前記配光特性に傾斜を持たせたパタンを生成し、被検物に投影するパタン生成手段と、
前記パタン生成手段からのパタンが投影された前記被検物を撮像する撮像手段と、
前記撮像手段により撮像された画像データを基に、前記被検物の表面状態を判定する表面判定手段とを
ことを特徴とする表面状態測定装置。
A pattern generating means for generating a pattern having a plurality of different sizes, being switched to a plurality of different light distribution characteristics, and having an inclination to the light distribution characteristics, and projecting the pattern onto a test object,
Imaging means for imaging the test object on which the pattern from the pattern generation means is projected;
A surface condition measuring device comprising: surface determining means for determining the surface condition of the test object based on the image data picked up by the image pickup means.
JP2007268601A 2007-10-16 2007-10-16 Shape measuring device and surface state measuring device Withdrawn JP2009097941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007268601A JP2009097941A (en) 2007-10-16 2007-10-16 Shape measuring device and surface state measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007268601A JP2009097941A (en) 2007-10-16 2007-10-16 Shape measuring device and surface state measuring device

Publications (1)

Publication Number Publication Date
JP2009097941A true JP2009097941A (en) 2009-05-07

Family

ID=40701088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007268601A Withdrawn JP2009097941A (en) 2007-10-16 2007-10-16 Shape measuring device and surface state measuring device

Country Status (1)

Country Link
JP (1) JP2009097941A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242178A (en) * 2010-05-14 2011-12-01 Moire Institute Inc Shape measuring instrument and shape measuring method
KR101110847B1 (en) 2009-09-24 2012-02-24 삼성중공업 주식회사 Device for noncontact measurement
WO2020065850A1 (en) * 2018-09-27 2020-04-02 ヤマハ発動機株式会社 Three-dimensional measuring device
JP2020527395A (en) * 2017-07-14 2020-09-10 デンタル スマートミラー, インコーポレイテッド Use of immersive photography and its use to guide the installation of orthodontic brackets

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101110847B1 (en) 2009-09-24 2012-02-24 삼성중공업 주식회사 Device for noncontact measurement
JP2011242178A (en) * 2010-05-14 2011-12-01 Moire Institute Inc Shape measuring instrument and shape measuring method
JP2020527395A (en) * 2017-07-14 2020-09-10 デンタル スマートミラー, インコーポレイテッド Use of immersive photography and its use to guide the installation of orthodontic brackets
WO2020065850A1 (en) * 2018-09-27 2020-04-02 ヤマハ発動機株式会社 Three-dimensional measuring device
CN112639395A (en) * 2018-09-27 2021-04-09 雅马哈发动机株式会社 Three-dimensional measuring apparatus
JPWO2020065850A1 (en) * 2018-09-27 2021-08-30 ヤマハ発動機株式会社 3D measuring device
JP7174768B2 (en) 2018-09-27 2022-11-17 ヤマハ発動機株式会社 3D measuring device

Similar Documents

Publication Publication Date Title
JP5648749B2 (en) Shape measuring apparatus and shape measuring method
US9423245B2 (en) Arrangement for optical measurements and related method
US10571668B2 (en) Catadioptric projector systems, devices, and methods
US7433055B2 (en) Device for the examination of optical properties of surfaces
EP2745073B1 (en) Systems and methods for performing machine vision using diffuse structured light
KR20110119531A (en) Shape measuring device and calibration method
US20060033058A1 (en) Device for a goniometric examination of the optical properties of surfaces
JP3855756B2 (en) 3D color shape detection device and 3D scanner
US20060033922A1 (en) Device for a goniometric examination of optical properties of surfaces
JP4740826B2 (en) Shape measuring device and shape measuring method
JP5770495B2 (en) Shape measuring device and lattice projection device
JP2004309240A (en) Three-dimensional shape measuring apparatus
KR20160004099A (en) Defect inspecting apparatus
US20120194647A1 (en) Three-dimensional measuring apparatus
JP2004191240A (en) Instrument for measuring three-dimensional shape
JP2009097941A (en) Shape measuring device and surface state measuring device
US11758278B2 (en) Optical apparatus
JP2009097940A (en) Shape measuring device
US9194810B2 (en) Method and device for the detection of surface defects of a component
JP2011021970A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP7328824B2 (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP6508763B2 (en) Surface inspection device
JP5291140B2 (en) Shape measuring device and shape measuring method
JP5280918B2 (en) Shape measuring device
JP4788968B2 (en) Focal plane tilt type confocal surface shape measuring device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110104