JP2010164377A - Surface profile measurement device and surface profile measuring method - Google Patents

Surface profile measurement device and surface profile measuring method Download PDF

Info

Publication number
JP2010164377A
JP2010164377A JP2009005948A JP2009005948A JP2010164377A JP 2010164377 A JP2010164377 A JP 2010164377A JP 2009005948 A JP2009005948 A JP 2009005948A JP 2009005948 A JP2009005948 A JP 2009005948A JP 2010164377 A JP2010164377 A JP 2010164377A
Authority
JP
Japan
Prior art keywords
image
light
shape
measurement object
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009005948A
Other languages
Japanese (ja)
Inventor
Hiroaki Yamana
広章 山名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009005948A priority Critical patent/JP2010164377A/en
Publication of JP2010164377A publication Critical patent/JP2010164377A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To measure a surface profile with an effect of multiple reflection light suppressed while employing an optical cutting method. <P>SOLUTION: Laser light, reflected at a surface of a measured object, is initially received to photograph a surface profile of the measured object by an imaging part which moves by a predetermined step amount in a direction of photographing optical axis, and an optical cut image which contains a profile line image of the surface of the measured object is taken at each step position of the imaging part. Then an optical cut image, where a profile line image is focused, is defined from optical cut images at each step position, and a profile line image of the surface of the measured object and a noise optical image due to the multiple reflection are discriminated using the defined optical cut image. An image treatment to remove the discriminated noise optical image from the optical cut image is carried out based on the discriminated result. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、光切断法を用いた物体表面形状測定システム及び表面形状測定方法に関する。   The present invention relates to an object surface shape measuring system and a surface shape measuring method using a light cutting method.

従来、物体の表面形状を測定する方法の一つとして、三角測量の原理を利用した光切断法と呼ばれる手法がある(例えば、吉澤徹編著「最新 光三次元計測」朝倉書店、2006年11月20日 第13−23頁)。   Conventionally, as one of methods for measuring the surface shape of an object, there is a method called a light cutting method using the principle of triangulation (for example, “Today Yoshizawa,“ Latest optical three-dimensional measurement ”, Asakura Shoten, November 2006) 20th pages 13-23).

図19に、光を使った三角測量法の基本原理を示す。
測定対象物112の高さDは、光照射部111と撮像部113の間の距離Lと、光照射部111と撮像部113と測定対象物112(光の反射箇所)によって形成される角度α,βによって、以下のように定められる。
D={tanα*tanβ/(tanα+tanβ)}*L*sinβ・・・[式1]
FIG. 19 shows the basic principle of triangulation using light.
The height D of the measurement object 112 is an angle α formed by the distance L between the light irradiation unit 111 and the imaging unit 113, and the light irradiation unit 111, the imaging unit 113, and the measurement object 112 (light reflection point). , Β is determined as follows.
D = {tan α * tan β / (tan α + tan β)} * L * sin β (Equation 1)

光切断法で簡便に高さ情報を得るには、光照射部111の光軸と撮像部113の光軸を含む面に対して、ライン光の長さ方向の軸と撮像部113のカメラ座標の一つの軸(例えばX軸)が垂直になるように装置を構成する。   In order to easily obtain height information by the light cutting method, the axis in the length direction of the line light and the camera coordinates of the imaging unit 113 with respect to the plane including the optical axis of the light irradiation unit 111 and the optical axis of the imaging unit 113 The apparatus is configured such that one axis (for example, the X axis) is vertical.

図20に、上述の装置構成にした場合の、測定対象物112の高さDと形状線像のカメラ座標系位置の関係を示す。
ライン光照射部121から投じられたライン光122は、測定対象物123の表面で拡散反射し、その光は結像レンズ124を介して二次元の撮像素子125上に結像する。測定対象物123の高さが異なると、上記カメラ座標の軸と異なる軸(例えばY軸)上での形状線像の座標値(例えばYi,Yj)が異なる。基準位置からの高さH(Hi,Hj)は、事前に求めた係数a、定数b、及び座標値Yによって以下のように定められる。
H=a*Y+b [式2]
FIG. 20 shows the relationship between the height D of the measurement object 112 and the camera coordinate system position of the shape line image in the case of the above-described apparatus configuration.
The line light 122 projected from the line light irradiation unit 121 is diffusely reflected on the surface of the measurement object 123, and the light forms an image on the two-dimensional image sensor 125 via the imaging lens 124. When the height of the measurement object 123 is different, the coordinate values (for example, Yi, Yj) of the shape line image on the axis (for example, the Y axis) different from the camera coordinate axis are different. The height H (Hi, Hj) from the reference position is determined as follows by the coefficient a, the constant b, and the coordinate value Y obtained in advance.
H = a * Y + b [Formula 2]

図21に、光切断法を用いた表面形状測定システムの例を示す。
ライン光照射部121から投じられたライン光122が、測定対象物123の表面に反射光による形状線126を生じせしめる。撮像部127で取得した光切断画像128における形状線像129の座標データより、測定対象物123の表面形状を測定する。
FIG. 21 shows an example of a surface shape measurement system using a light cutting method.
The line light 122 thrown from the line light irradiation unit 121 generates a shape line 126 by reflected light on the surface of the measurement object 123. The surface shape of the measuring object 123 is measured from the coordinate data of the shape line image 129 in the light section image 128 acquired by the imaging unit 127.

高さを求めるための座標値には、測定精度を向上させる目的で形状線像の重心座標が用いられることが多い。図22及び図23に、形状線像とその重心座標の関係を示す。
一般にライン光はその幅方向に強度分布を有しており、また、測定対象物の表面には一様でない微細な凸凹が存在するため、ライン光の拡散反射光像である形状線像129は、それらを原因とした明るさの分布を有している(例えば拡大画像128M参照)。重心計算によりサブピクセル単位の座標値が得られるので、単純に明るさ最大のピクセル座標を用いる場合に比べて測定精度を上げることができる。
For the coordinate value for obtaining the height, the barycentric coordinate of the shape line image is often used for the purpose of improving the measurement accuracy. 22 and 23 show the relationship between the shape line image and its barycentric coordinates.
In general, the line light has an intensity distribution in the width direction, and there are uneven unevenness on the surface of the measurement object, so that the shape line image 129 that is a diffuse reflection light image of the line light is And a brightness distribution caused by them (see, for example, the enlarged image 128M). Since the coordinate value in units of sub-pixels is obtained by the centroid calculation, the measurement accuracy can be improved as compared with the case where the pixel coordinate having the maximum brightness is simply used.

例えば図23に示すように、任意のX座標値XiにおけるY軸重心座標は、Xiにおける各Y座標値の光強度を測定することにより算出でき、この例ではY軸重心座標Ycが形状光重心として得られる。   For example, as shown in FIG. 23, the Y-axis centroid coordinates at an arbitrary X-coordinate value Xi can be calculated by measuring the light intensity of each Y-coordinate value at Xi. In this example, the Y-axis centroid coordinates Yc are the shape light centroids. As obtained.

光切断法用の光源としては、ライン光の幅を薄くできるレーザ光が主に用いられる。また、ライン光を発生させる仕組みとしては、光源からの光をシリンドリカルレンズなどでライン状に引き伸ばす方法と、測定対象上に集光させたスポット光をガルバノミラーなどで高速にスキャンする方法がある。光切断法を用いた測定システムは、標準的な部品の組み合わせで構成することができ、また、傾斜角が大きな面の測定能力も高く、高速な測定が可能であることから、多くの分野で表面形状測定のために利用されている。   As the light source for the light cutting method, laser light that can reduce the width of the line light is mainly used. As a mechanism for generating line light, there are a method of extending light from a light source in a line shape with a cylindrical lens or the like, and a method of scanning spot light condensed on a measurement object at high speed with a galvanometer mirror or the like. The measurement system using the optical cutting method can be configured with a combination of standard parts, and has a high measurement capability for surfaces with a large tilt angle, enabling high-speed measurement. It is used for surface shape measurement.

しかしながら、光切断法には多重反射によるノイズ光発生の問題がある。測定対象物に溝状の凹部があり、かつ、その表面が鏡面的な場合にノイズ光が発生しやすい。図24〜図26を参照して、ノイズ光が発現する仕組みを説明する。   However, the light cutting method has a problem of noise light generation due to multiple reflection. Noise light tends to be generated when the measurement object has a groove-like recess and its surface is specular. With reference to FIGS. 24 to 26, a mechanism for generating noise light will be described.

図24〜図26に示すように、ライン光122が測定対象物123の溝状凹部の側面Aで反射して形状光129aが発生するが、形状光129aの正反射光が向かい合った側面B(B0部)に映りこむとノイズ光130aが発生する。あるいは、形状光129aの拡散反射光が向かい合った側面B(例えばB1〜B3部)で反射してノイズ光131aが発生する。側面Bで発生した形状光129bに関しても、同様にしてノイズ光130bや131bが発生する。図24の鳥瞰図からもわかるように、基本的に多重反射によるノイズ光は形状線126を含む平面とは異なる空間に発生するが、照射部、撮像部、測定対象物の位置や姿勢と、測定対象物の形状や表面状態によって、様々な形態で現われる。   As shown in FIGS. 24 to 26, the line light 122 is reflected by the side surface A of the groove-shaped recess of the measurement object 123 to generate the shaped light 129a, but the side surface B (the specularly reflected light of the shaped light 129a faces each other) When reflected in (B0 part), noise light 130a is generated. Alternatively, the noise light 131a is generated by reflecting the diffusely reflected light of the shaped light 129a on the side surface B (for example, B1 to B3) facing each other. Similarly, the noise light 130b and 131b are generated with respect to the shaped light 129b generated on the side surface B. As can be seen from the bird's-eye view of FIG. 24, noise light due to multiple reflection is basically generated in a space different from the plane including the shape line 126. However, the position and orientation of the irradiation unit, imaging unit, measurement object, and measurement are measured. It appears in various forms depending on the shape and surface condition of the object.

このようなノイズ光は、前述した重心計算において誤った結果をもたらす。図27及び図28を参照して、ノイズ光によって誤った重心座標が導出される例を示す。
図27の光切断画像140及び図28のXi周辺の拡大画像128Mに示すように、形状光像129のデータに多重反射によるノイズ光像130,131のデータが加わるために、重心計算結果は誤ったものとなる。例えば図28の例では、本来のY軸重心座標Ycと異なる余った重心Yeが形状光重心として得られる。
Such noise light gives an incorrect result in the above-described centroid calculation. With reference to FIG. 27 and FIG. 28, an example in which an incorrect barycentric coordinate is derived by noise light is shown.
As shown in the light section image 140 in FIG. 27 and the enlarged image 128M around Xi in FIG. 28, the data of the noise light images 130 and 131 due to multiple reflections are added to the data of the shape light image 129. It will be. For example, in the example of FIG. 28, a surplus centroid Ye different from the original Y-axis centroid coordinate Yc is obtained as the shape light centroid.

多重反射によるノイズ光の影響を除く第1の方法としては、照射条件の異なる複数の画像、あるいは、撮像条件の異なる複数の画像を用いて、画像処理によって多重反射光の影響を弱める方法が一般に知られている。例えば、特許文献1では二つのスリット状光線を用いる方法が提案されている。   As a first method for removing the influence of noise light due to multiple reflection, there is generally a method of reducing the influence of multiple reflected light by image processing using a plurality of images having different irradiation conditions or a plurality of images having different imaging conditions. Are known. For example, Patent Document 1 proposes a method using two slit light beams.

より積極的に光切断画像中のノイズ光を除去する第2の方法としては、光線の偏光成分の違いを用いてノイズ光を撮像しないようにする方法が提案されている。例えば、特許文献2では、照射光を円偏光とし、反射した形状光とノイズ光を、円偏光の回転方向の違いを利用して、1/4波長板と偏光板の組合せで形状光のみ透過させ撮像する方法を提案している。   As a second method for more positively removing noise light in the light-cut image, a method has been proposed in which noise light is not imaged using a difference in polarization components of light rays. For example, in Patent Document 2, the irradiation light is circularly polarized light, and the reflected shaped light and noise light are transmitted only through the shaped light using a combination of a quarter wavelength plate and a polarizing plate by utilizing the difference in the rotation direction of the circularly polarized light. And proposed a method of imaging.

特開2004−219154号公報JP 2004-219154 A 特許第2641552号Japanese Patent No. 2641552

しかし、第1の方法は画像処理により多重反射光の影響を弱めるものであって、光切断画像中のノイズ光像を除くものではないので、根本的な解決とはならない。また、測定対象の表面は微細で複雑で不規則な表面形状を持っている場合が多く、表面反射光には正反射成分と拡散反射成分が混在しその偏光成分には円偏光以外のものも含まれることとなる。そのような場合、第2の方法における1/4波長板と偏光板の組合せでは全てのノイズ光を遮断することができない。   However, the first method weakens the influence of the multiple reflected light by image processing, and does not remove the noise light image in the light-cut image, so it is not a fundamental solution. In addition, the surface to be measured often has a fine, complex and irregular surface shape, and the surface reflected light contains a mixture of regular reflection components and diffuse reflection components. Will be included. In such a case, the combination of the quarter wavelength plate and the polarizing plate in the second method cannot block all noise light.

本発明は、このような状況に鑑みてなされたものであり、光切断方法を用いながらも、多重反射光の影響を抑制して表面形状を良好に測定できるようにするものである。   The present invention has been made in view of such a situation, and enables the surface shape to be measured satisfactorily while suppressing the influence of multiple reflected light while using a light cutting method.

上記課題を解決するため、本発明は、まず測定対象物の表面で反射したレーザ光を受光して当該測定対象物の表面形状を、撮像光軸方向に所定ステップ量で移動する撮像部により撮像し、撮像部の各ステップ位置における測定対象物表面の形状線像を含む光切断画像を取得する。そして、各ステップ位置における光切断画像から形状線像が合焦している光切断画像を特定し、特定した光切断画像を利用して測定対象物表面の形状線像及び多重反射によるノイズ光像を判別する。その判別結果に基づいて、光切断画像から当該判別されたノイズ光像を除去する画像処理を行う。   In order to solve the above-described problem, the present invention first captures a laser beam reflected from the surface of the measurement object and captures the surface shape of the measurement object by an imaging unit that moves in a predetermined step amount in the imaging optical axis direction. Then, a light section image including a shape line image of the surface of the measurement object at each step position of the imaging unit is acquired. Then, a light section image in which the shape line image is in focus is identified from the light section image at each step position, and the shape line image of the surface of the measurement object and the noise light image due to multiple reflection are used using the identified light section image. Is determined. Based on the determination result, image processing is performed to remove the determined noise light image from the light-cut image.

上記の構成によれば、撮像光軸方向に所定ステップ量で移動する撮像部で測定対象物表面を撮像し、各ステップ位置の光切断画像から測定対象物表面の形状線像及び多重反射によるノイズ光像を判別する。例えばこの処理は、形状線像と多重反射によるノイズ光像の空間的な発生箇所に起因する画素値の違いを利用して行われる。そして、その判別結果に基づいて光切断画像からノイズ光像が除去される。   According to the above configuration, the surface of the measurement object is imaged by the imaging unit that moves in the imaging optical axis direction by a predetermined step amount, and the shape line image of the measurement object surface and noise due to multiple reflections from the light cut image at each step position. Discriminate the light image. For example, this processing is performed by utilizing a difference in pixel value caused by a spatial generation point of the shape line image and the noise light image due to multiple reflection. Then, the noise light image is removed from the light cut image based on the determination result.

以上のように、本発明によれば、光切断方法を用いながらも、多重反射光の影響を抑制して表面形状を良好に測定することができる。   As described above, according to the present invention, the surface shape can be satisfactorily measured while suppressing the influence of multiple reflected light while using the light cutting method.

本発明の第1の実施の形態に係る表面形状測定システムの構成を示す図である。It is a figure which shows the structure of the surface shape measuring system which concerns on the 1st Embodiment of this invention. 図1の測定対象物、ラインレーザ光源、結像レンズ、及びカメラの位置関係を示す図である。It is a figure which shows the positional relationship of the measuring object, line laser light source, imaging lens, and camera of FIG. 多重反射によるノイズ光の影響の除去の原理を説明するための図(1)である。It is a figure (1) for demonstrating the principle of the removal of the influence of the noise light by multiple reflection. 多重反射によるノイズ光の影響の除去の原理を説明するための図(2)である。It is a figure (2) for demonstrating the principle of the removal of the influence of the noise light by multiple reflection. 撮像焦点位置を形状線の奥側から手前側にずらして撮像する様子を示した図である。It is the figure which showed a mode that the imaging focus position was shifted from the back side of a shape line to this side, and it imaged. 撮像焦点位置をずらした際の光切断画像を示す図である。It is a figure which shows the light cutting image at the time of shifting an imaging focus position. 図5の撮像焦点位置ずらしを用いた表面形状測定処理のフローチャートである。It is a flowchart of the surface shape measurement process using the imaging focus position shift of FIG. F座標に対する画素値の一例を示す図である。It is a figure which shows an example of the pixel value with respect to F coordinate. F座標に対する合焦総画素数の一例を示す図である。It is a figure which shows an example of the focusing total pixel number with respect to F coordinate. F座標ごとの光切断画像の例を示す図である。It is a figure which shows the example of the light cutting image for every F coordinate. 図10の合焦している光切断画像から重心演算により算出された形状データの例を示す図である。It is a figure which shows the example of the shape data computed by the gravity center calculation from the focused light cutting image of FIG. 合焦位置の異なる複数の光切断画像の例を示す図である。It is a figure which shows the example of the several light cutting image from which a focus position differs. 本発明の表面形状測定方法を適用して得られた光切断画像の例を示す図である。It is a figure which shows the example of the light cutting image obtained by applying the surface shape measuring method of this invention. 画像番号と合焦総画素数の関係を示した集計データの例を示す図である。It is a figure which shows the example of the total data which showed the relationship between an image number and the total number of focused pixels. 画像番号とコントラスト値の関係を示した集計データの例を示す図である。It is a figure which shows the example of the total data which showed the relationship between an image number and contrast value. 画像番号と画素合計値の関係を示した集計データの例を示す図である。It is a figure which shows the example of the total data which showed the relationship between an image number and a pixel total value. 画像番号と画素平均値の関係を示した集計データの例を示す図である。It is a figure which shows the example of the total data which showed the relationship between an image number and a pixel average value. 画像番号と画素平均値(移動平均)の関係を示した集計データの例を示す図である。It is a figure which shows the example of the total data which showed the relationship between an image number and a pixel average value (moving average). 三角測量法の基本原理を示す図である。It is a figure which shows the basic principle of a triangulation method. 図19の三角測量法を適用した場合の、測定対象物の高さと形状線像のカメラ座標系位置の関係を示す図である。It is a figure which shows the relationship between the height of a measuring object and the camera coordinate system position of a shape line image at the time of applying the triangulation method of FIG. 従来の光切断法を用いた表面形状測定システムの例を示す図である。It is a figure which shows the example of the surface shape measuring system using the conventional light cutting method. 形状線像とその重心座標の関係を説明するための図(1)である。It is a figure (1) for demonstrating the relationship between a shape line image and its gravity center coordinate. 形状線像とその重心座標の関係を説明するための図(2)である。It is FIG. (2) for demonstrating the relationship between a shape line image and its gravity center coordinate. ノイズ光発現の一例を示す鳥瞰図である。It is a bird's-eye view which shows an example of noise light expression. 図24のノイズ光を含む光切断画像の例を示す図である。It is a figure which shows the example of the light cutting image containing the noise light of FIG. ノイズ光を説明するための図であり、Aは側面A側のノイズ光、Bは側面B側のノイズ光を説明するものである。It is a figure for demonstrating noise light, A is the noise light by the side A side, B is the noise light by the side B side. 多重反射による形状線像とその重心座標の関係を説明するための図(1)である。It is a figure (1) for demonstrating the relationship between the shape line image by multiple reflection, and its gravity center coordinate. 多重反射による形状線像とその重心座標の関係を説明するための図(2)である。It is FIG. (2) for demonstrating the relationship between the shape line image by multiple reflection, and its gravity center coordinate.

以下、本発明を実施するための最良の形態の例について、添付図面を参照しながら説明する。説明は下記項目の順に行う。
1.第1の実施の形態
[表面形状測定システムの構成]
[ノイズ光の影響の除去の原理]
[表面形状測定の流れ]
[測定データ例]
[パラメータの検討]
Hereinafter, an example of the best mode for carrying out the present invention will be described with reference to the accompanying drawings. The description will be given in the following order.
1. First Embodiment [Configuration of Surface Shape Measurement System]
[Principle of removing the influence of noise light]
[Flow of surface shape measurement]
[Measurement data example]
[Examination of parameters]

<1.第1の実施の形態>
本実施の形態は、従来技術の説明で参照した図24の測定対象物123のように、形状線が形成される対象物表面に溝状の凹部が形成されている測定対象物の表面形状測定に、本発明を適用したものである。なお、本発明によって測定可能な対象物の形状は、この例に限られないことは言うまでもない。
<1. First Embodiment>
In the present embodiment, like the measurement object 123 of FIG. 24 referred to in the description of the prior art, the surface shape measurement of the measurement object in which a groove-like recess is formed on the surface of the object on which the shape line is formed. Further, the present invention is applied. Needless to say, the shape of the object that can be measured by the present invention is not limited to this example.

[表面形状測定システムの構成]
図1は、本発明の第1の実施の形態に係る表面形状測定システムの構成を示す。
本実施の形態は、ラインレーザ光源1、カメラ2、結像レンズ系3、一軸ステージ4、レーザ駆動回路5、モータ駆動回路6、コンピュータ10、表示装置11、操作部12から構成される。
[Configuration of surface shape measurement system]
FIG. 1 shows a configuration of a surface shape measurement system according to a first embodiment of the present invention.
The present embodiment includes a line laser light source 1, a camera 2, an imaging lens system 3, a uniaxial stage 4, a laser drive circuit 5, a motor drive circuit 6, a computer 10, a display device 11, and an operation unit 12.

ラインレーザ光源1は、測定対象物123の表面にラインレーザ光を照射するものである。ラインレーザ光源を用いる代わりに、スポット光をガルバノミラーやポリゴンミラーで直線走査する構成としてもよい。   The line laser light source 1 irradiates the surface of the measurement object 123 with line laser light. Instead of using the line laser light source, the spot light may be linearly scanned by a galvanometer mirror or a polygon mirror.

カメラ2は、ラインレーザ光源1からの出射光が測定対象物123で反射した反射光を撮像し、その画像データをコンピュータ10に出力するものである。   The camera 2 captures the reflected light reflected by the measuring object 123 from the light emitted from the line laser light source 1 and outputs the image data to the computer 10.

結像レンズ系3は、測定対象物123の反射光をカメラ2の撮像素子に結像するためのものである。   The imaging lens system 3 is for imaging the reflected light of the measurement object 123 on the image sensor of the camera 2.

一軸ステージ4は、図示しないモータを搭載し、モータ駆動回路46からの駆動信号に基づいてカメラ2を光軸方向へ移動させるものである。このモータとしては、例えばステップインモータやピエゾモータなどが適用されるが、1μm単位等の所定距離のステップ移動が可能であればよく、この例に限られない。   The uniaxial stage 4 is equipped with a motor (not shown), and moves the camera 2 in the optical axis direction based on a drive signal from the motor drive circuit 46. As this motor, for example, a step-in motor, a piezo motor, or the like is applied, but it is not limited to this example as long as the step movement of a predetermined distance such as 1 μm unit is possible.

レーザ駆動回路5は、コンピュータ10からの制御信号に基づいてラインレーザ光源1に駆動信号を供給し、ラインレーザ光源1に駆動信号に応じたラインレーザ光を出射させるようにするものである。   The laser drive circuit 5 supplies a drive signal to the line laser light source 1 based on a control signal from the computer 10 and causes the line laser light source 1 to emit line laser light corresponding to the drive signal.

モータ駆動回路6は、コンピュータ10からの制御信号に基づいて一軸ステージ4のモータに駆動信号を供給し、カメラ2を移動させるようにするものである。   The motor drive circuit 6 supplies a drive signal to the motor of the single axis stage 4 based on a control signal from the computer 10 to move the camera 2.

コンピュータ10は、レーザ制御回路7、モータ制御回路8、画像入力回路9、制御部10A、画像処理部10Bを備える。
レーザ制御回路7は、制御部10Aの指令に応じた制御信号をレーザ駆動回路5に供給し、レーザ駆動回路5で生成する駆動信号を制御して、出射光のレベルや出射のタイミング等を調整するものである。
The computer 10 includes a laser control circuit 7, a motor control circuit 8, an image input circuit 9, a control unit 10A, and an image processing unit 10B.
The laser control circuit 7 supplies a control signal according to the command from the control unit 10A to the laser drive circuit 5, and controls the drive signal generated by the laser drive circuit 5 to adjust the level of emitted light, the timing of emission, and the like. To do.

モータ制御回路8は、制御部10Aの指令に応じた制御信号をモータ駆動回路6に供給し、モータ駆動回路6で生成する駆動信号を制御して、一軸ステージ4の移動量や移動タイミング等を調整するものである。   The motor control circuit 8 supplies a control signal according to the command of the control unit 10A to the motor drive circuit 6 and controls the drive signal generated by the motor drive circuit 6 to determine the movement amount and movement timing of the single-axis stage 4 and the like. To be adjusted.

画像入力回路9は、カメラ2で撮像された測定対象物123の画像データをコンピュータ10に取り込むためのものである。   The image input circuit 9 is for capturing image data of the measurement object 123 captured by the camera 2 into the computer 10.

制御部10Aは、例えばMPU(Micro Processing Unit)等からなり、図示しないROM(Read Only Memory)やRAM(Random Access Memory)等を使用して、コンピュータ10の各部の制御を行うものである。   The control unit 10A includes, for example, an MPU (Micro Processing Unit) or the like, and controls each unit of the computer 10 using a ROM (Read Only Memory), a RAM (Random Access Memory), or the like (not shown).

画像処理部10Bは、画像入力回路9に入力された画像データに画像処理を施し、表示装置11やメモリ10Cへ出力するものである。例えば、後述するが、制御部10Aの判別結果を受けて、選択された光切断画像から多重反射によるノイズ形状像を消去し、ノイズ光の影響を除去した画像データを生成する処理を行う。   The image processing unit 10B performs image processing on the image data input to the image input circuit 9 and outputs the image data to the display device 11 or the memory 10C. For example, as will be described later, in response to the determination result of the control unit 10A, a process is performed to erase the noise shape image due to multiple reflection from the selected light-cut image and generate image data from which the influence of the noise light is removed.

コンピュータ10には、データ出力のための表示装置11とデータ入力のための操作部12が接続されている。操作部12は、例えばマウスデバイスやキーボード等を利用できる。   A display device 11 for data output and an operation unit 12 for data input are connected to the computer 10. For example, a mouse device or a keyboard can be used as the operation unit 12.

上記のように構成された表面形状測定システムの動作を簡単に説明する。
まずラインレーザ光源1が、コンピュータ10からの指示に基づき、レーザ制御回路7とレーザ駆動回路5によって出力制御され、ラインレーザ光源1からの出射光が測定対象物123の表面に結像する。測定対象物123からの反射光は結像レンズ系3およびカメラ2にて撮像され、その画像データは画像入力回路9を介してコンピュータ10に取り込まれる。結像レンズ系3およびカメラ2を取り付けた一軸ステージ4は、上記画像データの取り込みと並行して、コンピュータ10からの指示に基づき、モータ制御回路8とモータ駆動回路6によって撮像光軸方向へ任意の移動、例えば所定ステップ量の移動を行う。
The operation of the surface shape measurement system configured as described above will be briefly described.
First, the line laser light source 1 is output-controlled by the laser control circuit 7 and the laser drive circuit 5 based on an instruction from the computer 10, and the emitted light from the line laser light source 1 forms an image on the surface of the measurement object 123. The reflected light from the measurement object 123 is picked up by the imaging lens system 3 and the camera 2, and the image data is taken into the computer 10 through the image input circuit 9. The uniaxial stage 4 to which the imaging lens system 3 and the camera 2 are attached is arbitrarily arranged in the imaging optical axis direction by the motor control circuit 8 and the motor drive circuit 6 based on an instruction from the computer 10 in parallel with the capture of the image data. Movement, for example, a predetermined step amount.

図2は、図1の測定対象物123、ラインレーザ光源1、結像レンズ系3、及びカメラ2の位置関係を示している。
ラインレーザ光軸、結像レンズ系3およびカメラ2の撮像系の光軸は全て同一平面内に存在するように配置する。またラインレーザ光軸、撮像系の光軸は90度の角度で交わり、かつ、測定対象物123の表面への垂線について対称な位置となるように配置する。これは全ての形状線がある撮像焦点面に含まれるようにするためであり、このようにすることで形状線の焦点深度を等しくし、良好な測定を行うことができる。また一軸ステージ4の移動軸と撮像系の光軸は平行となるように設置する。以下、ラインレーザ光の長さ方向をX軸、ラインレーザ光軸をY軸、撮像系の光軸をF軸と定義し、測定対象物表面、撮像焦点、カメラ画素等はこのXYF座標空間内で扱うものとする。本例の場合、X軸は紙面に対して垂直方向である。
FIG. 2 shows a positional relationship among the measurement object 123, the line laser light source 1, the imaging lens system 3, and the camera 2 shown in FIG.
The line laser optical axis, the imaging lens system 3 and the optical axis of the imaging system of the camera 2 are all arranged in the same plane. In addition, the line laser optical axis and the optical axis of the imaging system intersect at an angle of 90 degrees, and are arranged so as to be symmetrical with respect to the perpendicular to the surface of the measurement object 123. This is to ensure that all shape lines are included in a certain imaging focal plane. By doing so, the depth of focus of the shape lines can be made equal and good measurement can be performed. The moving axis of the uniaxial stage 4 and the optical axis of the imaging system are installed so as to be parallel. Hereinafter, the length direction of the line laser light is defined as the X axis, the line laser optical axis is defined as the Y axis, and the optical axis of the imaging system is defined as the F axis. The surface of the measurement object, the imaging focus, the camera pixel, and the like are within this XYF coordinate space. It shall be handled in In the case of this example, the X axis is perpendicular to the paper surface.

[ノイズ光の影響の除去の原理]
次に、図3及び図4を参照して、多重反射により生じるノイズ光の影響を除去する原理を説明する。
図3は、画像データについてF座標とX座標との関係を示したものである。また、図4は、画像データについてF座標と画素値Iとの関係を示したグラフである。
[Principle of removing the influence of noise light]
Next, with reference to FIGS. 3 and 4, the principle of removing the influence of noise light caused by multiple reflection will be described.
FIG. 3 shows the relationship between the F coordinate and the X coordinate for image data. FIG. 4 is a graph showing the relationship between the F coordinate and the pixel value I for image data.

本原理はShape from Focus法に基づいている。以下、Shape from Focus法について簡単に記す。カメラによってある物体を撮像し、撮像系と物体との相対距離fを撮像光軸方向に変化させ、焦点位置が少しずつ異なる画像列を得る。画像列内の任意画素(xl、ym)に着目すると、相対距離fによってその画素値が変化し、画素値が最大値となる距離fkが合焦位置、つまり物体表面位置を示していることになる。図3に示した例では、相対距離fを、f1,f2,…,fk,…,fN−1,fNと変化させると、任意画素(xl、ym)の画素値Iが、I1,I2,…,Ik,…IN−1,INと変化する。本例では、相対距離fがfkのとき、任意画素(xl,ym)の画素値Iが最大値(極大値)Ikであるので、合焦していると判断できる。各画像の全画素について同様の処理を行うことにより、物体の表面形状を求めることができる。   This principle is based on the Shape from Focus method. The following briefly describes the Shape from Focus method. A camera captures an object, changes the relative distance f between the imaging system and the object in the direction of the imaging optical axis, and obtains an image sequence with slightly different focal positions. Focusing on an arbitrary pixel (xl, ym) in the image sequence, the pixel value changes depending on the relative distance f, and the distance fk at which the pixel value becomes the maximum value indicates the in-focus position, that is, the object surface position. Become. In the example shown in FIG. 3, when the relative distance f is changed to f1, f2,..., Fk,..., FN−1, fN, the pixel value I of an arbitrary pixel (xl, ym) becomes I1, I2, .., Ik,. In this example, when the relative distance f is fk, since the pixel value I of the arbitrary pixel (xl, ym) is the maximum value (maximum value) Ik, it can be determined that the in-focus state is achieved. By performing the same processing for all the pixels of each image, the surface shape of the object can be obtained.

このShape from Focus法を表面形状測定システムに適用した場合、形状線や多重反射によるノイズ光は、カメラに受光される前に最終的に反射した箇所での点光源と見なすことができる。そのため、撮像焦点位置がその反射箇所と一致する時、画素値は最大値を有することになる。   When this Shape from Focus method is applied to a surface shape measurement system, noise light due to shape lines and multiple reflections can be regarded as a point light source at a point where the light is finally reflected before being received by the camera. Therefore, the pixel value has the maximum value when the imaging focus position coincides with the reflection location.

図5に、形状線の奥側から手前側に少しずつ撮像焦点位置をずらして撮像する様子を示す。また、図6に、撮像焦点位置を少しずつずらした際の光切断画像を示す。   FIG. 5 shows a state where the imaging focus position is shifted little by little from the back side to the near side of the shape line. FIG. 6 shows a light cut image when the imaging focus position is shifted little by little.

カメラ2の初期位置fsでは、形状線像29や多重反射によるノイズ光の最終反射箇所に撮像焦点(撮像焦点面Fsに対応)が合っておらず結像されないため、全体的にぼけた画像21となる。なお、以降の説明において、カメラの位置を「カメラ位置」と表記することもある。
続いて少しずつ撮像焦点位置をずらし、やがてラインレーザ光の光軸が撮像焦点面内に存在するようになった時(位置fM)、すなわち形状線像29の反射箇所に撮像焦点が合った際に形状線は結像されるが、多重反射によるノイズ光はぼけたままである(画像22)。
そのまま撮像焦点位置をずらしていくと、形状線像29は結像されずぼけて、多重反射によるノイズ光は結像される(画面23,24)。
更にカメラ2を終了位置feまで移動させ撮像焦点位置(撮像焦点面Feに対応)をずらしていくと再び、形状線像29や多重反射によるノイズ光は結像されずにぼけた画像25となる。
At the initial position fs of the camera 2, since the imaging focus (corresponding to the imaging focal plane Fs) is not aligned with the shape line image 29 or the final reflection location of the noise light due to multiple reflection, no image is formed. It becomes. In the following description, the camera position may be referred to as “camera position”.
Subsequently, the imaging focus position is shifted little by little, and when the optical axis of the line laser beam finally exists in the imaging focal plane (position fM), that is, when the imaging focus is focused on the reflection portion of the shape line image 29. The shape line is imaged, but the noise light due to multiple reflections remains blurred (image 22).
If the imaging focus position is shifted as it is, the shape line image 29 is blurred without being formed, and noise light due to multiple reflection is formed (screens 23 and 24).
Further, when the camera 2 is moved to the end position fe and the imaging focus position (corresponding to the imaging focal plane Fe) is shifted, the shape line image 29 and noise light due to multiple reflections are again not formed but become a blurred image 25. .

[表面形状測定の流れ]
次に、本実施の形態の表面形状測定の流れを説明する。
図7は、図5の撮像焦点位置ずらしを用いた表面形状測定処理のフローチャートである。
[Flow of surface shape measurement]
Next, the flow of the surface shape measurement of this embodiment will be described.
FIG. 7 is a flowchart of the surface shape measurement process using the imaging focus position shift of FIG.

ステップS1において、制御部10Aはレーザ制御回路7を制御し、ラインレーザ光を測定対象物123に照射させ、カメラ2で光切断画像を撮像する。この処理が終了後、ステップS2へ進む。   In step S <b> 1, the control unit 10 </ b> A controls the laser control circuit 7 to irradiate the measurement object 123 with the line laser light, and captures a light cut image with the camera 2. After this process is completed, the process proceeds to step S2.

ステップS2では、オペレータはこのときにカメラ2で撮像される光切断画像を観察しながら操作部12を操作してカメラ2を初期位置fsへ移動させ、また終了位置fe、移動ステップ量fd(例えば1μm)を設定する。設定値は制御部10Aによりメモリ10C等に保存する。この処理が終了後、ステップS3へ進む。   In step S2, the operator moves the camera 2 to the initial position fs by operating the operation unit 12 while observing the light cut image picked up by the camera 2 at this time, and also sets the end position fe and the movement step amount fd (for example, 1 μm) is set. The set value is stored in the memory 10C or the like by the control unit 10A. After this process is completed, the process proceeds to step S3.

ステップS3では、画像入力回路9は、カメラ2の初期位置fsでの光切断画像を取得し、制御部10Aはそのときのカメラ2の位置fをメモリ10Cに記録する(この場合、f=fs)。この処理が終了後、ステップS4へ進む。   In step S3, the image input circuit 9 acquires a light section image at the initial position fs of the camera 2, and the control unit 10A records the position f of the camera 2 at that time in the memory 10C (in this case, f = fs). ). After this process ends, the process proceeds to step S4.

ステップS4では、制御部10Aは、ステップS2で設定した移動ステップ量fdだけ焦点位置をずらすべくモータ制御回路48を制御し、一軸ステージ4を駆動してカメラ2を移動させる。この処理が終了後、ステップS5に進む。   In step S4, the control unit 10A controls the motor control circuit 48 to shift the focal position by the movement step amount fd set in step S2, and drives the uniaxial stage 4 to move the camera 2. After this process ends, the process proceeds to step S5.

ステップS5では、画像入力回路26は、移動後のカメラ2の位置で光切断画像を取得し、制御部10Aはそのときの位置fを記録する(f=fs+fd*n:nはステップ回数)。この処理が終了後、ステップS6へ進む。   In step S5, the image input circuit 26 acquires a light-cut image at the position of the camera 2 after movement, and the control unit 10A records the position f at that time (f = fs + fd * n: n is the number of steps). After this process ends, the process proceeds to step S6.

ステップS6では、制御部10Aは、カメラ2がステップS2で設定した終了位置feであるか否かを判定し、終了位置feであればステップS7へ進む。一方、終了位置feではない場合、ステップS2で設定した終了位置feに移動するまで、ステップS4とステップS5を繰り返す。   In step S6, the control unit 10A determines whether or not the camera 2 is the end position fe set in step S2, and if it is the end position fe, the process proceeds to step S7. On the other hand, if it is not the end position fe, steps S4 and S5 are repeated until the end position fe set in step S2 is reached.

ステップS7では、制御部10Aは、ステップS6までの各カメラ位置で取得した全ての画像を用いて、全ての画素について図8に示すように画素値が最大となる位置f、すなわち合焦位置を求める。この処理が終了後、ステップS8へ進む。図8については、図4についての説明を参照されたい。この最大画素値を有する画素を特定する方法としては、コントラストや画素合計値、画素平均値、画素平均値(移動平均)を利用する方法など、さまざまな方法が適用できる。   In step S7, the control unit 10A uses all the images acquired at each camera position up to step S6 to determine the position f at which the pixel value is maximum for all the pixels as shown in FIG. 8, that is, the in-focus position. Ask. After this process ends, the process proceeds to step S8. Please refer to the description of FIG. 4 for FIG. As a method for specifying the pixel having the maximum pixel value, various methods such as a method using a contrast, a pixel total value, a pixel average value, and a pixel average value (moving average) can be applied.

ステップS8では、制御部10Aは、図8の結果を利用して、図9に示すように合焦している総画素数が最大となるカメラ位置fMを求める。この処理が終了後、ステップS9へ進む。   In step S8, the control unit 10A uses the result of FIG. 8 to obtain the camera position fM that maximizes the total number of focused pixels as shown in FIG. After this process ends, the process proceeds to step S9.

ステップS9では、カメラ位置fMにおける光切断画像の合焦している画素の画素値の情報のみをメモリに保存し、それ以外の画素の画素値を0とする。画像処理部10Bは、メモリ10Cからカメラ位置fMにおける光切断画像の各画素の画素値の情報を読み出し、重心演算から形状線像の形状データを求める。   In step S9, only the pixel value information of the focused pixel of the light section image at the camera position fM is stored in the memory, and the pixel values of the other pixels are set to zero. The image processing unit 10B reads pixel value information of each pixel of the light section image at the camera position fM from the memory 10C, and obtains shape line image shape data from the centroid calculation.

そして、カメラ2をXY平面内で移動させ、図7に示した一連の表面形状測定処理を測定対象物表面の測定対象範囲内の所定の測定位置について実施し、測定対象物表面全体の凹凸を測定する。   Then, the camera 2 is moved in the XY plane, and the series of surface shape measurement processing shown in FIG. 7 is performed for a predetermined measurement position within the measurement target range of the measurement target surface, and the unevenness of the entire measurement target surface is determined. taking measurement.

図10は、カメラの初期位置fsから終了位置feの間で取得した画像21〜画像25(図6参照)を例示したものであるが、この場合、位置fMの画像22の形状線像29を構成する画素の画素値の情報のみをメモリに保存する。また、その他のノイズ光像30(ノイズ光像130に相当)とノイズ光像31(ノイズ光像131に相当)の画素値は0にする。最終的に、図11に示すように、画像22からノイズ光像30,31を除去して形状線像29のみの光切断画像22Aが得られる。   10 illustrates the images 21 to 25 (see FIG. 6) acquired between the initial position fs and the end position fe of the camera. In this case, the shape line image 29 of the image 22 at the position fM is shown. Only the pixel value information of the constituent pixels is stored in the memory. The pixel values of the other noise light image 30 (corresponding to the noise light image 130) and the noise light image 31 (corresponding to the noise light image 131) are set to zero. Finally, as shown in FIG. 11, the noise light images 30 and 31 are removed from the image 22 to obtain a light cut image 22 </ b> A of only the shape line image 29.

[測定データ例]
以下、本発明を適用して得られた対象物表面の測定データ例を紹介する。
図12は、合焦位置の異なる複数の光切断画像の例を示す図である。画像41は多重反射によるノイズ光像下部(矢印)に合焦している例(である。また画像42は多重反射によるノイズ光像上部(矢印)に合焦している例である。さらに画像43は形状ライン(矢印)に合焦している例(画像22に相当)である。ここで、本発明を適用すると、図13に示すように、多重反射によるノイズ光を除去し、形状ラインを構成する画素の画素値の情報が相対的に多く残った画像が得られる。
[Measurement data example]
Hereinafter, examples of measurement data on the surface of an object obtained by applying the present invention will be introduced.
FIG. 12 is a diagram illustrating an example of a plurality of light cut images having different in-focus positions. The image 41 is an example focused on the lower part (arrow) of the noise light image due to multiple reflection. The image 42 is an example focused on the upper part (arrow) of the noise light image caused by multiple reflection. 43 is an example focused on a shape line (arrow) (corresponding to the image 22) Here, when the present invention is applied, noise light due to multiple reflection is removed as shown in FIG. An image in which a relatively large amount of information on the pixel values of the pixels constituting the image remains is obtained.

[パラメータの検討]
ここで、物体表面位置に対応するカメラのF座標上の位置を特定するのに適したパラメータを検討する。
[Examination of parameters]
Here, a parameter suitable for specifying the position on the F coordinate of the camera corresponding to the object surface position is examined.

図14に、画像番号と合焦総画素数の関係を示した集計データ例を示す。
合焦総画素数は、図9を参照して説明したパラメータである。測定対象物は、図12に示した光切断画像の測定対象と同じである。この例では、カメラ位置を50ステップ移動させて測定対象物について50枚の画像を取得した例としてあり、図15,図16も同様である。なお、図12の画像43は、50画像中の29番目に取得した画像である。
FIG. 14 shows an example of total data indicating the relationship between the image number and the total number of focused pixels.
The total number of focused pixels is the parameter described with reference to FIG. The measurement object is the same as the measurement object of the light section image shown in FIG. In this example, the camera position is moved by 50 steps to obtain 50 images of the measurement object, and the same applies to FIGS. 15 and 16. Note that the image 43 in FIG. 12 is the 29th acquired image among the 50 images.

図15に、画像番号とコントラスト値の関係を示した集計データ例を示す。
コントラスト値は、上述したように例えば中心画素とその周辺の画素との輝度値の差(コントラスト)を全画素について測定することで得られる。
FIG. 15 shows an example of total data indicating the relationship between the image number and the contrast value.
As described above, the contrast value is obtained, for example, by measuring the difference (contrast) of the luminance value between the central pixel and the surrounding pixels for all the pixels.

図16に、画像番号と画素合計値の関係を示した集計データ例を示す。
画素合計値は、光切断画像の全画素の画素値の合計である。
FIG. 16 shows an example of total data showing the relationship between the image number and the pixel total value.
The pixel total value is the sum of the pixel values of all the pixels of the light section image.

図17に、画像番号と画素平均値の関係を示した集計データ例を示す。
画素平均値は、光切断画像の全画素を対象とした画素値の平均値である。
FIG. 17 shows an example of total data indicating the relationship between the image number and the pixel average value.
The pixel average value is an average value of pixel values for all pixels of the light section image.

図18に、画像番号と画素平均値(移動平均)の関係を示した集計データ例を示す。
画素平均値は、隣接する画像番号の画像(2以上)の画素値の平均値を、光切断画像全体について計算したものである。
FIG. 18 shows an example of total data showing the relationship between the image number and the pixel average value (moving average).
The pixel average value is obtained by calculating an average value of pixel values of adjacent image numbers (two or more) for the entire light-cut image.

上記図14〜図18の集計データから、画素平均値(図17)と画素平均値(移動平均:図18)において画像番号29のときにほぼ最大値を得られている。また、画素合計値(図16)においてバラツキが見られるが最大値に近い値が得られている。これらのパラメータが本発明により好適である可能性が高い。   From the total data of FIGS. 14 to 18, the maximum value is obtained when the image number is 29 in the pixel average value (FIG. 17) and the pixel average value (moving average: FIG. 18). Further, although there is variation in the pixel total value (FIG. 16), a value close to the maximum value is obtained. These parameters are likely to be preferred by the present invention.

ここで従来技術の欄における説明を補足すると、産業界では、数十μmサイズの微細物の表面形状測定の要求が高まってきている。例えば光学デバイスやその金型もそのような微細物の一つであるが、表面状態が鏡面的であることと、最近のデバイスは傾斜角が大きなものが増えてきていることにより、既存の表面形状測定装置では高精度な測定ができなくなってきている。   Here, supplementing the explanation in the column of the prior art, there is an increasing demand in the industry for measuring the surface shape of a fine object having a size of several tens of μm. For example, optical devices and their molds are one of such fine objects, but the surface state is specular, and recent devices have increased the inclination angle, so existing surfaces have increased. With the shape measuring device, it has become impossible to measure with high accuracy.

光切断法は傾斜角の大きな面の測定能力が高いので、光学デバイスやその金型の測定に適した方法である。測定時間が短いという利点もある。しかし、側面が向かい合った溝形状箇所については、表面が鏡面的な光学デバイスやその金型では多重反射光が発生するために測定精度が劣化していた。   The light cutting method is suitable for measuring an optical device and its mold because of its high ability to measure a surface with a large tilt angle. There is also an advantage that the measurement time is short. However, with respect to the groove-shaped portions whose side surfaces are opposed to each other, the measurement accuracy is deteriorated due to the generation of multiple reflected light in the optical device having a specular surface or its mold.

上記実施の形態のように構成される本発明では、光切断法を用いながらも、問題であった多重反射光の悪影響を取り除く(抑制する)ことができる。その結果、傾斜角の大きな面の測定能力や、短い測定時間などの利点を活かしつつ、高精度な表面形状測定が可能となる。また、本発明による多重反射光の悪影響を取り除く仕組みでは、形状データの元となる形状光像を毀損し得ないので、信頼性の高い形状データを得ることができる。   In the present invention configured as in the above-described embodiment, it is possible to remove (suppress) the adverse effect of the multiple reflected light, which is a problem, while using the light cutting method. As a result, it is possible to measure the surface shape with high accuracy while taking advantage of the measurement capability of the surface having a large inclination angle and the short measurement time. Further, in the mechanism for removing the adverse effects of the multiple reflected light according to the present invention, the shape light image that is the basis of the shape data cannot be damaged, so that highly reliable shape data can be obtained.

上述したコンピュータで行われる一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、これらの処理を実行する機能はハードウェアとソフトウェアの組み合わせによっても実現できることは言うまでもない。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes performed by the computer described above can be executed by hardware or can be executed by software. Needless to say, the function for executing these processes can also be realized by a combination of hardware and software. When a series of processing is executed by software, it is possible to execute various functions by installing a computer in which a program constituting the software is incorporated in dedicated hardware, or by installing various programs. For example, it is installed from a program recording medium in a general-purpose computer or the like.

また、本明細書において、処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。   Further, in the present specification, the processing steps are not limited to processing performed in time series in the order described, but also processing executed in parallel or individually (for example, Parallel processing or object processing).

また、ソフトウェアにより実行する場合、そのプログラムは、一つのコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   When executed by software, the program may be processed by a single computer or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

以上に述べた実施の形態は、本発明を実施するための好適な形態の具体例であるから、技術的に好ましい種々の限定が付されている。ただし、本発明は、以上の実施の形態の説明において特に本発明を限定する旨の記載がない限り、これらの実施の形態に限られるものではない。例えば、以上の説明で挙げた使用材料とその使用量、処理時間、処理順序および各パラメータの数値的条件等は好適例に過ぎず、また、説明に用いた各図における寸法、形状および配置関係等も実施の形態の一例を示す概略的なものである。したがって、本発明は、上述した実施の形態の例に限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の変形、変更が可能である。   The embodiment described above is a specific example of a preferred embodiment for carrying out the present invention, and therefore various technically preferable limitations are given. However, the present invention is not limited to these embodiments unless otherwise specified in the above description of the embodiments. For example, the materials used in the above description, the amount used, the processing time, the processing order, the numerical conditions of each parameter, etc. are only suitable examples, and the dimensions, shapes, and arrangement relationships in the drawings used for the description Etc. are also schematic drawings showing an example of the embodiment. Therefore, the present invention is not limited to the above-described embodiments, and various modifications and changes can be made without departing from the scope of the present invention.

1…ラインレーザ光源、2…カメラ、3…結像レンズ系、4…一軸ステージ、5…レーザ駆動回路、6…モータ駆動回路、7…レーザ制御回路、8…モータ制御回路、9…画像入力回路、10…コンピュータ、10A…制御部、10B…画像処理部、10C…メモリ、11…表示装置、12…操作部、21〜25,22A,31〜33…光切断画像、29…形状線像、123…測定対象物   DESCRIPTION OF SYMBOLS 1 ... Line laser light source, 2 ... Camera, 3 ... Imaging lens system, 4 ... Uniaxial stage, 5 ... Laser drive circuit, 6 ... Motor drive circuit, 7 ... Laser control circuit, 8 ... Motor control circuit, 9 ... Image input Circuit: 10 ... Computer 10A ... Control Unit 10B ... Image Processing Unit 10C ... Memory 11 ... Display Device 12 ... Operation Unit 21-25, 22A, 31-33 ... Light Cut Image 29 ... Shape Line Image , 123 ... measurement object

Claims (5)

測定対象物の表面で反射したレーザ光を受光して当該測定対象物の表面形状を撮像する撮像部と、
前記撮像部を撮像光軸方向に所定ステップ量で移動させる移動機構と、
前記撮像部の各ステップ位置における前記測定対象物表面の形状線像を含む光切断画像を取得する形状線像取得部と、
各ステップ位置における光切断画像から形状線像が合焦している光切断画像を特定し、特定した光切断画像を利用して前記測定対象物表面の形状線像及び多重反射によるノイズ光像を判別する制御部と、
前記判別結果に基づいて、前記光切断画像から前記判別されたノイズ光像を除去する処理を行う画像処理部と、を備える
表面形状測定システム。
An imaging unit that receives laser light reflected from the surface of the measurement object and images the surface shape of the measurement object;
A moving mechanism for moving the imaging unit in the imaging optical axis direction by a predetermined step amount;
A shape line image acquisition unit that acquires a light section image including a shape line image of the surface of the measurement object at each step position of the imaging unit;
A light section image in which the shape line image is in focus is identified from the light section images at each step position, and the shape line image on the surface of the measurement object and the noise light image due to multiple reflection are obtained using the identified light section image. A control unit for determining;
An image processing unit that performs processing for removing the determined noise light image from the light-cut image based on the determination result.
前記レーザ光の光軸と前記撮像光軸のなす角度が90度である
請求項1に記載の表面形状測定システム。
The surface shape measurement system according to claim 1, wherein an angle formed by the optical axis of the laser beam and the imaging optical axis is 90 degrees.
前記制御部は、
前記撮像部で取得した複数の光切断画像を解析し、形状線像と多重反射によるノイズ光像の空間的な発生箇所に起因する画素値の違いを利用してノイズ光像を判別する
請求項2に記載の表面形状測定システム。
The controller is
A plurality of light-cut images acquired by the imaging unit are analyzed, and a noise light image is discriminated using a difference in pixel value caused by a spatial generation point of a shape light image and a noise light image due to multiple reflection. 2. The surface shape measuring system according to 2.
前記制御部は、前記複数の光切断画像の中から形状線像が合焦している光切断画像を特定し、該当光切断画像から所定条件を満たす画素の画素値の情報を保存し、かつその他の画素の画素値を0としてメモリに保存し、
前記画像処理部は、前記メモリに保存された各画素の画素値の情報に基づいて、前記形状線像が合焦している光切断画像から前記画素値が0の画素を消去する処理を行う
請求項3に記載の表面形状測定システム。
The control unit identifies a light-cutting image in which a shape line image is in focus from the plurality of light-cutting images, stores information on pixel values of pixels satisfying a predetermined condition from the light-cutting image, and Save the pixel values of other pixels in the memory as 0,
The image processing unit performs a process of erasing a pixel having a pixel value of 0 from a light-cut image in which the shape line image is focused based on information on a pixel value of each pixel stored in the memory. The surface shape measuring system according to claim 3.
測定対象物の表面で反射したレーザ光を受光して当該測定対象物の表面形状を、撮像光軸方向に所定ステップ量で移動する撮像部により撮像する第1ステップと、
前記撮像部の各ステップ位置における前記測定対象物表面の形状線像を含む光切断画像を取得する第2ステップと、
各ステップ位置における光切断画像から形状線像が合焦している光切断画像を特定し、特定した光切断画像を利用して前記測定対象物表面の形状線像及び多重反射によるノイズ光像を判別する第3ステップと、
前記判別結果に基づいて、前記光切断画像から前記判別されたノイズ光像を除去する画像処理を行う第4ステップと、を含む
表面形状測定方法。
A first step of receiving laser light reflected from the surface of the measurement object and imaging the surface shape of the measurement object by an imaging unit that moves in a predetermined step amount in the imaging optical axis direction;
A second step of acquiring a light section image including a shape line image of the surface of the measurement object at each step position of the imaging unit;
A light section image in which the shape line image is in focus is identified from the light section images at each step position, and the shape line image on the surface of the measurement object and the noise light image due to multiple reflection are obtained using the identified light section image. A third step of determining;
And a fourth step of performing image processing for removing the discriminated noise light image from the light-cut image based on the discrimination result.
JP2009005948A 2009-01-14 2009-01-14 Surface profile measurement device and surface profile measuring method Pending JP2010164377A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005948A JP2010164377A (en) 2009-01-14 2009-01-14 Surface profile measurement device and surface profile measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009005948A JP2010164377A (en) 2009-01-14 2009-01-14 Surface profile measurement device and surface profile measuring method

Publications (1)

Publication Number Publication Date
JP2010164377A true JP2010164377A (en) 2010-07-29

Family

ID=42580665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005948A Pending JP2010164377A (en) 2009-01-14 2009-01-14 Surface profile measurement device and surface profile measuring method

Country Status (1)

Country Link
JP (1) JP2010164377A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147199A1 (en) 2011-04-28 2012-11-01 トヨタ自動車株式会社 Method for detecting butt position of weld joint, device for detecting butt position of weld joint, and method for manufacturing weld joint
WO2012176262A1 (en) * 2011-06-20 2012-12-27 株式会社安川電機 Three-dimensional shape measuring device and robot system
CN102865828A (en) * 2011-07-04 2013-01-09 贵州红林机械有限公司 Determination method of special profile part
CN103417189A (en) * 2012-05-21 2013-12-04 晟爵(上海)科技有限公司 Locating mechanism for corneal topography instrument
KR20230152761A (en) 2021-04-23 2023-11-03 야마하하쓰도키 가부시키가이샤 Measuring devices and board inspection devices

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147199A1 (en) 2011-04-28 2012-11-01 トヨタ自動車株式会社 Method for detecting butt position of weld joint, device for detecting butt position of weld joint, and method for manufacturing weld joint
US10006759B2 (en) 2011-04-28 2018-06-26 Toyota Jidosha Kabushiki Kaisha Method for detecting butt position of weld joint, device for detecting butt position of weld joint, and method for manufacturing weld joint
WO2012176262A1 (en) * 2011-06-20 2012-12-27 株式会社安川電機 Three-dimensional shape measuring device and robot system
CN102865828A (en) * 2011-07-04 2013-01-09 贵州红林机械有限公司 Determination method of special profile part
CN103417189A (en) * 2012-05-21 2013-12-04 晟爵(上海)科技有限公司 Locating mechanism for corneal topography instrument
CN103417189B (en) * 2012-05-21 2015-05-27 晟爵(上海)科技有限公司 Locating mechanism for corneal topography instrument
KR20230152761A (en) 2021-04-23 2023-11-03 야마하하쓰도키 가부시키가이샤 Measuring devices and board inspection devices
DE112021007576T5 (en) 2021-04-23 2024-02-22 Yamaha Hatsudoki Kabushiki Kaisha Measuring device and board inspection device

Similar Documents

Publication Publication Date Title
JP5385703B2 (en) Inspection device, inspection method, and inspection program
EP2463618A1 (en) Surface profile inspection device
US10627221B2 (en) Measurement method and measurement program
JP2009036589A (en) Target for calibration and device, method and program for supporting calibration
JP2010164377A (en) Surface profile measurement device and surface profile measuring method
JP6758765B2 (en) Measurement method and measurement program
JP6095486B2 (en) Image measuring device
JP2015072197A (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, and shape measurement program
KR100926019B1 (en) Defective particle measuring apparatus and defective particle measuring method
JP6781969B1 (en) Measuring device and measuring method
JP2018155646A (en) Surface measuring device and surface measurement method
CN107121058B (en) Measuring method
JP4784396B2 (en) 3D shape measurement method and 3D shape measurement apparatus using the same
JP5342178B2 (en) Shape measuring apparatus and shape measuring method
JP7001947B2 (en) Surface shape measurement method
WO2013035847A1 (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and computer-readable recording medium
JP2019219357A (en) Imaging apparatus, imaging method, and imaging program
JP2009192483A (en) Three dimensional shape measuring method and three dimensional shape measuring device
JP2009036631A (en) Device of measuring three-dimensional shape and method of manufacturing same
JP2014163892A (en) Laser measurement system
JP2018173338A (en) Three-dimensional shape measuring method using scanning white interference microscope
TW201809592A (en) Automated 3-D measurement
JP6270264B2 (en) Information processing apparatus, information processing method, program, measurement apparatus, and measurement method
JP4177188B2 (en) Method, apparatus and optical element for simultaneous measurement of dynamic shape and dynamic position
JP2018146496A (en) Surface shape measurement method