JPH11352392A - Focus controller and focus controlling method - Google Patents

Focus controller and focus controlling method

Info

Publication number
JPH11352392A
JPH11352392A JP16487998A JP16487998A JPH11352392A JP H11352392 A JPH11352392 A JP H11352392A JP 16487998 A JP16487998 A JP 16487998A JP 16487998 A JP16487998 A JP 16487998A JP H11352392 A JPH11352392 A JP H11352392A
Authority
JP
Japan
Prior art keywords
evaluation value
image
focus
focus control
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16487998A
Other languages
Japanese (ja)
Inventor
Hiroaki Usumoto
宏昭 臼本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP16487998A priority Critical patent/JPH11352392A/en
Publication of JPH11352392A publication Critical patent/JPH11352392A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make an object to be measured movable to a focal position in optical measurement in a short time. SOLUTION: A pixel line PL including the edge part E of an image picked up in a state where a specified optical distance is kept is scanned while making plural operators OP having different size respectively act on the pixel line PL. The difference between pixel values at positions corresponding to both ends of the operator is arithmetically calculated by using the operators. An operator including one or more and the smallest number of values Rmax being a difference between the maximum value Pmax (15) and the minimum value Pmin (0) of a variable density value in the arithmetically calculated results R1, R2,... by the operator is specified as the optimum operator which is the most appropriate for deciding the focusing degree of the image, whereby a focus evaluated value is obtained. By referring to corresponding relation between the various focus evaluated values previously obtained and the focal position, the measured object is moved to the focal position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、対象物と結像光学
系とを合焦状態とするフォーカス制御装置およびフォー
カス制御方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a focus control device and a focus control method for bringing an object and an imaging optical system into focus.

【0002】[0002]

【従来の技術】半導体基板上のパターンの検査、生体試
料の検査等のように試料に対して何らかの光学的測定を
行う際には、測定対象物である試料を結像光学系の焦点
位置に配置することが必要となる。
2. Description of the Related Art When some kind of optical measurement is performed on a sample, such as inspection of a pattern on a semiconductor substrate, inspection of a biological sample, etc., the sample to be measured is moved to a focal position of an imaging optical system. It is necessary to arrange.

【0003】そして、代表的な従来技術においては、所
定のパターンを試料に投影しておき、試料と結像光学系
との距離を間欠的に変化させつつその投影パターンを逐
次に撮像し、その撮像画像中の投影パターンの鮮鋭度
(シャープネス)が最大になったときの試料の位置を焦
点位置として検出するようにしている。
In a typical prior art, a predetermined pattern is projected on a sample, and the projected pattern is sequentially imaged while intermittently changing the distance between the sample and the imaging optical system. The position of the sample when the sharpness (sharpness) of the projection pattern in the captured image is maximized is detected as the focal position.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この従
来技術においては、各画像の撮像毎に試料台または結像
光学系の移動と停止とを行う必要があるため、焦点位置
の検出完了までに多くの時間を要していた。
However, in this prior art, since it is necessary to move and stop the sample stage or the imaging optical system every time each image is taken, it is often necessary to complete the detection of the focal position. It took time.

【0005】また、この従来技術では、焦点位置の検出
動作毎に、これらの画像の撮像を複数回行う必要があっ
た。これら複数回の撮像は、試料と結像光学系との距離
を変化させて行うことが必要であるため、焦点位置の検
出の高速化には限界があり、試料をさらに短時間に焦点
位置に移動することが困難であるという問題が存在して
いた。
Further, in this conventional technique, it is necessary to take these images a plurality of times each time the focus position is detected. Since these multiple images need to be performed by changing the distance between the sample and the imaging optical system, there is a limit to speeding up the detection of the focal position. There was a problem that it was difficult to move.

【0006】そこで、本発明は前記問題点に鑑み、対象
物を結像光学系の焦点位置に短時間で移動することがで
きるフォーカス制御装置およびフォーカス制御方法を提
供することを目的とする。
In view of the above problems, an object of the present invention is to provide a focus control device and a focus control method that can move an object to a focus position of an imaging optical system in a short time.

【0007】[0007]

【課題を解決するための手段】上記目的を達するため、
請求項1に記載のフォーカス制御装置は、対象物と結像
光学系とを合焦状態とするフォーカス制御装置であっ
て、前記結像光学系と前記対象物との相対的な光学的距
離を変更する距離変更手段と、前記対象物の画像を前記
結像光学系を介して撮像して画像信号を取得する画像取
得手段と、前記画像内の所定領域の前記画像信号に基づ
いて、前記対象物と前記結像光学系との合焦度合に関す
る評価値を求める評価値算出手段と、複数の前記光学的
距離とそれらに対応する前記評価値との対応関係をあら
かじめ記憶しておく記憶手段と、前記評価値算出手段に
より求められた前記評価値と前記記憶手段に記憶された
前記対応関係とに基づいて、合焦位置までの前記光学的
距離の差を求め、当該差分だけ前記光学的距離を変更す
べく前記距離変更手段を制御する制御手段と、を備える
ことを特徴とする。
In order to achieve the above object,
The focus control device according to claim 1, wherein the focus control device sets the target and the imaging optical system in a focused state, and sets a relative optical distance between the imaging optical system and the target. A distance changing unit for changing, an image obtaining unit that captures an image of the object through the imaging optical system to obtain an image signal, and the object based on the image signal of a predetermined area in the image. Evaluation value calculation means for obtaining an evaluation value relating to the degree of focus between an object and the imaging optical system; and storage means for storing in advance a correspondence relationship between a plurality of the optical distances and the evaluation values corresponding thereto. Obtaining a difference between the optical distances to a focus position based on the evaluation value obtained by the evaluation value calculation means and the correspondence stored in the storage means, and calculating the optical distance by the difference. To change the distance Characterized in that it comprises a control means for controlling the.

【0008】請求項2に記載のフォーカス制御装置は、
請求項1に記載のフォーカス制御装置において、前記評
価値算出手段は、取得した前記画像に含まれるエッジ部
分に対応する前記画像信号の傾きの度合に基づいて前記
評価値を求めることを特徴とする。
[0008] The focus control device according to claim 2 is
2. The focus control device according to claim 1, wherein the evaluation value calculation unit obtains the evaluation value based on a degree of a gradient of the image signal corresponding to an edge portion included in the acquired image. 3. .

【0009】請求項3に記載のフォーカス制御装置は、
請求項2に記載のフォーカス制御装置において、前記評
価値算出手段は、異なる傾きを有する複数の画像信号に
それぞれ適合する複数のオペレータを有し、前記画像信
号に当該オペレータを作用させた際に、最も適合するオ
ペレータに基づいて前記評価値を求めることを特徴とす
る。
According to a third aspect of the present invention, there is provided a focus control device,
3. The focus control device according to claim 2, wherein the evaluation value calculation unit has a plurality of operators each adapted to a plurality of image signals having different inclinations, and when the operator acts on the image signals, The evaluation value is obtained based on the most suitable operator.

【0010】請求項4に記載のフォーカス制御装置は、
請求項1ないし請求項3のいずれかに記載のフォーカス
制御装置において、前記画像内の所定領域に対応する前
記対象物上に投影角度が互いに異なるパターンを投影す
る投影手段を備えることを特徴とする。
[0010] The focus control device according to claim 4 is
The focus control device according to any one of claims 1 to 3, further comprising a projection unit configured to project patterns having different projection angles on the object corresponding to a predetermined area in the image. .

【0011】請求項5に記載のフォーカス制御方法は、
対象物と結像光学系とを合焦状態とするフォーカス制御
方法であって、前記対象物の画像を前記結像光学系を介
して撮像して画像信号を取得する画像取得工程と、前記
画像内の所定領域の画像信号に基づいて、前記対象物と
前記結像光学系との合焦度合に関する評価値を求める評
価値算出工程と、複数の前記光学的距離とそれらに対応
する前記評価値との対応関係をあらかじめ求めておく準
備工程と、前記評価値算出工程で求められた前記評価値
と、前記準備工程で求められた前記対応関係と、に基づ
いて、合焦位置までの前記光学的距離の差を求め、当該
差分だけ前記光学的距離を変更する移動工程と、を含む
ことを特徴とする。
A focus control method according to a fifth aspect of the present invention
A focus control method for bringing an object and an imaging optical system into a focused state, wherein an image of the object is captured via the imaging optical system to obtain an image signal, and the image acquiring step An evaluation value calculating step of obtaining an evaluation value relating to a degree of focusing between the object and the imaging optical system based on an image signal of a predetermined area in the target area; and a plurality of the optical distances and the evaluation values corresponding thereto. A preparatory step of previously obtaining a correspondence relationship between the evaluation value and the evaluation value obtained in the evaluation value calculation step, and the correspondence obtained in the preparatory step. And moving the optical distance by the difference.

【0012】請求項6に記載のフォーカス制御方法は、
請求項5に記載のフォーカス制御方法において、前記評
価値算出工程は、取得した前記画像に含まれるエッジ部
分に対応する前記画像信号の傾きの度合いに基づいて前
記評価値を求めることを特徴とする。
The focus control method according to claim 6 is
6. The focus control method according to claim 5, wherein in the evaluation value calculating step, the evaluation value is obtained based on a degree of inclination of the image signal corresponding to an edge portion included in the acquired image. .

【0013】請求項7に記載のフォーカス制御方法は、
請求項6に記載のフォーカス制御方法において、前記評
価値算出工程は、異なる傾きを有する複数の画像信号に
それぞれ適合する複数のオペレータを準備する工程と、
前記画像信号に当該オペレータを作用させた際に、最も
適合するオペレータに基づいて前記評価値を求める工程
と、を含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided a focus control method comprising:
7. The focus control method according to claim 6, wherein the evaluation value calculating step includes preparing a plurality of operators each adapted to a plurality of image signals having different inclinations. 8.
Obtaining the evaluation value based on the most suitable operator when the operator operates on the image signal.

【0014】請求項8に記載のフォーカス制御方法は、
請求項5ないし請求項7のいずれかに記載のフォーカス
制御方法において、前記画像内の所定領域に対応する前
記対象物上に投影角度が互いに異なるパターンを投影す
る工程を備えることを特徴とする。
The focus control method according to claim 8 is
The focus control method according to any one of claims 5 to 7, further comprising a step of projecting patterns having different projection angles on the object corresponding to a predetermined area in the image.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0016】<A.装置>図1は、本発明の第1実施形
態の光学測定装置1の構成を示す模式図である。光学測
定装置1は、試料9の光学的測定(たとえば半導体基板
上に形成された薄膜の膜厚測定)に先立って測定対象物
である試料9を配置すべき焦点位置を検出し、焦点位置
の検出後に試料9を焦点位置に配置する焦点合わせの機
能(正確には、試料9の観察面を焦点位置に配置する機
能)を有する装置である。
<A. Apparatus> FIG. 1 is a schematic view showing a configuration of an optical measuring apparatus 1 according to a first embodiment of the present invention. The optical measurement device 1 detects a focal position where the sample 9 to be measured is to be placed prior to optical measurement of the sample 9 (for example, measurement of the thickness of a thin film formed on a semiconductor substrate), and determines the focal position. This device has a focusing function of arranging the sample 9 at the focal position after detection (more precisely, a function of arranging the observation surface of the sample 9 at the focal position).

【0017】この光学測定装置1は、試料9へ照射され
る照明光11Lを出射する光源部11、光源部11から
の照明光11Lを試料9へと導く照明光学系20a、試
料9からの反射光31Lを所定の受光位置へと導く結像
光学系20b、反射光31Lを受光して試料9の画像信
号を生成する画像生成部31、試料9が載置されるステ
ージ41、およびこのステージ41を駆動して垂直方向
(Z方向)および水平方向に移動させることが可能なス
テージ駆動部42を備えている。ステージ駆動部42に
は、その駆動量(したがって、ステージ41の移動量)
を検出するエンコーダ42Eが取り付けられている。
The optical measuring apparatus 1 includes a light source unit 11 for emitting illumination light 11L illuminated on a sample 9, an illumination optical system 20a for guiding illumination light 11L from the light source unit 11 to the sample 9, and a reflection from the sample 9. An imaging optical system 20b for guiding the light 31L to a predetermined light receiving position, an image generating unit 31 for receiving the reflected light 31L and generating an image signal of the sample 9, a stage 41 on which the sample 9 is placed, and the stage 41 Is provided with a stage drive unit 42 which can be driven to move in the vertical direction (Z direction) and the horizontal direction. The driving amount of the stage driving unit 42 (the moving amount of the stage 41)
Is installed.

【0018】照明光学系20aは、レンズ21、選択的
遮光部22、ハーフミラー23および対物レンズ24を
有しており、光源部11から出射された照明光11Lが
レンズ21および選択的遮光部22を介してハーフミラ
ー23に入射し、ハーフミラー23にて反射した照明光
11Lが対物レンズ24を介して試料9上に照射される
ようになっている。また、選択的遮光部22は、試料9
が配置されるべき焦点位置と光学的に共役な関係にある
位置に配置される。
The illumination optical system 20a has a lens 21, a selective light-shielding part 22, a half mirror 23, and an objective lens 24. The illumination light 11L emitted from the light source part 11 receives the lens 21 and the selective light-shielding part 22. The illumination light 11 </ b> L reflected on the half mirror 23 via the objective lens 24 irradiates the sample 9 via the objective lens 24. In addition, the selective light shielding unit 22
Is located at a position that is optically conjugate with the focal position to be located.

【0019】選択的遮光部22は、視野絞り22aと、
回転軸AX1を中心に回転する円盤状の透光パターン部
材22bとを有し、透光パターン部材22bには図2
(a)に示すようにストライプ状の透明領域15Tと遮光
領域15Bとを交互に配列させた縞模様のパターン15
が描かれている(図2(a)では遮光領域15Bはハッチ
ングによって描かれているが、実際には黒のベタ領域で
ある)。また、図3は、透光パターン部材22bを示す
図である。透光パターン部材22bには、複数(図では
3つ)のパターン15a、15b、15cが描かれてお
り、回転軸AX1を中心に回転することにより、パター
ン15a、15b、15cのいずれか1つが選択的に視
野絞り22aの中央の開口部22cの中心付近に位置す
ることができるようになっている。そして、その選択さ
れたパターン15が照明光学系20aによって投影パタ
ーン15Pとして試料9上に投影される(図2(b)参
照)。パターン15a、15b、15cは、試料9上に
投影されたときにそれらのパターンの角度(白黒ストラ
イプの境界線の方向)が互いに異なるように形成されて
いる。後述するように、この投影パターン15Pを含む
領域に対してフォーカス評価値を求めることにより、試
料9を焦点位置に移動させることができる。また、焦点
位置を検出して試料9を焦点位置に移動させた後におい
ては、透光パターン部材22bを回転移動させることに
より投影パターン15が視野領域外に位置するようにし
て、投影パターン15Pが測定対象物に対する光学測定
の邪魔にならないようにすることができる。
The selective light blocking unit 22 includes a field stop 22a,
A disk-shaped light-transmitting pattern member 22b that rotates about the rotation axis AX1 is provided.
As shown in (a), a stripe pattern 15 in which stripe-shaped transparent regions 15T and light-shielding regions 15B are alternately arranged.
(In FIG. 2A, the light-shielding area 15B is drawn by hatching, but is actually a solid black area). FIG. 3 is a diagram showing the light transmitting pattern member 22b. A plurality of (three in the figure) patterns 15a, 15b, and 15c are drawn on the translucent pattern member 22b, and one of the patterns 15a, 15b, and 15c is rotated by rotating about the rotation axis AX1. It can be selectively located near the center of the central opening 22c of the field stop 22a. Then, the selected pattern 15 is projected on the sample 9 by the illumination optical system 20a as a projection pattern 15P (see FIG. 2B). The patterns 15a, 15b, and 15c are formed such that when projected onto the sample 9, the angles of the patterns (directions of the boundaries between the black and white stripes) are different from each other. As will be described later, the sample 9 can be moved to the focal position by calculating the focus evaluation value for the region including the projection pattern 15P. Further, after the focus position is detected and the sample 9 is moved to the focus position, the projection pattern 15 is positioned outside the field of view by rotating the translucent pattern member 22b so that the projection pattern 15P It is possible not to interfere with the optical measurement for the measurement object.

【0020】結像光学系20bは、対物レンズ24、ハ
ーフミラー23、およびレンズ25を有しており、その
光軸Lbと照明光学系20aの光軸Laとはハーフミラ
ー23において交わっている。すなわち、光学測定装置
1では試料9上にて照明光学系20aと結像光学系20
bとが光軸Lbを共有する同軸落射照明の形態が採用さ
れている。試料9からの反射光31Lは対物レンズ2
4、ハーフミラー23、およびレンズ25を順に介して
画像生成部31へと導かれる。
The imaging optical system 20b has an objective lens 24, a half mirror 23, and a lens 25, and its optical axis Lb and the optical axis La of the illumination optical system 20a intersect at the half mirror 23. That is, in the optical measurement device 1, the illumination optical system 20 a and the imaging optical system 20
The form of coaxial epi-illumination in which b shares the optical axis Lb is adopted. The reflected light 31L from the sample 9 is
The light is guided to the image generation unit 31 via the half mirror 23 and the lens 25 in this order.

【0021】画像生成部31は、2次元に配列された受
光素子を有するCCDカメラを有し、反射光31Lを受
光して試料9の画像信号を生成するようになっている。
なお、この際、生成される画像は、図2(a)のパターン
15を試料表面への投影した像(すなわち図2(b)の投
影パターン15P)を含んだものとなる。
The image generating section 31 has a CCD camera having light receiving elements arranged two-dimensionally, and receives the reflected light 31L to generate an image signal of the sample 9.
At this time, the generated image includes an image obtained by projecting the pattern 15 of FIG. 2A onto the sample surface (that is, the projected pattern 15P of FIG. 2B).

【0022】さらに、光学測定装置1は、選択的遮光制
御部14、カメラ制御部30、メモリ32、評価値算出
部33、ステージ駆動制御部40、および焦点位置算出
部60をも備えている。
Further, the optical measuring device 1 also includes a selective light shielding control unit 14, a camera control unit 30, a memory 32, an evaluation value calculation unit 33, a stage drive control unit 40, and a focal position calculation unit 60.

【0023】選択的遮光制御部14は、透光パターン部
材22bを制御し、パターン15を用いた選択的な遮光
を実現し、試料9上に所望の投影パターン15Pが投影
される。
The selective light-shielding control unit 14 controls the light-transmitting pattern member 22b to realize selective light-shielding using the pattern 15, and a desired projection pattern 15P is projected on the sample 9.

【0024】カメラ制御部30は、画像生成部31にお
ける画像信号の生成を制御し、生成された画像信号はメ
モリ32へと転送し、メモリ32においてデジタルの画
像信号として格納する。評価値算出部33は、メモリ3
2に格納された画像に対して所定部分のフォーカス評価
値を求めるものである。
The camera control section 30 controls the generation of image signals in the image generation section 31, transfers the generated image signals to the memory 32, and stores them as digital image signals in the memory 32. The evaluation value calculation unit 33 stores the memory 3
2 is to calculate a focus evaluation value of a predetermined portion with respect to the image stored in 2.

【0025】また、ステージ駆動制御部40は、ステー
ジ駆動部42に対して制御信号を送出することにより、
ステージ41およびステージ41上に載置される試料9
を垂直方向(図1中に示すZ方向)に昇降させるととも
に水平方向にも移動させることができる。ステージ41
をZ方向に移動させることにより、試料9と結像光学系
20bとを光軸Lbに沿って相対的に移動させることが
でき、それによって試料9と結像光学系20bとの光学
距離を連続的に変更することができる。
The stage drive control unit 40 sends a control signal to the stage drive unit 42,
The stage 41 and the sample 9 placed on the stage 41
Can be moved up and down in the vertical direction (the Z direction shown in FIG. 1) and also in the horizontal direction. Stage 41
Is moved in the Z direction, the sample 9 and the imaging optical system 20b can be relatively moved along the optical axis Lb, and thereby, the optical distance between the sample 9 and the imaging optical system 20b is continuously set. Can be changed.

【0026】さらに、焦点位置算出部60は、後述する
ように、複数の位置においてそれぞれ撮像された画像の
フォーカス評価値に基づいて、焦点位置を算出する。
Further, the focus position calculating section 60 calculates the focus position based on the focus evaluation values of the images picked up at a plurality of positions, as will be described later.

【0027】また、光学測定装置1は、光源部11の光
量などを制御する光源制御部10、諸条件のキー入力お
よび画像の表示出力などのヒューマンインターフェイス
を担当する入出力部50をも備えている。
The optical measuring device 1 also includes a light source control unit 10 for controlling the light amount of the light source unit 11 and the like, and an input / output unit 50 for performing a human interface such as key input of various conditions and display output of an image. I have.

【0028】さらに、光学測定装置1は、全体制御部1
00をも備えている。全体制御部100は、光源制御部
10、カメラ制御部30、評価値算出部33、ステージ
駆動制御部40などの各制御部に対する大まかな制御指
令を与え、その制御指令の送出タイミングを制御する。
一方、各制御部10,30,33,40は、全体制御部
100からの制御指令に応じて個別の具体的な制御を実
際に行う。
Further, the optical measuring device 1 includes an overall control unit 1
00 is also provided. The general control unit 100 gives a rough control command to each control unit such as the light source control unit 10, the camera control unit 30, the evaluation value calculation unit 33, and the stage drive control unit 40, and controls the transmission timing of the control command.
On the other hand, each of the control units 10, 30, 33, and 40 actually performs individual specific control according to a control command from the overall control unit 100.

【0029】なお、上記の各制御部はこの実施の形態で
はコンピュータ・システム(以下、「コンピュータ」と
いう。)を利用して構成されており、評価値算出部3
3、焦点位置算出部60、全体制御部100は、プログ
ラムを実行することにより動作する形態となっている。
また、カメラ制御部30、ステージ駆動制御部40はコ
ンピュータに設けられた電気的回路として構築されてい
る。これらの構成は全てソフトウェア的に構築されてい
てもよく、全てハードウェア的に構築されていてもよ
い。さらには、部分的にのみソフトウェア的に構築され
ていてもよい。また、全体制御部100による各構成間
の動作関係の調整は、各構成間で担保されていてもよ
く、いずれかの構成が全体制御部100の役割を兼ねて
いてもよい。また、後述するように、評価値算出部33
内においては、取得された画像の所定の領域に対して複
数のオペレータによる演算処理を並列的に行うこともで
きる。この場合には、評価値算出部33内における複数
のオペレータに対する並列処理動作は、たとえば評価値
算出部33として、別個のCPUまたは別個の専用ハー
ドウエア回路を使用することによって達成することも可
能であり、また、それらに単一のCPUを使用するとき
にはそのCPUのマルチタスク機能を利用することによ
っても達成可能である。
In the present embodiment, each of the control units is configured using a computer system (hereinafter, referred to as a "computer").
3. The focus position calculation unit 60 and the overall control unit 100 are configured to operate by executing a program.
The camera control unit 30 and the stage drive control unit 40 are configured as electric circuits provided in a computer. All of these configurations may be configured as software, or all may be configured as hardware. Further, it may be constructed only partially as software. The adjustment of the operation relationship between the components by the overall control unit 100 may be ensured between the components, and any one of the components may also serve as the role of the overall control unit 100. Also, as described later, the evaluation value calculation unit 33
In the above, arithmetic processing by a plurality of operators can be performed in parallel on a predetermined area of the acquired image. In this case, the parallel processing operation for a plurality of operators in the evaluation value calculation unit 33 can be achieved, for example, by using a separate CPU or a separate dedicated hardware circuit as the evaluation value calculation unit 33. Yes, and when using a single CPU for them, it can also be achieved by utilizing the multitasking function of that CPU.

【0030】<B.動作>図4を参照しながら、光学測
定装置1の動作を説明する。ここで、図4は光学測定装
置1の動作を説明するフローチャートである。
<B. Operation> The operation of the optical measuring device 1 will be described with reference to FIG. Here, FIG. 4 is a flowchart illustrating the operation of the optical measurement device 1.

【0031】動作開始後、試料9の測定部位を視野領域
のほぼ中央に位置させて、まず、ステージ41をZ方向
(図1参照)に駆動して試料9を初期位置へ移動する
(ステップSP110)。この初期位置は、試料9の厚
さを考慮するなどにより試料9が焦点位置とほぼ想定さ
れる場所のできるだけ近傍に位置するように設定するこ
とが好ましい。
After the start of the operation, the measurement site of the sample 9 is positioned substantially at the center of the field of view, and first, the stage 41 is driven in the Z direction (see FIG. 1) to move the sample 9 to the initial position (step SP110). ). The initial position is preferably set so as to be located as close as possible to a place where the sample 9 is almost assumed to be the focal position, by taking the thickness of the sample 9 into consideration.

【0032】また、全体制御部100は、ステージ41
の現在位置を取得する(ステップSP120)。この位
置取得は、たとえばステージ駆動部42に取り付けたエ
ンコーダ42Eからの出力パルス信号を位置検出信号と
して利用して行うことができる。この実施形態では結像
光学系20bは固定位置にあるから、このようなステー
ジ41の現在位置は、結像光学系20bと試料9の観察
面(上面)との光学的な相対距離の変更状況を表現する
情報となっている。ここでは、このステージ41のZ方
向の位置を焦点位置と試料9との光学的な相対距離関係
を示す指標として用いることとする。
The overall control unit 100 includes a stage 41
Is obtained (step SP120). This position acquisition can be performed using, for example, an output pulse signal from an encoder 42E attached to the stage drive unit 42 as a position detection signal. In this embodiment, since the imaging optical system 20b is at a fixed position, the current position of the stage 41 is determined by the change in the optical relative distance between the imaging optical system 20b and the observation surface (upper surface) of the sample 9. It is information that expresses. Here, the position of the stage 41 in the Z direction is used as an index indicating the optical relative distance relationship between the focal position and the sample 9.

【0033】つぎに、パターン15を試料9上に投影す
る(ステップSP210)。これは、投影パターン15
Pを試料9の表面に投影して、人工的なエッジを試料9
の表面に作り出すことにより、その投影パターン15P
に含まれるエッジ部分に関するフォーカス評価値(後
述)を算出して評価することを可能にするものである。
投影パターン15Pではなく試料9自体に存在するエッ
ジ部分などについてフォーカス評価値を求めることも可
能であるが、試料9の状態になるべく依存せずにフォー
カス評価値を求めるためには、投影パターン15Pを用
いることが好ましい。
Next, the pattern 15 is projected onto the sample 9 (step SP210). This is the projection pattern 15
P is projected onto the surface of the sample 9 to create an artificial edge.
Of the projection pattern 15P
And calculates and evaluates a focus evaluation value (described later) relating to an edge portion included in.
Although it is possible to obtain the focus evaluation value not for the projection pattern 15P but for the edge portion existing on the sample 9 itself, in order to obtain the focus evaluation value as little as possible in the state of the sample 9, the projection pattern 15P Preferably, it is used.

【0034】そして、全体制御部100の撮像指令に応
答して、カメラ制御部30は、画像生成部31により撮
像を行い、投影パターン15Pを含む画像を取得する
(ステップSP220)。CCD(Charge coupled dev
ice)における電荷蓄積が行われて画像が生成された
後、生成された画像がメモリ32へと転送され、メモリ
32においてデジタルの画像信号として格納される。こ
のようにして、初期位置における画像I0が取得され
る。なお、この初期位置において撮像された画像I0
に、ステージ41の現在位置Z0(前述)が対応づけら
れる。
Then, in response to the imaging command of the overall control unit 100, the camera control unit 30 performs imaging by the image generation unit 31 and obtains an image including the projection pattern 15P (step SP220). CCD (Charge coupled dev
After the charge is accumulated in ice) and an image is generated, the generated image is transferred to the memory 32 and stored in the memory 32 as a digital image signal. Thus, the image I0 at the initial position is obtained. The image I0 taken at this initial position
Is associated with the current position Z0 of the stage 41 (described above).

【0035】その後、評価値算出部33は、全体制御部
100によるフォーカス評価値算出指令に応答して、画
像I0に対するフォーカス評価値F0を算出する。画像生
成部31において生成される画像I0には投影パターン
15Pが含まれており、この投影パターン15Pを含む
領域に対してフォーカス評価値F0を求める。以下にお
いて、フォーカス評価値F0の求め方について説明す
る。
Thereafter, the evaluation value calculation section 33 calculates a focus evaluation value F0 for the image I0 in response to a focus evaluation value calculation command from the overall control section 100. The image I0 generated by the image generation unit 31 includes the projection pattern 15P, and the focus evaluation value F0 is obtained for an area including the projection pattern 15P. Hereinafter, a method of obtaining the focus evaluation value F0 will be described.

【0036】<フォーカス評価値について>図5は、合
焦度合(フォーカスの度合)について説明する図であ
る。画像I0は、図5(a)に示すような投影パターン15
Pのエッジ部分15Eを含み、図5(b)は、エッジ部分
15Eに含まれるX方向の1つの画素列PLを拡大して
示したものであり、各画素の画素値Piが濃淡および明
暗などを表す階調値を有する。また、画素列PLにおい
ては、エッジ部分においては、X方向に各画素値Pi
は、急激に変化する。また、図5(c)は、この急激な画
素値の変化を示す概念図である。合焦度合が理想的な場
合、すなわち、試料9が焦点位置に位置する場合には、
撮像されている画像I0中のエッジ部分15Eは階調分
布E1のようにステップ状に変化し、画素列PLの各画
素の画素値は、階調分布E1のステップ位置Cに対応す
る位置の画素を境界にしてコントラストの最大値Pmax
と最小値Pminとを有するものとなる。一方、試料9が
焦点位置からずれた位置に存在する場合には、階調分布
は、いわゆる「ぼけた」状態となり、図中における階調
分布E2からE5で示されるように、90度より小さな
傾きを有することとなる。したがって、画素列PLの各
画素は、その傾きに応じた画素値を有する。なお、合焦
度合が徐々に悪化するにつれて、階調分布はE2からE
5へと徐々に傾いていく。
<Regarding Focus Evaluation Value> FIG. 5 is a diagram for explaining the degree of focus (degree of focus). The image I0 has a projection pattern 15 as shown in FIG.
5B is an enlarged view of one pixel row PL in the X direction included in the edge portion 15E, and the pixel value Pi of each pixel is represented by light and shade, light and dark, etc. . Further, in the pixel row PL, at the edge portion, each pixel value Pi is set in the X direction.
Changes rapidly. FIG. 5C is a conceptual diagram showing the rapid change in the pixel value. When the degree of focusing is ideal, that is, when the sample 9 is located at the focal position,
The edge portion 15E in the captured image I0 changes stepwise as in the gradation distribution E1, and the pixel value of each pixel in the pixel array PL is the pixel at the position corresponding to the step position C in the gradation distribution E1. The maximum value Pmax of the contrast with respect to
And the minimum value Pmin. On the other hand, when the sample 9 is located at a position shifted from the focal position, the gradation distribution is in a so-called “blurred” state, and is smaller than 90 degrees as shown by the gradation distributions E2 to E5 in the figure. It will have a slope. Therefore, each pixel of the pixel column PL has a pixel value corresponding to the inclination. Note that, as the degree of focusing gradually deteriorates, the gradation distribution changes from E2 to E2.
Gradually lean to 5.

【0037】また、合焦度合は、図6に示すようなオペ
レータを用いて評価する。図6には、複数のオペレータ
OP0〜OP5(これらを総称するときは記号「OP」を
使用する)が示されているが、ここでは、まず、基本形
のオペレータOP1について図7を参照しながら説明す
る。図7(a)には、画像I0上のエッジEの階調分布が所
定の傾きを有している場合の画素列PLの各画素の値が
示されている。各画素値Piは、パターン15の遮光領
域15Bが投影された部分BRにおいては、最も小さな
画素値Pmin(図中では0)を有し、エッジが傾きを有
する部分ERにおいては、図の左側から右側へ行くにし
たがって、画素値の値が徐々に大きくなり、透明領域1
5Tに相当する部分TRにおいては、最大値Pmax(図
では15)を有している。ここでは、図中の画素列PL
の8画素については、左から0、0、0、5、10、1
5、15、15の各値をとるものとする。なお、図中の
画素値は、実際の値を示すものではなく、各画素の濃度
間の相対的関係を示す指標値である。
The degree of focusing is evaluated using an operator as shown in FIG. FIG. 6 shows a plurality of operators OP0 to OP5 (the symbol "OP" is used when these are collectively referred to). Here, first, the basic type operator OP1 will be described with reference to FIG. I do. FIG. 7A shows the value of each pixel in the pixel row PL when the gradation distribution of the edge E on the image I0 has a predetermined inclination. Each pixel value Pi has the smallest pixel value Pmin (0 in the figure) in the portion BR where the light-shielding region 15B of the pattern 15 is projected, and in the portion ER in which the edge has a slope, from the left side of the diagram. The pixel value gradually increases toward the right side, and the transparent area 1
The portion TR corresponding to 5T has the maximum value Pmax (15 in the figure). Here, the pixel column PL in the figure
0, 0, 0, 5, 10, 1 from the left for 8 pixels
The values of 5, 15, and 15 are assumed. Note that the pixel values in the figure do not indicate actual values, but are index values indicating the relative relationship between the densities of the pixels.

【0038】このような画素値を有する画素列PLにつ
いて、オペレータOP0〜OP5を作用させて演算処理を
行う(図4のステップSP310)。その演算結果が、
図7(a)においてひとつのオペレータOP1についての演
算結果R1として示されている。たとえば、0、0、5
の各画素値を有する画素の並びに対して、オペレータO
P1を作用させると、0×(−1)+0×0+5×(+
1)という演算により5が得られる。また、5、10、
15の各画素値を有する画素の並びに対して、オペレー
タOP1を作用させると、5×(−1)+10×0+1
5×(+1)という演算により10が得られる。このよ
うに、3画素分の幅を有するオペレータOP1を画素列
PLの連続する3画素に対して作用させることにより1
つの結果が得られ、これを画素列PLについて1つずつ
ずらせるように相対的に走査して求めていくことによ
り、...0、5、10、10、5、0...という演算結果
R1が得られることになる。
The arithmetic processing is performed on the pixel array PL having such pixel values by operating the operators OP0 to OP5 (step SP310 in FIG. 4). The result of the operation is
In FIG. 7 (a), this is shown as a calculation result R1 for one operator OP1. For example, 0, 0, 5
Operator O for a row of pixels having each pixel value of
When P1 acts, 0 × (−1) + 0 × 0 + 5 × (+
By the operation of 1), 5 is obtained. Also, 5, 10,
When the operator OP1 acts on a row of pixels having each pixel value of 15, 5 × (−1) + 10 × 0 + 1
An operation of 5 × (+1) yields 10. As described above, by operating the operator OP1 having a width of three pixels on three consecutive pixels of the pixel row PL, 1
.., 0, 5, 10, 10, 5, 0... By calculating relative results by shifting the pixel row PL one by one. The result R1 will be obtained.

【0039】また、オペレータOP2(図6参照)を作
用させた場合の演算結果R2が図7(b)に示されている。
オペレータOP1とオペレータOP2とでは、両端の−1
と+1とに挟まれる0(ゼロ)の画素の数が異なってい
る(図6参照)。この演算結果R2は、4画素分の幅を
有するオペレータOP2を画素列PLの連続する4画素
に対して作用させることにより1つの結果を得て、これ
を画素列PLについて1つずつずらせるように走査して
求めていくことにより得られるものであり、...5、1
0、15、10、5、...という結果になっている。
FIG. 7B shows the calculation result R2 when the operator OP2 (see FIG. 6) is operated.
The operator OP1 and the operator OP2 have -1 at both ends.
The number of 0 (zero) pixels sandwiched between +1 and +1 is different (see FIG. 6). The operation result R2 is obtained by operating the operator OP2 having a width of four pixels on four consecutive pixels of the pixel row PL, and obtaining one result, and shifting the result by one for the pixel row PL. ... 5, 1
0, 15, 10, 5,...

【0040】さらに、オペレータOP3(図6参照)を
作用させた場合の演算結果R3が図7(c)に示されてい
る。この演算結果R3は、5画素分の幅を有するオペレ
ータOP3を画素列PLの連続する5画素に対して作用
させることにより1つの演算結果を得て、これを画素列
PLについて1つずつずらせるように走査して求めてい
くことにより得られるものであり、...10、15、1
5、10、...という結果になっている。このような演
算を準備した複数のオペレータOPの全てについて行う
ことにより、各オペレータOPについての演算結果を求
めることができる。
FIG. 7C shows the operation result R3 when the operator OP3 (see FIG. 6) is operated. This calculation result R3 is obtained by operating the operator OP3 having a width of 5 pixels on five consecutive pixels of the pixel row PL, and obtaining one calculation result, and shifting this one by one for the pixel row PL. , 10, 15, 1
The results are 5, 10, ... By performing such a calculation for all of the prepared operator OPs, the calculation result for each operator OP can be obtained.

【0041】このように、これらの複数のオペレータO
P1〜OP5は、両端の−1と+1とに挟まれる0(ゼ
ロ)の画素の数が異なっており、オペレータOPのゼロ
に対応する部分の画素列PLの画素値を無視し、オペレ
ータOPの両端に対応する位置の画素列PL中の画素値
の差をとるものである。したがって、オペレータOPの
ゼロの幅が十分に大きい場合には、オペレータOPの両
端の−1と+1とに対応する位置の画素値が、それぞ
れ、画素値の最小値Pmin(0)および最大値Pmax(1
5)になるため、オペレータOPの演算結果中にはPmi
n×(−1)+Pmax×(+1)=Pmax−Pminの値15
が存在する。ここで、このPmax−Pminの値15は、演
算結果R中での最大値となり、以下においては、これを
Rmaxとして表現する。一方、オペレータOPのゼロの
画素列の幅があまり大きくない場合には、オペレータO
Pの両端の−1と+1とに対応する位置の画素値が、そ
れぞれ、画素値の最小値Pmin(0)および最大値Pmax
(15)にならないため、オペレータOPの演算結果は
最大値Rmax(15)を含まないものとなる。
As described above, the plurality of operators O
P1 to OP5 differ in the number of 0 (zero) pixels sandwiched between −1 and +1 at both ends, disregard the pixel value of the pixel row PL in a portion corresponding to zero of the operator OP, and The difference between the pixel values in the pixel row PL at the positions corresponding to both ends is calculated. Therefore, when the width of zero of the operator OP is sufficiently large, the pixel values at the positions corresponding to −1 and +1 at both ends of the operator OP are the minimum value Pmin (0) and the maximum value Pmax of the pixel value, respectively. (1
5), Pmi is included in the operation result of the operator OP.
n × (−1) + Pmax × (+1) = Pmax−Pmin value 15
Exists. Here, the value 15 of Pmax-Pmin becomes the maximum value in the calculation result R, and is hereinafter represented as Rmax. On the other hand, when the width of the zero pixel row of the operator OP is not so large, the operator O
The pixel values at the positions corresponding to -1 and +1 at both ends of P are the minimum value Pmin (0) and the maximum value Pmax of the pixel values, respectively.
Since it does not become (15), the calculation result of the operator OP does not include the maximum value Rmax (15).

【0042】図8は、画素列PLのX方向に対して複数
のオペレータOPを作用させて得られる演算結果Rを図
示したものであり、図7の演算結果R1、R2、R3、...
をグラフ化したものである。図に示すように、ゼロの画
素の数が少ないオペレータOPによる演算結果(たとえ
ばR0)の中には最大値Rmaxは含まれない。そして、ゼ
ロの画素の数を徐々に増加させた複数のオペレータOP
を作用させていくと、演算結果Rの中に含まれる画素値
のうちの最大値が徐々に大きくなり、特定の数のゼロを
含むオペレータOPを作用させたときに、演算結果(図
ではR2)の中に最大値Rmaxが含まれることになる。そ
して、一旦、最大値Rmaxが演算結果の中に含まれるよ
うになると、その後は、演算結果の中に含まれる最大値
Rmaxの数が増加していくことになる。したがって、複
数のオペレータOPのうち、その演算結果R中に最大値
Rmaxを最も少なく含むオペレータを画像I0の合焦度合
の判定に最も適したオペレータ(以下、「最適オペレー
タ」)として特定して(図4のステップSP320)、
その階調分布の傾きの度合、すなわち、合焦度合を判断
することができる。たとえば、図8の例では、演算結果
R2に対応するオペレータOP2が、最適オペレータとし
て特定されるので、たとえば、この最適オペレータOP
2に含まれるゼロの数(=2)をフォーカス評価値Fと
して用いることができる(図4のステップSP33
0)。このように、ゼロの数が異なる複数のオペレータ
を作用させることによって、合焦度合を判定することが
できる。なお、この場合、フォーカス評価値Fは離散値
となるが、オペレータOPへの適合度を考慮した補間に
より連続的なフォーカス評価値Fとすることも可能であ
る。また、適当なスケーリングを行うことによって、そ
の値を変更することもできる。
FIG. 8 shows the calculation results R obtained by operating a plurality of operators OP in the X direction of the pixel row PL. The calculation results R1, R2, R3,.
Is a graph. As shown in the figure, the calculation result (for example, R0) by the operator OP having a small number of zero pixels does not include the maximum value Rmax. And a plurality of operators OP in which the number of zero pixels is gradually increased
Is applied, the maximum value of the pixel values included in the operation result R gradually increases, and when the operator OP including a specific number of zeros is applied, the operation result (R2 in FIG. ) Includes the maximum value Rmax. Then, once the maximum value Rmax is included in the calculation result, thereafter, the number of the maximum values Rmax included in the calculation result increases. Therefore, among the plurality of operators OP, the operator including the least maximum value Rmax in the calculation result R is specified as the operator most suitable for determining the degree of focusing of the image I0 (hereinafter, “optimum operator”) ( Step SP320 in FIG. 4),
The degree of the gradient of the gradation distribution, that is, the degree of focusing can be determined. For example, in the example of FIG. 8, the operator OP2 corresponding to the calculation result R2 is specified as the optimal operator.
The number of zeros (= 2) included in 2 can be used as the focus evaluation value F (step SP33 in FIG. 4).
0). In this way, by operating a plurality of operators having different numbers of zeros, the degree of focus can be determined. In this case, the focus evaluation value F is a discrete value, but can be a continuous focus evaluation value F by interpolation in consideration of the degree of conformity to the operator OP. The value can also be changed by performing appropriate scaling.

【0043】このようにして、複数のオペレータOPの
それぞれによる演算処理を行い(図4のステップSP3
10)、それぞれのオペレータOPによる演算処理結果
に基づいて最適オペレータOPを特定する(ステップS
P320)ことによって、フォーカス評価値Fを得るこ
とができる(ステップSP330)。
In this way, the arithmetic processing by each of the plurality of operators OP is performed (step SP3 in FIG. 4).
10), the optimum operator OP is specified based on the result of the arithmetic processing by each operator OP (Step S)
P320), the focus evaluation value F can be obtained (step SP330).

【0044】<参照テーブルとの比較および焦点位置へ
の移動>図9は、基準試料の画像について上記と同様に
して求めたフォーカス評価値Fを、位置Zに対してプロ
ットしたグラフである。なお、×印は位置Zの値を示し
ている。図9に示されるような、フォーカス評価値Fと
ステージ41のZ方向の位置Zとの対応関係は、合焦動
作の開始前にあらかじめ所定の計測を行うことによって
求めておき、参照データとしてメモリ32に記憶してお
く。この対応関係は、ステージ41の位置Zのひとつの
値において撮像された画像に対して、複数のオペレータ
OPをそれぞれ作用させた結果として、その合焦度合を
示すフォーカス評価値Fを得る、という動作を、位置Z
の値を順次に変化させつつ、繰り返すことにより得られ
るものである。この予備的な対応関係の取得動作は、省
力化および高速化のため、図1の全体制御部100の制
御下で図1の各部を動作させることにより自動的に行う
ことが好ましい。
<Comparison with Reference Table and Movement to Focus Position> FIG. 9 is a graph in which the focus evaluation value F obtained for the image of the reference sample in the same manner as above is plotted against the position Z. Note that the crosses indicate the value of the position Z. The correspondence between the focus evaluation value F and the position Z in the Z direction of the stage 41 as shown in FIG. 9 is obtained by performing a predetermined measurement in advance before the start of the focusing operation, and is stored in the memory as reference data. 32. The correspondence is that an operation is performed in which a plurality of operators OP each act on an image captured at one value of the position Z of the stage 41 to obtain a focus evaluation value F indicating the degree of focus thereof. To position Z
Are obtained by repeatedly changing the value of This preliminary correspondence acquisition operation is preferably performed automatically by operating each unit in FIG. 1 under the control of the overall control unit 100 in FIG. 1 in order to save labor and increase the speed.

【0045】焦点位置算出部60は、測定対象としての
試料9について求めたフォーカス評価値Fに基づいて、
上記参照データと比較することにより、画像I0取得時
のステージ41の現在位置Zp(図示せず)と、合焦位
置Zfとの間のずれ量を求める(図4のステップSP4
10)。ここで、ステージ41の合焦位置Zfはフォー
カス評価値Fが最良(図9の例では最小)となる位置で
あり、ステージ41が合焦位置Zfに存在するときに、
試料9の観察面が結像光学系20bの焦点位置に位置す
ることとなる。たとえば、画像I0の合焦度合の判定に
最も適した最適オペレータとしてオペレータOP2が特
定され、フォーカス評価値Fが図9中の値F2を有する
場合には、現在位置Zpと合焦位置Zfとの間のずれ量
は、図中において、(Zp−Zf)の絶対値として求める
ことができる。
The focus position calculating section 60 calculates the focus evaluation value F obtained for the sample 9 as a measurement object,
By comparing with the reference data, the shift amount between the current position Zp (not shown) of the stage 41 at the time of acquiring the image I0 and the focus position Zf is obtained (step SP4 in FIG. 4).
10). Here, the focus position Zf of the stage 41 is a position where the focus evaluation value F is the best (minimum in the example of FIG. 9), and when the stage 41 is at the focus position Zf,
The observation surface of the sample 9 is located at the focal position of the imaging optical system 20b. For example, if the operator OP2 is specified as the most suitable operator for determining the degree of focus of the image I0, and the focus evaluation value F has the value F2 in FIG. The amount of deviation between them can be obtained as the absolute value of (Zp-Zf) in the figure.

【0046】ここで、ステージ駆動制御部40は、移動
量を(Zp−Zf)の絶対値に設定して、ステージ41を
移動する。ただし、その現在位置Zpと合焦位置Zfとの
間のずれがいずれの方向に存在するものであるかは不明
である。なぜなら、図9に示すように、フォーカス評価
値F2に対応する位置としては、位置Z2と位置Z2’の
2つが存在するため、現在位置Zpが位置Z2と位置Z
2’のいずれであるかを特定することができないからで
ある。
Here, the stage drive control section 40 sets the amount of movement to the absolute value of (Zp-Zf) and moves the stage 41. However, it is unclear in which direction the shift between the current position Zp and the focus position Zf exists. This is because, as shown in FIG. 9, there are two positions corresponding to the focus evaluation value F2, the position Z2 and the position Z2 ', and thus the current position Zp is changed to the position Z2 and the position Z2.
This is because it is not possible to specify which of 2 ′.

【0047】そこで、まず、ステージ41を所定の方向
(たとえば、矢印AR2の向き)へと動かしてみる(図
4のステップSP420)。そして、その移動後におい
て、再度、画像Ixを取得し、その取得画像Ixに対し
て、画像I0に対して行った動作と同様の動作(ステッ
プSP120〜SP330)を繰り返す。これにより得
られたフォーカス評価値Fxがフォーカス評価値F0より
も改善(図9の場合は低下)している場合には、移動前
の位置がZ2であり、移動後の位置が合焦位置Zfである
ことがわかる。一方、フォーカス評価値Fxが悪化して
いる場合には、移動前の位置がZ2’であり、移動後の
位置が(Zf+2×Z2’)であることがわかる。この後
者の場合には、先の移動とは逆向き(矢印AR3の向
き)に移動量を(2×(Zp−Zf))の絶対値として再
度の移動を行うことにより、Z位置を補正して、ステー
ジ41を合焦位置Zfに移動することができる(図4の
ステップSP430)。
Therefore, first, the stage 41 is moved in a predetermined direction (for example, the direction of arrow AR2) (step SP420 in FIG. 4). Then, after the movement, the image Ix is acquired again, and the same operation (steps SP120 to SP330) as that performed on the image I0 is repeated for the acquired image Ix. When the focus evaluation value Fx thus obtained is improved (decreased in FIG. 9) from the focus evaluation value F0, the position before the movement is Z2, and the position after the movement is the focus position Zf. It can be seen that it is. On the other hand, when the focus evaluation value Fx is deteriorated, it can be seen that the position before the movement is Z2 'and the position after the movement is (Zf + 2 * Z2'). In the latter case, the Z position is corrected by performing the movement again in the direction opposite to the previous movement (in the direction of arrow AR3) with the movement amount as the absolute value of (2 × (Zp−Zf)). Thus, the stage 41 can be moved to the focus position Zf (step SP430 in FIG. 4).

【0048】そして、上記のようにして得られた位置Z
fにステージ41を移動した後に、光学的な測定を行
う。これにより、試料9の観察面を結像光学系20bの
焦点位置に配置して、光学的測定を行うことができる。
Then, the position Z obtained as described above is obtained.
After the stage 41 is moved to f, optical measurement is performed. Thereby, the observation surface of the sample 9 can be arranged at the focal position of the imaging optical system 20b, and the optical measurement can be performed.

【0049】このように、合焦動作において取得される
2つの画像I0および画像Ixについてフォーカス評価値
の算出等を行うことにより、ステージ41を1または2
回移動するだけで焦点位置に試料9を移動させることが
できるので、非常に短時間での合焦動作が可能になる。
As described above, by calculating the focus evaluation value for the two images I0 and Ix acquired in the focusing operation, the stage 41 is set to 1 or 2
Since the sample 9 can be moved to the focus position only by rotating the focus, the focusing operation can be performed in a very short time.

【0050】また、上記の焦点検出動作で求められる焦
点位置は、要求される分解能に対する焦点深度内にあれ
ば十分である。このような条件を満たすように、画像の
拡大倍率、オペレータOPの数、およびステージ41の
位置決め精度などを定めることにより、十分な性能を有
する焦点位置検出を行うことができる。
It is sufficient that the focus position obtained in the focus detection operation is within the depth of focus for the required resolution. By determining the magnification of the image, the number of the operators OP, the positioning accuracy of the stage 41, and the like so as to satisfy such a condition, it is possible to perform the focus position detection with sufficient performance.

【0051】<C.他の実施形態>上記実施形態におい
ては、透光パターン部材22bが回転することによっ
て、パターン15a、15b、15cのいずれか1つが
選択的に視野絞り22aの中央の開口部22cの中心付
近に位置することができるようになっており、これによ
り試料9上に投影パターン15Pを投影していたが、こ
れに限定されない。たとえば、透光パターン部材22b
上において、光学測定の際に邪魔にならないように開口
部22cの中心から離れた位置に固定して配置すること
もできる。この場合には、回転機構が不要になり簡易な
構成となる。
<C. Other Embodiments> In the above embodiment, any one of the patterns 15a, 15b, and 15c is selectively positioned near the center of the central opening 22c of the field stop 22a by rotating the light transmitting pattern member 22b. Although the projection pattern 15P is projected on the sample 9 by this, the invention is not limited to this. For example, the light-transmitting pattern member 22b
Above, it can be fixed and arranged at a position away from the center of the opening 22c so as not to disturb the optical measurement. In this case, a rotation mechanism is not required and a simple configuration is provided.

【0052】また、上記実施形態においては、パターン
15を投影した画像に対してフォーカス評価値を求めた
が、これに限定されない。たとえば、測定対象物である
試料9自身にパターン15に相当するようなものが存在
する場合(たとえば半導体基板上に配線パターンが既に
作成されている場合など)には、そのパターン部分を含
む画像に対して、フォーカス評価値を求めることもでき
る。
In the above embodiment, the focus evaluation value is obtained for the image on which the pattern 15 is projected. However, the present invention is not limited to this. For example, when there is an object corresponding to the pattern 15 in the sample 9 itself to be measured (for example, when a wiring pattern is already created on a semiconductor substrate), an image including the pattern portion is displayed. On the other hand, a focus evaluation value can be obtained.

【0053】さらに、上記実施形態においては、ステー
ジ41に載置された試料9を移動させたが、試料9と結
像光学系20bとの光学的距離を連続的に変更するにあ
たって、結像光学系20bの方を移動させてもよい。
Further, in the above embodiment, the sample 9 placed on the stage 41 is moved, but when the optical distance between the sample 9 and the imaging optical system 20b is continuously changed, the imaging optical system is changed. The system 20b may be moved.

【0054】上記実施形態において、複数のオペレータ
OPの全てについて演算処理を行い(図4のステップS
P310)、その後、画像I0の合焦状態の判定に最も
適した最適オペレータOPを特定していた(ステップS
P320)が、これに限定されず、演算結果R中に最大
値Rmaxを最も少なく含むオペレータOPを画像I0の合
焦度合の判定に最も適した最適オペレータとして特定す
ることができればよい。たとえば、ゼロの数を徐々に多
く含むようなオペレータOPを順次に(図6のオペレー
タOP0、OP1、OP2、...のよう順次に)作用させて
いき、それらの作用結果が飽和して画像I0の最適オペ
レータOPを特定することができるに至った時点で、複
数のオペレータOPに対する演算を終了することができ
る。これにより、複数のオペレータOPの全てについて
演算を行う必要が無くなるので、より高速な処理が可能
になる。あるいは、一種の2分探索法的な手法を用い
て、画像I0の合焦状態の判定に最も適した最適オペレ
ータOPを特定することも可能である。この場合にも、
より少ないオペレータOPについてのみ演算処理を行え
ばよいので、より高速な処理が可能になる。
In the above embodiment, the arithmetic processing is performed for all of the plurality of operators OP (step S in FIG. 4).
P310) Then, the optimum operator OP most suitable for the determination of the in-focus state of the image I0 has been specified (Step S).
P320) is not limited to this, and it is only necessary that the operator OP including the smallest maximum value Rmax in the calculation result R can be specified as the most suitable operator for determining the degree of focus of the image I0. For example, the operator OPs that gradually include a large number of zeros are sequentially applied (in the order of operators OP0, OP1, OP2,... In FIG. 6), and the operation results are saturated and the image becomes saturated. When the optimum operator OP of I0 can be specified, the calculation for a plurality of operators OP can be completed. This eliminates the need to perform the operation for all of the plurality of operators OP, thereby enabling higher-speed processing. Alternatively, it is also possible to specify the optimum operator OP most suitable for determining the in-focus state of the image I0 by using a kind of a binary search method. Again, in this case,
Since the calculation process needs to be performed only for a smaller number of operators OP, higher-speed processing can be performed.

【0055】さらに、図10に示すように、複数のオペ
レータOPのそれぞれについて、並列的に演算処理を行
うことにより、さらに高速化することができる。図10
には、画素列PLに対する各オペレータOPに対する演
算を複数の演算器Xi(i=0〜M)のそれぞれが並列
的に処理し、それらの結果に基づいて判断部33Jが、
その画素列PLが含まれていた画像I0の合焦状態の判
定に最も適した最適オペレータOPを特定して、フォー
カス評価値Fを算出する構成を示している。各オペレー
タOPの演算処理が並列的に行われるので、さらなる高
速化を実現することができる。
Further, as shown in FIG. 10, the speed can be further increased by performing the arithmetic processing in parallel for each of the plurality of operators OP. FIG.
, Each of the plurality of arithmetic units Xi (i = 0 to M) performs an operation on each of the operators OP on the pixel array PL in parallel, and based on those results, the determination unit 33J
A configuration is shown in which the optimum operator OP most suitable for determining the in-focus state of the image I0 including the pixel row PL is specified and the focus evaluation value F is calculated. Since the arithmetic processing of each operator OP is performed in parallel, further higher speed can be realized.

【0056】また、上記実施形態においては、画像I0
の合焦度合を評価するため、画像I0に含まれる1つの
画素列PLを抽出していたが、これに限定されない。た
とえば、図11に示すように、2次元的な画像領域に含
まれる複数の画素列PLj(j=1,...,J)の各画素値を
図のY方向に加算した画素列を画素列PLとして用いる
こともできる。この場合には、ノイズの影響等が低減さ
れる効果が得られる。
In the above embodiment, the image I0
Although one pixel column PL included in the image I0 has been extracted to evaluate the degree of focus of the image, the present invention is not limited to this. For example, as shown in FIG. 11, a pixel row obtained by adding each pixel value of a plurality of pixel rows PLj (j = 1,..., J) included in a two-dimensional image area in the Y direction in the drawing is referred to as a pixel. It can also be used as column PL. In this case, the effect of reducing the influence of noise and the like can be obtained.

【0057】さらに、上記実施形態においては、図6に
示すようなオペレータOPを用いたが、これに限定され
ない。たとえば、図12に示すようなオペレータを用い
ることもできる。図12の各オペレータは、図6の各オ
ペレータの両端部にさらに−1と+1とを付け加えた構
成になっている。このようなオペレータを用いることに
より、ノイズの影響を低減することができる。
Further, in the above embodiment, the operator OP as shown in FIG. 6 is used, but the present invention is not limited to this. For example, an operator as shown in FIG. 12 can be used. Each operator in FIG. 12 has a configuration in which −1 and +1 are further added to both ends of each operator in FIG. By using such an operator, the influence of noise can be reduced.

【0058】あるいは、図13に示すようなオペレータ
を用いることもできる。図13の各オペレータは、図6
の各オペレータの両端部にさらに−2と+2とを付け加
えた構成になっている。これによれば、ノイズの影響を
低減することができるとともに、エッジの変化の程度を
より詳細に反映させることができる。
Alternatively, an operator as shown in FIG. 13 can be used. Each operator in FIG.
, And -2 and +2 are added to both ends of each operator. According to this, the influence of noise can be reduced and the degree of edge change can be reflected in more detail.

【0059】[0059]

【発明の効果】以上のように、請求項1および2に記載
のフォーカス制御装置および請求項5および6に記載の
フォーカス制御方法によれば、画像内の所定領域に対す
る評価値と、あらかじめ求められた対応関係に基づい
て、合焦位置までの光学的距離の差を求め、その差分だ
け光学的距離を変更することによって、合焦状態とする
ことができる。したがって、対象物に対する合焦動作を
少ない移動回数で実現することができる。
As described above, according to the focus control apparatus according to the first and second aspects and the focus control method according to the fifth and sixth aspects, an evaluation value for a predetermined area in an image and an evaluation value obtained in advance can be obtained. The in-focus state can be obtained by obtaining the difference in the optical distance to the in-focus position based on the corresponding relationship and changing the optical distance by the difference. Therefore, the focusing operation on the target object can be realized with a small number of movements.

【0060】請求項3に記載のフォーカス制御装置およ
び請求項7に記載のフォーカス制御方法によれば、画像
信号に複数のオペレータを作用させることによって評価
値を求めるので、複雑な演算を用いる必要がない。
According to the focus control apparatus of the third aspect and the focus control method of the seventh aspect, since the evaluation value is obtained by causing a plurality of operators to act on the image signal, it is necessary to use a complicated calculation. Absent.

【0061】請求項4に記載のフォーカス制御装置およ
び請求項8に記載のフォーカス制御方法によれば、取得
画像内の所定領域に対応する対象物上に投影角度が異な
るパターンを投影することができるので、対象物の表面
状態に依存することなく、適切に評価値を求めることが
できる。
According to the focus control device of the fourth aspect and the focus control method of the eighth aspect, it is possible to project a pattern having a different projection angle on an object corresponding to a predetermined area in an acquired image. Therefore, the evaluation value can be appropriately obtained without depending on the surface state of the object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の光学測定装置1の構成を示す模式図で
ある。
FIG. 1 is a schematic diagram showing a configuration of an optical measurement device 1 of the present invention.

【図2】パターン15を示す図である。FIG. 2 is a view showing a pattern 15;

【図3】透光パターン部材22bを示す図である。FIG. 3 is a view showing a light transmitting pattern member 22b.

【図4】光学測定装置1の動作を説明するフローチャー
トである。
FIG. 4 is a flowchart illustrating an operation of the optical measurement device 1.

【図5】合焦度合について説明する図である。FIG. 5 is a diagram illustrating a degree of focus.

【図6】複数のオペレータOP0〜OP5を示す図であ
る。
FIG. 6 is a diagram showing a plurality of operators OP0 to OP5.

【図7】オペレータOPの演算について説明する図であ
る。
FIG. 7 is a diagram illustrating an operation of an operator OP.

【図8】複数のオペレータOPによる演算結果Rを表す
グラフである。
FIG. 8 is a graph showing a calculation result R by a plurality of operators OP.

【図9】ステージ41の位置Zとフォーカス評価値Fと
の関係を表すグラフである。
FIG. 9 is a graph showing a relationship between a position Z of a stage 41 and a focus evaluation value F.

【図10】並列的にオペレータOPの演算処理を行う場
合の構成を示す図である。
FIG. 10 is a diagram showing a configuration in a case where arithmetic processing of an operator OP is performed in parallel.

【図11】画素列PLについて示す図である。FIG. 11 is a diagram showing a pixel column PL.

【図12】別のオペレータの例を示す図である。FIG. 12 is a diagram illustrating an example of another operator.

【図13】さらに別のオペレータの例を示す図である。FIG. 13 is a diagram showing another example of an operator.

【符号の説明】[Explanation of symbols]

1,1B 光学測定装置 9 試料 11 光源部 11L 照明光 15 パターン 20a 照明光学系 20b 結像光学系 21、25 レンズ 22 選択的遮光部 22b 透光パターン部材 23 ハーフミラー 24 対物レンズ 31 画像生成部 31L 反射光 41 ステージ 42 ステージ駆動部 La,Lb 光軸 PL 画素列 OP オペレータ R 演算結果 F フォーカス評価値 Z (ステージ41の)位置 Reference Signs List 1, 1B Optical measuring device 9 Sample 11 Light source unit 11L Illumination light 15 Pattern 20a Illumination optical system 20b Imaging optical system 21, 25 Lens 22 Selective light shielding unit 22b Light transmission pattern member 23 Half mirror 24 Objective lens 31 Image generation unit 31L Reflected light 41 Stage 42 Stage drive section La, Lb Optical axis PL Pixel array OP Operator R Calculation result F Focus evaluation value Z (stage 41) position

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 対象物と結像光学系とを合焦状態とする
フォーカス制御装置であって、 前記結像光学系と前記対象物との相対的な光学的距離を
変更する距離変更手段と、 前記対象物の画像を前記結像光学系を介して撮像して画
像信号を取得する画像取得手段と、 前記画像内の所定領域の前記画像信号に基づいて、前記
対象物と前記結像光学系との合焦度合に関する評価値を
求める評価値算出手段と、 複数の前記光学的距離とそれらに対応する前記評価値と
の対応関係をあらかじめ記憶しておく記憶手段と、 前記評価値算出手段により求められた前記評価値と前記
記憶手段に記憶された前記対応関係とに基づいて、合焦
位置までの前記光学的距離の差を求め、当該差分だけ前
記光学的距離を変更すべく前記距離変更手段を制御する
制御手段と、を備えることを特徴とするフォーカス制御
装置。
1. A focus control device that focuses an object and an imaging optical system, wherein the distance changing unit changes a relative optical distance between the imaging optical system and the object. An image acquisition unit configured to capture an image of the object through the imaging optical system to acquire an image signal; and the object and the imaging optics based on the image signal of a predetermined area in the image. Evaluation value calculation means for obtaining an evaluation value related to the degree of focusing with a system; storage means for storing in advance a correspondence relationship between a plurality of the optical distances and the evaluation values corresponding thereto; and the evaluation value calculation means. The difference between the optical distance to the in-focus position is obtained based on the evaluation value obtained by the above and the correspondence stored in the storage means, and the distance is changed to change the optical distance by the difference. Control means for controlling the change means; Focus control apparatus comprising: a.
【請求項2】 請求項1に記載のフォーカス制御装置に
おいて、 前記評価値算出手段は、取得した前記画像に含まれるエ
ッジ部分に対応する前記画像信号の傾きの度合に基づい
て前記評価値を求めることを特徴とするフォーカス制御
装置。
2. The focus control device according to claim 1, wherein the evaluation value calculation unit obtains the evaluation value based on a degree of inclination of the image signal corresponding to an edge portion included in the acquired image. A focus control device, comprising:
【請求項3】 請求項2に記載のフォーカス制御装置に
おいて、 前記評価値算出手段は、異なる傾きを有する複数の画像
信号にそれぞれ適合する複数のオペレータを有し、前記
画像信号に当該オペレータを作用させた際に、最も適合
するオペレータに基づいて前記評価値を求めることを特
徴とするフォーカス制御装置。
3. The focus control device according to claim 2, wherein said evaluation value calculating means has a plurality of operators each adapted to a plurality of image signals having different inclinations, and operates said operator on said image signals. A focus control device that obtains the evaluation value based on a most suitable operator when the control is performed.
【請求項4】 請求項1ないし請求項3のいずれかに記
載のフォーカス制御装置において、 前記画像内の所定領域に対応する前記対象物上に投影角
度が互いに異なるパターンを投影する投影手段を備える
ことを特徴とするフォーカス制御装置。
4. The focus control device according to claim 1, further comprising: a projection unit configured to project a pattern having a different projection angle on the object corresponding to a predetermined area in the image. A focus control device, comprising:
【請求項5】 対象物と結像光学系とを合焦状態とする
フォーカス制御方法であって、 前記対象物の画像を前記結像光学系を介して撮像して画
像信号を取得する画像取得工程と、 前記画像内の所定領域の画像信号に基づいて、前記対象
物と前記結像光学系との合焦度合に関する評価値を求め
る評価値算出工程と、 複数の前記光学的距離とそれらに対応する前記評価値と
の対応関係をあらかじめ求めておく準備工程と、 前記評価値算出工程で求められた前記評価値と、前記準
備工程で求められた前記対応関係と、に基づいて、合焦
位置までの前記光学的距離の差を求め、当該差分だけ前
記光学的距離を変更する移動工程と、を含むことを特徴
とするフォーカス制御方法。
5. A focus control method for bringing an object and an imaging optical system into a focused state, comprising: acquiring an image of the object via the imaging optical system to acquire an image signal. And an evaluation value calculating step of obtaining an evaluation value relating to a degree of focusing between the object and the imaging optical system based on an image signal of a predetermined area in the image, and a plurality of the optical distances and A preparatory step of previously obtaining a correspondence relationship with the corresponding evaluation value; focusing on the basis of the evaluation value obtained in the evaluation value calculation step and the correspondence relation obtained in the preparation step. A moving step of determining a difference in the optical distance to a position and changing the optical distance by the difference.
【請求項6】 請求項5に記載のフォーカス制御方法に
おいて、 前記評価値算出工程は、取得した前記画像に含まれるエ
ッジ部分に対応する前記画像信号の傾きの度合いに基づ
いて前記評価値を求めることを特徴とするフォーカス制
御方法。
6. The focus control method according to claim 5, wherein the evaluation value calculating step obtains the evaluation value based on a degree of inclination of the image signal corresponding to an edge portion included in the acquired image. And a focus control method.
【請求項7】 請求項6に記載のフォーカス制御方法に
おいて、 前記評価値算出工程は、異なる傾きを有する複数の画像
信号にそれぞれ適合する複数のオペレータを準備する工
程と、前記画像信号に当該オペレータを作用させた際
に、最も適合するオペレータに基づいて前記評価値を求
める工程と、を含むことを特徴とするフォーカス制御方
法。
7. The focus control method according to claim 6, wherein the calculating of the evaluation value includes preparing a plurality of operators respectively corresponding to a plurality of image signals having different inclinations, and A step of obtaining the evaluation value based on the most suitable operator when is applied.
【請求項8】 請求項5ないし請求項7のいずれかに記
載のフォーカス制御方法において、 前記画像内の所定領域に対応する前記対象物上に投影角
度が互いに異なるパターンを投影する工程を備えること
を特徴とするフォーカス制御方法。
8. The focus control method according to claim 5, further comprising a step of projecting patterns having different projection angles on the object corresponding to a predetermined area in the image. A focus control method characterized by the following.
JP16487998A 1998-06-12 1998-06-12 Focus controller and focus controlling method Pending JPH11352392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16487998A JPH11352392A (en) 1998-06-12 1998-06-12 Focus controller and focus controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16487998A JPH11352392A (en) 1998-06-12 1998-06-12 Focus controller and focus controlling method

Publications (1)

Publication Number Publication Date
JPH11352392A true JPH11352392A (en) 1999-12-24

Family

ID=15801654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16487998A Pending JPH11352392A (en) 1998-06-12 1998-06-12 Focus controller and focus controlling method

Country Status (1)

Country Link
JP (1) JPH11352392A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331738A (en) * 2004-05-20 2005-12-02 Seiko Epson Corp Mis-focus judging method and program thereabout
JP2006017933A (en) * 2004-06-30 2006-01-19 Olympus Corp Focus arithmetic unit of camera
JP2006154465A (en) * 2004-11-30 2006-06-15 Olympus Corp Focus detecting device and control method therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331738A (en) * 2004-05-20 2005-12-02 Seiko Epson Corp Mis-focus judging method and program thereabout
JP4661084B2 (en) * 2004-05-20 2011-03-30 セイコーエプソン株式会社 Misfocus determination method and related program
JP2006017933A (en) * 2004-06-30 2006-01-19 Olympus Corp Focus arithmetic unit of camera
JP4615912B2 (en) * 2004-06-30 2011-01-19 オリンパス株式会社 Camera focus calculation device
JP2006154465A (en) * 2004-11-30 2006-06-15 Olympus Corp Focus detecting device and control method therefor

Similar Documents

Publication Publication Date Title
US10101572B2 (en) Variable focal length lens system with multi-level extended depth of field image processing
US9830694B2 (en) Multi-level image focus using a tunable lens in a machine vision inspection system
US9774765B2 (en) Chromatic aberration correction in imaging system including variable focal length lens
JP5829621B2 (en) Microscope sensor
US8184920B2 (en) Microscope system
US6519359B1 (en) Range camera controller for acquiring 3D models
US10520301B1 (en) Method for measuring Z height values of a workpiece surface with a machine vision inspection system
JP4077754B2 (en) 3D shape measuring device
US20040263672A1 (en) Focus detecting method, focus detecting mechanism and image measuring device having focus detecting mechanism
US11119382B2 (en) Tunable acoustic gradient lens system with amplitude adjustment corresponding to z-height as indicated by calibration data
CN105143953A (en) Image acquisition device and method and system for creating focus map for specimen
JPH10290389A (en) Multi-focus image formation method and image formation device
JP7037262B2 (en) How to speed up modeling of digital slide scanners
CN102884395B (en) Height measurement method and height measuring device
US10812701B2 (en) High-speed tag lens assisted 3D metrology and extended depth-of-field imaging
JPH11211439A (en) Surface form measuring device
JP3631304B2 (en) Microscope automatic focusing device
US11249225B2 (en) Tunable acoustic gradient lens system utilizing amplitude adjustments for acquiring images focused at different z-heights
JPH11352392A (en) Focus controller and focus controlling method
JP2009053485A (en) Automatic focusing device, automatic focusing method, and measuring device
JP2003057021A (en) Three-dimensional shape input apparatus and projection apparatus
JP3955115B2 (en) Confocal microscope focusing device and focusing method
JP2021124429A (en) Scanning measurement method and scanning measurement device
JPH09230250A (en) Automatic focusing device for optical microscope
JPH09145319A (en) Method and equipment for three-dimensional measurement