JP2004340728A - Measuring method and device using stereo optical system - Google Patents

Measuring method and device using stereo optical system Download PDF

Info

Publication number
JP2004340728A
JP2004340728A JP2003137225A JP2003137225A JP2004340728A JP 2004340728 A JP2004340728 A JP 2004340728A JP 2003137225 A JP2003137225 A JP 2003137225A JP 2003137225 A JP2003137225 A JP 2003137225A JP 2004340728 A JP2004340728 A JP 2004340728A
Authority
JP
Japan
Prior art keywords
image data
height
oblique
facing
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003137225A
Other languages
Japanese (ja)
Other versions
JP3915033B2 (en
Inventor
Masaharu Nakamura
正治 中村
Tomoyuki Tanaka
知行 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TECHNO HORON KK
Original Assignee
TECHNO HORON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TECHNO HORON KK filed Critical TECHNO HORON KK
Priority to JP2003137225A priority Critical patent/JP3915033B2/en
Publication of JP2004340728A publication Critical patent/JP2004340728A/en
Application granted granted Critical
Publication of JP3915033B2 publication Critical patent/JP3915033B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a processing time and extend a measurable range in height in comparison with a conventional automatic focus method when measuring a height of an object. <P>SOLUTION: An object to be measured is imaged from the front and slanting directions (S5). The slanting image data of the object is converted such that a pattern in the image data becomes similar to a pattern in the front image data of the object (S6). Then, difference between a specific point on the front image data and a specific point on the converted slanting image data is detected (S7). The detected difference in position has a value corresponding to the object height. Based on the difference in position, the height of the object is detected (S8). Therefore, in comparison with a conventional automatic focus method which requires the fluctuation of distance between an optical system and an object, this system can reduce a processing time and extend a measurable range in height by deepening a depth of field of the optical system. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は測定方法及び測定装置に係り、特にステレオ光学系を用いた測定方法及び測定装置並びにこれらの方法及び装置を利用した半導体製造装置及び搬送ラインに関する。
【0002】
【従来の技術】
従来、オートフォーカスは、カメラだけでなく、半導体製造装置等の様々な装置において用いられてきた(例えば特許文献1参照)。
【0003】
オートフォーカスは、対象物と光学系との距離を少しずつ変化させながら、異なる距離毎に対象物を撮像し、画像データのコントラストが最も高くなる距離を求める方法である。このようなオートフォーカスは、焦点合わせだけでなく、ウエハ等の各種対象物の高さを一定に保つ場合や厚さを測定する場合等、様々な用途で用いられてきた。
【0004】
【特許文献1】
特開2003−84189号公報
【0005】
【発明が解決しようとする課題】
しかしながら、オートフォーカスを用いた場合には、以下に示す課題がある。
(1)オートフォーカスでは、対象物と光学系との距離を少しずつ変化させながら対象物を複数回撮像するため、時間がかかる。図49に示す例では、コントラストが最高となる距離を探索する際、十字で示す距離毎に対象物を撮像しており、合計7回、対象物を撮像している。したがって、撮像回数の7回分、時間がかかる。
(2)オートフォーカスでは、その原理に因り被写界深度が浅い光学系を用いるため、一般に、被写界深度が浅い分だけ測定可能範囲が狭くなる。具体的には、対象物の高さを測定する場合、高さの測定可能範囲が狭くなる。
(3)オートフォーカスでは、対象物の表面に凸凹がある場合、一般に、正しく測定されない。例えば、表面の凸凹に因り、図49に示すような山が一つだけの曲線を得ることができず、山が2つ以上ある曲線となってしまい、正しく測定されない。
【0006】
また、図25に示すような弛みを持つシート(対象物)について弛みを測定する技術が必要とされている。しかしながら、図25に示すシートは、弛みが1mm以上であり、被写界深度が浅い(例えば50μm程度の)光学系を用いたオートフォーカス技術では、弛みの測定が困難であった。
【0007】
また、XYZθ機構(X軸方向及びY軸方向における移動以外に、Z軸方向及び回転方向における移動を可能とした機構)では、一般に、レーザ測長機又は画像処理装置によって調整を行うが、次のような課題がある。レーザ測長機を用いる場合には、一般に、レーザ測長機を3次元的に配置しなければならず、また、1軸単位の調整となり、煩雑であるとともに作業時間がかかる。画像処理装置を用いる場合には、キャリブレーションシートを用い、このキャリブレーションシートを上方から撮像した画像データに基づいて、X軸Y軸の真直性や直交性等は短時間で調整可能である。他方、図50に示すように、Z軸(又はθ軸)の傾き角度φは、高さの差異となってあらわれるので、容易に調整することができない。したがって、XYZθ機構を容易かつ短時間に調整可能な調整方法が必要とされている。
【0008】
本発明はこのような事情に鑑みてなされたもので、従来のオートフォーカスを用いた場合と比較して、処理時間を低減するとともに、測定可能範囲を拡大する測定方法及び測定装置並びにこれらの方法及び装置を利用した半導体製造装置及び搬送ラインを提供することを目的とする。
【0009】
また、本発明の他の目的は、表面に凸凹がある等の様々な対象物の測定、シートの弛み測定等の様々な測定、及び、XYZθ機構等の複雑な機構の容易な調整を、可能にすることである。
【0010】
【課題を解決するための手段】
本発明は、任意の高さに位置した対象物を斜め方向から撮像する斜め撮像手段及び対象物を正対する方向から撮像する正対撮像手段を用いて対象物の高さを測定する測定方法及び装置並びにこれらの方法及び装置を利用した半導体製造装置及び搬送ラインである。
【0011】
ここで、対象物の高さは、正対撮像手段が有する結像光学系と対象物との間の絶対的な距離として求めてもよいが、一般には、基準となる特定の高さを基準とした相対的な距離として求める。
【0012】
まず、斜め画像データを構成する画素と斜め画像データを変換した画像データ(以後「変換画像データ」という)を構成する画素との関係を示す画像変換パラメータであって、正対画像データに写される任意のパターンの形状と変換画像データ中のパターンの形状が相似するように斜め画像データを変換するための画像変換パラメータを取得する。次に、任意の高さに位置した対象物を正対撮像手段で撮像して得た正対画像データと斜め撮像手段で撮像して得た斜め画像データとを取得する。次に、画像変換パラメータに基づいて、対象物の斜め画像データを変換画像データに変換する。次に、対象物上の特定の点について、正対画像データ上の位置と変換画像データ上の位置の差分を検出する。検出された位置の差分は、対象物の高さに対応した値を持つ。次に、位置の差分に基づいて、対象物の高さを検出する。
【0013】
この発明の実施に当たり、画像変換パラメータの取得は、次の手順によって行うのが好適である。
(a)基準となる特定の高さに配置した、特徴ある複数の点を有するテストパターンを、正対撮像手段及び斜め撮像手段で撮像する。
(b)テストパターン中の特徴ある複数の点にそれぞれ対応する斜め画像データ中の複数の画素の座標(以後「斜め平面座標」という)を取得するとともに、前記特徴ある複数の点にそれぞれ対応する正対画像データ中の複数の画素の座標(以後「正対平面座標」という)を取得する。
(c)テストパターン中の特徴ある複数の点の斜め平面座標と正対平面座標とに基づいて、斜め画像データを構成する画素の座標と正対画像データを構成する画素の座標との関係を示す座標変換パラメータを算出する。
(d)基準となる特定の高さにおける座標変換パラメータに基づいて画像変換パラメータを算出する。
【0014】
このように一度算出した画像変換パラメータは記憶装置に保存しておき、次回からは記憶装置から取得すればよい。
【0015】
また、この発明の実施に当たり、画像データ変換において、変換画像データを構成する画素[I,J]の光強度Img2(I,J)を、(数式1)に従って求めるのが好適である。
Img2(I,J) = Σ[W(k,m)×Img1 (k,m)]/ΣW(k,m) …(数式1)
ただし、I、J、k及びmを整数として、Img1(k,m)は、斜め画像データの第k行第m列の画素[k,m]の光強度である。W(k,m)は、画像変換パラメータであって、基準となる特定の高さで正対撮像手段の受光平面(以後「正対受光平面」という)上の第I行第J列の画素[I,J]が斜め撮像手段の受光平面(以後「斜め受光平面」という)上に投影される場合の斜め受光平面の画素[k,m]上に投影される面積を表す。また、(1)式の右辺の和を求める範囲は、斜め受光平面上に投影される正対受光平面上の画素[I,J]が、斜め受光平面上の画素[k,m]上に一部でも投影されれば、その投影されている画素[k,m]全てにわたるものとする。
【0016】
また、この発明の実施に当たり、対象物の高さ検出は、以下に示す手順で取得した高さ変換情報に基づいて行うのが好適である。
(e)特徴ある複数の点を有するテストパターンを高さ方向に段階的に移動させる。
(f)各高さにおいてテストパターンを正対撮像手段及び斜め撮像手段で撮像する。
(g)各高さで撮像したテストパターンの斜め画像データを座標変換パラメータ及び画像変換パラメータに基づいて変換する。
(h)テストパターン上の特定の点について、テストパターンの正対画像データ上の位置とテストパターンの変換画像データ上の位置との差分を検出する。
(i)テストパターンの各高さと各位置の差分との関係を示す高さ変換情報を生成する。
【0017】
このように一度生成した高さ変換情報は記憶装置に保存しておき、次回からは記憶装置から取得すればよい。
【0018】
また、本発明の実施に当たり、正対撮像手段の光軸を対称軸として、斜め撮像手段の光軸と線対称となる軸上に、照明手段を設けるのが好適である。
【0019】
また、本発明の測定装置によって測定された対象物の高さが一定となるように対象物の高さを制御する高さ制御手段を備えるのが好適である。
【0020】
また、複数の半導体基板をストックするカセットと、カセットから半導体基板を一枚ずつ取り出して搬送する搬送手段とを備える半導体製造装置において、この発明の測定装置又は高さ制御装置を備えるのが好適である。ここで、対象物はカセットから取り出された半導体基板とする。半導体基板の代表的なものとしてウエハがある。
【0021】
また、複数の工程を結ぶ搬送手段と、画像による1乃至複数の検査手段とを備える搬送ラインにおいて、この発明の測定装置又は高さ制御装置を備えるのが好適である。ここで、対象物は搬送ラインで搬送される物体である。
【0022】
【発明の実施の形態】
以下添付図面に従って本発明の好ましい実施の形態について詳説する。尚、各図面は、この発明が理解できる程度に各構成要素等の形状、大きさ及び配置関係を概略的に示しているに過ぎず、この発明を図示例に限定するものではない。
【0023】
図1を参照して、対象物を斜め上方から撮像する場合と、対象物を正対する方向、例えば真上から撮像する場合について説明する。
【0024】
図1において、測定対象物1を斜め方向から撮像する位置A(以後「斜め撮像位置」と称する)と、測定対象物1を正対する方向(例えば真上)から撮像する位置B(以後「正対撮像位置」と称する)には、それぞれ撮像装置10、12が配置されている。これらの撮像装置10、12は、結像光学系10a、12a及び受光平面10b、12bをそれぞれ備えている。以下、斜め撮像位置Aに配置された撮像装置10を「斜め撮像装置」、その結像光学系10aを「斜め光学系」、その受光平面10bを「斜め受光平面」とそれぞれ称する。また、正対撮像位置Bに配置された撮像装置12を「正対撮像装置」、その結像光学系12aを「正対光学系」、その受光平面12bを「正対受光平面」とそれぞれ称する。
【0025】
また、図1において、測定対象物1の被測定面には、格子パターンが存在する。格子パターン上の十字の交点を以後「格子点」と称する。また、格子パターンのうちで、格子点を含む十字状の部分を以後「十字マーク」と称する。尚、説明の便宜のため、測定対象物1が被測定面に格子パターンを有する場合について説明するが、以下に記述する技術的内容は、測定対象物上の特徴パターンが格子パターンであるか否かにかかわりなく成立する。
【0026】
正対光学系12aは、その光軸12cが、測定対象物1の被測定面と直交するように配置されている。また、斜め光学系10aは、その光軸10cが、測定対象物1の被測定面と斜交するように配置されている。測定対象物1の高さ測定は、正対光学系12aを介して正対受光平面12bに得られる画像データ(以後「正対画像データ」と称する)、及び斜め光学系10aを介して斜め受光平面10bに得られる画像データ(以後「斜め画像データ」と称する)を用いて行う。
【0027】
ここで、測定対象物1の高さを変化させた場合の画像データの変化について説明しておく。
【0028】
測定対象物の撮像される部分1aの断面を拡大して図2に示す。図2では、説明の便宜のため、正対光学系及び斜め光学系の倍率を共に1倍としてある。基準高さ(高さ=0)に位置した測定対象物1の正対画像データを図3(A)に示し、斜め画像データを図3(B)に示す。尚、図3(A)及び図3(B)では、格子パターンのうち十字マークのみを示している。図3(A)の正対画像データ3aでは、測定対象物1の被測定面上にある格子点同士が、そのまま正方形状で写されている。すなわち、隣接する4つの格子点によって正方形が構成されている。これに対して、図3(B)の斜め画像データ3bでは、測定対象物の被測定面上にある格子点同士が、縦長の長方形状で写されている。すなわち、隣接する4つの格子点によって縦長の長方形が構成されている。詳細には、斜め光学系の光軸10cと正対光学系の光軸12cとがなす角度(以後「傾き角度」と称する)をφとすると、斜め画像データ3bのX軸方向における格子点の間隔は、正対画像データ3aのX軸方向における格子点の間隔をcosφ倍したものとなっている。これに対して、斜め画像データ3bのY軸方向における格子点の間隔は、正対画像データ3aのY軸方向における格子点の間隔とほとんど差がない。
【0029】
ここで、格子パターンの形状が、正対画像データ3aにおける格子パターンの形状と一致するように、斜め画像データ3bを変換する。変換後の画像データ(以後「変換画像データ」と称する)を、図3(C)に示す。ここでは、変換画像データ3cの格子点の間隔が正対画像データ3aの格子点の間隔と同じになるように変換すればよい。さらに、変換画像データ3cにおける格子点の位置は、正対画像データ3aにおける格子点の位置とほぼ一致している。尚、変換画像データ3cは、正対画像データ3aと比較して、解像度が1/cosφ低くなるが、測定にはほとんど影響しない。
【0030】
次に、基準高さより低い高さに位置した測定対象物の正対画像データを図4(A)に示し、斜め画像データを図4(B)に示す。ここで、撮影距離の変化(例えば0.5mm)は、被写界深度(例えば1.5mm)の範囲内である。また、撮影距離の変化(例えば0.5mm)は、撮影距離(例えば100mm)と比較して十分に小さいので、撮影距離の変化に伴う画像データの縮尺の変化を無視する。したがって、図4(A)の正対画像データ4aは、図3(A)に示す基準高さでの正対画像データ3aとほぼ同じになる。これに対して、図4(B)の斜め画像データ4bは、図3(B)に示す基準高さでの斜め画像データ3bと比較して、格子点がX軸方向に平行移動したものとなる。
【0031】
ここで、格子パターンの形状が、正対画像データ4aにおける格子パターンの形状と一致するように、斜め画像データ4bを変換する。図4(C)に変換後の画像データ(変換画像データ)4cを示す。図2を用いて説明すると、格子点の位置の差分dは、d=h×tanφである。ここで、hは高さの差分、φは正対光学系の光軸12cと斜め光学系の光軸10cとがなす角度、すなわち斜め光学系の傾き角度である。
【0032】
図2乃至図4を用いて説明したように、測定対象物の高さが変化しても正対画像データ上では格子点の位置がほぼ一定であるが、変換画像データ上では高さの変化に対応して格子点の位置が移動する。また、正対画像データに写されたパターンの形状と変換画像データ中のパターンの形状は、相似する。このような条件において、測定対象物の高さは、正対画像データ上の格子点の位置と変換画像データ上の格子点の位置との差分に基づいて、求めることができる。
【0033】
以上、測定対象物上の特定の点(ここでは格子点)の位置の差分に基づいて、測定対象物の高さを測定する原理を説明した。ただし、極めて限定された条件下での高さ測定を例に説明した。すなわち、斜め画像データを構成する画素と正対画像データを構成する画素との関係が、三角関数により簡略に定められる場合を例に説明した。しかしながら、実際には、斜め画像データを構成する画素と正対画像データを構成する画素との関係がより複雑な場合や、斜め画像データを構成する画素と正対画像データを構成する画素との関係が装置毎に異なる場合がある。
【0034】
そこで実際には、図5に示すように、まず、斜め画像データを構成する画素と変換画像データを構成する画素との関係を示す画像変換パラメータであって、正対画像データに写される任意のパターンの形状と変換画像データ中の対応するパターンの形状が相似するように斜め画像データを変換するための画像変換パラメータを取得する(S1)。尚、対象物を撮像した場合、対象物上の特徴ある点の、正対画像データ上の位置と変換画像データ上の位置の差分は、対象物の高さに対応した値を持つ。そこで、位置の差分と高さとの関係を示す高さ変換情報を取得する(S2)。この高さ変換情報は、要求される測定精度の度合いによっては、取得しない場合もある。以上の工程(S1及びS2)は、以後「キャリブレーション」ともいう。次に、特徴パターンを登録する(S3)。ここで、高さを測定する対象物上にあるものと同じパターンを登録する。キャリブレーションで用いたテストパターン(例えば格子パターン)が対象物上にある場合には、そのテストパターンを登録すればよい。そして、任意の高さに位置した対象物を正対撮像装置12及び斜め撮像装置10で撮像する(S4)。次に、画像変換パラメータに基づいて、斜め画像データを変換画像データに変換する(S5)。次に、対象物が有する特徴パターン上の特定の点について、対象物の高さに対応した値を持つ、正対画像データ上の位置と変換画像データ上の位置の差分を検出する(S6)。ここで、テストパターンと異なるパターンが特徴パターンとして登録されていた場合には、その登録された特徴パターンでパターンサーチを行って、特定の点の位置を求める。次に、位置の差分に基づいて、対象物の高さを検出する(S7)。ここで、高さ変換情報が取得されていた場合には、高さ変換情報を用いて高さを検出する。
【0035】
次に、測定の前に行うキャリブレーションについて、画像変換パラメータを生成する第1のキャリブレーションと、高さ変換情報を生成する第2のキャリブレーションに分けて、説明する。
【0036】
<第1のキャリブレーション>
説明の便宜のため、格子パターンからなるテストパターンを用いてキャリブレーションを行った場合について、説明する。
【0037】
第1のキャリブレーションでは、まず、基準高さ(高さ=0)に配置したテストパターンを、正対撮像装置12及び斜め撮像装置10によってそれぞれ撮像する。図3(A)は基準高さで撮像されたテストパターンの正対画像データ3aを示し、図3(B)は斜め画像データ3bを示す。図3(A)及び図3(B)では、テストパターンの中心点(テストパターン中央の格子点)を、各画像データ3a、3bの中心に位置させている。すなわち、正対画像データ3aの中心点と斜め画像データ3bの中心点を一致させている。また、正対画像データ3a及び斜め画像データ3bにおいて、テストパターンの各格子点を結ぶ横線をX軸と平行にさせており、縦線をY軸と平行にさせている。すなわち、正対画像データ3aの格子点を結ぶ各縦線が斜め画像データ3bの格子点を結ぶ各縦線と同じ方向になるようにしており、正対画像データ3aの格子点を結ぶ各横線が斜め画像データ3bの格子点を結ぶ各横線と同じ方向になるようにしてある。また、正対画像データ3aの中心点の座標値と斜め画像データ3bの中心点の座標値を一致させている。また、正対画像データ3aの中央部分における縦方向の格子点間の間隔が、斜め画像データ3bの中央部分における縦方向の格子点間の間隔と等しくさせている。このような条件は、正対撮像装置12、斜め撮像装置10等を調整した結果得られたものであり、このような条件から外れる場合もある。例えば、中心点の位置が正対画像データ3aと斜め画像データ3bとで完全に一致しない場合もある。
【0038】
次に、複数の格子点について、正対画像データ3a上及び斜め画像データ3b上で十字マークによりサーチし、各格子点の座標を取得する。
【0039】
そして、正対画像データ3a上の格子点の座標と、斜め画像データ3b上の格子点の座標とを対応づけて、座標変換パラメータを算出する。算出した座標変換パラメータは記憶装置に保存する。さらに、座標変換パラメータに基づいて、斜め画像データ3bの各画素と変換画像データ3cの各画素との関係を示す画像変換パラメータを算出する。算出した画像変換パラメータは記憶装置に保存する。
【0040】
上述した第1のキャリブレーションの手順を、図6に示したフローチャートを参照してまとめると、次のようになる。
(a)基準となる特定の高さに配置した、特徴ある複数の点を有するテストパターンを、正対撮像装置及び斜め撮像装置で撮像する(S11)。
(b)テストパターン中の特徴ある複数の点にそれぞれ対応する斜め画像データ中の複数の画素の座標(斜め平面座標)を取得するとともに、テストパターン中の特徴ある複数の点にそれぞれ対応する正対画像データ中の複数の画素の座標(正対平面座標)を取得する(S12)。
(c)テストパターン中の特徴ある複数の点にそれぞれ対応する斜め平面座標及び正対平面座標に基づいて、斜め画像データを構成する画素の座標と正対画像データを構成する画素の座標との関係を示す座標変換パラメータを算出する(S13)。
(d)斜め画像データを構成する画素と、斜め画像データの変換後の画像データである変換画像データを構成する画素との関係を示す画像変換パラメータであって、正対画像データに写された任意のパターンの形状と変換画像データ中の対応するパターンの形状が相似するように斜め画像データを変換するための画像変換パラメータを算出する(S14)。
【0041】
<第2のキャリブレーション>
第2のキャリブレーションでは、テストパターンを高さ方向に段階的に移動させながら、図7に示す工程を順次行う。すなわち、テストパターンを高さ方向に段階的に移動させ(S21)、各高さにおいてテストパターンを正対撮像装置及び斜め撮像装置によって撮像する(S22)。各高さで撮像した斜め画像データは、第1のキャリブレーションで求められた画像変換パラメータに基づいて変換画像データに変換し(S23)、正対画像データ上で各格子点をサーチするとともに、変換画像データ上で格子点をサーチし(S24)、数式2に示すように、格子点の位置の差分を算出する(S25)。
位置の差分=変換画像データ上の格子点の位置−正対画像データ上の格子点の位置 …(数式2)
算出した高さ変換情報は、位置の差分と高さとを関連付けて記憶装置に記憶する(S26)。以上のステップ(S21乃至S26)は、テストパターンの高さ測定範囲内での移動が終了するまで行う(S27)。高さ変換情報の例を図8に示す。図8では、基準高さ(高さ=0)、基準高さより高い複数の高さ、及び、基準高さより低い複数の高さで、それぞれ格子点の位置の差分を算出した。尚、図8では、基準高さでは位置の差分が「0」であるが、必ずしも「0」でなくてもよい。
【0042】
また、図8では、位置の差分と高さとの関係が直線状になっているが、実際には直線状とはならない。それは、測定高さの変化に伴って光学系の撮像距離が変化することにより、縮尺が変化してしまう等に起因する。特に光学系の被写界深度の上下端近傍では、一般に、基準高さにおける縮尺との差が最も大きくなる。本実施形態では、キャリブレーション時に高さ変換情報を算出して記憶装置に保存しておき、測定時に高さ変換情報に基づいて高さを求めることにより、誤差が補正される。
【0043】
また、前述したように、正対光学系12aと斜め光学系10aとで測定高さに応じて縮尺に若干の差異がでる。したがって、測定高さに応じて画像データの縮尺が変化する。しかしながら、このような正対光学系12aと斜め光学系10aとの測定高さによる画像データの縮尺の差異は、パターンマッチングでは無視できる程度である。マッチングスコアを改善するため、比較する特徴パターンの大きさを変化させてパターンマッチングを行うようにしてもよい。
【0044】
<座標変換パラメータ取得>
ここで、第1のキャリブレーションでの座標変換パラメータ取得について、詳細に説明する。
【0045】
まず、前提として、図9の受光平面10b、12bには、光を受けてその光の強度に比例する電圧あるいは電流を発生する微小な受光器(この受光器の一つ一つを「画素」と呼ぶ)が一様に並べられて行列配列されている。受光平面10b、12b上で順序付けられて並べられた画素一つ一つに対応した光強度の組の集合を、「画像データ」と呼ぶ。受光平面10b、12b上で順序付けて個々の画素を識別するために、受光平面10b、12bに直交座標を設けて、この直交座標軸に沿って、起点から数えて横軸方向にi番目、縦軸方向にj番目の位置にある画素を画素[i,j]と呼ぶことにする。すなわち、画素[i,j]はi行j列の画素である。
【0046】
斜め受光平面10bと正対受光平面12bとでの両位置関係を規定するために、図10(A)及び図10(B)に示すように、両受光平面に、(x,y)座標系(以後「斜め平面座標系」という)及び(X,Y)座標系(以後「正対平面座標系」)をそれぞれ設ける。両座標系の間には、数式3及び4で与えられる関係がある。数式3及び4で与えられる関係に基づいて、斜め平面座標系と正対平面座標系との間の変換をすることを、以後、「座標変換」という。
X=(bx+by+b)/(bx+by+1) …(数式3)
Y=(bx+by+b)/(bx+by+1) …(数式4)
ここで、b(ただし、i=1、2、3、4、5、6、7、8である。)は、座標変換パラメータである。全部で8個あるので、正対受光平面上及び斜め受光平面上の4点以上の関係を知れば、解析的にbi(ただし、i=1、2、3、4、5、6、7、8である。)の全てを求めることができる。
【0047】
すなわち、図10(C)において示すように、斜め受光平面上の格子点p、q、r、sに対応する点が、正対受光平面上の点P,Q,R,Sに対応するものとして、これら8点の座標、(x,y)、(x,y)、(x,y)、(x,y)、(X,Y)、(X,Y)、(X,Y)、(X,Y)が得られれば、解析的に周知の方法でパラメータb(ただし、i=1、2、3、4、5、6、7、8である。)の全てを求めることができる。
【0048】
パラメータb(ただし、i=1、2、3、4、5、6、7、8である。)を記憶装置に記憶させておけば、斜め受光平面座標と正対受光平面座標との関係が一義的に決まることになる。すなわち、中央処理装置(CPU)により記憶装置に記憶された座標値と座標変換パラメータと上記(数式3)及び(数式4)を読み出してきて演算することにより、斜め受光平面上の位置を正対受光平面上の位置へと変換させて対応させることができる。
【0049】
尚、上述した例では、正対受光平面上及び斜め受光平面上のそれぞれに4点ずつ選択してそれぞれの対応関係から座標変換パラメータを求めたが、必ずしも上記のような4点を選択しなければならないわけではない。
【0050】
選択した複数の点の個数は、一直線上に3点以上が並ぶことがないように選び出した場合には、最小でも4点となる。また、一直線上の3点を含みこの直線外に少なくとも2点以上の点を含むように選び出した場合には、選択した複数の点の個数は最小でも5点となる。すなわち上述した条件を満たす複数の点を選択すればよい。もちろん、選択点を多くとるほど、求められる座標変換パラメータの計算精度が高くなる。
【0051】
<画像変換パラメータ取得>
ここで、第1のキャリブレーションでの画像変換パラメータ取得について、詳細に説明する。
【0052】
まず、前提として、図11を参照して撮像装置の受光平面における座標と、受光平面を構成する画素を指定するための指標について説明する。ここでは、画素は例えば行列配列されており、各画素の形状は、簡単にするために、正方形であるとし、隣接する画素の境界領域は無視できる幅しかないものとする。各画素が正方形内部において受光感度を有し、隣接する画素の境界領域は無視できる幅しかないことから、受光平面のあらゆる場所において受光感度を有しているものとして説明する。
【0053】
画素の一辺の寸法をLとして、図11において画素の中心を黒丸で示し、画素の4隅の頂点を×印で示すことにする。図11に示すようにx−y座標系をとり、座標値を(x,y)のように示す。一方、一つ一つの画素を指定するための指標を[i,j]のように示す。これらi及びjはi行目及びj列目に対応している。例えば、指標[0,0]で指定される画素の4隅の頂点の座標は、(+0.5L,−0.5L)、(+0.5L,+0.5L)、(−0.5L,+0.5L)、及び(−0.5L,−0.5L)であり、画素の中心座標は(0,0)である。一般に、指標[i,j]で指定される画素4隅の頂点の座標は、((i+0.5)L,(j−0.5)L)、((i+0.5)L,(j+0.5)L)、((i−0.5)L,(j+0.5)L)、及び((i−0.5)L,(j−0.5)L)であり、画素の中心座標は(iL,jL)である。
【0054】
また、座標値を表すxあるいはy、画素を指定するための指標値i、jあるいはk、mについて、斜め受光平面に関する値としては小文字を用いて表示するものとし、正対受光平面に関する値としては大文字を用いて表示するものとする。すなわち、斜め受光平面の座標値は(x,y)、斜め受光平面を構成する画素を指定するための指標は[i,j]あるいは[k,m]である。一方、正対受光平面の座標値は(X,Y)、正対受光平面を構成する画素を指定するための指標は[I,J]である。ここでは、正対位置は対象物の真上の位置であるから、正対画像データを「真上画像データ」ともいう。
【0055】
図12を参照して、受光平面を構成する各画素の光強度取得方法を説明する。図12には指標[i,i](ここで、p=1、2、3、4、5であり、q=1、2である)で与えられる10個の画素を拡大して表示している。この画素上に、幅をもった黒い帯状の像が結像された場合を説明する。図12中で斜線を引いた部分が黒い像の部分である。斜線で示した黒い部分には光が到達せず、それ以外の白い部分には一様な明るさの光が到達しているものとする。また、それぞれの画素が受光する光強度は、256階調にデジタル化されているものとする。すなわち、全く光が受光されない場合を0、最も明るい光を受光した場合を255としたデジタルデータとして、画素が明るさ情報を出力するように設定されているものとする。この場合、指標[i,i](ここで、p=1、2、3、4、5であり、q=1、2である。)で与えられる10個の画素が画像データの一つとして取り込むデジタル値は、
[i,j]=0、[i,j]=10、[i,j]=40、[i,j]=96、[i,j]=128、
[i,j]=20、[i,j]=0、[i,j]=0、[i,j]=0、[i,j]=0
であるとする。これらの値は、それぞれの画素において、明るい部分が占める面積に比例した値となっている。
【0056】
ここでは、簡単にするために真っ白な部分と真っ黒な部分の2つの領域からなる画像を例に説明したが、もっと複雑な中間的な明るさの領域を含む画像の場合も同様である。画素が画像データの一つとして取り込むデジタル値は、その画素上に投影される画素の明るさと、その明るさの部分が画素上で占める面積の積に比例する値となる。
【0057】
次に図13を参照して、正対画像データを取得する画素(以後、単に「正対画素」ということもある。)と、斜め画像データを取得する画素(以後、単に「斜め画素」ということもある。)との関係を説明する。図13は、斜め画素の列位置についてiからi+2の範囲に存在する画素を線で区切って示した。すなわち、左上の画素が指標[i,j]で与えられる画素、右下の画素が[i+2,j+2]で与えられる画素である。また、指標[I,J]で与えられる正対画素が、複数の斜め画素を取得する画素上に投影された画像を四角形ABCDで示した。また、以下では、指標[I,J]あるいは[i,j]等で与えられる画素を、それぞれ画素[I,J]あるいは画素[i,j]等と略記する。
【0058】
斜め画素上に投影される画素[I,J]の頂点A、B、C、及びDは、斜め受光平面上でそれぞれA((I−0.5)L,(J−0.5)L)、B((I+0.5)L,(J−0.5)L)、C((I+0.5)L,(J+0.5)L) 、D((I−0.5)L,(J+0.5)L)に存在した点である。画素[i,j]の4頂点の座標((I−0.5)L,(J−0.5)L)、((I+0.5)L,(J−0.5)L)、((I+0.5)L,(J+0.5)L) 、((I−0.5)L,(J+0.5)L)は、それぞれ正対受光平面上のA、B、C、Dで示す位置に投影される。
【0059】
次に、画像データ変換を与える数式(1)について説明する。
【0060】
Img2(I,J) = Σ[W(k,m)×Img1 (k,m)]/ΣW(k,m) …(数式1)
図13に示されているように、画素[I,J]が斜め受光平面を構成している画素上に投影される場合を考える。この場合には、Σで示される和を求める範囲は、kについてはiから(i+2)の範囲、mについてはjから(j+2)の範囲である。
【0061】
ここで、W(k,m)の意味について説明する。W(k,m)は、斜め受光平面を構成している画素[k、m]上に投影された、画素[I,J]の面積を表す。すなわち、画素[k,m]上には、画素[I,J]の一部分が投影されるが、W(k,m)は、画素[k,m]上に画素[I,J]の画像が投影されて重なる部分の面積を表す。この重なる部分の面積のことを「部分投影面積」とも称する。図14は、W(k,m)の意味について説明するために、kについてはiから(i+2)の範囲、mについてはjから(j+2)の範囲にわたって、画素[k,m]上に画素[I,J]の画像が投影されて重なる部分を斜線で示し、見やすく表示した図である。それぞれ正方形が画素[k,m]を示す。斜線部分がW(k,m)で与えられる面積を有する多角形(画素[k、m]上に画素[I,J]の画像が投影された部分投影面積の部分)を示している。
【0062】
(数式1)は、画素[I,J]が斜め受光平面を構成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjから(j+2)の範囲)に対して、W(k,m)を重みとして加重平均した値を、正対受光平面上の画素[I,J]の値(明るさに関するデジタル値)とすることを意味する。
【0063】
Img1 (k,m)は、画素[k,m]が受光した明るさに関するデジタル値(画素[k,m]の値)であり、及びW(k,m)は、画素[k,m]上での画素[I,J]の画像部分投影面積であるから、W(k,m)×Img1 (k,m)は、画素[k,m]の値にW(k,m)だけの重みを加味した値となる。Σ[W(k,m)×Img1 (k,m)]は、kについてはiから(i+2)の範囲、mについてはjから(j+2)の範囲にわたって求めた和である。また、ΣW(k,m)は、斜め受光平面に投影される、画素[I,J]の画像の総投影面積を表している。したがって、(数式1)の右辺は、画素[I,J]が正対受光平面を形成している画素上で投影される画素の範囲(kについてはiから(i+2)の範囲、mについてはjから(j+2)の範囲)に対して、W(k,m)を重みとして加重平均した値を与えている。
【0064】
次に、W(k,m)をどのようにして求めるかについて、その手順を説明する。図15は、W(k,m)の求め方の手順の説明に供する図であり、画素[i,j]についてその周辺部分を拡大した図である。画素[I,J]の4頂点が斜め受光平面上に投影される位置をABCDとする。また、正対受光平面上での画素[i,j]の4頂点をA´、B´、C´、D´とする。
【0065】
W(k,m)は以下に示す手順(工程)で求められる。
(a)四辺形A´B´C´D´の内部にA、B、C、Dの各点が含まれるか否かを調べる。
Aが含まれるのでAをピックアップする。
(b)四辺形ABCDの内部にA´、B´、C´、D´の各点が含まれるか否かを調べる。
C´が含まれるのでC´をピックアップする。
(c−1)線分A´B´と線分AB、線分BC、線分CD、線分DAの交点を調べる。
交点はない。
(c−2)線分B´C´と線分AB、線分BC、線分CD、線分DAの交点を調べる。
aが交点であるので(線分B´C´と線分ABの交点として存在する)aをピックアップする。
(c−3)線分C´D´と線分AB、線分BC、線分CD、線分DAの交点を調べる。
bが交点であるので(線分C´D´と線分DAの交点として存在する)bをピックアップする。
(c−4)線分D´A´と線分AB、線分BC、線分CD、線分DAの交点を調べる。
交点はない。
(d)ピックアップされた点(この実施の形態では4点でA、C´、a、bの順にリストに登録される)に対して一番左上の点を求める。具体的には、図15に示すようにX軸に対して45度の傾きの直線が各点を通るように一本一本それぞれ引き、Y軸とこの45度の傾きの直線との交点のY座標のうち最小のものを選び出す。Y座標のうち最小のものを選び出す理由は、受光平面上に設定する座標を、左手系座標系としたためである。このようにして第一点目の点を求める。ここではA点となる。
(e−1)A点を通る45度の傾きの直線を基準として、A点を中心にしてこの直線を時計回りに回転させて、最初に接する点を求め、これを第2点目の点とする。この場合、第2点目の点として、a点が求まる。
(e−2)次に、直線Aaをa点を中心にして時計回りに回転させて、最初に接する点を求め、これを第3点目の点とする。この場合、第3点目の点として、C´点が求まる。
(e−3)次に、直線aC´をC´点を中心にして時計回りに回転させて、最初に接する点を求め、これを第4点目の点とする。この場合、第4点目の点として、b点が求まる。
(e−4)ピックアップされた点に対して順次以上の工程を実行する。この工程によって、ピックアップされた点が一番左上から順に時計回りに並べられる。
(f)ピックアップされた点が一番左上から順に時計回りに並べられれば、四辺形の4つの頂点の座標が判明したことになるので、この4つの頂点の座標から、四辺形AaC´bの面積、すなわちW(k,m)を求めることができる。
【0066】
次に、工程(a)及び(b)において行われる、着目する点Oが四辺形の内部に含まれるか否かを調べる方法を、図17を参照して説明する。図17(A)は、O点が四辺形EFGHの内部にある場合を示す図であり、図17(B)は、O点が四辺形EFGHの外部にある場合を示す図である。四辺形EFGHのE点を出発して辺上をE点、F点、G点、H点の順に通るように動く点があるものをする。このときE点からF点に進む間に張る角度θ1をE点からF点へ向かう方向を正の方向にとって計る。同様に、F点からG点に進む間に張る角度をθ2、G点からH点に進む間に張る角度をθ3、H点からE点に進む間に張る角度をθ4として、それぞれ起点から到着点に向かう方向を正の方向にとって計るものとする。
【0067】
図17(A)に示すO点が四辺形EFGHの内部にある場合は、θ1+θ2+θ3+θ4は2πとなる。一方、図17(B)に示すO点が四辺形EFGHの外部にある場合は、θ1+θ2+θ3+θ4は0となる。また、図示していないが、O点が四辺形EFGHの辺上にある場合は、θ1+θ2+θ3+θ4はπとなる。以上説明したように、θ1+θ2+θ3+θ4を求めて、その値が、2πか、0か、あるいはπのいずれかであるかを知れば、着目するO点が四辺形EFGHの内部に含まれるか否かを調べることができる。
【0068】
尚、上述したW(k,m)を求める工程の中で、工程(a)及び工程(b)においては、ピックアップすべき点が四辺形の辺上にある場合も四辺形の内部にあるものとして扱った。
【0069】
次に図18及び図19を参照して、上述した工程(c−1)、(c−2)、(c−3)及び(c−4)において行われる、線分と線分の交点を求める場合の規約を説明する。図18には、線分同士が重ならない場合を図示してあり、図19には線分同士が重なる場合を図示してある。図18(A)に示すように線分の延長線上において交点が存在する場合は、交点が存在しないものとして扱う。交点が存在すると判断するのは、図18(B)に示すように、線分の存在する範囲内で交点が存在する場合である。図18(C)で示すように、線分の端点が交点である場合も交点が存在すると判定するものとする。図19に示す場合のように一の線分1と他の線分2とが重なる場合は、交点として2点をピックアップするものとする。
【0070】
更に、派生的な工程として以下の処理を行う。
(A)上述した工程(a)において、四辺形A´B´C´D´の内部にA、B、C、Dの各点が全て含まれない場合には、W(k,m)=0として、終了する。
(B)上述した工程(b)において、四辺形ABCDの内部にA´、B´、C´、D´の各点が全て含まれない場合には、W(k,m)=0として、終了する。
(C)上述した工程(c−1)から(c−4)までを終了すると、ピックアップされる点の数は、1個乃至2個又は3個乃至8個である。
そこで、
(C1)ピックアップされる点の数が0個乃至2個の場合には、W(k,m)=0として終了する。
(C2)ピックアップされる点の数が3個乃至8個の場合には工程(f)まで処理してW(k,m)を求める。
【0071】
図13において、真上画像用画素と斜め画像用画素との関係を図示したが、これは、四辺形(真上画像用画素の形状)と正方形(斜め画像用画素の形状)の関係を示すものである。このような関係においては、四辺形と正方形の関係が図14で示す関係になったときにピックアップされる点数は8点となり最大個数となる。図20は、真上画像用画素(四辺形)と斜め画像用画素(正方形)との関係を示す。このことから、ピックアップされる点の数の最大は、8個であることになる。
【0072】
以上説明したW(k,m)を求める手順は、一例に過ぎず、ここに記述した方法以外にも好適な手順はあり得る。しかし、いかなる手順でW(k,m)を求めるにしても、この発明に係る測定方法あるいは測定装置に適用できることは明らかである。
【0073】
上述したW(k,m)を求める手順を、図21に示したフローチャートを参照してまとめると次のようになる。
【0074】
正対受光平面を構成する画素[I,J]の4頂点が斜め受光平面に投影される位置をA、B、C、Dとし、また、斜め受光平面を構成する画素[i,j]の4頂点をA´、B´、C´、D´として、
(d)四辺形A´B´C´D´の内部にA、B、C、Dの各点が含まれるか否かを調べる(S31)。いずれも含まれない場合(N)には、W(k,m)をW(k,m)=0にし(S32)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(S33)。
(e)四辺形ABCDの内部にA´、B´、C´、D´の各点が含まれるか否かを調べる(S34)。いずれも含まれない場合(N)には、W(k,m)をW(k,m)=0にし(S35)、この手順を終了する。一方、いずれかの点が含まれている場合(Y)には含まれている点をピックアップする(S36)。
(f)次に、線分A´B´と線分AB、線分BC、線分CD、線分DAの交点、線分B´C´と線分AB、線分BC、線分CD、線分DAの交点、
線分C´D´と線分AB、線分BC、線分CD、線分DAの交点、及び、
線分D´A´と線分AB、線分BC、線分CD、線分DAの交点をそれぞれ調べピックアップする(S37)。
(g)上記工程S33、工程S36及び工程S37の工程においてピックアップされた全ての座標から、W(k,m)を求める(工程S38)。
【0075】
以上説明したように、第1のキャリブレーションにおいて、W(k,m)が画像変換パラメータとして取得される。
【0076】
<高さ測定範囲>
次に、測定可能な高さの範囲(以下「高さ測定範囲」と称する)について考察する。
【0077】
図22において、斜め光学系の被写界深度d2は、次の数式5によって表される。
d2 = l/cosφ + sl×sinφ ・・・(数式5)
ここで、lは高さ測定範囲、φは斜め光学系の傾き角度、slは斜め光学系におけるパターンのサーチ範囲、である。例えば、斜め光学系の被写界深度d2=1.5mm、高さ測定範囲l=0.5mm、傾き角度φ=30度として、サーチ範囲slを求めると、slは1.845mmとなる。ここで、サーチ範囲slを大きくしようとすると、斜め光学系の光軸10cが測定対象物の面に斜交しているので、斜め光学系の被写界深度が大きくなければならず、例えば角度φ=30度とした場合、斜め光学系の全視野でサーチパターンを探索可能とするのは現実的でない。そこで、本実施形態では、サーチ範囲slを限定し、サーチ範囲sl内で特徴パターンを探索するようにしている。
【0078】
尚、正対光学系の倍率と斜め光学系の倍率とが同じ場合を例に説明したが、本発明は正対光学系の倍率と斜め光学系の倍率とが異なる場合を含む。図22では、正対光学系12aの被写界深度Lに対して高さ測定範囲lがとても限定されている。高さの測定範囲を広くとりたい場合には、斜め方向の斜め光学系の倍率を正対方向の正対光学系の倍率より小さくする。斜め光学系の倍率を0.5倍にした場合、倍率が1倍の場合と比較して、撮像距離の範囲(ワーキング距離)は1.5倍程度、被写界深度は2.5倍程度長くなり、さらに、画素の解像度は2倍となる。斜め光学系の倍率を0.5倍にした場合、精度が1/2になるのは当然のことであるが、XY方向のサーチ範囲と高さ測定可能範囲とが大きく改善される。
【0079】
<測定装置>
測定装置の例を図23に示す。図23において、照明装置14は、正対撮像装置12の光軸を対称軸として、斜め撮像装置10の光軸と線対称となる軸上に配置される。XYZθ装置20は、測定対象物をXY平面上、Z方向(高さ方向)及びθ軸方向(回転方向)で自在に移動させる装置である。
【0080】
画像取得部31は、正対撮像装置12から正対画像データを取得し、斜め撮像装置10から斜め画像データを取得する。画像変換パラメータ取得部41は、斜め画像データを構成する画素と変換画像データを構成する画素との関係を示す画像変換パラメータであって、正対画像データに写された任意のパターンの形状と変換画像データ中の対応するパターンの形状が相似するように斜め画像データを変換するための画像変換パラメータを算出する。高さ変換情報取得部42は、位置の差分と高さとの関係を示す高さ変換情報を生成する。画像データ変換部43は、斜め画像データを変換画像データに変換する。画像サーチ部44は、画像データ上で、特徴パターンや、特徴ある点をサーチする。位置差分検出部45は、測定対象物上の特徴ある点について、正対画像データ上の位置と変換画像データ上の位置の差分を検出する。高さ検出部46は、高さ変換情報に基づいて、位置の差分を高さに変換する。画像データ出力部47は、画像データを出力する。
【0081】
XYZθ制御部51は、XYZθ装置20を制御して、測定対象物の搬送及び位置制御を行う。また、XYZθ制御部51は、対象物の高さが一定となるように前記対象物の高さを制御する。厚さ検出部52は、板状の測定対象物について厚さを検出する。具体的には、測定対象物を載置した平面の高さを測定するとともに、測定対象物の表面の高さを測定し、これらの2つの高さの差分を厚さとして検出する。弛み検出部53は、弛みを持つ測定対象物の弛みを検出する。XYZθ調整部54は、XYZθ装置20のX、Y、Z及びθ方向の調整を行う。
【0082】
記憶装置60は、座標変換パラメータ、画像変換パラメータ、高さ変換情報等の各種情報を記憶する。
【0083】
なお、画像変換パラメータ取得部41、高さ変換情報取得部42、画像データ変換部43、画像サーチ部44、位置差分検出部45、高さ検出部46、画像データ出力部47、XYZθ制御部51、厚さ検出部52、弛み検出部53、及びXYZθ調整部54は、中央処理装置(CPU)により構成されている。
【0084】
(第1の実施例) 本発明の測定方法を、オートフォーカスの代替として、高さ制御処理に適用した場合について説明する。この高さ制御処理は、例えば、Zテーブルを有した半導体製造装置において実施される。ウエハ等の半導体基板(測定対象物)はZ方向(以後「高さ方向」という)に移動自在なZテーブルに載置され、測定対象物のZ座標(高さ)が一定に保たれる。
【0085】
まず、実際の高さ設定処理に先立って、測定対象物の表面の特徴パターンが、登録される。特徴パターンとしてFiducialマークが登録される場合もある。このような特徴パターンは、正対撮像装置によって、測定対象物と正対する方向から撮像される。また、測定対象物の設定すべき高さ(以下「設定高さ」と称する)が予め指定される。測定対象物の厚さが指定された場合には、指定された厚さを、予め決められた特定の高さに加算して、設定高さとする。また、特徴パターンを探索するための概略のXY座標が指定される。
【0086】
実際の高さ設定処理は、図24に示すように行われる。図24において、まず、測定対象物がZテーブルに載せられ、測定対象物が予め指定された概略のXY座標に来るように、ZテーブルをXY移動させる(S101)。測定対象物の表面の特徴パターンがサーチ範囲内にない場合には、特徴パターンが正対光学系の真下になるように、測定対象物をXY平面上で移動させる(S102)。次に、前述した本発明の測定方法によって、測定対象物のZ座標(高さ)を測定する(S103)。次に、測定した高さと設定高さとの差異を判定する(S104)。測定した高さと設定高さに差異がある場合には、その差異の分だけZテーブルを高さ方向で移動させ(S105)、再び測定対象物の高さを測定し(S103)、測定した高さと設定高さとの差異を判定する(S104)。Zテーブルの繰り返し精度が十分良い場合には、ほぼ一回のZテーブル移動で、高さの差異がないと判定され、ループが終了する。
【0087】
また、本発明の測定方法は、ウエハに代表される表面にパターンを持つ半導体基板の厚さを測定する場合に適用することができる。具体的には、まず、半導体基板を載せるZテーブルの表面の高さを本発明の測定方法で測定する。次に、半導体基板の表面の高さを本発明の測定方法で測定する。そして、半導体基板の表面の高さとZテーブルの表面の高さとの差分により、半導体基板の厚さを算出する。
【0088】
(第2の実施例) 本発明の測定方法を、弛みがある測定対象物の弛み測定処理に適用した場合について説明する。
【0089】
弛みがあるシート(測定対象物)の例を図25に示す。図25のシート200は、弛みが1mmを超える。尚、オートフォーカスでは、一般に被写界深度の浅い光学系(例えば50μm)が用いられる。したがって、図25のシート200の弛みを測定しようとすると、シート200の被測定面が被写界深度を超えて移動する状態が生じ、このような状態では正しく結像されない(いわゆる焦点ボケとなる)ので、結局、弛みを測定することができない。これに対して、本発明の測定方法では、弛みの測定範囲(例えば0mmから1.5mmまで)に対応した被写界深度(例えば1.5mm)の光学系を用いることができる。
【0090】
まず、実際の弛み測定に先立って、弛み測定対象のシート200は、図25に示すように、XYZ各方向に自在に移動可能な吸着機構210に吸着される。また、弛み測定のため高さ測定位置に付された特定のマーク(Fiducialマーク等)が、特徴パターンとして予め登録される。高さ測定位置が複数ある場合には、複数の測定位置分の特徴パターンが登録される。このような特徴パターンの登録では、正対撮像装置によって特徴パターンが撮像される。また、シートに弛みがあるといっても、その弛みの概略値は測定前に予め分かっている(現場において目視による測定で得ることもできる)ので、概略値が予め指定される。また、特徴パターンを探索するための概略のXY座標が予め指定される。
【0091】
実際の弛み測定処理は、弛みの概略値に基づいてシートの測定面が高さ測定範囲内に入るように吸着機構210をZ移動させた後、図26に示す処理を行う。図26において、シートが予め指定された概略のXY座標に来るように、吸着機構210をXY移動させる(S201)。シート200上の特徴パターンがXY平面上のサーチ範囲内にない場合には、特徴パターンが正対光学系の真下になるように、シート200をXY平面上で移動する(S202)。次に、前述した本発明の測定方法によって、特徴パターンがある位置でシート200の高さを測定する(S203)。同時に当該位置のXY平面座標も求める。次に、測定した高さと設定高さとの差異を判定する(S204)。測定した高さが測定範囲内である場合には、当該位置の高さ測定を終了し、他に特徴パターンがある場合には次の位置でシートの高さを測定する。測定された高さが測定範囲外である場合や、変換画像データ上で特徴パターンが見つけられなかった場合には、測定範囲分だけ吸着機構を高さ方向で移動させる(S205)。
【0092】
以上説明した弛み測定処理によれば、大きな弛み(例えば1mm以上)があるシートであっても、弛みの測定範囲(例えば1.5mmまで)に対応した被写界深度(例えば1.5mm)の光学系を用いて弛みを測定することができ、しかも、数回のZ移動で弛みを測定することができる。
【0093】
(第3の実施例) 本発明の測定方法を、XY機構の上にθ機構を搭載するXYθ機構のθ軸調整に適用した場合について説明する。図27はXYθ機構の例を示す。図27において、θ軸が、X軸及びY軸と直交するように、調整する。
【0094】
図28はθ軸調整の概略処理フローを示す。図28において、まず、θ軸とともに回転するように配置されたθ軸テーブルを、XY平面と水平になるように調整する(S310)。図29は、図27のθ軸傾き方向の断面301であって、XY平面と水平に調整された状態のθ軸テーブル310を示す。このようにθ軸テーブル310がXY平面と水平に調整された状態では、θ軸300に垂直な面302とθ軸テーブル310とがなす角度は、θ軸300の傾き角度φに等しい。θ軸テーブル310は、図30(A)及び(B)に示すように、円盤状であり、格子パターンからなる。このような格子パターン上の複数の格子点のうちで、θ軸テーブル310の中心に配置され、θ軸300の回転中心位置に位置合わせする格子点311を以後「回転中心格子点」と称する。また、「回転中心格子点」311から離れた位置(ここではθ軸テーブル310の外周近傍)に配置され、θ軸調整のためにXYZ各座標が測定される格子点312を以後「θ軸調整用格子点」と称する。
【0095】
次に、θ軸テーブル310を回転させながら、θ軸調整用格子点312のXYZ座標を測定し、θ軸の傾きを検出する(S320)。このθ軸傾き検出処理(S320)の詳細フローを図31に示す。
【0096】
図31において、まず、θ軸の回転中心位置を検出し(S321)、θ軸300の回転中心位置とθ軸テーブル310の回転中心格子点311とを位置合わせする(S322)。図32は、θ軸を回転しないで撮像した回転角度0度画像、図33(A)は、所定角度θ1だけ反時計回りにθ軸を回転して撮像した反時計回り回転画像、図33(B)は、所定角度θ2だけ時計回りにθ軸を回転して撮像した時計回り回転画像である。また、図34は、図32、図33(A)及び図33(B)にそれぞれ示した3つの画像を重ね合わせた画像である。具体的には、この重ね合せ画像を表示して、マウス等のポインティングデバイスで概略の回転中心位置を指定させる。そして、図35(A)の回転角度0度のパターン、図35(B)の反時計回り回転のパターン及び図35(C)の時計回り回転のパターンを、それぞれ図32の回転角度0度画像、図33(A)の反時計回り回転画像、及び図33(B)の時計回り回転画像でそれぞれ探索し、複数の格子点の座標値を取得する。そして、対応のとれる格子点の座標値を用いて、最小二乗法により、回転中心位置(Xc,Yc)を求める。尚、ここでは、反時計回り及び時計回りの両方で回転させたが、反時計回り及び時計回りの何れか一方だけで回転中心位置を求めてもよい。
【0097】
次に、θ軸調整用格子点312を正対光学系の真下に移動させて、θ軸調整用格子点312のXYZ座標を測定する(S323)。ここで、θ軸調整用格子点312のXY座標は、正対撮像装置で撮像した正対画像データに基づいて測定する。また、θ軸調整用格子点312のZ座標は、本発明の測定方法にしたがって、正対撮像装置で撮像した正対画像データと斜め撮像装置で撮像した斜め画像データとに基づいて測定する。
【0098】
そして、θ軸を一定角度回転させ、θ軸調整用格子点312を正対光学系の真下に移動させてθ軸調整用格子点312のXYZ座標を測定する(S324)。ここでθ軸調整用格子点312のXYZ座標測定(S324)は一定角度ずつ繰り返し行われ、2π回転したか判定する(S325)。図29に示す状態からθ軸がπ回転した時、θ軸テーブルは図36に示す状態となる。全部で2π回転した時、図37に示すようなθ軸の傾きを示すデータが得られる(S326)。ここで、θ軸300の傾きは、傾きの方向303及び傾きの大きさ304によって表される。傾きの方向303は、θ軸調整用格子点312が最も低くなった時のθ軸回転角度から得られ、傾きの大きさ304は、θ軸調整用格子点312の高さの最大値と最小値の差から得られる。
【0099】
このようなθ軸傾き検出の後、θ軸の傾きが許容範囲内であるか否かを判定する(図28のS330)。許容範囲内でない場合、θ軸の据付をメカ的に調整し(S340)、再びθ軸テーブルを水平に調整し(S310)、θ軸の傾きを検出し(S320)、θ軸の傾きが許容範囲内であるか否かを判定する(S330)。許容範囲内である場合には、θ軸調整処理を終了する。
【0100】
以上、θ軸を2π回転してθ軸の傾きを測定した場合について説明したが、θ軸を2π回転できない場合もある。θ軸を2π回転できないがπ(180度)回転できる場合には、図38に示すように、回転中心格子点311に対して点対称の位置にある2つのθ軸調整用格子点312、313を用いる。XY平面と水平に調整された、θ軸の回転角度が0度のときのθ軸テーブルを図39(A)に示し、θ軸の回転角度が180度のときのθ軸テーブルを図39(B)に示す。θ軸を180度内で回転させながら2点のθ軸調整用格子点312、313のXYZ座標値を測定するとともに、θ軸測定範囲外における2点のθ軸調整用格子点312、313のXYZ座標値を推定することにより、図40に示すデータが得られる。図40において、第1のθ軸調整用格子点312及び第2のθ軸調整用格子点313のZ座標は、θ軸の回転角度が0度のときには、θ軸テーブル310がXY平面に水平に調整されているので、一致する。θ軸が180度回転したときには、第1のθ軸調整用格子点312のZ変位及び第2のθ軸調整用格子点313のZ変位は最大値になる。第1のθ軸調整用格子点312のZ変位範囲3121及び第2のθ軸調整用格子点313のZ変位範囲3131を図40に示した。
【0101】
尚、図40に示すデータは、2つのθ軸調整用格子点312、313を連ねる直線がθ軸の傾き方向と一致する場合に得られるものであり、2つのθ軸調整用格子点312、313を連ねる直線が回転θ軸の傾き角度と不一致の場合には、図41に示すデータとなる。図41において、第1のθ軸調整用格子点312のZ変位範囲3122及び第2のθ軸調整用格子点313のZ変位範囲3132は、第1のθ軸調整用格子点312と第2のθ軸調整用格子点313を連ねる線がθ軸の傾き方向に一致しているとき(図中の縦の破線に対応する角度で)、最大値になる。
【0102】
次に、θ軸の回転可能範囲が180度より小さい場合について説明する。このような場合、図42に示すように、4点のθ軸調整用格子点312、313、314、315を選択し、θ軸をθ軸測定範囲(図43の306)内で回転させながら、4点のθ軸調整用格子点312、313、314、315のXYZ座標値を測定すると、図43の実線で示したデータが得られる。図43において、第1のθ軸調整用格子点312のZ変位量を3120、第2のθ軸調整用格子点313のZ変位量を3130、第3のθ軸調整用格子点314のZ変位量を3140、第4のθ軸調整用格子点315のZ変位量を3150でそれぞれ示す。尚、図43は、説明の便宜のため、θ軸調整用格子点を連ねる線(第1のθ軸調整用格子点312と第2のθ軸調整用格子点313を連ねる線)がθ軸の傾き方向に一致した場合を示している。
【0103】
4点のθ軸調整用格子点312、313、314、315を用いたθ軸傾き検出(図28のS320に相当する)の詳細フローを図44に示す。図44において、まず、θ軸の回転中心位置を検出し(S321)、θ軸300の回転中心位置とθ軸テーブル310の回転中心格子点311とを位置合わせする(S322)。そして、θ軸調整用格子点312、313、314、315を順に正対光学系の真下に移動させて、θ軸調整用格子点312、313、314、315のXYZ座標をそれぞれ測定する(S3231)。さらに、θ軸を一定角度回転させ、θ軸調整用格子点312、313、314、315を順に正対光学系の真下に移動させて、θ軸調整用格子点312、313、314、315のXYZ座標をそれぞれ測定する(S3241)。ここでθ軸調整用格子点312、313、314、315のXYZ座標測定(S3241)は一定角度ずつ繰り返し行われ、θ軸の測定範囲306を超えたか判定する(S3251)。θ軸の測定範囲306を超えた場合には、Z方向変位量の最大値及び最小値となる点があるか否か判定し(S3252)、最大値及び最小値となる点がない場合には、θ軸調整用格子点を回転させる(S3271)。例えば、手などでθ軸テーブルを回転させることにより、θ軸調整用格子点を回転させる。そして、工程S321乃至S3252を繰り返す。最大値及び最小値となる点がある場合には、θ軸の傾きの方向及び大きさを検出する(S3261)。
【0104】
このような図44に示した処理フローは、θ軸調整用格子点を連ねる線がθ軸の傾き方向に不一致の場合にも適用することができる。
【0105】
図31および図44では、θ軸のXY平面での傾き方向を求めることを基本とした。しかしながら、θ軸のXY平面での傾き方向を求めることなく調整することも出来る。θ軸可動範囲が大変せまい場合には、このような調整方法のほうが簡単となる。以下では、θ軸可動範囲がせまいとして説明する。まずθ軸テーブルをXY平面と水平になるように調整する。次に、θ軸を最大+方向に回転し、θ軸調整用格子点312、313、314、315のXYZ座標を測定する。続いてθ軸を最大−方向に回転し、θ軸調整用格子点312、313、314、315のXYZ座標を測定する。このようにして3回測定された4つのθ軸調整用格子点312、313、314、315に対するZ座標値が、装置の仕様書上の精度を満足すれば、調整を終了する。仕様書上の精度を満足しなければ、3回の測定値から、θ軸のXY平面での傾き方向とその方向での傾きの大きさを推定して、それを補正して再度同様の作業をおこなう。
【0106】
(第4の実施例) 本発明の測定方法を、XY機構の上にZ機構を搭載するXYZ機構のZ軸調整に適用した場合について、説明する。図45はXYZ機構の例を示す。図45において、Z軸方向が、X軸方向及びY軸方向と直交するように、調整する。ここで、Z軸調整とは、Z軸テーブルの上面をXY機構のXY平面に対して水平にする調整のことである。Z軸自身のピッチング及びヨーイングは予め調整されているものとする。
【0107】
Z軸調整は、図46に示す調整用パターン410を、Z軸テーブル上に載置して行う。調整用パターン410上の四隅位置にはZ軸調整用格子点411乃至414が設けられている。Z軸調整は、具体的には、Z軸テーブルをZ軸方向で移動させ、Z軸調整用格子点411乃至414それぞれの変位量を測定し、4つの調整用格子点の変位量が一定となるように調整することにより達成される。
【0108】
Z軸調整前の状態を図47に示す。Z軸テーブルに載置した調整用パターン410の面がXY機構のXY平面402に対して傾いている。図47においてZ方向と光軸方向の間の角度は大変小さい。光軸方向に対して幾何学的に、ほぼ同一位置で測定される点では、Z方向と光軸方向の長さの差異は大変小さい。図47のようにXYテーブルを移動させて、光学系に対してほぼ同一位置で測定すると、Z方向の差異として高さを検出することが出来る。図48はZ軸座標の測定方法を示すフローチャートである。ここで、Z軸方向の可動範囲は長く(例えば30mm)、光学系の被写界深度長(例えば1mm)単位で区間分けされている。
【0109】
図48に示す測定の実施に先立って、XYZ機構とは別に、XY平面に垂直な方向で移動可能な軸(光学系取付軸)を設置し、この光学系取付軸に光学系を取り付ける。この光学系取付軸の可動範囲は、Z軸の可動範囲より長いものとする。また、Z軸テーブルを、Z軸の可動範囲の最下点に移動させる。そして、図48に示す測定を行う。
【0110】
図48において、Z軸調整用格子点が、光学系の被写界深度の下端に位置するように光学系を移動する(S401)。次に、あるひとつのZ軸調整用格子点(例えば第1のZ軸調整用格子点411)に注目し、この注目格子点411のX、Y、Z座標を測定する(S402)。ここでの測定値を(X1,Y1,Z1)とする。次に、Z軸テーブルを被写界深度長(1mm)だけ上に移動させて(S404)、注目格子点411のX、Y、Z座標を測定する(S405)。ここでの測定値を(X2,Y2,Z2)とする。この第1区間の変位量として(X2−X1,Y2−Y1,Z2−Z1)を算出する(S406)。次に、光学系を被写界深度長(1mm)だけ上に移動させて(S407)、注目格子点411のX、Y、Z座標を測定する(S408)。ここでの測定値を(X3,Y3,Z3)とする。再び、Z軸テーブルを被写界深度長(1mm)だけ上に移動させて(S404)、注目した格子点のX、Y、Z座標を測定する(S405)。この第2区間の変位量として(X4−X3,Y4−Y3,Z4−Z4)を算出する(S406)。ステップS404乃至ステップS408は、Z軸の可動範囲の全区間での変位量取得が終了したと判定される(S403)まで行われる。そして各区間の変位量を積算すれば、Z軸の可動範囲の最下点と最上点との差異が得られる。尚、説明の便宜上、一つの格子点に注目して測定を行ったが、複数の格子点に注目して測定し、統計処理すれば、精度を良くすることもできる。例えば、各Z軸調整用格子点411、412、413、414へのXY移動を伴いながら、各Z軸調整用格子点411、412、413、414のX、Y、Z座標を測定する。図47の破線は第2のZ軸調整用格子点412へのXY移動をしたときのZ軸テーブル410´を示す。尚、Z軸調整用格子点は、少なくとも測定範囲420内に移動して、座標値を測定する。
【0111】
このようにして測定された、Z軸可動範囲での測定データは、Z軸傾きの調整に使用することができる。また、Z軸傾きを調整しないで、測定データを補正値として使用することもできる。
【0112】
尚、第3の実施例においてXYθ機構のθ軸調整を説明し、第4の実施例においてXYZ機構のZ軸調整を説明したが、これらの調整方法は、XYZθ機構を組み立てる際に、XYZ機構へのθ機構の搭載、及び、XYθ機構へのZ機構の搭載いずれにおいても同様に適用できる。
【0113】
【発明の効果】
以上説明したように本発明によれば、従来のオートフォーカスを用いた場合と比較して、処理時間を低減するとともに、高さの測定可能範囲を拡大することができる。
【図面の簡単な説明】
【図1】本発明の測定方法において対象物を正対方向及び斜め方向から撮像する様子の説明に供する図である。
【図2】対象物の撮像される部分の断面を示す図である。
【図3】(A)、(B)及び(C)は、基準高さの対象物を撮像して得た正対画像データ、斜め画像データ、及び変換画像データの例をそれぞれ示す図である。
【図4】(A)、(B)及び(C)は、基準高さより低い高さの対象物を撮像して得た正対画像データ、斜め画像データ、及び、変換画像データの例をそれぞれ示す図である。
【図5】本発明の測定方法の一実施の形態における処理の概略を示すフローチャートである。
【図6】第1のキャリブレーションの処理の概略を示すフローチャートである。
【図7】第2のキャリブレーションの処理の概略を示すフローチャートである。
【図8】高さ変換情報の例を示す図である。
【図9】対象物表面に形成された格子パターンを正対方向及び斜め方向から撮像する様子の説明に供する図である。
【図10】(A)、(B)及び(C)は、格子パターンを撮像して得た斜め画像データ、正対画像データ、及びこれらの重ね合せを示す図である。
【図11】画像データを構成する画素を指定するための指標の説明に供する図である。
【図12】画素値の説明に供する図である。
【図13】基準高さにおける正対画像データを構成する画素と斜め画像データを構成する画素との関係を示す図である。
【図14】W(k,m)の説明に供する図である。
【図15】W(k,m)の求め方の説明に供する図である。
【図16】W(k,m)を求めるためにピックアップされた点の説明に供する図である。
【図17】(A)及び(B)は、点Oと四辺形EFGHとの関係の説明に供する図である。
【図18】(A)、(B)及び(C)は、それぞれ線分を線分との交点の有り無しの判定の説明に供する図である。
【図19】線分と線分とが重なる場合の説明に供する図である。
【図20】正対画像データを構成する画素と斜め画像データを構成する画素の関係の説明に供する図である。
【図21】W(k,m)を求めるフローチャートである。
【図22】光学系の被写界深度とサーチ可能範囲との関係の説明に供する図である。
【図23】本発明の測定装置の一実施の形態を示す要部ブロック図である。
【図24】第1実施例の高さ制御方法を示す概略フローチャートである。
【図25】測定対象物の例としての弛みを持つシートを示す図である。
【図26】第2実施例の弛み測定方法を示す概略フローチャートである。
【図27】θ軸調整前のXYθ機構の概略を示す図である。
【図28】第3実施例のXYθ機構調整方法を示す概略フローチャートである。
【図29】θ軸テーブルの例の断面図であって、θ軸調整用格子点をひとつ選択した場合の回転角度0度の状態を示す図である。
【図30】(A)及び(B)は、θ軸調整用格子点をひとつ選択した場合のθ軸テーブルの例を示す図である。
【図31】第3実施例のXYθ機構調整方法におけるθ軸傾き検出処理の詳細を示すフローチャートである。
【図32】回転角度0度の格子パターンの画像データを示す図である。
【図33】(A)及び(B)は、反時計回り回転した格子パターンの画像データ、及び時計回り回転した格子パターンの画像データを示す図である。
【図34】回転角度0度の格子パターン、反時計回り回転したの格子パターン、及び、時計回り回転したの格子パターンを重ね合わせた画像データを示す図である。
【図35】(A)、(B)及び(C)は、θ軸回転中心の位置合わせに用いるパターンを示す図である。
【図36】θ軸テーブルの断面図であって、θ軸調整用格子点をひとつ選択した場合の180度回転した状態を示す図である。
【図37】θ軸調整用格子点をひとつ選択した場合のθ軸調整用格子点の高さの変位を示す図である。
【図38】θ軸調整用格子点を2つ選択した場合のθ軸テーブルの例を示す図である。
【図39】(A)及び(B)はθ軸調整用格子点を2つ選択した場合のθ軸テーブルの断面図である。
【図40】θ軸調整用格子点を2つ選択した場合のθ軸調整用格子点の高さの変位を示す図である。
【図41】θ軸の傾きの方向に不一致のθ軸調整用格子点を2つ選択した場合のθ軸調整用格子点の高さの変位を示す図である。
【図42】θ軸調整用格子点を4つ選択した場合のθ軸テーブルの例を示す図である。
【図43】θ軸調整用格子点を4つ選択した場合のθ軸調整用格子点の高さの変位を示す図である。
【図44】θ軸調整用格子点を4つ選択した場合のθ軸傾き検出処理の詳細を示すフローチャートである。
【図45】Z軸調整前のXYZ機構の概略を示す図である。
【図46】Z軸調整用格子点を4つ選択した場合のZ軸テーブルの例を示す図である。
【図47】Z軸が傾いた状態のZ軸テーブルを示す断面図である。
【図48】本発明を適用した第4実施例のXYZ機構調整方法を示すフローチャートである。
【図49】従来の測定方法に用いるオートフォーカスの説明に供する図である。
【図50】従来のXYZθ機構の調整の説明に供する図である。
【符号の説明】
10…斜め撮像装置、10a…斜め光学系、10b…斜め受光平面、12…正対撮像装置、12a…正対光学系、12b…正対受光平面、14…照明装置、41…画像変換パラメータ取得部、42…高さ変換情報取得部、43…画像データ変換部、44…画像サーチ部、45…位置差分検出部、46…高さ検出部、51…XYZθ制御部(高さ制御手段)、52…厚さ検出部、53…弛み測定部、54…XYZθ調整部(XYZ調整部及びXYθ調整部)、60…記憶装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a measuring method and a measuring apparatus, and more particularly to a measuring method and a measuring apparatus using a stereo optical system, and a semiconductor manufacturing apparatus and a transport line using these methods and apparatuses.
[0002]
[Prior art]
Conventionally, autofocus has been used not only in cameras but also in various devices such as semiconductor manufacturing devices (for example, see Patent Document 1).
[0003]
Autofocus is a method in which an object is imaged at different distances while gradually changing the distance between the object and the optical system, and a distance at which the contrast of image data is highest is obtained. Such autofocus has been used not only for focusing but also for various purposes such as when keeping the height of various objects such as wafers constant or when measuring the thickness.
[0004]
[Patent Document 1]
JP 2003-84189 A
[0005]
[Problems to be solved by the invention]
However, when the autofocus is used, there are the following problems.
(1) In autofocus, it takes a long time to image the object a plurality of times while gradually changing the distance between the object and the optical system. In the example shown in FIG. 49, when searching for the distance at which the contrast is the highest, the object is imaged at each distance indicated by the cross, and the object is imaged a total of seven times. Therefore, it takes seven imaging times.
(2) In autofocus, an optical system having a shallow depth of field is used due to its principle, so that the measurable range is generally narrowed by the shallow depth of field. Specifically, when measuring the height of the object, the measurable range of the height is narrowed.
(3) In the autofocus, when the surface of the object has irregularities, the measurement is generally not performed correctly. For example, due to the unevenness of the surface, a curve having only one peak as shown in FIG. 49 cannot be obtained, and the curve becomes a curve having two or more peaks, and the measurement is not performed correctly.
[0006]
Further, there is a need for a technique for measuring the slack of a sheet (object) having a slack as shown in FIG. However, the sheet shown in FIG. 25 has a slack of 1 mm or more, and it is difficult to measure the slack by an autofocus technique using an optical system having a shallow depth of field (for example, about 50 μm).
[0007]
In an XYZθ mechanism (a mechanism that enables movement in the Z-axis direction and rotation direction in addition to movement in the X-axis direction and Y-axis direction), adjustment is generally performed by a laser length measuring device or an image processing device. There is such a problem. When a laser length measuring device is used, generally, the laser length measuring device must be arranged three-dimensionally, and adjustment is performed in units of one axis, which is complicated and requires a long working time. When an image processing apparatus is used, the straightness and the orthogonality of the X-axis and the Y-axis can be adjusted in a short time based on image data obtained by using a calibration sheet from above. On the other hand, as shown in FIG. 50, the inclination angle φ of the Z axis (or θ axis) appears as a difference in height, and therefore cannot be easily adjusted. Therefore, there is a need for an adjustment method that can easily and quickly adjust the XYZθ mechanism.
[0008]
The present invention has been made in view of such circumstances, and a measuring method and a measuring device for reducing a processing time and expanding a measurable range and these methods, as compared with a case where a conventional autofocus is used. An object of the present invention is to provide a semiconductor manufacturing apparatus and a transport line using the apparatus and the apparatus.
[0009]
Another object of the present invention is to enable measurement of various objects such as irregularities on the surface, various measurements such as measurement of sheet slackness, and easy adjustment of complicated mechanisms such as the XYZθ mechanism. It is to be.
[0010]
[Means for Solving the Problems]
The present invention relates to a measuring method for measuring the height of an object by using an oblique imaging unit that images an object located at an arbitrary height in an oblique direction and a facing imaging unit that images an object from a direction facing the object. An apparatus, a semiconductor manufacturing apparatus and a transport line using these methods and apparatuses.
[0011]
Here, the height of the target object may be obtained as an absolute distance between the imaging optical system of the directly-facing imaging means and the target object, but in general, a specific height serving as a reference is used as a reference. Is calculated as a relative distance.
[0012]
First, an image conversion parameter indicating a relationship between pixels forming the oblique image data and pixels forming image data obtained by converting the oblique image data (hereinafter referred to as “converted image data”), An image conversion parameter for converting the oblique image data so that the shape of the arbitrary pattern and the shape of the pattern in the converted image data are similar to each other is obtained. Next, directly-facing image data obtained by imaging the object located at an arbitrary height by the directly-facing imaging means and oblique image data obtained by imaging by the oblique imaging means are acquired. Next, the oblique image data of the target object is converted into converted image data based on the image conversion parameters. Next, a difference between a position on the directly-facing image data and a position on the converted image data is detected for a specific point on the object. The difference between the detected positions has a value corresponding to the height of the target object. Next, the height of the target object is detected based on the difference between the positions.
[0013]
In carrying out the present invention, it is preferable to obtain the image conversion parameters by the following procedure.
(A) A test pattern having a plurality of characteristic points arranged at a specific height serving as a reference is imaged by a directly-facing imaging unit and an oblique imaging unit.
(B) Obtain the coordinates of a plurality of pixels in the diagonal image data respectively corresponding to a plurality of characteristic points in the test pattern (hereinafter referred to as “diagonal plane coordinates”), and respectively correspond to the characteristic points. The coordinates of a plurality of pixels in the directly facing image data (hereinafter referred to as “facing plane coordinates”) are acquired.
(C) Based on the oblique plane coordinates and the facing plane coordinates of a plurality of characteristic points in the test pattern, the relationship between the coordinates of the pixels constituting the oblique image data and the coordinates of the pixels constituting the facing image data is calculated. The coordinate conversion parameter shown is calculated.
(D) Calculate image conversion parameters based on coordinate conversion parameters at a specific height serving as a reference.
[0014]
The image conversion parameter once calculated in this manner may be stored in the storage device, and may be obtained from the storage device next time.
[0015]
In implementing the present invention, in image data conversion, it is preferable to obtain the light intensity Img2 (I, J) of the pixel [I, J] constituting the converted image data according to (Equation 1).
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (Equation 1)
Here, assuming that I, J, k and m are integers, Img1 (k, m) is the light intensity of the pixel [k, m] at the k-th row and the m-th column of the oblique image data. W (k, m) is an image conversion parameter, which is a pixel at the I-th row and the J-th column on the light receiving plane of the directly-facing imaging means (hereinafter referred to as “facing light receiving plane”) at a specific reference height. When [I, J] is projected on the light receiving plane of the oblique imaging means (hereinafter, referred to as “oblique light receiving plane”), it represents the area projected on the pixel [k, m] of the oblique light receiving plane. Further, the range for calculating the sum of the right side of the equation (1) is such that the pixel [I, J] on the directly-facing light receiving plane projected on the oblique light receiving plane is positioned above the pixel [k, m] on the oblique light receiving plane. If any part is projected, it is assumed that it covers all the projected pixels [k, m].
[0016]
In practicing the present invention, it is preferable that the detection of the height of the object is performed based on the height conversion information acquired by the following procedure.
(E) A test pattern having a plurality of characteristic points is moved stepwise in the height direction.
(F) At each height, the test pattern is imaged by the directly-facing imaging means and the oblique imaging means.
(G) Oblique image data of the test pattern imaged at each height is converted based on the coordinate conversion parameters and the image conversion parameters.
(H) For a specific point on the test pattern, a difference between the position of the test pattern on the directly facing image data and the position of the test pattern on the converted image data is detected.
(I) Generate height conversion information indicating the relationship between each height of the test pattern and the difference between each position.
[0017]
The height conversion information once generated as described above may be stored in the storage device, and may be acquired from the storage device next time.
[0018]
In practicing the present invention, it is preferable that the illuminating means is provided on an axis that is line-symmetric with the optical axis of the oblique imaging means, with the optical axis of the directly facing imaging means as the axis of symmetry.
[0019]
Further, it is preferable to include a height control means for controlling the height of the object so that the height of the object measured by the measuring device of the present invention is constant.
[0020]
Further, in a semiconductor manufacturing apparatus provided with a cassette for stocking a plurality of semiconductor substrates and transport means for removing and transporting the semiconductor substrates one by one from the cassette, it is preferable to include the measuring device or the height control device of the present invention. is there. Here, the object is a semiconductor substrate taken out of the cassette. A typical semiconductor substrate is a wafer.
[0021]
Further, it is preferable that the measuring device or the height control device of the present invention be provided in a transfer line including a transfer unit that connects a plurality of processes and one or more inspection units based on images. Here, the target object is an object conveyed on the conveyance line.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the drawings merely schematically show the shapes, sizes, and arrangements of the components to the extent that the present invention can be understood, and the present invention is not limited to the illustrated examples.
[0023]
With reference to FIG. 1, a case where an object is imaged from obliquely above and a case where an object is imaged from a direction facing directly, for example, directly above, will be described.
[0024]
In FIG. 1, a position A (hereinafter, referred to as an “oblique imaging position”) at which the measurement target 1 is imaged in an oblique direction and a position B (hereinafter, “positive”) at which the measurement target 1 is imaged from a directly facing direction (eg, directly above). The imaging devices 10 and 12 are arranged at “the position relative to the imaging position”, respectively. These imaging devices 10 and 12 include imaging optical systems 10a and 12a and light receiving planes 10b and 12b, respectively. Hereinafter, the imaging device 10 disposed at the oblique imaging position A is referred to as an “oblique imaging device”, its imaging optical system 10a is referred to as an “oblique optical system”, and its light receiving plane 10b is referred to as an “oblique light receiving plane”. Further, the imaging device 12 disposed at the directly-facing imaging position B is referred to as a “facing imaging device”, the imaging optical system 12a is referred to as a “facing optical system”, and the light receiving plane 12b is referred to as a “facing light receiving plane”. .
[0025]
In FIG. 1, a grid pattern exists on the surface to be measured of the measuring object 1. The intersections of the crosses on the grid pattern are hereinafter referred to as “grid points”. In the lattice pattern, a cross-shaped portion including a lattice point is hereinafter referred to as a “cross mark”. For convenience of explanation, a case where the measurement target 1 has a grid pattern on the surface to be measured will be described. However, the technical content described below is based on whether the characteristic pattern on the measurement target is a grid pattern. It holds regardless of any.
[0026]
The facing optical system 12a is arranged so that its optical axis 12c is orthogonal to the surface to be measured of the measuring object 1. The oblique optical system 10a is disposed such that its optical axis 10c is oblique to the surface to be measured of the measurement object 1. The height measurement of the measuring object 1 is performed by measuring image data (hereinafter referred to as “facing image data”) obtained on the directly-facing light receiving plane 12b via the directly-facing optical system 12a and obliquely receiving light via the oblique optical system 10a. This is performed using image data obtained on the plane 10b (hereinafter, referred to as “oblique image data”).
[0027]
Here, the change of the image data when the height of the measurement object 1 is changed will be described.
[0028]
FIG. 2 is an enlarged cross-sectional view of a portion 1a of the measurement object to be imaged. In FIG. 2, the magnification of both the facing optical system and the oblique optical system is set to 1 for convenience of explanation. FIG. 3A shows the directly-facing image data of the measuring object 1 located at the reference height (height = 0), and FIG. 3B shows the oblique image data. Note that FIGS. 3A and 3B show only cross marks in the lattice pattern. In the directly-facing image data 3a in FIG. 3A, grid points on the surface to be measured of the measurement target 1 are photographed in a square shape as they are. That is, a square is formed by four adjacent grid points. On the other hand, in the oblique image data 3b in FIG. 3B, grid points on the surface to be measured of the measurement target are captured in a vertically long rectangular shape. That is, a vertically long rectangle is formed by four adjacent grid points. More specifically, if an angle between the optical axis 10c of the oblique optical system and the optical axis 12c of the directly-facing optical system (hereinafter referred to as “inclination angle”) is φ, the lattice point of the oblique image data 3b in the X-axis direction is The interval is obtained by multiplying the interval between lattice points in the X-axis direction of the directly-facing image data 3a by cosφ. On the other hand, the interval between the lattice points in the Y-axis direction of the oblique image data 3b is almost the same as the interval between the lattice points in the Y-axis direction of the directly-facing image data 3a.
[0029]
Here, the oblique image data 3b is converted so that the shape of the lattice pattern matches the shape of the lattice pattern in the directly-facing image data 3a. The converted image data (hereinafter, referred to as “converted image data”) is shown in FIG. Here, the conversion may be performed so that the interval between the lattice points of the converted image data 3c is the same as the interval between the lattice points of the directly-facing image data 3a. Further, the positions of the lattice points in the converted image data 3c substantially coincide with the positions of the lattice points in the directly-facing image data 3a. The converted image data 3c has a resolution 1 / cos φ lower than that of the directly-facing image data 3a, but hardly affects the measurement.
[0030]
Next, the directly-facing image data of the measurement object located at a height lower than the reference height is shown in FIG. 4A, and the oblique image data is shown in FIG. 4B. Here, the change in the shooting distance (for example, 0.5 mm) is within the range of the depth of field (for example, 1.5 mm). Further, since the change in the shooting distance (for example, 0.5 mm) is sufficiently smaller than the shooting distance (for example, 100 mm), the change in the scale of the image data due to the change in the shooting distance is ignored. Therefore, the directly-facing image data 4a in FIG. 4A is substantially the same as the directly-facing image data 3a at the reference height shown in FIG. On the other hand, the oblique image data 4b in FIG. 4B is different from the oblique image data 3b at the reference height shown in FIG. Become.
[0031]
Here, the oblique image data 4b is converted so that the shape of the lattice pattern matches the shape of the lattice pattern in the directly-facing image data 4a. FIG. 4C shows the converted image data (converted image data) 4c. Explaining with reference to FIG. 2, the difference d between the positions of the lattice points is d = h × tan φ. Here, h is the height difference, and φ is the angle between the optical axis 12c of the directly facing optical system and the optical axis 10c of the oblique optical system, that is, the inclination angle of the oblique optical system.
[0032]
As described with reference to FIGS. 2 to 4, the position of the grid point is almost constant on the directly-facing image data even if the height of the measurement object changes, but the height change on the converted image data. , The position of the grid point moves. Further, the shape of the pattern captured in the directly facing image data and the shape of the pattern in the converted image data are similar. Under such conditions, the height of the measurement object can be obtained based on the difference between the position of the grid point on the directly-facing image data and the position of the grid point on the converted image data.
[0033]
The principle of measuring the height of the measurement target based on the difference between the positions of the specific points (lattice points in this case) on the measurement target has been described above. However, height measurement under extremely limited conditions has been described as an example. That is, an example has been described in which the relationship between the pixels forming the oblique image data and the pixels forming the directly-facing image data is simply determined by a trigonometric function. However, in actuality, the relationship between the pixels constituting the oblique image data and the pixels constituting the directly-facing image data is more complicated, or the relationship between the pixels constituting the oblique image data and the pixels constituting the directly-facing image data is more complicated. The relationship may differ from device to device.
[0034]
Therefore, actually, as shown in FIG. 5, first, image conversion parameters indicating the relationship between the pixels forming the oblique image data and the pixels forming the converted image data, An image conversion parameter for converting the oblique image data so that the shape of the pattern is similar to the shape of the corresponding pattern in the converted image data is acquired (S1). When an image of an object is captured, the difference between the position of the characteristic point on the object on the directly-facing image data and the position on the converted image data has a value corresponding to the height of the object. Therefore, height conversion information indicating the relationship between the position difference and the height is obtained (S2). This height conversion information may not be obtained depending on the required degree of measurement accuracy. The above steps (S1 and S2) are hereinafter also referred to as “calibration”. Next, a feature pattern is registered (S3). Here, the same pattern as that on the object whose height is to be measured is registered. When a test pattern (for example, a lattice pattern) used in the calibration is on the target, the test pattern may be registered. Then, the object located at an arbitrary height is imaged by the directly-facing imaging device 12 and the oblique imaging device 10 (S4). Next, the oblique image data is converted into converted image data based on the image conversion parameters (S5). Next, for a specific point on the feature pattern of the object, a difference between the position on the directly-facing image data and the position on the converted image data, which has a value corresponding to the height of the object, is detected (S6). . Here, when a pattern different from the test pattern is registered as a feature pattern, a pattern search is performed using the registered feature pattern to determine the position of a specific point. Next, the height of the target object is detected based on the position difference (S7). Here, when the height conversion information has been acquired, the height is detected using the height conversion information.
[0035]
Next, the calibration performed before the measurement will be described separately for the first calibration for generating the image conversion parameter and the second calibration for generating the height conversion information.
[0036]
<First calibration>
For convenience of explanation, a case where calibration is performed using a test pattern composed of a lattice pattern will be described.
[0037]
In the first calibration, first, the test pattern arranged at the reference height (height = 0) is imaged by the directly-facing imaging device 12 and the oblique imaging device 10, respectively. FIG. 3A shows the directly-facing image data 3a of the test pattern imaged at the reference height, and FIG. 3B shows the oblique image data 3b. In FIGS. 3A and 3B, the center point of the test pattern (the grid point at the center of the test pattern) is located at the center of each of the image data 3a and 3b. That is, the center point of the directly-facing image data 3a and the center point of the oblique image data 3b match. In the facing image data 3a and the oblique image data 3b, the horizontal line connecting the grid points of the test pattern is made parallel to the X axis, and the vertical line is made parallel to the Y axis. That is, each vertical line connecting the grid points of the directly facing image data 3a is in the same direction as each vertical line connecting the grid points of the oblique image data 3b, and each horizontal line connecting the grid points of the directly facing image data 3a. Are in the same direction as the horizontal lines connecting the grid points of the oblique image data 3b. Further, the coordinate value of the center point of the directly-facing image data 3a and the coordinate value of the center point of the oblique image data 3b match. The interval between the vertical grid points in the central portion of the directly facing image data 3a is made equal to the interval between the vertical grid points in the central portion of the oblique image data 3b. Such a condition is obtained as a result of adjusting the directly-facing imaging device 12, the oblique imaging device 10, and the like, and may deviate from such a condition. For example, the position of the center point may not completely match between the directly-facing image data 3a and the oblique image data 3b.
[0038]
Next, a plurality of grid points are searched with the cross mark on the directly-facing image data 3a and the oblique image data 3b to obtain the coordinates of each grid point.
[0039]
Then, the coordinates of the grid points on the directly-facing image data 3a are associated with the coordinates of the grid points on the oblique image data 3b, and the coordinate conversion parameters are calculated. The calculated coordinate conversion parameters are stored in the storage device. Further, based on the coordinate conversion parameters, an image conversion parameter indicating a relationship between each pixel of the oblique image data 3b and each pixel of the converted image data 3c is calculated. The calculated image conversion parameters are stored in the storage device.
[0040]
The procedure of the first calibration described above is summarized as follows with reference to the flowchart shown in FIG.
(A) A test pattern having a plurality of characteristic points arranged at a specific height serving as a reference is imaged by a directly-facing imaging device and an oblique imaging device (S11).
(B) Obtain coordinates (diagonal plane coordinates) of a plurality of pixels in the oblique image data respectively corresponding to a plurality of characteristic points in the test pattern, and obtain positive coordinates corresponding to the plurality of characteristic points in the test pattern, respectively. The coordinates of the plurality of pixels in the paired image data (facing plane coordinates) are acquired (S12).
(C) The coordinates of the pixels constituting the oblique image data and the coordinates of the pixels constituting the facing image data are determined based on the oblique plane coordinates and the facing plane coordinates respectively corresponding to a plurality of characteristic points in the test pattern. A coordinate conversion parameter indicating the relationship is calculated (S13).
(D) An image conversion parameter indicating the relationship between the pixels forming the oblique image data and the pixels forming the converted image data which is the image data after the conversion of the oblique image data, and which is mapped to the directly facing image data. An image conversion parameter for converting the oblique image data is calculated so that the shape of the arbitrary pattern and the shape of the corresponding pattern in the converted image data are similar (S14).
[0041]
<Second calibration>
In the second calibration, the steps shown in FIG. 7 are sequentially performed while moving the test pattern stepwise in the height direction. That is, the test pattern is moved stepwise in the height direction (S21), and the test pattern is imaged at each height by the directly-facing imaging device and the oblique imaging device (S22). The oblique image data captured at each height is converted into converted image data based on the image conversion parameters obtained by the first calibration (S23), and each lattice point is searched on the directly-facing image data, A grid point is searched on the converted image data (S24), and a difference between the positions of the grid points is calculated as shown in Expression 2 (S25).
Position difference = grid point position on converted image data−grid point position on directly-facing image data (Formula 2)
The calculated height conversion information is stored in the storage device in association with the position difference and the height (S26). The above steps (S21 to S26) are performed until the movement of the test pattern within the height measurement range is completed (S27). FIG. 8 shows an example of the height conversion information. In FIG. 8, the difference between the positions of the grid points is calculated for the reference height (height = 0), a plurality of heights higher than the reference height, and a plurality of heights lower than the reference height. In FIG. 8, the difference between the positions at the reference height is “0”, but the difference is not necessarily “0”.
[0042]
Further, in FIG. 8, the relationship between the position difference and the height is linear, but it is not actually linear. This is due to the fact that the scale changes due to a change in the imaging distance of the optical system accompanying a change in the measurement height. In particular, in the vicinity of the upper and lower ends of the depth of field of the optical system, the difference from the scale at the reference height is generally the largest. In this embodiment, the error is corrected by calculating the height conversion information at the time of calibration and storing it in a storage device, and obtaining the height based on the height conversion information at the time of measurement.
[0043]
Further, as described above, there is a slight difference in scale between the directly facing optical system 12a and the oblique optical system 10a according to the measurement height. Therefore, the scale of the image data changes according to the measurement height. However, such a difference in scale of the image data due to the measured height between the directly facing optical system 12a and the oblique optical system 10a is negligible in pattern matching. To improve the matching score, pattern matching may be performed by changing the size of the feature pattern to be compared.
[0044]
<Acquisition of coordinate transformation parameters>
Here, acquisition of the coordinate conversion parameters in the first calibration will be described in detail.
[0045]
First, as a premise, the light receiving planes 10b and 12b in FIG. 9 are provided with a minute light receiving device that receives light and generates a voltage or a current proportional to the intensity of the light (each of the light receiving devices is referred to as a “pixel”). ) Are uniformly arranged in a matrix. A set of sets of light intensities corresponding to pixels arranged in order on the light receiving planes 10b and 12b is referred to as "image data". In order to identify individual pixels in order on the light receiving planes 10b and 12b, rectangular coordinates are provided on the light receiving planes 10b and 12b, and along the rectangular coordinate axes, the i-th axis and the vertical axis are counted from the starting point in the horizontal axis direction. The pixel at the j-th position in the direction will be referred to as a pixel [i, j]. That is, the pixel [i, j] is a pixel on the i-th row and the j-th column.
[0046]
In order to define the positional relationship between the oblique light receiving plane 10b and the directly-facing light receiving plane 12b, as shown in FIGS. 10A and 10B, the two light receiving planes have an (x, y) coordinate system. (Hereinafter, referred to as an “oblique plane coordinate system”) and an (X, Y) coordinate system (hereinafter, “facing plane coordinate system”) are provided. There is a relationship given by equations 3 and 4 between the two coordinate systems. Conversion between the oblique plane coordinate system and the directly-facing plane coordinate system based on the relationship given by Expressions 3 and 4 is hereinafter referred to as “coordinate conversion”.
X = (b 1 x + b 2 y + b 3 ) / (B 7 x + b 8 y + 1) (Equation 3)
Y = (b 4 x + b 5 y + b 6 ) / (B 7 x + b 8 y + 1) (Equation 4)
Where b i (Where i = 1, 2, 3, 4, 5, 6, 7, 8) is a coordinate conversion parameter. Since there are a total of eight, if the relationship of four or more points on the directly-facing light receiving plane and the oblique light receiving plane is known, then bi (where i = 1, 2, 3, 4, 5, 6, 7, 8) can be obtained.
[0047]
That is, as shown in FIG. 10C, points corresponding to lattice points p, q, r, and s on the oblique light receiving plane correspond to points P, Q, R, and S on the directly-facing light receiving plane. As the coordinates of these eight points, (x p , Y p ), (X q , Y q ), (X r , Y r ), (X s , Y s ), (X P , Y P ), (X Q , Y Q ), (X R , Y R ), (X S , Y S ) Is obtained, the parameter b i (Where i = 1, 2, 3, 4, 5, 6, 7, 8).
[0048]
Parameter b i (However, i = 1, 2, 3, 4, 5, 6, 7, 8) is stored in the storage device, and the relationship between the oblique light receiving plane coordinates and the directly facing light receiving plane coordinates is unique. Will be decided. That is, by reading the coordinate values and the coordinate conversion parameters stored in the storage device by the central processing unit (CPU) and the above (Equation 3) and (Equation 4) and calculating them, the position on the oblique light receiving plane can be directly opposed. The position can be converted to a position on the light receiving plane to correspond.
[0049]
In the example described above, four points are selected on the directly-facing light receiving plane and four points on the oblique light receiving plane, respectively, and the coordinate conversion parameters are obtained from the corresponding relationships. However, the four points as described above must be necessarily selected. It doesn't have to be.
[0050]
The number of the selected plurality of points is at least four if at least three points are selected so as not to be aligned on a straight line. When three points on a straight line are selected and at least two points are selected outside the straight line, the number of the selected plurality of points is at least five. That is, a plurality of points that satisfy the above-described conditions may be selected. Of course, the more the selected points, the higher the calculation accuracy of the required coordinate conversion parameters.
[0051]
<Acquisition of image conversion parameters>
Here, acquisition of image conversion parameters in the first calibration will be described in detail.
[0052]
First, as a premise, a description will be given of coordinates on the light receiving plane of the imaging apparatus and indices for designating pixels constituting the light receiving plane with reference to FIG. Here, the pixels are arranged, for example, in a matrix, and the shape of each pixel is assumed to be a square for simplicity, and the boundary region between adjacent pixels has only a negligible width. Since each pixel has light receiving sensitivity inside the square and the boundary area between adjacent pixels has only a negligible width, the description will be made assuming that the pixel has light receiving sensitivity everywhere on the light receiving plane.
[0053]
Assuming that the dimension of one side of the pixel is L, the center of the pixel is shown by a black circle in FIG. 11, and the vertices of the four corners of the pixel are shown by crosses. As shown in FIG. 11, an xy coordinate system is used, and coordinate values are indicated as (x, y). On the other hand, an index for designating each pixel is represented as [i, j]. These i and j correspond to the i-th row and the j-th column. For example, the coordinates of the vertices of the four corners of the pixel specified by the index [0,0] are (+ 0.5L, -0.5L), (+ 0.5L, + 0.5L), (-0.5L, +0). .5L) and (-0.5L, -0.5L), and the center coordinates of the pixel are (0,0). Generally, the coordinates of the vertices of the four corners of the pixel specified by the index [i, j] are ((i + 0.5) L, (j−0.5) L), ((i + 0.5) L, (j + 0. 5) L), ((i-0.5) L, (j + 0.5) L), and ((i-0.5) L, (j-0.5) L), and the center coordinates of the pixel Is (iL, jL).
[0054]
In addition, x or y representing coordinate values, and index values i, j or k, m for designating pixels are displayed using lowercase letters as values relating to oblique light receiving planes, and values relating to directly facing light receiving planes. Shall be displayed using uppercase letters. That is, the coordinate value of the oblique light receiving plane is (x, y), and the index for designating the pixels forming the oblique light receiving plane is [i, j] or [k, m]. On the other hand, the coordinate value of the directly-facing light-receiving plane is (X, Y), and the index for designating the pixels constituting the directly-facing light-receiving plane is [I, J]. Here, since the directly-facing position is a position directly above the object, the directly-facing image data is also referred to as “directly above image data”.
[0055]
With reference to FIG. 12, a method of obtaining the light intensity of each pixel constituting the light receiving plane will be described. FIG. 12 shows the index [i p , I q (Where p = 1, 2, 3, 4, 5 and q = 1, 2) are enlarged and displayed. A case where a black band-like image having a width is formed on the pixel will be described. In FIG. 12, a hatched portion is a black image portion. It is assumed that light does not reach the black portions shown by hatching, and light of uniform brightness reaches the other white portions. It is assumed that the light intensity received by each pixel is digitized into 256 gradations. That is, it is assumed that the pixel is set to output brightness information as digital data in which 0 indicates no light is received and 255 indicates the brightest light is received. In this case, the index [i p , I q (Where p = 1, 2, 3, 4, 5 and q = 1, 2), the digital value captured by the ten pixels as one of the image data is
[I 1 , J 2 ] = 0, [i 2 , J 2 ] = 10, [i 3 , J 2 ] = 40, [i 4 , J 2 ] = 96, [i 5 , J 2 ] = 128,
[I 1 , J 1 ] = 20, [i 2 , J 1 ] = 0, [i 3 , J 1 ] = 0, [i 4 , J 1 ] = 0, [i 5 , J 1 ] = 0
And These values are proportional to the area occupied by the bright portions in each pixel.
[0056]
Here, for the sake of simplicity, an image composed of two regions, a pure white portion and a pure black portion, has been described as an example. However, the same applies to an image including a more complicated region of intermediate brightness. The digital value captured by a pixel as one of the image data is a value proportional to the product of the brightness of the pixel projected on the pixel and the area occupied by the brightness portion on the pixel.
[0057]
Next, referring to FIG. 13, a pixel for acquiring directly-facing image data (hereinafter, also simply referred to as “facing pixel”) and a pixel for acquiring oblique image data (hereinafter, simply referred to as “oblique pixel”). Will be described.) FIG. 13 shows the pixels existing in the range from i to i + 2 for the column positions of the oblique pixels, separated by lines. That is, the upper left pixel is a pixel given by the index [i, j], and the lower right pixel is a pixel given by [i + 2, j + 2]. The square ABCD represents an image in which the directly-facing pixel given by the index [I, J] is projected on a pixel that obtains a plurality of oblique pixels. Hereinafter, a pixel given by an index [I, J] or [i, j] or the like is abbreviated as a pixel [I, J] or a pixel [i, j], respectively.
[0058]
The vertices A, B, C, and D of the pixel [I, J] projected on the oblique pixel are A ((I-0.5) L and (J-0.5) L on the oblique light receiving plane, respectively. ), B ((I + 0.5) L, (J-0.5) L), C ((I + 0.5) L, (J + 0.5) L), D ((I-0.5) L, J + 0.5) L). The coordinates ((I-0.5) L, (J-0.5) L), ((I + 0.5) L, (J-0.5) L) of the four vertices of pixel [i, j], ( (I + 0.5) L, (J + 0.5) L) and ((I-0.5) L, (J + 0.5) L) are indicated by A, B, C, and D on the directly facing light receiving plane, respectively. Projected to a location.
[0059]
Next, the mathematical expression (1) that provides image data conversion will be described.
[0060]
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (Equation 1)
Assume that the pixel [I, J] is projected onto a pixel forming an oblique light receiving plane as shown in FIG. In this case, the range for obtaining the sum indicated by Σ is a range from i to (i + 2) for k, and a range from j to (j + 2) for m.
[0061]
Here, the meaning of W (k, m) will be described. W (k, m) represents the area of the pixel [I, J] projected on the pixel [k, m] forming the oblique light receiving plane. That is, a part of the pixel [I, J] is projected on the pixel [k, m], but W (k, m) is the image of the pixel [I, J] on the pixel [k, m]. Represents the area of the projected and overlapping portion. The area of the overlapping portion is also referred to as “partial projection area”. FIG. 14 is a diagram for explaining the meaning of W (k, m). In FIG. 14, k ranges from i to (i + 2) and m ranges from j to (j + 2). FIG. 9 is a diagram in which a portion where the image of [I, J] is projected and overlapped is indicated by oblique lines and displayed in an easily viewable manner. Each square represents a pixel [k, m]. A hatched portion indicates a polygon having an area given by W (k, m) (a portion of a partial projection area where the image of the pixel [I, J] is projected on the pixel [k, m]).
[0062]
(Equation 1) is a range of pixels (i is a range from i to (i + 2) for a pixel [I, J] projected on a pixel forming an oblique light receiving plane, and a range from j to (j + 2) for m. Of the pixel [I, J] on the directly-facing light-receiving plane (digital value related to brightness).
[0063]
Img1 (k, m) is a digital value (value of pixel [k, m]) relating to the brightness received by pixel [k, m], and W (k, m) is pixel [k, m] Since the image partial projection area of the pixel [I, J] above, W (k, m) × Img1 (k, m) is the value of the pixel [k, m] of W (k, m). The value takes into account the weight. Σ [W (k, m) × Img1 (k, m)] is the sum of k over the range from i to (i + 2) and m over j from (j + 2). ΣW (k, m) represents the total projected area of the image of the pixel [I, J] projected on the oblique light receiving plane. Therefore, the right side of (Equation 1) is defined as a range of pixels projected on pixels where the pixel [I, J] forms a directly-facing light receiving plane (a range from i to (i + 2) for k, and a range for m for m). For the range from j to (j + 2)), a weighted average value with W (k, m) as the weight is given.
[0064]
Next, a procedure for determining W (k, m) will be described. FIG. 15 is a diagram provided to explain a procedure for obtaining W (k, m), and is a diagram in which a peripheral portion of a pixel [i, j] is enlarged. Let ABCCD be the position where the four vertices of the pixel [I, J] are projected on the oblique light receiving plane. The four vertices of the pixel [i, j] on the directly-facing light receiving plane are A ', B', C ', and D'.
[0065]
W (k, m) is determined by the following procedure (process).
(A) It is checked whether the points A, B, C, and D are included in the quadrilateral A'B'C'D '.
A is picked up because A is included.
(B) It is checked whether or not each of the points A ′, B ′, C ′, and D ′ is included in the quadrilateral ABCD.
Since C 'is included, C' is picked up.
(C-1) The intersection of the line segment A′B ′ with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is checked.
There are no intersections.
(C-2) The intersection of the line segment B′C ′ with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is checked.
Since a is an intersection, a (existing as an intersection of line segment B′C ′ and line segment AB) is picked up.
(C-3) The intersection of the line segment C′D ′ with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is examined.
Since b is the intersection, b is picked up (existing as the intersection of line segment C'D 'and line segment DA).
(C-4) The intersection of the line segment D'A 'with the line segment AB, the line segment BC, the line segment CD, and the line segment DA is examined.
There are no intersections.
(D) The upper left point is obtained for the picked-up point (four points are registered in the list in the order of A, C ', a, and b in this embodiment). Specifically, as shown in FIG. 15, each line is drawn one by one so that a straight line inclined at 45 degrees with respect to the X axis passes through each point, and the intersection of the Y axis and the straight line inclined at 45 degrees is drawn. The smallest one of the Y coordinates is selected. The reason for selecting the smallest Y coordinate is that the coordinate set on the light receiving plane is a left-handed coordinate system. Thus, the first point is obtained. Here, it is point A.
(E-1) On the basis of a straight line passing through the point A and having an inclination of 45 degrees, the straight line is rotated clockwise around the point A to determine a point that first comes into contact with the point, and this is a second point. And In this case, point a is obtained as the second point.
(E-2) Next, the straight line Aa is rotated clockwise about the point a to find a point that first comes into contact, and this is set as a third point. In this case, point C ′ is obtained as the third point.
(E-3) Next, the straight line aC 'is rotated clockwise about the point C' to find the first contact point, and this is set as the fourth point. In this case, point b is obtained as the fourth point.
(E-4) The above steps are sequentially performed on the picked-up points. By this process, the picked up points are arranged clockwise in order from the upper left.
(F) If the picked-up points are arranged clockwise in order from the upper left, the coordinates of the four vertices of the quadrilateral have been determined, and the coordinates of the quadrilateral AaC'b The area, that is, W (k, m) can be obtained.
[0066]
Next, a method for checking whether or not the point of interest O is included in the quadrilateral, which is performed in the steps (a) and (b), will be described with reference to FIG. FIG. 17A is a diagram illustrating a case where the point O is inside the quadrilateral EFGH, and FIG. 17B is a diagram illustrating a case where the point O is outside the quadrilateral EFGH. Starting from point E of the quadrilateral EFGH, there is a point that moves on the side in the order of point E, point F, point G, and point H. At this time, the angle θ1 extending from the point E to the point F is measured with the direction from the point E to the point F being a positive direction. Similarly, the angle between the point F and the point G is θ2, the angle between the point G and the point H is θ3, and the angle between the point H and the point E is θ4. The direction toward the point shall be measured in the positive direction.
[0067]
When the point O shown in FIG. 17A is inside the quadrilateral EFGH, θ1 + θ2 + θ3 + θ4 is 2π. On the other hand, when the point O shown in FIG. 17B is outside the quadrilateral EFGH, θ1 + θ2 + θ3 + θ4 becomes zero. Although not shown, when the point O is on the side of the quadrilateral EFGH, θ1 + θ2 + θ3 + θ4 becomes π. As described above, θ1 + θ2 + θ3 + θ4 is obtained, and if it is known whether the value is 2π, 0, or π, it is determined whether the point O of interest is included in the quadrilateral EFGH. You can find out.
[0068]
In the steps (a) and (b) of the above-described steps for obtaining W (k, m), the points to be picked up are located on the sides of the quadrilateral, and those located inside the quadrilateral. Treated as
[0069]
Next, with reference to FIG. 18 and FIG. 19, the intersections of the line segments, which are performed in the above-described steps (c-1), (c-2), (c-3), and (c-4), Explain the rules when requesting. FIG. 18 illustrates a case where the line segments do not overlap, and FIG. 19 illustrates a case where the line segments overlap. If an intersection exists on the extension of the line segment as shown in FIG. 18 (A), it is treated as having no intersection. It is determined that the intersection exists, as shown in FIG. 18B, when the intersection exists within the range where the line segment exists. As shown in FIG. 18C, it is also determined that an intersection exists even when the end point of the line segment is an intersection. When one line segment 1 and another line segment 2 overlap as shown in FIG. 19, two points are picked up as intersections.
[0070]
Further, the following processing is performed as a derivative step.
(A) In the above step (a), if all the points of A, B, C, and D are not included in the quadrilateral A'B'C'D ', W (k, m) = It ends with 0.
(B) In the step (b) described above, if all points of A ′, B ′, C ′, and D ′ are not included in the quadrilateral ABCD, W (k, m) = 0, finish.
(C) When the above steps (c-1) to (c-4) are completed, the number of picked up points is one to two or three to eight.
Therefore,
(C1) If the number of picked up points is 0 or 2, W (k, m) = 0 and the processing ends.
(C2) When the number of picked-up points is three to eight, processing is performed up to step (f) to obtain W (k, m).
[0071]
FIG. 13 shows the relationship between the pixel for the image directly above and the pixel for the oblique image, which shows the relationship between the quadrilateral (the shape of the pixel for the image directly above) and the square (the shape of the pixel for the image oblique). Things. In such a relationship, when the relationship between the quadrilateral and the square becomes the relationship shown in FIG. 14, the number of points picked up is eight, which is the maximum number. FIG. 20 shows the relationship between pixels for directly above images (quadrilaterals) and pixels for oblique images (squares). From this, the maximum number of points to be picked up is eight.
[0072]
The procedure for obtaining W (k, m) described above is only an example, and there may be other suitable procedures other than the method described here. However, no matter what procedure is used to determine W (k, m), it is clear that the present invention can be applied to the measuring method or measuring apparatus according to the present invention.
[0073]
The procedure for obtaining W (k, m) described above is summarized as follows with reference to the flowchart shown in FIG.
[0074]
The positions where the four vertices of the pixel [I, J] forming the directly-facing light-receiving plane are projected on the oblique light-receiving plane are A, B, C, and D. The four vertices are A ', B', C ', D'
(D) It is checked whether the points A, B, C, and D are included in the quadrilateral A'B'C'D '(S31). If neither is included (N), W (k, m) is set to W (k, m) = 0 (S32), and this procedure ends. On the other hand, if any point is included (Y), the included point is picked up (S33).
(E) It is checked whether or not each of the points A ', B', C ', and D' is included in the quadrilateral ABCD (S34). If neither is included (N), W (k, m) is set to W (k, m) = 0 (S35), and this procedure ends. On the other hand, if any point is included (Y), the included point is picked up (S36).
(F) Next, the intersection of line segment A'B 'and line segment AB, line segment BC, line segment CD, line segment DA, line segment B'C' and line segment AB, line segment BC, line segment CD, Intersection of line segment DA,
Intersection of line segment C'D 'with line segment AB, line segment BC, line segment CD, line segment DA, and
The intersections of the line segment D'A 'and the line segment AB, the line segment BC, the line segment CD, and the line segment DA are examined and picked up (S37).
(G) W (k, m) is obtained from all coordinates picked up in the steps S33, S36 and S37 (step S38).
[0075]
As described above, in the first calibration, W (k, m) is obtained as an image conversion parameter.
[0076]
<Height measurement range>
Next, a range of measurable heights (hereinafter referred to as “height measurement range”) will be considered.
[0077]
In FIG. 22, the depth of field d2 of the oblique optical system is represented by the following Expression 5.
d2 = 1 / cosφ + sl × sinφ (Equation 5)
Here, l is the height measurement range, φ is the tilt angle of the oblique optical system, and sl is the pattern search range in the oblique optical system. For example, when the depth of field d2 of the oblique optical system is d2 = 1.5 mm, the height measurement range l = 0.5 mm, and the inclination angle φ is 30 degrees, the search range sl is obtained as 1.845 mm. Here, if the search range sl is to be increased, the optical axis 10c of the oblique optical system is oblique to the surface of the measurement target, and therefore the depth of field of the oblique optical system must be large. When φ = 30 degrees, it is not realistic to enable the search pattern to be searched in the entire field of view of the oblique optical system. Therefore, in the present embodiment, the search range sl is limited, and a feature pattern is searched within the search range sl.
[0078]
Although the case where the magnification of the facing optical system and the magnification of the oblique optical system are the same has been described as an example, the present invention includes a case where the magnification of the facing optical system and the magnification of the oblique optical system are different. In FIG. 22, the height measurement range 1 is very limited with respect to the depth of field L of the directly facing optical system 12a. When it is desired to increase the height measurement range, the magnification of the oblique optical system in the oblique direction is set smaller than the magnification of the directly-facing optical system. When the magnification of the oblique optical system is set to 0.5, the range of the imaging distance (working distance) is about 1.5 times and the depth of field is about 2.5 times as compared with the case where the magnification is 1. Longer, and the pixel resolution is doubled. When the magnification of the oblique optical system is set to 0.5, it is natural that the accuracy is halved, but the search range and the height measurable range in the XY directions are greatly improved.
[0079]
<Measuring device>
FIG. 23 shows an example of the measuring device. In FIG. 23, the illumination device 14 is disposed on an axis that is line-symmetric with the optical axis of the oblique imaging device 10 with the optical axis of the directly-facing imaging device 12 as the symmetry axis. The XYZθ device 20 is a device that freely moves the measurement target in the Z direction (height direction) and the θ axis direction (rotation direction) on the XY plane.
[0080]
The image obtaining unit 31 obtains directly-facing image data from the directly-facing imaging device 12 and obtains oblique image data from the oblique imaging device 10. The image conversion parameter acquisition unit 41 is an image conversion parameter that indicates the relationship between the pixels that form the oblique image data and the pixels that form the converted image data. Image conversion parameters for converting the oblique image data so that the shapes of the corresponding patterns in the image data are similar are calculated. The height conversion information acquisition unit 42 generates height conversion information indicating the relationship between the position difference and the height. The image data conversion unit 43 converts the oblique image data into converted image data. The image search unit 44 searches the image data for a characteristic pattern or a characteristic point. The position difference detector 45 detects a difference between a position on the directly-facing image data and a position on the converted image data for a characteristic point on the measurement object. The height detection unit 46 converts the difference between the positions into a height based on the height conversion information. The image data output unit 47 outputs image data.
[0081]
The XYZθ control unit 51 controls the XYZθ device 20 to carry out transport and position control of the measurement target. The XYZθ control unit 51 controls the height of the target so that the height of the target is constant. The thickness detector 52 detects the thickness of the plate-like measurement target. Specifically, the height of the plane on which the object to be measured is placed is measured, the height of the surface of the object to be measured is measured, and the difference between these two heights is detected as the thickness. The slack detecting unit 53 detects a slack of the measuring object having slack. The XYZθ adjustment unit 54 adjusts the XYZθ device 20 in the X, Y, Z, and θ directions.
[0082]
The storage device 60 stores various information such as coordinate conversion parameters, image conversion parameters, and height conversion information.
[0083]
The image conversion parameter obtaining unit 41, the height conversion information obtaining unit 42, the image data converting unit 43, the image searching unit 44, the position difference detecting unit 45, the height detecting unit 46, the image data output unit 47, the XYZθ control unit 51 , The thickness detecting section 52, the slack detecting section 53, and the XYZθ adjusting section 54 are constituted by a central processing unit (CPU).
[0084]
First Embodiment A case will be described in which the measuring method of the present invention is applied to height control processing as an alternative to autofocus. This height control process is performed, for example, in a semiconductor manufacturing apparatus having a Z table. A semiconductor substrate (measurement target) such as a wafer is placed on a Z table movable in a Z direction (hereinafter, referred to as a “height direction”), and the Z coordinate (height) of the measurement target is kept constant.
[0085]
First, prior to the actual height setting processing, a characteristic pattern of the surface of the measurement object is registered. A fiducial mark may be registered as a feature pattern. Such a characteristic pattern is imaged by the directly-facing imaging device from a direction directly facing the object to be measured. In addition, the height to be set of the measurement target (hereinafter, referred to as “set height”) is specified in advance. When the thickness of the measurement object is specified, the specified thickness is added to a predetermined specific height to obtain a set height. Also, approximate XY coordinates for searching for a feature pattern are specified.
[0086]
The actual height setting process is performed as shown in FIG. In FIG. 24, first, the object to be measured is placed on the Z table, and the Z table is moved XY so that the object to be measured comes to the approximate XY coordinates specified in advance (S101). If the characteristic pattern on the surface of the measurement object is not within the search range, the measurement object is moved on the XY plane so that the characteristic pattern is directly below the directly facing optical system (S102). Next, the Z coordinate (height) of the measurement target is measured by the above-described measurement method of the present invention (S103). Next, a difference between the measured height and the set height is determined (S104). If there is a difference between the measured height and the set height, the Z table is moved in the height direction by the difference (S105), the height of the object to be measured is measured again (S103), and the measured height is measured. And the difference between the height and the set height are determined (S104). If the repeatability of the Z table is sufficiently good, it is determined that there is no difference in height in almost one Z table movement, and the loop ends.
[0087]
Further, the measuring method of the present invention can be applied to the case where the thickness of a semiconductor substrate having a pattern on a surface represented by a wafer is measured. Specifically, first, the height of the surface of the Z table on which the semiconductor substrate is placed is measured by the measuring method of the present invention. Next, the height of the surface of the semiconductor substrate is measured by the measuring method of the present invention. Then, the thickness of the semiconductor substrate is calculated from the difference between the height of the surface of the semiconductor substrate and the height of the surface of the Z table.
[0088]
(Second embodiment) A case where the measuring method of the present invention is applied to a slack measurement processing of a measuring object having slack will be described.
[0089]
FIG. 25 shows an example of a loose sheet (measurement object). The sheet 200 in FIG. 25 has a slack exceeding 1 mm. Incidentally, in the auto focus, an optical system (for example, 50 μm) having a shallow depth of field is generally used. Therefore, when trying to measure the slack of the sheet 200 of FIG. 25, a state occurs in which the measured surface of the sheet 200 moves beyond the depth of field, and in such a state, an image is not formed correctly (so-called defocusing). ), So it is not possible to measure the slack after all. On the other hand, in the measuring method of the present invention, an optical system having a depth of field (for example, 1.5 mm) corresponding to a slack measurement range (for example, from 0 mm to 1.5 mm) can be used.
[0090]
First, prior to actual slack measurement, the sheet 200 to be slack-measured is sucked by the suction mechanism 210 that can freely move in each of the XYZ directions, as shown in FIG. In addition, a specific mark (such as a fiducial mark) attached to the height measurement position for the slack measurement is registered in advance as a characteristic pattern. When there are a plurality of height measurement positions, feature patterns for the plurality of measurement positions are registered. In the registration of such a characteristic pattern, the characteristic pattern is imaged by the facing image pickup device. Even if the sheet is slack, the approximate value of the slack is known in advance before the measurement (it can also be obtained by visual measurement at the site), so the approximate value is specified in advance. Further, approximate XY coordinates for searching for a feature pattern are specified in advance.
[0091]
In the actual slack measurement process, the process shown in FIG. 26 is performed after the suction mechanism 210 is moved Z so that the measurement surface of the sheet falls within the height measurement range based on the approximate value of the slack. In FIG. 26, the suction mechanism 210 is moved XY so that the sheet comes to the approximate XY coordinates specified in advance (S201). If the characteristic pattern on the sheet 200 is not within the search range on the XY plane, the sheet 200 is moved on the XY plane so that the characteristic pattern is directly below the directly facing optical system (S202). Next, the height of the sheet 200 is measured at the position where the characteristic pattern is located by the above-described measuring method of the present invention (S203). At the same time, the XY plane coordinates of the position are determined. Next, the difference between the measured height and the set height is determined (S204). If the measured height is within the measurement range, the height measurement at the position is terminated. If there is another characteristic pattern, the height of the sheet is measured at the next position. If the measured height is out of the measurement range or if no characteristic pattern is found on the converted image data, the suction mechanism is moved in the height direction by the measurement range (S205).
[0092]
According to the slack measurement process described above, even if the sheet has a large slack (for example, 1 mm or more), the depth of field (for example, 1.5 mm) corresponding to the slack measurement range (for example, up to 1.5 mm) is obtained. The slack can be measured using the optical system, and the slack can be measured by several Z movements.
[0093]
Third Embodiment A case will be described in which the measurement method of the present invention is applied to θ axis adjustment of an XYθ mechanism in which a θ mechanism is mounted on an XY mechanism. FIG. 27 shows an example of the XYθ mechanism. In FIG. 27, the adjustment is performed so that the θ axis is orthogonal to the X axis and the Y axis.
[0094]
FIG. 28 shows a schematic processing flow of θ axis adjustment. In FIG. 28, first, the θ-axis table arranged to rotate with the θ-axis is adjusted to be horizontal with the XY plane (S310). FIG. 29 is a cross section 301 in the θ-axis tilt direction of FIG. 27, and shows the θ-axis table 310 in a state adjusted horizontally with respect to the XY plane. In the state where the θ-axis table 310 is adjusted horizontally with respect to the XY plane in this manner, the angle formed by the plane 302 perpendicular to the θ-axis 300 and the θ-axis table 310 is equal to the inclination angle φ of the θ-axis 300. As shown in FIGS. 30A and 30B, the θ-axis table 310 has a disk shape and is formed of a lattice pattern. Of the plurality of grid points on such a grid pattern, the grid point 311 arranged at the center of the θ-axis table 310 and positioned at the rotation center position of the θ-axis 300 is hereinafter referred to as “rotation center grid point”. Also, the grid point 312, which is arranged at a position (here in the vicinity of the outer periphery of the θ axis table 310) of the “rotation center grid point” 311 and at which the XYZ coordinates are measured for the θ axis adjustment, is referred to as “θ axis adjustment”. Grid point ".
[0095]
Next, while rotating the θ-axis table 310, the XYZ coordinates of the θ-axis adjustment grid point 312 are measured, and the inclination of the θ-axis is detected (S320). FIG. 31 shows a detailed flow of the θ-axis tilt detection processing (S320).
[0096]
In FIG. 31, first, the rotation center position of the θ axis is detected (S321), and the rotation center position of the θ axis 300 is aligned with the rotation center lattice point 311 of the θ axis table 310 (S322). FIG. 32 is a rotation angle 0 degree image captured without rotating the θ axis, FIG. 33A is a counterclockwise rotation image captured by rotating the θ axis counterclockwise by a predetermined angle θ1, and FIG. B) is a clockwise rotation image captured by rotating the θ axis clockwise by the predetermined angle θ2. FIG. 34 is an image obtained by superimposing the three images shown in FIGS. 32, 33A and 33B, respectively. Specifically, the superimposed image is displayed, and a rough rotation center position is designated using a pointing device such as a mouse. Then, the pattern of the rotation angle of 0 degree in FIG. 35A, the pattern of the counterclockwise rotation of FIG. 35B and the pattern of the clockwise rotation of FIG. 33A and the clockwise rotation image of FIG. 33B, respectively, to obtain coordinate values of a plurality of grid points. Then, the rotation center position (Xc, Yc) is obtained by the least square method using the coordinate values of the corresponding grid points. Here, the rotation is performed in both the counterclockwise direction and the clockwise direction. However, the rotation center position may be obtained only in one of the counterclockwise direction and the clockwise direction.
[0097]
Next, the grid point 312 for θ-axis adjustment is moved directly below the directly facing optical system, and the XYZ coordinates of the grid point 312 for θ-axis adjustment are measured (S323). Here, the XY coordinates of the θ-axis adjustment grid point 312 are measured based on directly-facing image data captured by the directly-facing imaging device. Further, the Z coordinate of the θ-axis adjustment grid point 312 is measured based on the directly-facing image data captured by the directly-facing imaging device and the oblique image data captured by the oblique imaging device according to the measuring method of the present invention.
[0098]
Then, the θ-axis is rotated by a fixed angle, and the grid point 312 for θ-axis adjustment is moved directly below the directly facing optical system to measure the XYZ coordinates of the grid point 312 for θ-axis adjustment (S324). Here, the XYZ coordinate measurement of the θ-axis adjustment grid point 312 (S324) is repeatedly performed at a fixed angle, and it is determined whether the rotation has been performed by 2π (S325). When the θ axis rotates π from the state shown in FIG. 29, the θ axis table becomes the state shown in FIG. When the rotation is performed by 2π in total, data indicating the inclination of the θ axis as shown in FIG. 37 is obtained (S326). Here, the inclination of the θ-axis 300 is represented by an inclination direction 303 and an inclination magnitude 304. The inclination direction 303 is obtained from the θ-axis rotation angle when the θ-axis adjustment grid point 312 is the lowest, and the inclination 304 is the maximum value and the minimum height of the θ-axis adjustment grid point 312. Obtained from the difference between the values.
[0099]
After such θ-axis tilt detection, it is determined whether or not the θ-axis tilt is within an allowable range (S330 in FIG. 28). If the angle is not within the allowable range, the installation of the θ-axis is mechanically adjusted (S340), the θ-axis table is adjusted horizontally again (S310), the inclination of the θ-axis is detected (S320), and the inclination of the θ-axis is allowable. It is determined whether it is within the range (S330). If it is within the allowable range, the θ axis adjustment processing ends.
[0100]
The case where the θ axis is rotated by 2π and the inclination of the θ axis is measured has been described above. However, there are cases where the θ axis cannot be rotated by 2π. If the θ axis cannot be rotated by 2π but can be rotated by π (180 degrees), as shown in FIG. 38, two θ axis adjustment grid points 312 and 313 located at point symmetry with respect to the rotation center grid point 311 are used. Is used. FIG. 39A shows a θ-axis table when the rotation angle of the θ-axis is 0 degrees adjusted to the XY plane, and FIG. 39A shows a θ-axis table when the rotation angle of the θ-axis is 180 degrees. Shown in B). While rotating the θ axis within 180 degrees, the XYZ coordinate values of the two θ axis adjustment lattice points 312 and 313 are measured, and the two θ axis adjustment lattice points 312 and 313 outside the θ axis measurement range are measured. The data shown in FIG. 40 is obtained by estimating the XYZ coordinate values. In FIG. 40, the Z coordinate of the first θ-axis adjustment grid point 312 and the second θ-axis adjustment grid point 313 is such that when the θ-axis rotation angle is 0 degree, the θ-axis table 310 is horizontal on the XY plane. So it matches. When the θ-axis is rotated by 180 degrees, the Z displacement of the first θ-axis adjusting grid point 312 and the Z displacement of the second θ-axis adjusting grid point 313 become maximum values. FIG. 40 shows the Z displacement range 3121 of the first θ-axis adjustment lattice point 312 and the Z displacement range 3131 of the second θ-axis adjustment lattice point 313.
[0101]
The data shown in FIG. 40 is obtained when the straight line connecting the two θ-axis adjustment grid points 312 and 313 matches the inclination direction of the θ-axis, and the two θ-axis adjustment grid points 312, If the straight line connecting 313 does not match the tilt angle of the rotation θ axis, the data is as shown in FIG. In FIG. 41, the Z displacement range 3122 of the first θ-axis adjustment grid point 312 and the Z displacement range 3132 of the second θ-axis adjustment grid point 313 are different from the first θ-axis adjustment grid point 312 and the second θ-axis adjustment grid point 312. When the line connecting the θ-axis adjustment lattice points 313 coincides with the inclination direction of the θ-axis (at an angle corresponding to the vertical broken line in the figure), the maximum value is obtained.
[0102]
Next, a case where the rotatable range of the θ axis is smaller than 180 degrees will be described. In such a case, as shown in FIG. 42, four θ-axis adjustment grid points 312, 313, 314, and 315 are selected, and the θ-axis is rotated within the θ-axis measurement range (306 in FIG. 43). When the XYZ coordinate values of the four θ-axis adjustment grid points 312, 313, 314, and 315 are measured, data indicated by solid lines in FIG. 43 is obtained. In FIG. 43, the Z displacement amount of the first θ-axis adjustment lattice point 312 is 3120, the Z displacement amount of the second θ-axis adjustment lattice point 313 is 3130, and the Z displacement amount of the third θ-axis adjustment lattice point 314. The displacement amount is indicated by 3140, and the Z displacement amount of the fourth θ-axis adjustment grid point 315 is indicated by 3150. In FIG. 43, for convenience of description, the line connecting the grid points for the θ-axis adjustment (the line connecting the grid point 312 for the first θ-axis adjustment and the grid point 313 for the second θ-axis) is the θ-axis. The case where the inclination direction coincides with the inclination direction is shown.
[0103]
FIG. 44 shows a detailed flow of θ-axis tilt detection (corresponding to S320 in FIG. 28) using the four θ-axis adjustment grid points 312, 313, 314, and 315. In FIG. 44, first, the rotation center position of the θ axis is detected (S321), and the rotation center position of the θ axis 300 is aligned with the rotation center lattice point 311 of the θ axis table 310 (S322). Then, the θ-axis adjustment grid points 312, 313, 314, and 315 are sequentially moved directly below the directly facing optical system, and the XYZ coordinates of the θ-axis adjustment grid points 312, 313, 314, and 315 are measured (S3231). ). Further, the θ-axis is rotated by a fixed angle, and the θ-axis adjustment grid points 312, 313, 314, and 315 are sequentially moved directly below the directly facing optical system, and the θ-axis adjustment grid points 312, 313, 314, and 315 are moved. The XYZ coordinates are measured (S3241). Here, the XYZ coordinate measurement of the θ-axis adjustment grid points 312, 313, 314, and 315 (S3241) is repeatedly performed at a fixed angle, and it is determined whether or not the θ-axis measurement range 306 is exceeded (S3251). If it exceeds the measurement range 306 of the θ axis, it is determined whether there is a point where the Z-direction displacement amount has the maximum value and the minimum value (S3252). , Rotate the θ-axis adjustment grid point (S3271). For example, the θ-axis adjustment lattice point is rotated by rotating the θ-axis table by hand or the like. Then, steps S321 to S3252 are repeated. If there is a point at which the maximum value and the minimum value are found, the direction and magnitude of the inclination of the θ axis are detected (S3261).
[0104]
The processing flow shown in FIG. 44 can also be applied to the case where the lines connecting the θ-axis adjustment grid points do not coincide with the inclination direction of the θ-axis.
[0105]
In FIGS. 31 and 44, the inclination direction of the θ axis on the XY plane is basically obtained. However, the adjustment can be performed without obtaining the inclination direction of the θ axis on the XY plane. When the θ-axis movable range is very small, such an adjustment method is easier. In the following, a description will be given assuming that the θ-axis movable range is narrow. First, the θ-axis table is adjusted to be horizontal with the XY plane. Next, the θ axis is rotated in the maximum + direction, and the XYZ coordinates of the θ axis adjustment grid points 312, 313, 314, 315 are measured. Subsequently, the θ-axis is rotated in the maximum negative direction, and the XYZ coordinates of the θ-axis adjustment grid points 312, 313, 314, and 315 are measured. When the Z coordinate values for the four θ-axis adjustment grid points 312, 313, 314, and 315 measured three times satisfy the accuracy in the specification of the apparatus, the adjustment is completed. If the accuracy in the specifications is not satisfied, the direction of the inclination on the XY plane of the θ axis and the magnitude of the inclination in that direction are estimated from the three measured values, corrected and corrected again. Perform
[0106]
Fourth Embodiment A case will be described in which the measurement method of the present invention is applied to Z-axis adjustment of an XYZ mechanism in which a Z mechanism is mounted on an XY mechanism. FIG. 45 shows an example of the XYZ mechanism. In FIG. 45, the adjustment is performed so that the Z-axis direction is orthogonal to the X-axis direction and the Y-axis direction. Here, the Z-axis adjustment is an adjustment to make the upper surface of the Z-axis table horizontal to the XY plane of the XY mechanism. It is assumed that pitching and yawing of the Z axis itself are adjusted in advance.
[0107]
The Z-axis adjustment is performed by placing an adjustment pattern 410 shown in FIG. 46 on a Z-axis table. At the four corner positions on the adjustment pattern 410, Z-axis adjustment lattice points 411 to 414 are provided. Specifically, the Z-axis adjustment is performed by moving the Z-axis table in the Z-axis direction, measuring the displacement of each of the Z-axis adjustment lattice points 411 to 414, and determining that the displacements of the four adjustment lattice points are constant. It is achieved by adjusting so that
[0108]
FIG. 47 shows a state before the Z-axis adjustment. The surface of the adjustment pattern 410 placed on the Z-axis table is inclined with respect to the XY plane 402 of the XY mechanism. In FIG. 47, the angle between the Z direction and the optical axis direction is very small. At the point measured geometrically at almost the same position in the optical axis direction, the difference between the length in the Z direction and the length in the optical axis direction is very small. When the XY table is moved as shown in FIG. 47 and measurement is performed at substantially the same position with respect to the optical system, the height can be detected as a difference in the Z direction. FIG. 48 is a flowchart showing a method of measuring the Z-axis coordinates. Here, the movable range in the Z-axis direction is long (for example, 30 mm), and is divided into sections in units of the depth of field (for example, 1 mm) of the optical system.
[0109]
Prior to performing the measurement shown in FIG. 48, an axis (optical system mounting axis) movable in a direction perpendicular to the XY plane is installed separately from the XYZ mechanism, and the optical system is mounted on this optical system mounting axis. The movable range of the optical system mounting shaft is longer than the movable range of the Z axis. Further, the Z-axis table is moved to the lowest point of the movable range of the Z-axis. Then, the measurement shown in FIG. 48 is performed.
[0110]
In FIG. 48, the optical system is moved such that the Z-axis adjustment grid point is located at the lower end of the depth of field of the optical system (S401). Next, attention is paid to a certain Z-axis adjustment grid point (for example, the first Z-axis adjustment grid point 411), and the X, Y, and Z coordinates of the grid point of interest 411 are measured (S402). The measured values here are (X1, Y1, Z1). Next, the Z-axis table is moved upward by the depth of field (1 mm) (S404), and the X, Y, and Z coordinates of the grid point of interest 411 are measured (S405). The measured values here are (X2, Y2, Z2). (X2-X1, Y2-Y1, Z2-Z1) is calculated as the displacement amount of the first section (S406). Next, the optical system is moved upward by the depth of field (1 mm) (S407), and the X, Y, and Z coordinates of the grid point of interest 411 are measured (S408). The measured values here are (X3, Y3, Z3). Again, the Z-axis table is moved upward by the depth of field (1 mm) (S404), and the X, Y, and Z coordinates of the grid point of interest are measured (S405). (X4-X3, Y4-Y3, Z4-Z4) are calculated as the displacement amount of the second section (S406). Steps S404 to S408 are performed until it is determined that the acquisition of the displacement amount in all the sections of the movable range of the Z axis has been completed (S403). Then, by integrating the displacement amounts in each section, a difference between the lowest point and the highest point of the movable range of the Z axis can be obtained. Note that, for convenience of explanation, the measurement is performed by focusing on one grid point. However, the accuracy can be improved by measuring and focusing on a plurality of grid points and performing statistical processing. For example, the X, Y, and Z coordinates of each of the Z-axis adjustment grid points 411, 412, 413, and 414 are measured while involving XY movement to the Z-axis adjustment grid points 411, 412, 413, and 414. The broken line in FIG. 47 indicates the Z-axis table 410 'when the XY movement to the second Z-axis adjustment grid point 412 is performed. The Z-axis adjustment grid point moves at least within the measurement range 420 and measures the coordinate value.
[0111]
The measurement data in the Z-axis movable range measured in this way can be used for adjusting the Z-axis tilt. Also, the measured data can be used as a correction value without adjusting the Z-axis tilt.
[0112]
Although the third embodiment has described the θ-axis adjustment of the XYZ θ mechanism and the fourth embodiment has described the Z-axis adjustment of the XYZ mechanism, these adjustment methods are used when assembling the XYZθ mechanism. The present invention can be similarly applied to mounting of the θ mechanism on the XYθ mechanism and mounting of the Z mechanism on the XYθ mechanism.
[0113]
【The invention's effect】
As described above, according to the present invention, the processing time can be reduced and the measurable range of the height can be expanded as compared with the case where the conventional autofocus is used.
[Brief description of the drawings]
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a diagram for explaining a state in which a target object is imaged in a facing direction and an oblique direction in a measuring method of the present invention.
FIG. 2 is a diagram illustrating a cross section of a portion where an image of an object is imaged.
FIGS. 3A, 3B, and 3C are diagrams respectively illustrating examples of directly-facing image data, oblique image data, and converted image data obtained by imaging an object having a reference height. .
FIGS. 4A, 4B, and 4C show examples of facing image data, oblique image data, and converted image data obtained by imaging an object having a height lower than a reference height, respectively. FIG.
FIG. 5 is a flowchart showing an outline of a process in an embodiment of the measuring method of the present invention.
FIG. 6 is a flowchart illustrating an outline of a first calibration process;
FIG. 7 is a flowchart illustrating an outline of a second calibration process;
FIG. 8 is a diagram illustrating an example of height conversion information.
FIG. 9 is a diagram for explaining a state in which a lattice pattern formed on the surface of the object is imaged in a facing direction and an oblique direction.
FIGS. 10A, 10B, and 10C are diagrams showing oblique image data, directly facing image data obtained by imaging a lattice pattern, and a superposition thereof.
FIG. 11 is a diagram provided for describing an index for designating pixels constituting image data.
FIG. 12 is a diagram provided for explanation of pixel values.
FIG. 13 is a diagram illustrating a relationship between pixels forming the directly-facing image data and pixels forming the oblique image data at the reference height.
FIG. 14 is a diagram provided for description of W (k, m).
FIG. 15 is a diagram provided for describing a method of obtaining W (k, m).
FIG. 16 is a diagram for explaining points picked up for obtaining W (k, m).
17A and 17B are diagrams for explaining the relationship between a point O and a quadrilateral EFGH.
FIGS. 18A, 18B, and 18C are diagrams for explaining the determination of the presence or absence of an intersection with a line segment;
FIG. 19 is a diagram for describing a case where a line segment overlaps a line segment;
FIG. 20 is a diagram provided to explain the relationship between pixels forming the directly-facing image data and pixels forming the oblique image data.
FIG. 21 is a flowchart for obtaining W (k, m).
FIG. 22 is a diagram provided for describing a relationship between a depth of field of the optical system and a searchable range.
FIG. 23 is a main part block diagram showing one embodiment of a measuring device of the present invention.
FIG. 24 is a schematic flowchart illustrating a height control method according to the first embodiment.
FIG. 25 is a diagram illustrating a sheet having slack as an example of a measurement object.
FIG. 26 is a schematic flowchart illustrating a slack measurement method according to a second embodiment.
FIG. 27 is a view schematically showing an XYθ mechanism before θ-axis adjustment.
FIG. 28 is a schematic flowchart illustrating an XYθ mechanism adjustment method according to a third embodiment.
FIG. 29 is a cross-sectional view of an example of the θ-axis table, showing a state where the rotation angle is 0 ° when one θ-axis adjustment grid point is selected.
FIGS. 30A and 30B are diagrams illustrating examples of a θ-axis table when one grid point for θ-axis adjustment is selected.
FIG. 31 is a flowchart showing details of θ-axis tilt detection processing in the XYθ mechanism adjustment method of the third embodiment.
FIG. 32 is a diagram showing image data of a grid pattern having a rotation angle of 0 °.
33 (A) and (B) are diagrams showing image data of a grid pattern rotated counterclockwise and image data of a grid pattern rotated clockwise.
FIG. 34 is a diagram showing image data obtained by superimposing a grid pattern having a rotation angle of 0 °, a grid pattern rotated counterclockwise, and a grid pattern rotated clockwise.
FIGS. 35 (A), (B) and (C) are diagrams showing patterns used for alignment of the θ-axis rotation center.
FIG. 36 is a cross-sectional view of the θ-axis table, showing a state rotated by 180 degrees when one grid point for θ-axis adjustment is selected.
FIG. 37 is a diagram illustrating displacement of the height of the θ-axis adjustment grid point when one θ-axis adjustment grid point is selected.
FIG. 38 is a diagram illustrating an example of a θ-axis table when two θ-axis adjustment grid points are selected.
FIGS. 39A and 39B are cross-sectional views of the θ-axis table when two grid points for θ-axis adjustment are selected.
FIG. 40 is a diagram illustrating displacement of the height of the θ-axis adjustment grid point when two θ-axis adjustment grid points are selected.
FIG. 41 is a diagram illustrating a displacement of the height of the θ-axis adjustment grid point when two θ-axis adjustment grid points that do not match the direction of the θ-axis tilt are selected.
FIG. 42 is a diagram illustrating an example of a θ-axis table when four θ-axis adjustment grid points are selected.
FIG. 43 is a diagram illustrating displacement of the height of the θ-axis adjustment grid points when four θ-axis adjustment grid points are selected.
FIG. 44 is a flowchart illustrating details of θ-axis tilt detection processing when four θ-axis adjustment grid points are selected.
FIG. 45 is a view schematically showing an XYZ mechanism before Z-axis adjustment.
FIG. 46 is a diagram showing an example of a Z-axis table when four grid points for Z-axis adjustment are selected.
FIG. 47 is a sectional view showing the Z-axis table in a state where the Z-axis is inclined.
FIG. 48 is a flowchart showing an XYZ mechanism adjusting method according to a fourth embodiment to which the present invention is applied.
FIG. 49 is a diagram provided for explanation of auto focus used in a conventional measurement method.
FIG. 50 is a diagram provided for explanation of adjustment of a conventional XYZθ mechanism.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Oblique imaging device, 10a ... Oblique optical system, 10b ... Oblique light receiving plane, 12 ... Facing imaging device, 12a ... Facing optical system, 12b ... Facing light receiving plane, 14 ... Illumination device, 41 ... Acquisition of image conversion parameters Unit, 42: height conversion information acquisition unit, 43, image data conversion unit, 44, image search unit, 45, position difference detection unit, 46, height detection unit, 51, XYZθ control unit (height control unit), 52: thickness detection unit, 53: slack measurement unit, 54: XYZθ adjustment unit (XYZ adjustment unit and XYθ adjustment unit), 60: storage device

Claims (10)

任意の高さに位置した対象物を斜め方向から撮像する斜め撮像手段及び前記対象物を正対する方向から撮像する正対撮像手段を用いて、前記斜め撮像手段で撮像した斜め画像データと前記正対撮像手段で撮像した正対画像データとに基づき前記対象物の高さを測定する測定方法であって、
前記斜め画像データを構成する画素と前記斜め画像データを変換した画像データ(以後「変換画像データ」という)を構成する画素との関係を示す画像変換パラメータであって、前記正対画像データに写される任意のパターンの形状と前記変換画像データ中のパターンの形状が相似するように前記斜め画像データを変換するための前記画像変換パラメータを取得する座標変換パラメータ取得工程と、
任意の高さに位置した前記対象物を前記正対撮像手段で撮像して得た正対画像データと前記斜め撮像手段で撮像して得た斜め画像データとを取得する画像データ取得工程と、
前記画像変換パラメータに基づいて、前記対象物の斜め画像データを前記変換画像データに変換する画像データ変換工程と、
前記対象物上の特定の点について、前記正対画像データ上の位置と前記変換画像データ上の位置の差分を検出する位置差分検出工程と、
前記位置の差分に基づいて、前記対象物の高さを検出する高さ検出工程と、
を含むことを特徴とする測定方法。
Using oblique imaging means for imaging an object located at an arbitrary height from an oblique direction and facing image capturing means for imaging the object from a directly facing direction, the oblique image data imaged by the oblique imaging means and A measurement method for measuring the height of the object based on directly-facing image data captured by the paired imaging means,
An image conversion parameter indicating a relationship between pixels constituting the oblique image data and pixels constituting image data obtained by converting the oblique image data (hereinafter referred to as “converted image data”). A coordinate conversion parameter obtaining step of obtaining the image conversion parameter for converting the oblique image data so that the shape of an arbitrary pattern to be formed and the shape of the pattern in the converted image data are similar,
Image data acquisition step of acquiring the directly located image data obtained by imaging the object located at an arbitrary height by the directly-facing imaging means and oblique image data obtained by imaging by the oblique imaging means,
An image data conversion step of converting the oblique image data of the object into the converted image data based on the image conversion parameter,
For a specific point on the object, a position difference detecting step of detecting a difference between a position on the directly-facing image data and a position on the converted image data,
Based on the difference between the positions, a height detection step of detecting the height of the object,
A measuring method characterized by comprising:
前記画像データ変換工程は、
前記変換画像データを構成する画素[I,J]の光強度Img2(I,J)を、次式(1)に従って求めることを特徴とする請求項1に記載の測定方法。
Img2(I,J) = Σ[W(k,m)×Img1 (k,m)]/ΣW(k,m) (1)
ただし、I、J、k及びmを整数として、
Img1(k,m)は、前記斜め画像データを構成する第k行第m列の画素[k,m]の光強度である。
W(k,m)は、前記画像変換パラメータであって、基準となる特定の高さで前記正対撮像手段の受光平面(以後「正対受光平面」という)上の第I行第J列の画素[I,J]が前記斜め撮像手段の受光平面(以後「斜め受光平面」という)上に投影される場合の前記斜め受光平面の画素[k,m]上に投影される面積を表す。
また、(1)式の右辺の和を求める範囲は、前記斜め受光平面上に投影される前記正対受光平面上の画素[I,J]が、前記斜め受光平面上の画素[k,m]上に一部でも投影されれば、その投影されている画素[k,m]全てにわたるものとする。
The image data conversion step,
The measurement method according to claim 1, wherein the light intensity Img2 (I, J) of the pixel [I, J] constituting the converted image data is obtained according to the following equation (1).
Img2 (I, J) = Σ [W (k, m) × Img1 (k, m)] / ΣW (k, m) (1)
Where I, J, k and m are integers,
Img1 (k, m) is the light intensity of the pixel [k, m] on the k-th row and the m-th column that constitutes the oblique image data.
W (k, m) is the image conversion parameter, and is the I-th row and J-th column on the light receiving plane of the directly-facing imaging means (hereinafter referred to as “directly-facing light receiving plane”) at a specific reference height. Represents the area projected on the pixel [k, m] of the oblique light receiving plane when the pixel [I, J] is projected on the light receiving plane (hereinafter referred to as “oblique light receiving plane”) of the oblique imaging means. .
The range for calculating the sum of the right side of the equation (1) is that the pixel [I, J] on the directly-facing light receiving plane projected on the oblique light receiving plane is the pixel [k, m] on the oblique light receiving plane. ], It is assumed that all the projected pixels [k, m] are projected.
前記画像変換パラメータ取得工程は、
基準となる特定の高さに配置した、特徴ある複数の点を有するテストパターンを、前記正対撮像手段及び前記斜め撮像手段で撮像する工程と、
前記テストパターン中の特徴ある複数の点にそれぞれ対応する斜め画像データ中の複数の画素の座標(以後「斜め平面座標」という)を取得するとともに、前記特徴ある複数の点にそれぞれ対応する正対画像データ中の複数の画素の座標(以後「正対平面座標」という)を取得する工程と、
前記斜め平面座標と前記正対平面座標とに基づいて、前記斜め画像データを構成する画素の座標と前記正対画像データを構成する画素の座標との関係を示す座標変換パラメータを算出する工程と、
前記基準となる特定の高さにおける前記座標変換パラメータに基づいて、前記画像変換パラメータを算出する工程と、
を含むことを特徴とする請求項1又は2に記載の測定方法。
The image conversion parameter acquisition step,
A step of imaging a test pattern having a plurality of characteristic points arranged at a specific height serving as a reference by the directly-facing imaging unit and the oblique imaging unit,
The coordinates of a plurality of pixels in the diagonal image data respectively corresponding to the plurality of characteristic points in the test pattern (hereinafter, referred to as “diagonal plane coordinates”) are obtained. Acquiring coordinates of a plurality of pixels in the image data (hereinafter referred to as “facing plane coordinates”);
Calculating a coordinate conversion parameter indicating a relationship between the coordinates of the pixels constituting the oblique image data and the coordinates of the pixels constituting the facing image data, based on the oblique plane coordinates and the facing plane coordinates; ,
Calculating the image conversion parameter based on the coordinate conversion parameter at the specific height serving as the reference,
The measurement method according to claim 1, comprising:
特徴ある複数の点を有するテストパターンを高さ方向に段階的に移動させる工程と、
各高さにおいて前記テストパターンを前記正対撮像手段及び前記斜め撮像手段で撮像する工程と、
各高さで撮像した前記テストパターンの斜め画像データを前記座標変換パラメータ及び前記画像変換パラメータに基づいて変換する工程と、
前記テストパターン上の特定の点について、前記テストパターンの正対画像データ上の位置と前記テストパターンの変換画像データ上の位置との差分を検出する工程と、
前記テストパターンの各高さと各位置の差分とを関連付けて高さ変換情報を生成する工程とを含み、
前記高さ検出工程は、前記高さ変換情報に基づいて、前記対象物の高さを検出することを特徴とする請求項1、2又は3に記載の測定方法。
Moving a test pattern having a plurality of characteristic points stepwise in the height direction;
Imaging the test pattern at each height by the directly-facing imaging means and the oblique imaging means;
Converting oblique image data of the test pattern imaged at each height based on the coordinate conversion parameters and the image conversion parameters,
For a specific point on the test pattern, a step of detecting a difference between a position on the directly-facing image data of the test pattern and a position on the converted image data of the test pattern,
Generating height conversion information by associating each height of the test pattern with a difference between each position,
4. The measuring method according to claim 1, wherein the height detecting step detects a height of the object based on the height conversion information.
請求項1、2、3又は4に記載の測定方法によって測定された前記対象物の高さが一定となるように、前記対象物の高さを制御することを特徴とする高さ制御方法。A height control method, comprising: controlling the height of the object so that the height of the object measured by the measurement method according to claim 1 is constant. 任意の高さに位置した対象物を斜め方向から撮像する斜め撮像手段及び前記対象物を正対する方向から撮像する正対撮像手段と、
前記斜め画像データを構成する画素と前記斜め画像データを変換した画像データ(以後「変換画像データ」という)を構成する画素との関係を示す画像変換パラメータであって、前記正対画像データに写された任意のパターンの形状と前記変換画像データ中のパターンの形状が相似するように前記斜め画像データを変換するための前記画像変換パラメータを取得する座標変換パラメータ取得手段と、
前記画像変換パラメータに基づいて、前記対象物の斜め画像データを前記変換画像データに変換する画像データ変換手段と、
前記対象物が有する特徴パターン上の特定の点について、前記正対画像データ上と前記変換画像データ上との位置の差分を検出する位置差分検出手段と、
前記位置の差分に基づいて、前記対象物の高さを検出する高さ検出手段と、
を備えたことを特徴とする測定装置。
Oblique imaging means for imaging an object located at an arbitrary height from an oblique direction, and facing imaging means for imaging the object from a direction facing the object,
An image conversion parameter indicating a relationship between pixels constituting the oblique image data and pixels constituting image data obtained by converting the oblique image data (hereinafter referred to as “converted image data”). Coordinate conversion parameter obtaining means for obtaining the image conversion parameter for converting the oblique image data so that the shape of the arbitrary pattern and the shape of the pattern in the converted image data are similar,
Image data conversion means for converting the oblique image data of the object into the converted image data based on the image conversion parameters,
For a specific point on the feature pattern of the object, a position difference detection unit that detects a difference in position between the directly-facing image data and the converted image data,
Height detection means for detecting the height of the object based on the difference between the positions,
A measuring device comprising:
前記正対撮像手段の光軸を対称軸として、前記斜め撮像手段の光軸と線対称となる軸上に、照明手段を設けたことを特徴とする請求項6に記載の測定装置。7. The measuring apparatus according to claim 6, wherein an illuminating unit is provided on an axis that is line-symmetric with the optical axis of the oblique imaging unit, with the optical axis of the facing imaging unit as a symmetric axis. 請求項6又は7に記載の測定装置と、前記測定装置によって測定された前記対象物の高さが一定となるように前記対象物の高さを制御する高さ制御手段を備えたことを特徴とする高さ制御装置。8. A measuring device according to claim 6, further comprising height control means for controlling the height of the object such that the height of the object measured by the measuring device is constant. And height control device. 複数の半導体基板をストックするカセットと、前記カセットから半導体基板を一枚ずつ取り出して搬送する搬送手段とを備える半導体製造装置において、請求項6又は7に記載の測定装置又は請求項8に記載の高さ制御装置を備え、前記対象物を前記カセットから取り出された前記半導体基板としたことを特徴とする半導体製造装置。9. A semiconductor manufacturing apparatus comprising: a cassette for stocking a plurality of semiconductor substrates; and transport means for removing and transporting semiconductor substrates one by one from the cassette, wherein the measuring device according to claim 6 or 7 or the measuring device according to claim 8 A semiconductor manufacturing apparatus comprising a height control device, wherein the object is the semiconductor substrate taken out of the cassette. 複数の工程を結ぶ搬送手段と、画像による1乃至複数の検査手段とを備える搬送ラインにおいて、請求項6又は7に記載の測定装置又は請求項8に記載の高さ制御装置を備え、前記対象物を前記搬送ラインで搬送される物体としたことを特徴とする搬送ライン。A transport line comprising transport means connecting a plurality of processes and one or more inspecting means based on images, comprising: the measuring device according to claim 6 or 7 or the height control device according to claim 8, wherein A transport line, wherein an object is an object transported on the transport line.
JP2003137225A 2003-05-15 2003-05-15 Measuring method and measuring apparatus using stereo optical system Expired - Fee Related JP3915033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003137225A JP3915033B2 (en) 2003-05-15 2003-05-15 Measuring method and measuring apparatus using stereo optical system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003137225A JP3915033B2 (en) 2003-05-15 2003-05-15 Measuring method and measuring apparatus using stereo optical system

Publications (2)

Publication Number Publication Date
JP2004340728A true JP2004340728A (en) 2004-12-02
JP3915033B2 JP3915033B2 (en) 2007-05-16

Family

ID=33526940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003137225A Expired - Fee Related JP3915033B2 (en) 2003-05-15 2003-05-15 Measuring method and measuring apparatus using stereo optical system

Country Status (1)

Country Link
JP (1) JP3915033B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006216834A (en) * 2005-02-04 2006-08-17 Jeol Ltd Height measuring method in electron-beam writing apparatus
JP2007071824A (en) * 2005-09-09 2007-03-22 Tokyo Electron Ltd Method for adjusting parallelism of probe card and mounting base, inspection program storage medium, and inspection device
JP2009014413A (en) * 2007-07-02 2009-01-22 Orion Breweries Ltd Inspection device
JP2010169505A (en) * 2009-01-22 2010-08-05 Meidensha Corp Pantograph height measuring device and method for calibrating the same
JP2011112401A (en) * 2009-11-24 2011-06-09 Omron Corp Calibration method for three-dimensional measurement and three-dimensional visual sensor
JP2011528800A (en) * 2008-07-21 2011-11-24 ヴィトロックス コーポレーション ビーエイチディー Method and means for measuring the position of a contact element of an electronic component
JP2014000081A (en) * 2013-08-05 2014-01-09 Fuji Xerox Co Ltd Image processing device, program and image processing system
US9363486B2 (en) 2011-06-09 2016-06-07 Fuji Xerox Co., Ltd. Image processing device, image processing method, and image processing system
CN109985846A (en) * 2019-01-11 2019-07-09 贵州电网有限责任公司 A kind of laser radar scaling method of substation's living water washing robot
WO2023139659A1 (en) * 2022-01-18 2023-07-27 ヤマハロボティクスホールディングス株式会社 Method for generating three-dimensional diagram of object, three-dimensional diagram generation device, and three-dimensional shape inspection device
WO2023139660A1 (en) * 2022-01-18 2023-07-27 ヤマハロボティクスホールディングス株式会社 Three-dimensional digital microscope

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4533766B2 (en) * 2005-02-04 2010-09-01 日本電子株式会社 Method for measuring height in electron beam lithography system
JP2006216834A (en) * 2005-02-04 2006-08-17 Jeol Ltd Height measuring method in electron-beam writing apparatus
JP2007071824A (en) * 2005-09-09 2007-03-22 Tokyo Electron Ltd Method for adjusting parallelism of probe card and mounting base, inspection program storage medium, and inspection device
JP4685559B2 (en) * 2005-09-09 2011-05-18 東京エレクトロン株式会社 Method for adjusting parallelism between probe card and mounting table, inspection program storage medium, and inspection apparatus
JP2009014413A (en) * 2007-07-02 2009-01-22 Orion Breweries Ltd Inspection device
JP2011528800A (en) * 2008-07-21 2011-11-24 ヴィトロックス コーポレーション ビーエイチディー Method and means for measuring the position of a contact element of an electronic component
JP2010169505A (en) * 2009-01-22 2010-08-05 Meidensha Corp Pantograph height measuring device and method for calibrating the same
JP2011112401A (en) * 2009-11-24 2011-06-09 Omron Corp Calibration method for three-dimensional measurement and three-dimensional visual sensor
US9363486B2 (en) 2011-06-09 2016-06-07 Fuji Xerox Co., Ltd. Image processing device, image processing method, and image processing system
JP2014000081A (en) * 2013-08-05 2014-01-09 Fuji Xerox Co Ltd Image processing device, program and image processing system
CN109985846A (en) * 2019-01-11 2019-07-09 贵州电网有限责任公司 A kind of laser radar scaling method of substation's living water washing robot
CN109985846B (en) * 2019-01-11 2022-07-08 贵州电网有限责任公司 Laser radar calibration method for live-line water washing robot of transformer substation
WO2023139659A1 (en) * 2022-01-18 2023-07-27 ヤマハロボティクスホールディングス株式会社 Method for generating three-dimensional diagram of object, three-dimensional diagram generation device, and three-dimensional shape inspection device
WO2023139660A1 (en) * 2022-01-18 2023-07-27 ヤマハロボティクスホールディングス株式会社 Three-dimensional digital microscope

Also Published As

Publication number Publication date
JP3915033B2 (en) 2007-05-16

Similar Documents

Publication Publication Date Title
US8629902B2 (en) Coordinate fusion and thickness calibration for semiconductor wafer edge inspection
US20130194569A1 (en) Substrate inspection method
CN112015056B (en) Overlay offset value correction method, electronic device and computer-readable storage medium
JP2000502447A (en) Multi-field calibration plate for semiconductor manufacturing
CN106017313B (en) Edge detection deviation correction value calculation method, edge detection deviation correction method and device
EP1851507A2 (en) Methods and systems for determining overlay error based on target image symmetry
JP3915033B2 (en) Measuring method and measuring apparatus using stereo optical system
CN103676487B (en) A kind of workpiece height measurement mechanism and bearing calibration thereof
US20050082693A1 (en) Image processing alignment method and method of manufacturing semiconductor device
JP2007040801A (en) Three-dimensional coordinate measuring system and method
KR101545186B1 (en) method of correction of defect location using predetermined wafer image targets
CN105988310B (en) Photolithography method and wafer
TW201432831A (en) Method of calibrating target values and processing systems configured to calibrate the target values
CN108898585A (en) A kind of axial workpiece detection method and its device
CN107833841A (en) Defect inspection method
JPH1183439A (en) Image measurement device
JP2012026816A (en) Dimension measuring method and device
JP2565585B2 (en) Position detection method for scribe line intersection area
JP4167482B2 (en) Image conversion method and image conversion apparatus
JP5261891B2 (en) Alignment mark and position measurement method
CN112927305B (en) Geometric dimension precision measurement method based on telecentricity compensation
JP4207689B2 (en) Misalignment measuring device
JP4997768B2 (en) Inspection device
JP4046282B2 (en) Range finder
Woźniak et al. The use of video-tacheometric technology for documenting and analysing geometric features of objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070123

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130216

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130216

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140216

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees