JPH08181053A - Position detecting method - Google Patents

Position detecting method

Info

Publication number
JPH08181053A
JPH08181053A JP6321088A JP32108894A JPH08181053A JP H08181053 A JPH08181053 A JP H08181053A JP 6321088 A JP6321088 A JP 6321088A JP 32108894 A JP32108894 A JP 32108894A JP H08181053 A JPH08181053 A JP H08181053A
Authority
JP
Japan
Prior art keywords
image
exposure
pattern
template
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6321088A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Katamata
義之 片又
Hideki Koitabashi
英樹 小板橋
Masamitsu Yanagihara
政光 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP6321088A priority Critical patent/JPH08181053A/en
Publication of JPH08181053A publication Critical patent/JPH08181053A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To enhance the detecting accuracy of a pattern to be an aligning reference by executing a masking on the part of a template image, conducting the masking even on the part corresponding to the masked part, obtaining a correlation value of non-masked areas, and extracting a candidate image as a corresponding image. CONSTITUTION: An exposure area is imaged, and the part 45a of a template image 45 previously stored from the imaged image 50 is masked. Simultaneously, the part 53a corresponding to the masked part of the template image of the candidate image 53 listed as the candidate of the extracted corresponding image is also masked. Then, the non-masked area 4b of the image 45 is compared with the non-masked area 53b of the candidate image to obtain correlation value of the non-masked areas, and when the correlation value is a predetermined value or more, the image 53 is extracted as the corresponding image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は位置合わせ方法に関し、
例えば大型基板上に小面積の露光領域をつなぎ合わせて
また重ね合わせて露光し、大面積の大型液晶表示素子を
形成する露光装置に好適に適用できる位置合わせ方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an alignment method,
For example, the present invention relates to a positioning method that can be suitably applied to an exposure apparatus that forms a large-sized large-sized liquid crystal display element by exposing a small-sized exposed area by connecting and overlapping the small-sized exposed areas on a large-sized substrate.

【0002】[0002]

【従来の技術】従来より、基板上に大面積の液晶表示素
子等を形成する露光装置の1つとして、ステップアンド
リピート方式の投影露光装置が用いられている。これは
基板上に小面積の露光領域を複数、互いに端部を接続し
て露光(つなぎ露光)し、全体として大面積の素子を形
成するものである。
2. Description of the Related Art Conventionally, a step-and-repeat type projection exposure apparatus has been used as one of exposure apparatuses for forming a large-area liquid crystal display element or the like on a substrate. This is to form a large-area device as a whole by exposing (joint exposure) a plurality of small-area exposure regions with their ends connected to each other.

【0003】ところが、投影光学系には歪曲収差(ディ
ストーション)等の結像特性があるため、小面積の露光
領域同士の接続部分(つなぎ部分)に結像されるパター
ンにずれが生じ易い。このため、本来連続して形成され
るべきパターンがつなぎ部分にて不連続になることがあ
る。このずれが大きければ(すなわち、つなぎ合わせの
精度が悪ければ)、つなぎ部分に形成される素子の性能
と他の部分に形成される素子の性能との間に相違が生
じ、その結果、つなぎ部分に相当する画面上にコントラ
スト差や色むらが生じ、これらが人間の目に知覚される
ことがあった。
However, since the projection optical system has an image forming characteristic such as distortion, the pattern formed on the connecting portion (connecting portion) between the exposure areas having a small area is likely to be deviated. For this reason, the pattern that should originally be formed may be discontinuous at the connecting portion. If this deviation is large (that is, if the joining accuracy is low), there will be a difference between the performance of the element formed in the joint portion and the performance of the element formed in the other portion, resulting in a joint portion. The contrast difference and the color unevenness were generated on the screen corresponding to, and these were sometimes perceived by human eyes.

【0004】また各素子は下地となるパターンの上に順
に二層目、三層目のパターンを重ね露光して形成するの
が一般的である。この場合にも、下地のパターン上に重
ねて露光されるパターンの重ね合わせ精度が悪いと、上
述の場合と同様、素子の性能低下が生じることになる。
このような隣接する露光領域間のつなぎ合わせ精度や、
同一領域上に形成されるパターン同士の重ね合わせ精度
を改善するために、従来より、露光したパターンの領域
外の代表的な位置にパターンの露光と同時に露光された
マークのずれを検出して、このずれ量が最小になるよう
に補正パラメータを求める方法が知られている。
In general, each element is formed by sequentially exposing a second layer pattern and a third layer pattern on a base pattern. Also in this case, if the overlay accuracy of the pattern which is overlaid on the underlying pattern and exposed is poor, the performance of the element is deteriorated as in the case described above.
The accuracy of joining between adjacent exposure areas like this,
In order to improve the overlay accuracy of the patterns formed on the same area, conventionally, by detecting the deviation of the mark exposed at the same time as the exposure of the pattern at a typical position outside the area of the exposed pattern, A method is known in which a correction parameter is obtained so that this deviation amount is minimized.

【0005】例えば、感光基板としてのガラスプレート
を4つの露光領域に分割してつなぎ露光する場合、画素
パターンが描画された領域の外周近傍にバーニアパター
ンを配置したレチクルを用いて露光領域をつなぎ合わせ
又は重ね合わせて露光すると共に、このバーニアパター
ン同士が重なり合うように露光していた。そしてプレー
ト上に形成された複数箇所のバーニアパターン像を目視
又は専用の測定機で読み取り、その読み取り値が平均的
に最小になるように最小自乗法等を用いて補正パラメー
タ(感光基板等の2次元方向のスケーリング量、シフト
量や回転量等)を求めている。
For example, when a glass plate as a photosensitive substrate is divided into four exposure areas and connected for exposure, the exposure areas are connected by using a reticle in which a vernier pattern is arranged in the vicinity of the outer periphery of the area where the pixel pattern is drawn. Alternatively, the vernier patterns are overlapped and exposed so that the vernier patterns overlap each other. Then, the vernier pattern images at a plurality of positions formed on the plate are read visually or by a dedicated measuring machine, and the correction parameter (2 for the photosensitive substrate or the like is used so as to minimize the read value on average). The amount of scaling, the amount of shift, the amount of rotation, etc. in the dimensional direction are calculated.

【0006】ところが位置合わせ(補正)に用いるマー
ク(バーニアパターン)は画素パターンを構成するもの
ではないため、液晶表示素子を構成する画素パターンが
形成される領域内にはこれらのマークを形成できず、そ
の周辺に作成するしかなかった。しかし、露光領域をつ
なぎ合わせるとともに重ね合わせて露光する場合には、
そのつなぎ部分に対応する領域同士の位置合わせ状態
と、周辺領域での位置合わせ状態は異なるため、精度良
くパターンをつなぎ合わせ、又は重ね合わせることがで
きなかった。そして、特に周辺位置に形成されたバーニ
アパターンから離れた位置にある像(例えば画素パター
ンの領域の中心部)について、十分な位置合わせができ
なかった。また、位置合わせ精度を向上するために、基
板周辺に配置されるバーニアパターンの数を多くする等
の処置も考えられるが、基板周辺は製造プロセス上での
影響を受けやすく、基板周辺に配置されるバーニアパタ
ーンに対するダメージも比較的大きくなるために、十分
な精度向上が望めなかった。
However, since the mark (vernier pattern) used for alignment (correction) does not form a pixel pattern, these marks cannot be formed in the area where the pixel pattern forming the liquid crystal display element is formed. , I had no choice but to make it around it. However, when connecting the exposure areas and exposing them in superposition,
Since the alignment state of the regions corresponding to the connecting portion and the alignment state of the peripheral region are different, it was not possible to accurately connect or overlap the patterns. In particular, it was not possible to perform sufficient alignment with respect to the image (for example, the central portion of the pixel pattern region) located at a position apart from the vernier pattern formed in the peripheral position. In addition, in order to improve the alignment accuracy, it is possible to take measures such as increasing the number of vernier patterns arranged around the substrate, but the periphery of the substrate is easily affected by the manufacturing process, and it is arranged around the substrate. Since the damage to the vernier pattern is relatively large, we could not expect a sufficient improvement in accuracy.

【0007】[0007]

【発明が解決しようとする課題】そこで、基板周辺に配
置されるバーニアパターンを位置合わせの基準として用
いる代わりに、露光される画素パターンの中から予め登
録された基準画像(テンプレート画像)に合致する画像
を抽出し、その画像の位置に基づいて基板の位置を検出
し、位置合わせを行う方法が提案されている。その場合
には、隣接する第1及び第2の領域のつなぎ部分を含ん
で複数箇所撮像し、撮像された複数の撮像箇所それぞれ
において、テンプレート画像に対応する画像の位置を検
出し、それらの位置の偏差が最小となるように位置合わ
せを行うことにより、つなぎ合わせ露光精度及び重ね合
わせ露光精度の向上を図っている。
Therefore, instead of using the vernier pattern arranged around the substrate as a reference for alignment, the vernier pattern is matched with a reference image (template image) registered in advance from the pixel patterns to be exposed. A method of extracting an image, detecting the position of the substrate based on the position of the image, and performing alignment has been proposed. In that case, images are taken at a plurality of locations including the connecting portion of the adjacent first and second regions, the positions of the images corresponding to the template image are detected at each of the plurality of imaged locations, and those positions are detected. By performing the alignment so as to minimize the deviation of, the joint exposure accuracy and the overlay exposure accuracy are improved.

【0008】このように、位置検出用のパターンとし
て、例えば液晶表示素子を構成する画素パターンを用い
た場合には、バーニアパターンのような特別なパターン
を基板上に必要としないという利点はあるものの、例え
ば、以下に示すような製造プロセス上の影響を受けやす
くなってしまう。 (1)テンプレート画像や被処理画像として採集した特
徴のあるパターンに近接して別のパターンが存在する場
合。 (2)テンプレート画像や被処理画像として採集したパ
ターンのエッジに傾斜がある場合など、画像上でパター
ンの輪郭が曖昧なボケた像となる場合。 (3)製造プロセス上の相違や、画像取り込み装置の相
違により、採取した画像データ全体に輝度差のオフセッ
トがのり、画面の明暗に差が生じてしまう場合。
As described above, when the pixel pattern forming the liquid crystal display element is used as the position detecting pattern, there is an advantage that a special pattern such as a vernier pattern is not required on the substrate. For example, the manufacturing process is likely to be affected as described below. (1) In the case where another pattern exists close to the characteristic pattern collected as the template image or the image to be processed. (2) In the case where the edge of the pattern collected as the template image or the image to be processed has an inclination, or the like, the outline of the pattern becomes an ambiguous blurred image on the image. (3) In the case where an offset of the brightness difference is applied to the entire sampled image data due to the difference in the manufacturing process or the difference of the image capturing device, and the difference in the brightness of the screen occurs.

【0009】そして、上記のような場合に、位置の誤検
出や、位置検出精度の不良や、エラーが発生してしまう
ため問題となっていた。本発明は、従来の位置検出方法
が有する上記のような問題点に鑑みて成されたものであ
り、小面積の露光領域をつなぎ合わせて又は重ね合わせ
て露光する際の位置合わせ基準となるパターンの検出精
度を高め、つなぎ合わせ精度や重ね合わせ精度を一段と
高めることができる新規かつ改良された位置合わせ方法
を提供することを目的としている。
In the above case, there are problems such as erroneous position detection, poor position detection accuracy, and errors. The present invention has been made in view of the above problems of the conventional position detection method, and a pattern serving as a positioning reference when exposing small-area exposure regions by joining or overlapping. It is an object of the present invention to provide a new and improved alignment method capable of increasing the detection accuracy of the, and further increasing the connection accuracy and the overlay accuracy.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、露光原板(R)上に形成された原画パタ
ーンが転写された露光領域を有する感光基板(5)上を
撮像して得られる画像情報(50、55)から基準とな
るテンプレート(45、47)に関する画像情報に対応
する情報(53、56)を検出することにより、感光基
板(5)の位置を検出するために、露光領域を撮像し、
その撮像画像(50、55)から予め記憶されているテ
ンプレート画像(45、47)に相当する対応画像(5
3、56)を抽出するに際して、まず、テンプレート画
像(45、47)の一部(45a、47a)にマスキン
グを施すとともに、抽出する対応画像の候補として挙げ
られた候補画像(53、56)のうちテンプレート画像
のマスキング部分に対応する部分(53a、56a)に
対してもマスキングを施す。次いで、テンプレート画像
(45、47)の非マスキング領域(45b、47b)
と候補画像の非マスキング領域(53b、56b)とを
比較して非マスキング領域同士の相関値を求め、その相
関値が所定値以上の場合に候補画像(53、56)を対
応画像として抽出している。
In order to solve the above-mentioned problems, the present invention takes an image on a photosensitive substrate (5) having an exposure area to which an original image pattern formed on an exposure original plate (R) is transferred. In order to detect the position of the photosensitive substrate (5) by detecting the information (53, 56) corresponding to the image information regarding the template (45, 47) serving as the reference from the image information (50, 55) obtained as a result. , Image the exposure area,
Corresponding images (5) corresponding to template images (45, 47) stored in advance from the captured images (50, 55).
3, 56), first, part of the template image (45, 47) (45a, 47a) is masked, and the candidate images (53, 56) listed as candidates for the corresponding image to be extracted are extracted. Of these, the portions (53a, 56a) corresponding to the masking portions of the template image are also masked. Then, the non-masking area (45b, 47b) of the template image (45, 47)
And a non-masking area (53b, 56b) of the candidate image are compared to obtain a correlation value between the non-masking areas, and when the correlation value is equal to or more than a predetermined value, the candidate image (53, 56) is extracted as a corresponding image. ing.

【0011】なお、上記のようにテンプレート画像の対
応画像を抽出するために画像の一部にマスキング処理を
施す前に、テンプレート画像の全画像(45、47)と
候補画像の全画像(53、56)とを比較して全画像同
士の相関値を求め、その全画像同士の相関値が所定値よ
りも低い場合に、マスキング処理を施すように構成する
ことも可能である。またマスキング処理を施すにあた
り、マスキングを施すテンプレート画像の部分(45
a、47a)を予め設定しておくことも可能である。あ
るいは、予めテンプレート画像を複数の領域(46a〜
46c、48a〜48d)に分割するとともに、候補画
像もそのテンプレート画像に対応させて複数の領域に分
割し、それらの対応する分割領域同士を比較して各分割
領域同士の相関値を求め、相関値が最も低い部分(46
c、48a)に対してマスキング処理を施すことも可能
である。
Before performing a masking process on a part of the image in order to extract the corresponding image of the template image as described above, all images of the template image (45, 47) and all images of the candidate image (53, 56), the correlation value between all the images is obtained, and when the correlation value between all the images is lower than a predetermined value, the masking process may be performed. When performing the masking process, the part of the template image to be masked (45
It is also possible to preset a, 47a). Alternatively, the template image is previously set in a plurality of regions (46a-
46c, 48a to 48d), the candidate image is also divided into a plurality of regions corresponding to the template image, and the corresponding divided regions are compared to obtain a correlation value between the divided regions, The lowest value (46
It is also possible to apply a masking treatment to c, 48a).

【0012】本発明の別の観点によれば 露光原板
(R)上に形成された原画パターンが転写された露光領
域を有する感光基板(5)上を撮像して得られる画像情
報(50、55)から基準となるテンプレート(45、
47)に関する画像情報に対応する情報(53、56)
を検出することにより、感光基板(5)の位置を検出す
るために、露光領域を撮像し、その撮像画像(50、5
5)から予め記憶されているテンプレート画像(45、
47)に相当する対応画像(53、56)を抽出するに
際して、まず、テンプレート画像に含まれる所定領域
(49)のグレイレベルの平均値と対応画像の候補とし
て挙げられた候補画像のテンプレート画像の所定領域に
対応する領域(57)のグレイレベルの平均値とを比較
する。テンプレート画像のグレイレベルの平均値と候補
画像のグレイレベルの平均値との差分をオフセット誤差
として補正して(49a)テンプレート画像と候補画像
との相関値を求め、その相関値が所定値以上の場合に候
補画像を対応画像として同定し抽出している。
According to another aspect of the present invention, image information (50, 55) obtained by picking up an image on a photosensitive substrate (5) having an exposure area to which an original image pattern formed on an exposure original plate (R) is transferred. ) As a reference template (45,
Information corresponding to the image information regarding (47) (53, 56)
To detect the position of the photosensitive substrate (5), the exposure area is imaged, and the captured image (50, 5
5) template images (45,
When extracting the corresponding image (53, 56) corresponding to 47), first, the average value of the gray level of the predetermined area (49) included in the template image and the template image of the candidate image listed as the candidate of the corresponding image are extracted. The average value of the gray level of the area (57) corresponding to the predetermined area is compared. The difference between the average gray level of the template image and the average gray level of the candidate image is corrected as an offset error (49a) to obtain the correlation value between the template image and the candidate image, and the correlation value is not less than a predetermined value. In this case, the candidate image is identified and extracted as the corresponding image.

【0013】さらに本発明は上記方法により抽出した対
応画像を用いて位置合わせを行う際のつなぎ誤差又は重
ね合わせ誤差の補正量を決定する場合にも適用される。
その第1の場合はつなぎ誤差に関するものであり、まず
露光原板(R)上に形成された原画パターンが転写され
た露光領域を有する感光基板(5)上を撮像して得られ
る画像情報から基準となるテンプレートに関する画像情
報(27)に対応する情報(28A、28B)を検出す
ることにより、感光基板(5)の位置を検出するため
に、露光領域のうち隣接する第1及び第2の露光領域
(例えば22Aと22B)のつなぎ部分24Aを含んで
複数箇所撮像する。
Further, the present invention is also applied to the case where the correction amount of the joint error or the overlay error at the time of performing the alignment is determined by using the corresponding image extracted by the above method.
The first case relates to a connection error, and first, a reference is made from image information obtained by capturing an image on a photosensitive substrate (5) having an exposure area to which an original image pattern formed on an exposure original plate (R) is transferred. To detect the position of the photosensitive substrate (5) by detecting information (28A, 28B) corresponding to the image information (27) relating to the template that becomes the first and second exposure areas adjacent to each other in the exposure area. Imaging is performed at a plurality of points including the connecting portion 24A of the regions (for example, 22A and 22B).

【0014】次いで撮像された複数の撮像箇所それぞれ
において、第1及び第2の露光領域(例えば22Aと2
2B)からそれぞれテンプレート画像(27)に相当す
る対応画像(28A、28B)を上記方法により抽出す
る。さらに、第1の露光領域(22A)における対応画
像の位置(X1、Y1)と第2の露光領域(22B)にお
ける対応画像の位置(X2、Y2)との差を第1及び第2
の露光領域(例えば22Aと22B)のつなぎ部分(2
4A)に生じたつなぎ誤差(XST、YST)として求め
る。そして、撮像された複数の撮像箇所(28A、28
B)それぞれにおいて求められた複数のつなぎ誤差(X
ST、YST)が平均的に最小になるように位置合わせ時の
補正量を決定している。
Next, at each of the plurality of imaged locations, the first and second exposure areas (for example, 22A and 2A) are formed.
2B) corresponding images (28A, 28B) corresponding to the template image (27) are extracted by the above method. Further, the difference between the position (X1, Y1) of the corresponding image in the first exposure area (22A) and the position (X2, Y2) of the corresponding image in the second exposure area (22B) is calculated as the first and second differences.
Of the exposed areas (for example, 22A and 22B) (2
4A) as a connection error (XST, YST). Then, a plurality of imaged locations (28A, 28
B) A plurality of joint errors (X
The correction amount at the time of alignment is determined so that (ST, YST) becomes the average minimum.

【0015】その第2の場合は重ね合わせ誤差に関する
ものであり、まず露光原板(R)上に形成された原画パ
ターンが転写された露光領域を有する感光基板(5)上
を撮像して得られる画像情報から基準となるテンプレー
トに関する画像情報(34、36)に対応する情報(3
5A、35B、37A、37B)を検出することによ
り、感光基板(5)の位置を検出するために、露光領域
のうち隣接する第1及び第2の露光領域(例えば22A
と22B)のつなぎ部分24Aを含んで複数箇所撮像す
る。
The second case relates to the overlay error and is obtained by first imaging the photosensitive substrate (5) having the exposure area to which the original image pattern formed on the exposure original plate (R) is transferred. From the image information, the information (3
5A, 35B, 37A, 37B) to detect the position of the photosensitive substrate (5) in order to detect the position of the photosensitive substrate (5).
And 22B) including the connecting portion 24A are imaged at a plurality of locations.

【0016】次いで、撮像された複数の撮像箇所それぞ
れにおいて、第1及び第2の露光領域からそれぞれ第1
の層のパターン(31A、31B)の第1のテンプレー
ト画像(34)に相当する第1の対応画像(35A、3
5B)と第2の層のパターン(32A、32B)の第2
のテンプレート画像(36)に相当する第2の対応画像
(37A、37B)を上記方法により抽出する。さら
に、第1の露光領域(22A)における第1の対応画像
(35A)の位置と第2の対応画像(37A)の位置の
差(X1−X2、Y1−Y2)と、第2の露光領域(22
B)における第1の対応画像(35B)の位置と第2の
対応画像(37B)の位置の差(X1'−X2'、Y1'−Y
2')との差を第1及び第2の露光領域(例えば22Aと
22B)のつなぎ部分(24A)に生じた重ね合わせ誤
差(XOV、YOV)として求める。そして、撮像された複
数の撮像箇所それぞれにおいて求められた複数の重ね合
わせ誤差(XOV、YOV)が平均的に最小になるように位
置合わせ時の補正量を決定している。
Next, at each of the plurality of imaged locations, the first and second exposure areas are respectively replaced by the first area.
First corresponding images (35A, 3A) corresponding to the first template image (34) of the layer pattern (31A, 31B).
5B) and the second of the patterns of the second layer (32A, 32B).
The second corresponding images (37A, 37B) corresponding to the template image (36) of (3) are extracted by the above method. Further, the difference (X1-X2, Y1-Y2) between the position of the first corresponding image (35A) and the position of the second corresponding image (37A) in the first exposure area (22A), and the second exposure area (22
The difference (X1'-X2 ', Y1'-Y) between the position of the first corresponding image (35B) and the position of the second corresponding image (37B) in B).
2 ') is determined as the overlay error (XOV, YOV) generated in the joint portion (24A) of the first and second exposure areas (for example, 22A and 22B). Then, the correction amount at the time of alignment is determined so that the plurality of overlay errors (XOV, YOV) obtained at each of the plurality of imaged locations that have been imaged are minimized on average.

【0017】[0017]

【作用】まず露光パターンのうちから予め記憶されるテ
ンプレート画像(45、47)に相当する対応画像(5
3、56)が含まれている露光領域(50、55)を撮
像する。次いで、対応画像として抽出する候補に挙げら
れた候補画像(53、56)のうち、その候補画像に近
接して別のパターンが存在する部分(53a)や、ある
いはエッジ部がぼけている部分(56a)など、誤検出
や検出精度不良を起こす原因となりそうな部分に対して
マスキングを施す。同時にテンプレート画像(45、4
7)の対応する部分(45a、47a)に対してもマス
キング施す。次いで、テンプレート画像と候補画像の非
マスキング領域同士(45bと53b、47bと56
b)を比較して相関値を求める。このように本発明では
相関値を求める際に、誤検出や検出精度不良を起こす原
因となる部分(マスキング領域)を予め比較対象から外
しているので、正確な相関値を得ることができる。そし
て、この相関値が所定値以上の場合に、その候補画像
(53、56)を対応画像として抽出する。この結果、
位置合わせ用パターンを高い精度で検出することが可能
となり、原画パターンと感光基板との位置合わせ精度を
向上させることができる。
First, the corresponding image (5) corresponding to the template image (45, 47) stored in advance from the exposure pattern
The exposure area (50, 55) including the area (3, 56) is imaged. Next, of the candidate images (53, 56) listed as candidates to be extracted as the corresponding images, a portion (53a) in which another pattern is present close to the candidate image or a portion with a blurred edge portion ( Masking is applied to portions that may cause erroneous detection or poor detection accuracy, such as 56a). At the same time template images (45, 4
Masking is also applied to the corresponding portions (45a, 47a) of 7). Then, the non-masking regions of the template image and the candidate image (45b and 53b, 47b and 56b).
The correlation value is obtained by comparing b). As described above, according to the present invention, when obtaining the correlation value, the portion (masking region) that causes erroneous detection or poor detection accuracy is excluded from the comparison target in advance, so that the accurate correlation value can be obtained. Then, when the correlation value is equal to or larger than the predetermined value, the candidate image (53, 56) is extracted as the corresponding image. As a result,
The alignment pattern can be detected with high accuracy, and the alignment accuracy between the original image pattern and the photosensitive substrate can be improved.

【0018】なお、上記のようにテンプレート画像の対
応画像を抽出するために画像の一部にマスキング処理を
施すに先だって、まずテンプレート画像と候補画像の全
画像同士(45と53、47と56)を比較してその相
関値を求めることもできる。そして、その全画像同士の
相関値が所定値よりも低い場合には、画像中に誤検出や
検出精度不良を起こす原因となる領域、すなわちマスキ
ングして比較対象から外すべき領域が含まれるものと判
断して、マスキング処理を施す。
Before performing a masking process on a part of the image to extract the corresponding image of the template image as described above, first, all the images of the template image and the candidate image (45 and 53, 47 and 56). Can also be compared to obtain the correlation value. Then, when the correlation value between all the images is lower than a predetermined value, it is assumed that an area that causes erroneous detection or poor detection accuracy in the image, that is, an area to be masked and excluded from the comparison target is included. Judgment is made and masking processing is performed.

【0019】また誤検出や検出精度不良を起こす原因と
なる領域(候補画像に近接して他のパターンが存在する
部分や不鮮明な部分)を予測することができる場合に
は、その部分(45a、47a)をマスキング領域とし
て予め設定することができる。あるいは、誤検出や検出
精度不良を起こす原因となる領域を予測することができ
ない場合には、テンプレート画像と候補画像を自動的に
複数の領域に分割し(46a〜46c、48a〜48
d)、対応する分割領域同士を比較してその相関値を求
め、相関値が最も低い部分(46c、48a)に、誤検
出や検出精度不良を起こす原因となる領域が存在すると
判断して、その領域に対してマスキング処理を施すこと
も可能である。
When it is possible to predict a region (a part where another pattern exists in the vicinity of the candidate image or a blurred part) that causes erroneous detection or poor detection accuracy, that part (45a, 45a, 47a) can be preset as a masking area. Alternatively, when it is not possible to predict the area that causes erroneous detection or poor detection accuracy, the template image and the candidate image are automatically divided into a plurality of areas (46a to 46c, 48a to 48).
d), the corresponding divided areas are compared with each other to obtain the correlation value, and it is determined that there is an area that causes erroneous detection or poor detection accuracy in the portion (46c, 48a) having the lowest correlation value, It is also possible to apply a masking process to the area.

【0020】また画像取り込み装置の相違により、採取
した画像データ全体に輝度差のオフセットがのり、画面
の明暗に差が生じてしまう場合などには、次のような補
正動作を行う。まず露光パターンのうちから予め記憶さ
れるテンプレート画像(49)に相当する対応画像(5
7)が含まれている露光領域(50)を撮像する。次い
で、テンプレート画像(49)の所定領域と対応画像の
候補として挙げられた候補画像の所定領域(57)のグ
レイレベルの平均値同士を比較する。なお、グレイレベ
ルの平均値を比較する所定領域は、画像全体でもよい
し、その一部でも構わない。そして、テンプレート画像
と候補画像との相関値を求めて、その相関値基づいて候
補画像を対応画像として抽出する際に、テンプレート画
像と候補画像のグレイレベルの平均値との差分をオフセ
ット誤差として補正する(49a)ことにより、抽出の
精度を高めることができる。
Further, when the difference in the image capturing device causes an offset of the brightness difference in the entire sampled image data, resulting in a difference in brightness and darkness of the screen, the following correction operation is performed. First, from the exposure pattern, the corresponding image (5
The exposure area (50) including 7) is imaged. Next, the average values of the gray levels of the predetermined area of the template image (49) and the predetermined area (57) of the candidate image that is listed as a candidate for the corresponding image are compared. The predetermined area in which the average gray levels are compared may be the entire image or a part thereof. Then, when the correlation value between the template image and the candidate image is obtained and the candidate image is extracted as the corresponding image based on the correlation value, the difference between the template image and the average gray level of the candidate image is corrected as an offset error. By performing (49a), the accuracy of extraction can be improved.

【0021】上記方法により抽出した対応画像を用いて
位置合わせを行う際のつなぎ誤差又は重ね合わせ誤差の
補正量を決定する場合には、以下のような動作を行う。
つなぎ誤差の補正を行う場合には、まず、大面積のパタ
ーンに対して小面積の露光パターンのうち隣接する第1
及び第2の露光領域(例えば22Aと22B)のつなぎ
部分(24A)を同時に複数箇所撮像する。そして、撮
像により得られた複数の画像のそれぞれから、上記マス
キング補正方法又は上記輝度オフセット誤差補正方法に
よりテンプレート画像(27)に対応する画像(28
A、28B)を複数検出する。次に第1の露光領域(2
2A)に相当する領域から検出された画像(28A)の
位置(X1、Y1)と、第2の露光領域(22B)に相当
する領域における対応する画像(28B)同士の位置
(X1、Y2)との差を第1及び第2の露光領域(22A
及び22B)のつなぎ部分(24A)に生じたつなぎ誤
差(XST、YST)として複数求める。さらにこれらの複
数のつなぎ誤差(XST、YST)が平均的に最小となるよ
うに位置合わせ時の補正量を決定する。その結果、従来
の場合に比して一段と高い精度の補正量に基づいてつな
ぎ合わせを行うことができる。
When determining the correction amount of the connection error or the overlay error when performing the alignment using the corresponding images extracted by the above method, the following operation is performed.
In the case of correcting the connection error, first of all, the adjacent first of the exposure patterns of the small area with respect to the pattern of the large area.
Also, the joint portion (24A) of the second exposure area (for example, 22A and 22B) is imaged at a plurality of locations at the same time. Then, an image (28) corresponding to the template image (27) is obtained from each of the plurality of images obtained by imaging by the masking correction method or the brightness offset error correction method.
A, 28B) are detected in plural. Next, the first exposure area (2
The position (X1, Y1) of the image (28A) detected from the area corresponding to 2A) and the position (X1, Y2) between the corresponding images (28B) in the area corresponding to the second exposure area (22B). Difference between the first and second exposure areas (22A
And 22B), a plurality of joint errors (XST, YST) generated in the joint portion (24A) are obtained. Further, the correction amount at the time of alignment is determined so that these connection errors (XST, YST) are averagely minimized. As a result, it is possible to perform the joining based on the correction amount having a higher accuracy than in the conventional case.

【0022】また重ね合わせ誤差の補正を行う場合に
は、まず大面積のパターンに対して小面積の露光パター
ンのうち隣接する第1及び第2の露光領域(例えば22
Aと22B)のつなぎ部分(24A)を同時に複数箇所
撮像する。そして撮像により得られた複数の画像から第
1層目と第2層目について予め設定されている第1及び
第2のテンプレート画像(34、36)に対応する画像
(35A、35B、37A、37B)を、上記マスキン
グ方法又は上記輝度オフセット誤差補正方法により検出
する。次に第1の露光領域(22A)に相当する領域か
ら検出された画像(35A、37A)の位置の差(X1
−X2、Y1−Y2)と、第2の露光領域(22B)に相
当する領域において検出された画像(35B、37B)
の位置の差(X1'−X2'、Y1'−Y2')との差を隣接す
る2つの露光領域(例えば22Aと22B)のつなぎ部
分(24A)に生じた重ね合わせ誤差(XOV、YOV)と
して複数求め、これら複数の重ね合わせ誤差(XOV、Y
OV)が平均的に最小となるように位置合わせ時の補正量
を決定する。その結果、従来の場合に比して一段と高い
精度の補正量に基づいてつなぎ合わせを行うことができ
る。
When the overlay error is corrected, first, the first and second exposure regions (for example, 22) adjacent to the large-area pattern in the small-area exposure pattern are adjacent to each other.
The joint portion (24A) of A and 22B) is imaged at a plurality of locations at the same time. The images (35A, 35B, 37A, 37B) corresponding to the first and second template images (34, 36) set in advance for the first layer and the second layer are selected from the plurality of images obtained by imaging. ) Is detected by the masking method or the luminance offset error correction method. Next, the position difference (X1) of the images (35A, 37A) detected from the area corresponding to the first exposure area (22A)
-X2, Y1-Y2) and the image (35B, 37B) detected in the area corresponding to the second exposure area (22B).
Difference (X1'-X2 ', Y1'-Y2') between the two positions of the exposure area (for example, 22A and 22B) at the joint (24A) between the overlapping error (XOV, YOV) As a plurality of overlapping errors (XOV, Y
The correction amount for alignment is determined so that the OV) becomes the minimum on average. As a result, it is possible to perform the joining based on the correction amount having a higher accuracy than in the conventional case.

【0023】[0023]

【実施例】以下に添付図面に基づいて、本発明に基づい
て行われる投影露光装置の位置合わせ動作の一実施例を
詳述する。 (1)投影露光装置の全体構成 図1において、1は全体としてアライメントに画像処理
を用いる大型液晶表示素子製造用の投影露光装置を示
し、超高圧水銀ランプ等の光源2から射出された露光光
を楕円鏡3によって集光した後、オプティカルインテグ
レータ等を介してコンデンサレンズ系4に入射するよう
になされている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the alignment operation of a projection exposure apparatus according to the present invention will be described in detail below with reference to the accompanying drawings. (1) Overall Configuration of Projection Exposure Apparatus In FIG. 1, reference numeral 1 denotes a projection exposure apparatus for manufacturing a large-sized liquid crystal display device that uses image processing for alignment as a whole, and exposure light emitted from a light source 2 such as an ultra-high pressure mercury lamp. Is condensed by the elliptical mirror 3 and then is incident on the condenser lens system 4 via an optical integrator or the like.

【0024】コンデンサレンズ系4により適度に集光さ
れた露光光はほぼ均一な照度でレチクルRを照明する。
その露光光によってレチクルRのパターンが投影光学系
PLを介して感光基板上、すなわち感光剤が塗布された
ガラスプレート5上の各ショット領域に投影される。こ
の後、ガラスプレート5上に複数層の回路パターンを順
に重ねて露光することにより大型の液晶表示素子を製造
している。
The exposure light properly condensed by the condenser lens system 4 illuminates the reticle R with a substantially uniform illuminance.
The exposure light projects the pattern of the reticle R onto the photosensitive substrate, that is, each shot area on the glass plate 5 coated with the photosensitive agent, via the projection optical system PL. After that, a large-sized liquid crystal display element is manufactured by sequentially stacking a plurality of layers of circuit patterns on the glass plate 5 and exposing them.

【0025】ここでガラスプレート5はZステージ6上
に保持され、Zステージ6はXYステージ7上に載置さ
れている。XYステージ7はガラスプレート5を投影光
学系PLの光軸に垂直な平面(XY平面)内で位置決め
し、Zステージ6はガラスプレート5を投影光学系PL
の光軸AX(Z軸)方向に位置決めする。因にZステー
ジ6とガラスプレート5との間にはガラスプレート5を
回転させるθテーブルが介装されている。またZステー
ジ6上のガラスプレート5の近傍には種々のアライメン
ト用マークが形成された基準マーク集合体8が固定され
ている。また基準マーク集合体8の近傍にはX方向およ
びY方向の距離測定用の移動鏡9が固定されている。
Here, the glass plate 5 is held on the Z stage 6, and the Z stage 6 is placed on the XY stage 7. The XY stage 7 positions the glass plate 5 in a plane (XY plane) perpendicular to the optical axis of the projection optical system PL, and the Z stage 6 positions the glass plate 5 in the projection optical system PL.
Positioning is performed in the optical axis AX (Z axis) direction. Incidentally, a θ table for rotating the glass plate 5 is interposed between the Z stage 6 and the glass plate 5. A reference mark assembly 8 having various alignment marks formed thereon is fixed near the glass plate 5 on the Z stage 6. A movable mirror 9 for distance measurement in the X and Y directions is fixed near the reference mark assembly 8.

【0026】移動鏡9にはレーザ干渉計10からレーザ
ビームが照射され、鏡面で反射された反射光をレーザ干
渉計10によって受光することによりXYステージ6の
位置を常時計測するように構成されている。駆動装置1
1はレーザ干渉計10で計測された座標値等に基づいて
XYステージ7を駆動している。アライメント用顕微鏡
12は、レチクルRのアライメント時、アライメント光
をミラー13を介してレチクルRのパターン領域近傍の
アライメントマークRMに照射する。このアライメント
マークRMからの反射光がミラー13で反射されて顕微
鏡12に戻される。そして、例えばアライメント用顕微
鏡12内部で再結像されるアライメントマークRMの像
の位置に基づいてレチクルRの位置を調整することによ
りレチクルRをアライメントする。
The moving mirror 9 is irradiated with a laser beam from the laser interferometer 10, and the laser interferometer 10 receives the reflected light reflected by the mirror surface so that the position of the XY stage 6 is constantly measured. There is. Drive device 1
Reference numeral 1 drives the XY stage 7 based on the coordinate values and the like measured by the laser interferometer 10. When the reticle R is aligned, the alignment microscope 12 irradiates the alignment mark RM near the pattern area of the reticle R with the alignment light via the mirror 13. The reflected light from the alignment mark RM is reflected by the mirror 13 and returned to the microscope 12. Then, for example, the reticle R is aligned by adjusting the position of the reticle R based on the position of the image of the alignment mark RM that is re-imaged inside the alignment microscope 12.

【0027】またアライメント用顕微鏡12でレチクル
RのアライメントマークRMとZステージ6上の基準マ
ーク集合体8内のアライメントマークとを同時に観察し
て両者の像の位置関係よりレチクルRをアライメントし
ても良い。さらにアライメント用顕微鏡12でレチクル
Rのアライメントマークとガラスプレート5上のアライ
メントマークとを同時に観察して両者の位置関係を求め
ることもできる。
Further, the alignment mark RM of the reticle R and the alignment mark in the reference mark assembly 8 on the Z stage 6 are simultaneously observed by the alignment microscope 12, and the reticle R is aligned according to the positional relationship between the images of both. good. Further, it is possible to simultaneously observe the alignment mark of the reticle R and the alignment mark on the glass plate 5 with the alignment microscope 12 to obtain the positional relationship between them.

【0028】オートフォーカス検出系は送光系14およ
び受光系15からなり、送光系14はガラスプレート5
に向けてスリットパターン等の検出パターンの像を投影
光学系PLの光軸AXに対して斜めに投影する。その検
出パターンの像の反射光により受光系15内でその検出
パターンの像が再結像される。その再結像された検出パ
ターンの像の位置ずれ量からガラスプレート5の露光面
の高さが求められ、Zステージ6によりそのガラスプレ
ート5の露光面の高さが投影光学系PLに対するベスト
フォーカス位置に設定されるように構成されている。
The autofocus detection system comprises a light transmitting system 14 and a light receiving system 15, and the light transmitting system 14 includes the glass plate 5
The image of the detection pattern such as the slit pattern is projected obliquely to the optical axis AX of the projection optical system PL. The reflected light of the image of the detection pattern re-images the image of the detection pattern in the light receiving system 15. The height of the exposed surface of the glass plate 5 is obtained from the amount of positional deviation of the image of the re-formed detection pattern, and the height of the exposed surface of the glass plate 5 is determined by the Z stage 6 to be the best focus for the projection optical system PL. It is configured to be set to a position.

【0029】また投影光学系PLの側方には画像処理用
のアライメント光学系が配置されている。アライメント
光学系はガラスプレート5上の観察領域から反射された
反射光を対物レンズ16およびミラー17を介してリレ
ーレンズ18に導くようになされている。そしてこの反
射光を電荷結合型撮像素子(CCD)を用いたCCDカ
メラ19の撮像面に集束し、撮像面に観察領域のパター
ンの画像を結像するようになされている。
An alignment optical system for image processing is arranged beside the projection optical system PL. The alignment optical system is configured to guide the reflected light reflected from the observation area on the glass plate 5 to the relay lens 18 via the objective lens 16 and the mirror 17. Then, this reflected light is focused on the image pickup surface of a CCD camera 19 using a charge-coupled image pickup device (CCD), and an image of the pattern of the observation region is formed on the image pickup surface.

【0030】パターンマッチング装置20は被処理画像
としてCCDカメラ19から出力される映像信号(撮像
信号)を取り込む。パターンマッチング装置20はテン
プレート画像をメモリに記憶しており、パターンマッチ
ングによってテンプレートに一致するパターンの座標を
求めている。この座標値を用いてつなぎ露光時や重ね露
光時に生じたずれ量を求め、次回以降の露光の際には駆
動装置11に補正パラメータとして与えることにより、
位置合わせ精度を高めるようになされている。
The pattern matching device 20 takes in a video signal (imaging signal) output from the CCD camera 19 as an image to be processed. The pattern matching device 20 stores the template image in the memory and obtains the coordinates of the pattern that matches the template by pattern matching. By using this coordinate value, the amount of deviation that occurs during joint exposure or overexposure is obtained, and is given as a correction parameter to the drive device 11 during the next and subsequent exposures,
It is designed to improve the alignment accuracy.

【0031】またここで求められた補正パラメータは投
影レンズの結像特性の補正や、レチクルアライメント系
にもフィードバックできる構成にもなっている。なお、
このテンプレート画像として記憶される画像は、ガラス
プレート5上に形成された画素パターンの一部である。 (2)画像データ加工による検出精度向上方法 上記のようなパターンマッチングによる位置検出におい
て、パターンを液晶表示素子を構成する画素パターンを
用いた場合には、バーニアパターンのような特別のパタ
ーンをガラスプレート上に必要としないという利点はあ
るものの、製造プロセス上の影響を受けてしまう。たと
えば、以下の場合である。
Further, the correction parameter obtained here is configured to be able to correct the image forming characteristic of the projection lens and be fed back to the reticle alignment system. In addition,
The image stored as the template image is a part of the pixel pattern formed on the glass plate 5. (2) Method of Improving Detection Accuracy by Processing Image Data In position detection by pattern matching as described above, when a pixel pattern that constitutes a liquid crystal display element is used as a pattern, a special pattern such as a vernier pattern is formed on a glass plate. Although it has the advantage that it is not necessary, it is affected by the manufacturing process. For example, in the following cases.

【0032】まず、図2(a)に示すように、被処理画
像として採集した画像50内の特徴のあるパターン52
に近接して別のパターン51が存在するような場合に
は、特徴のあるパターン52と別のパターン51との合
成画像53が候補画像として取り上げられ、その画像と
基準となるテンプレート画像45(図2(b))とのパ
ターンマッチングが行われてしまう。すると、別のパタ
ーン51が存在するためにテンプレート画像45との相
関値は低くなるので、本来正しい画像であるにもかかわ
らず、パターンマッチング装置20はその画像を不適で
あると判断するおそれがある。
First, as shown in FIG. 2A, a characteristic pattern 52 in an image 50 collected as an image to be processed.
When another pattern 51 is present in the vicinity of, the composite image 53 of the characteristic pattern 52 and the other pattern 51 is taken up as a candidate image, and the image and the template image 45 serving as a reference (Fig. 2 (b)) will be pattern-matched. Then, since the correlation value with the template image 45 is low due to the existence of another pattern 51, the pattern matching device 20 may determine that the image is unsuitable even though the image is originally correct. .

【0033】また、図3(a)に示すように、被処理画
像として採集した画像55内のパターン51のエッジの
一部51Aにおいて傾斜のばらつきが大きい等の理由
で、画像上ではあいまいなボケた像となる場合には、テ
ンプレート画像47(図3(b))と候補画像56との
相関値は低くなり、本来正しい画像であるにもかかわら
ず、パターンマッチング装置20はその画像を不適であ
ると判断するおそれがある。
Further, as shown in FIG. 3 (a), there is a large blur variation on the image because of a large variation in inclination at a part 51A of the edge of the pattern 51 in the image 55 collected as the image to be processed. In the case of the image, the correlation value between the template image 47 (FIG. 3B) and the candidate image 56 becomes low, and the pattern matching device 20 makes the image unsuitable even though it is an originally correct image. May be determined to be.

【0034】さらに、図4(a)に示すように、製造プ
ロセス上の違いや、画像取り込み装置の違いにより、採
取した画像データ全体に輝度差のオフセットがのり、画
面の明暗に差が出る場合にも、テンプレート画像49と
候補画像57とのグレイレベルの差のために、両者の相
関値は低くなり、本来正しい画像であるにもかかわら
ず、パターンマッチング装置20はその画像を不適であ
ると判断するおそれがある。
Further, as shown in FIG. 4A, when the difference in the manufacturing process and the difference in the image capturing device cause an offset of the brightness difference in the entire sampled image data, resulting in a difference in the brightness of the screen. In addition, due to the difference in gray level between the template image 49 and the candidate image 57, the correlation value between the template image 49 and the candidate image 57 is low, and the pattern matching device 20 considers that the image is unsuitable even though the images are originally correct. There is a risk of making a decision.

【0035】そして、従来よりこれらを原因として、位
置誤検出、位置検出精度不良、エラー発生により投影露
光装置の実行の停止などが発生してしまい問題となって
いた。以下、その対処方法を、図2、図3及び図5〜図
8に示すフローチャートを参照しながら説明する。
Conventionally, due to these reasons, there have been problems such as erroneous position detection, poor position detection accuracy, and stop of execution of the projection exposure apparatus due to error occurrence. The coping method will be described below with reference to the flowcharts shown in FIGS. 2, 3, and 5 to 8.

【0036】最初に抽出する候補画像の近辺に別のパタ
ーンが存在する場合や、候補画像のエッジ部に不鮮明な
部分が存在する場合などに適用可能なマスキング処理方
法について図5〜図7を参照しながら説明する。まずス
テップ151において、CCDカメラ19などにより露
光領域の中から予め記録されたテンプレート画像45、
47に相当する対応画像の候補と考えられる候補画像5
3、56を映像信号(撮像信号)として取り込む。次い
でステップ152において、テンプレート画像45、4
7の全画像と候補画像53、56の全画像同士とを比較
して、相関値を求める。そして、ステップ153におい
て相関値が所定値以上を示す場合には、その候補画像5
3、56がテンプレート画像45、47に対応すると判
断することができるので、ステップ154に進み、候補
画像53、56をパターンマッチング装置20に取り込
みパターンマッチングによる位置検出を行うことができ
る。
5 to 7 for a masking processing method applicable when another pattern exists near the candidate image to be extracted first, or when an unclear portion exists at the edge of the candidate image, etc. While explaining. First, in step 151, the template image 45 previously recorded from the exposure area by the CCD camera 19 or the like,
Candidate image 5 considered to be a candidate for corresponding image corresponding to 47
3, 56 are captured as video signals (imaging signals). Next, at step 152, template images 45, 4
All images of No. 7 and all images of candidate images 53 and 56 are compared to obtain a correlation value. Then, in step 153, when the correlation value indicates a predetermined value or more, the candidate image 5
Since it can be determined that Nos. 3 and 56 correspond to the template images 45 and 47, the process proceeds to step 154, and the candidate images 53 and 56 are taken into the pattern matching device 20 and the position detection by pattern matching can be performed.

【0037】これに対して、ステップ153において、
相関値が所定値に達しない場合には、抽出した候補画像
が誤りであるか、あるいは候補画像の近辺に別のパター
ンが存在していたり、候補画像の一部に不鮮明な部分が
存在するために、本来は正しい画像でありながら、相関
値が低い値を示したと考えられるので、ステップ161
以下において、本実施例に基づく画像データの加工(マ
スキング処理)が行われる。
On the other hand, in step 153,
If the correlation value does not reach the predetermined value, the extracted candidate image is erroneous, or another pattern exists near the candidate image, or there is an unclear part in the candidate image. Since it is considered that the correlation value showed a low value although it was originally a correct image, step 161
In the following, image data processing (masking processing) based on the present embodiment is performed.

【0038】まず、設計の段階において、候補画像の付
近に別のパターンが存在していたり、候補画像のエッジ
に傾斜があるためにその部分がボケて不鮮明になること
が予め想定される場合には、ステップ161からステッ
プ162に進み、候補画像53、56のうち誤検出の原
因となっていると思われる部分53a、56aに対して
マスキングを施す。同時にテンプレート画像45、47
のうちその箇所に対応する部分45a、47a(図2
(c)、図3(c)を参照)に対してもマスキングを施
す。このようにマスキング処理を施した後にステップ1
71に進み、テンプレート画像と候補画像の非マスキン
グ部分同士45bと53b、47bと56bの相関値を
比較する。そして、ステップ172において、改めて相
関値が所定値以上かどうかを判断し、相関値が所定値以
上を示す場合には、その候補画像53、56がテンプレ
ート画像45、47に対応すると判断することができる
ので、ステップ173に進み、候補画像をパターンマッ
チング装置20に取り込みパターンマッチングによる位
置検出を行うことができる。また、ステップ172にお
いて、マスキング処理を施したにもかかわらず相関値が
所定値に達していない場合には、抽出されたその候補画
像は誤りであると判断できるので、ステップ174に進
み、別の候補画像を抽出し、ステップ152以下に示し
たフローを反復する。
First, in the design stage, when it is assumed in advance that another part exists in the vicinity of the candidate image or the edge of the candidate image has an inclination and that part is blurred and unclear. Advances from step 161 to step 162, and masks the portions 53a and 56a of the candidate images 53 and 56 which are considered to be the cause of erroneous detection. Template images 45 and 47 at the same time
Of the parts 45a and 47a (FIG.
Masking is also applied to (c) and FIG. 3 (c). After performing the masking process in this way, step 1
In step 71, the non-masking portions of the template image and the candidate image are compared with each other in the correlation values of 45b and 53b and 47b and 56b. Then, in step 172, it is determined again whether the correlation value is equal to or more than the predetermined value. If the correlation value is equal to or more than the predetermined value, it can be determined that the candidate images 53 and 56 correspond to the template images 45 and 47. Therefore, the process proceeds to step 173, and the candidate image is taken into the pattern matching device 20 and the position can be detected by the pattern matching. If the correlation value does not reach the predetermined value even though the masking process is performed in step 172, it can be determined that the extracted candidate image is erroneous, and thus the process proceeds to step 174 and another The candidate image is extracted, and the flow from step 152 onward is repeated.

【0039】これに対して、誤検出の原因となる部分が
予め分かっていない場合には、ステップ161からステ
ップ163に進み、図2(d)、図3(d)に示すよう
に、候補画像とテンプレート画像をそれぞれ対応する複
数の領域(46a〜46c、48a〜48d)に分割
し、各領域毎に相関値を求める。なお、図2(d)の例
では画像を3分割し、図3(d)の例では画像を4分割
しているが、画像の分割数及び分割形状は任意に設定で
きることは言うまでもない。そして、最も相関値が低い
領域(例えば図2(d)の例では46cの領域、また図
3(d)の例では48aの領域)には、誤検出の原因と
なる別パターンや不鮮明部分が存在すると考えられるの
で、ステップ164において、その領域に対してマスキ
ングを施す。このようにマスキング処理を施した後にス
テップ171に進み、テンプレート画像と候補画像の非
マスキング部分同士の相関値を比較する。そして、ステ
ップ172において、改めて相関値が所定値以上かどう
かを判断し、相関値が所定値以上を示す場合には、その
候補画像53、56がテンプレート画像45、47に対
応すると判断することができるので、ステップ173に
進み、候補画像をパターンマッチング装置20に取り込
みパターンマッチングによる位置検出を行うことができ
る。また、ステップ172において、マスキング処理を
施したにもかかわらず相関値が所定値に達していない場
合には、抽出されたその候補画像は誤りであると判断で
きるので、ステップ174に進み、別の候補画像を抽出
し、ステップ152以下に示したフローを反復する。
On the other hand, if the portion causing the erroneous detection is not known in advance, the process proceeds from step 161 to step 163 and, as shown in FIGS. And the template image are divided into a plurality of corresponding regions (46a to 46c, 48a to 48d), and a correlation value is obtained for each region. Although the image is divided into three in the example of FIG. 2D and the image is divided into four in the example of FIG. 3D, it goes without saying that the number of divided images and the divided shape can be set arbitrarily. Then, in the region having the lowest correlation value (for example, the region of 46c in the example of FIG. 2D, and the region of 48a in the example of FIG. 3D), another pattern or a blurred portion that causes erroneous detection is present. Since it is considered to be present, masking is applied to the area in step 164. After performing the masking process in this way, the process proceeds to step 171, and the correlation values of the unmasked portions of the template image and the candidate image are compared. Then, in step 172, it is determined again whether the correlation value is equal to or more than the predetermined value. If the correlation value is equal to or more than the predetermined value, it can be determined that the candidate images 53 and 56 correspond to the template images 45 and 47. Therefore, the process proceeds to step 173, and the candidate image is taken into the pattern matching device 20 and the position can be detected by the pattern matching. If the correlation value does not reach the predetermined value even though the masking process is performed in step 172, it can be determined that the extracted candidate image is erroneous, and thus the process proceeds to step 174 and another The candidate image is extracted, and the flow from step 152 onward is repeated.

【0040】以上説明したように、本実施例によれば、
図2(c)及び図3(c)に示すように、誤検出の原因
となる近接パターンや不鮮明な部分をマスキング処理に
より比較対象から外した上で、テンプレート画像と候補
画像との相関値を比較するので、従来の方法のように、
本来正しい候補画像が切り捨てられるような誤検出を回
避し、位置検出精度の向上を図ることができる。
As described above, according to this embodiment,
As shown in FIGS. 2 (c) and 3 (c), a proximity pattern or an unclear portion that causes erroneous detection is removed from the comparison target by masking processing, and then the correlation value between the template image and the candidate image is calculated. Because it compares, like the conventional method,
It is possible to avoid erroneous detection such that an originally correct candidate image is truncated, and improve the position detection accuracy.

【0041】なお上記実施例に示した方法以外にも、当
業者であれば、誤検出の原因となる近接パターンや不鮮
明な部分をマスキング処理により比較対象から外すため
の各種画像処理方法に想到し得ることは明らかであり、
それらの方法についても、特許請求の範囲に記載した本
発明の技術的思想の範疇に包含されるものと了解され
る。例えば、同一基板内の複数の被処理画像で誤検出を
生じうる傾向が異なる場合には、部分的に削除した(マ
スキングした)何種類かのテンプレート画像を準備して
おき、どの被処理画像に対しても相関値が高いテンプレ
ート画像を使用することも可能である。
In addition to the methods shown in the above-mentioned embodiments, those skilled in the art have come up with various image processing methods for removing the proximity pattern or the unclear portion which causes the erroneous detection from the comparison object by the masking process. Is clear to get
It is understood that those methods are also included in the scope of the technical idea of the present invention described in the claims. For example, if there is a difference in the tendency that erroneous detection may occur in a plurality of processed images on the same substrate, some template images that have been partially deleted (masked) are prepared, and which processed image is to be processed. It is also possible to use a template image having a high correlation value.

【0042】次に製造プロセス上の違いや、画像取り込
み装置の違いにより、採取した画像データ全体に輝度差
のオフセットがのり、画面の明暗に差が出る場合などに
適用可能な画像データの加工方法について、図4及び図
8を参照しながら説明する。まずステップ181におい
て、CCDカメラ19などにより露光領域の中から予め
記録されたテンプレート画像49に相当する対応画像の
候補と考えられる候補画像57を映像信号(撮像信号)
として取り込む。次いでステップ182において、テン
プレート画像49のグレイレベルの平均値と候補画像5
7のグレイレベルの平均値をそれぞれ求めて、両者を比
較し、その差分をとる。次いで、ステップ182におい
て、グレイレベルの平均値の差分をオフセット誤差とし
て設定しメモリに記憶する。そして、ステップ184に
おいて、実際に候補画像とテンプレート画像とを比較し
相関値を求める場合には、記憶されたオフセット誤差を
加算する。このようにして、本実施例では、テンプレー
ト画像と候補画像との輝度差に起因するオフセット誤差
を補正した上で、両画像の相関値を比較する。そして、
ステップ185において、相関値が所定値以上を示す場
合には、その候補画像57がテンプレート画像49に対
応するものと判断することができるので、ステップ18
6に進み、候補画像をパターンマッチング装置20に取
り込みパターンマッチングによる位置検出を行うことが
できる。また、ステップ185において、輝度のオフセ
ット誤差を補正したにもかかわらず相関値が所定値に達
していない場合には、抽出されたその候補画像は誤りで
あると判断できるので、ステップ187に進み、別の候
補画像を改めて抽出し、ステップ182以下に示したフ
ローを反復する。
Next, an image data processing method applicable to a case where an offset of the brightness difference is placed on the entire sampled image data due to a difference in the manufacturing process or a difference in the image capturing device, and a difference in brightness of the screen appears. Will be described with reference to FIGS. 4 and 8. First, in step 181, a candidate image 57 considered as a candidate for a corresponding image corresponding to the template image 49 previously recorded from the exposure area by the CCD camera 19 or the like is displayed as a video signal (imaging signal).
Take in as. Next, at step 182, the average gray level of the template image 49 and the candidate image 5
The average values of 7 gray levels are obtained, and the two are compared, and the difference is calculated. Next, in step 182, the difference between the average gray levels is set as an offset error and stored in the memory. Then, in step 184, when the candidate image and the template image are actually compared to obtain the correlation value, the stored offset error is added. In this way, in this embodiment, the offset error caused by the brightness difference between the template image and the candidate image is corrected, and then the correlation values of both images are compared. And
If it is determined in step 185 that the correlation value is equal to or greater than the predetermined value, it can be determined that the candidate image 57 corresponds to the template image 49, and thus step 18
Proceeding to step 6, the candidate image is taken into the pattern matching device 20 and the position can be detected by pattern matching. In step 185, if the correlation value has not reached the predetermined value even though the luminance offset error has been corrected, it can be determined that the extracted candidate image is erroneous, and the process proceeds to step 187. Another candidate image is extracted again, and the flow from step 182 onward is repeated.

【0043】以上説明したように、図8に示す実施例に
よれば、例えば光学系の劣化や曇りなどによりCCDカ
メラ19で取得した候補画像と、予め記憶したテンプレ
ート画像との間に輝度差が生じたような場合であって
も、それらの輝度差をオフセット誤差として補正するこ
とができるので、従来の方法のように、本来正しい候補
画像であるにもかかわらず、輝度差が原因で切り捨てら
れてしまうような誤検出を回避し、位置検出精度の向上
を図ることができる。
As described above, according to the embodiment shown in FIG. 8, there is a difference in brightness between the candidate image acquired by the CCD camera 19 and the template image stored in advance due to deterioration of the optical system or clouding. Even if it occurs, it is possible to correct the difference in brightness as an offset error.Therefore, as in the conventional method, even though the image is originally a correct candidate image, it is truncated due to the difference in brightness. It is possible to avoid erroneous detection that would otherwise occur, and improve the position detection accuracy.

【0044】なお、グレイレベルの平均値をとる場合に
は、テンプレート画像及び候補画像の全体の平均値をと
っても良いし、また所定の領域のみの平均値をとる構成
を採用することも可能である。また、相関値を判断する
基準を複数段階、例えば2段階設けておき、相関値が低
い段階と高い段階の間にある場合にのみ、輝度のオフセ
ット誤差を補正する構成を採用することも可能である。
その場合には、まず輝度のオフセット誤差を補正せずに
そのままテンプレート画像と候補画像とを比較し、その
相関値が高い段階の基準をクリアした場合には、その候
補画像をパターンマッチング装置20に取り入れる。そ
して、その相関値が高い段階の基準をクリアできない場
合には、低い段階の基準に基づいて判断を行い、その低
い段階の基準をもクリアできない場合には、その候補画
像は不適であるとして切り捨てる。しかし、その相関値
が高い段階の基準はクリアできないが低い段階の基準は
クリアした場合には、輝度のオフセット誤差を加算し
て、改めて高い基準の相関値により判断を行うように構
成することができる。このように、構成することによ
り、本来正しいのにもかかわらず、輝度のオフセット誤
差を有する候補画像が唯1回の判定により切り捨てられ
るのを防止することが可能となり、位置検出の精度を向
上させることができる。 (3)つなぎ誤差の測定方法 次に、上記のような高精度のパターン検出方法を、つな
ぎ誤差の測定方法に適用した場合について説明する。こ
の例の場合、パターンマッチング装置20は、つなぎ部
分に形成された画素パターンの現実のずれ量を基に位置
合わせ時に使用する補正パラメータの値を求めている。
因みに大型液晶表示素子は、図9に示すように、1枚の
ガラスプレート5上に4つのレチクルパターン像をつな
ぎ露光することにより形成されるものとする。
When taking the average value of the gray level, the average value of the entire template image and the candidate image may be taken, or the average value of only a predetermined area may be adopted. . It is also possible to adopt a configuration in which a plurality of stages, for example, two stages, are provided as criteria for determining the correlation value, and the brightness offset error is corrected only when the correlation value is between the low stage and the high stage. is there.
In that case, first, the template image and the candidate image are compared as they are without correcting the luminance offset error, and if the criterion of the stage in which the correlation value is high is cleared, the candidate image is sent to the pattern matching device 20. Take in. Then, when the criterion of the high correlation value cannot be cleared, the judgment is made based on the criterion of the low stage, and when the standard of the low stage cannot be cleared, the candidate image is truncated as unsuitable. . However, when the standard with a high correlation value cannot be cleared but the standard with a low correlation value is cleared, it is possible to add a luminance offset error and make a judgment again based on the high correlation value. it can. With such a configuration, it is possible to prevent a candidate image having a luminance offset error, which is originally correct, from being truncated by only one determination, and improve the accuracy of position detection. be able to. (3) Connection Error Measuring Method Next, a case will be described in which the above-described highly accurate pattern detection method is applied to the connection error measuring method. In the case of this example, the pattern matching device 20 obtains the value of the correction parameter used at the time of alignment based on the actual shift amount of the pixel pattern formed in the connecting portion.
Incidentally, it is assumed that the large-sized liquid crystal display element is formed by connecting and exposing four reticle pattern images on one glass plate 5 as shown in FIG.

【0045】図中、22A〜22Dは各レチクル上に形
成されたパターンが投影露光される露光領域を示してい
る。また24A〜24Dはこれら4つの露光領域22A
〜22Dのうち隣り合う領域との境界線を示している。
パターンマッチング装置20はこれら4本の境界線24
A〜24D上の領域をつなぎ部分のずれ量検出時に被処
理画像として取り込む。
In the figure, reference numerals 22A to 22D indicate exposure areas where the pattern formed on each reticle is projected and exposed. In addition, 24A to 24D indicate these four exposure areas 22A.
22D, the boundary line between adjacent regions is shown.
The pattern matching device 20 uses the four boundary lines 24.
The areas on A to 24D are captured as an image to be processed at the time of detecting the shift amount of the connecting portion.

【0046】ここでは4本の境界線24A〜24Dのう
ち境界線24Aとその両側の画素パターン25A及び2
5Bがアライメント顕微鏡、すなわち対物レンズ16の
下に入るように移動させる。次に、図10(A)に示す
ように、CCDカメラ19によって撮像された画像26
を被処理画像としてパターンマッチング装置20に取り
込ませる。
Here, of the four boundary lines 24A to 24D, the boundary line 24A and the pixel patterns 25A and 2 on both sides thereof are formed.
5B is moved so as to enter under the alignment microscope, that is, the objective lens 16. Next, as shown in FIG. 10A, an image 26 captured by the CCD camera 19 is displayed.
Is taken into the pattern matching device 20 as an image to be processed.

【0047】続いて、図10(B)に示すように、予め
登録されているテンプレートが画像27と一致するパタ
ーンを被処理画像26の中から検索する。その際に、本
実施例によれば、図5〜図7に関連して説明したマスキ
ング処理、又は図8に関連して説明した輝度オフセット
誤差補正を行って、対応画像を抽出するので、従来の方
法に比して、遥かに高い精度で対応画像を抽出すること
ができる。なお図10に示す例では、境界線24Aの両
側にテンプレート画像27に一致する画像が2つづつ存
在するが、境界線24Aに最も近いパターンをそれぞれ
マッチングパターン(候補画像)28A及び28Bとし
て抽出する。
Subsequently, as shown in FIG. 10B, a pattern in which the template registered in advance matches the image 27 is searched from the image 26 to be processed. At this time, according to the present embodiment, the masking process described with reference to FIGS. 5 to 7 or the luminance offset error correction described with reference to FIG. 8 is performed to extract the corresponding image. Corresponding images can be extracted with a much higher accuracy than the method of. In the example shown in FIG. 10, two images matching the template image 27 are present on both sides of the boundary line 24A, but the patterns closest to the boundary line 24A are extracted as matching patterns (candidate images) 28A and 28B, respectively. .

【0048】マッチングパターン28A及び28Bが特
定されると、テンプレート画像27の代表点P0に相当
する座標値(X、Y)を各マッチングパターン28A及
び28Bについて求める。ここでは境界線24Aに対し
て左側の露光領域22Aのマッチングパターン28Aの
座標を(X1、Y1)とし、右側の露光領域22Bに存在
するマッチングパターン28Bの座標を(X2、Y2)と
する。
When the matching patterns 28A and 28B are specified, the coordinate value (X, Y) corresponding to the representative point P0 of the template image 27 is obtained for each matching pattern 28A and 28B. Here, the coordinates of the matching pattern 28A in the exposure area 22A on the left side with respect to the boundary line 24A are defined as (X1, Y1), and the coordinates of the matching pattern 28B existing in the exposure area 22B on the right side are defined as (X2, Y2).

【0049】このように境界線24Aの両側に位置する
マッチングパターン28A及び28Bの座標が求められ
ると、次に左側の露光領域22Aに形成されたマッチン
グパターン28Aを基準とした右側の露光領域22Bの
つなぎ誤差(XST、YST)を次式 XST=X2−X1−XPT …(1) YST=Y2−Y1−YPT …(2) によって求める。ここで、XPTは横方向(X方向)に一
定間隔で並ぶ画素パターン25A、25Bのピッチを示
し、(1)式が0になるとき画素パターンが設計通り形
成されていることを意味する。またYPTはY方向の画素
パターンの位置の差を示し、この場合YPT=0とする。
よって(2)式で得られるYSTが0となればつなぎ誤差
がないことになるが、このYSTが設計上0でない場合
(すなわちYPT≠0)は、この設計上の値と比較するこ
とになる。
In this way, when the coordinates of the matching patterns 28A and 28B located on both sides of the boundary line 24A are obtained, the right side exposure area 22B with the matching pattern 28A formed in the left side exposure area 22A as a reference. The connection error (XST, YST) is calculated by the following equation: XST = X2-X1-XPT (1) YST = Y2-Y1-YPT (2) Here, XPT indicates the pitch of the pixel patterns 25A and 25B arranged in the lateral direction (X direction) at regular intervals, and when the expression (1) becomes 0, it means that the pixel pattern is formed as designed. Further, YPT represents the difference in the position of the pixel pattern in the Y direction, and in this case YPT = 0.
Therefore, if YST obtained from equation (2) is 0, there is no connection error, but if this YST is not 0 by design (that is, YPT ≠ 0), it will be compared with this design value. .

【0050】パターンマッチング装置20は、この領域
についてのつなぎ誤差の測定処理が終了すると、XYス
テージ7を平行に逐次移動させ、境界線24A上の他の
領域についても同様につなぎ誤差(XST、YST)を計測
する。その後、多点にわたって求めたつなぎ誤差(XS
T、YST)の値が平均的に最小になるように最小自乗法
等を用いて補正パラメータを決定する。また他の3本の
境界線24B〜24Dについてもそれぞれ同様に多点に
わたってつなぎ誤差を測定し補正パラメータを決定す
る。
When the pattern matching device 20 completes the measurement process of the connection error for this area, the pattern matching device 20 sequentially moves the XY stage 7 in parallel, and similarly for the other areas on the boundary line 24A, the connection errors (XST, YST). ) Is measured. After that, the joint error (XS
The correction parameter is determined by using the least square method or the like so that the value of (T, YST) becomes the minimum on average. Similarly, with respect to the other three boundary lines 24B to 24D, the connection error is similarly measured over a plurality of points to determine the correction parameter.

【0051】この補正パラメータ値はつなぎ部分に生じ
ている実際の誤差分から求めた値であるため従来に比し
て現実を反映した正確な値である。以上の構成によれ
ば、2つの露光領域22A及び22Bのつなぎ部分24
Aを撮像し、当該領域に形成された画素パターン28A
及び28Bを、図5〜図8に示すようなマスキング処理
方法や輝度オフセット誤差補正方法を用いて、ズレ量検
出用のパターンとして高い精度で抽出し、それらのパタ
ーンを用いてつなぎ誤差を求め、この値によって位置合
わせのための補正パラメータ値を決定したことにより、
つなぎ合わせの精度を従来に比して一段と高めることが
できる。 (4)つなぎ部分における重ね合わせ誤差の測定方法 次に、上記のようなマスキング処理や輝度オフセット誤
差補正方法などの画像データ加工による検出精度向上方
法を、下層に形成された第1のパターンとその上に重ね
て形成された上層の第2のパターンとの重ね合わせ誤差
を隣接する領域間で小さくするための重ね合わせ誤差の
測定方法に適用した場合について、図11を参照しなが
ら説明する。この例の場合も露光領域22A及び22B
の境界線24A付近の画素パターンを例にとって説明す
る。
Since this correction parameter value is a value obtained from the actual error amount occurring at the connecting portion, it is an accurate value that reflects reality as compared with the conventional one. According to the above configuration, the connecting portion 24 of the two exposure areas 22A and 22B
The pixel pattern 28A formed in the area by imaging A
And 28B are extracted with high accuracy as a pattern for detecting the deviation amount by using the masking processing method and the luminance offset error correction method as shown in FIGS. 5 to 8, and the connection error is obtained using these patterns, By determining the correction parameter value for alignment by this value,
It is possible to further improve the accuracy of joining as compared with the conventional method. (4) Method of measuring overlay error in joint portion Next, a method of improving detection accuracy by image data processing such as the above-described masking processing and luminance offset error correction method is applied to the first pattern formed in the lower layer and its A case in which the method is applied to a method of measuring an overlay error for reducing an overlay error between the second pattern of the upper layer formed on the upper layer and between adjacent regions will be described with reference to FIG. Also in this example, the exposure areas 22A and 22B
The pixel pattern in the vicinity of the boundary line 24A will be described as an example.

【0052】まず最初にXYステージ7を駆動装置11
によって駆動し、境界線24Aとその両側の露光領域2
2A及び22Bの画素パターンがアライメント顕微鏡、
すなわち対物レンズ16の下に入るように移動させる。
次に、図11(A)に示すように、CCDカメラ19に
よって撮像された画像33を被処理画像としてパターン
マッチング装置20に取り込ませる。
First, the XY stage 7 is driven by the driving device 11
Driven by the boundary line 24A and the exposure area 2 on both sides thereof.
2A and 22B pixel patterns are alignment microscopes,
That is, it is moved so as to enter under the objective lens 16.
Next, as shown in FIG. 11A, the image 33 captured by the CCD camera 19 is captured by the pattern matching device 20 as an image to be processed.

【0053】ここで左右の露光領域22A及び22Bに
は同一の繰り返しパターンが2つの領域にまたがるよう
に形成されており、下地となる画素パターン31A及び
31Bの上に2層目の画素パターン32A及び32Bが
重ねて形成されているものとする。次にパターンマッチ
ング装置20は、下地となる画素パターン31A及び3
1Bについて予め登録されているテンプレート画像34
と一致するパターンを撮像画面33の中から検索する。
その際に、本実施例によれば、図5〜図7に関連して説
明したマスキング処理や、図8に関連して説明した輝度
オフセット誤差補正を行って、対応画像を抽出するの
で、従来の方法に比して、遥かに高い精度で対応が像を
抽出することができる。なお、図11に示す例では、境
界線24Aに近い側のパターンをそれぞれマッチングパ
ターン(候補画像)35A及び35Bとして抽出するも
のとする。
The same repetitive pattern is formed in the left and right exposure areas 22A and 22B so as to extend over the two areas, and the pixel patterns 32A and 32A of the second layer are formed on the underlying pixel patterns 31A and 31B. It is assumed that 32B is formed in an overlapping manner. Next, the pattern matching device 20 uses the pixel patterns 31A and 3
Template image 34 registered in advance for 1B
A pattern matching with is retrieved from the imaging screen 33.
At this time, according to the present embodiment, the masking process described with reference to FIGS. 5 to 7 and the luminance offset error correction described with reference to FIG. 8 are performed to extract the corresponding image. Corresponding images can be extracted with much higher accuracy than the method described above. In the example shown in FIG. 11, the patterns on the side close to the boundary line 24A are extracted as matching patterns (candidate images) 35A and 35B, respectively.

【0054】そして上記のようにして抽出されたマッチ
ングパターン35A及び35Bについてテンプレート画
像34の代表点P1に層とする座標値(X、Y)を各マ
ッチングパターン35A及び35Bについてそれぞれ求
める。ここでは境界線24Aに対して左側の露光領域2
2Aのマッチングパターン35Aの座標を(X1、Y1)
とし、右側の露光領域22Bのマッチングパターン35
Bの座標を(X1'、Y1')とする。
Then, with respect to the matching patterns 35A and 35B extracted as described above, the coordinate values (X, Y) which form a layer at the representative point P1 of the template image 34 are obtained for the matching patterns 35A and 35B, respectively. Here, the exposure area 2 on the left side of the boundary line 24A
Set the coordinates of 2A matching pattern 35A to (X1, Y1)
And the matching pattern 35 of the exposure area 22B on the right side.
The coordinates of B are (X1 ', Y1').

【0055】同様に、図5〜図7に関連して説明したマ
スキング処理や、図8に関連して説明した輝度オフセッ
ト誤差補正を用いて、2層目の画素パターン32A及び
32Bについて予め登録されているテンプレート画像3
6と一致するパターンを各領域22A及び22Bから検
索し、境界線24Aに近い側のパターンをマッチングパ
ターン37A及び37Bとして抽出する。
Similarly, the masking process described with reference to FIGS. 5 to 7 and the luminance offset error correction described with reference to FIG. 8 are used to preregister the pixel patterns 32A and 32B of the second layer. Template image 3
A pattern matching 6 is searched from each of the areas 22A and 22B, and the pattern on the side close to the boundary line 24A is extracted as matching patterns 37A and 37B.

【0056】マッチングパターン37A及び37Bが特
定されると、テンプレート画像36の代表点P2に相当
する座標値(X、Y)を各マッチングパターン37A及
び37Bについて求める。ここでは左側の露光領域22
Aのマッチングパターン37Aの座標を(X2、Y2)と
し、右側の露光領域22Bのマッチングパターン37B
の座標を(X2'、Y2')とする。
When the matching patterns 37A and 37B are specified, the coordinate value (X, Y) corresponding to the representative point P2 of the template image 36 is obtained for each matching pattern 37A and 37B. Here, the left exposure area 22
The coordinates of the matching pattern 37A of A are (X2, Y2), and the matching pattern 37B of the exposure area 22B on the right side.
Let (X2 ', Y2') be the coordinates of.

【0057】このように境界線24Aを挟んで両側に位
置するマッチングパターン35A、35B及び37A、
37Bの座標が求められると、左側の露光領域24Aに
形成されたマッチングパターン35A及び37Aの重ね
合わせ量を基準とした右側の露光領域24Bのマッチン
グパターン35B及び37Bの重ね合わせ量の差(即ち
重ね合わせ誤差)の測定に移る。
In this way, the matching patterns 35A, 35B and 37A located on both sides of the boundary line 24A,
When the coordinates of 37B are obtained, the difference between the overlapping amounts of the matching patterns 35B and 37B in the right-side exposure area 24B with respect to the overlapping amount of the matching patterns 35A and 37A formed in the left-side exposure area 24A (ie, the overlapping amount). Move to the measurement of the alignment error).

【0058】この重ね合わせ誤差(XOV、YOV)は、次
式 XOV=(X1'−X2')−(X1−X2) …(3) YOV=(Y1'−Y2')−(Y1−Y2) …(4) のように求めることができる。ここで(3)式及び
(4)式の第1項は右側の露光領域22Bに形成された
パターンの重ね量を示し、第2項は左側の露光領域22
Aに形成されたパターンの重ね量を示す。
This overlay error (XOV, YOV) is calculated by the following equation: XOV = (X1'-X2 ')-(X1-X2) (3) YOV = (Y1'-Y2')-(Y1-Y2) … (4) can be obtained. Here, the first term of the expressions (3) and (4) indicates the amount of overlap of the pattern formed in the right exposure area 22B, and the second term is the left exposure area 22B.
The overlapping amount of the pattern formed in A is shown.

【0059】パターンマッチング装置20はこの部分に
ついてのつなぎ誤差の計測処理が終了すると、XYステ
ージ7を平行に逐次移動し、境界線24A上の他の領域
についても同様に重ね合わせ誤差(XOV、YOV)を計測
する。その後、多点にわたって求めた重ね合わせ誤差
(XOV、YOV)の値が平均的に最小になるように最小自
乗法等を用いて補正パラメータを決定する。また他の3
本の境界線24B〜24Dについてもそれぞれ同様に多
点に重ね合わせ誤差を計測して補正パラメータを決定す
る。
When the pattern matching device 20 finishes the process of measuring the connection error for this portion, the XY stage 7 is sequentially moved in parallel, and the overlay error (XOV, YOV) is similarly applied to other regions on the boundary line 24A. ) Is measured. After that, the correction parameter is determined by using the least square method or the like so that the values of the overlay error (XOV, YOV) obtained over multiple points become the average minimum. Another 3
Similarly, with respect to the boundary lines 24B to 24D of the book, the overlay error is measured at multiple points to determine the correction parameter.

【0060】以上の構成によれば、1層目のパターンと
2層目のパターン31A及び32Aとの重ね量を各露光
領域22A及び22Bのうちつなぎ部分24Aに形成さ
れているパターン35A、37Aと35B、37Bを基
に直接求め、各露光領域の重ね量の差に基づいて位置合
わせ時に使用する補正パラメータの値を決定するように
したことによりつなぎ部分における重ね合わせ誤差を従
来に比して一段と小さくすることができる。また、パタ
ーン35A、37Aと35B、37Bを抽出する際に、
誤検出に原因となる部分にマスキング処理を施したり、
あるいは輝度のオフセット誤差を補正するので、従来に
比して一段と高い精度で位置合わせ用パターンの抽出が
行える。 (4)他の実施例 なお上述の実施例においては、境界線24Aを挟んで左
側の露光領域22Aの画素パターンを基準にして右側の
露光領域22Bの画素パターンのつなぎ誤差又は重ね合
わせ誤差を求める場合について述べたが、本発明はこれ
に限らず、その逆に境界線24Aを挟んで右側の露光領
域22Bの画素パターンを基準にして左側の露光領域2
2Aの画素パターンのつなぎ誤差又は重ね合わせ誤差を
求めるようにしても良い。
According to the above configuration, the overlapping amount of the first layer pattern and the second layer patterns 31A and 32A is set to the patterns 35A and 37A formed in the connecting portion 24A of the exposure regions 22A and 22B. 35B and 37B are directly obtained, and the value of the correction parameter used at the time of alignment is determined based on the difference in the overlap amount of each exposure area, so that the overlay error in the joint portion is further improved compared to the conventional case. Can be made smaller. Further, when extracting the patterns 35A, 37A and 35B, 37B,
Masking the part that causes false detection,
Alternatively, since the brightness offset error is corrected, the alignment pattern can be extracted with higher accuracy than ever before. (4) Other Embodiments In the above-described embodiment, the connection error or the overlay error of the pixel pattern of the right exposure area 22B is determined with the pixel pattern of the left exposure area 22A as the reference with the boundary line 24A interposed therebetween. Although the case has been described, the present invention is not limited to this, and conversely, the exposure area 2 on the left side with respect to the pixel pattern of the exposure area 22B on the right side across the boundary line 24A is used as a reference.
The connection error or the overlay error of the 2A pixel pattern may be obtained.

【0061】また上述の実施例においては、境界線24
Aを挟んで左右2つの露光領域22A、22Bの画素パ
ターンを一度に撮像し、各露光領域22A、22Bにつ
いてテンプレート画像27又は34、36と一致するマ
ッチングパターンの座標(x、y)を求める場合につい
て述べたが、本発明はこれに限らず、一方の露光領域に
ついてのパターンマッチング処理と他方の領域について
のパターンマッチング処理を交互にするようにしても良
い。すなわち一方の露光領域についてマッチングパター
ンの座標を求めた後、XYステージ7を移動し、他方の
露光領域についてマッチングパターンの座標を求めるよ
うにしても良い。この場合にはXYステージ7の移動量
も加味してつなぎ誤差又は重ね合わせ誤差を求める。
Further, in the above-mentioned embodiment, the boundary line 24
When the pixel patterns of the left and right two exposure areas 22A and 22B are imaged at a time with A sandwiched therebetween and the coordinates (x, y) of the matching pattern that matches the template image 27 or 34, 36 for each exposure area 22A, 22B are obtained. However, the present invention is not limited to this, and the pattern matching processing for one exposure area and the pattern matching processing for the other area may be alternately performed. That is, after the coordinates of the matching pattern are obtained for one of the exposure areas, the XY stage 7 may be moved to obtain the coordinates of the matching pattern for the other exposure area. In this case, the connection error or the overlay error is obtained by taking the movement amount of the XY stage 7 into consideration.

【0062】さらに上述の実施例においては、つなぎ露
光される露光領域のつなぎ部分についてそれぞれつなぎ
誤差および重ね合わせ誤差を測定する場合について述べ
たが、本発明はこれに限らず、つなぎ精度や重ね合わせ
精度として高い精度が要求される方向について重点的に
つなぎ誤差や重ね合わせ誤差を測定するようにしても良
い。例えば液晶表示素子等を製造する場合には配線パタ
ーンの延びた方向に対して直交する方向、すなわち画面
の縦方向のつなぎ合わせに高い精度が要求されるためこ
の方向のつなぎ誤差や重ね合わせ誤差の成分が平均的に
最小となるように補正パラメータを決定するようにすれ
ば良い。
Further, in the above-mentioned embodiment, the case where the joint error and the overlay error are measured for the joint portions of the exposure regions to be joint-exposed has been described. However, the present invention is not limited to this, and the joint accuracy and the overlay error are not limited thereto. The connection error and the overlay error may be measured with emphasis on the direction in which high accuracy is required. For example, when manufacturing a liquid crystal display element or the like, high accuracy is required for joining in a direction orthogonal to the extending direction of the wiring pattern, that is, in the vertical direction of the screen, and therefore, a joining error or an overlaying error in this direction is required. It suffices to determine the correction parameter so that the component has an average minimum value.

【0063】さらに上述の実施例においては、大型液晶
表示素子を製造する場合について述べたが、本発明はこ
れに限らず、メモリパターンや他の回路パターン等を製
造する場合にも適用し得る。さらに上述の実施例におい
ては、画像処理用のアライメント光学系としてガラスプ
レート5上の観察領域から反射された反射光を対物レン
ズ16およびミラー17を介して直接リレーレンズ18
に導く構成のものを用いる場合について述べたが、本発
明はこれに限らず、ミラー17とリレーレンズ18の間
のガラスプレートと共役な位置に光透過性の共役指標板
を設けても良く、また共役指標板を光学的に介するか否
かを電気的に切り換えるようにしても良い。ここで共役
指標板は指標マークが描画されたもので、その描画面と
ガラスプレート5の露光面とは共役関係に形成されてい
る板である。そしてCCDカメラ19の撮像面に結像さ
れる指標マークと観察領域のパターン画像に基づいて位
置合わせするようにしても良い。
Further, in the above-mentioned embodiments, the case of manufacturing a large-sized liquid crystal display element has been described, but the present invention is not limited to this, and can be applied to the case of manufacturing a memory pattern, another circuit pattern or the like. Further, in the above-described embodiment, the reflected light reflected from the observation area on the glass plate 5 is directly passed through the objective lens 16 and the mirror 17 as the alignment optical system for image processing to the relay lens 18 directly.
However, the present invention is not limited to this, and a light transmissive conjugate index plate may be provided at a position conjugate with the glass plate between the mirror 17 and the relay lens 18, Further, it may be electrically switched whether to optically pass through the conjugate index plate. Here, the conjugate index plate is a plate in which index marks are drawn, and the drawing surface and the exposure surface of the glass plate 5 are formed in a conjugate relationship. Then, the alignment may be performed based on the index image formed on the image pickup surface of the CCD camera 19 and the pattern image of the observation area.

【0064】この指標マークを用いれば、アライメント
光学系の光軸がドリフトした場合でも、指標マークとア
ライメント光学系との位置関係は正常に保たれる。
By using this index mark, the positional relationship between the index mark and the alignment optical system can be kept normal even if the optical axis of the alignment optical system drifts.

【0065】[0065]

【発明の効果】上記のように本発明によれば、テンプレ
ート画像に対応する画像を、露光領域内に実際に形成さ
れているパターンの中から検出する際に、誤検出の原因
となる部分にマスキング処理を施したり、あるいは輝度
のオフセット誤差を補正するなどのソフトウェア上の補
正処理を施して検出精度を向上させている。そして、こ
のように高い精度で検出されたパターンの位置によって
求められる露光領域間のつなぎ誤差や重ね合わせ誤差が
平均的に最小となるように補正量を決定しているので、
従来に比して一段とつなぎ合わせや重ね合わせの精度が
高い位置合わせ方法を実現することができる。
As described above, according to the present invention, when the image corresponding to the template image is detected from the patterns actually formed in the exposure area, it is possible to identify the portion that causes erroneous detection. Detection accuracy is improved by performing masking processing or software correction processing such as correction of luminance offset error. Then, the correction amount is determined so that the connection error and the overlay error between the exposure areas obtained by the position of the pattern detected with high accuracy in this way are minimized on average.
As a result, it is possible to realize a positioning method with higher accuracy in connection and superposition as compared with the conventional method.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による位置合わせ方法を適用可能な投影
露光装置を示す概略図である。
FIG. 1 is a schematic view showing a projection exposure apparatus to which a positioning method according to the present invention can be applied.

【図2】本発明によるパターン検出の補正方法を適用可
能な第1の場合を示す説明図である。
FIG. 2 is an explanatory diagram showing a first case to which the correction method for pattern detection according to the present invention can be applied.

【図3】本発明によるパターン検出の補正方法を適用可
能な第2の場合を示す説明図である。
FIG. 3 is an explanatory diagram showing a second case to which the correction method for pattern detection according to the present invention can be applied.

【図4】本発明によるパターン検出の補正方法を適用可
能な第3の場合を示す説明図である。
FIG. 4 is an explanatory diagram showing a third case to which the correction method for pattern detection according to the present invention can be applied.

【図5】本発明によるパターン検出の補正方法の手順を
示す流れ図である。
FIG. 5 is a flowchart showing a procedure of a pattern detection correction method according to the present invention.

【図6】本発明によるパターン検出の補正方法の手順を
示す流れ図である。
FIG. 6 is a flowchart showing a procedure of a pattern detection correction method according to the present invention.

【図7】本発明によるパターン検出の補正方法の手順を
示す流れ図である。
FIG. 7 is a flowchart showing a procedure of a pattern detection correction method according to the present invention.

【図8】本発明によるパターン検出の補正方法の手順を
示す流れ図である。
FIG. 8 is a flowchart showing a procedure of a pattern detection correction method according to the present invention.

【図9】つなぎ露光の説明に供する概略的な平面図であ
る。
FIG. 9 is a schematic plan view for explaining the joint exposure.

【図10】つなぎ誤差の測定方法の説明に供する概略的
な平面図である。
FIG. 10 is a schematic plan view for explaining a method for measuring a connection error.

【図11】重ね合わせ誤差の測定法の説明に供する概略
的な平面図である。
FIG. 11 is a schematic plan view for explaining a method of measuring overlay error.

【符号の説明】[Explanation of symbols]

1 投影露光装置 5 感光基板(ガラスプレート) 20 パターンマッチング装置 22A〜22D 露光領域 45、47、49 テンプレート画像 45a、47a マスキング領域 50、55 撮像領域(被処理画像) 53、56、57 撮像パターン(候補画像) 整理番号=94P01207 ページ(27/
26)
1 Projection Exposure Device 5 Photosensitive Substrate (Glass Plate) 20 Pattern Matching Device 22A to 22D Exposure Area 45, 47, 49 Template Image 45a, 47a Masking Area 50, 55 Imaging Area (Processing Image) 53, 56, 57 Imaging Pattern ( Candidate image) Reference number = 94P01207 Page (27 /
26)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 525 W ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location 525 W

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 露光原板上に形成された原画パターンが
転写された露光領域を有する感光基板上を撮像して得ら
れる画像情報から基準となるテンプレートに関する画像
情報に対応する情報を検出することにより、前記感光基
板の位置を検出する方法において、 前記露光領域を撮像し、その撮像画像から予め記憶され
ているテンプレート画像に相当する対応画像を抽出する
に際して、 前記テンプレート画像の一部にマスキングを施すととも
に、前記対応画像の候補として挙げられた候補画像のう
ち前記テンプレート画像のマスキング部分に対応する部
分に対してもマスキングを施し、前記テンプレート画像
の非マスキング領域と前記候補画像の非マスキング領域
とを比較して非マスキング領域同士の相関値を求め、そ
の相関値が所定値以上の場合に前記候補画像を前記対応
画像として抽出することを特徴とする、位置検出方法。
1. By detecting information corresponding to image information relating to a template serving as a reference from image information obtained by imaging a photosensitive substrate having an exposure area to which an original image pattern formed on an exposure original plate is transferred. In the method for detecting the position of the photosensitive substrate, when the exposure area is imaged and a corresponding image corresponding to a template image stored in advance is extracted from the captured image, masking is performed on a part of the template image. At the same time, masking is performed also on a portion corresponding to the masking portion of the template image among the candidate images listed as candidates for the corresponding image, and a non-masking area of the template image and a non-masking area of the candidate image are provided. If the correlation value between the non-masking areas is calculated and the correlation value is equal to or more than a predetermined value, Wherein the candidate image and extracts, as the corresponding image, the position detection method.
【請求項2】 前記テンプレート画像の全画像と前記候
補画像の全画像とを比較して全画像同士の相関値を求
め、その全画像同士の相関値が所定値よりも低い場合
に、前記テンプレート画像の一部にマスキングを施すと
ともに、前記候補画像のうち前記テンプレート画像のマ
スキング部分に対応する部分に対してもマスキングを施
し、前記テンプレート画像の非マスキング領域と前記候
補画像の非マスキング領域とを比較して非マスキング領
域同士の相関値を求め、その相関値が所定値以上の場合
に前記候補画像を前記対応画像として抽出することを特
徴とする、請求項1に記載の位置検出方法。
2. The template image is compared with all the candidate images to obtain a correlation value between all images, and when the correlation value between all images is lower than a predetermined value, the template A part of the image is masked, and a part of the candidate image corresponding to the masking part of the template image is also masked, so that a non-masking region of the template image and a non-masking region of the candidate image are formed. 2. The position detecting method according to claim 1, wherein a correlation value between the non-masking areas is obtained by comparison, and the candidate image is extracted as the corresponding image when the correlation value is equal to or more than a predetermined value.
【請求項3】 前記テンプレート画像のマスキング部分
は、前記テンプレート画像の所定部分として予め設定さ
れていることを特徴とする、請求項1又は請求項2に記
載の位置検出方法。
3. The position detecting method according to claim 1, wherein the masking portion of the template image is preset as a predetermined portion of the template image.
【請求項4】 前記テンプレート画像を複数の領域に分
割するとともに、前記候補画像も前記テンプレート画像
に対応する複数の領域に分割し、前記テンプレート画像
と前記候補画像の対応する分割領域同士を比較して各分
割領域同士の相関値を求め、前記テンプレート画像のマ
スキング部分は前記各分割領域のうち相関値が最も低い
部分に設定されることを特徴とする、請求項2に記載の
位置検出方法。
4. The template image is divided into a plurality of regions, the candidate image is also divided into a plurality of regions corresponding to the template image, and the corresponding divided regions of the template image and the candidate image are compared with each other. 3. The position detecting method according to claim 2, wherein the correlation value between the divided areas is obtained, and the masking portion of the template image is set to a portion having the lowest correlation value among the divided areas.
【請求項5】 露光原板上に形成された原画パターンが
転写された露光領域を有する感光基板上を撮像して得ら
れる画像情報から基準となるテンプレートに関する画像
情報に対応する情報を検出することにより、前記感光基
板の位置を検出する方法において、 前記露光領域を撮像し、その撮像画像から予め記憶され
ているテンプレート画像に相当する対応画像を抽出する
に際して、 前記テンプレート画像に含まれる所定領域のグレイレベ
ルの平均値と前記対応画像の候補として挙げられた候補
画像の前記テンプレート画像の所定領域に対応する領域
のグレイレベルの平均値とを比較し、前記テンプレート
画像のグレイレベルの平均値と前記候補画像のグレイレ
ベルの平均値との差分をオフセット誤差として補正して
前記テンプレート画像と前記候補画像との相関値を求
め、その相関値が所定値以上の場合に前記候補画像を前
記対応画像として抽出することを特徴とする、位置検出
方法。
5. By detecting information corresponding to image information regarding a reference template from image information obtained by imaging a photosensitive substrate having an exposure area to which an original image pattern formed on an exposure original plate is transferred. In the method for detecting the position of the photosensitive substrate, when the exposure area is imaged and a corresponding image corresponding to a template image stored in advance is extracted from the captured image, gray of a predetermined area included in the template image is extracted. The average value of the levels and the average value of the gray levels of the regions corresponding to the predetermined region of the template image of the candidate images listed as candidates for the corresponding image are compared, and the average value of the gray levels of the template image and the candidates are compared. The difference from the average gray level of the image is corrected as an offset error and The correlation value between the candidate image, and extracts the candidate image when the correlation value is greater than a predetermined value as the corresponding image, the position detecting method.
【請求項6】 露光原板上に形成された小面積の原画パ
ターンを感光基板上の隣り合う第1及び第2の露光領域
につなぎ合わせて露光することにより、大面積のパター
ンを形成する際の前記原画パターンと前記感光基板との
位置合わせ方法において、 前記露光領域のうち隣接する第1及び第2の露光領域の
つなぎ部分を含んで複数箇所撮像し、 撮像された複数の撮像箇所それぞれにおいて、第1及び
第2の露光領域からそれぞれ前記テンプレート画像に相
当する前記対応画像を請求項1、2、3、4又は5のい
ずれかに記載の方法により抽出し、前記第1の露光領域
における前記対応画像の位置と前記第2の露光領域にお
ける前記対応画像の位置との差を前記第1及び第2の露
光領域のつなぎ部分に生じたつなぎ誤差として求め、 撮像された複数の撮像箇所それぞれにおいて求められた
複数の前記つなぎ誤差が平均的に最小になるように位置
合わせ時の補正量を決定することを特徴とする、位置検
出方法。
6. A large-area pattern is formed by connecting a small-area original image pattern formed on an exposure original plate to adjacent first and second exposure areas on a photosensitive substrate and exposing the same. In the method of aligning the original image pattern with the photosensitive substrate, imaging is performed at a plurality of locations including a connecting portion of the first and second exposure areas adjacent to each other in the exposure area, and at each of the plurality of imaging locations that are imaged, The corresponding image corresponding to the template image is extracted from each of the first and second exposure areas by the method according to claim 1, 2, 3, 4 or 5, and the corresponding image in the first exposure area is extracted. The difference between the position of the corresponding image and the position of the corresponding image in the second exposure region was obtained as a joint error generated at the joint portion of the first and second exposure regions, and the image was taken. A position detection method, characterized in that a correction amount at the time of alignment is determined so that the plurality of connection errors obtained at each of the plurality of imaging locations are averagely minimized.
【請求項7】 露光原板上に形成された小面積の原画パ
ターンを感光基板上の隣り合う第1及び第2の露光領域
につなぎ合わせて露光することにより、大面積のパター
ンを形成する際の前記原画パターンと前記感光基板との
位置合わせ方法において、 前記露光領域のうち隣接する第1及び第2の露光領域の
つなぎ部分を含んで複数箇所撮像し、 撮像された複数の撮像箇所それぞれにおいて、第1及び
第2の露光領域からそれぞれ第1の層のパターンの第1
のテンプレート画像に相当する第1の対応画像と第2の
層のパターンの第2のテンプレート画像に相当する第2
の対応画像を請求項1、2、3、4又は5のいずれかに
記載の方法により抽出し、 前記第1の露光領域における前記第1の対応画像の位置
と前記第2の対応画像の位置の差と前記第2の露光領域
における前記第1の対応画像の位置と前記第2の対応画
像の位置の差との差を前記第1及び第2の露光領域のつ
なぎ部分に生じた重ね合わせ誤差として求め、 撮像された複数の撮像箇所それぞれにおいて求められた
複数の前記重ね合わせ誤差が平均的に最小になるように
位置合わせ時の補正量を決定することを特徴とする、位
置検出方法。
7. A large-area pattern is formed by connecting a small-area original image pattern formed on an original exposure plate to adjacent first and second exposure regions on a photosensitive substrate and exposing the original pattern. In the method of aligning the original image pattern with the photosensitive substrate, imaging is performed at a plurality of locations including a connecting portion of the first and second exposure areas adjacent to each other in the exposure area, and at each of the plurality of imaging locations that are imaged, The first pattern of the first layer is formed from the first and second exposure regions, respectively.
First corresponding image corresponding to the second template image of the second layer pattern and the second corresponding image corresponding to the second template image of the second layer pattern.
The corresponding image of claim 1 is extracted by the method according to any one of claims 1, 2, 3, 4 or 5, and the position of the first corresponding image and the position of the second corresponding image in the first exposure area are extracted. Difference and the difference between the position of the first corresponding image and the position of the second corresponding image in the second exposure area, the superposition occurring in the joint portion of the first and second exposure areas. A position detecting method, wherein a correction amount at the time of alignment is determined so that the plurality of overlay errors obtained at each of the plurality of imaged locations that are imaged are averaged to be the minimum.
JP6321088A 1994-12-26 1994-12-26 Position detecting method Pending JPH08181053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6321088A JPH08181053A (en) 1994-12-26 1994-12-26 Position detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6321088A JPH08181053A (en) 1994-12-26 1994-12-26 Position detecting method

Publications (1)

Publication Number Publication Date
JPH08181053A true JPH08181053A (en) 1996-07-12

Family

ID=18128689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6321088A Pending JPH08181053A (en) 1994-12-26 1994-12-26 Position detecting method

Country Status (1)

Country Link
JP (1) JPH08181053A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007294521A (en) * 2006-04-21 2007-11-08 Toshiba Corp Pattern alignment deviation measurement method and program
JP2008058166A (en) * 2006-08-31 2008-03-13 Hitachi High-Technologies Corp Method of measuring misalignment of pattern and device for measuring the pattern
JP2011090470A (en) * 2009-10-22 2011-05-06 Hitachi High-Technologies Corp Pattern matching method and pattern matching device
US8019164B2 (en) 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
US8131059B2 (en) 2007-03-12 2012-03-06 Hitachi High-Technologies Corporation Defect inspection device and defect inspection method for inspecting whether a product has defects
US8285056B2 (en) 2008-03-13 2012-10-09 Hitachi High-Technologies Corporation Method and apparatus for computing degree of matching
US20150310600A1 (en) * 2011-12-21 2015-10-29 Applied Materials Israel Ltd. System, method and computer program product for classification within inspection images

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007294521A (en) * 2006-04-21 2007-11-08 Toshiba Corp Pattern alignment deviation measurement method and program
US8090192B2 (en) 2006-04-21 2012-01-03 Kabushiki Kaisha Toshiba Pattern misalignment measurement method, program, and semiconductor device manufacturing method
JP2008058166A (en) * 2006-08-31 2008-03-13 Hitachi High-Technologies Corp Method of measuring misalignment of pattern and device for measuring the pattern
US8173962B2 (en) 2006-08-31 2012-05-08 Hitachi High-Technologies Corporation Pattern displacement measuring method and pattern measuring device
US8019164B2 (en) 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
US8131059B2 (en) 2007-03-12 2012-03-06 Hitachi High-Technologies Corporation Defect inspection device and defect inspection method for inspecting whether a product has defects
US8285056B2 (en) 2008-03-13 2012-10-09 Hitachi High-Technologies Corporation Method and apparatus for computing degree of matching
JP2011090470A (en) * 2009-10-22 2011-05-06 Hitachi High-Technologies Corp Pattern matching method and pattern matching device
US20150310600A1 (en) * 2011-12-21 2015-10-29 Applied Materials Israel Ltd. System, method and computer program product for classification within inspection images

Similar Documents

Publication Publication Date Title
KR101141345B1 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
TWI279741B (en) Method and apparatus for inspecting substrate
JPH08250399A (en) Scanning type aligner
KR102139508B1 (en) Inspection method and inspection apparatus
US5640243A (en) Position detection method
JP2012002676A (en) Mask defect checking device and mask defect checking method
JP2004022797A (en) Device and method for detecting position of mark
JPH1096613A (en) Defect detection method and device thereof
JPH08181053A (en) Position detecting method
JPH08167571A (en) Position detecting device and position aligning device
TWI236562B (en) A method of detecting a pattern and an apparatus thereof
KR20070090778A (en) Color filter defect amend apparatus and color filter defect amend method
JP3326444B2 (en) Positioning method and pattern joining accuracy measuring method
JP3784762B2 (en) Pattern defect inspection apparatus and pattern defect inspection method
JP4288086B2 (en) Exposure equipment
JP2006293387A (en) Positioning apparatus of light valve
JP2005181932A (en) Substrate exposing method, substrate exposing device, and method for manufacturing display panel and display device
JPH1097983A (en) Position detecting method
CN112838018B (en) Optical measuring method
JP2004079970A (en) Method and apparatus for detecting mark position and superposition
JP4207689B2 (en) Misalignment measuring device
JP4300802B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
JP2003282410A (en) Alignment equipment, aligner and method of exposure
JP3099376B2 (en) Substrate alignment apparatus and alignment method
JP3721713B2 (en) Alignment accuracy measurement method and alignment accuracy measurement apparatus

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees