JP2002288661A - Image detection method and device, and wafer-processing device - Google Patents

Image detection method and device, and wafer-processing device

Info

Publication number
JP2002288661A
JP2002288661A JP2001089976A JP2001089976A JP2002288661A JP 2002288661 A JP2002288661 A JP 2002288661A JP 2001089976 A JP2001089976 A JP 2001089976A JP 2001089976 A JP2001089976 A JP 2001089976A JP 2002288661 A JP2002288661 A JP 2002288661A
Authority
JP
Japan
Prior art keywords
area
signal
axis
detecting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001089976A
Other languages
Japanese (ja)
Inventor
Masamichi Ichikawa
雅理 市川
Takahiro Yamaguchi
隆弘 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advantest Corp
Original Assignee
Advantest Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advantest Corp filed Critical Advantest Corp
Priority to JP2001089976A priority Critical patent/JP2002288661A/en
Priority to PCT/JP2002/002887 priority patent/WO2002077922A1/en
Publication of JP2002288661A publication Critical patent/JP2002288661A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Abstract

PROBLEM TO BE SOLVED: To precisely detect a mark substantially same as a template image from an input image. SOLUTION: This image detection device 20 detects a first region approximate part which approximates a first region, including a first mark given in advance. The image detecting device 20 is provided with a first region candidate part detecting means 24 for detecting a first region candidate part which includes the image approximating to the first mark from the input image; and a second region candidate part detecting means 32, provided with the information related to the image of a second region of which a relative position to the first region has been well known, for determining the second region candidate part from the input image on the basis of the relative position, and for detecting whether the second region candidate part agrees with the information related to an image of the second region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像検出方法、画
像検出装置及びウェハ処理装置に関する。特に本発明
は、テンプレート画像と実質的に同一なマークを入力画
像から正確に検出することができる画像検出方法、画像
検出装置及びウェハ処理装置に関する。
The present invention relates to an image detection method, an image detection device, and a wafer processing device. In particular, the present invention relates to an image detection method, an image detection device, and a wafer processing device capable of accurately detecting a mark substantially identical to a template image from an input image.

【0002】[0002]

【従来の技術】半導体基板等のウェハに回路パターンを
露光する場合には、正確な位置合わせを行うために、ウ
ェハの所定の位置に予め位置合わせ用のマークを形成
し、ウェハにおけるマークの位置を検出する。そして、
検出されたマークの位置を基準としてウェハに所定のパ
ターンを露光する。ウェハのマークの位置を検出するた
めに、画像マッチング技術が用いられる。従来の画像マ
ッチング技術においては、ウェハのマークを含む画像を
入力画像として取得し、その入力画像の画素値をテンプ
レート画像の画素値と二次元的に比較していた。
2. Description of the Related Art When a circuit pattern is exposed on a wafer such as a semiconductor substrate, a mark for positioning is formed in advance at a predetermined position on the wafer in order to perform accurate positioning. Is detected. And
A predetermined pattern is exposed on the wafer based on the position of the detected mark. Image matching techniques are used to detect the position of the mark on the wafer. In the conventional image matching technique, an image including a mark of a wafer is acquired as an input image, and a pixel value of the input image is two-dimensionally compared with a pixel value of a template image.

【0003】[0003]

【発明が解決しようとする課題】しかし、通常、入力画
像におけるマークの位置を検出するためには、複雑な計
算式を用いて正規化された相互相関値等を求めるため、
入力画像の画素値をテンプレート画像の画素値と二次元
的に比較していたのでは、膨大な回数の計算をする必要
があった。そのため、ウェハのマークの位置を検出する
ために多大な時間を有し、迅速なウェハ露光処理を行う
のが困難であった。
However, usually, in order to detect the position of a mark in an input image, a cross-correlation value or the like normalized using a complicated calculation formula is obtained.
If the pixel values of the input image were two-dimensionally compared with the pixel values of the template image, an enormous number of calculations had to be performed. Therefore, it takes a lot of time to detect the position of the mark on the wafer, and it has been difficult to perform a rapid wafer exposure process.

【0004】また、ウェハ表面には各種のレジストや膜
が付着しているため、入力画像はウェハ表面の反射光の
影響を受けて変形することがあり、その場合、ウェハの
マークの位置を正確に検出することができなかった。
Further, since various resists and films adhere to the wafer surface, the input image may be deformed under the influence of the reflected light on the wafer surface. In such a case, the position of the mark on the wafer can be accurately determined. Could not be detected.

【0005】そこで本発明は、上記の課題を解決するこ
とのできる画像検出方法、画像検出装置及びウェハ処理
装置を提供することを目的とする。この目的は特許請求
の範囲における独立項に記載の特徴の組み合わせにより
達成される。また従属項は本発明の更なる有利な具体例
を規定する。
Accordingly, an object of the present invention is to provide an image detecting method, an image detecting apparatus, and a wafer processing apparatus which can solve the above-mentioned problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.

【0006】[0006]

【課題を解決するための手段】即ち、本発明の第1の形
態によると、予め与えられた第1マークを含む第1領域
に近似した第1領域近似部分を入力画像から検出する画
像検出方法であって、第1マークに近似した画像を含む
第1領域候補部分を入力画像から検出する第1領域候補
部分検出ステップと、第1領域に対する相対的な位置が
既知である第2領域の画像に関する情報が予め与えられ
ており、相対的な位置に基づいて、入力画像から第2領
域候補部分を定め、第2領域候補部分が第2領域の画像
に関する情報と一致するか否かを検出する第2領域候補
部分検出ステップとを備えることを特徴とする画像検出
方法を提供する。
According to a first aspect of the present invention, there is provided an image detecting method for detecting, from an input image, a first area approximation portion approximating a first area including a predetermined first mark. A first region candidate portion detecting step of detecting a first region candidate portion including an image approximate to the first mark from the input image, and an image of a second region having a known position relative to the first region. Information is provided in advance, and based on the relative position, a second region candidate portion is determined from the input image, and it is detected whether the second region candidate portion matches information on the image of the second region. A second region candidate portion detecting step.

【0007】第2領域候補部分検出ステップは、第2領
域に含まれる第2マークの画像を用いて第2領域候補部
分が第2領域の画像に関する情報と一致するか否かを検
出してもよい。
[0007] The second area candidate portion detecting step includes detecting whether or not the second area candidate portion matches information on the image of the second area using the image of the second mark included in the second area. Good.

【0008】第2領域候補部分検出ステップは、第2領
域に含まれ、第1マークと異なる形状を有する第2マー
クの画像を用いて第2領域候補部分が第2領域の画像に
関する情報と一致するか否かを検出してもよい。
The second area candidate portion detecting step uses the image of the second mark included in the second area and having a shape different from that of the first mark so that the second area candidate portion matches information on the image of the second area. Whether or not to do so may be detected.

【0009】画像検出方法は、第1マークを含むテンプ
レート画像から、第1領域と第2領域とをそれぞれ選択
して、テンプレート画像を用いて第2領域の第1領域に
対する相対的な位置を検出する相対位置検出ステップを
さらに備えてもよい。
In the image detecting method, a first area and a second area are respectively selected from a template image including a first mark, and a relative position of the second area to the first area is detected using the template image. The method may further include a relative position detecting step of performing the following.

【0010】画像検出方法は、第1マークと第2マーク
とを含むテンプレート画像から、第1領域と第2領域を
それぞれ選択して、テンプレート画像を用いて第2領域
の第1領域に対する相対的な位置を検出する相対位置検
出ステップをさらに備えてもよい。
The image detecting method includes selecting a first area and a second area from a template image including a first mark and a second mark, respectively, and using the template image to determine a relative relation between the second area and the first area. The method may further include a relative position detection step of detecting a proper position.

【0011】第1領域候補部分検出ステップは、入力画
像の画素値を第1軸上に投影した第1投影信号を形成す
る第1投影信号形成ステップと、入力画像の画素値を第
1軸に実質的に垂直な第2軸上に投影した第2投影信号
を形成する第2投影信号形成ステップと、第1領域の画
素値を第1軸上に投影した第1領域第1軸信号と第1投
影信号とに基づいて、第1軸方向における第1領域候補
部分の位置を検出する第1領域第1軸候補位置検出ステ
ップと第1領域の画素値を第2軸上に投影した第1領域
第2軸信号と第2投影信号とに基づいて、第2軸方向に
おける第1領域候補部分の位置を検出する第1領域第2
軸候補位置検出ステップとを有するのが好ましい。
The first area candidate portion detecting step includes a first projection signal forming step of forming a first projection signal by projecting a pixel value of the input image on a first axis, and a pixel value of the input image on a first axis. A second projection signal forming step of forming a second projection signal projected on a substantially vertical second axis; a first area first axis signal obtained by projecting a pixel value of the first area on a first axis; A first area first axis candidate position detecting step of detecting a position of the first area candidate portion in the first axis direction based on the first projection signal, and a first area having a pixel value of the first area projected on a second axis. The first region second detecting the position of the first region candidate portion in the second axis direction based on the region second axis signal and the second projection signal
Preferably, an axis candidate position detecting step is provided.

【0012】第2領域候補部分検出ステップは、第2領
域候補部分の画素値を第1軸上に投影した第3投影信号
を形成する第3投影信号形成ステップと、第2領域の画
素値を第1軸上に投影した第2領域第1軸信号と第3投
影信号とを比較する第3投影信号比較ステップとを有す
るのが好ましい。
The second area candidate portion detecting step includes a third projection signal forming step of forming a third projection signal by projecting a pixel value of the second area candidate portion on a first axis, and a pixel value of the second area. Preferably, the method includes a third projection signal comparing step of comparing the second area first axis signal projected on the first axis with the third projection signal.

【0013】第2領域候補部分検出ステップは、第2領
域候補部分の画素値を第2軸上に投影した第4投影信号
を形成する第4投影信号形成ステップと、第2領域の画
素値を第2軸上に投影した第2領域第2軸信号と第4投
影信号とを比較する第4投影信号比較ステップとをさら
に有してもよい。
The second region candidate portion detecting step includes a fourth projection signal forming step of forming a fourth projection signal by projecting the pixel value of the second region candidate portion on a second axis, and a pixel value of the second region. The method may further include a fourth projection signal comparing step of comparing the second area second axis signal projected on the second axis with the fourth projection signal.

【0014】第1領域第1軸候補位置検出ステップは、
第1軸方向における異なる位置で第1投影信号から第1
領域の幅の部分信号を取り出して、それぞれ第1領域第
1軸信号と比較して第1相関値を算出するステップを有
し、第1相関値に基づいて、第1軸方向における第1領
域候補部分の位置を検出してもよく、第1領域第2軸候
補位置検出ステップは、第2軸方向における異なる位置
で第2投影信号から第1領域の幅の部分信号を取り出し
て、それぞれ第1領域第2軸信号と比較して第2相関値
を算出するステップを有し、第2相関値に基づいて、第
2軸方向における第1領域候補部分の位置を検出しても
よい。
The first area first axis candidate position detecting step includes:
At different positions in the first axis direction, the first projection signal
Extracting a partial signal having a width of the region and comparing the partial signal with the first region first axis signal to calculate a first correlation value, based on the first correlation value, the first region in the first axis direction. The position of the candidate portion may be detected, and the first area second axis candidate position detecting step extracts the partial signal having the width of the first area from the second projection signal at a different position in the second axis direction, and The method may further include calculating a second correlation value by comparing with the one-region second-axis signal, and detecting a position of the first-region candidate portion in the second-axis direction based on the second correlation value.

【0015】第3投影信号比較ステップは、第1軸方向
における異なる位置で第3投影信号から第2領域の幅の
部分信号を取り出して、それぞれ第2領域第1軸信号と
比較して第3相関値を算出するステップを有してもよ
く、画像検出方法は、第3相関値及び相対的な位置に基
づいて、第1領域に近似する第1領域近似部分を入力画
像から検出する第1領域近似部分検出ステップをさらに
備えてもよい。
In the third projection signal comparing step, a partial signal having a width of the second area is extracted from the third projection signal at a different position in the first axis direction, and each of the partial signals is compared with the first axis signal of the second area. The method may further include calculating a correlation value, wherein the image detection method includes detecting a first region approximation portion approximating the first region from the input image based on the third correlation value and the relative position. The method may further include a region approximate portion detecting step.

【0016】第1領域第1軸候補位置検出ステップは、
第1軸方向における異なる位置で第1投影信号から第1
領域の幅の部分信号を取り出して、それぞれ第1領域第
1軸信号と比較して第1相関値を算出するステップを有
し、第1相関値に基づいて、第1軸方向における第1領
域候補部分の位置を検出してもよく、第1領域第2軸候
補位置検出ステップは、第2軸方向における異なる位置
で第2投影信号から第1領域の幅の部分信号を取り出し
て、それぞれ第1領域第2軸信号と比較して第2相関値
を算出するステップを有し、第2相関値に基づいて、第
2軸方向における第1領域候補部分の位置を検出しても
よく、第3投影信号比較ステップは、第1軸方向におけ
る異なる位置で第3投影信号から第2領域の幅の部分信
号を取り出して、それぞれ第2領域第1軸信号と比較し
て第3相関値を算出するステップを有してもよく、画像
検出方法は、第1相関値又は第2相関値の少なくとも一
方と、第3相関値と、及び相対位置とに基づいて、第1
領域に近似する第1領域近似部分を入力画像から検出す
る第1領域近似部分検出ステップをさらに備えてもよ
い。
The first area first axis candidate position detecting step includes:
At different positions in the first axis direction, the first projection signal
Extracting a partial signal having a width of the region and comparing the partial signal with the first region first axis signal to calculate a first correlation value, based on the first correlation value, the first region in the first axis direction. The position of the candidate portion may be detected, and the first area second axis candidate position detecting step extracts the partial signal having the width of the first area from the second projection signal at a different position in the second axis direction, and Calculating a second correlation value by comparing with the one area second axis signal, and detecting a position of the first area candidate portion in the second axis direction based on the second correlation value; In the three-projection-signal comparing step, a partial signal having a width of the second area is extracted from the third projection signal at a different position in the first-axis direction, and the partial signal is compared with the first-axis signal of the second area to calculate a third correlation value The image detecting method may include the first step. At least one of the function value or the second correlation value, based a third correlation values, and the relative position, the first
The method may further include a first region approximation portion detecting step of detecting a first region approximation portion approximating the region from the input image.

【0017】第3投影信号比較ステップは、第1軸方向
における異なる位置で第3投影信号から第2領域の幅の
部分信号を取り出して、それぞれ第2領域第1軸信号と
比較して第3相関値を算出するステップを有してもよ
く、第4投影信号比較ステップは、第2軸方向における
異なる位置で第4投影信号から第2領域の幅の部分信号
を取り出して、それぞれ第2領域第2軸信号と比較して
第4相関値を算出するステップを有してもよく、画像検
出方法は、第3相関値及び第4相関値に基づいて、第1
領域に近似する第1領域近似部分を入力画像から検出す
る第1領域近似部分検出ステップをさらに備えてもよ
い。
In the third projection signal comparing step, a partial signal having a width of the second area is extracted from the third projection signal at a different position in the first axis direction, and is compared with the first axis signal of the second area. The fourth projection signal comparing step may include extracting a partial signal having a width of the second region from the fourth projection signal at a different position in the second axis direction, and calculating the correlation value. The method may include calculating a fourth correlation value by comparing the second correlation signal with the second axis signal. The image detection method may include calculating the first correlation value based on the third correlation value and the fourth correlation value.
The method may further include a first region approximation portion detecting step of detecting a first region approximation portion approximating the region from the input image.

【0018】第1領域第1軸候補位置検出ステップは、
第1領域第1軸信号のエッジを抽出する第1領域第1軸
信号エッジ抽出ステップと、第1投影信号のエッジを抽
出する第1投影信号エッジ抽出ステップとを有し、第1
領域第1軸信号のエッジの信号値と第1投影信号のエッ
ジの信号値とに基づいて、第1軸方向における第1領域
候補部分の位置を検出してもよく、第1領域第2軸候補
位置検出ステップは、第1領域第2軸信号のエッジを抽
出する第1領域第2軸信号エッジ抽出ステップと、第2
投影信号のエッジを抽出する第2投影信号エッジ抽出ス
テップとを有し、第1領域第2軸信号のエッジの信号値
と第2投影信号のエッジの信号値とに基づいて、第2軸
方向における第1領域候補部分の位置を検出してもよ
い。
The first area first axis candidate position detecting step includes:
A first area first axis signal edge extracting step of extracting an edge of the first area first axis signal; and a first projection signal edge extracting step of extracting an edge of the first projection signal.
The position of the first area candidate portion in the first axis direction may be detected based on the signal value of the edge of the area first axis signal and the signal value of the edge of the first projection signal, and the first area second axis The candidate position detecting step includes: a first area second axis signal edge extracting step of extracting an edge of the first area second axis signal;
A second projection signal edge extraction step of extracting an edge of the projection signal, wherein a second axis direction is determined based on a signal value of an edge of the first area second axis signal and a signal value of an edge of the second projection signal. May be detected.

【0019】第1領域第1軸候補位置検出ステップは、
第1領域第1軸信号のエッジの数と第1投影信号のエッ
ジの数とに基づいて、第1軸方向における第1領域候補
部分の位置を検出してもよく、第1領域第2軸候補位置
検出ステップは、第1領域第2軸信号のエッジの数と第
2投影信号のエッジの数とに基づいて、第2軸方向にお
ける第1領域候補部分の位置を検出してもよい。
The first area first axis candidate position detecting step includes:
The position of the first area candidate portion in the first axis direction may be detected based on the number of edges of the first area first axis signal and the number of edges of the first projection signal, and the first area second axis The candidate position detection step may detect the position of the first region candidate portion in the second axis direction based on the number of edges of the first region second axis signal and the number of edges of the second projection signal.

【0020】第1領域第1軸候補位置検出ステップは、
第1領域第1軸信号のエッジの信号値と第1投影信号の
エッジの信号値との相関を示す第1エッジ相関値を算出
するステップを有し、第1エッジ相関値に基づいて第1
軸方向における第1領域候補部分の位置を検出してもよ
く、第1領域第2軸候補位置検出ステップは、第1領域
第2軸信号のエッジの信号値と第2投影信号のエッジの
信号値との相関を示す第2エッジ相関値を算出するステ
ップを有し、第2エッジ相関値に基づいて、第2軸方向
における第1領域候補部分の位置を検出してもよい。
In the first area first axis candidate position detecting step,
Calculating a first edge correlation value indicating a correlation between the signal value of the edge of the first area first axis signal and the signal value of the edge of the first projection signal; and calculating the first edge correlation value based on the first edge correlation value.
The position of the first area candidate portion in the axial direction may be detected, and the first area second axis candidate position detecting step includes the step of detecting the signal value of the edge of the first area second axis signal and the signal of the edge of the second projection signal. Calculating a second edge correlation value indicating a correlation with the value, and detecting a position of the first region candidate portion in the second axis direction based on the second edge correlation value.

【0021】第3投影信号比較ステップは、第2領域信
号のエッジを抽出する第2領域第1軸信号エッジ抽出ス
テップと、第3投影信号のエッジ領域を抽出する第3投
影信号エッジ抽出ステップと、第2領域第1軸信号のエ
ッジの信号値と第3投影信号のエッジの信号値とを比較
するステップとを有してもよく、画像検出方法は、第2
領域第1軸信号のエッジの信号値と第3投影信号のエッ
ジの信号値とに基づいて、第1領域近似部分を入力画像
から検出する第1領域近似部分検出ステップをさらに備
えてもよい。第3投影信号比較ステップは、第2領域第
1軸信号のエッジの数と第3投影信号のエッジの数とを
比較してもよい。
The third projection signal comparison step includes a second area first axis signal edge extraction step for extracting an edge of the second area signal, and a third projection signal edge extraction step for extracting an edge area of the third projection signal. Comparing the signal value of the edge of the second-axis first-axis signal with the signal value of the edge of the third projection signal.
The method may further include a first region approximate portion detecting step of detecting a first region approximate portion from the input image based on a signal value of an edge of the region first axis signal and a signal value of an edge of the third projection signal. The third projection signal comparison step may compare the number of edges of the second area first axis signal with the number of edges of the third projection signal.

【0022】第3投影信号比較ステップは、第2領域第
1軸信号のエッジの信号値と第3投影信号のエッジの信
号値との相関を示す第3エッジ相関値を算出するステッ
プを有してもよく、第1領域近似部分検出ステップは、
第3エッジ相関値に基づいて第1領域近似部分を入力画
像から検出してもよい。
The third projection signal comparing step includes a step of calculating a third edge correlation value indicating a correlation between an edge signal value of the second area first axis signal and an edge signal value of the third projection signal. The first area approximation portion detecting step may include:
The first area approximation part may be detected from the input image based on the third edge correlation value.

【0023】本発明の第2の形態によると、予め与えら
れた第1マークを含む第1領域に近似した第1領域近似
部分を入力画像から検出する画像検出装置であって、第
1マークに近似した画像を含む第1領域候補部分を入力
画像から検出する第1領域候補部分検出手段と、第1領
域に対する相対的な位置が既知である第2領域の画像に
関する情報が予め与えられており、相対的な位置に基づ
いて、入力画像から第2領域候補部分を定め、第2領域
候補部分が第2領域の画像に関する情報と一致するか否
かを検出する第2領域候補部分検出手段とを備えること
を特徴とする画像検出装置を提供する。
According to a second aspect of the present invention, there is provided an image detecting apparatus for detecting, from an input image, a first area approximation portion approximating a first area including a predetermined first mark. First region candidate portion detecting means for detecting a first region candidate portion including an approximated image from an input image, and information on an image of a second region having a known position relative to the first region are provided in advance. A second area candidate part detecting unit that determines a second area candidate part from the input image based on the relative position, and detects whether the second area candidate part matches information on the image of the second area. An image detecting device is provided.

【0024】本発明の第3の形態によると、ウェハに回
路パターンを露光するウェハ処理装置であって、第1マ
ークを含む第1領域の画像及び第1領域に対する相対的
な位置が既知である第2領域の画像に関する情報を記憶
する記憶手段と、ウェハの画像を入力画像として取得す
る入力画像取得手段と、第1マークに近似した画像を含
む第1領域候補部分を入力画像から検出する第1領域候
補部分検出手段と、相対的な位置に基づいて、入力画像
から第2領域候補部分を定め、第2領域候補部分が第2
領域の画像に関する情報と一致するか否かを検出する第
2領域候補部分検出手段と第2領域候補部分検出手段に
よる検出結果に基づいて、入力画像から第1領域に近似
した第1領域近似部分を検出する近似部分検出手段と、
近似部分の位置に基づいてウェハの位置を検出する位置
検出手段と、検出されたウェハの位置に基づいて、ウェ
ハを移動させる移動手段とを備えることを特徴とするウ
ェハ処理装置を提供する。
According to a third aspect of the present invention, there is provided a wafer processing apparatus for exposing a circuit pattern on a wafer, wherein an image of a first area including a first mark and a relative position with respect to the first area are known. Storage means for storing information relating to the image of the second area; input image obtaining means for obtaining an image of the wafer as an input image; and a second area for detecting a first area candidate portion including an image similar to the first mark from the input image. A second region candidate portion is determined from the input image based on the one region candidate portion detection means and the relative position, and the second region candidate portion is determined by the second region candidate portion.
A first area approximation portion approximating the first region from the input image based on the detection result by the second region candidate portion detection means for detecting whether or not the information coincides with the information on the area image; Approximate part detection means for detecting
There is provided a wafer processing apparatus comprising: a position detecting unit that detects a position of a wafer based on a position of an approximate portion; and a moving unit that moves the wafer based on the detected position of the wafer.

【0025】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションも又発明となりうる。
Note that the above summary of the present invention does not list all of the necessary features of the present invention, and sub-combinations of these features may also constitute the present invention.

【0026】[0026]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態はクレームにかか
る発明を限定するものではなく、又実施形態の中で説明
されている特徴の組み合わせの全てが発明の解決手段に
必須であるとは限らない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the claimed invention and have the features described in the embodiments. Not all combinations are essential to the solution of the invention.

【0027】図1は、本発明の一実施形態に係るウェハ
処理装置を示すブロック図である。ウェハ処理装置10
は、テンプレート画像記憶手段12と、入力画像取得手
段14と、画像検出装置20と、ウェハ移動手段50と
を有する。ウェハ処理装置10は、例えばウェハに回路
パターンを露光する露光装置やウェハ上のパターンを検
査する検査装置であってよい。例えば電子ビーム露光装
置である場合、ウェハ処理装置10は、電子ビームを発
生する電子銃と、電子ビームを収束し、焦点位置を調整
する電子レンズと、電子ビームを偏向する偏向部とをさ
らに有するのが好ましい。
FIG. 1 is a block diagram showing a wafer processing apparatus according to one embodiment of the present invention. Wafer processing device 10
Has a template image storage unit 12, an input image acquisition unit 14, an image detection device 20, and a wafer moving unit 50. The wafer processing apparatus 10 may be, for example, an exposure apparatus that exposes a circuit pattern on a wafer or an inspection apparatus that inspects a pattern on a wafer. For example, in the case of an electron beam exposure apparatus, the wafer processing apparatus 10 further includes an electron gun that generates an electron beam, an electron lens that converges the electron beam and adjusts a focal position, and a deflection unit that deflects the electron beam. Is preferred.

【0028】テンプレート画像記憶手段12は、第1マ
ークを含むテンプレート画像に関する情報を記憶する。
テンプレート画像記憶手段12は、さらに、第1マーク
に対する相対的な位置が既知である第2マークを含むテ
ンプレート画像に関する情報を記憶してもよい。テンプ
レート画像記憶手段12が記憶するテンプレート画像
は、撮像装置により撮影された画像であってもよく、ま
た、画像データであってもよい。入力画像取得手段14
は、ウェハの画像を入力画像として取得する。
The template image storage means 12 stores information on the template image including the first mark.
The template image storage unit 12 may further store information on a template image including a second mark whose position relative to the first mark is known. The template image stored in the template image storage unit 12 may be an image taken by an imaging device, or may be image data. Input image acquisition means 14
Acquires an image of a wafer as an input image.

【0029】画像検出装置20は、入力画像における第
1マークに近似した画像を含む第1領域近似部分の位置
に基づいてウェハの位置を検出する。画像検出装置20
は、ウェハだけでなく、液晶表示装置(LCDパネル)
におけるガラス基板の位置を検出してもよい。画像検出
装置20は、相対位置検出手段22と、第1領域候補部
分検出手段24と、第2領域候補部分検出手段32と、
第1領域近似部分検出手段40と、位置検出手段42と
を有する。
The image detecting device 20 detects the position of the wafer based on the position of the first area approximation portion including the image approximated to the first mark in the input image. Image detection device 20
Means not only wafers, but also liquid crystal displays (LCD panels)
May be detected. The image detection device 20 includes a relative position detection unit 22, a first region candidate portion detection unit 24, a second region candidate portion detection unit 32,
It has a first area approximation portion detecting means 40 and a position detecting means 42.

【0030】相対位置検出手段22は、テンプレート画
像から第1マークを含む第1領域と、第2領域とをそれ
ぞれ選択して、テンプレート画像に関する情報を用いて
第2領域の第1領域に対する相対的な位置を検出する。
相対位置検出手段22は、第2領域が第1マークとは異
なる形状を有する第2マークを含むように第1領域及び
第2領域を選択するのが好ましい。また、相対位置検出
手段22は、マークを含まない領域を第2領域として選
択してもよい。
The relative position detecting means 22 selects the first area including the first mark and the second area from the template image, and uses the information on the template image to determine the relative position of the second area to the first area. Detect the correct position.
It is preferable that the relative position detecting means 22 selects the first area and the second area such that the second area includes a second mark having a shape different from the first mark. Further, the relative position detecting means 22 may select an area that does not include the mark as the second area.

【0031】他の例において、ウェハ処理装置10は相
対位置検出手段22を含まず、テンプレート画像記憶手
段12が、予め第1領域及び第2領域に関する情報を記
憶していてもよい。この場合、第1領域は第1マークを
含む。また、テンプレート画像記憶手段12は、第2領
域の第1領域に対する相対的な位置を記憶する。第2領
域は第1マークと異なる形状を有する第2マークを含む
のが好ましい。第2領域は、マークを有しなくてもよ
い。
In another example, the wafer processing apparatus 10 does not include the relative position detecting means 22, and the template image storing means 12 may store information on the first area and the second area in advance. In this case, the first area includes the first mark. Further, the template image storage unit 12 stores a relative position of the second area with respect to the first area. Preferably, the second area includes a second mark having a shape different from the first mark. The second area may not have the mark.

【0032】第1領域候補部分検出手段24は、入力画
像から第1マークに近似した画像を含む第1領域候補部
分を検出する。第1領域候補部分検出手段24は、第1
領域信号形成手段26と、投影信号形成手段28と、候
補位置検出手段30とを有する。第1領域信号形成手段
26は、テンプレート画像記憶手段12に記憶されたテ
ンプレート画像と、相対位置検出手段22により選択さ
れた第1領域の位置とに基づいて、第1領域の画素値を
第1領域の第1軸上及び第2軸上にそれぞれ投影した第
1領域第1軸信号及び第1領域第2軸信号を形成する。
第2軸は、第1軸に実質的に垂直であるのが好ましい。
投影信号形成手段28は、入力画像の画素値を第1軸上
及び第2軸上にそれぞれ投影した第1投影信号及び第2
投影信号を形成する。
The first region candidate portion detecting means 24 detects a first region candidate portion including an image approximate to the first mark from the input image. The first area candidate portion detecting means 24
It has an area signal forming unit 26, a projection signal forming unit 28, and a candidate position detecting unit 30. The first area signal forming means 26 converts the pixel value of the first area into the first area based on the template image stored in the template image storing means 12 and the position of the first area selected by the relative position detecting means 22. A first region first axis signal and a first region second axis signal projected on the first and second axes of the region, respectively, are formed.
Preferably, the second axis is substantially perpendicular to the first axis.
The projection signal forming means 28 includes a first projection signal and a second projection signal which project the pixel values of the input image on the first axis and the second axis, respectively.
Form the projection signal.

【0033】候補位置検出手段30は、第1領域第1軸
信号と第1投影信号とに基づいて、第1軸方向における
第1領域候補部分の位置を検出する。また、候補位置検
出手段30は、第1領域第2軸信号と第2投影信号とに
基づいて、第2軸方向における第1領域候補部分の位置
を検出する。候補位置検出手段30は、以上のようにし
て、第1マーク候補部分を検出する。
The candidate position detecting means 30 detects the position of the first region candidate portion in the first axis direction based on the first region first axis signal and the first projection signal. Further, the candidate position detecting means 30 detects the position of the first region candidate portion in the second axis direction based on the first region second axis signal and the second projection signal. The candidate position detecting means 30 detects the first mark candidate portion as described above.

【0034】第2領域候補部分検出手段32は、第2領
域の第1領域に対する相対的な位置に基づいて、入力画
像から第2領域候補部分を定め、第2領域候補部分が第
2領域の画像に関する情報と一致するか否かを検出す
る。具体的には、第2領域候補部分検出手段32は、第
2領域に含まれる第2マークの画像を用いて第2領域候
補部分が第2領域の画像に関する情報と一致するか否か
を検出する。
The second region candidate portion detecting means 32 determines a second region candidate portion from the input image based on the relative position of the second region to the first region, and determines that the second region candidate portion is the second region. It is detected whether or not the information matches the information on the image. Specifically, the second area candidate portion detecting means 32 uses the image of the second mark included in the second area to detect whether or not the second area candidate portion matches information on the image of the second area. I do.

【0035】第2領域候補部分検出手段32は、第2領
域信号形成手段34と、投影信号形成手段36と、投影
信号比較手段38とを有する。第2領域信号形成手段3
4は、第2領域の画素値を第1軸上及び第2軸上にそれ
ぞれ投影した第2領域第1軸信号及び第2領域第2軸信
号を形成する。
The second area candidate portion detecting means 32 has a second area signal forming means 34, a projection signal forming means 36, and a projection signal comparing means 38. Second area signal forming means 3
Reference numeral 4 forms a second-region first-axis signal and a second-region second-axis signal obtained by projecting the pixel values of the second region on the first axis and the second axis, respectively.

【0036】投影信号形成手段36は、候補位置検出手
段30が検出した第1領域候補部分の位置と、相対位置
検出手段22が検出した第2領域の第1領域に対する相
対的な位置とに基づいて、入力画像から第2領域候補部
分を定める。投影信号形成手段36は、第2領域候補部
分の画素値を第1軸上及び第2軸上にそれぞれ投影した
第3投影信号及び第4投影信号を形成する。
The projection signal forming means 36 is based on the position of the first area candidate portion detected by the candidate position detecting means 30 and the relative position of the second area detected by the relative position detecting means 22 with respect to the first area. Then, a second region candidate portion is determined from the input image. The projection signal forming means 36 forms a third projection signal and a fourth projection signal obtained by projecting the pixel values of the second area candidate portion on the first axis and the second axis, respectively.

【0037】投影信号比較手段38は、第2領域第1軸
信号と第3投影信号とを比較する。投影信号比較手段3
8は、さらに、第2領域第2軸信号と第4投影信号とを
比較するのが好ましい。
The projection signal comparing means 38 compares the second area first axis signal with the third projection signal. Projection signal comparison means 3
8 further preferably compares the second area second axis signal with the fourth projection signal.

【0038】第1領域近似部分検出手段40は、投影信
号比較手段38による検出結果と、第2領域の第1領域
に対する相対的な位置とに基づいて、入力画像から第1
領域に近似した第1領域近似部分を検出する。また、第
1領域近似部分検出手段40は、候補位置検出手段30
による検出結果及び投影信号比較手段38による検出結
果の両方と第2領域の第1領域に対する相対的な位置と
に基づいて、入力画像から第1領域に近似した第1領域
近似部分を検出してもよい。
The first area approximation part detecting means 40 calculates the first area from the input image based on the detection result by the projection signal comparing means 38 and the position of the second area relative to the first area.
A first region approximation portion approximating the region is detected. In addition, the first area approximation part detecting means 40 includes the candidate position detecting means 30.
A first area approximation portion approximating the first area is detected from the input image based on both the detection result of the first area and the detection result of the projection signal comparing means 38 and the relative position of the second area to the first area. Is also good.

【0039】位置検出手段42は、第1領域近似部分の
位置に基づいてウェハの位置を検出する。ウェハ移動手
段50は、検出されたウェハの位置に基づいて、ウェハ
を移動させる。
The position detecting means 42 detects the position of the wafer on the basis of the position of the approximate portion of the first area. The wafer moving means 50 moves the wafer based on the detected position of the wafer.

【0040】本実施形態に係るウェハ処理装置10は、
入力画像から第1領域候補部分を検出した後に第2領域
候補部分を定め、第2領域候補部分がテンプレート画像
の第2領域の画像に関する情報と一致するか否かを検出
し、その検出結果に基づいて第1領域近似部分を検出し
ているので、第1領域近似部分をより正確に検出するこ
とができる。また、第2領域はテンプレート画像を分割
した領域であるので、入力画像のテンプレート画像に対
応する領域がテンプレート画像に関する情報と一致する
か否かに基づいて第1領域近似部分を検出する場合より
も、第1領域候補部分を迅速に検出することができる。
The wafer processing apparatus 10 according to the present embodiment
After detecting the first region candidate portion from the input image, a second region candidate portion is determined, and it is detected whether or not the second region candidate portion matches information on the image of the second region of the template image. Since the first region approximate portion is detected based on the first region, the first region approximate portion can be detected more accurately. Further, since the second area is an area obtained by dividing the template image, the second area is more similar to the case where the first area approximation part is detected based on whether or not the area corresponding to the template image of the input image matches information on the template image. , The first region candidate portion can be quickly detected.

【0041】図2は、本発明に係るウェハ処理装置10
が入力画像から第1領域近似部分を検出する各ステップ
を示すフローチャートである。
FIG. 2 shows a wafer processing apparatus 10 according to the present invention.
5 is a flowchart showing each step of detecting a first area approximation portion from an input image.

【0042】本実施形態において、まず、相対位置検出
手段22が、テンプレート画像から第1領域及び第2領
域を選択し、第2領域の第1領域に対する相対的な位置
を検出する(S10)。次に、第1領域信号形成手段2
6が第1領域第1軸信号及び第1領域第2軸信号を形成
する(S12)。ステップ12と同時に又はステップ1
2に前後して、投影信号形成手段28が、第1投影信号
及び第2投影信号を形成する(S14)。続いて、候補
位置検出手段30が、入力画像から第1領域候補部分の
位置を検出する(S16)。また、第2領域信号形成手
段34が、第2領域第1軸信号及び第2領域第2軸信号
を形成する(S18)。ステップ16で検出された第1
領域候補部分の位置とステップ10で検出された第2領
域の第1領域に対する相対的な位置とに基づいて、投影
信号形成手段36が、入力画像から第2領域候補部分を
定める。続いて、投影信号形成手段36は、第2領域候
補部分の画素値を投影した第3投影信号及び第4投影信
号を形成する(S20)。投影信号比較手段38は、第
2領域候補部分が第2領域と一致するか否かを検出する
(S22)。第1領域近似部分検出手段40は、投影信
号比較手段38の検出結果に基づいて、入力画像から第
1領域近似部分を検出する(S24)。
In this embodiment, first, the relative position detecting means 22 selects the first and second regions from the template image, and detects the relative position of the second region with respect to the first region (S10). Next, the first area signal forming means 2
6 forms a first area first axis signal and a first area second axis signal (S12). Simultaneously with step 12 or step 1
Before or after Step 2, the projection signal forming means 28 forms the first projection signal and the second projection signal (S14). Subsequently, the candidate position detecting means 30 detects the position of the first region candidate portion from the input image (S16). Further, the second area signal forming means 34 forms a second area first axis signal and a second area second axis signal (S18). The first detected in step 16
Based on the position of the region candidate portion and the position of the second region detected in step 10 relative to the first region, the projection signal forming means 36 determines a second region candidate portion from the input image. Subsequently, the projection signal forming unit 36 forms a third projection signal and a fourth projection signal obtained by projecting the pixel values of the second area candidate portion (S20). The projection signal comparison means 38 detects whether or not the second area candidate portion matches the second area (S22). The first area approximation part detection means 40 detects the first area approximation part from the input image based on the detection result of the projection signal comparison means 38 (S24).

【0043】以下に、各ステップの詳細を図を用いて説
明する。図3は、本発明の一実施形態に係るウェハ処理
装置10により、ウェハの入力画像から第1領域近似部
分を検出する手順を説明する模式図である。
The details of each step will be described below with reference to the drawings. FIG. 3 is a schematic diagram illustrating a procedure for detecting a first region approximate portion from an input image of a wafer by the wafer processing apparatus 10 according to the embodiment of the present invention.

【0044】図3(a)は、予め与えられたテンプレー
ト画像100を示す。本実施形態におけるテンプレート
画像100は、第1マーク102及び第2マーク104
を含む。また、第1マーク102は所定の方向にライン
アンドスペースのパターンを有しており、第2マーク1
04は第1マーク102と異なる方向にラインアンドス
ペースのパターンを有する。第1マーク102及び第2
マーク104のパターンは、ウェハ上にエッチングで形
成された凹凸により構成されてよい。この場合、例えば
CCD(Charge Coupled Devic
e)等の撮像装置で撮影されたマークのラインは、スペ
ース部分とコントラストが異なり、画素値も異なる。ま
た、テンプレート画像100は、第1マーク102及び
第2マーク104に基づいて形成された画像データであ
ってよい。
FIG. 3A shows a template image 100 given in advance. The template image 100 according to the present embodiment includes a first mark 102 and a second mark 104.
including. The first mark 102 has a line-and-space pattern in a predetermined direction.
04 has a line and space pattern in a direction different from that of the first mark 102. First mark 102 and second mark 102
The pattern of the mark 104 may be constituted by irregularities formed on the wafer by etching. In this case, for example, a CCD (Charge Coupled Device)
The line of the mark photographed by the imaging device such as e) has a different contrast from the space portion, and also has a different pixel value. The template image 100 may be image data formed based on the first mark 102 and the second mark 104.

【0045】本実施形態において、第1マーク102及
び第2マーク104が、それぞれ異なる方向にラインア
ンドスペースのパターンを有しているため、第1マーク
102の特徴及び第2マーク104の特徴がそれぞれ異
なる軸上に投影される。そのため、本実施形態に係るウ
ェハ処理装置10は、いずれかの軸上に投影される信号
にウェハ表面の反射光の影響が生じても、他の軸上に投
影される信号を用いて正確に第1領域近似部分を検出す
ることができる。
In the present embodiment, since the first mark 102 and the second mark 104 have line and space patterns in different directions, the characteristics of the first mark 102 and the characteristics of the second mark 104 are respectively different. Projected on different axes. Therefore, even if the signal projected on any axis is affected by the reflected light on the wafer surface, the wafer processing apparatus 10 according to the present embodiment can accurately use the signal projected on the other axis. The first area approximation part can be detected.

【0046】図3(b)に示すように、相対位置検出手
段22は、テンプレート画像100から第1マーク10
2を含む第1領域106と、第2マーク104を含む第
2領域108とを選択する。他の例において、相対位置
検出手段22は、マークを含まない領域130を第2領
域として選択してもよい。また、テンプレート画像記憶
手段12が、予め第1領域及び第2領域に関する情報を
記憶してもよい。図3(c)は、第1領域106を示
す。第1領域信号形成手段26は、第1領域の画素値を
第1軸上及び第2軸上にそれぞれ投影した第1領域第1
軸信号及び第1領域第2軸信号を形成する。
As shown in FIG. 3B, the relative position detecting means 22 converts the first mark 10
2 and a second area 108 including the second mark 104 are selected. In another example, the relative position detection unit 22 may select an area 130 that does not include the mark as the second area. Further, the template image storage unit 12 may store information on the first area and the second area in advance. FIG. 3C shows the first region 106. The first area signal forming unit 26 is configured to project the pixel values of the first area on the first axis and the second axis, respectively.
An axis signal and a first area second axis signal are formed.

【0047】図3(d)は、入力画像取得手段14によ
り取得された入力画像110を示す。投影信号形成手段
28は、入力画像を第1軸上及び第2軸上にそれぞれ投
影した第1投影信号及び第2投影信号を形成する。入力
画像110に含まれるマークのパターンは、ウェハ上に
エッチングで形成された凹凸により構成される。そのた
め、例えばCCD等の撮像装置で撮影された入力画像1
10のマークのラインは、スペース部分とコントラスト
が異なり、画素値も異なる。従って、第1投影信号及び
第2投影信号は、それぞれマークの模様を反映したパタ
ーンを有する。
FIG. 3D shows the input image 110 obtained by the input image obtaining means 14. The projection signal forming unit 28 forms a first projection signal and a second projection signal that are obtained by projecting the input image on the first axis and the second axis, respectively. The pattern of the mark included in the input image 110 is formed by unevenness formed on the wafer by etching. Therefore, for example, an input image 1 captured by an imaging device such as a CCD
The line of the mark 10 has a different contrast from the space portion, and also has a different pixel value. Therefore, each of the first projection signal and the second projection signal has a pattern reflecting the mark pattern.

【0048】図3(e)に示すように、まず、候補位置
検出手段30は、第1領域第1軸信号を第1投影信号上
で走査させる。候補位置検出手段30は、第1軸方向に
おける異なる位置で第1投影信号から第1領域の幅の部
分信号を取り出して、それぞれ第1領域第1軸信号と比
較してもよい。具体的には、候補位置検出手段30は、
第1領域第1軸信号と第1投影信号との相関を示す第1
相関値を算出してもよく、第1相関値に基づいて第1軸
方向における第1領域候補部分の位置を検出してよい。
As shown in FIG. 3E, first, the candidate position detecting means 30 scans the first area first axis signal on the first projection signal. The candidate position detecting means 30 may extract a partial signal having a width of the first region from the first projection signal at a different position in the first axis direction, and compare each of the partial signals with the first region first axis signal. Specifically, the candidate position detecting means 30
A first area indicating a correlation between the first area first axis signal and the first projection signal;
The correlation value may be calculated, and the position of the first region candidate portion in the first axis direction may be detected based on the first correlation value.

【0049】また、候補位置検出手段30は、図2に示
すステップ16において、第1領域第1軸信号のエッジ
を抽出する第1領域第1軸信号エッジ抽出ステップと、
第1投影信号のエッジを抽出する第1投影信号エッジ抽
出ステップとを行ってもよい。この場合、候補位置検出
手段30は、第1領域第1軸信号のエッジの信号値と第
1投影信号のエッジの信号値とに基づいて、第1軸方向
における第1領域候補部分の位置を検出する。具体的に
は、候補位置検出手段30は、第1領域第1軸信号のエ
ッジの信号値と第1投影信号のエッジの信号値との相関
を示す第1エッジ相関値を算出し、第1エッジ相関値に
基づいて第1軸方向における第1領域候補部分の位置を
検出してもよい。
In step 16 shown in FIG. 2, the candidate position detecting means 30 extracts a first area first axis signal edge for extracting an edge of the first area first axis signal.
Extracting a first projection signal edge for extracting an edge of the first projection signal. In this case, the candidate position detecting means 30 determines the position of the first region candidate portion in the first axis direction based on the signal value of the edge of the first region first axis signal and the signal value of the edge of the first projection signal. To detect. Specifically, the candidate position detecting means 30 calculates a first edge correlation value indicating a correlation between the signal value of the edge of the first area first axis signal and the signal value of the edge of the first projection signal, and The position of the first region candidate portion in the first axis direction may be detected based on the edge correlation value.

【0050】第1エッジ相関値は、以下の式(1)〜式
(3)に基づいて算出される正規化相関値であってよ
い。数1は、第1領域第1軸信号の信号値を算出する式
である。
The first edge correlation value may be a normalized correlation value calculated based on the following equations (1) to (3). Equation 1 is an equation for calculating the signal value of the first area first axis signal.

【数1】 ここで、T(m,n)は、第1領域の第1軸方向の座標
m、第2軸方向の座標nにおける画素値である。Nは、
第1領域における第2軸方向の画素の画素数である。T
x(m)は、第1軸方向の座標mにおける第1領域第1
軸信号の信号値である。信号値Tx(m)から第1領域
第1軸信号におけるエッジの座標を検出する。
(Equation 1) Here, T (m, n) is a pixel value of the first area at coordinates m in the first axis direction and coordinates n in the second axis direction. N is
This is the number of pixels in the second axis direction in the first region. T
x (m) is the first region first at the coordinate m in the first axis direction.
This is the signal value of the axis signal. The coordinates of the edge in the first area first axis signal are detected from the signal value Tx (m).

【0051】数2は、第1投影信号の信号値を算出する
式である。
Equation 2 is an equation for calculating the signal value of the first projection signal.

【数2】 ここで、X(i,j)は、入力画像の第1軸方向の座標
i、第2軸方向の座標jにおける画素値である。Jは、
入力画像における第2軸方向の画素の画素数である。X
x(i)は、第1軸方向の座標iにおける第1投影信号
の信号値である。信号値Xx(i)から第1投影信号に
おけるエッジの座標を検出する。
(Equation 2) Here, X (i, j) is a pixel value at coordinates i in the first axis direction and coordinates j in the second axis direction of the input image. J is
This is the number of pixels in the second axis direction in the input image. X
x (i) is the signal value of the first projection signal at the coordinate i in the first axis direction. The coordinates of the edge in the first projection signal are detected from the signal value Xx (i).

【0052】数3は、正規化相関値を算出する式であ
る。
Equation 3 is an equation for calculating a normalized correlation value.

【数3】 ここで、refxは、第1領域第1軸信号におけるエッ
ジの座標を示す参照データ配列であり、M’は、第1領
域第1軸信号Tx(m)から検出したエッジの画素の画
素数である。
(Equation 3) Here, refx is a reference data array indicating the coordinates of the edge in the first area first axis signal, and M ′ is the number of pixels of the edge detected from the first area first axis signal Tx (m). is there.

【0053】候補位置検出手段30は、第1エッジ相関
値が極大値を示す第1軸上の座標を第1領域第1軸候補
部分として検出するのが好ましい。また、候補位置検出
手段30は、第1エッジ相関値が極大値を示す座標中
で、極大値が所定のしきい値より大きい座標を第1領域
第1軸候補部分として検出してよい。また、候補位置検
出手段30は、極大値を有する座標付近の座標のうち、
所定のしきい値より大きい第1エッジ相関値を有する座
標を第1領域第1軸部分として検出してもよい。
It is preferable that the candidate position detecting means 30 detect the coordinates on the first axis at which the first edge correlation value shows the maximum value as the first area first axis candidate part. In addition, the candidate position detection means 30 may detect, as coordinates in the first area and the first axis candidate portion, coordinates in which the first edge correlation value indicates the local maximum value and whose local maximum value is larger than a predetermined threshold value. In addition, the candidate position detecting means 30 determines, among the coordinates near the coordinates having the maximum value,
A coordinate having a first edge correlation value larger than a predetermined threshold value may be detected as the first area first axis portion.

【0054】また、候補位置検出手段30は、第1領域
第1軸信号のエッジの数と第1投影信号のエッジの数が
一致する第1軸上の座標を第1領域第1軸候補部分とし
て検出してもよい。候補位置検出手段30は、第1エッ
ジ相関値が極大値を示し、かつ第1領域第1軸信号のエ
ッジの数と第1投影信号のエッジの数が一致する第1軸
上の座標を第1領域第1軸候補部分として検出してもよ
い。
The candidate position detecting means 30 calculates the coordinates on the first axis where the number of edges of the first area first axis signal and the number of edges of the first projection signal coincide with each other. May be detected. The candidate position detecting means 30 calculates the coordinates on the first axis where the first edge correlation value shows the maximum value and the number of edges of the first area first axis signal matches the number of edges of the first projection signal. It may be detected as one area first axis candidate part.

【0055】以上の動作により、候補位置検出手段30
は、複数の座標を第1領域第1軸候補部分として検出し
てもよい。本実施形態において、第1投影信号のうちの
部分信号112と第1領域第1軸信号との第1相関値の
値が極大値を示すこととする。そのため、候補位置検出
手段30は、部分信号112を第1領域第1軸候補部分
として検出する。
By the above operation, the candidate position detecting means 30
May detect a plurality of coordinates as the first area first axis candidate part. In the present embodiment, it is assumed that the value of the first correlation value between the partial signal 112 of the first projection signal and the first-axis first-axis signal has a maximum value. Therefore, the candidate position detecting means 30 detects the partial signal 112 as the first area first axis candidate part.

【0056】本実施形態において、候補位置検出手段3
0は、各信号のエッジ部分を用いて第1領域第1軸候補
部分を検出しているので、迅速に第1領域候補部分を検
出することができる。
In this embodiment, the candidate position detecting means 3
In the case of 0, since the first region first axis candidate portion is detected using the edge portion of each signal, the first region candidate portion can be quickly detected.

【0057】また、本実施形態においては、第1領域第
1軸信号及び第1投影信号のエッジの座標の信号値のみ
を用いて正規化相関値を算出したが、全ての座標の信号
値を用いて上記の式に従って正規化相関値を算出しても
よい。
In the present embodiment, the normalized correlation value is calculated using only the signal values of the coordinates of the edge of the first area first axis signal and the first projection signal. The normalized correlation value may be calculated according to the above equation.

【0058】続いて、候補位置検出手段30は、第1領
域第2軸信号を第2投影信号上で走査させる。候補位置
検出手段30は、第2軸方向における異なる位置で第2
投影信号から第1領域の幅の部分信号を取り出してそれ
ぞれ第1領域第2軸信号と比較してもよい。具体的に
は、候補位置検出手段30は、第1領域第2軸信号と第
2投影信号との相関を示す第2相関値を算出してもよ
く、第2相関値に基づいて第2軸方向における第1領域
候補部分の位置を検出してよい。
Subsequently, the candidate position detecting means 30 scans the first area second axis signal on the second projection signal. The candidate position detecting means 30 detects the second position at a different position in the second axis direction.
A partial signal having the width of the first area may be extracted from the projection signal and compared with the first area second axis signal. Specifically, the candidate position detecting means 30 may calculate a second correlation value indicating a correlation between the first area second axis signal and the second projection signal, and calculate the second axis value based on the second correlation value. The position of the first area candidate portion in the direction may be detected.

【0059】また、候補位置検出手段30は、図2に示
すステップ16において、第1領域第2軸信号のエッジ
を抽出する第1領域第2軸信号エッジ抽出ステップと、
第2投影信号のエッジを抽出する第2投影信号エッジ抽
出ステップとを行ってもよい。この場合、候補位置検出
手段30は、第1領域第2軸信号のエッジの信号値と第
2投影信号のエッジの信号値とに基づいて、第2軸方向
における第1領域候補部分の位置を検出する。具体的に
は、候補位置検出手段30は、第1領域第2軸信号のエ
ッジの信号値と第2投影信号のエッジの信号値との相関
を示す第2エッジ相関値を算出し、第2エッジ相関値に
基づいて、第2軸方向における第1領域候補部分の位置
を検出してもよい。第2エッジ相関値は、上述したよう
に、第1エッジ相関値と同様の式に基づいて算出される
正規化相関値であってよい。
In step 16 shown in FIG. 2, the candidate position detecting means 30 extracts a first area second axis signal edge for extracting an edge of the first area second axis signal.
Extracting a second projection signal edge for extracting an edge of the second projection signal. In this case, the candidate position detecting means 30 determines the position of the first area candidate portion in the second axis direction based on the signal value of the edge of the first area second axis signal and the signal value of the edge of the second projection signal. To detect. Specifically, the candidate position detecting means 30 calculates a second edge correlation value indicating a correlation between the signal value of the edge of the first area second axis signal and the signal value of the edge of the second projection signal, and The position of the first area candidate portion in the second axis direction may be detected based on the edge correlation value. As described above, the second edge correlation value may be a normalized correlation value calculated based on the same equation as the first edge correlation value.

【0060】候補位置検出手段30は、第2エッジ相関
値が極大値を示す第2軸上の座標を第1領域第2軸候補
部分として検出するのが好ましい。また、候補位置検出
手段30は、第2相関値が極大値を示す座標中で、極大
値が所定のしきい値より大きい座標を第1領域第2軸候
補部分として検出してよい。また、候補位置検出手段3
0は、極大値を有する座標付近の座標のうち、所定のし
きい値より大きい第2相関値を有する座標を第1領域第
2軸部分として検出してもよい。
It is preferable that the candidate position detecting means 30 detect the coordinates on the second axis at which the second edge correlation value shows the maximum value as the first area second axis candidate part. In addition, the candidate position detecting means 30 may detect, as coordinates in the first area and the second axis candidate part, coordinates in which the second correlation value indicates the local maximum value and the local maximum value is larger than a predetermined threshold value. In addition, candidate position detecting means 3
In the case of 0, among the coordinates near the coordinates having the maximum value, the coordinates having the second correlation value larger than the predetermined threshold value may be detected as the first area second axis portion.

【0061】また、候補位置検出手段30は、第1領域
第2軸信号のエッジの数と第2投影信号のエッジの数が
一致する第2軸上の座標を第1領域第2軸候補部分とし
て検出してもよい。候補位置検出手段30は、第2エッ
ジ相関値が極大値を示し、かつ第1領域第2軸信号のエ
ッジの数と第2投影信号のエッジの数が一致する第2軸
上の座標を第1領域第2軸候補部分として検出してもよ
い。
The candidate position detecting means 30 calculates the coordinates on the second axis where the number of edges of the first area second axis signal and the number of edges of the second projection signal coincide with each other. May be detected. The candidate position detecting means 30 calculates the coordinates on the second axis where the second edge correlation value shows the maximum value and the number of edges of the first area second axis signal matches the number of edges of the second projection signal. It may be detected as one area second axis candidate part.

【0062】以上の動作により、候補位置検出手段30
は、複数の座標を第1領域第2軸候補部分として検出し
てもよい。本実施形態において、第2投影信号のうちの
部分信号114と第1領域第2軸信号との第2相関値の
値が極大値を示すこととする。そのため、候補位置検出
手段30は、部分信号114を第1領域第2軸候補部分
として検出する。
By the above operation, the candidate position detecting means 30
May detect a plurality of coordinates as the first area second axis candidate part. In the present embodiment, it is assumed that the value of the second correlation value between the partial signal 114 of the second projection signal and the first area second axis signal indicates a local maximum value. Therefore, the candidate position detecting means 30 detects the partial signal 114 as the first area second axis candidate part.

【0063】本実施形態において、候補位置検出手段3
0は、各信号のエッジ部分を用いて第1領域第2軸候補
部分を検出しているので、迅速に第1領域候補部分を検
出することができる。
In this embodiment, the candidate position detecting means 3
In the case of 0, since the first area second axis candidate part is detected using the edge part of each signal, the first area candidate part can be quickly detected.

【0064】候補位置検出手段30は、上述のように検
出した部分信号112及び114により特定される領域
を第1領域候補部分122として検出する。投影信号形
成手段36は、候補位置検出手段30により検出された
第1領域候補部分122と、相対位置検出手段22によ
り検出された第2領域の第1領域に対する相対的な位置
とに基づいて、第2領域候補部分124を定める。
The candidate position detecting means 30 detects a region specified by the partial signals 112 and 114 detected as described above as a first region candidate portion 122. The projection signal forming unit 36 determines the first region candidate portion 122 detected by the candidate position detecting unit 30 and the relative position of the second region detected by the relative position detecting unit 22 with respect to the first region. A second region candidate portion 124 is determined.

【0065】図3(f)は、第2領域108を示す。第
2領域信号形成手段34は、第2領域の画素値を第1軸
上及び第2軸上にそれぞれ投影した第2領域第1軸信号
及び第2領域第2軸信号を形成する。
FIG. 3F shows the second region 108. The second area signal forming means 34 forms a second area first axis signal and a second area second axis signal by projecting the pixel values of the second area on the first axis and the second axis, respectively.

【0066】図3(g)は、入力画像110から定めら
れた第2領域候補部分124を示す。投影信号形成手段
36は、第2領域候補部分124の画素値を第1軸上及
び第2軸上にそれぞれ投影した第3投影信号及び第4投
影信号を形成する。
FIG. 3G shows the second area candidate portion 124 determined from the input image 110. The projection signal forming means 36 forms a third projection signal and a fourth projection signal obtained by projecting the pixel values of the second region candidate portion 124 on the first axis and the second axis, respectively.

【0067】まず、投影信号比較手段38は、第2領域
第1軸信号を第3投影信号上で走査させる。投影信号比
較手段38は、第1軸方向における異なる位置で第3投
影信号から第2領域の幅の部分信号を取り出して、それ
ぞれ第2領域第1軸信号と比較してもよい。具体的に
は、投影信号比較手段38は、第2領域第1軸信号と第
3投影信号との相関を示す第3相関値を算出してもよ
く、第3相関値に基づいて第2領域候補部分が第2領域
の画像に関する情報と一致するか否かを検出してもよ
い。
First, the projection signal comparing means 38 scans the second area first axis signal on the third projection signal. The projection signal comparing means 38 may extract a partial signal having a width of the second region from the third projection signal at a different position in the first axis direction, and compare each of the partial signals with the second region first axis signal. Specifically, the projection signal comparing means 38 may calculate a third correlation value indicating a correlation between the second area first axis signal and the third projection signal, and calculate the second area based on the third correlation value. It may be detected whether or not the candidate portion matches information on the image of the second area.

【0068】投影信号比較手段38は、図2に示すステ
ップ22において、第2領域第1軸信号のエッジを抽出
する第2領域第1軸信号エッジ抽出ステップと、第3投
影信号のエッジ領域を抽出する第3投影信号エッジ抽出
ステップとを行ってもよい。この場合、投影信号比較手
段38は、第2領域第1軸信号のエッジの信号値と第3
投影信号のエッジの信号値とを比較する。具体的には、
投影信号比較手段38は、第2領域第1軸信号のエッジ
の信号値と第3投影信号のエッジの信号値との相関を示
す第3エッジ相関値を算出してもよい。
In step 22 shown in FIG. 2, the projection signal comparing means 38 extracts a second area first axis signal edge extracting step of extracting an edge of the second area first axis signal, and executes an edge area of the third projection signal. And extracting a third projection signal edge to be extracted. In this case, the projection signal comparing means 38 compares the signal value of the edge of the second region first axis signal with the third signal value.
The signal value of the edge of the projection signal is compared. In particular,
The projection signal comparison means 38 may calculate a third edge correlation value indicating a correlation between the signal value of the edge of the second area first axis signal and the signal value of the edge of the third projection signal.

【0069】第3エッジ相関値は、上述したように、第
1エッジ相関値と同様の式に基づいて算出される正規化
相関数であってよい。投影信号比較手段38は、第3エ
ッジ相関値が所定のしきい値より大きい座標を第2領域
第1軸部分として検出するのが好ましい。また、投影信
号比較手段38は、第3エッジ相関値が極大値を示す第
1軸上の座標を第2領域第1軸候補部分として検出して
もよい。また、投影信号比較手段38は、第3エッジ相
関値が極大値を示す座標中で、極大値が所定のしきい値
より大きい座標を第2領域第1軸候補部分として検出し
てよい。また、投影信号比較手段38は、極大値を有す
る座標付近の座標のうち、所定のしきい値より大きい第
3相関値を有する座標を第2領域第1軸候補部分として
検出してもよい。
As described above, the third edge correlation value may be a normalized correlation number calculated based on the same equation as the first edge correlation value. It is preferable that the projection signal comparing means 38 detect a coordinate having a third edge correlation value larger than a predetermined threshold value as a second area first axis portion. Further, the projection signal comparing means 38 may detect the coordinates on the first axis at which the third edge correlation value has the maximum value as the second area first axis candidate part. Further, the projection signal comparing means 38 may detect, as coordinates in the second area first axis candidate, coordinates in which the third edge correlation value indicates the maximum value, in which the maximum value is larger than a predetermined threshold value. Further, the projection signal comparing means 38 may detect, as coordinates in the second area first axis candidate portion, coordinates having a third correlation value larger than a predetermined threshold value among coordinates near the coordinates having the maximum value.

【0070】また、投影信号比較手段38は、第2領域
第1軸信号のエッジの数と第3投影信号のエッジの数が
一致する第1軸上の座標を第2領域第1軸候補部分とし
て検出してもよい。投影信号比較手段38は、第3エッ
ジ相関値が極大値を示し、かつ第2領域第1軸信号のエ
ッジの数と第3投影信号のエッジの数が一致する第1軸
上の座標を第2領域第1軸候補部分として検出してもよ
い。
Further, the projection signal comparing means 38 calculates the coordinates on the first axis where the number of edges of the second area first axis signal coincides with the number of edges of the third projection signal, in the second area first axis candidate portion. May be detected. The projection signal comparing means 38 calculates the coordinates on the first axis where the number of edges of the second area first axis signal and the number of edges of the third projection signal coincide with each other, and the third edge correlation value shows the maximum value. It may be detected as a two-region first axis candidate portion.

【0071】以上の動作により、投影信号比較手段38
は、複数の座標を第2領域第1軸候補部分として検出し
てよい。本実施形態において、投影信号比較手段38
は、各信号のエッジ部分を用いて第2領域第1軸候補部
分を検出しているので、迅速に第2領域候補部分が第2
領域の画像に関する情報と一致するか否かを検出するこ
とができる。
With the above operation, the projection signal comparing means 38
May detect a plurality of coordinates as the second area first axis candidate part. In the present embodiment, the projection signal comparing means 38
Uses the edge portion of each signal to detect the second region first axis candidate portion, so that the second region candidate portion
It can be detected whether or not the information matches the information on the image of the area.

【0072】第1領域近似部分検出手段40は、このよ
うにして検出された第2領域第1軸候補部分により特定
される第2領域候補部分の位置と、第2領域の第1領域
に対する相対的な位置とに基づいて、第1領域に近似す
る第1領域近似部分を入力画像から検出する。
The first area approximation part detecting means 40 determines the position of the second area candidate part specified by the second area first axis candidate part thus detected and the relative position of the second area to the first area. A first region approximation portion approximating the first region is detected from the input image based on the general position.

【0073】投影信号比較手段38は、さらに、第2領
域第2軸信号を第4投影信号上で走査させて、第2領域
第2軸信号と第4投影信号とを比較してもよい。投影信
号比較手段38は、第2軸方向における異なる位置で第
4投影信号から第2領域の幅の部分信号を取り出して、
それぞれ第2領域第2軸信号と比較してもよい。具体的
には、投影信号比較手段38は、第2領域第2軸信号と
第4投影信号との相関を示す第4相関値を算出してもよ
く、投影信号比較手段38は、第4相関値に基づいて第
2領域候補部分が第2領域の画像に関する情報と一致す
るか否かを検出してもよい。
The projection signal comparing means 38 may further scan the second area second axis signal on the fourth projection signal and compare the second area second axis signal with the fourth projection signal. The projection signal comparing means 38 extracts the partial signal having the width of the second area from the fourth projection signal at a different position in the second axis direction,
Each may be compared with the second area second axis signal. Specifically, the projection signal comparing unit 38 may calculate a fourth correlation value indicating a correlation between the second area second axis signal and the fourth projection signal, and the projection signal comparing unit 38 may calculate the fourth correlation value. Whether or not the second area candidate portion matches information on the image of the second area may be detected based on the value.

【0074】投影信号比較手段38は、図2に示すステ
ップ22において、第2領域第2軸信号のエッジを抽出
する第2領域第2軸信号エッジ抽出ステップと、第4投
影信号のエッジ領域を抽出する第4投影信号エッジ抽出
ステップとを行ってもよい。この場合、投影信号比較手
段38は、第2領域第2軸信号のエッジの信号値と第4
投影信号のエッジの信号値とを比較する。具体的には、
投影信号比較手段38は、第2領域第2軸信号のエッジ
の信号値と第4投影信号のエッジの信号値との相関を示
す第4エッジ相関値を算出してもよい。第4エッジ相関
値は、上述したように、第1エッジ相関値と同様の式に
基づいて算出される正規化相関数であってよい。
In step 22 shown in FIG. 2, the projection signal comparing means 38 extracts the edge of the second area second axis signal edge to extract the edge of the second area second axis signal, and extracts the edge area of the fourth projection signal. And extracting a fourth projection signal edge to be extracted. In this case, the projection signal comparing means 38 compares the signal value of the edge of the second area second axis signal with the fourth signal.
The signal value of the edge of the projection signal is compared. In particular,
The projection signal comparison means 38 may calculate a fourth edge correlation value indicating a correlation between the signal value of the edge of the second area second axis signal and the signal value of the edge of the fourth projection signal. As described above, the fourth edge correlation value may be a normalized correlation number calculated based on the same equation as the first edge correlation value.

【0075】投影信号比較手段38は、第4エッジ相関
値が所定のしきい値より大きい座標を第2領域第2軸部
分として検出するのが好ましい。また、投影信号比較手
段38は、第4エッジ相関値が極大値を示す第2軸上の
座標を第2領域第2軸候補部分として検出してもよい。
また、投影信号比較手段38は、第4エッジ相関値が極
大値を示す座標中で、極大値が所定のしきい値より大き
い座標を第2領域第2軸候補部分として検出してよい。
また、投影信号比較手段38は、極大値を有する座標付
近の座標のうち、所定のしきい値より大きい第4相関値
を有する座標を第2領域第2軸候補部分として検出して
もよい。
It is preferable that the projection signal comparing means 38 detect a coordinate having a fourth edge correlation value larger than a predetermined threshold value as the second area second axis portion. Further, the projection signal comparing means 38 may detect the coordinates on the second axis at which the fourth edge correlation value indicates the maximum value as the second area second axis candidate part.
In addition, the projection signal comparing means 38 may detect, as coordinates in the second area second axis candidate portion, coordinates in which the fourth edge correlation value indicates the maximum value, in which the maximum value is larger than a predetermined threshold value.
Further, the projection signal comparing means 38 may detect, as coordinates in the second area second axis candidate portion, coordinates having a fourth correlation value larger than a predetermined threshold value among coordinates near coordinates having the maximum value.

【0076】また、投影信号比較手段38は、第2領域
第2軸信号のエッジの数と第4投影信号のエッジの数が
一致する第2軸上の座標を第2領域第2軸候補部分とし
て検出してもよい。投影信号比較手段38は、第4エッ
ジ相関値が極大値を示し、かつ第2領域第2軸信号のエ
ッジの数と第2投影信号のエッジの数が一致する第2軸
上の座標を第2領域第2軸候補部分として検出してもよ
い。以上の動作により、候補位置検出手段30は、複数
の座標を第2領域第2軸候補部分として検出してよい。
The projection signal comparing means 38 calculates the coordinates on the second axis where the number of edges of the second area second axis signal and the number of edges of the fourth projection signal coincide with each other, in the second area second axis candidate portion. May be detected. The projection signal comparing means 38 calculates the coordinates on the second axis where the fourth edge correlation value indicates the maximum value and the number of edges of the second area second axis signal matches the number of edges of the second projection signal. It may be detected as a two-region second axis candidate portion. By the above operation, the candidate position detecting means 30 may detect a plurality of coordinates as the second area second axis candidate part.

【0077】投影信号比較手段38は、第3エッジ相関
値及び第4エッジ相関値の両方に基づいて第2領域候補
部分が第2領域の画像に関する情報と一致するか否かを
検出してもよい。
The projection signal comparing means 38 detects whether or not the second area candidate portion matches the information on the image of the second area based on both the third edge correlation value and the fourth edge correlation value. Good.

【0078】第1領域近似部分検出手段40は、第1エ
ッジ相関値又は第2エッジ相関値の少なくとも一方と、
第3エッジ相関値と、及び第2領域の第1領域に対する
相対位置とに基づいて、第1領域に近似する第1領域近
似部分を入力画像から検出してもよい。例えば、第1領
域近似部分検出手段40は、第3エッジ相関値と第2領
域の第1領域に対する相対的な位置に基づいて、第1領
域近似部分を入力画像から検出してもよい。また、第1
領域近似部分検出手段40は、第3エッジ相関値及び第
4エッジ相関値と第2領域の第1領域に対する相対的な
位置とに基づいて、第1領域近似部分を入力画像から検
出してもよい。
The first area approximation portion detecting means 40 calculates at least one of the first edge correlation value and the second edge correlation value,
A first area approximation portion approximating the first area may be detected from the input image based on the third edge correlation value and the relative position of the second area to the first area. For example, the first area approximation part detection means 40 may detect the first area approximation part from the input image based on the third edge correlation value and the relative position of the second area to the first area. Also, the first
The region approximate portion detection means 40 may detect the first region approximate portion from the input image based on the third edge correlation value and the fourth edge correlation value and the relative position of the second region to the first region. Good.

【0079】他の例において、相対位置検出手段22
は、テンプレート画像100全体を第1領域として選択
し、テンプレート画像100に含まれる第2マークを含
む領域のみを第2領域として選択してもよい。
In another example, the relative position detecting means 22
May select the entire template image 100 as the first area and select only the area including the second mark included in the template image 100 as the second area.

【0080】他の例において、第1領域候補部分の検出
は、テンプレート画像100と入力画像110との差分
値など、2つの画像間の差を評価する量を用いて行って
もよい。また、正規化相関値を算出するために、テンプ
レート画像100の画素値と入力画像110の画素値と
を二次元的に比較してもよい。
In another example, the first area candidate portion may be detected using an amount for evaluating a difference between two images, such as a difference value between the template image 100 and the input image 110. Further, in order to calculate the normalized correlation value, the pixel value of the template image 100 and the pixel value of the input image 110 may be two-dimensionally compared.

【0081】図4は、図3(c)に示す第1領域106
を第2軸に投影させた第1領域第2軸信号を示す模式図
である。図4(a)において、第1軸を横軸とし、第2
軸を縦軸とする。他の例において、第1軸をY軸とし、
第2軸をX軸としてもよく、第1軸及び第2軸はどのよ
うな方向であってもよい。
FIG. 4 shows the first region 106 shown in FIG.
FIG. 7 is a schematic diagram showing a first area second axis signal obtained by projecting a second axis on a second axis. In FIG. 4A, the first axis is the horizontal axis, and the second axis is the second axis.
The axis is the vertical axis. In another example, the first axis is the Y axis,
The second axis may be the X axis, and the first and second axes may be in any direction.

【0082】図4(b)は、第2軸上に投影した第1領
域第2軸信号の信号値を横軸にとり、第2軸方向におけ
る座標を縦軸にとったときの第1領域第2軸信号を示
す。第1領域第2軸信号は、第1領域に含まれる第1マ
ークの模様を反映したパターンを示す。本実施形態にお
いて、第1マークは第1軸方向に平行な4本のラインを
含むパターンを有する。そのため、第1領域第2軸信号
は第1軸に平行な4本のラインを反映したエッジを有す
る。
FIG. 4 (b) shows the first area when the signal value of the first area second axis signal projected on the second axis is plotted on the horizontal axis and the coordinate in the second axis direction is plotted on the vertical axis. 2 shows a two-axis signal. The first area second axis signal indicates a pattern reflecting the pattern of the first mark included in the first area. In the present embodiment, the first mark has a pattern including four lines parallel to the first axis direction. Therefore, the first area second axis signal has edges reflecting four lines parallel to the first axis.

【0083】図5は、各信号において、エッジを抽出す
るステップを示すチャートである。第1領域信号形成手
段26は、第1領域第1軸信号を微分して1次微分値を
算出する。第1領域信号形成手段26は、微分した1次
微分値の絶対値が所定の値より大きい座標をエッジとし
て抽出するのが好ましい。また、第1領域信号形成手段
26は、微分した1次微分値が極値となる1次極値座標
をさらに微分し、1次極値座標を挟む、微分した2次微
分値が極小となる座標から2次微分値が極大となる座標
までをエッジとして抽出してもよい。
FIG. 5 is a chart showing steps for extracting an edge from each signal. The first area signal forming means 26 differentiates the first area first axis signal to calculate a primary differential value. It is preferable that the first area signal forming means 26 extracts, as an edge, a coordinate at which the absolute value of the differentiated primary differential value is larger than a predetermined value. Further, the first area signal forming means 26 further differentiates the primary extreme value coordinates where the differentiated primary differential value becomes an extreme value, and the differentiated secondary differential value sandwiching the primary extreme value coordinates becomes a minimum. The edge from the coordinates to the coordinates at which the second derivative value becomes maximum may be extracted as an edge.

【0084】図5(a)〜図5(c)は、本実施形態に
おける、立ち下がり部分のエッジ領域を検出するステッ
プを示す。図5(a)は、第1領域第1軸信号の座標に
対する信号値を示す。図5(b)は、第1領域第1軸信
号の座標に対する1次微分値及び2次微分値を示す。第
1領域信号形成手段26は、1次微分値が極小値となる
1次極値座標を検出する。図5(c)に示すように、第
1領域信号形成手段26は、1次極値座標を挟む微分し
た2次微分値が極小となる座標から2次微分値が極大と
なる座標までを第1領域第1軸信号の立ち下がりのエッ
ジとして抽出する。
FIG. 5A to FIG. 5C show steps of detecting an edge region of a falling portion in the present embodiment. FIG. 5A shows signal values for the coordinates of the first area first axis signal. FIG. 5B shows the first derivative and the second derivative with respect to the coordinates of the first area first axis signal. The first area signal forming means 26 detects primary extreme value coordinates at which the primary differential value becomes a minimum value. As shown in FIG. 5 (c), the first area signal forming means 26 calculates a range from the coordinate at which the differentiated secondary differential value sandwiching the primary extreme value coordinate becomes minimum to the coordinate at which the secondary differential value becomes maximum. It is extracted as the falling edge of the 1-axis first axis signal.

【0085】図5(d)〜図5(f)は、本実施形態に
おける、立ち上がり部分のエッジを検出するステップを
示す。図5(d)は、第1領域第1軸信号の座標に対す
る信号値を示す。図5(e)は、第1領域第1軸信号の
座標に対する1次微分値及び2次微分値を示す。第1領
域信号形成手段26は、1次微分値が極大値となる1次
極値座標を検出する。図5(f)に示すように、第1領
域信号形成手段26は、1次極値座標を挟む微分した2
次微分値が極大となる座標から2次微分値が極小となる
座標までを第1領域第1軸信号の立ち上がりのエッジと
してそれぞれ抽出する。
FIGS. 5D to 5F show steps of detecting the edge of the rising portion in this embodiment. FIG. 5D shows a signal value with respect to the coordinates of the first area first axis signal. FIG. 5E shows the first derivative and the second derivative with respect to the coordinates of the first area first axis signal. The first area signal forming means 26 detects primary extreme value coordinates at which the primary differential value becomes a local maximum value. As shown in FIG. 5 (f), the first area signal forming means 26 calculates the differentiated 2 with respect to the primary extreme value coordinate.
The coordinates from the coordinates at which the second derivative value is maximum to the coordinates at which the second derivative value is minimum are extracted as rising edges of the first area first axis signal.

【0086】第1投影信号、第2投影信号、第3投影信
号、第4投影信号、第2領域第1軸信号及び第2領域第
2軸信号のエッジも、同様の方法により検出されるのが
好ましい。
The edges of the first projection signal, the second projection signal, the third projection signal, the fourth projection signal, the second area first axis signal, and the second area second axis signal are detected in the same manner. Is preferred.

【0087】図6は、本実施形態におけるウェハ処理装
置10のテンプレート画像記憶手段12が記憶するテン
プレート画像の一例を示す模式図である。テンプレート
画像200は、図6(a)に示すように、3つのマーク
202、204及び206を含む。相対位置検出手段2
2は、図6(b)に示すように、テンプレート画像20
0を4つの領域210、212、214及び216に分
割する。相対位置検出手段22は、マーク210を含む
領域210を第1領域として、マーク206を含む領域
214を第2領域とする。
FIG. 6 is a schematic diagram showing an example of a template image stored in the template image storage means 12 of the wafer processing apparatus 10 according to the present embodiment. The template image 200 includes three marks 202, 204 and 206, as shown in FIG. Relative position detecting means 2
2 is a template image 20 as shown in FIG.
0 is divided into four regions 210, 212, 214 and 216. The relative position detection unit 22 sets the area 210 including the mark 210 as a first area and the area 214 including the mark 206 as a second area.

【0088】図6(c)は、入力画像取得手段14が取
得したウェハの入力画像220である。入力画像220
において、領域222は、テンプレート画像200と実
質的に等しいマークを有する。例えば、領域222のマ
ーク204に対応するマークが全体的に暗いマーク22
4のように取得された場合、領域222の画素値を第1
軸方向及び第2軸方向に投影した投影信号の信号値は、
テンプレート画像200の画素値を第1軸方向及び第2
軸方向に投影したテンプレート信号の信号値と異なる。
そのため、領域222の位置を正確に検出することがで
きない。
FIG. 6C shows an input image 220 of the wafer acquired by the input image acquiring means 14. Input image 220
In, the region 222 has a mark substantially equal to the template image 200. For example, the mark corresponding to the mark 204 in the area 222 is a dark mark 22 as a whole.
4, the pixel value of the area 222 is set to the first
The signal values of the projection signals projected in the axial direction and the second axial direction are:
The pixel values of the template image 200 are set in the first axis direction and the second
It differs from the signal value of the template signal projected in the axial direction.
Therefore, the position of the region 222 cannot be accurately detected.

【0089】一方、本実施形態においては、図6(d)
に示すように、領域222をテンプレート画像200か
ら選択された第1領域及び第2領域に対応する領域22
6及び228に分割して、それぞれテンプレート画像2
00の第1領域及び第2領域の画像と比較する。この場
合、領域226及び228の画素値をそれぞれ第1軸方
向及び第2軸方向に投影した投影信号の信号値は、変形
したマーク224の画素値を含まない。そのため、本実
施形態におけるウェハ処理装置10は、領域222の位
置を正確に検出することができる。
On the other hand, in the present embodiment, FIG.
As shown in FIG. 5, the region 222 is a region 22 corresponding to the first region and the second region selected from the template image 200.
6 and 228, and the template image 2
Compare the image of the first area and the image of the second area of 00. In this case, the signal values of the projection signals obtained by projecting the pixel values of the regions 226 and 228 in the first axis direction and the second axis direction, respectively, do not include the pixel value of the deformed mark 224. Therefore, the wafer processing apparatus 10 according to the present embodiment can accurately detect the position of the region 222.

【0090】図7は、本実施形態に係るウェハ処理装置
10において、相対位置検出手段22により選択される
テンプレート画像の第1領域及び第2領域の組み合わせ
の例を示す模式図である。
FIG. 7 is a schematic diagram showing an example of a combination of the first area and the second area of the template image selected by the relative position detecting means 22 in the wafer processing apparatus 10 according to the present embodiment.

【0091】相対位置検出手段22は、図7(a)に示
すように、テンプレート画像100全体を第1領域とし
て、斜線で示した領域を第2領域として選択してよい。
As shown in FIG. 7A, the relative position detecting means 22 may select the entire template image 100 as the first area and select the shaded area as the second area.

【0092】また、相対位置検出手段22は、図7
(b)及び図7(c)に示すように、テンプレート信号
100を4つに分割し、斜線で示す領域を第1領域とし
て、その他の領域を第2領域としてもよい。
Further, the relative position detecting means 22 is provided as shown in FIG.
As shown in (b) and FIG. 7 (c), the template signal 100 may be divided into four, and the area indicated by oblique lines may be set as the first area, and other areas may be set as the second areas.

【0093】また、相対位置検出手段22は、テンプレ
ート画像100を4つに分割した領域のうち、図7
(b)の斜線で示した2つの領域のみを第1領域及び第
2領域として選択してもよい。また、相対位置検出手段
22は、テンプレート画像100を4つに分割した領域
のうち、図7(c)の斜線で示した3つの領域のみを第
1領域及び第2領域として選択してもよい。この場合、
相対位置検出手段22は、3つめの領域を第3領域とし
て選択してもよい。相対位置検出手段22は、第2領域
及び第3領域の第1領域に対する相対的な位置を検出す
る。第1領域候補部分検出手段24は、第1領域に含ま
れる第1マークに近似した画像を含む第1領域候補部分
を入力画像から検出する。第2領域候補部分検出手段3
2は、第2領域及び第3領域の第1領域に対する相対的
な位置に基づいて、入力画像から第2領域候補部分及び
第3領域候補部分をそれぞれ定め、第2領域候補部分及
び第3領域候補部分がそれぞれ第2領域の画像に関する
情報及び第3領域の画像に関する情報と一致するか否か
を検出する。第1領域近似部分検出手段40は、第2領
域候補部分及び第3領域候補部分に関する第2領域候補
部分検出手段32の検出結果に基づいて、入力画像から
第1領域近似部分を検出する。
Further, the relative position detecting means 22 of the area obtained by dividing the template image 100 into four
Only two regions shown by oblique lines in (b) may be selected as the first region and the second region. In addition, the relative position detection unit 22 may select only the three areas indicated by oblique lines in FIG. 7C as the first area and the second area from the area obtained by dividing the template image 100 into four. . in this case,
The relative position detecting means 22 may select the third area as the third area. The relative position detecting means 22 detects the relative positions of the second area and the third area with respect to the first area. The first area candidate portion detecting means 24 detects, from the input image, a first area candidate portion including an image similar to the first mark included in the first area. Second area candidate portion detecting means 3
2 determines a second region candidate portion and a third region candidate portion from the input image based on the relative positions of the second region and the third region with respect to the first region, respectively. It is detected whether or not each of the candidate portions matches the information on the image in the second area and the information on the image in the third area. The first area approximation part detection means 40 detects the first area approximation part from the input image based on the detection result of the second area candidate part detection means 32 regarding the second area candidate part and the third area candidate part.

【0094】同様に、相対位置検出手段22は、図7
(d)に示すように、テンプレート画像100を4つに
分割して、すべての領域を用いて第1領域、第2領域、
第3領域及び第4領域を選択してもよい。このように、
複数の領域を用いて検出することにより、より正確に第
1領域近似部分を検出できる。
Similarly, the relative position detecting means 22 is provided as shown in FIG.
As shown in (d), the template image 100 is divided into four parts, and the first area, the second area,
The third region and the fourth region may be selected. in this way,
By performing detection using a plurality of regions, the first region approximation portion can be detected more accurately.

【0095】相対位置検出手段22は、図7(e)に示
すように、テンプレート画像100を9つに分割して、
斜線で示した領域を第1領域として、その他の領域を第
2領域として選択してもよい。
The relative position detecting means 22 divides the template image 100 into nine, as shown in FIG.
The hatched area may be selected as the first area, and the other area may be selected as the second area.

【0096】以上に示したように、相対位置検出手段2
2は、テンプレート画像中のどのようなマークの組み合
わせを第1領域及び第2領域としてもよい。また、テン
プレート画像中の全てのマークを第1領域又は第2領域
として用いなくてもよい。
As described above, the relative position detecting means 2
2 may use any combination of marks in the template image as the first area and the second area. Also, not all marks in the template image need be used as the first area or the second area.

【0097】図8は、入力画像取得手段14により取得
された入力画像の一例を示す模式図である。入力画像3
00は、位置合わせマーク302と、回路パターン30
4を含む。テンプレート画像記憶手段12は、ウェハ上
の位置合わせマーク302を第1マークとして、及び位
置合わせ回路パターン304の形状を第2マークとして
記憶してもよい。この場合、テンプレート画像記憶手段
12は、回路パターンを含む領域の位置合わせマークに
対する相対的な位置も記憶する。
FIG. 8 is a schematic diagram showing an example of the input image obtained by the input image obtaining means 14. Input image 3
00 is the alignment mark 302 and the circuit pattern 30
4 inclusive. The template image storage unit 12 may store the alignment mark 302 on the wafer as a first mark and the shape of the alignment circuit pattern 304 as a second mark. In this case, the template image storage unit 12 also stores the position of the area including the circuit pattern relative to the alignment mark.

【0098】本実施形態に係るウェハ処理装置10は、
入力画像から第1領域候補部分を検出した後に第2領域
候補部分を定め、第2領域候補部分がテンプレート画像
の第2領域の画像に関する情報と一致するか否かを検出
し、その検出結果に基づいて第1領域近似部分を検出し
ているので、第1領域近似部分をより正確に検出するこ
とができる。
The wafer processing apparatus 10 according to the present embodiment
After detecting the first region candidate portion from the input image, a second region candidate portion is determined, and it is detected whether or not the second region candidate portion matches information on the image of the second region of the template image. Since the first region approximate portion is detected based on the first region, the first region approximate portion can be detected more accurately.

【0099】また、第2領域はテンプレート画像を分割
した領域であるので、入力画像のテンプレート画像に対
応する領域がテンプレート画像に関する情報と一致する
か否かに基づいて第1領域近似部分を検出する場合より
も、第1領域候補部分を迅速に検出することができる。
Since the second region is a region obtained by dividing the template image, the first region approximation portion is detected based on whether or not the region of the input image corresponding to the template image matches the information on the template image. The first region candidate portion can be detected more quickly than in the case.

【0100】さらに、本実施形態に係るウェハ処理装置
10は、テンプレート画像中のマークを様々に組み合わ
せて第1領域及び第2領域とすることができるため、ウ
ェハ表面の反射光の影響が生じないマークの組み合わせ
を選択することにより、第1領域近似部分を正確に検出
することができる。
Further, in the wafer processing apparatus 10 according to the present embodiment, since the marks in the template image can be variously combined to form the first area and the second area, the influence of the reflected light on the wafer surface does not occur. By selecting a combination of marks, the first area approximation portion can be accurately detected.

【0101】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができる。その様な変更又は改良を
加えた形態も本発明の技術的範囲に含まれ得ることが、
特許請求の範囲の記載から明らかである。
As described above, the present invention has been described using the embodiment. However, the technical scope of the present invention is not limited to the scope described in the above embodiment. Various changes or improvements can be added to the above embodiment. It should be noted that such modified or improved embodiments may be included in the technical scope of the present invention.
It is clear from the description of the claims.

【0102】[0102]

【発明の効果】上記説明から明らかなように、本発明に
よれば、テンプレート画像と実質的に同一なマークを、
入力画像から正確に検出することができる。
As is clear from the above description, according to the present invention, a mark substantially the same as the template image is formed.
It can be accurately detected from the input image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るウェハ処理装置を示
すブロック図である。
FIG. 1 is a block diagram showing a wafer processing apparatus according to one embodiment of the present invention.

【図2】本実施形態に係るウェハ処理装置が入力画像か
ら第1領域近似部分を検出する各ステップを示すフロー
チャートである。
FIG. 2 is a flowchart showing each step of detecting a first area approximation portion from an input image by the wafer processing apparatus according to the embodiment.

【図3】本発明の一実施形態に係るウェハ処理装置によ
り、ウェハの入力画像から第1領域近似部分を検出する
手順を示す模式図である。
FIG. 3 is a schematic diagram showing a procedure for detecting a first area approximation portion from an input image of a wafer by a wafer processing apparatus according to an embodiment of the present invention.

【図4】第1領域の画像を第1軸及び第2軸に投影させ
た第1領域第1軸信号及び第1領域第2軸信号を示す模
式図である。
FIG. 4 is a schematic diagram showing a first area first axis signal and a first area second axis signal obtained by projecting an image of a first area onto a first axis and a second axis.

【図5】各信号において、エッジを抽出する手順を示す
チャートである。
FIG. 5 is a chart showing a procedure for extracting an edge from each signal.

【図6】本実施形態に係るウェハ処理装置のテンプレー
ト画像記憶手段が記憶するテンプレート画像の一例を示
す模式図である。
FIG. 6 is a schematic diagram illustrating an example of a template image stored in a template image storage unit of the wafer processing apparatus according to the present embodiment.

【図7】本実施形態に係るウェハ処理装置において、相
対位置検出手段により選択されるテンプレート画像の第
1領域及び第2領域の組み合わせの例を示す模式図であ
る。
FIG. 7 is a schematic diagram illustrating an example of a combination of a first area and a second area of a template image selected by a relative position detection unit in the wafer processing apparatus according to the present embodiment.

【図8】本実施形態に係るウェハ処理装置の入力画像取
得手段により取得された入力画像の一例を示す模式図で
ある。
FIG. 8 is a schematic diagram illustrating an example of an input image acquired by an input image acquiring unit of the wafer processing apparatus according to the present embodiment.

【符号の説明】[Explanation of symbols]

10…ウェハ処理装置、12…テンプレート画像記憶手
段、14…入力画像取得手段、20…画像検出装置、2
2…相対位置検出手段、24…第1領域候補部分検出手
段、26…第1領域信号形成手段、28…投影信号形成
手段、30…候補位置検出手段、32…第2領域候補部
分検出手段、34…第2領域信号形成手段、36…投影
信号形成手段、38…投影信号比較手段、40…第1領
域近似部分検出手段、42…位置検出手段、50…ウェ
ハ移動手段、100…テンプレート画像、102…第1
マーク、104…第2マーク、106…第1領域、10
8…第2領域、110…入力画像、122…第1領域候
補部分、124…第2領域候補部分
DESCRIPTION OF SYMBOLS 10 ... Wafer processing apparatus, 12 ... Template image storage means, 14 ... Input image acquisition means, 20 ... Image detection apparatus, 2
2 ... relative position detecting means, 24 ... first area candidate part detecting means, 26 ... first area signal forming means, 28 ... projection signal forming means, 30 ... candidate position detecting means, 32 ... second area candidate part detecting means, 34: second area signal forming means, 36: projection signal forming means, 38: projection signal comparing means, 40: first area approximating portion detecting means, 42: position detecting means, 50: wafer moving means, 100: template image, 102 ... first
Mark, 104: second mark, 106: first area, 10
8: second region, 110: input image, 122: first region candidate portion, 124: second region candidate portion

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B H01L 21/027 H01L 21/30 541K Fターム(参考) 5B057 AA03 BA02 CA12 CA16 DA07 DB02 DC16 DC19 5F056 BC10 BD01 BD05 5L096 BA03 CA02 FA06 FA38 FA69 HA08 JA03 JA09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/60 150 G06T 7/60 150B H01L 21/027 H01L 21/30 541K F-term (Reference) 5B057 AA03 BA02 CA12 CA16 DA07 DB02 DC16 DC19 5F056 BC10 BD01 BD05 5L096 BA03 CA02 FA06 FA38 FA69 HA08 JA03 JA09

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 予め与えられた第1マークを含む第1領
域に近似した第1領域近似部分を入力画像から検出する
画像検出方法であって、前記第1マークに近似した画像
を含む第1領域候補部分を前記入力画像から検出する第
1領域候補部分検出ステップと、 前記第1領域に対する相対的な位置が既知である第2領
域の画像に関する情報が予め与えられており、前記相対
的な位置に基づいて、前記入力画像から第2領域候補部
分を定め、前記第2領域候補部分が前記第2領域の画像
に関する情報と一致するか否かを検出する第2領域候補
部分検出ステップとを備えることを特徴とする画像検出
方法。
1. An image detection method for detecting, from an input image, a first region approximation portion approximating a first region including a predetermined first mark, wherein the first region includes an image approximation to the first mark. A first area candidate part detecting step of detecting an area candidate part from the input image; and information about an image of a second area whose relative position with respect to the first area is known is given in advance, and Determining a second area candidate part from the input image based on the position, and detecting whether the second area candidate part matches information on the image of the second area. An image detection method, comprising:
【請求項2】 前記第2領域候補部分検出ステップは、
前記第2領域に含まれる第2マークの画像を用いて前記
第2領域候補部分が前記第2領域の画像に関する情報と
一致するか否かを検出することを特徴とする請求項1に
記載の画像検出方法。
2. The method according to claim 1, wherein the second area candidate portion detecting step includes:
2. The method according to claim 1, wherein it is detected whether or not the second area candidate portion matches information on the image of the second area using an image of a second mark included in the second area. 3. Image detection method.
【請求項3】 前記第2領域候補部分検出ステップは、
前記第2領域に含まれ、前記第1マークと異なる形状を
有する第2マークの画像を用いて前記第2領域候補部分
が前記第2領域の画像に関する情報と一致するか否かを
検出することを特徴とする請求項1に記載の画像検出方
法。
3. The step of detecting a second area candidate portion,
Detecting whether or not the second area candidate portion matches information on the image of the second area using an image of a second mark included in the second area and having a shape different from the first mark. The image detection method according to claim 1, wherein:
【請求項4】 前記第1マークを含むテンプレート画像
から、前記第1領域と前記第2領域とをそれぞれ選択し
て、前記テンプレート画像を用いて前記第2領域の前記
第1領域に対する前記相対的な位置を検出する相対位置
検出ステップをさらに備えることを特徴とする請求項1
に記載の画像検出方法。
4. The method according to claim 1, wherein the first area and the second area are respectively selected from a template image including the first mark, and the relative position of the second area to the first area is selected using the template image. 2. The method according to claim 1, further comprising the step of detecting a relative position.
2. The image detection method according to 1.,
【請求項5】 前記第1マークと前記第2マークとを含
むテンプレート画像から、前記第1領域と前記第2領域
をそれぞれ選択して、前記テンプレート画像を用いて前
記第2領域の前記第1領域に対する前記相対的な位置を
検出する相対位置検出ステップをさらに備えることを特
徴とする請求項2又は3に記載の画像検出方法。
5. The method according to claim 1, wherein the first area and the second area are respectively selected from a template image including the first mark and the second mark, and the first area of the second area is selected using the template image. The image detection method according to claim 2, further comprising a relative position detection step of detecting the relative position with respect to an area.
【請求項6】 前記第1領域候補部分検出ステップは、 前記入力画像の画素値を第1軸上に投影した第1投影信
号を形成する第1投影信号形成ステップと、 前記入力画像の画素値を前記第1軸に実質的に垂直な第
2軸上に投影した第2投影信号を形成する第2投影信号
形成ステップと、 前記第1領域の画素値を前記第1軸上に投影した第1領
域第1軸信号と前記第1投影信号とに基づいて、前記第
1軸方向における前記第1領域候補部分の位置を検出す
る第1領域第1軸候補位置検出ステップと 前記第1領域の画素値を前記第2軸上に投影した第1領
域第2軸信号と前記第2投影信号とに基づいて、前記第
2軸方向における前記第1領域候補部分の位置を検出す
る第1領域第2軸候補位置検出ステップとを有すること
を特徴とする請求項1から5のいずれかに記載の画像検
出方法。
6. The first area candidate portion detecting step includes: a first projection signal forming step of forming a first projection signal obtained by projecting a pixel value of the input image on a first axis; and a pixel value of the input image. Forming a second projection signal by projecting on a second axis substantially perpendicular to the first axis; and a second step of projecting the pixel value of the first area on the first axis. A first area first axis candidate position detecting step of detecting a position of the first area candidate portion in the first axis direction based on a first area first axis signal and the first projection signal; A first region detecting a position of the first region candidate portion in the second axis direction based on a first region second axis signal and a second projection signal obtained by projecting a pixel value on the second axis. 2. A two-axis candidate position detecting step. Image detecting method according to any one of al 5.
【請求項7】 前記第2領域候補部分検出ステップは、 前記第2領域候補部分の画素値を前記第1軸上に投影し
た第3投影信号を形成する第3投影信号形成ステップ
と、 前記第2領域の画素値を前記第1軸上に投影した第2領
域第1軸信号と前記第3投影信号とを比較する第3投影
信号比較ステップとを有することを特徴とする請求項6
に記載の画像検出方法。
7. The second area candidate part detecting step includes: forming a third projection signal that projects a pixel value of the second area candidate part on the first axis; 7. A third projection signal comparing step of comparing a second area first axis signal obtained by projecting pixel values of two areas on the first axis with the third projection signal.
2. The image detection method according to 1.,
【請求項8】 前記第2領域候補部分検出ステップは、 前記第2領域候補部分の画素値を前記第2軸上に投影し
た第4投影信号を形成する第4投影信号形成ステップ
と、 前記第2領域の画素値を前記第2軸上に投影した第2領
域第2軸信号と前記第4投影信号とを比較する第4投影
信号比較ステップとをさらに有することを特徴とする請
求項7に記載の画像検出方法。
8. The second area candidate part detecting step includes: forming a fourth projection signal that projects a pixel value of the second area candidate part on the second axis; 8. The method according to claim 7, further comprising: a fourth projection signal comparing step of comparing a second area second axis signal obtained by projecting pixel values of two areas on the second axis with the fourth projection signal. The image detection method described in the above.
【請求項9】 前記第1領域第1軸候補位置検出ステッ
プは、前記第1軸方向における異なる位置で前記第1投
影信号から前記第1領域の幅の部分信号を取り出して、
それぞれ前記第1領域第1軸信号と比較して第1相関値
を算出するステップを有し、前記第1相関値に基づい
て、前記第1軸方向における前記第1領域候補部分の位
置を検出し、 前記第1領域第2軸候補位置検出ステップは、前記第2
軸方向における異なる位置で前記第2投影信号から前記
第1領域の幅の部分信号を取り出して、それぞれ前記第
1領域第2軸信号と比較して第2相関値を算出するステ
ップを有し、前記第2相関値に基づいて、前記第2軸方
向における前記第1領域候補部分の位置を検出すること
を特徴とする請求項6から8のいずれかに記載の画像検
出方法。
9. The first area first axis candidate position detecting step extracts a partial signal having a width of the first area from the first projection signal at a different position in the first axis direction,
Calculating a first correlation value by comparing the first correlation value with the first region first axis signal, and detecting a position of the first region candidate portion in the first axis direction based on the first correlation value The first area second axis candidate position detecting step includes:
Extracting a partial signal having a width of the first area from the second projection signal at a different position in the axial direction, and comparing the partial signal with the first area second axis signal to calculate a second correlation value, 9. The image detection method according to claim 6, wherein a position of the first area candidate portion in the second axis direction is detected based on the second correlation value.
【請求項10】 前記第3投影信号比較ステップは、前
記第1軸方向における異なる位置で前記第3投影信号か
ら前記第2領域の幅の部分信号を取り出して、それぞれ
前記第2領域第1軸信号と比較して第3相関値を算出す
るステップを有し、前記第3相関値及び前記相対的な位
置に基づいて、前記第1領域に近似する第1領域近似部
分を前記入力画像から検出する第1領域近似部分検出ス
テップをさらに備えることを特徴とする請求項7に記載
の画像検出方法。
10. The third projection signal comparing step includes extracting partial signals having a width of the second area from the third projection signal at different positions in the first axis direction, and respectively extracting the second area first axis. Calculating a third correlation value by comparing with a signal, detecting a first area approximation portion approximating the first area from the input image based on the third correlation value and the relative position. The image detection method according to claim 7, further comprising a first area approximation portion detection step of performing the following.
【請求項11】 前記第1領域第1軸候補位置検出ステ
ップは、前記第1軸方向における異なる位置で前記第1
投影信号から前記第1領域の幅の部分信号を取り出し
て、それぞれ前記第1領域第1軸信号と比較して第1相
関値を算出するステップを有し、前記第1相関値に基づ
いて、前記第1軸方向における前記第1領域候補部分の
位置を検出し、 前記第1領域第2軸候補位置検出ステップは、前記第2
軸方向における異なる位置で前記第2投影信号から前記
第1領域の幅の部分信号を取り出して、それぞれ前記第
1領域第2軸信号と比較して第2相関値を算出するステ
ップを有し、前記第2相関値に基づいて、前記第2軸方
向における前記第1領域候補部分の位置を検出し、前記
第3投影信号比較ステップは、前記第1軸方向における
異なる位置で前記第3投影信号から前記第2領域の幅の
部分信号を取り出して、それぞれ前記第2領域第1軸信
号と比較して第3相関値を算出するステップを有し、前
記第1相関値又は前記第2相関値の少なくとも一方と、
前記第3相関値と、及び前記相対位置とに基づいて、前
記第1領域に近似する第1領域近似部分を前記入力画像
から検出する第1領域近似部分検出ステップをさらに備
えることを特徴とする請求項7に記載の画像検出方法。
11. The first area first axis candidate position detecting step includes detecting the first area at a different position in the first axis direction.
Extracting a partial signal having a width of the first area from the projection signal, and calculating a first correlation value by comparing the partial signal with the first area first axis signal; based on the first correlation value, Detecting a position of the first area candidate portion in the first axis direction; and detecting the first area second axis candidate position in the first area.
Extracting a partial signal having a width of the first area from the second projection signal at a different position in the axial direction, and comparing the partial signal with the first area second axis signal to calculate a second correlation value, Detecting a position of the first area candidate portion in the second axis direction based on the second correlation value; and comparing the third projection signal at a different position in the first axis direction. Extracting the partial signal having the width of the second region from the first region, and comparing the partial signal with the first axis signal of the second region to calculate a third correlation value, wherein the first correlation value or the second correlation value is calculated. At least one of
A first area approximation portion detecting step of detecting a first area approximation portion approximating the first region from the input image based on the third correlation value and the relative position. The image detection method according to claim 7.
【請求項12】 前記第3投影信号比較ステップは、前
記第1軸方向における異なる位置で前記第3投影信号か
ら前記第2領域の幅の部分信号を取り出して、それぞれ
前記第2領域第1軸信号と比較して第3相関値を算出す
るステップを有し、前記第4投影信号比較ステップは、
前記第2軸方向における異なる位置で前記第4投影信号
から前記第2領域の幅の部分信号を取り出して、それぞ
れ前記第2領域第2軸信号と比較して第4相関値を算出
するステップを有し、画像検出方法は、前記第3相関値
及び前記第4相関値に基づいて、前記第1領域に近似す
る第1領域近似部分を前記入力画像から検出する第1領
域近似部分検出ステップをさらに備えることを特徴とす
る請求項7に記載の画像検出方法。
12. The third projection signal comparing step includes extracting partial signals having a width of the second area from the third projection signal at different positions in the first axis direction, and respectively extracting the second area first axis. Calculating a third correlation value by comparing with a signal, wherein the fourth projection signal comparing step includes:
Extracting a partial signal having a width of the second region from the fourth projection signal at a different position in the second axis direction and comparing the partial signal with the second region second axis signal to calculate a fourth correlation value. A first area approximation part detecting step of detecting a first area approximation part approximating the first area from the input image based on the third correlation value and the fourth correlation value. The image detection method according to claim 7, further comprising:
【請求項13】 前記第1領域第1軸候補位置検出ステ
ップは、前記第1領域第1軸信号のエッジを抽出する第
1領域第1軸信号エッジ抽出ステップと、前記第1投影
信号のエッジを抽出する第1投影信号エッジ抽出ステッ
プとを有し、前記第1領域第1軸信号のエッジの信号値
と前記第1投影信号のエッジの信号値とに基づいて、前
記第1軸方向における前記第1領域候補部分の位置を検
出し、前記第1領域第2軸候補位置検出ステップは、前
記第1領域第2軸信号のエッジを抽出する第1領域第2
軸信号エッジ抽出ステップと、前記第2投影信号のエッ
ジを抽出する第2投影信号エッジ抽出ステップとを有
し、前記第1領域第2軸信号のエッジの信号値と前記第
2投影信号のエッジの信号値とに基づいて、前記第2軸
方向における前記第1領域候補部分の位置を検出するこ
とを特徴とする請求項6に記載の画像検出方法。
13. The first area first axis candidate position detecting step includes: a first area first axis signal edge extracting step of extracting an edge of the first area first axis signal; and an edge of the first projection signal. Extracting a first projection signal edge in the first axis direction based on a signal value of an edge of the first area first axis signal and a signal value of an edge of the first projection signal. Detecting the position of the first area candidate portion, and detecting the first area second axis candidate position, wherein the first area second axis signal extracting section extracts an edge of the first area second axis signal.
An axis signal edge extraction step; and a second projection signal edge extraction step of extracting an edge of the second projection signal, wherein a signal value of an edge of the first area second axis signal and an edge of the second projection signal 7. The image detection method according to claim 6, wherein the position of the first area candidate portion in the second axis direction is detected based on the signal value of the first region.
【請求項14】 前記第1領域第1軸候補位置検出ステ
ップは、前記第1領域第1軸信号のエッジの数と前記第
1投影信号のエッジの数とに基づいて、前記第1軸方向
における前記第1領域候補部分の位置を検出し、前記第
1領域第2軸候補位置検出ステップは、前記第1領域第
2軸信号のエッジの数と前記第2投影信号のエッジの数
とに基づいて、前記第2軸方向における前記第1領域候
補部分の位置を検出することを特徴とする請求項13に
記載の画像検出方法。
14. The first area first axis candidate position detecting step includes the step of detecting the first area first axis direction based on the number of edges of the first area first axis signal and the number of edges of the first projection signal. Detecting the position of the first area candidate portion in the first area, the first area second axis candidate position detecting step includes determining the number of edges of the first area second axis signal and the number of edges of the second projection signal. 14. The image detection method according to claim 13, wherein a position of the first region candidate portion in the second axis direction is detected based on the position.
【請求項15】 前記第1領域第1軸候補位置検出ステ
ップは、前記第1領域第1軸信号のエッジの信号値と前
記第1投影信号のエッジの信号値との相関を示す第1エ
ッジ相関値を算出するステップを有し、前記第1エッジ
相関値に基づいて前記第1軸方向における前記第1領域
候補部分の位置を検出し、前記第1領域第2軸候補位置
検出ステップは、前記第1領域第2軸信号のエッジの信
号値と前記第2投影信号のエッジの信号値との相関を示
す第2エッジ相関値を算出するステップを有し、前記第
2エッジ相関値に基づいて、前記第2軸方向における前
記第1領域候補部分の位置を検出することを特徴とする
請求項13又は14に記載の画像検出方法。
15. The first area first axis candidate position detecting step includes a first edge indicating a correlation between a signal value of an edge of the first area first axis signal and a signal value of an edge of the first projection signal. Calculating a correlation value, detecting a position of the first area candidate portion in the first axis direction based on the first edge correlation value, and detecting the first area second axis candidate position, Calculating a second edge correlation value indicating a correlation between a signal value of an edge of the first area second axis signal and a signal value of an edge of the second projection signal, based on the second edge correlation value The method according to claim 13, wherein the position of the first area candidate portion in the second axis direction is detected.
【請求項16】 前記第3投影信号比較ステップは、前
記第2領域信号のエッジを抽出する第2領域第1軸信号
エッジ抽出ステップと、前記第3投影信号のエッジ領域
を抽出する第3投影信号エッジ抽出ステップと、前記第
2領域第1軸信号のエッジの信号値と前記第3投影信号
のエッジの信号値とを比較するステップとを有し、前記
第2領域第1軸信号のエッジの信号値と前記第3投影信
号のエッジの信号値とに基づいて、前記第1領域近似部
分を前記入力画像から検出する第1領域近似部分検出ス
テップをさらに備えることを特徴とする請求項7に記載
の画像検出方法。
16. The third projection signal comparison step includes a second area first axis signal edge extraction step for extracting an edge of the second area signal, and a third projection for extracting an edge area of the third projection signal. A signal edge extraction step, and a step of comparing a signal value of an edge of the second area first axis signal with a signal value of an edge of the third projection signal, wherein the edge of the second area first axis signal is 8. A first area approximation portion detecting step of detecting the first area approximation portion from the input image based on the signal value of the third projection signal and the signal value of the edge of the third projection signal. 3. The image detection method according to 1.,
【請求項17】 前記第3投影信号比較ステップは、前
記第2領域第1軸信号のエッジの数と前記第3投影信号
のエッジの数とを比較することを特徴とする請求項16
に記載の画像検出方法。
17. The method according to claim 16, wherein the third projection signal comparing step compares the number of edges of the second area first axis signal with the number of edges of the third projection signal.
2. The image detection method according to 1.,
【請求項18】 前記第3投影信号比較ステップは、前
記第2領域第1軸信号のエッジの信号値と前記第3投影
信号のエッジの信号値との相関を示す第3エッジ相関値
を算出するステップを有し、前記第1領域近似部分検出
ステップは、前記第3エッジ相関値に基づいて前記第1
領域近似部分を前記入力画像から検出することを特徴と
する請求項16又は17に記載の画像検出方法。
18. The third projection signal comparing step includes calculating a third edge correlation value indicating a correlation between an edge signal value of the second area first axis signal and an edge signal value of the third projection signal. Performing the first area approximation portion detection step, wherein the first area approximation portion detection step includes:
18. The image detection method according to claim 16, wherein a region approximate portion is detected from the input image.
【請求項19】 予め与えられた第1マークを含む第1
領域に近似した第1領域近似部分を入力画像から検出す
る画像検出装置であって、前記第1マークに近似した画
像を含む第1領域候補部分を前記入力画像から検出する
第1領域候補部分検出手段と、 前記第1領域に対する相対的な位置が既知である第2領
域の画像に関する情報が予め与えられており、前記相対
的な位置に基づいて、前記入力画像から第2領域候補部
分を定め、前記第2領域候補部分が前記第2領域の画像
に関する情報と一致するか否かを検出する第2領域候補
部分検出手段とを備えることを特徴とする画像検出装
置。
19. The method according to claim 1, further comprising the step of:
An image detecting apparatus for detecting, from an input image, a first area approximation portion approximating an area, wherein a first area candidate portion including an image approximating the first mark is detected from the input image. Means, and information on an image of a second area whose relative position to the first area is known is given in advance, and a second area candidate portion is determined from the input image based on the relative position. An image detecting apparatus, comprising: a second area candidate detecting unit configured to detect whether the second area candidate matches information on an image of the second area.
【請求項20】 ウェハに回路パターンを露光するウェ
ハ処理装置であって、 第1マークを含む第1領域の画像及び前記第1領域に対
する相対的な位置が既知である第2領域の画像に関する
情報を記憶する記憶手段と、前記ウェハの画像を入力画
像として取得する入力画像取得手段と、前記第1マーク
に近似した画像を含む第1領域候補部分を前記入力画像
から検出する第1領域候補部分検出手段と、 前記相対的な位置に基づいて、前記入力画像から第2領
域候補部分を定め、前記第2領域候補部分が前記第2領
域の画像に関する情報と一致するか否かを検出する第2
領域候補部分検出手段と 前記第2領域候補部分検出手段による検出結果に基づい
て、前記入力画像から前記第1領域に近似した第1領域
近似部分を検出する近似部分検出手段と、 前記近似部分の位置に基づいて前記ウェハの位置を検出
する位置検出手段と、 前記検出されたウェハの位置に基づいて、前記ウェハを
移動させる移動手段とを備えることを特徴とするウェハ
処理装置。
20. A wafer processing apparatus for exposing a circuit pattern on a wafer, comprising: an image of a first area including a first mark and information of an image of a second area having a known position relative to the first area. Storage means for storing an image of the wafer, an input image obtaining means for obtaining an image of the wafer as an input image, and a first area candidate part for detecting a first area candidate part including an image similar to the first mark from the input image Detecting means for determining a second region candidate portion from the input image based on the relative position, and detecting whether or not the second region candidate portion matches information on the image of the second region. 2
An approximate part detecting means for detecting a first area approximate part approximating the first area from the input image based on a detection result by the area candidate part detecting means and the second area candidate part detecting means; A wafer processing apparatus comprising: a position detecting unit that detects a position of the wafer based on a position; and a moving unit that moves the wafer based on the detected position of the wafer.
JP2001089976A 2001-03-27 2001-03-27 Image detection method and device, and wafer-processing device Withdrawn JP2002288661A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001089976A JP2002288661A (en) 2001-03-27 2001-03-27 Image detection method and device, and wafer-processing device
PCT/JP2002/002887 WO2002077922A1 (en) 2001-03-27 2002-03-26 Image detection method, image detection apparatus, and wafer treatment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001089976A JP2002288661A (en) 2001-03-27 2001-03-27 Image detection method and device, and wafer-processing device

Publications (1)

Publication Number Publication Date
JP2002288661A true JP2002288661A (en) 2002-10-04

Family

ID=18944821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001089976A Withdrawn JP2002288661A (en) 2001-03-27 2001-03-27 Image detection method and device, and wafer-processing device

Country Status (2)

Country Link
JP (1) JP2002288661A (en)
WO (1) WO2002077922A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004085959A1 (en) * 2003-03-27 2004-10-07 Advantest Corporation Sample observing apparatus, edge position calculating device, and program
JP2007292732A (en) * 2006-03-29 2007-11-08 Advantest Corp Pattern measuring device and pattern measuring method
WO2010109730A1 (en) * 2009-03-26 2010-09-30 アイシン精機株式会社 Camera calibrator
JP2010231395A (en) * 2009-03-26 2010-10-14 Aisin Seiki Co Ltd Camera calibration device
JP2010232852A (en) * 2009-03-26 2010-10-14 Aisin Seiki Co Ltd Camera calibrator
JP2013038364A (en) * 2011-08-11 2013-02-21 Disco Abrasive Syst Ltd Processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5471038B2 (en) * 2009-05-27 2014-04-16 アイシン精機株式会社 Calibration target detection device, calibration target detection method for detecting calibration target, and program for calibration target detection device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04307682A (en) * 1991-04-04 1992-10-29 Nippon Telegr & Teleph Corp <Ntt> Image positioning method
JPH06274601A (en) * 1993-03-18 1994-09-30 Fujitsu Ltd Fingerprint collating method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004085959A1 (en) * 2003-03-27 2004-10-07 Advantest Corporation Sample observing apparatus, edge position calculating device, and program
JPWO2004085959A1 (en) * 2003-03-27 2006-06-29 株式会社アドバンテスト Sample observation apparatus, edge position calculation apparatus, and program
JP4536004B2 (en) * 2003-03-27 2010-09-01 株式会社アドバンテスト Sample observation apparatus, edge position calculation apparatus, and program
JP2007292732A (en) * 2006-03-29 2007-11-08 Advantest Corp Pattern measuring device and pattern measuring method
WO2010109730A1 (en) * 2009-03-26 2010-09-30 アイシン精機株式会社 Camera calibrator
JP2010231395A (en) * 2009-03-26 2010-10-14 Aisin Seiki Co Ltd Camera calibration device
JP2010232852A (en) * 2009-03-26 2010-10-14 Aisin Seiki Co Ltd Camera calibrator
US8872920B2 (en) 2009-03-26 2014-10-28 Aisin Seiki Kabushiki Kaisha Camera calibration apparatus
JP2013038364A (en) * 2011-08-11 2013-02-21 Disco Abrasive Syst Ltd Processing apparatus

Also Published As

Publication number Publication date
WO2002077922A1 (en) 2002-10-03

Similar Documents

Publication Publication Date Title
US10937146B2 (en) Image evaluation method and image evaluation device
US7590280B2 (en) Position detection apparatus and exposure apparatus
US7518110B2 (en) Pattern measuring method and pattern measuring device
EP3033875B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
US9759548B2 (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP4901254B2 (en) Pattern matching method and computer program for performing pattern matching
JP6043735B2 (en) Image evaluation apparatus and pattern shape evaluation apparatus
JP2007256091A (en) Method and apparatus for calibrating range finder
JP2006065429A (en) Device and method for extracting change of photographic image
US10255519B2 (en) Inspection apparatus and method using pattern matching
US20050061972A1 (en) Electron beam system and electron beam measuring and observing methods
JP2006214816A (en) Semiconductor inspection device
JP2006023178A (en) 3-dimensional measuring method and device
JP2002288661A (en) Image detection method and device, and wafer-processing device
KR100808536B1 (en) Method for calibration using by pattern image
JP2020181582A (en) Inspection device and inspection method using template matching
JP2009294027A (en) Pattern inspection device and method of inspecting pattern
TWI408330B (en) Position detector, position detection method, exposure apparatus, and device manufacturing method
JP2002245454A (en) Image matching method and device, and wafer processor
JP2005310805A (en) Pattern searching method
JP7273748B2 (en) Inspection device, inspection method, and program
JP2004165944A (en) Method and device for projection information correction, program, and recording medium
JPH09119982A (en) Missile guiding system
JPH08181053A (en) Position detecting method
JP2565585B2 (en) Position detection method for scribe line intersection area

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603