JP2692890B2 - Positional relationship detector - Google Patents

Positional relationship detector

Info

Publication number
JP2692890B2
JP2692890B2 JP63226010A JP22601088A JP2692890B2 JP 2692890 B2 JP2692890 B2 JP 2692890B2 JP 63226010 A JP63226010 A JP 63226010A JP 22601088 A JP22601088 A JP 22601088A JP 2692890 B2 JP2692890 B2 JP 2692890B2
Authority
JP
Japan
Prior art keywords
light
point
signal
sensor
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63226010A
Other languages
Japanese (ja)
Other versions
JPH0274812A (en
Inventor
実 吉井
直人 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP63226010A priority Critical patent/JP2692890B2/en
Priority to DE1989628093 priority patent/DE68928093T2/en
Priority to EP19890309098 priority patent/EP0358515B1/en
Publication of JPH0274812A publication Critical patent/JPH0274812A/en
Priority to US07/978,524 priority patent/US5340992A/en
Application granted granted Critical
Publication of JP2692890B2 publication Critical patent/JP2692890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7073Alignment marks and their environment
    • G03F9/7076Mark details, e.g. phase grating mark, temporary mark

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、2つの物体間の相対的位置関係を高精度に
検出する装置、例えば、半導体焼付装置におけるマスク
とウエハーとの位置ずれ検出及び間隔の検出に関するも
のである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial application] The present invention relates to an apparatus for detecting a relative positional relationship between two objects with high accuracy, for example, for detecting a positional deviation between a mask and a wafer in a semiconductor printing apparatus. It concerns the detection of intervals.

〔従来の技術〕[Conventional technology]

従来より半導体製造用の露光装置においては、マスク
とウエハの相対的な位置合わせは性能向上を図る為の重
要な一要素となっている。特に最近の露光装置における
位置合わせ及びギヤツプ設定においては、半導体素子の
高集積化の為に、例えばサブミクロン以下の位置合わせ
精度(ギヤツプ設定精度)を有するものが要求されてい
る。
2. Description of the Related Art Conventionally, in an exposure apparatus for manufacturing a semiconductor, relative positioning of a mask and a wafer has been an important factor for improving performance. Particularly in the recent alignment and gear setting in an exposure apparatus, one having a positioning precision (gear setting precision) of, for example, submicron or less is required for high integration of semiconductor elements.

多くの位置合わせ装置においては、マスク及びウエハ
面上に位置合わせ用の所謂アライメントパターンを設
け、それらより得られる位置情報を利用して、双方のア
ライメントを行っている。このときのアライメント方法
としては、例えば双方のアライメントパターンのずれ量
を画像処理を行うことにより検出したり、又は米国特許
第4037969号や特開昭56−157033号公報で提案されてい
るようにアライメントパターンとしてゾーンプレートを
用い該ゾーンプレートに光束を照射し、このときゾーン
プレートから射出した光束の所定面上における集光点位
置を検出すること等により行っている。
In many alignment apparatuses, a so-called alignment pattern for alignment is provided on a mask and a wafer surface, and both alignments are performed using positional information obtained from the alignment patterns. As an alignment method at this time, for example, the amount of deviation between the two alignment patterns is detected by performing image processing, or alignment is proposed as proposed in U.S. Pat. No. 4,037,969 or Japanese Patent Application Laid-Open No. 56-157033. This is performed by using a zone plate as a pattern, irradiating the zone plate with a light beam, and detecting the position of a light-converging point on a predetermined surface of the light beam emitted from the zone plate.

一般にゾーンプレートを利用したアライメント方法
は、単なるアライメントパターンを用いた方法に比べて
アライメントパターンの欠損に影響されずに比較的高精
度のアライメントが出来る特長がある。
Generally, an alignment method using a zone plate has a feature that relatively high-precision alignment can be performed without being affected by a defect in an alignment pattern, as compared with a method using a simple alignment pattern.

第7図はゾーンプレートを利用した従来の位置合わせ
装置の概略図である。
FIG. 7 is a schematic view of a conventional positioning device using a zone plate.

同図において光源72から射出した平行光束はハーフミ
ラー74を通過後、集光レンズ76で集光点78に集光された
後、マスク68面上のマスクアライメントパターン68a及
び支持台62に載置したウエハ60面上のウエハアライメン
トパターン60aを照射する。これらのアライメントパタ
ーン68a,60aは反射型のゾーンプレートより構成され、
各々集光点78を含む光軸と直交する平面上に集光点(光
スポツト)を形成する。このときの平面上の集光点位置
のずれ量を集光レンズ76とレンズ80により検出面82上に
導光して検出している。
In the same figure, a parallel light beam emitted from a light source 72 passes through a half mirror 74 and is condensed at a converging point 78 by a converging lens 76, and is then placed on a mask alignment pattern 68a on a mask 68 and a support 62. The wafer alignment pattern 60a on the surface of the wafer 60 is irradiated. These alignment patterns 68a and 60a are constituted by reflection type zone plates,
Condensing points (light spots) are formed on a plane orthogonal to the optical axis including the converging points 78. At this time, the amount of shift of the condensing point position on the plane is detected by guiding the light onto the detection surface 82 by the condensing lenses 76 and 80.

そして検出器82からの出力信号に基づいて制御回路84
により駆動回路64を駆動させてマスク68とウエハ60の相
対的な位置決めを行っている。
Then, based on the output signal from the detector 82, the control circuit 84
Drives the drive circuit 64 to perform relative positioning between the mask 68 and the wafer 60.

第8図は第7図に示したマスクアライメントパターン
68aとウエハアライメントパターン60aからの光束の結像
関係を示した説明図である。
FIG. 8 shows the mask alignment pattern shown in FIG.
FIG. 8 is an explanatory diagram showing an image forming relationship of a light beam from 68a and a wafer alignment pattern 60a.

同図において集光点78から発散した光束はマスクアラ
イメントパターン68aよりその一部の光束が回折し、集
光点78近傍にマスク位置を示す集光点78aを形成する。
又、その他の一部の光束はマスク68を0次透過光として
透過し、波面を変えずにウエハ60面上のウエハアライメ
ントパターン60aに入射する。このとき光束はウエハア
ライメントパターン60aにより回折された後、再びマス
ク68を0次透過光として透過し、集光点78近傍に集光し
ウエハ位置をあらわす集光点78bを形成する。同図にお
いてはウエハ60により回折された光束が集光点を形成す
る際には、マスク68は単なる素通し状態としての作用を
する。
In the figure, a part of the luminous flux diverging from the converging point 78 is diffracted from the mask alignment pattern 68a to form a converging point 78a indicating the mask position near the converging point 78.
Further, some other light beams pass through the mask 68 as zero-order transmission light and enter the wafer alignment pattern 60a on the wafer 60 without changing the wavefront. At this time, after the light beam is diffracted by the wafer alignment pattern 60a, the light beam is transmitted again through the mask 68 as zero-order transmission light, condensed in the vicinity of the converging point 78, and forms a converging point 78b representing the wafer position. In the figure, when the light beam diffracted by the wafer 60 forms a converging point, the mask 68 acts as a simple transparent state.

このようにして形成されたウエハアライメントパター
ン60aによる集光点78bの位置は、ウエハ60のマスク68に
対するずれ量Δσに応じて集光点78を含む光軸と直交す
る平面に沿って該ずれ量Δσに対応した量のずれ量Δ
σ′として形成される。このΔσ′をセンサ上に設けた
絶対座標系を基準として測定することによりΔσを求め
ていた。
The position of the focal point 78b by the wafer alignment pattern 60a formed in this way is determined by the amount of the deviation along a plane orthogonal to the optical axis including the focal point 78 according to the deviation Δσ of the wafer 60 with respect to the mask 68. The deviation amount Δ of the amount corresponding to Δσ
σ '. Δσ was determined by measuring this Δσ ′ with reference to an absolute coordinate system provided on the sensor.

第9図は特開昭61−111402号公報で提案されている間
隔測定装置の概略図である。同図において第1物体とし
てのマスクMと第2物体としてのウエハWとを対向配置
し、レンズL1によってレーザー光束をマスクMとウエハ
Wとの間の点Psに集光させている。
FIG. 9 is a schematic diagram of a distance measuring device proposed in Japanese Patent Laid-Open No. 61-111402. In the figure, a mask M as a first object and a wafer W as a second object are arranged so as to face each other, and a laser beam is focused on a point Ps between the mask M and the wafer W by a lens L1.

このとき光束はマスクM面上とウエハW面上で各々反
射し、レンズL2を介してスクリーンSC面上の点Pw,PM
集束投影されている。マスクMとウエハWとの間隔はス
クリーンS面上の光束の集光点Pw,PMとの間隔を検出す
ることにより測定している。
At this time, the light flux is reflected on the surface of the mask M and on the surface of the wafer W, and is focused and projected onto the points Pw and P M on the surface of the screen SC via the lens L2. The distance between the mask M and the wafer W is measured by detecting the distance between the light converging points Pw and P M on the screen S surface.

〔発明が解決しようとしている問題点〕[Problems to be solved by the invention]

上記従来例では、光束として指向性のよいレーザー光
が用いられる。しかしレーザー光は同時に可干渉性が大
きいので、マスク・ウエハ間の多重干渉、マスク・ウエ
ハ面からのスペツクル散乱光との干渉等でセンサー上に
入射する光束の光強度分布あるいは断面形状がセンサー
入射位置毎に変化しやすい。前述の様なノイズはセンサ
ー入射位置が一定であれば空間器に固定されていること
が多いので時間が経過しても変化せず、よって光強度分
布を時間平均してもこのノイズを打ち消すことができな
い。従ってセンサ上での光束の集光点の移動を検出する
為に断面形状に基づいた基準点(例えば円光束の中心)
や光強度に基づいた基準点(例えば光強度がピークの
点)等の移動を検出しようとすると、断面形状や光強度
が変動してしまうため、これらの点の移動量が実際の光
束の集光点の移動量と一致せず、位置ずれ、間隔検出に
誤差を生じるおそれがあった。
In the above-mentioned conventional example, a laser beam having good directivity is used as the light flux. However, since the laser light has a large coherence at the same time, the light intensity distribution or the cross-sectional shape of the light beam incident on the sensor due to multiple interference between the mask and wafer, interference with the speckle scattered light from the mask and wafer surface, etc. It is easy to change from position to position. If the sensor incident position is constant, the noise as described above is often fixed to the spatial device, so it does not change over time, so even if the light intensity distribution is averaged over time, this noise should be canceled. I can't. Therefore, in order to detect the movement of the focal point of the light flux on the sensor, a reference point based on the cross-sectional shape (for example, the center of the circular light flux)
If you try to detect the movement of a reference point (for example, the point where the light intensity has a peak) based on the light intensity or the light intensity, the cross-sectional shape and the light intensity will change. There is a risk that the displacement does not match the movement amount of the light spot, and an error may occur in the position shift and the interval detection.

本願は前述従来例の欠点に鑑み、レーザー光の様に可
干渉性の大きい光束の移動により二物体の位置ずれや間
隔を検出する場合に高精度な検出を可能にする位置関係
検出装置を提供する事を目的とする。
In view of the above-mentioned drawbacks of the conventional example, the present application provides a positional relationship detection device that enables highly accurate detection when detecting a positional shift or a gap between two objects by moving a light beam having a large coherence such as a laser beam. The purpose is to do.

〔問題点を解決するための手段〕[Means for solving the problem]

本発明はセンサー上での光束断面の光強度分布を演算
処理して、前述のノイズ等の影響による位置変動をおこ
しにくい所定の位置を求め、この位置の移動を検出する
事によって第1物体と第2物体との相対位置関係を求め
る事により、誤差の少ない正確な相対位置検出を実現す
るものである。
According to the present invention, the light intensity distribution of the cross section of the light flux on the sensor is arithmetically processed to obtain a predetermined position that is unlikely to cause a position change due to the influence of the noise and the like, and by detecting the movement of this position, the first object is detected. By obtaining the relative positional relationship with the second object, accurate relative position detection with less error is realized.

本願の後述する一実施例ではセンサー上の集光点内の
光強度分布を電気信号に変換し、集光点内各点の光強度
信号をその信号に応じた異なった定数倍だけ増幅(例え
ば2乗増幅)し、集光点内各点の位置をその増幅信号に
ついて平均し、求められた平均位置を基準とし、この平
均位置の移動を求める事で光束の移動を検出する様にし
ている。2乗増幅する事で同じ大きさのノイズが発生し
てもノイズの影響の大きい(S/N比の低い)低光強度部
の信号を低減し、ノイズの影響の小さい(S/N比の高
い)高強度部の信号を高増幅する事ができるので、この
信号について各点の位置を平均して得られた位置はノイ
ズによって集光点内での位置変動をおこしにくく、この
位置は光束の移動に正確に追従する。
In one embodiment described later in the present application, the light intensity distribution in the converging point on the sensor is converted into an electric signal, and the light intensity signal at each point in the converging point is amplified by a different constant multiple depending on the signal (for example, Squared amplification), the positions of the respective points within the condensing point are averaged for the amplified signal, and the movement of the light flux is detected by obtaining the movement of this average position with the obtained average position as a reference. . Even if noise of the same magnitude is generated by performing square amplification, the signal in the low light intensity part, which has a large influence of noise (low S / N ratio), is reduced, and the influence of noise is small (S / N ratio Since it is possible to highly amplify the signal of the (high) high-intensity part, the position obtained by averaging the positions of each point for this signal is unlikely to cause position fluctuation within the condensing point due to noise, and this position is Accurately follow the movement of.

〔実施例〕〔Example〕

本発明の原案について説明する。 The draft of the present invention will be described.

比較例として各点の位置を各点の光強度について平均
した位置(以下光束の重心位置と呼ぶ)を基準とした例
をあげる。
As a comparative example, an example will be given in which the position of each point is averaged with respect to the light intensity of each point (hereinafter referred to as the center of gravity of the light flux).

光束の重心位置(ベクトル)は以下の式で表わされ
る。
The barycentric position (vector) of the light flux is expressed by the following equation.

ここで、i :自然数 Si:i番目の位置における光強度 ▲▼:i番目の位置の位置ベクトル 光強度信号が局所的に集中する前述の集光点検知型位
置ずれ検出、間隔検出にこの方式を応用した場合を考え
る。この場合重心位置周辺に大きな光強度信号が集中
し、重心位置から離れる程光強度信号は小さくなる。こ
れに対し、ノイズがセンサー上の全部所に同程度の確
率、同程度の大きさで発生すると考えると、重心位置周
辺部の狭い範囲ではこのノイズが発生しても元の信号が
大きいのでS/N比は充分大きく、式(1)の右辺におけ
るノイズの寄与量も充分小さいのでここで発生するノイ
ズによる光束の重心位置の変動量はわずかである。と
ころが、ノイズはセンサー全面で同程度の可能性で発生
するので、重心位置周辺部の狭い範囲よりも、重心位置
から離れた広範囲な低信号領域の方がノイズの発生率が
高く、しかもここで発生するノイズは元の信号が小さい
のでS/N比が低く、従って式(1)の右辺に大きな変化
を与え、このノイズによる光束の重心位置の変動量が
大きい。この重心位置を集光点の基準位置とし、この基
準位置の変位量から位置ずれ、間隔を検出すると、ノイ
ズの発生で検出誤差を生じやすい。
Where i: Natural number Si: Light intensity at i-th position ▲ ▼: Position vector at i-th position This method is used for the above-mentioned focal point detection type position shift detection and interval detection where the light intensity signal is locally concentrated. Consider the case of applying. In this case, a large light intensity signal is concentrated around the center of gravity, and the light intensity signal becomes smaller as the distance from the center of gravity increases. On the other hand, assuming that noise is generated at all locations on the sensor with the same probability and with the same magnitude, the original signal is large even if this noise occurs in the narrow range around the center of gravity position. Since the / N ratio is sufficiently large and the contribution amount of noise on the right side of the equation (1) is also sufficiently small, the amount of fluctuation of the barycentric position of the light flux due to the noise generated here is small. However, noise is likely to occur over the entire surface of the sensor, so the noise rate is higher in the wide low-signal area far from the center of gravity than in the narrow area around the center of gravity. The generated noise has a low S / N ratio because the original signal is small, and therefore gives a large change to the right-hand side of equation (1), and the amount of fluctuation of the barycentric position of the light flux due to this noise is large. If this barycentric position is used as the reference position of the light condensing point and the position shift and the distance are detected from the displacement amount of this reference position, noise is likely to occur and a detection error is likely to occur.

そこで本願は局所的に集中した光強度信号を、広範囲
な低信号領域の信号より大きく増幅し、この信号につい
て各位置を平均化して基準位置を求めている。これによ
り低レベル領域のノイズによって基準位置が変動しにく
くなる。
Therefore, the present application amplifies the locally concentrated light intensity signal more than the signal in a wide low signal region, and averages each position of this signal to obtain the reference position. This makes it difficult for the reference position to change due to noise in the low level region.

この時の基準位置(ベクトル)′は、次の様に表わ
せる。
The reference position (vector) 'at this time can be expressed as follows.

ここで Ai,αi:i番目の位置における特定係数 Ai,αiは信号集中部における信号Siをより大きく増
幅し、低信号領域の信号をあまり増幅しない、あるいは
低減する様に設定される。この様な設定としてAi=1
αi=2、即ち信号Siの2乗増幅がある。この設定の時
の具体的な実施例の説明を以下に行う。
Here, Ai, αi: The specific coefficient Ai, αi at the i-th position is set so as to amplify the signal Si in the signal concentrating portion to a greater extent and not to amplify or reduce the signal in the low signal region so much. As such setting, Ai = 1
There is αi = 2, ie the square amplification of the signal Si. A specific example of this setting will be described below.

第1図は本発明を位置合せ装置に応用した実施例で、
Sは指向性のよい光を発生する光源である所のレーザー
光源、Lはそのレーザー光をコリメートするレンズであ
る。コリメートされたレーザー光束は被位置合せされる
物体Q1(例えばマスク)上の位置合せマークである物理
光学素子A1を照射する。物理光学素子A1は照射した光束
を集束するレンズ作用をする、例えばフレネルゾーンプ
レートである。位置合せ物体Q2(例えばウエハ)上のA1
と同じく位置合わせマークである物理光学素子A2は、物
理光学素子A1によって集光点Pに集光すべく入射した光
束をイメージセンサーIS上の点に集光するレンズ作用を
有する、例えばフレネルゾーンプレートである。物理光
学素子A1,A2は物体Q1,Q2が位置ずれのない状態の時には
光束をイメージセンサISの中心点P0に光束を集光する
が、物体Q2が図面上下方向に位置ずれをおこした時には
物体Q1とQ2の位置ずれ方向に位置ずれ量をβ倍した量だ
けP0点よりずれたセンサーIS上の点P′に光束を集光す
る。従って集光点P′の位置ずれ量及び方向をイメージ
センサIPで検出する事により、物体Q1とQ2の位置ずれが
検出できる。物理光学素子A1,A2の例としては第2図に
示す様なフレネルゾーンプレートがある。図中黒色部が
遮光グレーテイング部である。この様なフレネルゾーン
プレートは以下の様な形状である。
FIG. 1 shows an embodiment in which the present invention is applied to a positioning device.
S is a laser light source that is a light source that emits light with good directivity, and L is a lens that collimates the laser light. The collimated laser beam illuminates the physical optical element A1 which is an alignment mark on the object Q1 (eg mask) to be aligned. The physical optical element A1 is, for example, a Fresnel zone plate that functions as a lens that focuses the emitted light beam. A1 on alignment object Q2 (eg wafer)
The physical optical element A2, which is also an alignment mark, has a lens action of condensing the light beam incident to the condensing point P by the physical optical element A1 to a point on the image sensor IS, for example, a Fresnel zone plate. Is. The physical optics A1 and A2 focus the light flux at the center point P 0 of the image sensor IS when the objects Q1 and Q2 are not displaced, but when the object Q2 is displaced vertically in the drawing. A light beam is condensed at a point P ′ on the sensor IS, which is displaced from the point P 0 by an amount obtained by multiplying the displacement amount by β in the displacement direction of the objects Q1 and Q2. Therefore, by detecting the position shift amount and direction of the condensing point P'by the image sensor IP, the position shift between the objects Q1 and Q2 can be detected. An example of the physical optical elements A1 and A2 is a Fresnel zone plate as shown in FIG. The black portion in the figure is the light shielding grating portion. Such a Fresnel zone plate has the following shape.

まず、マスクQ1用のマークA1は所定のビーム系の平行
光束が所定の角度で入射し、所定の位置に集光するよう
設計される。一般にフレネルゾーンプレートのパターン
は光源(物点)と像点にそれぞれ可干渉性の光源を置い
たときのレンズ面における干渉縞パターンとなる。
First, the mark A1 for the mask Q1 is designed so that a parallel light beam of a predetermined beam system enters at a predetermined angle and is condensed at a predetermined position. Generally, the pattern of the Fresnel zone plate is an interference fringe pattern on the lens surface when the coherent light sources are placed at the light source (object point) and the image point, respectively.

今、第1物体Q1面上の座標系を定める。ここに原点は
フレネルゾーンプレートA1の中央にあり、位置ずれ検出
方向(図面上下方向)にx軸、物体Q1面上x軸と直交方
向にy軸、物体Q1面の法線方向にz軸をとる。物体Q1の
法線に対しαの角度で入射し、その射影成分がx軸方向
と直交する平行光束が物体Q1のマークを透過回折後、集
光点P(x1,y1,z1)の位置で結像するようなグレーテイ
ングレンズの曲線群の方程式は、フレネルゾーンプレー
トがx,y方向に同じ集光パワーを有しているとき、グレ
ーテイングの輪郭位置をx,yで表わし で与えられる。ここにλは光束の波長、mは整数であ
る。
Now, the coordinate system on the first object Q1 plane is determined. Here, the origin is located in the center of the Fresnel zone plate A1, the x axis is in the direction of displacement detection (vertical direction in the drawing), the y axis is orthogonal to the x axis on the object Q1 surface, and the z axis is the normal to the object Q1 surface. To take. A parallel light beam that is incident at an angle α with respect to the normal to the object Q1 and has its projection component orthogonal to the x-axis direction is transmitted and diffracted through the mark on the object Q1, and then the converging point P (x 1 , y 1 , z 1 ) The equation of the curve group of the grating lens which forms an image at the position of is, when the Fresnel zone plate has the same focusing power in the x and y directions, represents the contour position of the grating by x and y. Given by Where λ is the wavelength of the light beam and m is an integer.

主光線を角度αで入射し、物体Q1面上の原点を通り、
集光点P(x1,y1,z1)に達する光線とすると(3)式の
右辺はmの値によって主光線に対して波長のm/2倍光路
長が長い(短い)ことを示し、左辺は主光線の光路に対
し物体Q1上の点(x,y,0)を通り点(x1,y1,z1)に到達
する光線の光路の長さの差を表わす。
The chief ray is incident at an angle α, passes through the origin on the surface of the object Q1,
Assuming that the light ray reaches the converging point P (x 1 , y 1 , z 1 ), the right side of the equation (3) indicates that the optical path length m / 2 times the wavelength is longer (shorter) than the principal ray depending on the value of m. The left side represents the difference in the optical path lengths of the rays that reach the point (x 1 , y 1 , z 1 ) through the point (x, y, 0) on the object Q1 with respect to the optical path of the principal ray.

一方、物体Q2上のフルネルゾーンプレートA2は所定の
点光源から出た球面波を所定の位置(センサーIS面上)
に集光させるように設計される。点光源は物体Q1と物体
Q2のギヤツプをgとおくと(x1,y1,z1−g)で表わされ
フレネルゾーンQ1による結像点の位置である(yは変
数)。物体Q1と物体Q2の位置合わせはX軸方向に行われ
るとし、アライメント完了時にセンサーIS面上の点P
0(x2,y2,z2)の位置に光束が集光するものとすれば、
物体Q2上のフルネルゾーンプレートA2のグレーテイング
の輪郭の曲線群の方程式は先に定めた座標系で と表わされる。
On the other hand, the Fresnel zone plate A2 on the object Q2 places the spherical wave emitted from a predetermined point light source at a predetermined position (on the sensor IS surface).
It is designed to focus light on. Point light source is object Q1 and object
Letting the gear of Q2 be g, it is represented by (x 1 , y 1 , z 1 −g) and is the position of the image formation point by the Fresnel zone Q1 (y is a variable). It is assumed that the alignment of the object Q1 and the object Q2 is performed in the X-axis direction, and the point P on the sensor IS surface when the alignment is completed.
If the light beam is focused at the position of 0 (x 2 , y 2 , z 2 ),
The equation of the curves of the contour of the grating of the Fresnel zone plate A2 on the object Q2 is in the coordinate system defined earlier. It is expressed as

(4)式は物体Q2がz=−gにあり、主光線が物体Q1
面上の原点及び物体Q2面上の点(0,0,−g)、更にセン
サIS面上の点P0(x2,y2,z2)を通る光線であるとして物
体Q2面上のグレーテンイグ(x,y,−g)を通る光線と主
光線との光路長の差が半波長の整数倍となる条件を満た
す方程式である。
In the equation (4), the object Q2 is at z = -g, and the chief ray is the object Q1.
On the surface of the object Q2 as a ray passing through the origin on the surface and the point (0,0, -g) on the surface of the object Q2, and the point P 0 (x 2 , y 2 , z 2 ) on the surface of the sensor IS It is an equation that satisfies the condition that the difference in optical path length between the ray passing through the gray tint (x, y, −g) and the principal ray is an integral multiple of half wavelength.

第1図にもどって、イメージセンサーIS上に集光した
光束は光電変換され、A/D変換器ADによりデジタル信号
に変換され、マイクロプロセツサーMPで、センサーIS上
に集光した光束の前述の基準位置が検出される。即ちイ
メージセンサーIS上の各画素の光強度検出信号を2乗演
算し、得られた信号について即ち光強度の2乗について
各画素位置を平均して平均位置を得る。
Returning to FIG. 1, the light flux condensed on the image sensor IS is photoelectrically converted, converted into a digital signal by the A / D converter AD, and the light flux condensed on the sensor IS is converted by the microprocessor MP. The aforementioned reference position is detected. That is, the light intensity detection signal of each pixel on the image sensor IS is squared, and each pixel position is averaged for the obtained signal, that is, for the square of the light intensity to obtain an average position.

制御系CTはマイクロプロセツサーMPからの情報に基づ
き位置合わせすべき物体Q2を所定量だけ移動させるた
め、アクチユエーターACの動作量をドライバーDRを通し
て指令する。
The control system CT commands the operation amount of the actuator AC through the driver DR to move the object Q2 to be aligned by a predetermined amount based on the information from the microprocessor MP.

次に動作を説明する。 Next, the operation will be described.

位置合わせすべき物体Q2上の物理光学素子A2の光軸が
物理光学素子A1が作る光軸0(これはレンズLの光軸と
一致する)から平行なままδだけ偏心しておかれている
と、イメージセンサーIS上の集光点P′の位置はP0から
β・δだけ変位する。イメージセンサー上のスポツトの
光強度検出信号は本来の集光点Pのスポツト形状プロフ
アイルの他に 物理光学素子A1,A2の開口の形状によるフラウンフ
オーフアーの高次回折像 物体1,2からの散乱光スペツクル光 電気的ノイズ が合わさった形で形成されている。
It is assumed that the optical axis of the physical optical element A2 on the object Q2 to be aligned is decentered by δ while being parallel to the optical axis 0 formed by the physical optical element A1 (this coincides with the optical axis of the lens L). The position of the focal point P ′ on the image sensor IS is displaced from P 0 by β · δ. The light intensity detection signal of the spot on the image sensor is from the spot-shaped profile of the original condensing point P as well as the high-order diffraction image of the Fraunhofer by the shape of the openings of the physical optical elements A1 and A2 from the objects 1 and 2. Scattered light Spectral light is formed by combining electrical noise.

の電気的ノイズのうち時間的変動成分に関しては、
ある時間内で得られたデータの時間平均を行い、これを
検出データとする事で取りのぞくことができる。電気的
ノイズのうち時間的固定成分についてはこれらをあらか
じめ求め、出力信号にオフセツトを設けて補正する事で
取り除くことが可能である。
Regarding the time-varying component of the electrical noise of,
This can be removed by averaging the data obtained within a certain time and using this as detection data. It is possible to remove temporally fixed components of electrical noise by obtaining them in advance and correcting them by providing an offset to the output signal.

又、センサーIS上では例えば第3図に示すような形状
の物理光学素子の開口のフアウンフオーフアー回折像の
高次の次数成分がスポツトの0次光を中心として発生す
る。これがおよぼす影響について説明する。イメージセ
ンサーISの多さきが有限であるためにフラウンフオーフ
アー回折像のある高次次数からはセンサーISからはみで
る。しかし位置合わせ物体Q1,Q2がδだけ平行偏心して
いる場合センサーIS上のスポツトも中心からはずれるの
でこのはみでていた高次次数成分がセンサーIS上に移動
したり、又以前センサーIS上にあった高次次数成分がセ
ンサーISからはみ出したりして、センサーIS上全体の光
強度について各位置を平均化すると、検出された光束の
基準位置に誤差を発生する。
Further, on the sensor IS, for example, the higher-order component of the Founfer-Four-Diffraction image of the aperture of the physical optical element having the shape as shown in FIG. 3 is generated centering on the 0th-order light of the spot. The effect of this will be explained. Due to the finite number of image sensor IS, it is out of the sensor IS from the higher order with the Fraunhofer diffraction pattern. However, when the alignment objects Q1 and Q2 are eccentric by δ, the spots on the sensor IS also deviate from the center, so the high-order component that was on this edge moved to the sensor IS, or it was on the sensor IS before. When the high-order components are projected from the sensor IS and the respective positions of the light intensity of the entire sensor IS are averaged, an error occurs at the reference position of the detected light flux.

誤差、特にこのフラウンフオーフアー回折像の影響に
よる誤差を取り除く為の処理を第4図のフローチヤート
に示す。ただし第4図の処理はイメージセンサーISが位
置ずれ検出方向(x方向)にのみ画素が配列されたリニ
アイメージセンサーの場合の処理である。図中、 N:金属素数、 i:画素の一端からの番号、 l:センサーの画素間隔、 Si:i番目の画素における平均光強度、 g1:i番目の画素における散乱光ノイズ成分 である。各画素からの信号より、一定時間内の光強度の
平均値Siを得、このSiを用い ただしTi=Si−gi Si−gi≧0のとき Ti=0 Si−gi<0のとき として演算処理して基準位置Mを求める。ここでgiはあ
らかじめ第1図において物体Q1のみのとき、および物体
Q2のみのときの散乱光成分によるセンサー出力データを
メモリ上に記憶しておき、そのデータ和によって求め
る。これが散乱光データとなる。この場合giとしては一
定値(全散乱光ノイズ成分の平均値)であっても全体と
してS/N比を高くすることになるのでノイズ成分除去の
効果はある。またgiがすべて0の場合がフラウンフオー
フアー回折像のみがセンサー上に生じている場合と考え
られる。
A process for removing an error, especially an error due to the influence of this Fraunhofer diffraction image is shown in a flow chart of FIG. However, the process of FIG. 4 is a process in the case where the image sensor IS is a linear image sensor in which pixels are arranged only in the positional deviation detection direction (x direction). In the figure, N: metal prime number, i: number from one end of pixel, l: sensor pixel interval, Si: average light intensity at i-th pixel, g 1 : scattered light noise component at i-th pixel. From the signal from each pixel, obtain the average value Si of the light intensity within a fixed time, and use this Si However, when Ti = Si-gi Si-gi ≧ 0, Ti = 0 Si-gi <0 is calculated and the reference position M is obtained. Here, gi is the object Q1 in FIG.
The sensor output data due to the scattered light component when only Q2 is stored in the memory and calculated by the sum of the data. This becomes scattered light data. In this case, even if gi is a constant value (average value of all scattered light noise components), the S / N ratio is increased as a whole, so that there is an effect of removing noise components. Further, it is considered that when gi is all 0, only the Fraunhofer diffraction image is generated on the sensor.

第5図にスポツト形状を200μのsinC2の関数としてこ
れをピツチ30μm×40個のリニアイメージセンサーで基
準位置検出を行ったと仮定した場合のシユミレーシヨン
結果のグラフを示す。このグラフはラインセンサー上で
のスポツトの位置ずれ量β・δを横軸としたとき、本装
置で2乗演算処理を行って基準位置を求めた場合(図中
破線)と通常の重心検知を行った場合(図中実線)の基
準位置移動量のβ・δからの誤差を示したものである。
第5図に示すように例えばスポツト変位の検出誤差が0.
1μ以下であるのはスポツトの変位量ずれ量が重心検知
方式においては20μであるのに対し、2乗演算を行った
検知方式の場合約20倍の440μであることがわかる。こ
れより本実施例の位置関係装置を用いれば、広範囲にわ
たり高精度な位置関係検出が可能になる事が証明され
る。
FIG. 5 shows a graph of simulation results when it is assumed that the spot shape is a function of sinC 2 of 200 μ and the reference position is detected by a linear image sensor of pitch 30 μm × 40 pieces. This graph shows the normal center of gravity detection when the reference position is obtained by performing square calculation processing with this device (dotted line in the figure) when the positional deviation amount β / δ of the spot on the line sensor is taken as the horizontal axis. It shows the error from the reference position movement amount β / δ in the case of performing (solid line in the figure).
As shown in FIG. 5, for example, the spot displacement detection error is 0.
It can be seen that the displacement amount of the spot is 1 μ or less, which is 20 μ in the center-of-gravity detection method, while it is 440 μ, which is about 20 times that in the detection method using the square calculation. From this, it is proved that the positional relationship detecting apparatus according to the present embodiment enables highly accurate positional relationship detection over a wide range.

尚、イメージセンサーISが3次元イメージセンサーの
場合は2乗演算処理を(2)式でAi=1,αi=2として
行えば良い。
When the image sensor IS is a three-dimensional image sensor, the square calculation process may be performed with Ai = 1, αi = 2 in the equation (2).

第6図は本発明の第2の実施例である。第1図におけ
る実施例と異なる部分つまりイメージセンサーIS、A/D
変換器AD、マイクロプロセツサMP、の部分を変更した他
の実施例であり、それ以外の部分は第1図と同様である
ので第6図では省略する。
FIG. 6 shows a second embodiment of the present invention. The parts different from the embodiment in FIG. 1, that is, the image sensor IS, A / D
This is another embodiment in which the parts of the converter AD and the microprocessor MP are changed, and the other parts are the same as in FIG. 1 and therefore omitted in FIG.

図中GGはgi波発生器、ADDは加算器、GAはガンマアン
プ、IA1,IA2は積分器、MPXは乗算器、LGはのこぎり波発
生器、DEVは割算器である。
In the figure, GG is a gi wave generator, ADD is an adder, GA is a gamma amplifier, IA 1 and IA 2 are integrators, MPX is a multiplier, LG is a sawtooth wave generator, and DEV is a divider.

第2の実施例では、第1の実施例がデイジタル信号を
処理しているのに対して、アナログ信号処理を行ってい
る点が大きく異なる。
The second embodiment is largely different from the first embodiment in that the digital signal is processed, whereas the analog signal is processed.

第6図においてイメージセンサーISに集光した光束は
光電変換され、Siになるセンサー出力(アナログ信号)
を出す。イメージセンサーISの出力SiはA/D変換せず、
そのまま加算器ADDによりgi波発生器GGにより出力され
るイメージセンサーの画素ナンバーiに対応した散乱光
ノイズ成分のアナログ信号giで減算され、Ti(=Si−g
i)なるアナログ信号となる。信号Tiはさらにガンマア
ンプGAにより例えば2乗され、イメージセンサーの画素
ナンバーに対応したのこぎり波発生器LGの出力信号と乗
算される。さらにイメージセンサーISの走査同期で積分
する積分器IA1で積分される(=I1i)。同時にガンマア
ンプの出力は積分器IA2で積分される(I2i)。各積分器
の出力は割算器DEVによりI1i/I2iが計算され、光強度の
2乗について各点の位置を平均して得られた平均位置を
示す割算器DEVの出力は、制御回路CTへ送られる。
In Fig. 6, the luminous flux condensed on the image sensor IS is photoelectrically converted into Si, which is the sensor output (analog signal).
Put out. The output Si of the image sensor IS does not undergo A / D conversion,
As it is, the analog signal gi of the scattered light noise component corresponding to the pixel number i of the image sensor output by the gi wave generator GG is subtracted by the adder ADD, and Ti (= Si-g
i) becomes an analog signal. The signal Ti is further squared by the gamma amplifier GA, for example, and multiplied by the output signal of the sawtooth wave generator LG corresponding to the pixel number of the image sensor. Further, it is integrated by an integrator IA 1 that integrates in synchronization with the scanning of the image sensor IS (= I 1i ). At the same time, the output of the gamma amplifier is integrated by the integrator IA 2 (I 2i ). The output of each integrator is calculated as I 1i / I 2i by the divider DEV, and the output of the divider DEV showing the average position obtained by averaging the positions of the respective points with respect to the square of the light intensity is controlled. It is sent to the circuit CT.

動作についてデイジタルとアナログの差はあるが第1
の実施例と同様であるので略する。
Regarding operation, there is a difference between digital and analog, but first
The description is omitted because it is similar to the embodiment.

〔発明の効果〕〔The invention's effect〕

以上、説明した様にノイズ等の影響によって位置変動
をおこしにくい光束断面内の所定位置を求め、この位置
の移動を検出する事によって第1物体と第2物体との相
対位置関係を求める事により、誤差の少ない位置関係検
出が可能になった。
As described above, by obtaining a predetermined position in the light flux cross section that is unlikely to cause position variation due to the influence of noise, etc., and by detecting the movement of this position, the relative positional relationship between the first object and the second object is obtained. , It became possible to detect the positional relationship with less error.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明を実施した位置合せ装置の構成図、第2
図は第1図で用いられている物理光学素子の例、 第3図はセンサー上のスポツト形状の一例、 第4図は第1図の装置の処理フロー、 第5図は第1図の装置の基準位置検知法と重心検知法の
誤差比較グラフ、 第6図は本発明の他の実施例の部分構成図、 第7図,第8図,第9図は従来例の説明図である。 図中、 S……光源 A1,A2……物理光学素子 IS……イメージセンサー MP……マイクロプロセツサ
FIG. 1 is a block diagram of a positioning device embodying the present invention, and FIG.
The figure is an example of the physical optical element used in FIG. 1, FIG. 3 is an example of the spot shape on the sensor, FIG. 4 is the processing flow of the apparatus of FIG. 1, and FIG. 5 is the apparatus of FIG. Fig. 6 is an error comparison graph of the reference position detection method and the center of gravity detection method, Fig. 6 is a partial configuration diagram of another embodiment of the present invention, and Figs. 7, 8 and 9 are explanatory views of a conventional example. In the figure, S ... Light source A1, A2 ... Physical optical element IS ... Image sensor MP ... Microprocessor

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】相対位置関係を検出すべき第一および第二
物体に光束を照射する光源手段と、 前記光源手段によって光束を照射された第一および第二
物体の少なくともいずれかによって偏向された光束を所
定面にて受光し、該光束の前記所定面内での各点におけ
る光強度を検出する光検出手段と、 前記光束の前記所定面内での各点の位置を、前記光検出
手段によって検出された各点の光強度の値を該光強度の
値に応じて異なった定数倍した値について平均した位置
を求める平均位置検出手段と、 前記平均位置検出手段によって求められた平均位置に基
づいて第一および第二物体の相対位置関係を検出する手
段と、 を有することを特徴とする位置関係検出手段。
1. A light source means for irradiating a light flux to a first and a second object whose relative positional relationship is to be detected, and at least one of a first and a second object illuminated with the light flux by the light source means. The light detecting means for receiving the light flux on the predetermined surface and detecting the light intensity at each point on the predetermined surface of the light flux, and the position of each point on the predetermined surface of the light flux for the light detecting means. An average position detecting means for obtaining an averaged position for values obtained by multiplying the value of the light intensity of each point detected by a constant different according to the value of the light intensity, and the average position obtained by the average position detecting means. Means for detecting a relative positional relationship between the first and second objects based on the positional relationship detecting means.
JP63226010A 1988-02-16 1988-09-09 Positional relationship detector Expired - Fee Related JP2692890B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63226010A JP2692890B2 (en) 1988-09-09 1988-09-09 Positional relationship detector
DE1989628093 DE68928093T2 (en) 1988-09-09 1989-09-07 Device for position detection between two objects
EP19890309098 EP0358515B1 (en) 1988-09-09 1989-09-07 Device for detecting positional relationship between two objects
US07/978,524 US5340992A (en) 1988-02-16 1992-11-18 Apparatus and method of detecting positional relationship using a weighted coefficient

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63226010A JP2692890B2 (en) 1988-09-09 1988-09-09 Positional relationship detector

Publications (2)

Publication Number Publication Date
JPH0274812A JPH0274812A (en) 1990-03-14
JP2692890B2 true JP2692890B2 (en) 1997-12-17

Family

ID=16838375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63226010A Expired - Fee Related JP2692890B2 (en) 1988-02-16 1988-09-09 Positional relationship detector

Country Status (1)

Country Link
JP (1) JP2692890B2 (en)

Also Published As

Publication number Publication date
JPH0274812A (en) 1990-03-14

Similar Documents

Publication Publication Date Title
JP2704001B2 (en) Position detection device
JPH0348706A (en) Position detecting method
JP2756331B2 (en) Interval measuring device
US4626103A (en) Focus tracking system
JP2676933B2 (en) Position detection device
JP2692890B2 (en) Positional relationship detector
JP3600882B2 (en) Alignment method, exposure method, element manufacturing method, and alignment apparatus and exposure apparatus
CN108333880B (en) Photoetching exposure device and focal plane measuring device and method thereof
JP2910151B2 (en) Position detection device
JP2513300B2 (en) Position detection device
JP2778231B2 (en) Position detection device
JP2546317B2 (en) Alignment device
JP2556126B2 (en) Interval measuring device and interval measuring method
KR970004476B1 (en) Measurement apparatus of wafer position in altgner
JP2623757B2 (en) Positioning device
JP2862307B2 (en) Position shift detection method
EP0358515B1 (en) Device for detecting positional relationship between two objects
JP2698388B2 (en) Position detection device
JP3630189B2 (en) Alignment method, exposure method, and exposure apparatus
JP2827251B2 (en) Position detection device
JP2827250B2 (en) Position detection device
JP2924178B2 (en) Position detection device
JPH05259029A (en) Position detector
JP2836180B2 (en) Position detection device
JP2615778B2 (en) Positioning device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees