JP2016050794A - Edge position detecting device, and edge position detecting method - Google Patents

Edge position detecting device, and edge position detecting method Download PDF

Info

Publication number
JP2016050794A
JP2016050794A JP2014174879A JP2014174879A JP2016050794A JP 2016050794 A JP2016050794 A JP 2016050794A JP 2014174879 A JP2014174879 A JP 2014174879A JP 2014174879 A JP2014174879 A JP 2014174879A JP 2016050794 A JP2016050794 A JP 2016050794A
Authority
JP
Japan
Prior art keywords
edge position
pattern element
model function
bell
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014174879A
Other languages
Japanese (ja)
Other versions
JP6355487B2 (en
Inventor
松村 明
Akira Matsumura
明 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2014174879A priority Critical patent/JP6355487B2/en
Priority to TW104123907A priority patent/TWI550252B/en
Priority to KR1020150105158A priority patent/KR101692159B1/en
Priority to CN201510494002.5A priority patent/CN105387808B/en
Publication of JP2016050794A publication Critical patent/JP2016050794A/en
Application granted granted Critical
Publication of JP6355487B2 publication Critical patent/JP6355487B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an edge position detecting device that detects highly precisely edge positions even of an image acquired at a relatively low level of resolution.SOLUTION: A luminance profile 71 in a checked image showing a group of pattern elements on a base plate is acquired. Then, to the luminance profile 71 having alternately arranged four concaves 851 to 854 and three convexes, a bisymmetric model function 72 into which four bell-shaped functions matching the four concaves 851 to 854 and three bell-shaped functions matching the three convexes are synthesized is fitted while satisfying constraint conditions based on design data of the group of pattern elements. And a plurality of coefficients contained in each bell-shaped function of the model function 72 are determined, and the edge positions of linear pattern elements are figured out on the basis of the model function 72.SELECTED DRAWING: Figure 7

Description

本発明は、パターン要素群を示す画像において当該パターン要素群に含まれるエッジの位置を検出する技術に関する。   The present invention relates to a technique for detecting the position of an edge included in a pattern element group in an image showing the pattern element group.

従来より、半導体基板、ガラス基板、プリント配線基板等の製造現場では、対象物上の線状のパターン要素を示す画像において、当該パターン要素の幅(すなわち、線幅)等を測定することが行われている。このような測定では、パターン要素のエッジ位置を精度良く検出することが重要となる。   Conventionally, in manufacturing sites for semiconductor substrates, glass substrates, printed wiring boards, and the like, it has been possible to measure the width (that is, the line width) of a pattern element in an image showing a linear pattern element on an object. It has been broken. In such measurement, it is important to accurately detect the edge position of the pattern element.

例えば、特許文献1のエッジ位置検出装置では、パターン要素のエッジ位置を再現性良く求める手法が提案されている。当該エッジ位置検出装置では、画像上のパターン要素の幅方向における輝度プロファイルが取得される。続いて、当該輝度プロファイルにおいてエッジを示す傾斜部に含まれる複数の画素位置の一部である対象位置群が決定される。次に、対象位置群に含まれる画素位置における輝度分布が近似式にて近似され、当該近似式に基づいて、所定のエッジ輝度(閾値)となる位置がエッジ候補位置として取得される。そして、複数の対象位置群に対応する複数のエッジ候補位置に基づいて、最終的なエッジ位置が求められる。   For example, in the edge position detection device of Patent Document 1, a method for obtaining the edge position of a pattern element with high reproducibility has been proposed. In the edge position detection device, a luminance profile in the width direction of the pattern element on the image is acquired. Subsequently, a target position group that is a part of a plurality of pixel positions included in the inclined portion indicating the edge in the luminance profile is determined. Next, the luminance distribution at the pixel positions included in the target position group is approximated by an approximate expression, and based on the approximate expression, a position having a predetermined edge luminance (threshold value) is acquired as an edge candidate position. Then, a final edge position is obtained based on a plurality of edge candidate positions corresponding to a plurality of target position groups.

特開2012−73177号公報JP 2012-73177 A

ところで、上述のようなエッジ位置の検出に使用される画像が、比較的低い解像度のカメラにより取得された場合、輝度プロファイルにおいてエッジを示す傾斜部の勾配が小さくなり、エッジ位置を高精度に検出することが難しい。また、近接して配置されたパターン要素間の背景領域とパターン要素とのコントラストが著しく低下し、エッジ位置を検出することができないおそれもある。   By the way, when the image used for edge position detection as described above is acquired by a camera with a relatively low resolution, the gradient of the inclined portion indicating the edge in the luminance profile becomes small, and the edge position is detected with high accuracy. Difficult to do. In addition, the contrast between the background area and the pattern elements between the pattern elements arranged close to each other is remarkably lowered, and the edge position may not be detected.

本発明は、上記課題に鑑みなされたものであり、比較的低い解像度にて取得された画像において、エッジ位置を高精度に検出することを目的としている。   The present invention has been made in view of the above problems, and an object thereof is to detect an edge position with high accuracy in an image acquired at a relatively low resolution.

請求項1に記載の発明は、対象物上において第1の方向を向く1つの線状パターン要素、または、前記第1の方向に垂直な第2の方向に配列された前記第1の方向を向く複数の線状パターン要素であるパターン要素群を示す画像において、前記パターン要素群に含まれる少なくとも1つのエッジの前記第2の方向における位置を検出するエッジ位置検出装置であって、前記対象物上の前記パターン要素群を示す画像において、前記第2の方向に平行であって前記パターン要素群に交差する交差方向における輝度プロファイルを取得するプロファイル取得部と、前記交差方向において交互に配置されるm個の凹部と(m−1)個の凸部とを有する前記輝度プロファイルに対して、前記m個の凹部に対応するm個の釣鐘型関数と前記(m−1)個の凸部に対応する(m−1)個の釣鐘型関数とを合成した前記交差方向において左右対称なモデル関数を、前記パターン要素群の設計データに基づく拘束条件を満たしつつフィッティングし、前記モデル関数の前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数に含まれる複数の係数を決定する演算部と、前記モデル関数に基づいて前記少なくとも1つのエッジの位置を求めるエッジ位置取得部とを備える。   The invention according to claim 1 is characterized in that one linear pattern element facing the first direction on the object or the first direction arranged in a second direction perpendicular to the first direction. An edge position detecting device for detecting a position in the second direction of at least one edge included in the pattern element group in an image showing a pattern element group that is a plurality of linear pattern elements facing the object, In the image showing the pattern element group above, profile acquisition units that acquire a luminance profile in a cross direction that is parallel to the second direction and intersects the pattern element group are alternately arranged in the cross direction. For the luminance profile having m concave portions and (m−1) convex portions, m bell-shaped functions corresponding to the m concave portions and the (m−1) pieces. Fitting a model function that is bilaterally symmetric in the intersecting direction obtained by synthesizing (m−1) bell-shaped functions corresponding to convex portions while satisfying the constraint condition based on the design data of the pattern element group, and the model function A calculation unit for determining a plurality of coefficients included in the m bell-shaped functions and the (m-1) bell-shaped functions, and an edge position for determining the position of the at least one edge based on the model function An acquisition unit.

請求項2に記載の発明は、請求項1に記載のエッジ位置検出装置であって、前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数がそれぞれ、ガウス関数である。   The invention according to claim 2 is the edge position detecting device according to claim 1, wherein the m bell-shaped functions and the (m-1) bell-shaped functions are respectively Gaussian functions.

請求項3に記載の発明は、請求項1または2に記載のエッジ位置検出装置であって、前記エッジ位置取得部が、前記モデル関数の前記複数の係数を補正することにより、前記m個の凹部に対応する各凹部の極値と前記(m−1)個の凸部に対応する各凸部の極値との差が、前記輝度プロファイルよりも拡大された補正モデル関数を取得し、前記補正モデル関数に基づいて前記少なくとも1つのエッジの位置を求める。   Invention of Claim 3 is an edge position detection apparatus of Claim 1 or 2, Comprising: The said edge position acquisition part correct | amends the said several coefficient of the said model function, m pieces Obtaining a correction model function in which the difference between the extreme value of each concave portion corresponding to the concave portion and the extreme value of each convex portion corresponding to the (m−1) convex portions is larger than the luminance profile; The position of the at least one edge is obtained based on the correction model function.

請求項4に記載の発明は、請求項1ないし3のいずれかに記載のエッジ位置検出装置であって、前記パターン要素群を構成する線状パターン要素の数が2である。   A fourth aspect of the present invention is the edge position detecting device according to any one of the first to third aspects, wherein the number of linear pattern elements constituting the pattern element group is two.

請求項5に記載の発明は、請求項4に記載のエッジ位置検出装置であって、前記パターン要素群が、微細測長用パターンに含まれる。   The invention according to claim 5 is the edge position detection device according to claim 4, wherein the pattern element group is included in the fine length measurement pattern.

請求項6に記載の発明は、対象物上において第1の方向を向く1つの線状パターン要素、または、前記第1の方向に垂直な第2の方向に配列された前記第1の方向を向く複数の線状パターン要素であるパターン要素群を示す画像において、前記パターン要素群に含まれる少なくとも1つのエッジの前記第2の方向における位置を検出するエッジ位置検出方法であって、a)前記対象物上の前記パターン要素群を示す画像において、前記第2の方向に平行であって前記パターン要素群に交差する交差方向における輝度プロファイルを取得する工程と、b)前記交差方向において交互に配置されるm個の凹部と(m−1)個の凸部とを有する前記輝度プロファイルに対して、前記m個の凹部に対応するm個の釣鐘型関数と前記(m−1)個の凸部に対応する(m−1)個の釣鐘型関数とを合成した前記交差方向において左右対称なモデル関数を、前記パターン要素群の設計データに基づく拘束条件を満たしつつフィッティングし、前記モデル関数の前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数に含まれる複数の係数を決定する工程と、c)前記モデル関数に基づいて前記少なくとも1つのエッジの位置を求める工程とを備える。   The invention according to claim 6 is characterized in that one linear pattern element facing the first direction on the object or the first direction arranged in a second direction perpendicular to the first direction. An edge position detecting method for detecting a position in the second direction of at least one edge included in the pattern element group in an image showing a pattern element group which is a plurality of linear pattern elements facing the a, Obtaining an intensity profile in an intersecting direction parallel to the second direction and intersecting the pattern element group in an image showing the pattern element group on an object; and b) alternately arranged in the intersecting direction. For the luminance profile having m concave portions and (m−1) convex portions, m bell-shaped functions corresponding to the m concave portions and (m−1) convex portions. Part Fitting a model function that is symmetrical in the intersecting direction, which is obtained by synthesizing corresponding (m−1) bell-shaped functions, while satisfying constraints based on design data of the pattern element group, the m of the model function Determining a plurality of bell-shaped functions and a plurality of coefficients included in the (m−1) bell-shaped functions, and c) determining a position of the at least one edge based on the model function. .

請求項7に記載の発明は、請求項6に記載のエッジ位置検出方法であって、前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数がそれぞれ、ガウス関数である。   The invention according to claim 7 is the edge position detection method according to claim 6, wherein the m bell-shaped functions and the (m−1) bell-shaped functions are respectively Gaussian functions.

請求項8に記載の発明は、請求項6または7に記載のエッジ位置検出方法であって、前記c)工程が、c1)前記モデル関数の前記複数の係数を補正することにより、前記m個の凹部に対応する各凹部の極値と前記(m−1)個の凸部に対応する各凸部の極値との差が、前記輝度プロファイルよりも拡大された補正モデル関数を取得する工程と、c2)前記補正モデル関数に基づいて前記少なくとも1つのエッジの位置を求める工程とを備える。   The invention according to claim 8 is the edge position detection method according to claim 6 or 7, wherein the step c) corrects the plurality of coefficients of the model function c1). Obtaining a correction model function in which the difference between the extreme value of each concave portion corresponding to the concave portion and the extreme value of each convex portion corresponding to the (m−1) convex portions is larger than the luminance profile. And c2) determining the position of the at least one edge based on the correction model function.

請求項9に記載の発明は、請求項6ないし8のいずれかに記載のエッジ位置検出方法であって、前記パターン要素群を構成する線状パターン要素の数が2である。   The invention according to claim 9 is the edge position detecting method according to any one of claims 6 to 8, wherein the number of linear pattern elements constituting the pattern element group is two.

請求項10に記載の発明は、請求項9に記載のエッジ位置検出方法であって、前記パターン要素群が、微細測長用パターンに含まれる。   A tenth aspect of the present invention is the edge position detecting method according to the ninth aspect, wherein the pattern element group is included in a fine length measurement pattern.

本発明では、比較的低い解像度にて取得された画像において、エッジ位置を高精度に検出することができる。   In the present invention, an edge position can be detected with high accuracy in an image acquired at a relatively low resolution.

一の実施の形態に係るパターン測定装置の概略構成を示す図である。It is a figure which shows schematic structure of the pattern measurement apparatus which concerns on one embodiment. 検査画像を示す図である。It is a figure which shows a test | inspection image. コンピュータの機能構成を示すブロック図である。It is a block diagram which shows the function structure of a computer. 線状パターン要素の線幅を測定する処理の流れを示す図である。It is a figure which shows the flow of the process which measures the line | wire width of a linear pattern element. 検査画像を示す図である。It is a figure which shows a test | inspection image. 輝度プロファイルを示す図である。It is a figure which shows a brightness | luminance profile. 輝度プロファイルおよびモデル関数を示す図である。It is a figure which shows a brightness | luminance profile and a model function. 複数の釣鐘型関数を示す図である。It is a figure which shows a some bell-shaped function. 検査画像を示す図である。It is a figure which shows a test | inspection image. 輝度プロファイルを示す図である。It is a figure which shows a brightness | luminance profile. 輝度プロファイルおよびモデル関数を示す図である。It is a figure which shows a brightness | luminance profile and a model function. 線状パターン要素の線幅を測定する処理の流れの一部を示す図である。It is a figure which shows a part of flow of the process which measures the line | wire width of a linear pattern element. 輝度プロファイル、モデル関数および補正モデル関数を示す図である。It is a figure which shows a brightness | luminance profile, a model function, and a correction | amendment model function. 輝度プロファイルおよびモデル関数を示す図である。It is a figure which shows a brightness | luminance profile and a model function.

図1は、本発明の一の実施の形態に係るパターン測定装置1の概略構成を示す図である。パターン測定装置1は、対象物である半導体基板、ガラス基板またはプリント配線基板等(以下、単に「基板9」という)上に形成されたパターンにおいて、線状のパターン要素の幅(すなわち、線幅)を測定する自動測長機である。   FIG. 1 is a diagram showing a schematic configuration of a pattern measuring apparatus 1 according to an embodiment of the present invention. The pattern measuring apparatus 1 is a pattern formed on a semiconductor substrate, a glass substrate, a printed wiring board or the like (hereinafter simply referred to as “substrate 9”) as an object, and the width of a linear pattern element (that is, the line width). ).

パターン測定装置1は、ステージ21と、ステージ駆動部22と、撮像部3とを備える。ステージ21は、基板9を保持する。ステージ駆動部22は、撮像部3に対してステージ21を相対的に移動する。ステージ駆動部22はボールねじ、ガイドレール、モータ等により構成される。撮像部3は、ステージ21の上方(すなわち、(+z)側)に配置され、基板9上の検査対象領域を撮像して画像データを取得する。撮像部3は、照明部31と、光学系32と、撮像デバイス33とを備える。照明部31は、照明光を出射する。光学系32は、基板9に照明光を導くとともに基板9からの光が入射する。撮像デバイス33は、光学系32により結像された基板9の像を電気信号に変換する。   The pattern measuring apparatus 1 includes a stage 21, a stage driving unit 22, and an imaging unit 3. The stage 21 holds the substrate 9. The stage driving unit 22 moves the stage 21 relative to the imaging unit 3. The stage drive unit 22 includes a ball screw, a guide rail, a motor, and the like. The imaging unit 3 is arranged above the stage 21 (that is, on the (+ z) side) and images the inspection target area on the substrate 9 to acquire image data. The imaging unit 3 includes an illumination unit 31, an optical system 32, and an imaging device 33. The illumination unit 31 emits illumination light. The optical system 32 guides illumination light to the substrate 9 and allows light from the substrate 9 to enter. The imaging device 33 converts the image of the substrate 9 formed by the optical system 32 into an electrical signal.

パターン測定装置1には、さらに、各種演算処理を行うCPUや各種情報を記憶するメモリ等により構成されたコンピュータ5が設けられる。コンピュータ5がステージ駆動部22および撮像部3を制御することにより、基板9上の検査対象領域が撮像される。以下、撮像部3により取得された基板9の検査対象領域の画像を「検査画像」という。   The pattern measuring apparatus 1 is further provided with a computer 5 composed of a CPU for performing various arithmetic processes, a memory for storing various information, and the like. The computer 5 controls the stage drive unit 22 and the imaging unit 3 so that the inspection target area on the substrate 9 is imaged. Hereinafter, the image of the inspection target area of the substrate 9 acquired by the imaging unit 3 is referred to as an “inspection image”.

図2は、検査画像81を示す図である。検査画像81では、基板9上においてy方向を向く複数の線状パターン要素82であるパターン要素群83が示される。複数の線状パターン要素82は、y方向に垂直なx方向に配列される。ここで、y方向およびx方向をそれぞれ「第1の方向」および「第2の方向」と呼ぶと、パターン要素群83は、第1の方向に垂直な第2の方向に配列された第1の方向を向く複数の線状パターン要素82である。図2に示す例では、パターン要素群83は、互いに略平行な2つの線状パターン要素82である。換言すれば、パターン要素群83を構成する線状パターン要素82の数は2である。パターン要素群83は、基板9上に形成されるパターンの検査に利用される微細測長用パターンに含まれる。2つの線状パターン要素82の設計上の形状(例えば、線状パターン要素82の線幅や基板9上の高さ)は、互いに等しい。   FIG. 2 is a diagram illustrating the inspection image 81. The inspection image 81 shows a pattern element group 83 that is a plurality of linear pattern elements 82 facing the y direction on the substrate 9. The plurality of linear pattern elements 82 are arranged in the x direction perpendicular to the y direction. Here, when the y direction and the x direction are referred to as a “first direction” and a “second direction”, respectively, the pattern element group 83 is a first array arranged in a second direction perpendicular to the first direction. A plurality of linear pattern elements 82 facing in the direction of. In the example shown in FIG. 2, the pattern element group 83 is two linear pattern elements 82 that are substantially parallel to each other. In other words, the number of linear pattern elements 82 constituting the pattern element group 83 is two. The pattern element group 83 is included in a fine length measurement pattern used for inspection of a pattern formed on the substrate 9. The design shapes of the two linear pattern elements 82 (for example, the line width of the linear pattern elements 82 and the height on the substrate 9) are equal to each other.

パターン測定装置1の後述するエッジ位置検出装置50では、パターン要素群83に含まれる少なくとも1つのエッジ84のx方向(すなわち、第2の方向)における位置が検出される。以下の説明では、図2に例示する2つの線状パターン要素82の各2つのエッジ84、すなわち、互いに略平行な4つのエッジ84のx方向における位置が、エッジ位置検出装置50により検出される。   In the edge position detection device 50 described later of the pattern measurement device 1, the position of at least one edge 84 included in the pattern element group 83 in the x direction (that is, the second direction) is detected. In the following description, the positions of the two edges 84 of the two linear pattern elements 82 illustrated in FIG. 2, that is, the positions of the four edges 84 substantially parallel to each other in the x direction are detected by the edge position detection device 50. .

図3は、コンピュータ5が所定のプログラムを実行することにより実現される機能構成を示すブロック図である。図3では、コンピュータ5以外の構成も併せて示す。図3のエッジ位置検出装置50のプロファイル取得部51、演算部52およびエッジ位置取得部53と、線幅算出部54とが、コンピュータ5により実現される機能である。なお、エッジ位置検出装置50および線幅算出部54の機能は専用の電気的回路により実現されてもよく、部分的に専用の電気的回路が用いられてもよい。   FIG. 3 is a block diagram showing a functional configuration realized by the computer 5 executing a predetermined program. In FIG. 3, the configuration other than the computer 5 is also shown. The profile acquisition unit 51, the calculation unit 52, the edge position acquisition unit 53, and the line width calculation unit 54 of the edge position detection device 50 in FIG. 3 are functions realized by the computer 5. Note that the functions of the edge position detection device 50 and the line width calculation unit 54 may be realized by a dedicated electrical circuit, or a partially dedicated electrical circuit may be used.

図4は、パターン測定装置1が線状パターン要素82(図2参照)の線幅を測定する処理の流れを示す図である。図1に示すパターン測定装置1では、基板9上の検査対象領域に含まれるパターン要素群83を示す検査画像81(図2参照)が、撮像部3により取得される(ステップS11)。検査画像81のデータは、撮像部3から図3に示すプロファイル取得部51へと出力される。   FIG. 4 is a diagram showing a flow of processing in which the pattern measuring apparatus 1 measures the line width of the linear pattern element 82 (see FIG. 2). In the pattern measuring apparatus 1 shown in FIG. 1, an inspection image 81 (see FIG. 2) showing a pattern element group 83 included in the inspection target region on the substrate 9 is acquired by the imaging unit 3 (step S11). The data of the inspection image 81 is output from the imaging unit 3 to the profile acquisition unit 51 shown in FIG.

プロファイル取得部51では、図5の検査画像81中にて符号D1を付す白い矩形にて囲む領域が注目領域として特定される。注目領域の特定は、作業者がコンピュータ5の入力部を介して特定してもよい。注目領域D1の外縁を示す矩形の各辺はx方向またはy方向に平行である。プロファイル取得部51では、注目領域D1内にてx方向に並ぶ複数の画素を画素列として、y方向に並ぶ複数の画素列のそれぞれにおいて、画素の輝度(画素値)のx方向における分布が求められる。   In the profile acquisition unit 51, an area surrounded by a white rectangle labeled D1 in the inspection image 81 of FIG. 5 is specified as the attention area. The attention area may be specified by the operator via the input unit of the computer 5. Each side of the rectangle indicating the outer edge of the attention area D1 is parallel to the x direction or the y direction. In the profile acquisition unit 51, a plurality of pixels arranged in the x direction in the region of interest D1 is defined as a pixel column, and in each of the plurality of pixel columns arranged in the y direction, the luminance (pixel value) distribution of the pixel in the x direction is obtained. It is done.

続いて、注目領域D1内のx方向の各画素の位置(以下、「画素位置」という。)において、y方向に並ぶ複数の画素における輝度の平均値(単純平均値)が算出される。プロファイル取得部51では、図6に示すように、注目領域D1内における輝度の平均値のx方向の分布が輝度プロファイル71として取得される(ステップS12)。換言すれば、プロファイル取得部51により、上記第2の方向に平行であってパターン要素群83に交差する交差方向における輝度プロファイル71が取得される。以下の説明では、y方向に並ぶ複数の画素における輝度の平均値も同様に「輝度」と呼ぶ。図6では、パターン要素群83の周囲の背景領域における輝度を約1.0として輝度プロファイル71を描いている。後述する他の図面においても同様である。   Subsequently, the average value (simple average value) of the luminance of a plurality of pixels arranged in the y direction is calculated at the position of each pixel in the x direction within the attention area D1 (hereinafter referred to as “pixel position”). In the profile acquisition unit 51, as shown in FIG. 6, the distribution in the x direction of the average value of luminance in the attention area D1 is acquired as the luminance profile 71 (step S12). In other words, the profile acquisition unit 51 acquires the luminance profile 71 in the intersecting direction that is parallel to the second direction and intersects the pattern element group 83. In the following description, the average value of the luminance in a plurality of pixels arranged in the y direction is also referred to as “luminance”. In FIG. 6, the luminance profile 71 is drawn with the luminance in the background region around the pattern element group 83 being about 1.0. The same applies to other drawings to be described later.

図6に例示する輝度プロファイル71は、図5中の2つの線状パターン要素82の4つのエッジ84に対応する4つの凹部851〜854を有する。輝度プロファイル71は、また、各線状パターン要素82の2つのエッジ84間の領域に対応する2つの凸部861,863と、2つの線状パターン要素82の間の領域(すなわち、背景領域)に対応する1つの凸部862とを有する。すなわち、輝度プロファイル71は、x方向(上述の交差方向)において交互に配置される4つの凹部851〜854と、凹部851〜854よりも1つ少ない3つの凸部861〜863とを有する。   The luminance profile 71 illustrated in FIG. 6 has four concave portions 851 to 854 corresponding to the four edges 84 of the two linear pattern elements 82 in FIG. The luminance profile 71 is also applied to the area between the two protrusions 861 and 863 corresponding to the area between the two edges 84 of each linear pattern element 82 and the area between the two linear pattern elements 82 (ie, the background area). One corresponding convex portion 862 is provided. That is, the luminance profile 71 includes four concave portions 851 to 854 that are alternately arranged in the x direction (the above-described crossing direction), and three convex portions 861 to 863 that are one fewer than the concave portions 851 to 854.

次に、演算部52(図3参照)において、図6に示す輝度プロファイル71に対するモデル関数のフィッティングが行われる。図7は、フィッティング後の当該モデル関数72を、輝度プロファイル71と共に示す図である。図7では、モデル関数72を実線にて示し、輝度プロファイル71を一点鎖線にて示す(図11および図14においても同様)。モデル関数72は、図8に示すように、上記4つの凹部851〜854に対応する4つの釣鐘型関数731〜734と、上記3つの凸部861〜863に対応する3つの釣鐘型関数741〜743とを合成した関数である。図8では、釣鐘型関数731〜734,741〜743を実線にて示し、輝度プロファイル71を一点鎖線にて示す。図8に例示する釣鐘型関数731〜734,741〜743はそれぞれ、数1に示すガウス関数である。ただし、図8では、釣鐘型関数731〜734,741〜743について、数1のG(x)から係数aを減算した値を示す。モデル関数72は、数2にて示される。 Next, in the calculation part 52 (refer FIG. 3), the fitting of the model function with respect to the brightness profile 71 shown in FIG. 6 is performed. FIG. 7 is a diagram showing the model function 72 after fitting together with the luminance profile 71. In FIG. 7, the model function 72 is indicated by a solid line, and the luminance profile 71 is indicated by an alternate long and short dash line (the same applies to FIGS. 11 and 14). As shown in FIG. 8, the model function 72 includes four bell-shaped functions 731 to 734 corresponding to the four concave portions 851 to 854 and three bell-shaped functions 741 to 741 corresponding to the three convex portions 861 to 863. 743 is a composite function. In FIG. 8, the bell-shaped functions 731 to 734 and 741 to 743 are indicated by solid lines, and the luminance profile 71 is indicated by a one-dot chain line. Bell-shaped functions 731 to 734 and 741 to 743 illustrated in FIG. 8 are Gaussian functions represented by Equation 1, respectively. However, in FIG. 8, the bell-shaped function 731~734,741~743 indicates a value obtained by subtracting the coefficient a n from Equation 1 G n (x). The model function 72 is expressed by Equation 2.

数1および数2中の添え字nが「1」の関数は、図5中の(−x)側の線状パターン要素82の(−x)側のエッジ84に対応する。nが「2」の関数は、図5中の(−x)側の線状パターン要素82における2つのエッジ84の間の領域に対応する。nが「3」の関数は、図5中の(−x)側の線状パターン要素82の(+x)側のエッジ84に対応する。nが「4」の関数は、図5中の2つの線状パターン要素82の間の領域、すなわち、(−x)側の線状パターン要素82の(+x)側のエッジ84と(+x)側の線状パターン要素82の(−x)側のエッジ84との間の領域に対応する。nが「5」の関数は、図5中の(+x)側の線状パターン要素82の(−x)側のエッジ84に対応する。nが「6」の関数は、図5中の(+x)側の線状パターン要素82における2つのエッジ84の間の領域に対応する。nが「7」の関数は、図5中の(+x)側の線状パターン要素82の(+x)側のエッジ84に対応する。   The function having the subscript n of “1” in the equations 1 and 2 corresponds to the (−x) side edge 84 of the (−x) side linear pattern element 82 in FIG. 5. The function of n being “2” corresponds to a region between two edges 84 in the (−x) side linear pattern element 82 in FIG. 5. The function whose n is “3” corresponds to the (+ x) side edge 84 of the (−x) side linear pattern element 82 in FIG. 5. The function of n being “4” is the region between the two linear pattern elements 82 in FIG. 5, that is, the (+ x) side edge 84 and (+ x) of the (−x) side linear pattern element 82. This corresponds to the region between the side linear pattern element 82 and the edge 84 on the (−x) side. The function whose n is “5” corresponds to the (−x) side edge 84 of the (+ x) side linear pattern element 82 in FIG. 5. The function of n being “6” corresponds to a region between two edges 84 in the (+ x) side linear pattern element 82 in FIG. The function whose n is “7” corresponds to the (+ x) side edge 84 of the (+ x) side linear pattern element 82 in FIG. 5.

モデル関数72の上記フィッティングは、パターン要素群83の設計データに基づく拘束条件を満たしつつ行われる。上述のように、パターン要素群83の2つの線状パターン要素82は同形状であるため、数3に示す拘束条件を満たすようにモデル関数72のフィッティングが行われる。モデル関数72は、x方向(すなわち、上述の交差方向)において左右対称である。   The fitting of the model function 72 is performed while satisfying the constraint condition based on the design data of the pattern element group 83. As described above, since the two linear pattern elements 82 of the pattern element group 83 have the same shape, the fitting of the model function 72 is performed so as to satisfy the constraint condition shown in Equation 3. The model function 72 is bilaterally symmetric in the x direction (that is, the crossing direction described above).

演算部52では、数3に示す拘束条件を満たしつつ、図7に示すように、最適化法等によりモデル関数72の輝度プロファイル71に対するフィッティングが行われ、モデル関数72の4つの釣鐘型関数731〜734および3つの釣鐘型関数741〜743に含まれる複数の係数a,b,c,d(ただし、n=1〜7)が決定される(ステップS13)。 In the calculation unit 52, the model function 72 is fitted to the luminance profile 71 by an optimization method or the like as shown in FIG. 7 while satisfying the constraint condition shown in Expression 3, and the four bell-shaped functions 731 of the model function 72 are performed. a plurality of coefficients a n included in ~734 and three bell-shaped function 741~743, b n, c n, d n ( however, n = 1 to 7) is determined (step S13).

続いて、エッジ位置取得部53(図3参照)により、モデル関数72に基づいて2つの線状パターン要素82の4つのエッジ84の位置が求められる(ステップS14)。エッジ84の位置は、例えば、モデル関数72の係数C,C,C,Cに基づいて決定される。4つのエッジ84のx方向における位置は、例えば、係数C,C,C,Cに等しい値とされる。この場合、4つのエッジ84のx方向における位置は、モデル関数72において輝度プロファイル71の凹部851〜854に対応する凹部871〜874の輝度が最小となる中心位置である。その後、線幅算出部54(図3参照)により、4つのエッジ84のx方向における位置に基づいて、2つの線状パターン要素82のx方向の線幅が求められる(ステップS15)。 Subsequently, the positions of the four edges 84 of the two linear pattern elements 82 are obtained by the edge position acquisition unit 53 (see FIG. 3) based on the model function 72 (step S14). The position of the edge 84 is determined based on, for example, the coefficients C 1 , C 3 , C 5 , and C 7 of the model function 72. The positions of the four edges 84 in the x direction are, for example, values equal to the coefficients C 1 , C 3 , C 5 , and C 7 . In this case, the positions of the four edges 84 in the x direction are the center positions where the luminance of the concave portions 871 to 874 corresponding to the concave portions 851 to 854 of the luminance profile 71 is minimum in the model function 72. Thereafter, the line width calculation unit 54 (see FIG. 3) calculates the line widths in the x direction of the two linear pattern elements 82 based on the positions of the four edges 84 in the x direction (step S15).

以上に説明したように、パターン測定装置1のエッジ位置検出装置50では、基板9上のパターン要素群83を示す検査画像81において、上述の交差方向(x方向)における輝度プロファイル71がプロファイル取得部51により取得される。続いて、当該交差方向において交互に配置される4つの凹部851〜854と3つの凸部861〜863とを有する輝度プロファイル71に対して、4つの凹部851〜854に対応する4つの釣鐘型関数731〜734と、3つの凸部861〜863に対応する3つの釣鐘型関数741〜743とを合成した左右対称なモデル関数72が、パターン要素群83の設計データに基づく拘束条件を満たしつつ、演算部52によりフィッティングされる。そして、モデル関数72の4つの釣鐘型関数731〜734および3つの釣鐘型関数741〜743に含まれる複数の係数a,b,c,d(ただし、n=1〜7)が決定される。その後、エッジ位置取得部53により、上記モデル関数72に基づいて、2つの線状パターン要素82の4つのエッジ84の位置が求められる。 As described above, in the edge position detection device 50 of the pattern measurement device 1, in the inspection image 81 showing the pattern element group 83 on the substrate 9, the luminance profile 71 in the cross direction (x direction) is the profile acquisition unit. 51. Subsequently, for a luminance profile 71 having four concave portions 851 to 854 and three convex portions 861 to 863 arranged alternately in the intersecting direction, four bell-shaped functions corresponding to the four concave portions 851 to 854 While the left-right symmetric model function 72 that combines the three bell-shaped functions 741 to 743 corresponding to the three convex portions 861 to 863 satisfies the constraint condition based on the design data of the pattern element group 83, Fitting is performed by the calculation unit 52. A plurality of coefficients a n , b n , c n , d n (where n = 1 to 7) included in the four bell type functions 731 to 734 and the three bell type functions 741 to 743 of the model function 72 are obtained. It is determined. Thereafter, the edge position acquisition unit 53 obtains the positions of the four edges 84 of the two linear pattern elements 82 based on the model function 72.

このように、エッジ位置検出装置50では、輝度プロファイル71に対して上記モデル関数72をフィッティングすることにより、輝度プロファイル71においてエッジ84を示す傾斜部の勾配が小さい場合や、近接して配置された線状パターン要素82間の背景領域と線状パターン要素82とのコントラストが低い場合等であっても、エッジ84の位置を高精度に求めることができる。すなわち、エッジ位置検出装置50では、比較的低い解像度にて取得された検査画像81においても、エッジ位置を高精度に検出することができる。その結果、パターン測定装置1では、各線状パターン要素82の線幅を高精度に測定することができる。   As described above, in the edge position detection device 50, by fitting the model function 72 to the luminance profile 71, the gradient of the inclined portion indicating the edge 84 in the luminance profile 71 is small or arranged close to the luminance profile 71. Even when the contrast between the background area between the linear pattern elements 82 and the linear pattern elements 82 is low, the position of the edge 84 can be obtained with high accuracy. That is, the edge position detection device 50 can detect the edge position with high accuracy even in the inspection image 81 acquired at a relatively low resolution. As a result, the pattern measuring apparatus 1 can measure the line width of each linear pattern element 82 with high accuracy.

上述のように、エッジ位置検出装置50では、4つの釣鐘型関数731〜734および3つの釣鐘型関数741〜743がそれぞれ、ガウス関数である。これにより、輝度プロファイル71に対してモデル関数72を高精度にフィッティングすることができる。その結果、エッジ位置取得部53によるエッジ位置の検出精度を向上することができる。また、各線状パターン要素82の線幅の測定精度を向上することもできる。   As described above, in the edge position detection device 50, the four bell-shaped functions 731 to 734 and the three bell-shaped functions 741 to 743 are Gaussian functions, respectively. As a result, the model function 72 can be fitted to the luminance profile 71 with high accuracy. As a result, the edge position detection accuracy by the edge position acquisition unit 53 can be improved. Moreover, the measurement accuracy of the line width of each linear pattern element 82 can be improved.

エッジ位置検出装置50は、上述のように、近接して配置された線状パターン要素82間の背景領域と線状パターン要素82とのコントラストが低い場合であっても、エッジ位置を高精度に検出することができる。したがって、エッジ位置検出装置50は、パターン要素群83を構成する線状パターン要素82の数が2、または、3以上の場合のエッジ位置の検出に特に適している。さらには、エッジ位置検出装置50は、線状パターン要素82が微細かつ近接している場合、例えば、線状パターン要素82の数が2であるパターン要素群83が、微細測長用パターンに含まれる場合に特に適している。   As described above, the edge position detection device 50 accurately determines the edge position even when the contrast between the background area between the linear pattern elements 82 arranged close to each other and the linear pattern element 82 is low. Can be detected. Therefore, the edge position detection device 50 is particularly suitable for detecting edge positions when the number of linear pattern elements 82 constituting the pattern element group 83 is two, three or more. Furthermore, when the linear pattern elements 82 are fine and close to each other, the edge position detection device 50 includes, for example, a pattern element group 83 in which the number of the linear pattern elements 82 is two in the fine length measurement pattern. It is particularly suitable when

図9は、他の検査画像81aを示す図である。図9に示す検査画像81aでは、図2に示す検査画像81と同様に、互いに略平行な2つの線状パターン要素82により構成されるパターン要素群83が示される。検査画像81aは、図2に示す検査画像81を取得したカメラよりも低い解像度のカメラにて取得された画像である。したがって、検査画像81aでは、図2に示す検査画像81に比べて、2つの線状パターン要素82間の背景領域と線状パターン要素82とのコントラストが低い。   FIG. 9 is a diagram showing another inspection image 81a. In the inspection image 81a shown in FIG. 9, a pattern element group 83 composed of two linear pattern elements 82 that are substantially parallel to each other is shown, like the inspection image 81 shown in FIG. The inspection image 81a is an image acquired by a camera having a lower resolution than the camera that acquired the inspection image 81 shown in FIG. Therefore, in the inspection image 81a, the contrast between the background region between the two linear pattern elements 82 and the linear pattern elements 82 is lower than that of the inspection image 81 shown in FIG.

図10は、図9に示す検査画像81aから、プロファイル取得部51(図3参照)により取得された輝度プロファイル71aを示す図である。上述のように、検査画像81aでは、2つの線状パターン要素82間の背景領域と線状パターン要素82とのコントラストが低いため、仮に所定の輝度(閾値)にて検査画像81aを二値化してエッジ位置を求めようとすると、当該閾値を僅かに変更するだけで、算出されるエッジ位置が大きく変化してしまう。   FIG. 10 is a diagram showing a luminance profile 71a acquired by the profile acquisition unit 51 (see FIG. 3) from the inspection image 81a shown in FIG. As described above, in the inspection image 81a, since the contrast between the background area between the two linear pattern elements 82 and the linear pattern element 82 is low, the inspection image 81a is binarized at a predetermined luminance (threshold). When the edge position is obtained, the calculated edge position changes greatly only by slightly changing the threshold value.

これに対し、上述のエッジ位置検出装置50では、図11に示すように、輝度プロファイル71aに対して上記モデル関数72をフィッティングし、当該モデル関数72に基づいてエッジ位置を求めることにより、比較的低い解像度にて取得された検査画像81においても、エッジ位置を高精度に検出することができる。その結果、パターン測定装置1では、各線状パターン要素82の線幅を高精度に測定することができる。   On the other hand, in the above-described edge position detection device 50, as shown in FIG. 11, the model function 72 is fitted to the luminance profile 71a, and the edge position is obtained based on the model function 72. Even in the inspection image 81 acquired at a low resolution, the edge position can be detected with high accuracy. As a result, the pattern measuring apparatus 1 can measure the line width of each linear pattern element 82 with high accuracy.

エッジ位置検出装置50では、ステップS14においてモデル関数72に基づいてエッジ84の位置を求める際に、モデル関数72が補正されてもよい。例えば、ステップS14は、図12に示すように、モデル関数72の補正に係るステップS141,S142を備える。   In the edge position detection device 50, the model function 72 may be corrected when the position of the edge 84 is obtained based on the model function 72 in step S14. For example, step S14 includes steps S141 and S142 related to the correction of the model function 72 as shown in FIG.

この場合、図4に示すステップS11〜S13の終了後、図11に示すモデル関数72の複数の係数a,b,c,d(ただし、n=1〜7)が、エッジ位置取得部53(図3参照)により補正される。これにより、図13に示すように、4つの凹部851〜854に対応する各凹部871a〜874aの極値(最小値)と3つの凸部861〜863に対応する各凸部881a〜883aの極値(最大値)との差が、モデル関数72および輝度プロファイル71aよりも拡大された補正モデル関数75が取得される(ステップS141)。図13では、補正モデル関数75を実線にて示し、モデル関数72および輝度プロファイル71をそれぞれ破線および一点鎖線にて示す。 In this case, after completion of step S11~S13 shown in FIG. 4, a plurality of coefficients a n model function 72 shown in FIG. 11, b n, c n, d n ( however, n = 1 to 7) is edge position Correction is performed by the acquisition unit 53 (see FIG. 3). As a result, as shown in FIG. 13, the extreme values (minimum values) of the concave portions 871 a to 874 a corresponding to the four concave portions 851 to 854 and the poles of the convex portions 881 a to 883 a corresponding to the three convex portions 861 to 863. A correction model function 75 in which a difference from the value (maximum value) is larger than that of the model function 72 and the luminance profile 71a is acquired (step S141). In FIG. 13, the correction model function 75 is indicated by a solid line, and the model function 72 and the luminance profile 71 are indicated by a broken line and a one-dot chain line, respectively.

そして、エッジ位置取得部53により、補正モデル関数75に基づいて2つの線状パターン要素82の4つのエッジ84の位置が求められる(ステップS142)。ステップS142では、例えば、モデル関数72の各凹部871〜874(図11参照)の最小値と、パターン要素群83の周囲の背景領域における輝度(図13では、1.0)との差の約10%だけ、各凹部871〜874の最小値よりも大きい輝度4.0を閾値として、当該閾値と補正モデル関数75の各凹部871a〜874aとの交点が求められる。そして、各凹部871a〜874aの最小値よりも背景領域に近い側の交点856が、エッジ84(図9参照)のx方向における位置として求められる。   Then, the edge position acquisition unit 53 obtains the positions of the four edges 84 of the two linear pattern elements 82 based on the correction model function 75 (step S142). In step S142, for example, the difference between the minimum value of each of the concave portions 871 to 874 (see FIG. 11) of the model function 72 and the luminance (1.0 in FIG. 13) in the background region around the pattern element group 83 is approximately. Taking luminance 4.0, which is 10% higher than the minimum value of each of the recesses 871 to 874 as a threshold, intersections between the threshold and the recesses 871a to 874a of the correction model function 75 are obtained. Then, an intersection point 856 closer to the background area than the minimum value of each of the recesses 871a to 874a is obtained as the position in the x direction of the edge 84 (see FIG. 9).

このように、エッジ位置取得部53では、4つの凹部871a〜874aの極値と3つの凸部881a〜883aの極値との差が拡大された補正モデル関数75がモデル関数72に基づいて取得され、当該補正モデル関数75に基づいてエッジ84のx方向における位置が求められる。これにより、凹部871a〜874aが極値(最小値)となる位置以外の位置をエッジ84の位置とする場合であっても、補正モデル関数75の凹部871a〜874aの傾きが大きいため、エッジ位置をさらに高精度に検出することができる。その結果、パターン測定装置1では、ステップS15において、各線状パターン要素82の線幅を高精度に求めることができる。   As described above, the edge position acquisition unit 53 acquires, based on the model function 72, the corrected model function 75 in which the difference between the extreme values of the four concave portions 871a to 874a and the extreme values of the three convex portions 881a to 883a is enlarged. Based on the correction model function 75, the position of the edge 84 in the x direction is obtained. Thereby, even when the positions other than the positions where the recesses 871a to 874a are extreme values (minimum values) are set as the positions of the edge 84, the inclinations of the recesses 871a to 874a of the correction model function 75 are large. Can be detected with higher accuracy. As a result, the pattern measuring apparatus 1 can obtain the line width of each linear pattern element 82 with high accuracy in step S15.

上述の検査画像81,81aにて示されるパターン要素群83は、基板9上においてy方向を向く1つの線状パターン要素82であってもよい。この場合、プロファイル取得部51により取得される輝度プロファイル71bは、図14に示すように、線状パターン要素82の2つのエッジに対応する2つの凹部851,852と、線状パターン要素82の2つのエッジ間の領域に対応する1つの凸部861とを有する。   The pattern element group 83 indicated by the inspection images 81 and 81a described above may be one linear pattern element 82 that faces the y direction on the substrate 9. In this case, the luminance profile 71b acquired by the profile acquisition unit 51 includes two concave portions 851 and 852 corresponding to the two edges of the linear pattern element 82 and two linear pattern elements 82, as shown in FIG. And one convex portion 861 corresponding to a region between two edges.

演算部52では、当該輝度プロファイル71bに対して、2つの凹部851,852に対応する2つの釣鐘型関数と1つの凸部861に対応する1つの釣鐘型関数とを合成した左右対称なモデル関数72bをフィッティングする。当該フィッティングは、パターン要素群83(すなわち、1つの線状パターン要素82)の設計データに基づく拘束条件を満たしつつ行われ、モデル関数72bの上記3つの釣鐘型関数に含まれる複数の係数が決定される。そして、エッジ位置取得部53により、モデル関数72bに基づいて上記2つのエッジのx方向における位置が求められる。これにより、比較的低い解像度にて取得された検査画像においても、エッジ位置を高精度に検出することができる。   In the calculation unit 52, a symmetrical model function in which two bell-shaped functions corresponding to the two concave portions 851 and 852 and one bell-shaped function corresponding to one convex portion 861 are synthesized with respect to the luminance profile 71b. Fitting 72b. The fitting is performed while satisfying the constraint condition based on the design data of the pattern element group 83 (that is, one linear pattern element 82), and a plurality of coefficients included in the three bell-shaped functions of the model function 72b are determined. Is done. Then, the edge position acquisition unit 53 obtains the positions of the two edges in the x direction based on the model function 72b. As a result, the edge position can be detected with high accuracy even in an inspection image acquired at a relatively low resolution.

このように、エッジ位置の算出に利用される輝度プロファイルでは、凹部の数、および、凹部よりも1つ少ない凸部の数は、適宜変更されてよい。すなわち、検査画像に示される輝度プロファイルは、m個(ただし、mは2以上の自然数)の凹部と、(m−1)個の凸部とを有し、輝度プロファイルに対してフィッティングされるモデル関数は、m個の凹部に対応するm個の釣鐘型関数と、(m−1)個の凸部に対応する(m−1)個の釣鐘型関数とを合成した関数である。上記凹部は、上述のように線状パターン要素のエッジに対応するため、mは好ましくは偶数である。   As described above, in the luminance profile used for calculating the edge position, the number of concave portions and the number of convex portions one less than the concave portions may be appropriately changed. That is, the luminance profile shown in the inspection image has m concave portions (where m is a natural number of 2 or more) and (m−1) convex portions, and is a model fitted to the luminance profile. The function is a function obtained by combining m bell-shaped functions corresponding to m concave portions and (m−1) bell-shaped functions corresponding to (m−1) convex portions. Since the recess corresponds to the edge of the linear pattern element as described above, m is preferably an even number.

なお、輝度プロファイルの凹部は、線状パターン要素82のエッジ以外の領域に対応する場合も考えられる。例えば、パターン要素群83が1つの線状パターン要素82により構成され、当該線状パターン要素82の2つのエッジ84およびx方向の中央部が、検査画像81上において暗く表示され、それ以外の部位が明るく表示される場合、輝度プロファイルは、2つのエッジ84および中央部に対応する3つの凹部と、当該3つの凹部の間に位置する2つの凸部とを有する。   The concave portion of the luminance profile may correspond to a region other than the edge of the linear pattern element 82. For example, the pattern element group 83 is configured by one linear pattern element 82, the two edges 84 of the linear pattern element 82 and the central portion in the x direction are darkly displayed on the inspection image 81, and the other parts Is displayed brightly, the luminance profile has two edges 84 and three concave portions corresponding to the central portion, and two convex portions located between the three concave portions.

上述のパターン測定装置1およびエッジ位置検出装置50では、様々な変更が可能である。   Various changes can be made in the pattern measuring apparatus 1 and the edge position detecting apparatus 50 described above.

例えば、プロファイル取得部51では、x方向に並ぶ複数の画素である1つの画素列における輝度の変化が輝度プロファイルとされてもよい。ただし、ノイズ等の影響を抑制するには、x方向の各画素位置において、y方向に並ぶ複数の画素の輝度の平均値や中央値、最頻値等の代表値が求められ、当該画素位置の輝度を当該代表値とする輝度プロファイルが求められることが好ましい。   For example, in the profile acquisition unit 51, a change in luminance in one pixel column that is a plurality of pixels arranged in the x direction may be used as the luminance profile. However, in order to suppress the influence of noise or the like, a representative value such as an average value, median value, or mode value of a plurality of pixels arranged in the y direction is obtained at each pixel position in the x direction. It is preferable that a luminance profile having the luminance of the representative value as the representative value is obtained.

上述のように、パターン要素群83を構成する線状パターン要素82の数は、1であってもよく、2以上であってもよい。また、パターン要素群83は、微細測長用パターン以外の様々なパターンの一部または全体であってよい。   As described above, the number of linear pattern elements 82 constituting the pattern element group 83 may be one or two or more. The pattern element group 83 may be a part or the whole of various patterns other than the fine length measurement pattern.

上記説明では、モデル関数72,72bは、複数のガウス関数を合成した関数であるが、演算部52により輝度プロファイルに対してフィッティングされるモデル関数は、ガウス関数以外の様々な釣鐘型関数(例えば、ロジスティック関数や、正弦関数または余弦関数の半周期分)を合成した関数であってもよい。   In the above description, the model functions 72 and 72b are functions obtained by synthesizing a plurality of Gauss functions. However, the model functions fitted to the luminance profile by the calculation unit 52 are various bell-shaped functions other than the Gauss functions (for example, , A logistic function, or a function obtained by synthesizing a half period of a sine function or cosine function.

ステップS14において補正モデル関数75を取得しない場合、4つのエッジ84の位置は、必ずしも係数C,C,C,Cに等しい値である必要はなく、モデル関数72に基づいて求められていればよい。例えば、補正モデル関数75が取得されるケース(図14参照)にて説明したように、所定の閾値とモデル関数72の各凹部871〜874との交点がエッジ位置として求められてもよい。 When the correction model function 75 is not acquired in step S14, the positions of the four edges 84 are not necessarily equal to the coefficients C 1 , C 3 , C 5 , and C 7 , and are obtained based on the model function 72. It only has to be. For example, as described in the case where the correction model function 75 is acquired (see FIG. 14), intersections between a predetermined threshold value and the recesses 871 to 874 of the model function 72 may be obtained as edge positions.

パターン測定装置1では、エッジ位置検出装置50により検出された線状パターン要素82のエッジ位置に基づいて、当該線状パターン要素82の基板9上における位置等が取得されてもよい。また、エッジ位置検出装置50は、パターン測定装置1から独立して利用されてもよい。これらの場合、エッジ位置検出装置50により、パターン要素群83に含まれる少なくとも1つのエッジ84が、上記モデル関数に基づいて、または、上記モデル関数に基づく補正モデル関数に基づいて求められる。   In the pattern measuring apparatus 1, the position of the linear pattern element 82 on the substrate 9 may be acquired based on the edge position of the linear pattern element 82 detected by the edge position detection apparatus 50. Further, the edge position detection device 50 may be used independently from the pattern measurement device 1. In these cases, the edge position detection device 50 determines at least one edge 84 included in the pattern element group 83 based on the model function or based on the correction model function based on the model function.

パターン測定装置1およびエッジ位置検出装置50における処理の対象物は、線状パターン要素が形成された基板9以外に、線状パターン要素が形成されたフィルム状の基材等であってもよい。   An object to be processed in the pattern measuring device 1 and the edge position detecting device 50 may be a film-like base material on which linear pattern elements are formed, in addition to the substrate 9 on which linear pattern elements are formed.

上記実施の形態および各変形例における構成は、相互に矛盾しない限り適宜組み合わされてよい。   The configurations in the above-described embodiments and modifications may be combined as appropriate as long as they do not contradict each other.

9 基板
50 エッジ位置検出装置
51 プロファイル取得部
52 演算部
53 エッジ位置取得部
71,71a,71b 輝度プロファイル
72,72b モデル関数
75 補正モデル関数
81,81a 検査画像
82 線状パターン要素
83 パターン要素群
84 エッジ
731〜734,741〜743 釣鐘型関数
851〜854 (輝度プロファイルの)凹部
861〜863 (輝度プロファイルの)凸部
871a〜874a (補正モデル関数の)凹部
881a〜883a (補正モデル関数の)凸部
S11〜S15,S141,S142 ステップ
DESCRIPTION OF SYMBOLS 9 Board | substrate 50 Edge position detection apparatus 51 Profile acquisition part 52 Calculation part 53 Edge position acquisition part 71,71a, 71b Luminance profile 72,72b Model function 75 Correction | amendment model function 81,81a Inspection image 82 Linear pattern element 83 Pattern element group 84 Edges 731 to 734, 741 to 743 Bell-shaped functions 851 to 854 (luminance profile) concave portions 861 to 863 (luminance profile) convex portions 871a to 874a (correction model function) concave portions 881a to 883a (correction model function) convex portions Part S11-S15, S141, S142 Step

Claims (10)

対象物上において第1の方向を向く1つの線状パターン要素、または、前記第1の方向に垂直な第2の方向に配列された前記第1の方向を向く複数の線状パターン要素であるパターン要素群を示す画像において、前記パターン要素群に含まれる少なくとも1つのエッジの前記第2の方向における位置を検出するエッジ位置検出装置であって、
前記対象物上の前記パターン要素群を示す画像において、前記第2の方向に平行であって前記パターン要素群に交差する交差方向における輝度プロファイルを取得するプロファイル取得部と、
前記交差方向において交互に配置されるm個の凹部と(m−1)個の凸部とを有する前記輝度プロファイルに対して、前記m個の凹部に対応するm個の釣鐘型関数と前記(m−1)個の凸部に対応する(m−1)個の釣鐘型関数とを合成した前記交差方向において左右対称なモデル関数を、前記パターン要素群の設計データに基づく拘束条件を満たしつつフィッティングし、前記モデル関数の前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数に含まれる複数の係数を決定する演算部と、
前記モデル関数に基づいて前記少なくとも1つのエッジの位置を求めるエッジ位置取得部と、
を備えることを特徴とするエッジ位置検出装置。
One linear pattern element facing the first direction on the object, or a plurality of linear pattern elements facing the first direction arranged in a second direction perpendicular to the first direction In an image showing a pattern element group, an edge position detection device for detecting a position in the second direction of at least one edge included in the pattern element group,
In an image showing the pattern element group on the object, a profile acquisition unit that acquires a luminance profile in an intersecting direction that is parallel to the second direction and intersects the pattern element group;
For the luminance profile having m concave portions and (m−1) convex portions arranged alternately in the intersecting direction, m bell-shaped functions corresponding to the m concave portions and the ( m-1) A model function that is symmetric in the crossing direction, synthesized with (m-1) bell-shaped functions corresponding to the convex portions, while satisfying the constraint condition based on the design data of the pattern element group A calculation unit that performs fitting and determines a plurality of coefficients included in the m bell-shaped functions and the (m−1) bell-shaped functions of the model function;
An edge position acquisition unit for determining a position of the at least one edge based on the model function;
An edge position detection apparatus comprising:
請求項1に記載のエッジ位置検出装置であって、
前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数がそれぞれ、ガウス関数であることを特徴とするエッジ位置検出装置。
The edge position detection device according to claim 1,
The edge position detecting device, wherein each of the m bell-shaped functions and the (m−1) bell-shaped functions is a Gaussian function.
請求項1または2に記載のエッジ位置検出装置であって、
前記エッジ位置取得部が、前記モデル関数の前記複数の係数を補正することにより、前記m個の凹部に対応する各凹部の極値と前記(m−1)個の凸部に対応する各凸部の極値との差が、前記輝度プロファイルよりも拡大された補正モデル関数を取得し、前記補正モデル関数に基づいて前記少なくとも1つのエッジの位置を求めることを特徴とするエッジ位置検出装置。
The edge position detection device according to claim 1 or 2,
The edge position acquisition unit corrects the plurality of coefficients of the model function, whereby the extreme values of the concave portions corresponding to the m concave portions and the convexes corresponding to the (m−1) convex portions. An edge position detection apparatus, wherein a correction model function whose difference from an extreme value of a part is larger than that of the luminance profile is obtained, and the position of the at least one edge is obtained based on the correction model function.
請求項1ないし3のいずれかに記載のエッジ位置検出装置であって、
前記パターン要素群を構成する線状パターン要素の数が2であることを特徴とするエッジ位置検出装置。
The edge position detection device according to any one of claims 1 to 3,
2. An edge position detecting device, wherein the number of linear pattern elements constituting the pattern element group is two.
請求項4に記載のエッジ位置検出装置であって、
前記パターン要素群が、微細測長用パターンに含まれることを特徴とするエッジ位置検出装置。
The edge position detection device according to claim 4,
The edge position detection apparatus, wherein the pattern element group is included in a fine length measurement pattern.
対象物上において第1の方向を向く1つの線状パターン要素、または、前記第1の方向に垂直な第2の方向に配列された前記第1の方向を向く複数の線状パターン要素であるパターン要素群を示す画像において、前記パターン要素群に含まれる少なくとも1つのエッジの前記第2の方向における位置を検出するエッジ位置検出方法であって、
a)前記対象物上の前記パターン要素群を示す画像において、前記第2の方向に平行であって前記パターン要素群に交差する交差方向における輝度プロファイルを取得する工程と、
b)前記交差方向において交互に配置されるm個の凹部と(m−1)個の凸部とを有する前記輝度プロファイルに対して、前記m個の凹部に対応するm個の釣鐘型関数と前記(m−1)個の凸部に対応する(m−1)個の釣鐘型関数とを合成した前記交差方向において左右対称なモデル関数を、前記パターン要素群の設計データに基づく拘束条件を満たしつつフィッティングし、前記モデル関数の前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数に含まれる複数の係数を決定する工程と、
c)前記モデル関数に基づいて前記少なくとも1つのエッジの位置を求める工程と、
を備えることを特徴とするエッジ位置検出方法。
One linear pattern element facing the first direction on the object, or a plurality of linear pattern elements facing the first direction arranged in a second direction perpendicular to the first direction In an image showing a pattern element group, an edge position detection method for detecting a position in the second direction of at least one edge included in the pattern element group,
a) obtaining an intensity profile in an intersecting direction parallel to the second direction and intersecting the pattern element group in an image showing the pattern element group on the object;
b) For the luminance profile having m concave portions and (m−1) convex portions alternately arranged in the intersecting direction, m bell-shaped functions corresponding to the m concave portions, A model function that is symmetric in the intersecting direction obtained by synthesizing the (m−1) bell-shaped functions corresponding to the (m−1) convex portions, and a constraint condition based on the design data of the pattern element group is set. Fitting while satisfying and determining a plurality of coefficients included in the m bell-shaped functions and the (m−1) bell-shaped functions of the model function;
c) determining the position of the at least one edge based on the model function;
An edge position detection method comprising:
請求項6に記載のエッジ位置検出方法であって、
前記m個の釣鐘型関数および前記(m−1)個の釣鐘型関数がそれぞれ、ガウス関数であることを特徴とするエッジ位置検出方法。
The edge position detection method according to claim 6,
The edge position detection method, wherein each of the m bell-shaped functions and the (m−1) bell-shaped functions are Gaussian functions.
請求項6または7に記載のエッジ位置検出方法であって、
前記c)工程が、
c1)前記モデル関数の前記複数の係数を補正することにより、前記m個の凹部に対応する各凹部の極値と前記(m−1)個の凸部に対応する各凸部の極値との差が、前記輝度プロファイルよりも拡大された補正モデル関数を取得する工程と、
c2)前記補正モデル関数に基づいて前記少なくとも1つのエッジの位置を求める工程と、
を備えることを特徴とするエッジ位置検出方法。
The edge position detection method according to claim 6 or 7,
Step c)
c1) By correcting the plurality of coefficients of the model function, an extreme value of each concave portion corresponding to the m concave portions and an extreme value of each convex portion corresponding to the (m−1) convex portions Obtaining a corrected model function in which the difference is larger than the luminance profile;
c2) determining a position of the at least one edge based on the correction model function;
An edge position detection method comprising:
請求項6ないし8のいずれかに記載のエッジ位置検出方法であって、
前記パターン要素群を構成する線状パターン要素の数が2であることを特徴とするエッジ位置検出方法。
The edge position detection method according to any one of claims 6 to 8,
An edge position detecting method, wherein the number of linear pattern elements constituting the pattern element group is two.
請求項9に記載のエッジ位置検出方法であって、
前記パターン要素群が、微細測長用パターンに含まれることを特徴とするエッジ位置検出方法。
The edge position detection method according to claim 9,
The edge position detection method, wherein the pattern element group is included in a fine length measurement pattern.
JP2014174879A 2014-08-29 2014-08-29 Edge position detection device and edge position detection method Active JP6355487B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014174879A JP6355487B2 (en) 2014-08-29 2014-08-29 Edge position detection device and edge position detection method
TW104123907A TWI550252B (en) 2014-08-29 2015-07-23 Edge position detecting apparatus and edge position detecting method
KR1020150105158A KR101692159B1 (en) 2014-08-29 2015-07-24 Edge position detecting apparatus and edge position detecting method
CN201510494002.5A CN105387808B (en) 2014-08-29 2015-08-12 Marginal position detection device and edge position detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014174879A JP6355487B2 (en) 2014-08-29 2014-08-29 Edge position detection device and edge position detection method

Publications (2)

Publication Number Publication Date
JP2016050794A true JP2016050794A (en) 2016-04-11
JP6355487B2 JP6355487B2 (en) 2018-07-11

Family

ID=55420367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014174879A Active JP6355487B2 (en) 2014-08-29 2014-08-29 Edge position detection device and edge position detection method

Country Status (4)

Country Link
JP (1) JP6355487B2 (en)
KR (1) KR101692159B1 (en)
CN (1) CN105387808B (en)
TW (1) TWI550252B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056293A (en) * 2019-09-27 2021-04-08 Hoya株式会社 Pattern inspection method, inspection device for photomask, manufacturing method for photomask, and manufacturing method for display device
JP2021085772A (en) * 2019-11-28 2021-06-03 株式会社キーエンス Image measuring device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345315A (en) * 1998-06-01 1999-12-14 Nec Corp Picture aligning method and device therefor, and recording medium
JP2001165635A (en) * 1999-12-09 2001-06-22 Sony Corp Inspection device
US20090231574A1 (en) * 2008-02-22 2009-09-17 Trimble Navigation Limited Method and system for angle measurement
JP2011242299A (en) * 2010-05-19 2011-12-01 Sharp Corp Detection device and data processing method of the same
JP2012073177A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Edge position detecting device, pattern measuring device, edge position detecting method and pattern measuring method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10047211B4 (en) * 2000-09-23 2007-03-22 Leica Microsystems Semiconductor Gmbh Method and device for determining the position of an edge of a structural element on a substrate
CN1306244C (en) * 2005-06-16 2007-03-21 姚晓栋 On-the-spot printing circuit board test based on digital image
JP4915166B2 (en) * 2006-08-04 2012-04-11 日本電気株式会社 Blur filter design method
TWI398157B (en) * 2006-08-11 2013-06-01 Hon Hai Prec Ind Co Ltd System and method for boundary scan of an image
US7889355B2 (en) * 2007-01-31 2011-02-15 Zygo Corporation Interferometry for lateral metrology
DE102009022316B3 (en) * 2009-05-22 2010-08-19 Eastman Kodak Company Method and device for detecting a substrate edge in a printing machine
CN101619964A (en) * 2009-05-26 2010-01-06 北京理工大学 Quick microscopic detection method and quick microscopic detection device of micro accessory based on process match
JP5561178B2 (en) * 2010-04-09 2014-07-30 新日鐵住金株式会社 Surface defect inspection apparatus, surface defect inspection method, and program
CN101839690B (en) * 2010-04-13 2011-12-21 河海大学常州校区 Visual inspection method for chip electronic component position error based on edge fitting
DE102010037746B4 (en) * 2010-09-23 2013-01-24 Carl Mahr Holding Gmbh Method for optically sensing an edge in or on a surface area

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345315A (en) * 1998-06-01 1999-12-14 Nec Corp Picture aligning method and device therefor, and recording medium
JP2001165635A (en) * 1999-12-09 2001-06-22 Sony Corp Inspection device
US20090231574A1 (en) * 2008-02-22 2009-09-17 Trimble Navigation Limited Method and system for angle measurement
JP2011242299A (en) * 2010-05-19 2011-12-01 Sharp Corp Detection device and data processing method of the same
JP2012073177A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Edge position detecting device, pattern measuring device, edge position detecting method and pattern measuring method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056293A (en) * 2019-09-27 2021-04-08 Hoya株式会社 Pattern inspection method, inspection device for photomask, manufacturing method for photomask, and manufacturing method for display device
JP7229138B2 (en) 2019-09-27 2023-02-27 Hoya株式会社 Pattern inspection method, photomask inspection apparatus, photomask manufacturing method, and display device manufacturing method
JP2021085772A (en) * 2019-11-28 2021-06-03 株式会社キーエンス Image measuring device
JP7280810B2 (en) 2019-11-28 2023-05-24 株式会社キーエンス Image measuring device

Also Published As

Publication number Publication date
CN105387808B (en) 2018-06-08
KR20160026675A (en) 2016-03-09
TW201610390A (en) 2016-03-16
TWI550252B (en) 2016-09-21
CN105387808A (en) 2016-03-09
KR101692159B1 (en) 2017-01-02
JP6355487B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
US20060133660A1 (en) Apparatus and method for detecting defect existing in pattern on object
JP2008175549A (en) Defect detection device and method
JP2008185514A (en) Substrate visual inspection apparatus
US20180278911A1 (en) Apparatus and method for three-dimensional inspection
JP2011112374A (en) Gap/step measuring instrument, method of gap/step measurement, and program therefor
JP2006276454A (en) Image correcting method and pattern defect inspecting method using same
TWI609178B (en) Pattern inspection device and pattern inspection method
JP6355487B2 (en) Edge position detection device and edge position detection method
TW201632998A (en) Data correcting apparatus, drawing apparatus, inspection apparatus, data correcting method, drawing method, inspection method and recording medium
JP4730895B2 (en) Needle mark detection device and needle mark detection method
KR102227341B1 (en) Position shift amount acquisition device, inspection device, position shift amount acquisition method and inspection method
KR20140113449A (en) Drawing data generating method, drawing method, drawing data generating apparatus and drawing apparatus
JP6510823B2 (en) Overlay measuring apparatus and overlay measuring method
JP2009250937A (en) Pattern inspection device and method
JP6355544B2 (en) Position measuring apparatus, data correcting apparatus, position measuring method and data correcting method
KR101385592B1 (en) Vision recognition method and system thereof
JP6276661B2 (en) Image processing device
JP2018017608A (en) Method and device for inspecting circuit board
JP2017133868A (en) Pattern inspection device and pattern inspection method
JP5300670B2 (en) Pattern inspection apparatus and manufacturing method of structure having pattern
JP2008203229A (en) Terminal position detecting method of electronic component
TW201824183A (en) Striated region detection device, striated region detection method, and program
JP2005292017A (en) Apparatus for acquiring amount of position deviation, and defect detector
JP2008151568A (en) Inspection method of photomask, and inspection device of photomask
JP2005030996A (en) Inspection method of substrate having repeated pattern

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R150 Certificate of patent or registration of utility model

Ref document number: 6355487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250