WO2005001593A2 - 基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置 - Google Patents

基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置 Download PDF

Info

Publication number
WO2005001593A2
WO2005001593A2 PCT/JP2004/008982 JP2004008982W WO2005001593A2 WO 2005001593 A2 WO2005001593 A2 WO 2005001593A2 JP 2004008982 W JP2004008982 W JP 2004008982W WO 2005001593 A2 WO2005001593 A2 WO 2005001593A2
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
area
unique
reference pattern
predetermined
Prior art date
Application number
PCT/JP2004/008982
Other languages
English (en)
French (fr)
Other versions
WO2005001593A3 (ja
WO2005001593A1 (ja
Inventor
Yuji Kokumai
Shinichi Nakajima
Original Assignee
Nippon Kogaku Kk
Yuji Kokumai
Shinichi Nakajima
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Kogaku Kk, Yuji Kokumai, Shinichi Nakajima filed Critical Nippon Kogaku Kk
Priority to JP2005511046A priority Critical patent/JP4389871B2/ja
Publication of WO2005001593A2 publication Critical patent/WO2005001593A2/ja
Publication of WO2005001593A1 publication Critical patent/WO2005001593A1/ja
Publication of WO2005001593A3 publication Critical patent/WO2005001593A3/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7092Signal processing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically
    • G03F9/70Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically for microlithography
    • G03F9/7088Alignment mark detection, e.g. TTR, TTL, off-axis detection, array detector, video detection

Definitions

  • Reference pattern extraction method and device pattern matching method and device, position detection method and device, exposure method and device
  • the present invention relates to an exposure method in a lithography process for manufacturing an electronic device such as a semiconductor device, a liquid crystal display device, a plasma display device, and a thin film magnetic head, and particularly to a wafer reticle and the like in an exposure apparatus.
  • the present invention relates to a method and an apparatus for detecting a position to be detected, and an exposure method and an apparatus for performing exposure based on a detected position.
  • an exposure apparatus is used to form fine particles formed on a mask reticle (hereinafter collectively referred to as a reticle).
  • a pattern image is repeatedly projected and exposed on a substrate such as a semiconductor wafer or a glass plate coated with a photosensitive agent.
  • the exposure apparatus it is necessary to match the position of the substrate with the position of the image of the projected pattern with high accuracy.
  • the patterns formed have become extremely fine with the improvement in the degree of integration in recent years. Therefore, in order to manufacture a semiconductor device having desired performance, very high-precision alignment is required.
  • the alignment in the exposure apparatus is performed by detecting an alignment mark (hereinafter, sometimes simply referred to as a mark or a pattern) formed on a substrate reticle by an alignment sensor and detecting the position of the substrate or the like. And controlling the position.
  • Various methods are used to detect the position of the mark.
  • alignment sensors of the FIA (Field Image Alignment) type which detects the position of the mark by image processing, have been used. I have.
  • a signal pattern signal, n-dimensional signal
  • image processing there is known a template matching method for detecting a mark by comparing (matching) a captured image with a reference pattern (template) corresponding to a mark signal prepared in advance ( For example, see Patent Document 1).
  • Patent Document 1 JP 2001-210577 A
  • a template specifies a pattern extracted from actual data as a template, or information on a known pattern to be used as a template such as an alignment mark (design data of a mark or placement information on a wafer).
  • an alignment mark design data of a mark or placement information on a wafer.
  • a template cannot be set when actual data is not or cannot be obtained for creating a template, or when a pattern to be used as a template is not specified.
  • the method of selecting a template by the operator is considered as a force S.
  • the range of the image of the substrate surface (observation field of view) imaged at the time of the alignment is not always at a fixed position due to an error relating to the wafer loading operation and an error relating to the manufacture of the pattern. It varies within the range.
  • the pattern used as the template must be a pattern that is always included in the observation field of view. If the pattern does not exist in the observation field, it is impossible to detect it.
  • the pattern used as a template must be a unique pattern that exists only in the maximum range that can be the observation field (hereinafter, referred to as the observation field maximum range or the input data maximum range). This is because even if a plurality of patterns are detected, their positions cannot be specified.
  • the maximum range that can be the observation field increases, and conversely, the area that is always included in the observation field decreases. In some cases, there may be no region that is always included in the observation field of view. In such a situation, it is difficult or difficult to select a pattern to be used as a template, and the Plate matching cannot be performed.
  • An object of the present invention is to provide a reference pattern extraction method and apparatus capable of appropriately and efficiently extracting a reference pattern (template) effective for template matching. Specifically, it is an object of the present invention to provide a reference pattern extraction method and a reference pattern extraction method capable of extracting an effective reference pattern from the observation field maximum range without depending on a region always included in the observation field. It is another object of the present invention to provide a reference pattern extraction method and apparatus capable of generating a template capable of performing template matching effectively without requiring actual data for template creation.
  • Another object of the present invention is to provide a pattern matching method capable of appropriately performing template matching using the extracted effective reference pattern (template) to detect a desired mark or the like. It is to provide a method. Specifically, even if there is some variation in the observation visual field, a pattern that can appropriately detect a desired pattern using the template extracted from the entire range of the observation visual field maximum by the method according to the present invention. It is to provide a matching method. Another object of the present invention is to provide a pattern matching method capable of appropriately detecting a desired pattern using a template according to the present invention created without using actual data.
  • Another object of the present invention is to provide a position detecting method capable of detecting a desired pattern used for positioning and appropriately detecting the position by using such a template matching method according to the present invention. And to provide the device.
  • Another object of the present invention is to detect an exposure position of a substrate or the like by using such a position detection method according to the present invention, and to perform exposure to a desired position on a substrate or the like appropriately. It is an object of the present invention to provide an optical method and an apparatus therefor.
  • the reference pattern extraction method of the present invention provides a method for extracting a surface smaller than the predetermined area (OR-Area) arbitrarily arranged in a predetermined area (OR-Area) on an object.
  • Step S410 One step and (Step S410), out of the pattern signal information obtained in the first step, at all positions where the measured area (VIEW_Area) can take within the predetermined area ( ⁇ R_Area),
  • a second step of extracting a plurality of unique patterns that can be recognized as unique within the area to be measured (VIE W_Area) for each position, and having different uniqueness step S430 and step S470
  • S Tsu having up S480 see FIGS. 11A- FIG 11C ⁇ beauty Figure 12).
  • a predetermined range such as a maximum range that can be an observation field of view (VIEW-Area) in the second step based on the pattern signal information obtained in the first step.
  • Recognition that uniqueness is different from each other within an area (OR-Area) and unique within a measurement area (VIEW-Area) arbitrarily arranged within the predetermined area (OR-Area) Multiple unique patterns are extracted.
  • all of the extracted unique patterns are set as reference patterns (templates) irrespective of the range that the measured area (VIEW-Area) can take. That is, a plurality of reference patterns are extracted from the maximum range of the observation field without depending on the area always included in the observation field.
  • the observation field of view (VIEW-Area) set during template matching, etc.
  • the observation field of view (VIEW_Area) is one of a plurality of set unique patterns.
  • the unique pattern can be detected both in the predetermined area and in the predetermined area, and the position measurement can be appropriately performed based on the position of the unique pattern.
  • each unique pattern is extracted for each specific region (element) having an area smaller than the measured region (VIEW_Area).
  • information on a pattern shape characteristic is stored in the unity.
  • the unique pattern is extracted by using the unique pattern as an index of the quality.
  • the second step in addition to the information on the pattern shape characteristics, at least one of the number of patterns having different pattern shape characteristics and their arrangement relationship is used as the index of uniqueness. While using, the unique pattern is extracted.
  • the number of patterns having the same pattern shape characteristic and / or their positional relationship is used as the index of uniqueness while using at least one of the patterns as patterns. Extract unique patterns.
  • design value information on the arrangement relation is used.
  • the information on the pattern shape characteristic is obtained by using a correlation calculation process or an SSDA method for each of the pattern signal information in the specific region with respect to the pattern signal information in the predetermined region ( ⁇ R_Area). It is obtained by performing arithmetic processing.
  • the information on the shape characteristic of the pattern is at least one of information of an SN ratio, an edge amount, an entropy amount, a variance value, and a moment amount in the pattern signal information in each of the specific regions. Calculate using the amount.
  • pattern signal information in the predetermined area is obtained using an imaging unit capable of capturing the predetermined area (OR-Area) at a time.
  • an image pickup means capable of picking up an image of the inside of the area to be measured (VIEW-Area) is used, and the position of the object to be measured at a plurality of positions is changed while changing the position of the object relative to the image pickup means
  • the pattern signal information in the predetermined area (OR_Area) is obtained by obtaining the pattern signal information in (VIEW_Area), respectively, and combining the plurality of pieces of the obtained pattern signal information.
  • the object is positioned with respect to the imaging unit using design value information on a pattern formed on the object.
  • the pattern matching method uses the reference pattern obtained by the above-described reference pattern extraction method and uses the reference area (VIEW) — Performs a correlation operation on the pattern signal information in the (Area).
  • a correlation calculation process is performed on the pattern signal information in the measured area (VIEW-Area) by sequentially using all of the plurality of unique patterns.
  • the reference pattern extraction device provides a measurement area (VIEW_Area) having an area smaller than the predetermined area (OR_Area) arbitrarily arranged in the predetermined area (OR_Area) on the object.
  • a reference pattern extracting apparatus for extracting a reference pattern having a unique signal characteristic
  • the pattern signal information acquisition means for obtaining a pattern signal information within the predetermined area (OR_Are a), the resulting said pattern From among the signal information, it is possible to recognize that each position is unique within the measured area (VIEW_Area) at all possible positions of the measured area (VIEW_Area) within the predetermined area ( ⁇ R_Area).
  • Unique pattern extracting means for extracting a plurality of unique patterns having different uniquenesses, and
  • the pattern matching device uses the reference pattern obtained by the above-described reference pattern extraction device to generate pattern signal information in the measurement area (VIEW-Area) on the object. And a correlation operation processing means for performing a correlation operation on all of the plurality of unique patterns.
  • another reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern used for identifying a predetermined pattern formed on an object, the method comprising: A first step of obtaining design value information relating to at least one of the shape of the pattern formed thereon and its arrangement information; a second step of converting the design value information into pattern signal information; and The method includes a third step of extracting a unique pattern having a unique signal feature from the information, and a fourth step of determining the reference pattern based on the unique pattern extracted in the third step.
  • a reference pattern extraction method design value information on a pattern formed on an object in the first step is obtained, and the design value information is formed on the object from the design value information in the second step.
  • the pattern signal data of the generated pattern is generated.
  • a unique pattern is extracted from the pattern signal data in the third step, and this is set as a template (reference pattern) in the fourth step.
  • the reference pattern is generated without using any pattern signal data captured from an actual object.
  • a unique pattern that is, a pattern that exists solely in the pattern detection area and whose position can be specified by detecting the pattern is automatically detected and used as a template. Therefore, even when pattern signal data cannot be obtained or when a pattern to be used as a template is not specified, an effective template can be appropriately generated.
  • the third step by performing a correlation operation process on the pattern signal information for each partial pattern signal information in the pattern signal information or an operation process using an SSDA method, The unique pattern is extracted.
  • the unique pattern is extracted while changing the size of a region obtained from the partial pattern signal information.
  • the unique pattern having the largest feature difference with respect to other patterns in the pattern signal information is referred to as the reference pattern. Determine as a pattern.
  • a reference pattern extraction device is a reference pattern extraction device for extracting a reference pattern used when identifying a predetermined pattern formed on an object, wherein the reference pattern extraction device is formed on the object.
  • Design value information obtaining means for obtaining design value information on at least one of the shape of the pattern and / or its arrangement information; information conversion means for converting the design value information into pattern signal information; and
  • a unique pattern extracting means for extracting a unique pattern having unique signal characteristics; and a reference pattern determining means for determining the reference pattern based on the extracted unique pattern.
  • a reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern used when identifying a predetermined pattern formed on an object.
  • a reference pattern extraction method first, a pattern formed on an object in the first step is imaged to obtain pattern signal data. Then, design value information on the pattern formed on the object in the second step is obtained, and a reference pattern is generated in the third step based on the design value information and the imaging pattern signal data. In other words, detection of a pattern signal to be used as a template and detection of an area of the pattern are performed based on design value information, and actual imaging data is obtained only at a point where a pattern signal to be actually used as a template is obtained. Used. Therefore, a pattern having a high correlation with the actual pattern can be set as a template. In addition, since processing can be performed in parallel with processing using design value information as appropriate, it is effective to set templates while checking and confirming the performance efficiently and each other.
  • the third step is a step of converting the design value information into pattern signal information, and a step of converting a unique pattern relating to a position of a portion having a unique signal characteristic from the converted pattern signal information.
  • a reference pattern extraction device is a reference pattern extraction device for extracting a reference pattern used when identifying a predetermined pattern formed on an object.
  • Pattern signal information obtaining means for obtaining pattern signal information
  • design value information obtaining means for obtaining design value information relating to at least one of a shape and an arrangement state of a pattern formed on the object;
  • the pattern matching method is a pattern matching method for identifying a predetermined pattern formed in a predetermined area (OR-Area) on an object, wherein the reference patterns are unique to each other.
  • the plurality of reference patterns are different from each other in pattern shape characteristics. More preferably, the plurality of reference patterns are at least one of a number of patterns having a specific shape and an arrangement relationship. Are different from each other.
  • the pattern matching device is a pattern matching device for identifying a predetermined pattern formed in a predetermined region ( ⁇ ⁇ R_Area) on an object, wherein the reference pattern has a uniqueness as each other.
  • a reference pattern preparing means for preparing a plurality of different reference patterns;
  • a pattern signal information obtaining means for capturing an image of the inside of the predetermined area (OR-Area) to obtain pattern signal information;
  • Correlation operation processing means for sequentially performing correlation operation processing on the obtained pattern signal information.
  • a reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern used when identifying a pattern formed on an object.
  • the reference pattern extraction device recognizes a pattern formed on an object.
  • a reference pattern extraction device for extracting a reference pattern used when differentiating, wherein photoelectric detection is performed on the object via an optical system having a first detection magnification to obtain first pattern signal information.
  • First information obtaining means, and predetermined area specifying means for specifying a predetermined area on the object, on the basis of the first pattern signal information, which is presumed to have a unique pattern having a unique pattern signal characteristic And the identified predetermined area
  • a second information acquisition unit that performs photoelectric detection through an optical system having a second detection magnification higher than the first magnification to obtain second pattern signal information in the predetermined area; and Reference pattern determining means for extracting and determining the unique pattern to be the reference pattern based on the pattern signal information.
  • a reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern used when identifying a pattern formed on an object.
  • a unique pattern that is included in a specific area and that has a unique pattern signal characteristic within the predetermined area is extracted, and the reference pattern is extracted based on the extracted unique pattern.
  • the first step and the second step are performed on the reset predetermined area to extract the unique pattern.
  • a reference pattern extraction device is a reference pattern extraction device for extracting a reference pattern used when identifying a pattern formed on an object.
  • Pattern signal information obtaining means for obtaining pattern signal information; Based on the obtained pattern signal information, a pattern that has an area smaller than the predetermined region and is present in a specific region that is necessarily included in a measurement region arranged at an arbitrary position in the predetermined region, A reference pattern determining unit that extracts a unique pattern having a unique pattern signal characteristic in a predetermined area, and determines the reference pattern based on the extracted unique pattern; When the unique pattern cannot be extracted from the specific area, the unique pattern is arranged at an arbitrary position in the predetermined area based on the pattern signal information obtained by the pattern signal information obtaining means, and the area is reduced.
  • Resetting means wherein the pattern signal information obtaining means obtains the pattern signal information for the reset predetermined area, and the reference pattern determining means determines the reference pattern. .
  • a reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern used for identifying a pattern formed on an object. Acquiring pattern signal information, extracting a unique pattern having a unique pattern signal characteristic in the predetermined area based on the acquired pattern signal information, and determining the reference pattern based on the extracted unique pattern; In the first step, when the unique pattern cannot be extracted from the predetermined area in the first step, a unique pattern having a unique pattern signal characteristic exists in an area near the predetermined area. A second step of resetting the predetermined area in an area having a high possibility, and Subjected to a pre-Symbol first step to determine the reference pattern.
  • a reference pattern extraction device is a reference pattern extraction device for extracting a reference pattern used when identifying a pattern formed on an object. Obtain pattern signal information and obtain the obtained pattern signal information A unique pattern having a unique pattern signal characteristic in the predetermined area based on the extracted unique pattern; and a reference pattern determining means for determining the reference pattern based on the extracted unique pattern. If the unique pattern cannot be extracted, the predetermined area is set to an area near the predetermined area, which is likely to include a unique pattern having a unique pattern signal characteristic. Predetermined area resetting means for resetting an area, wherein the reference pattern determining means determines the reference pattern again for the resetted predetermined area.
  • the pattern matching method uses the reference pattern extracted by the above-described reference pattern extraction method to perform pattern signal information in a measurement area (VIEW_Area) on the object. To perform the correlation calculation processing.
  • the pattern matching device uses the reference pattern extracted by the above-described reference pattern extraction device to perform pattern signal information in a measurement area (VIEW-Area) on the object. Perform correlation calculation processing.
  • position information of the unique pattern in the above-mentioned measurement area is obtained by using the above-described pattern matching method.
  • a position detecting device includes position information detecting means for obtaining position information of the unique pattern in the above-mentioned measured area (VIEW-Area) using the above-described pattern matching device.
  • the exposure apparatus obtains the position information of the unique pattern formed on the substrate as the object on the moving coordinate system of the object by using the above-described position detection method.
  • the substrate is aligned based on the position information, and a predetermined pattern is transferred and exposed on the aligned substrate.
  • the exposure apparatus includes: the above-described position detection apparatus for obtaining position information of a unique pattern formed on the substrate as the object on a moving coordinate system of the object; A positioning unit for positioning the substrate; and an exposing unit for transferring and exposing a predetermined pattern onto the aligned substrate.
  • Another reference pattern extraction method is a reference pattern extraction method for extracting a reference pattern having a unique signal characteristic on an object on which a pattern is formed. Wherein a reference pattern having a unique signal characteristic is extracted from a predetermined area in a range wider than the measured area, wherein the measured pattern located at a first position in the predetermined area is extracted.
  • a first reference pattern having a unique signal characteristic is extracted from a pattern included in the region, and the measurement target region located at a second position different from the first position in the predetermined region is the first reference pattern.
  • Unity from a pattern included in the measurement area located at the second position including at least a part of a pattern different from the measurement area located at the position.
  • a second reference pattern having a unique signal characteristic is extracted.
  • a measurement area having a predetermined area is arranged on an object on which a pattern is formed, and a pattern force included in the measurement area also matches a predetermined reference pattern.
  • a pattern matching method for detecting a specific pattern to be detected wherein the specific pattern is detected from a predetermined area in a wider range than the measured area.
  • a first reference pattern having a unique signal characteristic is extracted from a pattern included in the measured area located at one position, and the first reference pattern located at a second position different from the first position in the predetermined area is extracted.
  • a second reference pattern having a unique signal characteristic is extracted from the pattern included in the measurement area, the measurement area is set on the object, and an image of the object in the measurement area is set.
  • a pattern that matches the first reference pattern or the second reference pattern is detected from.
  • Another position detection method is a position detection method for detecting position information of an object on which a pattern is formed, wherein a measurement area having a predetermined area is arranged on the object,
  • the reference pattern includes: Area to be measured A first reference pattern having a unique signal characteristic is extracted from a pattern included in the measurement area located at the first position within a predetermined area in a wider range, and the first reference pattern in the predetermined area is extracted.
  • a second reference pattern having a unique signal characteristic is extracted from the included patterns, the measurement target area is set on the object, and the first reference pattern or the second reference pattern is determined from the image of the object in the measurement target area.
  • a specific pattern that matches a reference pattern is detected, and relative position information between the specific pattern and the measurement area is detected.
  • Another reference pattern extracting apparatus is a reference pattern extracting apparatus for extracting a reference pattern having a unique signal characteristic on a object on which a pattern is formed.
  • the pattern force included in the measurement area when the measurement area is located at the first position has a unique signal characteristic.
  • a first reference pattern is extracted, and the measured area is located at a second position different from the first position in the predetermined area, and is different from the measured area located at the first position. wherein the pattern included in the measurement region located on the second position comprising at least a portion pattern, unique pattern for extracting a second quasi pattern having a unique signal characteristic Out with the equipment.
  • another pattern matching apparatus arranges a measurement area having a predetermined area on an object on which a pattern is formed, and matches a pattern force included in the measurement area with a predetermined reference pattern.
  • a pattern matching device for detecting a specific pattern to be detected wherein the pattern matching device detects the specific pattern from a predetermined region wider than the measured region.
  • a first reference pattern having a unique signal characteristic is extracted from a pattern included in the measured area located at one position, and the first reference pattern located at a second position different from the first position in the predetermined area is extracted.
  • a measurement area, which is located at the second position including at least a part of a pattern different from the measurement area located at the first position.
  • a unique pattern extraction device for extracting a second reference pattern having a unique signal characteristic from a pattern included in the measurement area, setting means for setting the measurement area on the object, and the measurement area Detecting means for detecting a pattern that matches the first reference pattern or the second reference pattern from the image of the object in the image.
  • another position detecting device arranges a measurement area having a predetermined area on an object on which a pattern is formed, and determines a predetermined reference pattern from a pattern included in the measurement area.
  • a position detecting device for detecting a matching specific pattern and detecting relative position information between said object and said measured area, wherein said reference pattern is used as a reference pattern in a predetermined area wider than said measured area.
  • a reference pattern extraction method and apparatus capable of appropriately and efficiently extracting a reference pattern (template) effective for template matching.
  • a reference pattern extraction method and a reference pattern extraction method capable of extracting an effective reference pattern from the maximum range of the observation visual field without depending on the area always included in the observation visual field.
  • a template that can perform effective template matching can be generated without the need for actual data for template creation.
  • an apparatus for extracting a reference pattern that can be used.
  • a pattern matching method capable of appropriately performing template matching using the effective reference pattern (template) extracted as described above and detecting a desired mark or the like. it can. More specifically, even if the observation visual field has a certain degree of variation, it is possible to provide a pattern matching method that can appropriately detect a desired pattern using a template extracted from the entire observation visual field maximum range. . Further, it is possible to provide a pattern matching method capable of appropriately detecting a desired pattern by using a template according to the present invention created without using actual data.
  • FIG. 1 is a view showing a configuration of an exposure apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a distribution of optical information from a mark on a wafer on a pupil image plane of a TTL alignment system of the exposure apparatus shown in FIG. 1.
  • FIG. 3 is a view showing a light receiving surface of a light receiving element of a TTL type alignment system of the exposure apparatus shown in FIG. 1.
  • FIG. 4 is a cross-sectional view of a reference plate of an off-axis alignment optical system of the exposure apparatus shown in FIG. 1.
  • FIG. 5 is a diagram showing a configuration of an FIA operation unit of an off-axis type alignment optical system of the exposure apparatus shown in FIG. 1.
  • FIG. 6 is a flowchart showing a template creation method according to the first embodiment of the present invention.
  • FIG. 7A is a first diagram for explaining a template creating method according to the first embodiment of the present invention.
  • FIG. 7B is a second diagram for explaining the template creating method according to the first embodiment of the present invention.
  • FIG. 8A is a third diagram for explaining the template creating method according to the first embodiment of the present invention.
  • FIG. 8B is a fourth diagram for explaining the template creating method according to the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing the entire flow of the exposure processing according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart showing a template creating method according to a second embodiment of the present invention.
  • FIG. 11A is a first diagram for explaining a template creating method according to the third embodiment of the present invention.
  • FIG. 11B is a second diagram for explaining the template creating method according to the third embodiment of the present invention.
  • FIG. 11C is a third diagram for explaining the template creating method according to the third embodiment of the present invention.
  • FIG. 12 is a flowchart showing a template creating method according to the third embodiment of the present invention.
  • FIG. 13A is a first diagram illustrating a process of selecting one element from a plurality of elements detected for the same pattern.
  • FIG. 13B is a second diagram illustrating a process of selecting one element from a plurality of elements detected for the same pattern.
  • FIG. 14 is a first diagram illustrating a process of configuring a template by a plurality of elements.
  • FIG. 15 is a second diagram illustrating a process of forming a template by a plurality of elements.
  • FIG. 16A is a third diagram illustrating a process of composing a template by a plurality of elements.
  • FIG. 16B is a fourth diagram for describing the processing of composing a template by a plurality of elements.
  • FIG. 16C is a fifth diagram for describing the processing of composing a template by a plurality of elements.
  • FIG. 17 is a flowchart showing a flow of a search alignment process according to the third embodiment of the present invention.
  • FIG. 18 is a flowchart showing a template creation method according to a fourth embodiment of the present invention.
  • FIG. 19A is a first diagram for explaining a template creating method according to the fourth embodiment of the present invention.
  • FIG. 19B is a second diagram for explaining the template creating method according to the fourth embodiment of the present invention.
  • FIG. 20A is a third diagram illustrating a template creating method according to the fourth embodiment of the present invention.
  • FIG. 20B is a fourth diagram for explaining the template creating method according to the fourth embodiment of the present invention.
  • FIG. 21 is a fifth diagram for explaining the template creating method according to the fourth embodiment of the present invention.
  • FIG. 22 is a sixth diagram illustrating a template creation method according to the fourth embodiment of the present invention.
  • FIG. 23 is a flowchart showing a template creating method according to the fifth embodiment of the present invention.
  • FIG. 24A is a first diagram for explaining a template creating method according to the fifth embodiment of the present invention.
  • FIG. 24B is a second diagram for explaining the template creating method according to the fifth embodiment of the present invention.
  • FIG. 25A is a third diagram illustrating a template creating method according to the fifth embodiment of the present invention.
  • FIG. 25B is a fourth diagram for explaining the template creating method according to the fifth embodiment of the present invention.
  • FIG. 26 is a fifth diagram for explaining the template creating method according to the fifth embodiment of the present invention.
  • FIG. 27 is a flowchart showing a template creating method according to a sixth embodiment of the present invention.
  • FIG. 28 is a diagram for explaining a template creating method according to the sixth embodiment of the present invention.
  • FIG. 29 is a flowchart for explaining a device manufacturing method according to the present invention.
  • FIGS. 1 and 2 A first embodiment of the present invention will be described with reference to FIGS.
  • an exposure apparatus having an off-axis alignment optical system for detecting a predetermined reference pattern on a wafer by image processing, and a template (reference) for performing alignment by template matching in the exposure apparatus.
  • a method for creating a pattern, an alignment method using the template in the exposure apparatus, and the like will be described.
  • FIG. 1 is a diagram showing a schematic configuration of an exposure apparatus 100 of the present embodiment.
  • the XYZ orthogonal coordinate system shown in FIG. 1 is set, and the positional relationship and the like of each member will be described with reference to the XYZ orthogonal coordinate system.
  • the X axis and the Z axis are set to be parallel to the paper surface, and the Y axis is set to a direction perpendicular to the paper surface.
  • the XY plane is actually set as a plane parallel to the horizontal plane, and the Z axis is set vertically upward.
  • exposure light EL emitted from an illumination optical system is applied to pattern area PA formed on reticle R via condenser lens 1 with a uniform illuminance distribution.
  • the exposure light EL for example, g-line (436 nm), i-line (365 nm), or KrF Shima laser light (248 nm), ArF excimer laser light (193 nm), F2 laser light (157 ⁇ m), or the like is used.
  • Reticle R is held on reticle stage 2, and reticle stage 2 is supported so as to be able to move and minutely rotate in a two-dimensional plane on base 3.
  • a main control system 15 for controlling the operation of the entire apparatus controls the operation of the reticle stage 2 via the driving device 4 on the base 3.
  • the reticle R is positioned with respect to the optical axis AX of the projection lens PL by detecting a reticle alignment mark (not shown) formed therearound by a reticle alignment system including a mirror 5, an objective lens 6, and a mark detection system 7. You.
  • the exposure light EL that has passed through the pattern area PA of the reticle R is incident on, for example, a bilateral (or one side,...) Telecentric projection lens PL, and is projected onto each shot area on the ueno and (substrate) W. You.
  • the projection lens PL is best corrected for aberration with respect to the wavelength of the exposure light EL, and the reticle R and the wafer W are conjugated to each other under that wavelength.
  • the illumination light EL is Keller illumination, and is formed as a light source image at the center of the pupil EP of the projection lens PL.
  • the projection lens PL has a plurality of optical elements such as lenses.
  • an optical material such as quartz or fluorite is used according to the wavelength of the exposure light EL.
  • the wafer W is placed on the wafer stage 9 via the wafer holder 8.
  • a reference mark 10 used for baseline measurement or the like is provided on the wafer stage 9 on the wafer holder 8.
  • the wafer stage 9 is used to two-dimensionally position the wafer W in a plane perpendicular to the optical axis AX of the projection lens PL.
  • the XY stage is a wafer W in a direction (Z direction) parallel to the optical axis AX of the projection lens PL. It has a Z stage for positioning the wafer, a stage for slightly rotating the wafer W, and a stage for adjusting the inclination of the wafer W with respect to the XY plane by changing the angle with respect to the axis.
  • An L-shaped movable mirror 11 is attached to one end of the upper surface of the wafer stage 9, and a laser interferometer 12 is arranged at a position facing the mirror surface of the movable mirror 11.
  • the movable mirror 11 is composed of a plane mirror having a reflection surface perpendicular to the X axis and a plane mirror having a reflection surface perpendicular to the Y axis.
  • the laser interferometer 12 irradiates the movable mirror 11 with a laser beam along the X axis.
  • a laser interferometer for irradiating the movable mirror 11 with a laser beam along the X-axis and a Y-axis is comprised of one laser interferometer for the X-axis and one for the X-axis.
  • the X and ⁇ coordinates of the wafer stage 9 are measured by the laser interferometers. Further, the rotation angle of the wafer stage 9 in the ⁇ plane is measured based on the difference between the measurement values of the two laser interferometers for the X axis.
  • the position measurement signal PDS indicating the X coordinate, the ⁇ coordinate, and the rotation angle measured by the laser interferometer 12 is supplied to the stage controller 13.
  • the stage controller 13 controls the position of the wafer stage 9 via the drive system 14 according to the position measurement signal PDS under the control of the main control system 15.
  • the position measurement information PDS is output to the main control system 15.
  • the main control system 15 outputs a control signal for controlling the position of the wafer stage 9 to the stage controller 13 while monitoring the supplied position measurement signal PDS.
  • the position measurement signal PDS output from the laser interference system 12 is output to a laser step alignment (LSA) calculation unit 25 described later.
  • LSA laser step alignment
  • the exposure apparatus 100 includes a laser light source 16, a beam shaping optical system 17, a mirror 18, a lens system 19, a mirror 20, a beam splitter 21, an objective lens 22, a mirror 23, a light receiving element 24, and an LSA calculation unit 25. And a TTL alignment optical system with the projection lens PL as a component.
  • the laser light source 16 is, for example, a light source such as a He-Ne laser, and emits a non-photosensitive laser beam LB which is red light (for example, a wavelength of 632.8 nm) and is non-photosensitive to the photoresist applied on the wafer W. I do.
  • This laser beam LB passes through a beam shaping optical system 17 including a cylindrical lens and the like, and enters an objective lens 22 via a mirror 18, a lens system 19, a mirror 20, and a beam splitter 21.
  • the laser beam LB transmitted through the objective lens 22 is reflected by a mirror 23 provided below the reticle R and obliquely to the XY plane, and is incident on the periphery of the field of view of the projection lens PL in parallel with the optical axis AX. Then, the wafer W is irradiated vertically through the center of the pupil EP of the projection lens PL.
  • the laser beam LB is condensed as a slit-like spot light SP0 in a space in the optical path between the objective lens 22 and the projection lens PL by the function of the beam shaping optical system 17.
  • the projection lens PL re-images the spot light SP0 on the wafer W as a spot SP.
  • the mirror 23 is fixed so as to be outside the periphery of the pattern area PA of the reticle R and within the field of view of the projection lens PL. Therefore, the slit-shaped spot light SP formed on the wafer W is located outside the projected image of the pattern area PA.
  • the wafer stage 9 In order to detect a mark on the wafer W using the spot light SP, the wafer stage 9 is moved horizontally with respect to the spot light SP in the XY plane.
  • specular reflected light, scattered light, diffracted light, etc. are generated from the mark, and the light amount changes depending on the relative position between the mark and the spot light SP.
  • Such optical information travels backward along the transmission path of the laser beam LB, and reaches the light receiving element 24 via the projection lens PL, mirror 23, objective lens 22, and beam splitter 21.
  • the light receiving surface of the light receiving element 24 is arranged on a pupil image plane substantially conjugate to the pupil EP of the projection lens PL, has an insensitive area for specularly reflected light from the mark, and receives only scattered light and diffracted light.
  • FIG. 2 is a diagram showing a distribution of optical information from a mark on wafer W on pupil EP (or pupil image plane).
  • pupil EP or pupil image plane.
  • the upper and lower sides (Y-axis direction) of the specularly reflected light DO extending in a slit shape in the X-axis direction are positive first-order diffracted light + D1 and second-order diffracted light + D2, respectively, Dl and second-order diffracted light-D2 are arranged, and the scattered light Dr from the markedge is located to the left and right (X-axis direction) of the specularly reflected light DO.
  • the force S, the diffracted light Dl, and the earth D2 occur only when the mark is a diffraction grating mark.
  • the light receiving element 24 has four independent light receiving surfaces 24a, 24b, 24c in the pupil image plane as shown in FIG. , 24d are arranged so that the light receiving surfaces 24a, 24b receive the scattered light soil Dr, and the light receiving surfaces 24c, 24d receive the diffracted light soil Dl, ⁇ D2.
  • FIG. 3 is a view showing the light receiving surface of the light receiving element 24.
  • the third-order diffracted light generated from the diffraction grating mark having a large numerical aperture (NA) on the wafer W side of the projection lens PL also passes through the pupil EP, the light receiving surfaces 24c and 24d also receive the third-order diffracted light.
  • Good size the third-order diffracted light generated from the diffraction grating mark having a large numerical aperture (NA) on the wafer W side of the projection lens PL also passes through the pupil EP, the light receiving surfaces 24c and 24d also receive the third-order diffracted light.
  • NA numerical aperture
  • Each photoelectric signal from the light receiving element 24 is a position measurement signal P output from the laser interferometer 12.
  • the data is input to the LSA operation unit 25, and a mark position information API is created.
  • the LSA calculation unit 25 samples and stores the photoelectric signal waveform from the light receiving element 24 when the wafer mark is scanned with respect to the spot light SP based on the position measurement signal PDS, and analyzes the waveform to analyze the waveform.
  • the mark position information API is output as the coordinate position of the wafer stage 9 when the center of the mark coincides with the center of the spot light SP.
  • the TTL alignment system (16, 17, 18,
  • the solid line shown in the optical path of the TTL alignment optical system in FIG. 1 represents the imaging relationship with the wafer W
  • the broken line represents the conjugate relationship with the pupil EP.
  • exposure apparatus 100 includes an alignment optical system of an off-axis system (hereinafter, referred to as an alignment sensor) on the side of projection optical system PL.
  • This alignment sensor performs signal processing (including image processing) on a signal (n-dimensional signal) captured near the alignment mark on the substrate surface, and detects mark position information.
  • the FIA (Field Image Alignment) method This is the alignment sensor.
  • search alignment measurement and fine alignment measurement are performed by the alignment sensor.
  • Search alignment measurement detects a plurality of search alignment marks formed on the wafer and rotates the wafer with respect to the wafer holder. It is a process to detect the amount and displacement in the ⁇ plane
  • a technique of using a preset reference pattern (template) and detecting a predetermined pattern corresponding to the template is used.
  • fine alignment measurement (hereinafter, sometimes simply referred to as “fine alignment”) is performed by detecting an alignment mark for fine alignment formed corresponding to a shot area, This is a process for positioning each exposure shot.
  • fine alignment As an image processing method of fine alignment, an edge of a mark is extracted. Then, a method of detecting the position (edge measurement method) is used.
  • the image processing method is not limited to the method of the present embodiment, but may be any of the template matching method, the edge measurement method, and other image processing methods.
  • the observation magnification at the time of the search alignment and the observation magnification at the time of the fine alignment may be the same observation magnification, or the magnification at the time of the fine alignment may be the same as that at the time of the search alignment. May be set to be higher than the magnification of.
  • the alignment sensor includes a halogen lamp 26 for emitting irradiation light for illuminating the wafer W, a condenser lens 27 for condensing illumination light emitted from the halogen lamp 26 to one end of an optical fiber 28, And an optical fiber 28 for guiding the illumination light.
  • the halogen lamp 26 is used as a light source for the illumination light because the wavelength range of the illumination light emitted from the halogen lamp 26 is 500 to 800 nm, which is a wavelength range in which the photoresist applied to the upper surface of the wafer W is not exposed. This is because the influence of the wavelength characteristics of the reflectance on the surface of the wafer W having a wide wavelength band can be reduced.
  • the illumination light emitted from the optical fiber 128 passes through a filter 29 that cuts a photosensitive wavelength (short wavelength) region and an infrared wavelength region of the photoresist applied on the wafer W, and passes through a lens system.
  • the half mirror 31 is reached via 30.
  • the illumination light reflected by the half mirror 31 is reflected by the mirror 32 almost in parallel with the X-axis direction, then enters the objective lens 33, and furthermore, the field of view of the projection lens PL is located around the lower part of the lens barrel of the projection lens PL. Is reflected by a prism (mirror) 34 fixed so as not to shield light, and irradiates the wafer W vertically.
  • a prism (mirror) 34 fixed so as not to shield light
  • an appropriate illumination field stop is provided at a position conjugate with the wafer W with respect to the objective lens 33 in the optical path from the exit end of the optical fiber 128 to the objective lens 33.
  • the objective lens 33 is set to be telecentric, and an image of the exit end of the optical fiber 128 is formed on the surface 33a of the aperture stop (same as the pupil), and Keller illumination is performed.
  • the optical axis of the objective lens 33 is set to be vertical on the wafer W, and the mark position does not shift due to the tilt of the optical axis when detecting the mark.
  • the reflected light from wafer W passes through prism 34, objective lens 33, mirror 32, and half mirror 31. Then, an image is formed on the index plate 36 by the lens system 35.
  • the index plate 36 is arranged conjugate with the wafer W by the objective lens 33 and the lens system 35, and extends in the rectangular transparent window in the X-axis direction and the Y-axis direction, respectively, as shown in FIG. It has linear index marks 36a, 36b, 36c, 36d.
  • FIG. 4 is a sectional view of the index plate 36.
  • the image of the mark of the wafer W is formed in the transparent window 36e of the index plate 36, and the image of the mark of the wafer W and the index marks 36a, 36b, 36c, 36d are connected to the relay systems 37, 39.
  • the image is formed on the image sensor 40 via the mirror 38.
  • the image sensor 40 (photoelectric conversion means, photoelectric conversion element) converts an image incident on its imaging surface into a photoelectric signal (image signal, image data, data, signal). Is used.
  • the signal (n-dimensional signal) output from the image sensor 40 is input to the FIA operation unit 41 together with the position measurement signal PDS from the laser interferometer 12.
  • a two-dimensional image signal is obtained in the image sensor 40 and is input to the FIA operation unit 41 and used.
  • the signals obtained by the two-dimensional CCD are integrated (projected) in the non-measurement direction and used as a one-dimensional projection signal for measurement in the measurement direction. .
  • the format of the signal obtained by the image sensor 40 and the signal to be processed in the subsequent signal processing are not limited to the example of the present embodiment.
  • two-dimensional image processing may be performed to use two-dimensional signals for measurement.
  • it may be configured to obtain a three-dimensional image signal and perform three-dimensional image processing.
  • the CCD signal is expanded into n dimensions (n is an integer of n ⁇ l) to generate, for example, an n-dimensional cosine component signal, an n-dimensional sine signal, or an n-order frequency signal.
  • the present invention is also applicable to a device that performs position measurement using the n-dimensional signal.
  • the FIA operation unit 41 detects an alignment mark from the input image signal, and obtains a shift of the mark image of the alignment mark with respect to the index marks 36a and 36d. And From the stop position of the wafer stage 9 represented by the position measurement signal PDS, the mark center detection position of the wafer stage 9 when the image of the mark formed on the wafer W is accurately positioned at the center of the index marks 36a to 36d. Outputs information AP2.
  • the FIA operation unit 41 performs the position detection of a predetermined alignment mark image and the detection of a deviation thereof during each of the search alignment and the fine alignment.
  • the position of the mark and the deviation are detected using the template matching method at the time of search alignment, and using the edge detection processing method at the time of fine alignment.
  • FIG. 5 is a block diagram showing the internal configuration of the FIA operation unit 41.
  • the FIA operation unit 41 has an image signal (pattern signal) storage unit 50, a template data storage unit 52, a data processing unit 53, and a control unit 54.
  • the image signal storage unit 50 stores an image signal (pattern signal) input from the image sensor 40.
  • the image signal storage unit 50 stores an image (pattern signal) captured by the image sensor 40.
  • the template data storage unit 52 stores template data used in template matching processing performed at the time of search alignment, for example.
  • the template data is reference pattern data for performing pattern matching with an image signal (pattern signal) stored in the image signal storage unit 50 to detect a mark on the wafer.
  • the mark used in this specification is a concept that includes a pattern that is a part of a circuit or a wiring and is set as a reference pattern, in addition to a mark pattern particularly formed for alignment. .
  • the template data may be created by a computer system or the like different from the exposure apparatus 100 and stored in the template data storage unit 52, or may be an image captured by an alignment sensor. It may be created by the FIA operation unit 41 based on the information (pattern signal) and stored in the template data storage unit 52.
  • the data processing unit 53 performs desired image processing (signal processing) such as template matching and edge detection processing on the image signal (pattern signal) stored in the image signal (pattern signal) storage unit. It detects marks, detects position information, and detects misalignment information.
  • desired image processing signal processing
  • edge detection processing on the image signal (pattern signal) stored in the image signal (pattern signal) storage unit. It detects marks, detects position information, and detects misalignment information.
  • the data processing unit 53 performs matching between the image signal (pattern signal) stored in the image signal storage unit 50 and the template stored in the template data storage unit 52, and outputs a mark in the image signal (pattern signal). Is detected.
  • the data processing unit 53 sequentially scans the visual field in a search area corresponding to the size of the pattern to be detected, and compares the image signal (pattern signal) of the area with the template data at each position. Check. Then, the similarity and the correlation between the patterns (between images (pattern signals)) are detected as evaluation values, and when the similarity is equal to or greater than a predetermined threshold, a mark exists in the area, that is, It is determined that the mark image is included in the image (pattern signal) at that location.
  • the data processing unit 53 determines at which position in the field of view the mark is located. As a result, information AP2 on the mark center position of the wafer stage 9 when the mark image formed on the wafer W is accurately positioned at the center of the index marks 36a to 36d is obtained.
  • the control unit 54 stores and reads the image signal in the image signal storage unit 50, stores and reads the template data in the template data storage unit 52, and performs the matching and edge detection described above in the data processing unit 53.
  • the operation of the whole FIA operation unit 41 is controlled so that the processing such as the above is appropriately performed.
  • FIG. 6 is a flowchart showing the template creation processing.
  • the template data creation processing described below is performed by executing a program for performing the processing described below as shown in a flowchart in FIG. 6 in an external computer device or the like separate from the exposure apparatus 100. It is preferable to carry out the following. However, the present invention is not limited to this, and may be performed in the exposure apparatus 100. More specifically, the processing may be performed by the data processing unit 53 in the FIA operation unit 41, for example.
  • the template creation method of the present embodiment generates template data from design data without using image data (a pattern signal) obtained by imaging a wafer.
  • the design value data (design value information) is converted into a two-dimensional image (pattern signal), and the data is binarized to generate binary image data (pattern signal) (step S110).
  • Most of the design value data is represented by a combination of two colors, for example, white and black, so that binarization can be easily performed.
  • the range of the input data is set for the binarized design value data (step S120).
  • the range to be imaged varies within a predetermined range due to an error caused by a wafer loading operation, an error caused by a pattern manufacturing process, and the like. Even if there is such a variation, it is preferable to always set an area included in the imaging range as the range of the input data. This is because a reference pattern is always included in a captured image (pattern signal). However, if a process in the case where the reference pattern is not included in the captured image is set at the time of the search alignment, the input data range can be expanded.
  • the input data range may be set arbitrarily according to such a situation. In the present embodiment, for example, an area Areal as shown in FIG. 7A is set on the binary image (pattern signal) data.
  • an area having the same size as a predetermined template size is set in the input data range, and is set as a temporary template (first partial image information) (step S130). .
  • an area AreaT (xi, yi) having the same size SizeT as the template is set in the input data range Areal.
  • (xi, yi) is the coordinate value of the reference point of the area AreaT (in the example of FIG. 7A, the coordinate value of the upper left corner of the area AreaT).
  • the input data range Areal is scanned with a window of the same size SizeT as the template (temporary template AreaT), and an image (pattern) of the area AreaS (xj, yj) within the window at each position is obtained.
  • Signal) second partial image (pattern signal) information
  • a correlation value between the image (pattern signal) of the temporary template AreaT (xi, yi). Then, a region where the correlation value is a sufficiently high peak is detected.
  • the correlation search calculation is performed based on the following equation (1) or (2).
  • fCx) and g (x) are luminance
  • step SI30 The setting of such a tentative template (step SI30) and the detection of the correlation value peak (step S140) are performed in all areas (areas of the same size as the template) that can be set within the input data range. Then, a region showing a correlation value peak for each region is detected (step S150).
  • the regions showing the correlation value peak with respect to the same temporary template can be regarded as the same image, that is, the region constituted by the same pattern. Therefore, by detecting a region showing a correlation value peak, a region composed of the same pattern is detected for each pattern. For example, as shown in Figure 8A, there are five areas composed of pattern A, two areas composed of pattern B, and one area composed of pattern C in area Areal. Is detected.
  • a pattern that is actually used as a template is selected from the patterns (step S160).
  • a pattern that exists solely (uniquely) without a peak other than itself is detected.
  • a pattern C image data of an area AreaT (xi, yi) represented by the pattern C) that exists only at one location is selected as a template.
  • pattern O having a shape similar to the pattern C exists.
  • pattern ⁇ may or may not be detected as a correlation peak with respect to pattern ⁇ itself.
  • pattern B and pattern B are included in the input data range Areal.
  • the pattern C has a pattern O having a shape similar to the pattern C, the difference between the correlation value of the pattern C and the correlation value of the pattern ⁇ when the pattern C is used as a temporary template becomes small. Therefore, in the case of FIG. Select as rate.
  • template data to be used in template matching at the time of search alignment is created in this way.
  • the created template data is stored in the template data storage unit 52 of the FIA operation unit 41 together with the position information of the area.
  • the image data obtained by converting the design data is binarized and used. However, it is determined that there are a plurality of (N) pattern height directions in the design stage in advance. In that case, if you try to convert to N-value.
  • the correlation value is obtained based on the equation (1) or the equation (2), but the SSDA method or the like may be applied.
  • the template size SizeT is set to a predetermined size in advance, and a temporary template is set with this size, or a correlation value search is performed.
  • this size (the size of the partial image information) may also be a variable parameter. That is, a size range or a size type is determined in advance, and the size of the template is sequentially changed within the range. Then, by scanning the input data range for each size, temporary templates are sequentially detected by the above-described method, and finally the most temporary template is used as a template.
  • the template size can be automatically determined, and an appropriate template can be detected in consideration of the template size.
  • reticle R and wafer W are transported onto reticle stage 2 and wafer stage 9, respectively, and are mounted and supported on each stage. At this time, the wafer W is positioned (pre-aligned) with respect to the wafer stage 9 using an orientation flat or notch formed on the wafer, and then the wafer is moved through the wafer holder 8. It is held on stage 9 (step S210).
  • search alignment is performed by the alignment sensor to determine the amount of rotation and XY shift of the wafer W mounted on the wafer holder 8 with respect to the wafer holder 8 (step S220).
  • search alignment generally, a plurality of distant locations on the wafer W are used. Then, the reference patterns are detected, and the rotation amount of the wafer, the XY shift, and the like are obtained based on the positional relationship between the respective reference patterns.
  • an image (field image, pattern signal) of a predetermined area including the reference pattern on the wafer W is fetched based on positional information on the design of the reference pattern (step S221). .
  • the main control system 15 drives the wafer stage 9 via the stage controller 13 and the drive system 14 so that the reference pattern enters the field of view of the alignment sensor.
  • the illumination light of the alignment sensor is illuminated on wafer W.
  • the illumination light power emitted from the halogen lamp 26 is condensed on one end of the optical fiber 28 by the condenser lens 27 and is incident on the optical fiber 28.
  • the incident illumination light propagates through the optical fiber 28 and exits from the other end, passes through the filter 29, and reaches the half mirror 31 via the lens system 30.
  • the illumination light reflected by the half mirror 31 is reflected by the mirror 32 almost horizontally with respect to the X-axis direction, then enters the objective lens 33, and further around the lower part of the barrel of the projection lens PL.
  • the light is reflected by the prism 34 fixed so as not to shield the field of view, and is irradiated on the wafer W vertically.
  • the reflected light from wafer W is imaged on index plate 36 by lens system 35 via prism 34, objective lens 33, mirror 32, and half mirror 31.
  • the image of the mark on the wafer W and the index marks 36a, 36b, 36c, 36d form an image on the image sensor 40 via the relay systems 37, 39 and the mirror 38.
  • the image data formed on the image sensor 40 is stored in the image signal storage unit 50 of the FIA operation unit 41 as an image in the visual field area.
  • the data processing unit 53 of the FIA operation unit 41 uses the window of the same size as the template stored in the template data storage unit 52 to store the visual field image (pattern signal) stored in the image signal storage unit 50 Are scanned to perform matching with the template data (step S222).
  • the evaluation value of the correlation between the image in the window set at a predetermined position by scanning and the template data is obtained by the above-described equation (1) or equation (2). Then, when the evaluation value is larger than the predetermined threshold value, it is determined that the reference pattern of the template exists at the position, and the position information of the reference pattern is obtained.
  • Each pair is repeatedly performed on predetermined several regions on the wafer W set in advance for search alignment (step S221 to step S223).
  • step S 223 When the detection of the positions of the reference patterns in several regions is completed (step S 223), a predetermined calculation is performed based on the positional relationship between the respective reference patterns, and the rotation amount of the wafer W and the XY A deviation or the like is obtained (step S224).
  • a fine alignment for detecting the displacement of each exposure shot on the wafer W is performed by the alignment sensor (step S230).
  • the alignment mark for the fine alignment formed corresponding to the exposure shot on the wafer W is detected, the position of the alignment mark is obtained, and the rotation amount and the displacement of each shot area are determined. To detect.
  • the alignment mark is detected and its position information is detected by performing signal processing by the edge measurement method on the detected waveform signal of the image (pattern signal).
  • the edge measuring method is disclosed in, for example, Japanese Patent Application Laid-Open No. 4-165603, and the detailed description thereof is omitted.
  • This fine alignment may be performed by detecting all of the alignment marks provided corresponding to each shot area on the wafer W, or selecting and selecting several shot areas.
  • the alignment may be performed by detecting an alignment mark corresponding to the selected shot area.
  • statistical calculation processing EAA processing
  • this image capture at the time of fine alignment may be performed by setting the magnification of the alignment sensor to a higher magnification than at the time of the search alignment described above.
  • the alignment mark to be detected is usually a mark smaller than the reference pattern used at the time of the search alignment described above, that is, a mark with higher definition.
  • the data processing unit 53 performs processing such as EGA processing based on the search alignment result and the fine alignment result. Is calculated (step S240).
  • the main control system 15 aligns the position of the reticle R with the shot area of the wafer W based on the baseline amount managed in advance and the calculated shot area. Then, the pattern image of the reticle R is accurately superimposed on the shot area, and exposure is performed (step S250).
  • design data is converted into two-dimensional image data (pattern signal), a unique pattern is extracted from the obtained image data (pattern signal), and a template is extracted.
  • the template is generated by specifying the creation area and extracting the image data (pattern signal) of the area. Therefore, even when actual data cannot be obtained, or when a mark to be used as a template is not formed, an effective template can be generated.
  • template matching and search alignment can be appropriately performed using this template.
  • This template can be automatically generated from the design data. Therefore, the load on the operator can be reduced. Further, since the template is generated from the design data, the template can be created before the wafer is manufactured, and the exposure process can be performed efficiently.
  • a region for creating a reference pattern is specified from the design value data, and a two-dimensional image (pattern) generated by converting the design value data is specified.
  • a signal was generated from the image (pattern signal) data of that area in the data. This method is applicable and effective even when there is image (pattern signal) data of an actually manufactured wafer.
  • a template generation method by a similar method when data of an actually manufactured wafer exists will be described as a second embodiment of the present invention.
  • the configuration of the exposure apparatus and a series of exposure processing methods including template matching at the time of search alignment are the same as those in the first embodiment. Therefore, the description is omitted.
  • the same reference numerals as those used in the first embodiment are used.
  • FIG. 10 is a flowchart illustrating template creation processing according to the second embodiment of this invention.
  • step S310 an image of the manufactured wafer is taken to obtain image (pattern signal) data.
  • the design value data (design value information) is converted into a two-dimensional image (pattern signal) to generate two-dimensional image (pattern signal) data (step S320).
  • an input data range is set on the two-dimensional image (pattern signal) data of the design values.
  • step S340 After the input data range is set, an area having the same size as a predetermined template size is set in the input data range, and a temporary template is set (step S340).
  • step S350 the entire area of the input data range is subjected to a correlation search calculation with the temporary template based on Equation (1) or Equation (2) described above, and the position where the correlation value exceeds a predetermined threshold value and is a peak is obtained. Is detected (step S350).
  • Temporary templates are set (step S340) and correlation value peaks are detected (step S350) sequentially for the entire region within the input data range, and regions indicating correlation value peaks for each region are detected (step S350).
  • step S360 When the processing in step S360 detects a pattern existing within the input data range, a pattern that has no peak other than itself and that exists uniquely (uniquely) is detected. The position information (area information) is obtained (step S370). When there are a plurality of unique patterns, the pattern having the largest correlation value difference with the pattern having the next highest correlation value is detected, and its positional information is obtained.
  • the extracted template is stored in the template data storage unit 52 of the FIA operation unit 41 together with the position information of the area, and is used in template matching at the time of search alignment.
  • the process of extracting the template in S380 may be performed separately, instead of a series of processes.
  • the process of imaging the wafer and the process of detecting the unique pattern area may be performed separately in advance.
  • each processing may be performed using the exposure apparatus 100, or may be performed using separate apparatuses, which may be performed using an external computer apparatus, an imaging apparatus, or the like.
  • the template creating method of the present embodiment it is possible to automatically generate an effective template by using captured image (pattern signal) data of an actual wafer. Therefore, the load on the operator can be reduced. Further, an effective template having a high correlation with a pattern formed on an actual wafer can be generated.
  • the detection of the region of the unique pattern to be used as the template is performed based on the design data, it can be performed in advance, and the template generation processing and the exposure processing can be efficiently performed.
  • the range of the observation field of view imaged by the alignment sensor during the search alignment is caused by an error in the position at the time of loading the wafer and an error in the pattern formation position during the wafer processing. It fluctuates due to differences, etc., and does not become a constant area.
  • the reference pattern (template) used in template matching must be extracted from the range that is always included in the observation field of view, but if the observation field fluctuates greatly, the area that is always included in the observation field becomes very small. Or a nonexistent situation, making it impossible to extract the reference pattern.
  • the maximum range that can be the observation field is OR_Are a
  • the common area that is always included in the observation field is AND_Area, as shown in FIG. If a unique pattern B exists in the common area AND_Area, it can be extracted as a template. However, if a unique pattern does not exist in the common area AND_Area as shown in FIG. 11C, a template cannot be generated.
  • the pattern of each element constituting the template is referred to as an element.
  • the configuration of the exposure apparatus, the overall flow of the exposure processing, and the like are substantially the same as those of the above-described first and second embodiments, and a description thereof will be omitted. Further, when referring to the configuration of the exposure apparatus, the same reference numerals as those used in the first embodiment are used.
  • FIG. 12 is a flowchart illustrating a template creation process according to the third embodiment of the present invention.
  • image (pattern signal) data is fetched (step S410).
  • Image (pattern signal) data may be generated by converting design value data (design value information) into a two-dimensional image (pattern signal) as in the first and second embodiments, or may be actually manufactured. Alternatively, the acquired wafer may be imaged and acquired.
  • a range of input data is set for the captured image (pattern signal) data (step S420). As described above, the range imaged during the search alignment varies within a predetermined range.
  • the maximum range of the imageable area maximum field of view, maximum input data maximum
  • the entire area of the maximum visual field range ⁇ R_Area is subjected to a correlation search calculation with a temporary template, and a position where the correlation value exceeds a predetermined threshold value and becomes a peak is detected (step S440).
  • the evaluation calculation formula for the correlation search calculation may be any formula including the correlation coefficient calculation and the SSDA method shown in the formula (1) or (2).
  • step S45 Select a unique element or a somewhat unique element (step S45 ).
  • the element is selected by first checking whether the number of detected peaks is equal to or less than a predetermined threshold value TH-Peak. If the number of peaks is greater than the threshold value TH—Peak, it is assumed that the uniqueness is low, and that it is not used as a template component.
  • elements are narrowed down using features such as the SN ratio, the detected edge amount, entropy, variance, and moment.
  • the SN ratio is represented by the difference between the correlation values between the highest correlation value and the second highest correlation value (the difference between feature values). This is because the larger the difference, the more stable the feature pattern.
  • the edge amount is represented by the number of edges or the number of CCDs that detected edges of 2CCD (pixel area on 2CCD occupied by edges).
  • FIG. 13A for example, there is a case where a plurality of patterns including a pattern shifted (protruding) as shown in FIG. is there.
  • the correlation coefficient and the evaluation value of the SSDA method show the same high value for each pattern.
  • the pattern with the largest positioning information can be selected.
  • an element from which pattern B is appropriately cut out as shown in FIG. 13B is selected.
  • the element narrowing down based on the characteristics such as the SN ratio, detected edge amount, entropy, variance, and moment should be combined with the evaluation value calculation in the correlation search calculation processing in step S440. May be.
  • step S430 The processing of setting such a temporary template (step S430), detecting the correlation value peak (step S440), and selecting a unique element (step S450) can all be set within the maximum visual field range OR_Area. , Ie, the area of the element size ElementSize (step S460). As a result, free Murrell relatively unique elements within the maximum field of view OA_Are a (pattern) is detected.
  • element B or element C if either element B or element C is present in the common area AND_Area of the visual field, the element can be used as a template by a conventional method. . If these elements B and C are not included in the common area AND_Area as in the example shown in FIG. 14, both of the selected patterns B and C are registered as templates.
  • element A indicating the correlation peak value detected in step S440 is shown. Since there are four elements in the maximum visual field range ⁇ R_Area, any one of them is included. Even if it is detected, the position cannot be detected. Such an element is not selected as a unique element in step S450 and does not become a template.
  • the maximum visual field range OR—Area there is usually a plurality of identical patterns in the maximum visual field range OR—Area, so it cannot be used as a template.
  • the maximum visual field range OR—A pattern that can be uniquely specified within the Area can be configured. Therefore, this element B is registered as a template in a format that also includes information on the positional relationship between these two patterns B.
  • the position can be detected based on the template matching result of the element by creating the template in a format that also includes the information on the positional relationship of each element. That is, these elements A, B, and C are registered as templates in a format that also includes such positional relationship information of each pattern.
  • the observation field of view VIEW_Area is arranged at the upper left as shown in Fig. 16B and the case where the observation field of view VIEW_Area is arranged at the lower right as shown in Fig. 16C for the maximum field of view OR_Area in Fig. 16A. .
  • the element B and the element C are arranged in the same positional relationship in any observation visual field.
  • the position can be detected by using the presence / absence of the detection of the element A and its positional relationship.
  • the combination of the element B and the element C and the combination power of the element A, the element B, and the element C are templated so as to substantially function as one template.
  • the observation field of view VIEW_Area is arranged at any position within the maximum field of view ⁇ R_Area by appropriately combining relatively unique elements detected in the maximum field of view OR—Area. Even so, the template is configured so that the template is always included in the observation field of view VIEW_Area.
  • the maximum visual field range ⁇ the size of the R_Area, the size of the observation visual field VIEW_Area, the element size ElemetSize, and the arrangement of the elements detected in step S440.
  • the threshold for the number of peaks to be selected TH Peak is gradually increased from 1 to construct a template. Elements to be selected are sequentially selected.
  • the elements constituting the template are registered in a format that also includes their positional information, thereby creating a template (step S480).
  • the pattern (image data and shape data) of each element the information on the mutual positional relationship between the elements, the information on the uniqueness and the number of the elements, or the other information make sure to remember.
  • the data format of the template may be any format.
  • position measurement is performed in two or three predetermined areas on the wafer W to obtain a desired pattern, and the position is measured based on the positional relationship of each position. Obtain the amount of rotation of wafer W, XY shift, etc.
  • an image (field-of-view image, pattern signal) of a position measurement position on the wafer W is fetched based on the design value data (step S521).
  • the captured field-of-view image is scanned through a window having the same size as the element size ElementSize of the template, and collation (matching) with the element data is performed (step S522).
  • the evaluation value of the correlation between the image (pattern signal) in the window set at the predetermined position scanned and the element data is obtained by the above-described equation (1) or (2).
  • the evaluation value is larger than a predetermined threshold value, it is determined that the pattern force S of the element exists at the position, and information for identifying the element and the position are stored.
  • the template according to the present embodiment includes a plurality of elements. Therefore, this matching process is sequentially performed for all the elements (step S523).
  • the relative positional relationship between these elements is detected, and this is stored in the template.
  • the position of the visual field image (pattern signal) is detected by comparing with the information on the positional relationship between the elements (step S524). At this time, if the uniqueness information and the number information of each element or the other information is stored in the template, the processing is performed by referring to such information and giving priority to the unique element. It is preferable to preferentially process an element that has a small error or error and can more reliably detect the position. More specifically, since it has already been described in the description of the template configuration method described above with reference to FIG. 12, the description is omitted here.
  • step S521 The capture of such an image (pattern signal) (step S521), the matching of each element (steps S522 and S523), and the visual field image (pattern signal) based on the relative positional relationship of the detected elements, etc.
  • step S524 The process of position detection (step S524) is repeated for a plurality of predetermined regions on the wafer W set in advance for search alignment (step S525).
  • step S526) when the position of each area is detected, a predetermined calculation is performed based on the positional relationship of each area, and the rotation amount of the wafer W, the XY shift, and the like are obtained.
  • a relatively unique characteristic pattern is obtained from the entire range (maximum view image OR—Area) that can be taken by input data.
  • a template is substantially generated. Therefore, even when the acquisition position of the input data (view image VIEW—Area) changes greatly or when the input data does not include much positioning information, a template can be generated. Enables template matching.
  • the range to be imaged is predetermined due to an error caused by the wafer loading operation and an error caused by the pattern manufacturing process. It varies within the range (OR_Area).
  • the range In order to create a template (reference pattern) to be used for alignment under such conditions, even if the observation visual field varies, it must be a pattern in the common area AND_Area included in the observation visual field. It is necessary to extract a unique pattern as a template within the maximum range OR_Area to be obtained. Strength, while common area of vision AND Are From a, it is not always possible to detect a unique pattern that has sufficient information necessary for position measurement.
  • the target area for template creation is changed (the common area AND_Area and the maximum visual field range OR_Area are shifted).
  • FIG. 18 is a flowchart showing the flow of template creation processing according to the fourth embodiment of the present invention.
  • a target area for a unique pattern detection process is set (step S601).
  • a target measurement area AreaVO on the wafer for pattern detection and position measurement by search alignment measurement is set. I do.
  • the wafer is inserted into the exposure apparatus 100 based on information such as a wafer injection error and a wafer manufacturing error which are detected in advance, and an image is obtained by targeting the area AreaVO with an alignment sensor.
  • the common field of view AND—Area and the maximum field of view OR—Area are detected. Then, an arbitrary area in the common field of view AND—Area is set as an area for searching for a unique pattern, Are aA, and an arbitrary area including the detected maximum field of view OR—Area is used to determine the uniqueness of the pattern.
  • Validation area Set as Areal In the present embodiment, the uniter pattern search area AreaA is set equal to the visual field common area AND-Area, and the uniqueness verification area Areal is set equal to the maximum visual field area ⁇ R_Area.
  • the image data (pattern signal information) of the uniqueness verification area Areal (the maximum visual field range ⁇ R_Area) is obtained (step S603).
  • the image data may be obtained by converting design value data (design information) into an image signal, or may be obtained by imaging the surface of a manufactured wafer.
  • a unique pattern is detected using the obtained image data.
  • an area AreaT having the same size as a predetermined template is set in the unique pattern search area AreaA, and this is set as a temporary template (step S605).
  • the entire area of the uniqueness verification area Areal is searched for in the area AreaS having the same size (the same size as the template) as the temporary template AreaT, and the image (pattern signal information) of the area AreaS at each position and the temporary template AreaT are compared.
  • the correlation value with the image (pattern signal information) is sequentially obtained based on the above equation (1) or equation (2), and a region where the correlation value is a sufficiently high peak is detected (step S607). ).
  • Temporary templates AreaT are sequentially set for the entire area within the unique pattern search area AreaA, and when a correlation value peak area for each temporary template is detected (step S609), a unique pattern (area) is selected from among them. Is extracted (step S611). That is, a single (unique) temporary template that has no peak other than itself in the uniqueness verification area Areal is extracted from the temporary template.
  • step S613 the image data (image signal information) of the temporary template is extracted as a template (step S615), and a template is created. The process ends.
  • the extracted template is stored in the template data storage unit 52 of the FIA operation unit 41 of the exposure apparatus 100 together with the position information of the target measurement area AreaVO set in step S601 for extracting the template (see FIGS. 1 and 5). And used for template matching during search alignment.
  • the temporary template has the largest difference between the correlation value for itself and the second highest correlation value, and the correlation value. Select a plate as a template.
  • step S611 if a unique temporary template is not extracted from the temporary templates (step S613), the unique pattern search area A and the uniqueness verification area Areal are reset (changed). ) (Step S620).
  • a unique pattern is obtained from the area (see Fig. 19A) that is inside the current uniqueness verification area Areal (the maximum visual field range OR—Area) and outside the unique pattern search area AreaA (the common visual field area AND—Area). Detect patterns.
  • an area AreaY having the same size as the template is set in the uniqueness verification area Areal, and this is set as a temporary uniter pattern area (step S621).
  • the entire area of the uniqueness verification area Areal is searched for in an area AreaZ of the same size (the same size as the template) as the temporary unique pattern area AreaY (FIG. 20A), and the area AreaZ in each position is searched.
  • the correlation value between the image (pattern signal information) and the image (pattern signal information) of the temporary unique pattern area AreaY is sequentially obtained based on the above-described equation (1) or (2), and the correlation value is sufficiently high. Then, an area having a peak is detected (step S623).
  • step S621 The processing of setting the temporary unique pattern area (step S621) and detecting the correlation value peak area in the uniqueness verification area Areal for the temporary unit pattern (step S623) is as follows.
  • Uniqueness verification area From the provisional unique pattern area AreaY that can be set in Areal, the provisional unique pattern area AreaY such that the entire range is included in the unique pattern search area AreaA (such as Y1 and Y2 in FIG. This is performed for all remaining temporary unique pattern areas AreaY except for the area such as Y3 (step S625).
  • Step S627 From the tentative unique pattern detected by the processing of Step S621—Step S625 and the correlation value peak area, a unique pattern having no peak other than itself is extracted (Step S627). ).
  • the unit is placed in the uniqueness verification area Areal. If the target pattern Q is detected, a new target imaging range AreaV is set so that the center of the unique pattern Q is set to the center of the observation field of view (VIEW—Area). The common area AND—Area—New and the maximum field of view OR—Area—New are detected.
  • step S603 After newly setting the visual field common area AND_Area_New (unique pattern search area AreaA_New) and the visual field maximum range ⁇ R_Area_New (uniqueness verification area AreaI_New), the process returns to step S603, and these areas are again set. , The template creation processing described above is repeated (steps S603 and S609).
  • step S611 When a unique temporary template is extracted in step S611 by such processing (step S613), the image data (image signal information) of the temporary template is extracted as a template (step S615), The template creation processing ends.
  • the visual field common area AND— Area and the maximum field of view OR—Area are set as shown. Search within this common field of view AND—Area with an area AreaT of the same size as the template, make each area a temporary template, and determine whether each temporary template is unique within the maximum field of view OR—Area. Verify. As a result, when a unique temporary template is detected, the pattern is registered as it is as a template.
  • a unique pattern Q is detected by this process, for example, the target of search alignment measurement is set so that this pattern Q is included in the common area of view (AND Area). Reset the area AreaV.
  • the visual field common area AND—Area—New and the visual field maximum range OR—Area—New are detected again. (Of course, the common field of view AND—Area—New is detected to include the pattern Q.)
  • the template creating method of the present embodiment when a unique pattern suitable for use as a template is not detected at a preset measurement position of search alignment measurement, a unique While changing (shifting) the pattern search area little by little, detection of the unique pattern is repeated and continued. Therefore, there is a high possibility that an appropriate template can be automatically created, and the burden on the operator involved in template creation can be reduced.
  • a pattern that is likely to be a unique pattern is searched within the maximum range of the visual field, and the search area is set so as to include the searched pattern. Make changes. Therefore, there is a high possibility that an appropriate template can be detected after changing the unique pattern search area, and the template can be created more efficiently.
  • a template can be created from both design data and image data from an actual wafer, so that convenience is improved.
  • the searchable area can be expanded. Therefore, even if the alignment accuracy and the wafer loading accuracy of the exposure apparatus are slightly reduced, it is possible to cope with these by the search alignment, and as a result, a higher performance exposure apparatus can be provided.
  • the uniqueness criterion for extracting a unique pattern for creating an actual template in step S611 and the unique pattern for changing the unique pattern search area in step S627 are used.
  • the criterion of uniqueness for extracting a criterion is the same, a different criterion may be used, for example, the latter criterion is relaxed compared to the former.
  • the processing is terminated under arbitrary conditions such as setting a limit on the number of times the area is changed.
  • the template creation area is changed. Another method of resetting and retrying template creation will be described with reference to FIGS. 23 to 26.
  • FIG. 23 is a flowchart showing a template creation process according to the fifth embodiment of the present invention.
  • an area for creating a template is set (step S651). Specifically, as in the fourth embodiment, the field of view common area AND_Area and the maximum field of view with respect to the target measurement area are considered in consideration of wafer loading errors and wafer manufacturing errors with respect to the target measurement area of search alignment measurement.
  • the OR_Area is detected, and in this embodiment, the maximum field of view OR_Area is set as a template creation area.
  • image data (pattern signal information) of the maximum field of view OR_Area is obtained.
  • this image data may be generated from the design information, or may be obtained by imaging an actual pattern on a wafer.
  • a template is extracted from the template creation area (step S653).
  • any method may be used, for example, each of the first to third embodiments described above may be applied. In the present embodiment, the same method as in the first embodiment is used. That is, as described with reference to FIGS.
  • an area AreaT having the same size as the template is set as a temporary template in the template creation area Areal (the maximum field of view OR_Area), and the search area (Areal) Is searched in the window AreaS of the same size as the temporary template AreaT, and the correlation value between the image of the area AreaS (pattern signal information) and the image of the temporary template T (pattern signal information) at each position is calculated by the above-described equation ( The area where the correlation value is a sufficiently high peak is detected sequentially based on 1) or Equation (2). Then, when correlation peak values are detected for all the temporary templates AreaT set in the template creation area Areal, a unique temporary template having no peak other than itself is extracted from the correlation peak values.
  • step S653 when one or more unique temporary templates are extracted (step S655), the most unique temporary template is selected as an actual template, and the image data (image signal information) is extracted. It is extracted as a template (step S657), and the template creation processing ends.
  • step S653 If it is determined in step S653 that a unique temporary template has not been extracted at all (step S655), the setting of the template creation area Areal is changed also in the present embodiment.
  • the image data (image signal information) of the periphery of the current template creation region Areal it is estimated from the image data (image signal information) of the periphery of the current template creation region Areal that the feature amount of the pattern feature is large and that there is a high possibility that a unique pattern exists.
  • the area is detected (step S661), and the template creation area Areal is shifted in the direction by a desired amount to make a new template creation area AreaI_New (step S663).
  • Figure 24A shows the current template creation area Areal (maximum field of view ⁇ R Area) Is set as follows, this maximum field of view OR—Along the four sides around the area, the maximum field of view OR—A belt-shaped area with a width L1 is defined inside the area, and thus the maximum field of view OR — Set eight areas E1 to E8 at the periphery of the area as shown.
  • the pattern features include, for example, the pattern amount (pixel amount of a predetermined pixel value) in the binary pattern, the pattern density, the frequency component detection result, the amount of the edge line segment in the detected edge pattern, and the number of edges. , The density of the edge, the frequency component detection result of the edge line segment, and the like can be used.
  • a pattern as shown in FIG. 24B is arranged in the template creation area Areal shown in FIG. 24A.
  • the forces where patterns are arranged in areas El, E2, E3, E5 and E7 are arranged in area E1, for example, frequency analysis and edge detection are performed, and pattern features are extracted.
  • the feature amount of the region E1 becomes the largest.
  • the template creating region Areal is shifted to a predetermined region that is set in advance in association with the peripheral region, and a new template creating region is set.
  • Areal—Set New In the example shown in FIG. 24B, the template creation area Areal is shifted by a predetermined amount in the direction of the area E1 toward the upper side in the drawing, and a new template creation area Areal-New is set.
  • the new template creation area AreaI_New may be set in any direction and at any distance from the original area Areal. For example, it may be set so that it partially overlaps the original template creation area A real as shown in FIG. 25A, or it may be set so that it does not completely overlap as shown in FIG. 25B. Good.
  • step S652 When a new template creation area is set in this way, step S652 Then, the image data of the template creation area Areal-New is obtained, and the template creation processing described above is repeated for this new template creation area Areal-New (steps S653 to S655).
  • step S653 When a unique temporary template is extracted in step S653 by such processing (step S655), image data (image signal information) of the temporary template is extracted as a template (step S657).
  • image data (image signal information) of the temporary template is extracted as a template (step S657).
  • the template creation processing ends.
  • a unique pattern suitable for use as a template in a preset template creation area (the maximum field of view OR_Area in the present embodiment).
  • the template search position is shifted and reset, and the template is created again. Therefore, the possibility of automatically creating a template is increased, and the burden on the operator involved in template creation can be reduced.
  • an area or direction in which a unique pattern is likely to be detected is estimated based on the pattern feature of the periphery of the template creation area. Change the template creation area based on the original. Therefore, at least it is possible to avoid a situation where the template creation area is reset in an area where no pattern exists, and it is possible to reset the template creation area in an area where it is highly likely that the template can be appropriately extracted. it can.
  • a template can be created from both design data and image data from an actual wafer, so that convenience is improved.
  • the template can be created by changing the search range (the maximum field of view ⁇ R_Area), the searchable area can be enlarged, and the alignment accuracy of the exposure apparatus and the wafer loading can be improved. Even if the accuracy is reduced, it can be dealt with by search alignment. As a result, a higher performance exposure apparatus can be provided.
  • step S651 the maximum field of view OR Area was set as the template creation area, and in step S652, image data of the same area as the maximum field of view OR—Area was obtained.
  • image data of an area wider than the maximum field of view OR—Area it is also possible to acquire image data of an area wider than the maximum field of view OR—Area and use it for later detection of pattern features. That is, as shown in FIG. 26, for example, when acquiring image data in step S652, an image of the area AreaE extended by the distance L2 in each of the four directions of each side force of the maximum field of view OR_Area is acquired. . Then, the template cannot be extracted from the maximum field of view OR_Area, and the image data (image signal information) of this extended part is used when detecting the pattern feature around the maximum field of view OR_Area to shift the template creation area Areal.
  • the four-sided forces of the maximum field of view ⁇ R_Area are also sandwiched between a line defined outside by a distance L2 and a line defined inside by a distance L3 from the four sides. 24A and 24B, the areas E1 to E8 are set, the feature amount of the pattern feature of each area is detected, and the moving direction of the template creation area is determined based on this.
  • the template creation area can be reset more efficiently.
  • the direction and distance for shifting the template creation region may be set arbitrarily.
  • a plurality of reset positions may be prepared in advance, or, for example, the direction in which the template creation region is shifted and the shift distance may be determined according to the pattern characteristics of the peripheral portion. Good. For example, the center of gravity of a series of pattern features may be detected, and the template creation area may be shifted in the direction of the center of gravity.
  • the template creation area is moved and reset. However, from the initial stage of template creation, it is necessary to select an area with a lot of information suitable for template creation and set it as the template creation area. You may do it.
  • a process of selecting an area suitable for template creation from a wide area around the target measurement area and creating a template using image data of the area is described as a sixth embodiment according to the present invention. This will be described with reference to FIGS.
  • FIG. 27 is a flowchart showing the flow of template creation processing according to the sixth embodiment of the present invention.
  • wide-area image data (image signal information) is acquired by a low-magnification (first detection magnification) imaging camera (step S701).
  • the range in which image data is acquired includes the target measurement area (search measurement visual field area) during search alignment measurement and an area that includes a plurality of template creation areas.
  • Magneticnification that is higher than the imaging magnification (first detection magnification) in this step for acquiring wide-area image data and lower than the detection magnification set during fine alignment measurement. 2 is fixedly determined in advance in consideration of the observation field of view (VIEW-Area) under wafer magnification and wafer manufacturing errors.
  • VIEW-Area observation field of view
  • the maximum field of view OR—Area is compared with the maximum field of view OR—Area when the observation field of view VIEW—Area is imaged at medium magnification during search alignment measurement.
  • the target measurement area during search alignment measurement is an area that is approximately the center of AreaVO.
  • the image data) of the detection magnification is obtained.
  • the wafer surface is imaged by an imaging system having a low-magnification optical system provided exclusively for such use. get.
  • an FIA type alignment sensor having a plurality of light receiving systems (low magnification, medium magnification, high magnification) is used.
  • An alignment sensor having such a concept is disclosed in, for example, JP-A-2002-257512.
  • the alignment sensor is not shown in the figure, the objective lens (objective optical system) is provided in common, but the light receiving system (high magnification system) with a relatively high magnification and a narrow field of view and the comparatively medium magnification It has two light receiving systems with a wide light receiving system (medium magnification system).
  • the light beam reflected by the surface is split by a beam splitter or the like and is incident on each light receiving system.
  • a low-magnification light receiving system including a sensor
  • low-magnification image data in step S701 is captured by, for example, such an alignment sensor provided in the exposure apparatus. I do.
  • an area AreaY corresponding to the size of the unique pattern to be detected is set in the low-magnification image data area AreaX, and this is set as a temporary unique pattern (step S703).
  • the size of the unique pattern detected here is set to an arbitrary size that is not limited to the same force as the size of the template to be finally generated. May be.
  • low-magnification image data (low-magnification image data area AreaX) is searched for in a window AreaZ having the same size as this area AreaY, and an image (pattern signal information) in the area AreaZ at each position is temporarily determined.
  • the correlation value with the image (pattern signal information) of the unique pattern AreaY is sequentially obtained based on the above formula (1) or (2), and a region where the correlation value is a sufficiently high peak is detected. (Step S705).
  • step S707 When correlation peak values are detected for all provisional unique patterns AreaY set in the low-magnification image data area AreaX (step S707), a truly unique provisional unique pattern having no peak other than itself is selected from the correlation peak values. Is extracted (step S709). In the example shown in FIG. 28, it is assumed that a truly unique pattern is detected in the area AreaU, for example.
  • step S703 the processing in step S703 is performed. There is no need to spend a long time in the processing of step S709, which is a practical problem.
  • Step S711 After detecting the area AreaU including the unique pattern in the low-magnification image data area AreaX, next, the area Areal for acquiring medium-magnification image data (image signal information) for actually creating a template is set ( Step S711).
  • Area to acquire medium magnification image As shown in Fig. 28, Areal is an area of the same size as the maximum field of view OR-Area at the time of search alignment measurement (medium magnification measurement), and its center is the same as the center of area U, which has a unique pattern. Set the area so that At this time, the target visual field area AreaV at the time of search alignment measurement is also changed so that the visual field maximum range OR_Area becomes such an area.
  • the template creation area Areal on the wafer is imaged through the medium-magnification optical system, and image data (image signal information) is obtained (step S713).
  • an area AreaT corresponding to the size of the template is set in the unique pattern search area AreaA (view common area AND_Area) in the template creation area Areal, and this is set as a temporary template (step S715).
  • the template creation area Areal is searched in the window AreaS having the same size as the area AreaT, and the correlation value between the image (pattern signal information) of the area AreaS and the image (pattern signal information) of the provisional template AreaT at each position. are sequentially obtained based on the above equation (1) or equation (2), and a region where the correlation value is a sufficiently high peak is detected (step S717).
  • step S719 when a correlation peak value is detected for all the temporary templates AreaT set in the unique pattern search area AreaA (step S719), a unique pattern having no peak other than itself is selected from the correlation peak values. Is extracted (step S721). Then, the image data (image signal information) of the unique pattern is extracted as a template (step S723).
  • an area where a unique pattern is likely to exist is determined by using a sufficiently wide range of image data for an area to be a template creation area.
  • the area is estimated and the template creation process is performed using that area as the template creation area. Therefore, there is a very high possibility that a unique pattern for which a template can be created is detected from the first set area, and efficient template creation processing can be performed.
  • the frequency of processing such as resetting the template creation area and reacquiring image data because a unique pattern is not detected can be reduced. It is possible to efficiently perform template creation, operation of various devices related to the exposure apparatus, and exposure processing.
  • a template is created by detecting a unique pattern in a wide range
  • a pattern having strong uniqueness can be used as a template.
  • the ability to create high-quality templates with strong uniqueness and strong discrimination can be achieved.
  • the template can be created by changing the search range (the maximum field of view ⁇ R_Area), the searchable area can be enlarged, and the alignment accuracy of the exposure apparatus and the wafer loading can be improved. Even if the accuracy is reduced, it can be dealt with by search alignment. As a result, a higher performance exposure apparatus can be provided.
  • step S703-step S711 by detecting a unique pattern, an area where a unique pattern suitable for template creation is likely to exist is detected from the low-magnification image data area AreaX, and the template is actually detected. It was set as an area for creating.
  • the method of estimating a region where a unique pattern is likely to exist is not limited to this.
  • the feature amount of the pattern feature detected in order to move the visual field maximum range ⁇ R—Area in the fifth embodiment that is, the amount of the pattern in the binarized pattern (the pixel amount of the predetermined pixel value)
  • Unique patterns can exist using the pattern density, frequency component detection results, the amount of edge segments in the edge detected pattern, the number of edges, the edge density, the frequency component detection results of the edge lines, etc. A highly likely region may be estimated.
  • the template creation processing (reference data extraction processing) after setting the template creation area Areal (field-of-view maximum area OR—Area) is not limited to the processing in step S713 and step S723 described above. ,.
  • a template may be created by applying each processing as in the first embodiment to the third embodiment described above.
  • the template is created based on the actual image data on the wafer.
  • the template may be created based on the design data.
  • an area AreaU having a unique pattern is detected from the low-magnification image data area AreaX, and a template creation area Area is detected based on the detected area.
  • a plurality of areas having a unique pattern may be detected, and a template may be created from each area by sequentially setting the area as a template creation area.
  • the plurality of detected areas may be ranked based on uniqueness, and a template may be created for each area in that order.
  • FIG. 29 is a flowchart showing the manufacturing process of an electronic device such as a semiconductor chip such as an IC or an LSI, a liquid crystal panel, a CCD, a thin-film magnetic head, or a micromachine.
  • step S810 the function and performance of the device, such as the circuit design of the electronic device, are designed, and the pattern is designed to realize the function.
  • step S820 a reticle on which the designed circuit pattern is formed is manufactured.
  • a wafer (silicon substrate) is manufactured using a material such as silicon (Step S830).
  • step S840 using the reticle manufactured in step S820 and the wafer manufactured in step S830, actual circuits and the like are formed on the wafer by lithography technology or the like. Specifically, first, a thin film with an insulating film, an electrode wiring film, or a semiconductor film is formed on the wafer surface (step S841), and then, using a resist coating device (coater) on the entire surface of the thin film. A photosensitive agent (resist) is applied (step S842).
  • a photosensitive agent resist
  • Step S843 the substrate after the application of the resist is loaded on the wafer holder, the reticle manufactured in step S830 is loaded on the reticle stage, and the pattern formed on the reticle is reduced and transferred onto the wafer ( Step S843).
  • each shot area of the wafer is sequentially aligned by the above-described alignment method according to the present invention, and a reticle pattern is sequentially transferred to each shot area.
  • the wafer is unloaded from the wafer holder, and is developed using a developing device (developer) (Step S844). As a result, a resist image of the reticle pattern is formed on the wafer surface.
  • Step S846 an etching process is performed on the wafer after the development process using an etching apparatus. Then, the resist remaining on the wafer surface is removed by using, for example, a plasma asher (Step S846).
  • the device is assembled next (step S850). Specifically, the wafer is diced and divided into individual chips, each chip is mounted on a lead frame or package, bonding is performed to connect electrodes, and packaging processing such as resin sealing is performed.
  • step S860 an inspection such as an operation check test and a durability test of the manufactured device is performed (step S860), and the manufactured device is shipped as a completed device.
  • a template S for performing search alignment of the wafer W is illustrated as an example, and the force S described in the present invention, for example, a template generation for performing positioning of the reticle R,
  • the present invention can also be applied to the generation of a template for performing fine alignment.
  • the present invention is applied to the alignment sensor of the off-axis method as an example.
  • the image (pattern signal) of the mark captured by the image sensor is processed to perform the mark operation. Any device that detects a position can apply the present invention to all of them.
  • the present invention can be applied to a step-and-repeat type or step-and-scan type reduction projection type exposure apparatus, mirror projection type, proximity type, contact type, etc. It is possible.
  • the present invention can be applied to an apparatus and an exposure apparatus for transferring a circuit pattern onto a glass substrate or a silicon wafer for producing a reticle. That is, the present invention is applicable irrespective of the exposure method and application of the exposure apparatus.
  • exposure light EL of exposure apparatus 100 of the present embodiment g-line or i-line, or light emitted from a KrF excimer laser, an ArF excimer laser, or an F2 excimer laser has been used.
  • KrF excimer laser (248nm), ArF excimer laser (193nm), F2 laser 248nm
  • F2 laser 248nm
  • a thermionic emission type lanthanum hexaborite (LaB6) or tantalum (Ta) can be used as an electron gun.
  • a single-wavelength laser in the infrared or visible range oscillated from a DFB semiconductor laser or a fiber laser is amplified by an erbium (or both erbium and yttrium) fiber amplifier, Further, a harmonic converted into a wavelength of ultraviolet light using a nonlinear optical crystal may be used.
  • a single wavelength oscillation laser an itribium-doped fiber laser is used.
  • the exposure apparatus can control the position of the substrate W with high accuracy and high speed, and can perform exposure with high exposure accuracy while improving throughput.
  • the components are assembled electrically, mechanically, or optically, they are manufactured by comprehensive adjustment (electrical adjustment, operation confirmation, etc.). It is desirable that the exposure apparatus be manufactured using a clean frame whose temperature, cleanliness, etc. are controlled.

Description

明 細 書
基準パターン抽出方法とその装置、パターンマッチング方法とその装置、 位置検出方法とその装置及び露光方法とその装置
技術分野
[0001] 本発明は、例えば半導体素子、液晶表示素子、プラズマディスプレイ素子、薄膜磁 気ヘッド等の電子デバイスを製造する際のリソグラフィー工程における露光方法に関 し、特に、露光装置でウェハゃレチクル等の位置決めに使用して好適な基準パター ンの抽出方法とその装置、抽出した基準パターンを用いてマーク等の画像を検出す るパターンマッチング方法とその装置、検出したマーク等に基づいて露光位置を検 出する位置検出方法とその装置、及び、検出した位置に基づいて露光を行う露光方 法とその装置に関する。
背景技術
[0002] 半導体素子、液晶表示素子、プラズマディスプレイ素子、薄膜磁気ヘッド等の電子 デバイスを製造する際には、露光装置を用いて、マスクゃレチクル (以下、レチクルと 総称する)に形成された微細なパターンの像を感光剤が塗布された半導体ウェハや ガラスプレート等の基板上に繰り返し投影露光する。この際、露光装置においては、 基板の位置と投影されるパターンの像の位置とを高精度に合わせる必要がある。特 に半導体素子の製造においては、近年の集積度の向上に伴って形成するパターン が非常に微細になっている。従って、所望の性能を有する半導体素子を製造するた めには、非常に高精度な位置合わせが要求される。
[0003] 露光装置におけるこの位置合わせは、基板ゃレチクルに形成されたァライメントマ ーク(以下、単にマークあるいはパターンと称する場合もある。)をァライメントセンサに より検出し、基板等の位置を検出し、その位置を制御することにより行う。マークの位 置を検出する方法としては種々の方法が用いられている力 近年、画像処理によりマ ークの位置を検出する FIA (Field Image Alignment)方式のァライメントセンサが用い られるようになっている。これは、マーク付近の基板表面を撮像した信号 (パターン信 号、 n次元信号)を画像処理して、マークの位置情報を検出する方法である。そして 画像処理の一方法として、予め用意したマーク信号に対応する基準パターン (テンプ レート)と撮像した画像とを照合 (マッチング)することにより、マークを検出するテンプ レートマッチングの方法が知られている(例えば特許文献 1参照)。
特許文献 1 :特開 2001 - 210577号公報
[0004] ところで、そのようなテンプレートマッチングにおいては、テンプレートの生成が重要 である。
通常、テンプレートは、実際のデータの中から抽出したパターンをテンプレートとし て指定するか、あるいは、ァライメントマーク等のテンプレートとすべき既知のパターン の情報(マークの設計データやウェハ上での配置情報等)に基づレ、て作成するのが 一般的である。そのため、テンプレートの作成用に実際のデータが得られていない場 合や得られない場合、又は、テンプレートとすべきパターンが特定されていない場合 等には、テンプレートを設定することができない。そのような場合には、作業者がテン プレートを選択する方法が考えられる力 S、そのような方法では、ロバスト性が無い、精 度が悪い、探すのが困難、作業者の個人差に性能が依存する等の問題があり適切 ではない。
[0005] また、ァライメント時に撮像される基板表面の画像の範囲(観察視野)は、ウェハの 投入動作に関わる誤差及びパターンの製造に係る誤差等により、常に一定の位置と はならず、所定の範囲内でばらつく。そのような条件の下で、テンプレートとするパタ ーンは、観察視野に必ず含まれるパターンである必要がある。観察視野内にそもそも そのパターンが存在しなければ、検出することが不可能であるからである。一方で、 テンプレートとするパターンは、観察視野となり得る最大の範囲(以後、観察視野最 大範囲あるいは入力データ最大範囲と称する。 )に唯一存在するユニークなパターン である必要がある。複数存在するパターンを検出したとしても、その位置を特定でき ないからである。
しかしながら、観察視野のばらつき (誤差)が大きくなると、観察視野となり得る最大 範囲は広くなり、逆に観察視野に常に含まれる領域は小さくなる。場合によっては、 観察視野に常に含まれる領域が存在しない場合も生じ得る。そのような状況では、テ ンプレートとするパターンを選定するのが難しぐあるいは困難となり、実質的にテン プレートマッチングをすることができなくなる。
テンプレートとなり得るパターンの情報を増やすためには、観察視野に常に含まれ る領域を大きくする必要がある。し力しながら、そのためには観察視野として取得する 領域のばらつき (誤差)を小さくする必要があり、新たな困難性が生じる。
発明の開示
[0006] 本発明の目的は、テンプレートマッチングのために有効な基準パターン(テンプレ ート)を適切に効率良く抽出することのできる基準パターン抽出方法とその装置を提 供することにある。具体的には、観察視野に常に含まれる領域に依存せずに、観察 視野最大範囲から有効な基準パターンを抽出することのできる基準パターン抽出方 法とその装置を提供することにある。また、有効にテンプレートマッチングを行うことが できるテンプレートを、テンプレート作成用の実際のデータを要しないで生成すること のできる基準パターン抽出方法とその装置を提供することにある。
[0007] また、本発明の他の目的は、そのように抽出された有効な基準パターン (テンプレ ート)を用いて、適切にテンプレートマッチングを行い所望のマーク等を検出すること のできるパターンマッチング方法を提供することにある。具体的には、観察視野のば らつきがある程度生じていても、本発明に関わる方法により観察視野最大範囲全域 力、ら抽出されたテンプレートを用いて、適切に所望のパターンの検出ができるパター ンマッチング方法を提供することにある。また、実際のデータを要しないで作成された 本発明に関わるテンプレートを用いて適切に所望のパターンの検出ができるパター ンマッチング方法を提供することにある。
[0008] また、本発明の他の目的は、そのような本発明に関わるテンプレートマッチング方法 を用いて、位置決めに用いる所望のパターンを検出し、その位置を適切に検出する ことのできる位置検出方法とその装置を提供することにある。
また、本発明の他の目的は、そのような本発明に関わる位置検出方法を用いて、基 板等の露光位置を検出し、基板等の所望の位置に適切に露光を行うことのできる露 光方法とその装置を提供することにある。
[0009] 前記目的を達成するために、本発明の基準パターン抽出方法は、物体上の所定領 域(OR— Area)内に任意に配置される前記所定領域(OR— Area)よりも小さい面 積を有する被計測領域 (VIEW— Area)内において、ユニークな信号特徴を有する 基準パターンを抽出する基準パターン抽出方法であって、前記所定領域 (OR— Are a)内のパターン信号情報を得る第 1工程と (ステップ S410)、前記第 1工程で得られ た前記パターン信号情報の中から、前記所定領域 (〇R_Area)内で前記被計測領 域 (VIEW_Area)が取り得る全ての位置において、各位置ごとに被計測領域 (VIE W_Area)内でユニークであると認識可能であり、そのユニークさが互いに異なる複 数のユニークパターンを抽出する第 2工程と(ステップ S430 ステップ S470)、前記 第 2工程で抽出された前記複数のユニークパターンの全てを、前記被計測領域 (VI EW_Area)が前記所定領域(〇R_Area)内で取り得る位置とは無関係に、前記基 準パターンとして抽出する第 3工程と(ステップ S480)を有する(図 11A—図 11C及 び図 12参照)。
[0010] このような基準パターン抽出方法によれば、第 1工程で得たパターン信号情報に基 づいて、第 2工程において、例えば観察視野 (VIEW— Area)となり得る最大の範囲 等である所定領域(OR— Area)内において、ユニークさが互いに異なり、かつ、その 所定領域(OR— Area)内に任意に配置される被計測領域 (VIEW— Area)内にお いてもユニークであると認識されるユニークなパターンを複数抽出している。そして、 第 3工程において、抽出されたユニークなパターンの全てを、被計測領域 (VIEW— Area)が取り得る範囲とは無関係に、基準パターン (テンプレート)として設定してい る。すなわち、観察視野に常に含まれる領域に依存せずに、観察視野最大範囲から 複数の基準パターンを抽出している。
従って、テンプレートマッチング時等に観察視野 (VIEW— Area)を設定して画像 を取り込んだ場合、その観察視野 (VIEW_Area)内には、設定した複数のユニーク パターンのいずれかであって、観察視野内においても所定領域内においてもュニー クパターンを検出することができ、このユニークパターンの位置に基づいて位置計測 を適切に行うことができる。
[0011] 好適には、前記第 2工程では、前記被計測領域 (VIEW_Area)よりも小さい面積 の特定領域(エレメント)単位で、個々の前記ユニークパターンを抽出する。
また好適には、前記第 2工程では、パターン形状特徴に関する情報を前記ュニー クさの指標として用いながら、前記ユニークパターンを抽出する。
また好適には、前記第 2工程では、前記パターン形状特徴に関する情報に加えて、 互いに異なるパターン形状特徴を有する各パターンの個数及びそれらの配置関係 の少なくともいずれか一方をも前記ユニークさの指標として用いながら、前記ユニーク パターンを抽出する。
[0012] また好適には、前記第 2工程では、互いに同一のパターン形状特徴を備えたバタ ーンの個数及びそれらの配置関係の少なくともいずれか一方を、前記ユニークさの 指標として用いながら、前記ユニークパターンを抽出する。
また好適には、前記パターン間の配置関係を前記ユニークさの指標として使用する 場合には、配置関係に関する設計値情報を使用する。
また好適には、前記パターン形状特徴に関する情報を、前記所定領域 (〇R_Are a)内のパターン信号情報に対する、個々の前記特定領域内のパターン信号情報ご との相関演算処理又は SSDA法を用いた演算処理を行うことによって求める。
また好適には、前記パターンの形状特徴に関する情報を、個々の前記特定領域内 のパターン信号情報における SN比、エッジの量、エントロピー量、分散値、モーメン ト量の内の少なくともいずれ力 1つの情報量を用いて求める。
[0013] また好適には、前記第 1工程では、前記所定領域(OR— Area)を一度に撮像可能 な撮像手段を用いて、前記所定領域(OR— Area)内のパターン信号情報を求める また好適には、前記第 1工程では、前記被計測領域 (VIEW— Area)内を撮像可 能な撮像手段を用い、撮像手段に対する前記物体の位置を変化させながら複数位 置での前記被計測領域 (VIEW_Area)内のパターン信号情報をそれぞれ求め、前 記求められた複数のパターン信号情報を合成することにより、前記所定領域 (OR_ Area)内のパターン信号情報を求める。
また好適には、前記第 1工程では、前記物体上に形成されたパターンに関する設 計値情報を用いて、前記撮像手段に対する前記物体の位置決めを行う。
[0014] また、本発明に係るパターンマッチング方法は、前述した基準パターン抽出方法に より求められた前記基準パターンを用いて、前記物体上の前記被計測領域 (VIEW —Area)内のパターン信号情報に対して相関演算処理を行う。
好適には、前記複数のユニークパターンの全てを順次用いて、前記被計測領域 (V IEW— Area)内のパターン信号情報に対して相関演算処理を行う。
[0015] また、本発明に係る基準パターン抽出装置は、物体上の所定領域 (OR_Area)内 に任意に配置される前記所定領域 (OR_Area)よりも小さい面積を有する被計測領 域 (VIEW_Area)内において、ユニークな信号特徴を有する基準パターンを抽出 する基準パターン抽出装置であって、前記所定領域 (OR_Area)内のパターン信 号情報を得るパターン信号情報取得手段と、前記得られた前記パターン信号情報の 中から、前記所定領域(〇R_Area)内で前記被計測領域 (VIEW_Area)が取り得 る全ての位置において、各位置ごとに被計測領域 (VIEW_Area)内でユニークで あると認識可能であり、かつそのユニークさが互いに異なる複数のユニークパターン を抽出するユニークパターン抽出手段と、
前記抽出された前記複数のユニークパターンの全てを、前記被計測領域 (VIEW —Area)が前記所定領域 (OR— Area)内で取り得る位置とは無関係に、前記基準 パターンとして抽出する基準パターン抽出手段とを有する。
[0016] また、本発明に係るパターンマッチング装置は、前述した基準パターン抽出装置に より求められた前記基準パターンを用いて、前記物体上の前記被計測領域 (VIEW —Area)内のパターン信号情報に対して、前記複数のユニークパターンの全てを順 次用レ、て相関演算処理を行う相関演算処理手段を有する。
[0017] また、本発明に係る他の基準パターン抽出方法は、物体上に形成された所定パタ ーンを識別する際に使用される基準パターンを抽出する基準パターン抽出方法であ つて、前記物体上に形成されたパターンの形状及びその配置情報の少なくともいず れか一方に関する設計値情報を得る第 1工程と、前記設計値情報をパターン信号情 報に変換する第 2工程と、前記パターン信号情報の中から、ユニークな信号特徴を 有するユニークパターンを抽出する第 3工程と、前記第 3工程で抽出されたユニーク パターンに基づいて前記基準パターンを決定する第 4工程とを有する。
[0018] このような基準パターン抽出方法によれば、第 1工程で物体上に形成されたパター ンに関する設計値情報を獲得し、第 2工程においてその設計値情報より物体上に形 成されたパターンのパターン信号データを生成している。そして、そのパターン信号 データより、第 3工程においてユニークなパターンを抽出し、第 4工程においてこれを テンプレート(基準パターン)として設定している。このように、この基準パターン抽出 方法では、実際の物体上から撮像したパターン信号データを一切使用せずに、基準 パターンを生成している。また、 自動的にユニークなパターン、すなわち、パターン検 出領域内に単一的に存在しそのパターンを検出することにより位置が特定できるよう なパターンを検出してこれをテンプレートとしている。従って、パターン信号データが 得られない場合や、テンプレートとすべきパターンが明示されていない場合等におい ても、有効なテンプレートを適切に生成することができる。
[0019] 好適には、前記第 3工程では、前記パターン信号情報に対する、前記パターン信 号情報内の部分パターン信号情報ごとの相関演算処理、又は SSDA法を用いた演 算処理を行うことによって、前記ユニークパターンを抽出する。
また好適には、前記第 3工程では、前記部分パターン信号情報から得られる領域 の大きさを変更しながら前記ユニークパターンを抽出する。
また好適には、前記第 4工程では、前記第 3工程において前記ユニークパターンが 複数抽出された場合には、前記パターン信号情報内の他のパターンに対して特徴 差が最も大きいユニークパターンを前記基準パターンとして決定する。
[0020] また、本発明に係る基準パターン抽出装置は、物体上に形成された所定パターン を識別する際に使用される基準パターンを抽出する基準パターン抽出装置であって 、前記物体上に形成されたパターンの形状及びその配置情報の少なくともいずれか 一方に関する設計値情報を得る設計値情報取得手段と、前記設計値情報をパター ン信号情報に変換する情報変換手段と、前記パターン信号情報の中から、ユニーク な信号特徴を有するユニークパターンを抽出するユニークパターン抽出手段と、前 記抽出されたユニークパターンに基づいて前記基準パターンを決定する基準パター ン決定手段とを有する。
[0021] また、本発明に係る基準パターン抽出方法は、物体上に形成された所定パターン を識別する際に使用される基準パターンを抽出する基準パターン抽出方法であって 、物体上を撮像してパターン信号情報を求める第 1工程と、前記物体上に形成され たパターンの形状及び配置状態の少なくともいずれか一方に関する設計値情報を得 る第 2工程と、前記第 1工程で得られたパターン信号情報と、前記第 2工程で得られ た設計値情報とに基づいて、前記パターン信号情報の中の一部分を、前記基準パタ ーンに関する情報として抽出する第 3工程とを有する。
[0022] このような基準パターン抽出方法によれば、まず、第 1工程において物体上に形成 されたパターンを撮像してパターン信号データを得ている。そして、第 2工程で物体 上に形成されたパターンに関する設計値情報を獲得し、第 3工程においてその設計 値情報と撮像パターン信号データとに基づいて、基準パターンを生成している。すな わち、テンプレートとすべきパターン信号の検出や、そのパターンの領域の検出は設 計値情報に基づいて行い、実際にテンプレートとすべきパターン信号を獲得する点 のみ、実際の撮像データを用いている。従って、テンプレートとして実際のパターンと 相関の高いパターンを設定することができる。また、設計値情報を用いた処理と適宜 並列に処理を行うことができるので、効率良ぐまた性能を相互にチェックしたり確認 するなどしながらテンプレートを設定することができ有効である。
[0023] 好適には、前記第 3工程は、前記設計値情報をパターン信号情報に変換する工程 と、前記変換されたパターン信号情報の中から、ユニークな信号特徴を有する部分 の位置に関するユニークパターン位置情報を求める工程と、前記ユニークパターン 位置情報に基づいて、前記第 1工程で得られたパターン信号情報の中の一部分を 特定する工程と、前記特定された一部分を、前記基準パターンに関する情報として 抽出する工程とを有する。
[0024] また、本発明に係る基準パターン抽出装置は、物体上に形成された所定パターン を識別する際に使用される基準パターンを抽出する基準パターン抽出装置であって 、物体上を撮像してパターン信号情報を求めるパターン信号情報取得手段と、前記 物体上に形成されたパターンの形状及び配置状態の少なくともいずれか一方に関す る設計値情報を得る設計値情報取得手段と、前記パターン信号情報取得手段により 得られたパターン信号情報と、前記設計値情報取得手段で得られた設計値情報とに 基づいて、前記パターン信号情報の中の一部分を、前記基準パターンに関する情報 として抽出する基準パターン抽出手段とを有する。 [0025] また、本発明に係るパターンマッチング方法は、物体上の所定領域(OR— Area) 内に形成された所定パターンを識別するパターンマッチング方法であって、前記基 準パターンとして、互いにユニークさの異なる複数の基準パターンを用意する第 1ェ 程と、前記所定領域 (OR_Area)内を撮像してパターン信号情報を求める第 2工程 と、前記複数の基準パターンの全てを順次用いて、前記第 2工程で得られたパター ン信号情報に対する相関演算処理を行う第 3工程とを有する。
[0026] 好適には、前記複数の基準パターンは、パターン形状特徴が互いに異なっている また好適には、前記複数の基準パターンは、特定形状を有するパターンの個数及 び配置関係の少なくともいずれか一方が互いに異なっている。
[0027] また、本発明に係るパターンマッチング装置は、物体上の所定領域(〇R_Area) 内に形成された所定パターンを識別するパターンマッチング装置であって、前記基 準パターンとして、互いにユニークさの異なる複数の基準パターンを用意する基準パ ターン用意手段と、前記所定領域 (OR— Area)内を撮像してパターン信号情報を求 めるパターン信号情報取得手段と、前記複数の基準パターンの全てを順次用いて、 前記得られたパターン信号情報に対する相関演算処理を行う相関演算処理手段と を有する。
[0028] また、本発明に係る基準パターン抽出方法は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出方法であって、前記 物体上を、第 1の検出倍率を持つ光学系を介して光電検出して、第 1のパターン信 号情報を得る第 1工程と、前記第 1工程で得られた前記第 1のパターン信号情報に 基づいて、ユニークなパターン信号特徴を有するユニークパターンが存在すると推測 される前記物体上の所定領域を特定する第 2工程と、前記第 2工程で特定された前 記所定領域を、前記第 1の検出倍率よりも高倍な第 2の検出倍率を持つ光学系を介 して光電検出して、前記所定領域内の第 2のパターン信号情報を得る第 3工程と、前 記第 3工程で得られた前記第 2のパターン信号情報に基づいて、前記基準パターン とすべき前記ユニークパターンを抽出する第 4工程とを有する。
[0029] また、本発明に係る基準パターン抽出装置は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出装置であって、前記 物体上を、第 1の検出倍率を持つ光学系を介して光電検出して、第 1のパターン信 号情報を得る第 1情報取得手段と、前記第 1のパターン信号情報に基づいて、ュニ ークなパターン信号特徴を有するユニークパターンが存在すると推測される前記物 体上の所定領域を特定する所定領域特定手段と、前記特定された前記所定領域を
、前記第 1の倍率よりも高倍な第 2の検出倍率を持つ光学系を介して光電検出して、 前記所定領域内の第 2のパターン信号情報を得る第 2情報取得手段と、前記第 2の パターン信号情報に基づレ、て、前記基準パターンとすべき前記ユニークパターンを 抽出し決定する基準パターン決定手段とを有する。
[0030] また、本発明に係る基準パターン抽出方法は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出方法であって、前記 物体上の所定領域のパターン信号情報を得る第 1工程と、前記第 1工程で得られた パターン信号情報に基づいて、前記所定領域よりも小さい面積を有し当該所定領域 内の任意の位置に配置される被計測領域に必ず含まれる特定領域に存在するパタ ーンであって、前記所定領域内においてユニークなパターン信号特徴を有するュニ ークパターンを抽出し、当該抽出されたユニークパターンに基づいて前記基準パタ ーンを決定する第 2工程と、前記第 2工程において前記特定領域から前記ユニーク パターンが抽出できなかった場合に、前記第 1工程で得られたパターン信号情報に 基づいて、前記所定領域内の任意の位置に配置され、面積が前記特定領域の面積 以下のパターンであって、前記所定領域内においてユニークな信号特徴を有するュ ニークパターンを抽出する第 3工程と、前記第 3工程において前記ユニークパターン が抽出された場合に、前記ユニークパターンを含むように前記特定領域が規定され るように、前記所定領域を再設定する第 4工程とを有し、前記再設定された前記所定 領域に対して、前記第 1工程及び前記第 2工程を施し、前記ユニークパターンを抽出 する。
[0031] また、本発明に係る基準パターン抽出装置は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出装置であって、前記 物体上の所定領域のパターン信号情報を得るパターン信号情報取得手段と、前記 得られたパターン信号情報に基づいて、前記所定領域よりも小さい面積を有し当該 所定領域内の任意の位置に配置される被計測領域に必ず含まれる特定領域に存在 するパターンであって、前記所定領域内においてユニークなパターン信号特徴を有 するユニークパターンを抽出し、当該抽出されたユニークパターンに基づいて前記 基準パターンを決定する基準パターン決定手段と、前記基準パターン決定手段にお レ、て前記特定領域から前記ユニークパターンが抽出できなかった場合に、前記バタ ーン信号情報取得手段で得られたパターン信号情報に基づレ、て、前記所定領域内 の任意の位置に配置され、面積が前記特定領域の面積以下のパターンであって、 前記所定領域内においてユニークな信号特徴を有するユニークパターンを抽出する ユニークパターン抽出手段と、前記ユニークパターン抽出手段において前記ュニー クパターンが抽出された場合に、前記ユニークパターンを含むように前記特定領域が 規定されるように、前記所定領域を再設定する所定領域再設定手段とを有し、前記 再設定された前記所定領域に対して、前記パターン信号情報取得手段において前 記パターン信号情報を取得し、前記基準パターン決定手段において前記基準パタ ーンを決定する。
[0032] また、本発明に係る基準パターン抽出方法は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出方法であって、前記 物体上の所定領域のパータン信号情報を取得し、当該取得したパターン信号情報 に基づいて前記所定領域内においてユニークなパターン信号特徴を有するュニー クパターンを抽出し、当該抽出されたユニークパターンに基づいて前記基準パターン を決定する第 1工程と、前記第 1工程において前記所定領域から前記ユニークパタ ーンが抽出できなかった場合に、当該所定領域付近の領域であって、ユニークなパ ターン信号特徴を有するユニークパターンの存在する可能性の高い領域に、前記所 定領域を再設定する第 2工程とを有し、前記再設定された前記所定領域に対して前 記第 1工程を施し前記基準パターンを決定する。
[0033] また、本発明に係る基準パターン抽出装置は、物体上に形成されたパターンを識 別する際に使用する基準パターンを抽出する基準パターン抽出装置であって、前記 物体上の所定領域のパータン信号情報を取得し、当該取得したパターン信号情報 に基づいて前記所定領域内においてユニークなパターン信号特徴を有するュニー クパターンを抽出し、当該抽出されたユニークパターンに基づいて前記基準パターン を決定する基準パターン決定手段と、前記基準パターン決定手段にぉレ、て前記所 定領域力 前記ユニークパターンが抽出できなかった場合に、当該所定領域付近の 領域であって、ユニークなパターン信号特徴を有するユニークパターンの存在する 可能性の高い領域に、前記所定領域を再設定する所定領域再設定手段とを有し、 前記再設定された前記所定領域に対して、前記基準パターン決定手段において再 度前記基準パターンの決定を行う。
[0034] また、本発明に係るパターンマッチング方法は、前述の基準パターン抽出方法によ り抽出された前記基準パターンを用いて、前記物体上の被計測領域 (VIEW_Area )内のパターン信号情報に対して相関演算処理を行う。
また、本発明に係るパターンマッチング装置は、前述の基準パターン抽出装置によ り抽出された前記基準パターンを用いて、前記物体上の被計測領域 (VIEW— Area )内のパターン信号情報に対して相関演算処理を行う。
[0035] また、本発明に係る位置検出方法は、前述のパターンマッチング方法を用いて、前 記被計測領域 (VIEW— Area)内における前記ユニークパターンの位置情報を求め る。
また、本発明に係る位置検出装置は、前述のパターンマッチング装置を用いて、前 記被計測領域 (VIEW— Area)内における前記ユニークパターンの位置情報を求め る位置情報検出手段を有する。
[0036] また、本発明に係る露光装置は、前述の位置検出方法を用いて前記物体としての 基板上に形成されたユニークパターンの、前記物体の移動座標系上での位置情報 を求め、前記位置情報に基づいて前記基板を位置合わせし、前記位置合わせされ た基板上に、所定のパターンを転写露光する。
また、本発明に係る露光装置は、前記物体としての基板上に形成されたユニークパ ターンの、前記物体の移動座標系上での位置情報を求める前述の位置検出装置と 、前記位置情報に基づいて前記基板を位置合わせする位置合わせ手段と、前記位 置合わせされた基板上に、所定のパターンを転写露光する露光手段とを有する。 [0037] また、本発明に係る他の基準パターン抽出方法は、パターンが形成された物体上 力 ユニークな信号特徴を有する基準パターンを抽出する基準パターン抽出方法で あって、所定面積の被計測領域が配置され得る、前記被計測領域よりも広い範囲の 所定領域の中でユニークな信号特徴を有する基準パターンを抽出する基準パターン 抽出方法において、前記所定領域内の第 1位置に位置する前記被計測領域に含ま れるパターンから、ユニークな信号特徴を有する第 1基準パターンを抽出するとともに 、前記所定領域内の第 1位置とは異なる第 2位置に位置する前記被計測領域であつ て、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一部含 む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニークな信 号特徴を有する第 2基準パターンを抽出する。
[0038] また、本発明に係る他のパターンマッチング方法は、パターンが形成された物体上 に所定面積の被計測領域を配置し、前記被計測領域に含まれるパターン力も予め 定めた基準パターンと一致する特定パターンを検出するパターンマッチング方法で あって、前記被計測領域よりも広い範囲の所定領域の中から前記特定パターンを検 出するパターンマッチング方法において、前記基準パターンとして、前記所定領域内 の第 1位置に位置する前記被計測領域に含まれるパターンから、ユニークな信号特 徴を有する第 1基準パターンを抽出するとともに、前記所定領域内の前記第 1位置と は異なる第 2位置に位置する前記被計測領域であって、前記第 1位置に位置する前 記被計測領域とは異なるパターンを少なくとも一部含む当該第 2位置に位置する前 記被計測領域に含まれるパターンから、ユニークな信号特徴を有する第 2基準パタ ーンを抽出し、前記物体上に前記被計測領域を設定し、前記被計測領域内の前記 物体の像から前記第 1基準パターン又は第 2基準パターンと一致するパターンを検 出する。
[0039] また、本発明に係る他の位置検出方法は、パターンが形成された物体の位置情報 を検出する位置検出方法であって、前記物体上に所定面積の被計測領域を配置し 、前記被計測領域に含まれるパターンから予め定めた基準パターンと一致する特定 パターンを検出することによって前記特定パターンと前記被計測領域との相対位置 情報を検出する位置検出方法において、前記基準パターンとして、前記被計測領域 よりも広い範囲の所定領域内で第 1位置に位置する前記被計測領域に含まれるパタ ーンから、ユニークな信号特徴を有する第 1基準パターンを抽出するとともに、前記 所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域であって 、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一部含む 当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニークな信号 特徴を有する第 2基準パターンを抽出し、前記物体上に前記被計測領域を設定し、 前記被計測領域内の前記物体の像から前記第 1基準パターン又は第 2基準パター ンと一致する特定パターンを検出し、前記特定パターンと前記被計測領域との相対 位置情報を検出する。
[0040] また、本発明に係る他の基準パターン抽出装置は、パターンが形成された物体上 力 ユニークな信号特徴を有する基準パターンを抽出する基準パターン抽出装置で あって、所定面積の被計測領域が配置され得る前記被計測領域よりも広い範囲の前 記物体上の所定領域において、前記被計測領域が第 1位置に位置する際に前記被 計測領域に含まれるパターン力 ユニークな信号特徴を有する第 1基準パターンを 抽出するとともに、前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前 記被計測領域であって、前記第 1位置に位置する前記被計測領域とは異なるパター ンを少なくとも一部含む当該第 2位置に位置する前記被計測領域に含まれるパター ンから、ユニークな信号特徴を有する第 2準パターンを抽出するユニークパターン抽 出装置を有する。
[0041] また、本発明に係る他のパターンマッチング装置は、パターンが形成された物体上 に所定面積の被計測領域を配置し、前記被計測領域に含まれるパターン力 予め 定めた基準パターンと一致する特定パターンを検出するパターンマッチング装置で あって、前記被計測領域よりも広い範囲の所定領域の中から前記特定パターンを検 出するパターンマッチング装置において、前記基準パターンとして、前記所定領域内 の第 1位置に位置する前記被計測領域に含まれるパターンから、ユニークな信号特 徴を有する第 1基準パターンを抽出するとともに、前記所定領域内の前記第 1位置と は異なる第 2位置に位置する前記被計測領域であって、前記第 1位置に位置する前 記被計測領域とは異なるパターンを少なくとも一部含む当該第 2位置に位置する前 記被計測領域に含まれるパターンから、ユニークな信号特徴を有する第 2基準パタ ーンを抽出するユニークパターン抽出装置と、前記物体上に前記被計測領域を設定 する設定手段と、前記被計測領域内の前記物体の像から前記第 1基準パターン又 は第 2基準パターンと一致するパターンを検出する検出手段とを有する。
[0042] また、本発明に係る他の位置検出装置は、パターンが形成された物体上に所定面 積の被計測領域を配置し、前記被計測領域に含まれるパターンから予め定めた基準 パターンと一致する特定パターンを検出して、前記物体と前記被計測領域との相対 位置情報を検出する位置検出装置であって、前記基準パターンとして、前記被計測 領域よりも広い所定領域内において前記被計測領域が第 1位置に位置する際に、前 記第 1位置に位置する前記被計測領域に含まれるパターンから、ユニークな信号特 徴を有する第 1基準パターンを抽出するとともに、前記所定領域内の前記第 1位置と は異なる第 2位置に位置する前記被計測領域であって、前記第 1位置に位置する前 記被計測領域とは異なるパターンを少なくとも一部含む当該第 2位置に位置する前 記被計測領域に含まれるパターンから、ユニークな信号特徴を有する第 2基準パタ ーンを抽出するユニークパターン抽出装置と、前記物体上に前記被計測領域を設定 する設定手段と、前記被計測領域内の前記物体の像から前記第 1基準パターン又 は第 2基準パターンと一致するパターンを検出し前記物体と前記被計測領域との相 対位置情報を検出する検出装置とを有する。
[0043] なお、本欄においては、各構成に対して、添付図面に示されている対応する構成 の符号を記載したが、これはあくまでも理解を容易にするためのものであって、何ら 本発明に係る手段が添付図面を参照して後述する実施の形態の態様に限定される ことを示すものではない。
[0044] 本発明によれば、テンプレートマッチングのために有効な基準パターン(テンプレー ト)を適切に効率良く抽出することのできる基準パターン抽出方法とその装置を提供 すること力 Sできる。具体的には、観察視野に常に含まれる領域に依存せずに、観察 視野最大範囲から有効な基準パターンを抽出することのできる基準パターン抽出方 法とその装置を提供することができる。また、有効にテンプレートマッチングを行うこと ができるテンプレートを、テンプレート作成用の実際のデータを要しないで生成するこ とのできる基準パターン抽出方法とその装置を提供することができる。
[0045] また、そのように抽出された有効な基準パターン (テンプレート)を用いて、適切にテ ンプレートマッチングを行い所望のマーク等を検出することのできるパターンマツチン グ方法を提供することができる。具体的には、観察視野のばらつきがある程度生じて レ、ても、観察視野最大範囲全域から抽出されたテンプレートを用いて、適切に所望 のパターンの検出ができるパターンマッチング方法を提供することができる。また、実 際のデータを要しないで作成された本発明に関わるテンプレートを用いて適切に所 望のパターンの検出ができるパターンマッチング方法を提供することができる。
[0046] また、そのようなテンプレートマッチング方法を用いて、位置決めに用いる所望のパ ターンを検出し、その位置を適切に検出することのできる位置検出方法とその装置を 提供すること力 Sできる。
また、そのような位置検出方法を用いて、基板等の露光位置を検出し、基板等の所 望の位置に適切に露光を行うことのできる露光方法とその装置を提供することができ る。
図面の簡単な説明
[0047] [図 1]図 1は、本発明の一実施の形態の露光装置の構成を示す図である。
[図 2]図 2は、図 1に示した露光装置の TTL方式ァライメント系の瞳像面上におけるゥ ェハ上のマークからの光情報の分布を示す図である。
[図 3]図 3は、図 1に示した露光装置の TTL方式ァライメント系の受光素子の受光面 を示す図である。
[図 4]図 4は、図 1に示した露光装置のオフ ·ァクシス方式のァライメント光学系の指標 板の断面図である。
[図 5]図 5は、図 1に示した露光装置のオフ'ァクシス方式のァライメント光学系の FIA 演算ユニットの構成を示す図である。
[図 6]図 6は、本発明の第 1の実施の形態に係るテンプレート作成方法を示すフロー チャートである。
[図 7A]図 7Aは、本発明の第 1の実施の形態に係るテンプレート作成方法を説明する ための第 1の図である。 [図 7B]図 7Bは、本発明の第 1の実施の形態に係るテンプレート作成方法を説明する ための第 2の図である。
園 8A]図 8Aは、本発明の第 1の実施の形態に係るテンプレート作成方法を説明する ための第 3の図である。
[図 8B]図 8Bは、本発明の第 1の実施の形態に係るテンプレート作成方法を説明する ための第 4の図である。
園 9]図 9は、本発明の第 1の実施の形態に係る露光処理の全体の流れを示すフロ 一チャートである。
[図 10]図 10は、本発明の第 2の実施の形態に係るテンプレート作成方法を示すフロ 一チャートである。
園 11A]図 11Aは、本発明の第 3の実施の形態に係るテンプレート作成方法を説明 するための第 1の図である。
[図 11B]図 11Bは、本発明の第 3の実施の形態に係るテンプレート作成方法を説明 するための第 2の図である。
園 11C]図 11Cは、本発明の第 3の実施の形態に係るテンプレート作成方法を説明 するための第 3の図である。
園 12]図 12は、本発明の第 3の実施の形態に係るテンプレート作成方法を示すフロ 一チャートである。
[図 13A]図 13Aは、同一のパターンに対して検出された複数のエレメントから 1のエレ メントを選択する処理を説明するための第 1の図である。
[図 13B]図 13Bは、同一のパターンに対して検出された複数のエレメントから 1のエレ メントを選択する処理を説明するための第 2の図である。
[図 14]図 14は、複数のエレメントによりテンプレートを構成する処理を説明するため の第 1の図である。
[図 15]図 15は、複数のエレメントによりテンプレートを構成する処理を説明するため の第 2の図である。
[図 16A]図 16Aは、複数のエレメントによりテンプレートを構成する処理を説明するた めの第 3の図である。 [図 16B]図 16Bは、複数のエレメントによりテンプレートを構成する処理を説明するた めの第 4の図である。
園 16C]図 16Cは、複数のエレメントによりテンプレートを構成する処理を説明するた めの第 5の図である。
園 17]図 17は、本発明の第 3の実施の形態に係るサーチァライメントの処理の流れを 示すフローチャートである。
[図 18]図 18は、本発明の第 4の実施の形態に係るテンプレート作成方法を示すフロ 一チャートである。
園 19A]図 19Aは、本発明の第 4の実施の形態に係るテンプレート作成方法を説明 するための第 1の図である。
園 19B]図 19Bは、本発明の第 4の実施の形態に係るテンプレート作成方法を説明 するための第 2の図である。
園 20A]図 20Aは、本発明の第 4の実施の形態に係るテンプレート作成方法を説明 するための第 3の図である。
園 20B]図 20Bは、本発明の第 4の実施の形態に係るテンプレート作成方法を説明 するための第 4の図である。
園 21]図 21は、本発明の第 4の実施の形態に係るテンプレート作成方法を説明する ための第 5の図である。
園 22]図 22は、本発明の第 4の実施の形態に係るテンプレート作成方法を説明する ための第 6の図である。
園 23]図 23は、本発明の第 5の実施の形態に係るテンプレート作成方法を示すフロ 一チャートである。
園 24A]図 24Aは、本発明の第 5の実施の形態に係るテンプレート作成方法を説明 するための第 1の図である。
園 24B]図 24Bは、本発明の第 5の実施の形態に係るテンプレート作成方法を説明 するための第 2の図である。
園 25A]図 25Aは、本発明の第 5の実施の形態に係るテンプレート作成方法を説明 するための第 3の図である。 [図 25B]図 25Bは、本発明の第 5の実施の形態に係るテンプレート作成方法を説明 するための第 4の図である。
[図 26]図 26は、本発明の第 5の実施の形態に係るテンプレート作成方法を説明する ための第 5の図である。
[図 27]図 27は、本発明の第 6の実施の形態に係るテンプレート作成方法を示すフロ 一チャートである。
[図 28]図 28は、本発明の第 6の実施の形態に係るテンプレート作成方法を説明する ための図である。
[図 29]図 29は、本発明に係るデバイスの製造方法を説明するためのフローチャート である。
発明を実施するための最良の形態
[0048] 第 1の実施の形熊
本発明の第 1の実施の形態について、図 1一図 12を参照して説明する。 本実施の形態においては、画像処理によりウェハの所定の基準となるパターンを検 出するオファクシス方式のァライメント光学系を有する露光装置、この露光装置にお いてテンプレートマッチングによりァライメントを行う場合のテンプレート(基準パター ン)の作成方法、及び、この露光装置におけるそのテンプレートを用いたァライメント 方法等について説明する。
[0049] まず、その露光装置の全体構成について図 1一図 4を参照して説明する。
図 1は、本実施の形態の露光装置 100の概略構成を示す図である。
なお、以下の説明においては、図 1中に示した XYZ直交座標系を設定し、この XY Z直交座標系を参照しつつ各部材の位置関係等について説明する。 XYZ直交座標 系は、 X軸及び Z軸が紙面に対して平行となるよう設定され、 Y軸が紙面に対して垂 直となる方向に設定される。図中の XYZ座標系は、実際には XY平面が水平面に平 行な面に設定され、 Z軸が鉛直上方向に設定される。
[0050] 図 1に示すように、図示しない照明光学系から出射された露光光 ELは、コンデンサ レンズ 1を介してレチクル Rに形成されたパターン領域 PAに均一な照度分布で照射 される。露光光 ELとしては、例えば g線(436nm)や i線(365nm)、又は、 KrFェキ シマレーザ光(248nm)、 ArFエキシマレーザ光(193nm)又は F2レーザ光(157η m)等が用いられる。
[0051] レチクル Rはレチクルステージ 2上に保持され、レチクルステージ 2はベース 3上の 2 次元平面内において移動及び微小回転ができるように支持される。装置全体の動作 を制御する主制御系 15が、ベース 3上の駆動装置 4を介してレチクルステージ 2の動 作を制御する。このレチクル Rは、その周辺に形成された図示しないレチクルァライメ ントマークがミラー 5、対物レンズ 6、マーク検出系 7からなるレチクルァライメント系で 検出されることによって、投影レンズ PLの光軸 AXに関して位置決めされる。
[0052] レチクル Rのパターン領域 PAを透過した露光光 ELは、例えば両側(片側でもよレ、 。)テレセントリックな投影レンズ PLに入射され、ウエノ、(基板) W上の各ショット領域 に投影される。投影レンズ PLは、露光光 ELの波長に関して最良に収差補正されて おり、その波長のもとでレチクル Rとウェハ Wとは互いに共役になっている。また、照 明光 ELは、ケラー照明であり、投影レンズ PLの瞳 EP内の中心に光源像として結像 される。
なお、投影レンズ PLはレンズ等の光学素子を複数有する。その光学素子の硝材と しては露光光 ELの波長に応じて石英、蛍石等の光学材料が使用される。
[0053] ウェハ Wは、ウェハホルダー 8を介してウェハステージ 9上に載置される。ウェハホ ルダー 8上には、ベースライン計測等で使用する基準マーク 10が設けられている。ゥ ェハステージ 9は、投影レンズ PLの光軸 AXに垂直な面内でウェハ Wを 2次元的に 位置決めする XYステージ、投影レンズ PLの光軸 AXに平行な方向(Z方向)にゥェ ハ Wを位置決めする Zステージ、ウェハ Wを微小回転させるステージ、及び、 軸に 対する角度を変化させて XY平面に対するウェハ Wの傾きを調整するステージ等を 有する。
[0054] ウェハステージ 9の上面の一端には L字型の移動ミラー 11が取り付けられ、移動ミ ラー 11の鏡面に対向した位置にレーザ干渉計 12が配置される。図 1では簡略化して 図示しているが、移動鏡 11は X軸に垂直な反射面を有する平面鏡及び Y軸に垂直 な反射面を有する平面鏡より構成される。
また、レーザ干渉計 12は、 X軸に沿って移動鏡 11にレーザビームを照射する 2個 の X軸用のレーザ干渉計及び Y軸に沿って移動鏡 11にレーザビームを照射する Υ 軸用のレーザ干渉計より構成され、 X軸用の 1個のレーザ干渉計及び Υ軸用の 1個の レーザ干渉計により、ウェハステージ 9の X座標及び Υ座標が計測される。また、 X軸 用の 2個のレーザ干渉計の計測値の差により、ウェハステージ 9の ΧΥ平面内におけ る回転角が計測される。
[0055] レーザ干渉計 12により計測された X座標、 Υ座標及び回転角を示す位置計測信号 PDSは、ステージコントローラ 13に供給される。ステージコントローラ 13は、主制御系 15の制御の下、この位置計測信号 PDSに応じて、駆動系 14を介してウェハステー ジ 9の位置を制御する。
また、位置計測情報 PDSは主制御系 15へ出力される。主制御系 15は、供給され た位置計測信号 PDSをモニターしつつ、ウェハステージ 9の位置を制御する制御信 号をステージコントローラ 13へ出力する。
さらに、レーザ干渉系 12から出力された位置計測信号 PDSは後述するレーザステ ップアライメント(LSA)演算ユニット 25へ出力される。
[0056] また、露光装置 100は、レーザ光源 16、ビーム整形光学系 17、ミラー 18、レンズ系 19、ミラー 20、ビームスプリッタ 21、対物レンズ 22、ミラー 23、受光素子 24、 LSA演 算ユニット 25及び投影レンズ PLを構成部材とする TTL方式のァライメント光学系を 有する。
レーザ光源 16は、例えば He-Neレーザ等の光源であり、赤色光(例えば波長 632 .8nm)であってウェハ W上に塗布されたフォトレジストに対して非感光性のレーザビ ーム LBを出射する。このレーザビーム LBは、シリンドリカルレンズ等を含むビーム整 形光学系 17を透過し、ミラー 18、レンズ系 19、ミラー 20、ビームスプリッタ 21を介し て対物レンズ 22に入射する。対物レンズ 22を透過したレーザビーム LBは、レチクル Rの下方であって XY平面に対して斜め方向に設けられたミラー 23で反射され、投影 レンズ PLの視野の周辺に光軸 AXと平行に入射され、投影レンズ PLの瞳 EPの中心 を通ってウェハ Wを垂直に照射する。
[0057] レーザビーム LBは、ビーム整形光学系 17の働きで対物レンズ 22と投影レンズ PL との間の光路中の空間にスリット状のスポット光 SP0となって集光している。 投影レンズ PLは、このスポット光 SP0をウェハ W上にスポット SPとして再結像する。 ミラー 23は、レチクル Rのパターン領域 PAの周辺よりも外側で、かつ投影レンズ PL の視野内にあるように固定される。従って、ウェハ W上に形成されるスリット状のスポッ ト光 SPは、パターン領域 PAの投影像の外側に位置する。
[0058] このスポット光 SPによってウェハ W上のマークを検出するには、ウェハステージ 9を XY平面内においてスポット光 SPに対して水平移動させる。スポット光 SPがマークを 相対走查すると、マークからは正反射光、散乱光、回折光等が生じ、マークとスポット 光 SPの相対位置により光量が変化して行く。こうした光情報は、レーザビーム LBの 送光路に沿って逆進し、投影レンズ PL、ミラー 23、対物レンズ 22及びビームスプリツ タ 21を介して、受光素子 24に達する。受光素子 24の受光面は投影レンズ PLの瞳 E Pとほぼ共役な瞳像面 に配置され、マークからの正反射光に対して不感領域を 持ち、散乱光や回折光のみを受光する。
[0059] 図 2は、瞳 EP (又は瞳像面 )上におけるウェハ W上のマークからの光情報の 分布を示す図である。瞳 EPの中心に X軸方向にスリット状に伸びた正反射光 DOの 上下 (Y軸方向)には、それぞれ正の 1次回折光 + D1、 2次回折光 + D2と、負の 1次 回折光一 Dl、 2次回折光- D2が並び、正反射光 DOの左右 (X軸方向)にはマークェ ッジからの散乱光士 Drが位置する。これは例えば特開昭 61-128106号公報に詳し く述べられているので詳しい説明は省略する力 S、回折光士 Dl、土 D2はマークが回 折格子マークの時にのみ生じる。
[0060] 図 2に示した分布を有するマークからの光情報を受光するために、受光素子 24は、 図 3に示すように、瞳像面 内で 4つの独立した受光面 24a, 24b, 24c, 24dに 4 分割され、受光面 24a, 24bが散乱光土 Drを受光し、受光面 24c, 24dが回折光土 Dl、 ±D2を受光するように配列される。
図 3は受光素子 24の受光面を示す図である。なお、投影レンズ PLのウェハ W側の 開口数 (N. A. )が大きぐ回折格子マークから発生する 3次回折光も瞳 EPを通過す る場合には、受光面 24c, 24dはその 3次回折光も受光するような大きさにするとよい
[0061] 受光素子 24からの各光電信号はレーザ干渉計 12から出力される位置計測信号 P DSとともに、 LSA演算ユニット 25に入力され、マーク位置の情報 APIが作られる。 L SA演算ユニット 25は、スポット光 SPに対してウェハマークを走査した時の受光素子 24からの光電信号波形を位置計測信号 PDSに基づいてサンプリングして記憶し、そ の波形を解析することによってマークの中心がスポット光 SPの中心と一致した時のゥ ェハステージ 9の座標位置として、マーク位置の情報 APIを出力する。
[0062] なお、図 1に示した露光装置においては、 TTL方式のァライメント系(16, 17, 18,
19, 20, 21, 22, 23及び 24)は、 1組しか示していなレ、が、紙面と直交する方向(Y 軸方向)にもう 1組が設けられ、同様のスポット光が投影像面内に形成される。これら 2 つのスポット光の長手方向の延長線は光軸 AXに向かっている。
また、図 1中の TTL方式のァライメント光学系の光路中に示した実線は、ウェハ Wと の結像関係を表し、破線は瞳 EPとの共役関係を表す。
[0063] また、露光装置 100は、オフ 'ァクシス方式のァライメント光学系(以下、ァライメント センサと称する)を投影光学系 PLの側方に備える。このァライメントセンサは、基板表 面のァライメントマーク付近を撮像した信号 (n次元信号)を信号処理(画像処理を含 む)して、マークの位置情報を検出する FIA (Field Image Alignment)方式のァライメ ントセンサである。
[0064] 露光装置 100においては、このァライメントセンサにより、サーチァライメント計測や ファインァライメント計測を行う。
サーチァライメント計測(以降では、単に「サーチァライメント」と称する場合もある) は、ウェハ上に形成されている複数個のサーチァライメント用のマークを検出し、ゥェ ハのウェハホルダーに対する回転量や χγ面内での位置ずれを検出する処理である
。本実施の形態においてサーチァライメントの信号処理方法としては、予め設定した 基準パターン (テンプレート)を用いて、そのテンプレートに対応する所定のパターン を検出する手法 (テンプレートマッチング手法)を用いる。
[0065] また、ファインァライメント計測(以降では、単に「ファインァライメント」と称する場合も ある)は、ショット領域に対応して形成されているファインァライメント用のァライメントマ ークを検出し、最終的に各露光ショットの位置決めを行うための処理である。本実施 の形態においてファインァライメントの画像処理方法としては、マークのエッジを抽出 してその位置を検出する手法 (エッジ計測手法)を用いる。
なお、サーチァライメント及びファインァライメントのいずれにおいても、その画像処 理方法は本実施の形態の手法に限られるものではなぐ各々、テンプレートマツチン グ手法でもエッジ計測手法でも、あるいはまたその他の画像処理方法であってもよい 上記サーチァライメント計測時の観察倍率とファインァライメント計測時の観察倍率 とは、互いに等しい観察倍率としてもよいし、あるいは、ファインァライメント時の倍率 をサーチァライメント時の倍率よりも高倍に設定するようにしてもよい。
[0066] このァライメントセンサは、ウェハ Wを照明するための照射光を出射するハロゲンラ ンプ 26、ハロゲンランプ 26から出射された照明光を光ファイバ一 28の一端に集光す るコンデンサレンズ 27、及び、照明光を導波する光ファイバ一 28を有する。
照明光の光源としてハロゲンランプ 26を用いるのは、ハロゲンランプ 26から出射さ れる照明光の波長域は 500— 800nmであり、ウェハ W上面に塗布されたフォトレジ ストを感光しない波長域であるため、及び、波長帯域が広ぐウェハ W表面における 反射率の波長特性の影響を軽減することができるためである。
[0067] 光ファイバ一 28から出射された照明光は、ウェハ W上に塗布されたフォトレジストの 感光波長(短波長)域と赤外波長域とをカットするフィルタ 29を通過して、レンズ系 30 を介してハーフミラー 31に達する。ハーフミラー 31によって反射された照明光は、ミラ 一 32によって X軸方向とほぼ平行に反射された後、対物レンズ 33に入射し、さらに 投影レンズ PLの鏡筒下部の周辺に投影レンズ PLの視野を遮光しないように固定さ れたプリズム(ミラー) 34で反射されてウェハ Wを垂直に照射する。
[0068] なお、図示を省略しているが、光ファイバ一 28の出射端から対物レンズ 33までの光 路中には、適当な照明視野絞りが対物レンズ 33に関してウェハ Wと共役な位置に設 けられる。また、対物レンズ 33はテレセントリック系に設定され、その開口絞り(瞳と同 じ)の面 33aには、光ファイバ一 28の出射端の像が形成され、ケラー照明が行われる 。対物レンズ 33の光軸は、ウェハ W上では垂直となるように定められ、マーク検出時 に光軸の倒れによるマーク位置のずれが生じなレ、ようになってレ、る。
[0069] ウェハ Wからの反射光は、プリズム 34、対物レンズ 33、ミラー 32、ハーフミラー 31を 介して、レンズ系 35によって指標板 36上に結像される。この指標板 36は、対物レン ズ 33とレンズ系 35とによってウェハ Wと共役に配置され、図 4に示すように矩形の透 明窓内に、 X軸方向と Y軸方向のそれぞれに伸びた直線状の指標マーク 36a, 36b , 36c, 36dを有する。図 4は、指標板 36の断面図である。従って、ウェハ Wのマーク の像は、指標板 36の透明窓 36e内に結像され、このウェハ Wのマークの像と指標マ ーク 36a, 36b, 36c, 36dとは、リレー系 37, 39及びミラー 38を介してイメージセン サ 40に結像する。
[0070] イメージセンサ 40 (光電変換手段、光電変換素子)は、その撮像面に入射する像を 光電信号 (画像信号、画像データ、データ、信号)に変換するものであり、例えば 2次 元 CCDが用いられる。イメージセンサ 40から出力された信号 (n次元信号)は、 FIA 演算ユニット 41に、レーザ干渉計 12からの位置計測信号 PDSとともに入力される。
[0071] なお、本実施の形態では、イメージセンサ 40において 2次元画像信号を得て、これ を FIA演算ユニット 41に入力し使用する。また、サーチァライメント処理の時に行うテ ンプレートマッチングの際には、 2次元 CCDで得た信号を非計測方向に積算 (投影) して 1次元投影信号として、計測方向への計測に使用する。
し力しながら、イメージセンサ 40で得る信号やその後段の信号処理の際に処理対 象とする信号の形式は、本実施の形態のこのような例に限られるものではない。テン プレートマッチングの際に、 2次元画像処理を行うように構成して 2次元信号を計測に 用いるようにしてもよい。また、 3次元画像信号を得て、 3次元画像処理を行うように構 成してもよレ、。さらに言えば、 CCDの信号を n次元(nは、 n≥lの整数)に展開して、 例えば、 n次元の余弦成分信号、 n次元正弦信号、あるいは n次周波数信号等を生 成し、その n次元信号を用いて位置計測を行うものに対しても本発明は適用可能で ある。
なお、本明細書の説明において画像、画像信号、画像情報、パターン信号等と称 する時も同様に、 2次元の画像のみならず、このような n次元信号 (n次元の画像信号 や、上述のごとく画像信号力 展開された信号等)をも含むものとする。
[0072] FIA演算ユニット 41は、入力された画像信号からァライメントマークを検出し、その ァライメントマークの指標マーク 36a 36dに対するマーク像のずれを求める。そして 、位置計測信号 PDSによって表されるウェハステージ 9の停止位置から、ウェハ Wに 形成されたマークの像が指標マーク 36a— 36dの中心に正確に位置した時のウェハ ステージ 9のマーク中心検出位置に関する情報 AP2を出力する。
[0073] 次に、本発明に係る FIA演算ユニット 41は、サーチァライメント及びファインァライメ ントの各ァライメント処理時に、各々、所定のァライメントマーク像の位置検出及びそ のずれの検出を行う。本実施の形態においては、サーチァライメントの時にはテンプ レートマッチング手法を利用し、また、ファインァライメントの時にはエッジ検出処理手 法を利用して、マークの位置検出及びずれの検出を行う。
なお、 FIA演算ユニット 41の構成及びこれらの処理については、本発明に係るサ 一チアライメントの処理(テンプレートマッチング処理)を中心に、次段においてより詳 細に説明する。
以上、露光装置 100の全体の概略の構成である。
[0074] FIA演算ユニット 41の構成及び動作について、図 5を参照して詳細に説明する。
図 5は、 FIA演算ユニット 41の内部構成を示すブロック図である。
図 5に示すように、 FIA演算ユニット 41は、画像信号 (パターン信号)記憶部 50、テ ンプレートデータ記憶部 52、データ処理部 53及び制御部 54を有する。
[0075] 画像信号記憶部 50は、イメージセンサ 40から入力される画像信号 (パターン信号) を記憶する。画像信号記憶部 50には、イメージセンサ 40により取り込まれた画像 (パ ターン信号)が記憶される。
[0076] テンプレートデータ記憶部 52は、例えばサーチァライメントの際に行うテンプレート マッチング処理で用いるテンプレートデータを記憶する。テンプレートデータは、ゥェ ハ上のマークを検出するために画像信号記憶部 50に記憶されている画像信号 (パタ ーン信号)とパターンマッチングを行うための基準のパターンデータである。
なお、本明細書中で用いるマークとは、ァライメントのために特に形成されたマーク パターンの他に、回路や配線の一部であって基準パターンとして設定されたパター ン等を広く含む概念である。
テンプレートデータは、露光装置 100とは別の計算機システム等で作成されてテン プレートデータ記憶部 52に記憶されてもよいし、ァライメントセンサで撮像された画像 情報 (パターン信号)に基づいて FIA演算ユニット 41で作成されてテンプレートデー タ記憶部 52に記憶されてもよい。
本発明に関わるこのテンプレート(基準パターン)の作成方法については、後に詳 細に説明する。
[0077] データ処理部 53は、画像信号 (パターン信号)記憶部に記憶されている画像信号( パターン信号)に対してテンプレートマッチング及びエッジ検出処理等の所望の画像 処理 (信号処理)を行い、マークの検出、位置情報の検出、及び、ずれ情報の検出 等を行う。
例えば、データ処理部 53は、画像信号記憶部 50に記憶される画像信号 (パターン 信号)とテンプレートデータ記憶部 52に記憶するテンプレートとのマッチングを行レ、、 画像信号 (パターン信号)中のマークの有無を検出する。その場合データ処理部 53 は、検出対象のパターンの大きさに相当する探索領域で視野領域を順次走査し、各 位置にぉレ、てその領域の画像信号 (パターン信号)とテンプレートデータとを比較照 合する。そして、それらのパターン間(画像 (パターン信号)間)の類似度、相関度等 を評価値として検出し、類似度が所定の閾値以上の場合に、その領域にマークが存 在する、すなわち、その箇所の画像 (パターン信号)中にマークの像が含まれている ものと判断する。
そして、最終的にデータ処理部 53は、そのマークが視野内のどの位置にあるかを 求める。これによつて、ウェハ Wに形成されたマークの像が指標マーク 36a— 36dの 中心に正確に位置した時のウェハステージ 9のマーク中心位置に関する情報 AP2を 得る。
[0078] 制御部 54は、画像信号記憶部 50における画像信号の記憶及び読み出し、テンプ レートデータ記憶部 52におけるテンプレートデータの記憶及び読み出し、及び、デ ータ処理部 53における前述したマッチングやエッジ検出等の処理が各々適切に行 われるように、 FIA演算ユニット 41全体の動作を制御する。
[0079] 次に、テンプレートデータ記憶部 52に予め記憶され、前述したサーチァライメントの 際のテンプレートマッチング処理で使用されるテンプレートデータの作成方法につい て説明する。 図 6は、そのテンプレート作成処理を示すフローチャートである。
なお、以下に説明するテンプレートデータの作成処理は、露光装置 100とは別の外 部の計算機装置等において、図 6にフローチャートを示すような、以下に説明する処 理を行うプログラムを実行させることにより行うのが好適である。しかし、これに限定さ れるものではなぐ露光装置 100内で行うようにしてもよい。より具体的には、例えば F IA演算ユニット 41内のデータ処理部 53で行うようにしてもよい。
[0080] 本実施の形態のテンプレート作成方法は、ウェハを撮像して得た画像データ(バタ ーン信号)を用いずに、設計データよりテンプレートデータを生成する。
まず、設計値データ (設計値情報)を 2次元画像 (パターン信号)に変換し、そのデ ータを 2値化し、 2値画像データ(パターン信号)を生成する(ステップ S 110)。設計 値データのほとんどは、例えば白と黒と言った二色の組み合わせで表現されている ので、 2値化は容易に行える。
次に、 2値化された設計値データに対して、入力データの範囲を設定する (ステップ S120)。サーチァライメントの際には、ウェハの投入動作に起因する誤差やパターン の製造処理に起因する誤差等により、撮像される範囲は所定の範囲内でばらつく。 そのようなばらつきがあっても、必ず撮像範囲に含まれる領域を、入力データの範囲 として設定するのが好ましい。撮像画像 (パターン信号)中に必ず基準パターンが含 まれることとなるからである。しかし、サーチァライメント時に撮像画像中に基準パター ンが含まれていない場合の処理が設定してある場合には、入力データ範囲を広げる ことも可能である。入力データ範囲は、そのような状況に応じて任意に設定してよい。 本実施の形態においては、 2値化画像 (パターン信号)データ上に、例えば図 7A に示すような領域 Arealを設定する。
[0081] 入力データ範囲を設定したら、その範囲内に、予め定められているテンプレートの 大きさと同じサイズの領域を設定し、仮のテンプレート(第 1の部分画像情報)とする ( ステップ S 130)。
図 7Aに示す例においては、テンプレートと同じサイズ SizeTの領域 AreaT (xi, yi) が入力データ範囲 Areal内に設定される。なお、(xi, yi)は、領域 AreaTの基準点 の座標値である(図 7Aの例では、領域 AreaTの左上角点の座標値)。 [0082] 次に、入力データ範囲の全域について、仮のテンプレートとの相関サーチ計算行 レ、、相関値が所定の閾値を越え、なおかつピークとなる位置を検出する(ステップ S1 40)。
すなわち、図 7Bに示すように、入力データ範囲 Arealをテンプレート(仮のテンプレ ート AreaT)と同じサイズ SizeTの窓で走査し、各位置における窓内の領域 AreaS (x j、 yj)の画像 (パターン信号)(第 2の部分画像 (パターン信号)情報)と仮のテンプレ ート AreaT (xi, yi)の画像 (パターン信号)との相関値を順次求める。そして、相関値 が十分に高ぐピークとなっている領域を検出する。
この時、相関サーチ計算は、次式(1)又は次式(2)に基づいて行う。
なお、式(1)及び式(2)のいずれの式を用いるかは、場合によって使い分ける。
[0083] [数 1]
Figure imgf000031_0001
J F(X)-G(X) dx
Figure imgf000031_0002
2 但し、 F(x) = (x) - fCx)
G(x) = gCx) - S
fCx) , g(x)は輝度、
¾ , は輝度の平均値
である。
[0084] このような仮のテンプレートの設定 (ステップ SI 30)及び相関値ピークの検出(ステ ップ S140)を、入力データ範囲内に設定し得る全ての領域 (テンプレートと同じサイ ズの領域)に対して行レ、、各領域に対する相関値ピークを示す領域を検出する (ステ ップ S 150)。 同一の仮のテンプレートに対して相関値ピークを示す領域は、各々、同一の画像、 すなわち同一のパターンにより構成された領域と見ることができる。従って、相関値ピ ークを示す領域の検出により、同一のパターンにより構成される領域が各パターンご とに検出される。例えば、図 8Aに示すように、領域 Areal中に、パターン Aで構成さ れる領域が 5ケ所、パターン Bで構成される領域が 2ケ所、パターン Cで構成される領 域が 1ケ所存在することが検出される。
[0085] このように入力データ範囲内に存在するパターンの構成が検出されたら、その中か ら、実際にテンプレートとするパターンを選択する(ステップ S 160)。
具体的には、まず、入力データ範囲 Areal内に存在するパターンの中から、 自分自 身以外にピークを持たず単一的に(ユニークに)存在するパターンを検出し、すなわ ち、自分自身以外にピークを持たないユニークな領域 AreaT (xi, yi) (=AreaS (xj 、 yj) )を検出し、これをテンプレートとする。
例えば、図 8Aに示す例においては、 1ケ所にのみ存在するパターン C (パターン C で表す領域 AreaT (xi, yi)の画像データ)を、テンプレートして選択する。
[0086] ところで、 自分自身以外にピークを持たない仮のテンプレート AreaT (xi, yi)が複 数検出された場合には、最も相関値が高いもの (相関値ピークとして検出された自分 自身)と 2番目に高いもの(相関値ピークとして検出されなかった領域の中で最も相関 値の高いもの)との相関値の差(特徴値の差)力 最も大きい仮のテンプレート AreaT (xi, yi)をテンプレートとして選択する。この相関値の差が SN比に相当することにな るので、差が大きいほど安定したテンプレートと言うことができるからである。このこと について、図 8Bを用いて具体的に説明する。
[0087] 例えば、図 8Bに示すように、領域 Areal中に、パターン A、 B, Cに加えて、パター ン Cと形状が似ているパターン Oが存在していたとする。 (この場合、パターン〇は、パ ターン〇自身に対して相関ピークとして検出されてレ、てもいなくてもょレ、。 )このような 場合、入力データ範囲 Areal内には、パターン Bとパターン Cという 2つのユニークな パターンが存在する。しかし、パターン Cには、これに形状が類似しているパターン O が存在するため、パターン Cを仮のテンプレートとした時のパターン Cとパターン〇に 対する相関値の差は小さくなる。従って、図 8Bのような場合には、パターン Bをテンプ レートとして選択する。
[0088] 本実施の形態においては、このようにしてサーチァライメントの際のテンプレートマツ チングで使用するテンプレートデータを作成する。作成したテンプレートデータは、そ の領域の位置情報とともに、 FIA演算ユニット 41のテンプレートデータ記憶部 52に 記憶される。
なお、前述した方法においては、設計データを変換して得られた画像データを 2値 化して使用したが、予めパターンの高さ方向が設計段階で複数 (N個)あるとわかつ てレ、る場合には、 N値化するようにすればょレ、。
また、前述した方法においては、式(1)又は式(2)に基づいて相関値を求めたが、 SSDA法等を適用してもょレ、。
[0089] また、前述した方法においては、テンプレートのサイズ SizeTを予め所定のサイズと して、このサイズで仮のテンプレートを設定したり、あるいは相関値サーチを行ったり していた。しかし、このサイズ (部分画像情報のサイズ)も可変パラメータとしてよい。 すなわち、サイズの範囲、あるいは、サイズの種類を予め決めておき、その範囲内で テンプレートのサイズを順次変更する。そして、その各サイズについて入力データ範 囲内を走査して前述した方法により順次仮のテンプレートを検出し、最終的に最もュ ニークな仮のテンプレートをテンプレートとするようにする。
このような方法によれば、テンプレートサイズも自動的に決定することができ、また、 テンプレートサイズをも考慮した適切なテンプレートを検出することができる。
[0090] 次に、本発明に係る露光装置 100の動作について、図 9を参照して説明する。
露光装置 100においては、まず、レチクル R及びウェハ Wを、各々レチクルステー ジ 2及びウェハステージ 9上に搬送し、各ステージ上に載置し支持する。この際、ゥェ ハ Wは、ウェハに形成されたオリエンテーション 'フラット又はノッチ等を用いて、ゥェ ハステージ 9に対して位置合わせ(プリアライメント処理)をした後、ウェハホルダー 8 を介してウェハステージ 9上に保持される(ステップ S 210)。
[0091] 次に、ァライメントセンサにより、ウェハホルダー 8に搭載されたウェハ Wのウェハホ ルダー 8に対する回転量や XYずれを求めるサーチァライメントを行う(ステップ S220 )。サーチァライメントにおいては、一般的には、ウェハ W上の離れた複数箇所にお いて基準パターンを検出し、その各基準パターンの位置関係に基づいてウェハの回 転量や XYずれ等を求める。
[0092] サーチァライメントにおいては、まず、基準パターンの設計上の位置情報に基づい て、ウェハ W上のその基準パターンを含む所定の領域の画像 (視野画像、パターン 信号)を取り込む (ステップ S221)。
具体的には、主制御系 15が、ステージコントローラ 13及び駆動系 14を介して、基 準パターンがァライメントセンサの視野領域内に入るようにウェハステージ 9を駆動す る。
[0093] 移動処理が完了すると、ァライメントセンサの照明光がウェハ W上に照明される。す なわち、ハロゲンランプ 26から出射された照明光力 コンデンサレンズ 27によって光 ファイバー 28の一端に集光されて光ファイバ一 28内に入射される。入射された照明 光は、光ファイバ一 28内を伝搬して他端から出射され、フィルタ 29を通過して、レン ズ系 30を介してハーフミラー 31に達する。
ハーフミラー 31によって反射された照明光は、ミラー 32によって X軸方向に対して ほぼ水平に反射された後、対物レンズ 33に入射し、さらに投影レンズ PLの鏡筒下部 の周辺に投影レンズ PLの視野を遮光しないように固定されたプリズム 34で反射され てウェハ Wに垂直に照射される。
[0094] ウェハ Wからの反射光は、プリズム 34、対物レンズ 33、ミラー 32、ハーフミラー 31を 介して、レンズ系 35によって指標板 36上に結像される。ウェハ Wのマークの像と指 標マーク 36a, 36b, 36c, 36dとは、リレー系 37, 39及びミラー 38を介してイメージ センサ 40に結像する。
イメージセンサ 40に結像した画像データは、視野領域内の画像として、 FIA演算ュ ニット 41の画像信号記憶部 50に記憶される。
なお、サーチァライメント時のこの画像 (パターン信号)の取り込みを、ァライメントセ ンサの倍率を後述するファインァライメントの時よりも低倍率に設定して行った場合に は、ファインァライメント時よりもウェハ W上のより広レ、領域の画像が取り込まれることと なる。なお、通常は、検出対象の基準パターンも、後述するファインァライメント時の ァライメントマークよりも大きなものが設定されてレ、る。 [0095] 次に、 FIA演算ユニット 41のデータ処理部 53は、テンプレートデータ記憶部 52に 記憶されているテンプレートと同じサイズの窓により画像信号記憶部 50に記憶されて いる視野画像 (パターン信号)を走査し、テンプレートデータとの照合(マッチング)を 行う(ステップ S222)。具体的には、走査され所定の位置に設定された窓内の画像と テンプレートデータとの相関の評価値を前述した式(1)又は式(2)により求める。そし て、評価値が所定の閾値よりも大きい場合に、そのテンプレートの基準パターンがそ の位置に存在すると判断し、その基準パターンの位置情報を取得する。
サーチァライメントのために予め設定されたウェハ W上の所定の数ケ所の領域に対 を各々繰り返し行う(ステップ S221—ステップ S223)。
そして、数ケ所の領域の基準パターンの位置の検出が全て終了したら (ステップ S 2 23)、その各基準パターンの位置関係に基づいて所定の演算を行レ、、ウェハ Wの回 転量や XYずれ等を求める(ステップ S224)。
[0096] サーチァライメントが終了したら、次に、ァライメントセンサにより、ウェハ W上の各露 光ショットの位置ずれを検出するファインァライメントを行う(ステップ S230)。ファイン ァライメントにおいては、ウェハ W上の露光ショットに対応して形成されたファインァラ ィメント用のァライメントマークを検出し、そのァライメントマークの位置を求めて、各シ ヨット領域の回転量や位置ずれを検出する。
本実施の形態においては、検出した画像 (パターン信号)の波形信号に対してエツ ジ計測手法による信号処理を施すことにより、ァライメントマークの検出及びその位置 情報の検出を行う。なお、エッジ計測手法は、例えば特開平 4一 65603号公報等に 開示されており、その詳細な説明は省略する。
[0097] このファインァライメントは、ウェハ W上の各ショット領域に対応して設けられたァライ メントマークの全てを検出して行ってもよいし、レ、くつかのショット領域を選択し、その 選択されたショット領域に対応するァライメントマークを検出して行ってもよい。但し、 一部のショット領域に対応するァライメントマークを選択して行う場合には、後述する ショット領域の位置算出の際に統計演算処理 (EGA処理)を施し、各ショット領域の 位置を検出することとなる。 なお、ファインァライメント時のこの画像の取り込みを、ァライメントセンサの倍率を前 述したサーチァライメントの時よりも高倍率に設定して行うようにしてもよい。また、検 出対象のァライメントマークは、通常、前述したサーチァライメント時に用いた基準パ ターンよりも小さい、すなわち高精細なマークである。
[0098] ファインァライメントが終了したら、データ処理部 53は、サーチァライメントの結果及 びファインァライメントの結果に基づいて、例えば EGA処理等の処理を行レ、、ウェハ W上の各ショット領域の位置を算出する(ステップ S240)。
[0099] ショット領域の位置が算出されたら、主制御系 15は、予め管理されているベースラ イン量及び算出したショット領域に基づいてレチクル Rとウェハ Wのショット領域との 位置合わせを行う。そして、ショット領域にレチクル Rのパターン像を正確に重ね合わ せ、露光を行う(ステップ S250)。
[0100] このように、本実施の形態によれば、設計データを 2次元画像データ (パターン信号 )に変換し、得られた画像データ(パターン信号)よりユニークなパターンを抽出してテ ンプレート作成領域を特定し、さらにその領域の画像データ (パターン信号)を抽出し てテンプレートを生成している。従って、実際のデータが得られない場合や、テンプレ ートとすべきマークが形成されてない場合等においても、有効なテンプレートを生成 すること力 Sできる。また、このテンプレートを用いて、適切にテンプレートマッチングや サーチァライメントを行うことができる。
また、このテンプレートは、設計データから自動的に生成することができる。従って、 オペレータの負荷を軽減することができる。 また、設計データからテンプレートを生成しているので、ウェハ製造前にテンプレー トを作成することができ、露光処理を効率良く行うことができる。
[0101] なお、本実施の形態においては、サーチァライメントの際のテンプレートマッチング において使用するテンプレートを作成する方法を例示した力 S、ファインァライメントの 際にテンプレートマッチングを行う場合のテンプレート作成にも適用可能である。
[0102] 2の ¾の开
前述した第 1の実施の形態においては、設計値データから基準パターン (テンプレ ート)を作成する領域を特定し、設計値データを変換して生成した 2次元画像 (パター ン信号)データのその領域の画像 (パターン信号)データよりテンプレートを生成した 。し力 この方法は、実際に製造されたウェハの画像 (パターン信号)データが存在 する場合にも適用可能であり有効である。実際に製造されたウェハのデータが存在 する場合の同様の方法によるテンプレート生成方法について、本発明の第 2の実施 の形態として説明する。
なお、本実施の形態において、露光装置の構成、及び、サーチァライメント時のテ ンプレートマッチングを含む一連の露光処理の方法は、第 1の実施の形態と同一で ある。従って、その説明は省略する。また、露光装置の構成を参照する場合には、第 1の実施の形態で使用した符号と同一の符号を用いる。
[0103] 図 10は、本発明の第 2の実施の形態のテンプレート作成処理を示すフローチャート である。
実際の画像 (パターン信号)データを用いるこの方法においては、まず、製造された ウェハ表面を撮像し、画像 (パターン信号)データを得る(ステップ S310)。
次に、設計値データよりユニークパターンを抽出し、その位置情報を検出する。ュ ニークパターンを抽出するまでの処理は、前述した第 1の実施の形態の処理とほぼ 同一である。
すなわち、設計値データ (設計値情報)を 2次元画像 (パターン信号)に変換し、 2 次元画像 (パターン信号)データを生成する(ステップ S320)。
[0104] 次に、設計値の 2次元画像 (パターン信号)データ上に入力データ範囲を設定する
(ステップ S330)。
入力データ範囲を設定したら、その範囲内に予め定められているテンプレートの大 きさと同じサイズの領域を設定し、仮のテンプレートとする(ステップ S340)。
次に、入力データ範囲の全域について、前述した式(1)又は式(2)に基づいて仮 のテンプレートとの相関サーチ計算行い、相関値が所定の閾値を越え、なおかつピ ークとなる位置を検出する(ステップ S350)。
[0105] 入力データ範囲内の全域について、順次、仮のテンプレートの設定 (ステップ S34 0)及び相関値ピークの検出(ステップ S350)を行い、各領域に対する相関値ピーク を示す領域を検出する (ステップ S360)。 ステップ S320—ステップ S360の処理により入力データ範囲内に存在するパター ンが検出されたら、その中から、 自分自身以外にピークを持たず単一的に(ユニーク に)存在するパターンを検出し、その位置情報 (領域情報)を得る(ステップ S370)。 ユニークなパターンが複数存在する場合には、次に相関値が高いパターンとの相関 値の差が最も多レ、パターンを検出し、その位置情報を得る。
[0106] このようにして、ユニークなパターンが存在する領域の位置情報を得たら、ステップ S310で取得した実際に撮像した画像 (パターン信号)データの対応する領域のバタ ーンを抽出し、テンプレートとする(ステップ S380)。
抽出されたテンプレートは、その領域の位置情報とともに FIA演算ユニット 41のテ ンプレートデータ記憶部 52に記憶され、サーチァライメントの際のテンプレートマッチ ングで使用される。
[0107] なお、上述したテンプレート作成処理において、ステップ S310のウェハを撮像し画 像(パターン信号)データを取得する処理、ステップ S320—ステップ S370のュニー クパターンの領域を検出する処理、及び、ステップ S380のテンプレートを抽出する 処理は、一連の処理でなくとも、各々別個に行ってもよい。例えば、ウェハを撮像す る処理及びユニークパターンの領域検出の処理は、各々別個に予め行っておいてよ レ、。また、各処理は、露光装置 100を用いて行ってもよいし、外部の計算機装置や撮 像装置等を用いて行ってもよぐ各々別個の装置で行ってょレ、。
[0108] このように、本実施の形態のテンプレート作成方法によれば、実際のウェハの撮像 画像 (パターン信号)データを用いて有効なテンプレートを自動生成することができる 。従って、オペレータの負荷を軽減することができる。また、実際のウェハ上に形成さ れるパターンと相関の高い有効なテンプレートを生成することができる。
また、テンプレートとすべきユニークパターンの領域の検出は、設計データに基づ いて行っているので事前に行うことができ、テンプレート生成処理、ひいては露光処 理を効率良く行うことができる。
[0109] 3の ¾の开
前述したように、サーチァライメントの際にァライメントセンサにより撮像される観察視 野の範囲は、ウェハ投入時の位置の誤差やウェハ処理時のパターン形成位置の誤 差等により変動し、一定の領域とはならなレ、。テンプレートマッチングで用いる基準パ ターン (テンプレート)は、観察視野に常に含まれる範囲から抽出する必要があるが、 観察視野の変動が大きい場合には、観察視野に常に含まれる領域が非常に小さくな つたり存在しない状況となり、基準パターンを抽出することが不可能となる。
具体的には、例えば図 11Aに示すように、観察視野を VIEW_Area、観察視野と なり得る最大の範囲を OR_Area、必ず観察視野に含まれる共通領域を AND_Ar eaとすると、図 1 IBに示すように、共通領域 AND_Area内にユニークなパターン B が存在している場合には、これをテンプレートとして抽出することができる。し力、しなが ら、図 11Cに示すように、共通領域 AND_Area内にユニークなパターンが存在しな い場合には、テンプレートを生成することができない。
[0110] 第 3の実施の形態においては、このように共通領域 AND_Area内にユニークなパ ターンが存在しない場合にも、適切にテンプレートマッチングを行うことができる方法 として、最大視野範囲 OR— Areaの全域からユニークな、あるいはほぼユニークなパ ターンを検出し、それらを組み合わせ、あるいは補い合わせることによりテンプレート として利用する方法について説明する。
[0111] なお、本実施の形態の説明中においては、テンプレートを構成する個々の要素の パターンをエレメントと称する。
また、露光装置の構成及び露光処理の全体の流れ等は、前述した第 1及び第 2の 実施の形態とほぼ同一なので、その説明は省略する。また、露光装置の構成を参照 する場合には、第 1の実施の形態で使用した符号と同一の符号を用いる。
[0112] 図 12は、本発明の第 3の実施の形態のテンプレート作成処理を示すフローチャート である。
以下、図 12に示すフローチャートを参照して、本実施の形態のテンプレート作成方 法について説明する。
まず、画像 (パターン信号)データを取り込む (ステップ S410)。画像 (パターン信号 )データは、第 1及び第 2の実施の形態のように設計値データ (設計値情報)を 2次元 画像 (パターン信号)に変換して生成してもよいし、実際に製造したウェハを撮像して 取得してもよい。 次に、取り込んだ画像 (パターン信号)データに対して、入力データの範囲を設定 する(ステップ S420)。前述したように、サーチァライメントの際に撮像される範囲は 所定の範囲内で変動する。ここでは、そのようなばらつきを考慮して、図 11Aに示し たような撮像され得る領域の最大の範囲 (最大視野範囲、最大入力データ最大範囲
) OR_Areaを入力データの範囲として設定する。
[0113] 最大視野範囲 OR_Areaを入力データ範囲に設定したら、その範囲内に、テンプ レート構成要素(エレメント)の大きさと同じサイズ ElementSizeの領域を設定し、仮 のテンプレートとする(ステップ S430)。
次に、最大視野範囲〇R_Areaの全域について、仮のテンプレートとの相関サー チ計算行い、相関値が所定の閾値を越え、なおかつピークとなる位置を検出する (ス テツプ S440)。なお、相関サーチ計算の評価計算式は、式(1)又は式(2)に示した 相関係数計算や SSDA法等を含む任意に式を用いてよい。
[0114] 1つのエレメントに対して相関サーチ計算が行われたら、その検出結果に基づいて
、ユニークなエレメント又はある程度ユニークなエレメントの選択を行う(ステップ S45
0)。
エレメントの選択は、まず、検出したピークの数が、所定の閾値 TH— Peak以下で あるか否かをチェックすることにより行う。ピークの数が閾値 TH— Peakより多いもの は、ユニークさが少ないものとして、テンプレート用の構成要素としては使用しないも のとする。
[0115] また、 SN比、検出されたエッジ量、エントロピー、分散値、モーメント等の特徴を用 いて、エレメントの絞込みを行う。 SN比は、最も相関値が高レ、ものと 2番目に高いもの との相関値の差 (特徴値の差)で表す。この差が大きいほど安定した特徴パターンと 言うことができるからである。また、エッジの量は、エッジの本数、あるいは、 2CCDの エッジを検出した CCDの数(エッジが占める 2CCD上の画素面積))で表す。
このような特徴量を使用することにより、類似したエレメントより最も位置決め情報が 多レ、パターンを選択することができる。
[0116] 具体的に説明すると、例えば図 13Aに示すように、 1つのパターン Bに関連して、図 示のごとぐずれた(はみ出した)パターンを含む複数のパターンが検出される場合が ある。このような場合、相関係数や SSDA法の評価値は、どのパターンも自分自身に 対して同様に高い値を示す。しかし、前述したような SN比、エッジ量、エントロピー、 分散値あるいはモーメント等の特徴を用いることにより、最も位置決め情報が多いパ ターンを選択することができる。図 13Aに示した例においては、図 13Bに示すような パターン Bが適切に切り出されたエレメントが選択される。
なお、これら SN比、検出されたエッジ量、エントロピー、分散値、モーメント等の特 徴によるエレメントの絞込みは、ステップ S440の相関サーチ計算の処理の際に、評 価値の計算と組み合わせてやるようにしてもよい。
[0117] このような仮のテンプレートの設定 (ステップ S430)、相関値ピークの検出(ステップ S440)、及びユニークエレメントの選択 (ステップ S450)の各処理を、最大視野範囲 OR_Area内に設定し得る全てのエレメント、すなわちエレメントサイズ ElementSiz eの領域に対して行う(ステップ S460)。その結果、最大視野範囲 OA_Area内に含 まれる比較的ユニークなエレメント(パターン)が検出される。
[0118] このように最大視野範囲 OR— Area内に存在する比較的ユニークなエレメントが検 出されたら、それらを組み合わせて、実際にテンプレートを構成して行く(ステップ S4 70)。
このエレメントを選択してテンプレートを構成する処理について、具体的なエレメント の検出結果及び選択結果を例示して説明する。
[0119] まず、ステップ S450において、閾値 TH—Peak= lとしてユニークエレメントの選択 処理を行うことにより、例えば図 14に示すエレメント B及び Cのように、 自分自身以外 にピークを持たないユニークなエレメント (パターン)が検出される。
このような場合、仮に、このエレメント B又はエレメント Cのいずれ力が、視野領域の 共通領域 AND_Areaに存在してレ、た場合には、そのエレメントを従来の方法により そのままテンプレートとすればよレ、。し力し、図 14に示す例のようにこれらのエレメント B及び Cが共通領域 AND_Areaに含まれない場合には、選択したこの両方のパタ ーン B及び Cを、各々テンプレートとして登録する。
[0120] テンプレートマッチングを行う時には、この両方のエレメントでマッチングを行う。ェ レメント B及びエレメント Cのいずれかが検出できれば、いずれのエレメントもユニーク なパターンなので、このエレメントの位置計測結果からウェハ上のパターンの位置計 測が可能となる。図 14に示す例においては、観察視野 VIEW— Areaが紙面中で左 側にある時にはエレメント Bが検出され、観察視野 VIEW— Areaが紙面中で右側に ある時にはエレメント Cが検出され、各々位置計測が行われる。
なお、図 14に示す例において、ステップ S440で検出された相関ピーク値を示した エレメント Aが示されているが、これは最大視野範囲〇R_Area中に 4個存在するた め、そのいずれかを検出したとしても位置を検出できなレ、。このようなエレメントは、ュ ニークエレメントでなレ、ものとしてステップ S450において選択されず、テンプレートと ならない。
[0121] ステップ S450において、閾値 TH_Peak= 2としてユニークエレメントの選択処理 を行うことにより、例えば図 15に示すエレメント Bのように、完全にユニークではないが 、ある程度ユニークな特徴的なパターンが検出される。
このような場合、通常であれば、最大視野範囲 OR— Areaに複数の同一パターン があるので、テンプレートとすることはできなレ、が、この 2つのパターンを組み合わせ て考えることにより、最大視野範囲 OR— Area内で一意に特定できるパターンを構成 できる。従って、これら 2つのパターン Bの位置関係の情報をも含む形式で、このエレ メント Bをテンプレートとして登録する。
[0122] テンプレートマッチングを行う時には、このエレメント Bを基準パターンとしてマツチン グを行うとともに、検出されたエレメント Bの個数を検出する。図 15に示す例において は、仮に、エレメント Bが 2個検出された場合は、観察視野 VIEW— Areaが紙面中で 左側にあることがわかり、各エレメント Bの位置情報に基づいて位置計測が可能となる 。また、エレメント Bが 1個しか検出されない場合は、観察視野 VIEW_Areaが紙面 中で右側であり、観察されているエレメント Bは紙面中の右側に位置するエレメント B であることがわかる。従って、このエレメント Bの位置情報に基づいて、位置計測がで きる。
[0123] ステップ S450において、閾値 TH_Peak= 3としてユニークエレメントの選択処理 を行うことにより、例えば図 16Aに示すエレメント A, B及び Cのように、完全にュニー クではないが同じパターンが最大視野範囲〇R Areaに 3つまでしか存在しない特 徴的なパターンが検出される。
このような場合であっても、各エレメントの位置関係の情報をも含む形式でテンプレ ートを作成することにより、エレメントのテンプレートマッチング結果に基づいて位置検 出を行うことができる。すなわち、このような各パターンの位置関係の情報をも含む形 式で、これらのエレメント A, B及び Cをテンプレートとして登録する。
[0124] テンプレートマッチングを行う時には、まず、これらのエレメント A, B及び Cのパター ン全てでマッチングを行う。そして、視野領域内で検出された各エレメントの相対的位 置関係に基づいて、位置計測を行う。
例えば、図 16Aの最大視野範囲 OR_Areaに対して、図 16Bに示すように左上に 観察視野 VIEW_Areaが配置された場合と、図 16Cに示すように右下に観察視野 VIEW_Areaが配置された場合を考える。この場合、いずれの観察視野においても 、エレメント B及びエレメント Cが同様の位置関係で配置されている。し力、しながら、図 16Bに示す左上の観察視野においては、他にマッチングにより検出されたエレメント が存在しないのに対して、図 16Cに示す右下の観察視野においては、さらなるエレメ ント Aが検出されている。従って、このエレメント Aの検出の有無及びその位置関係を 用いることにより、位置を検出することができる。
すなわち、各々位置情報とともに登録されることにより、エレメント Bとエレメント Cの 組み合わせ、及び、エレメント A,エレメント B及びエレメント Cの組み合わせ力 各々 実質的に 1つのテンプレートとして機能するようにテンプレート化されていることとなる
[0125] このように、ステップ S470においては、最大視野範囲 OR— Area内に検出された 比較的ユニークなエレメントを適宜組み合わせて、最大視野範囲〇R_Area内のど の位置に観察視野 VIEW_Areaが配置されたとしても観察視野 VIEW_Area内に 必ずテンプレートが含まれるように、テンプレートを構成して行く。
実際にテンプレートを構成するエレメントを選択する際には、最大視野範囲〇R_A reaの大きさ、観察視野 VIEW_Areaの大きさ、エレメントの大きさ ElemetSize、及 び、ステップ S440で検出されたエレメントの配置とそのユニークさ等の情報に基づい て、選択するピーク数の閾値 TH Peakを 1から徐々に大きくし、テンプレートを構成 するエレメントを順次選択して行くこととなる。
[0126] このようにしてテンプレートの構成が抽出されたら、それらテンプレートを構成する各 エレメントを、それらの位置情報をも含んだ形式で登録し、これによりテンプレートを 作成する(ステップ S480)。なお、テンプレートには、各エレメントのパターン(画像デ ータ、形状データ)、エレメント間相互の位置関係の情報に加えて、そのエレメントの ユニークさの情報や個数の情報、あるいは、さらに他の情報を記憶するようにしてよ レ、。
なお、テンプレートのデータ形式等は、任意の形式でよい。
[0127] 次にこのように作成されたテンプレートを用いて、テンプレートマッチングを行ってサ 一チアライメントを行う方法について、図 17のフローチャートを参照して説明する。 なお、サーチァライメントの前工程及び後工程の処理内容は、図 9を参照して前述 した第 1の実施の形態の場合の処理と同じである。
サーチァライメントにおいては、ウェハ W上の離れた 2ケ所又は 3ケ所の所定の領域 におレ、て所望のパターンにつレ、て位置計測を行い、各箇所の位置関係に基づレ、て ウェハ Wの回転量や XYずれ等を求める。
[0128] サーチァライメントにおいては、まず、設計値データに基づいて、ウェハ Wの位置計 測箇所の画像 (視野画像、パターン信号)を取り込む (ステップ S521)。
次に、テンプレートを構成しているエレメントのサイズ ElementSizeと同じ大きさの 窓により、取り込んだ視野画像を走査し、エレメントデータとの照合 (マッチング)を行 う(ステップ S522)。具体的には、走査され所定の位置に設定された窓内の画像 (パ ターン信号)とエレメントデータとの相関の評価値を前述した式(1)又は式(2)により 求める。そして、評価値が所定の閾値よりも大きい場合に、そのエレメントのパターン 力 Sその位置に存在すると判断し、エレメントを識別する情報とその位置とを記憶する。 前述したように、本実施の形態のテンプレートは複数のエレメントにより構成されて いる。従って、このマッチング処理は、全エレメントについて、順次行う(ステップ S52 3)。
[0129] そして、視野画像 (パターン信号)内に存在するエレメントが全て検出できたら、そ れら各エレメントの相対位置関係を検出し、これをテンプレートに記憶されているエレ メント相互の位置関係の情報と比較照合し、その視野画像 (パターン信号)の位置を 検出する(ステップ S524)。この際、テンプレートに各エレメントのユニークさの情報 や個数の情報、あるいは、さらにその他の情報が記憶されていれば、それらの情報を 参照して、ユニークなエレメントから優先的に処理を行ったり、誤差やエラーが少なく より確実に位置を検出できるエレメントを優先的に処理したりするのが好適である。具 体的には、図 12を参照して前述したテンプレートの構成方法に関する説明の際に既 に説明したのでここでは説明を省略する。
[0130] このような画像(パターン信号)の取り込み(ステップ S521)、各エレメントごとのマツ チング (ステップ S522及び S523)及び検出したエレメントの相対位置関係等に基づ く視野画像 (パターン信号)の位置検出(ステップ S524)の処理を、サーチァライメン トのために予め設定されたウェハ W上の所定の複数箇所の領域に対して繰り返し行 う(ステップ S525)。
そして、各領域の位置が検出できたら、その各領域の位置関係に基づいて所定の 演算を行い、ウェハ Wの回転量や XYずれ等を求める(ステップ S526)。
[0131] このように、第 3の実施の形態にテンプレート生成方法によれば、入力データが取り 得る全ての範囲(最大視野画像 OR— Area)から、比較的ユニークな特徴的なパタ ーンを抽出して、そのパターンを組み合わせることにより実質的にテンプレートを生成 している。従って、入力データの取得位置(視野画像 VIEW— Area)が大きく変化す る場合や、入力データに位置決め情報があまり含まれない時であっても、テンプレー トを生成することができ、その結果、テンプレートマッチングを可能とする。
[0132] 第 4の実施の形態
図 11Aを参照して前述したように、サーチァライメントの際には、ウェハの投入動作 に起因する誤差やパターンの製造処理に起因する誤差等により、撮像される範囲( 観察視野 VIEW_Area)は所定範囲(OR_Area)内でばらつく。このような条件の 下でァライメントに用いるテンプレート(基準パターン)を作成するためには、観察視 野がばらついたとしても必ず観察視野に含まれる共通領域 AND_Area内のパター ンであって、観察視野となり得る最大範囲 OR_Area内においてユニークなパターン をテンプレートとして抽出する必要がある。し力、しながら、視野共通領域 AND Are aから、必ず、ユニークで位置計測に必要な情報を十分に持つパターンが検出できる とは限らない。
第 4の実施の形態においては、視野共通領域 AND— Areaからユニークパターン が検出できなかった場合に、テンプレート作成の対象領域を変更する(共通領域 AN D_Areaや視野最大範囲 OR_Areaをずらす)ことにより、ユニークパターンを検出 できる可能性を高めたテンプレート作成方法について、図 18—図 22を参照して説明 する。
[0133] 図 18は、本発明に係る第 4の実施の形態のテンプレート作成処理の流れを示すフ ローチャートである。 本実施の形態のテンプレート作成方法においては、まず、ユニークパターンの検出 処理の対象領域を設定する(ステップ S601)。まず、ウェハ上のショット領域の配置 やサーチァライメント計測の処理条件等に基づいて、図 19Aに示すように、サーチァ ライメント計測によりパターン検出及びその位置計測を行うウェハ上の目標計測領域 AreaVOを設定する。 目標計測領域 AreaVOを設定したら、予め検出されているゥ ェハ投入誤差やウェハ製造誤差等の情報に基づいて、ウェハを露光装置 100に投 入しァライメントセンサによりこの領域 AreaVOを目標として画像を取り込んだ場合の 、視野共通領域 AND— Area及び視野最大範囲 OR— Areaを検出する。そして、視 野共通領域 AND— Area内の任意の領域を、ユニークパターンを探索する領域 Are aAとして設定し、検出された視野最大範囲 OR— Areaを含む任意の領域を、パター ンのユニークさを検証する領域 Arealとして設定する。本実施の形態においては、ュ ニータパターン探索領域 AreaAは視野共通領域 AND— Areaに等しく設定し、ュニ ークさ検証領域 Arealは視野最大領域〇R_Areaに等しく設定する。
[0134] ユニークパターン探索領域 AreaA及びユニークさ検証領域 Arealの設定が終了し たら、ユニークさ検証領域 Areal (視野最大範囲〇R_Area)の画像データ(パター ン信号情報)を取得する (ステップ S603)。画像データは、設計値データ (設計情報) を画像信号に変換して取得してもよいし、製造されたウェハの表面を撮像して取得し てもよい。
[0135] 次に、取得した画像データを用いて、ユニークパターンの検出を行う。 まず、図 19Bに示すように、ユニークパターン探索領域 AreaA内に予め定められて レ、るテンプレートと同じサイズの領域 AreaTを設定し、これを仮のテンプレートとする( ステップ S605)。
次に、ユニークさ検証領域 Arealの全域を、仮のテンプレート AreaTと同じサイズ( テンプレートと同じサイズ)の領域 AreaSでサーチし、各位置における領域 AreaSの 画像 (パターン信号情報)と仮のテンプレート AreaTの画像 (パターン信号情報)との 相関値を、前述した式(1)又は式 (2)に基づいて順次求め、相関値が十分に高ぐピ ークとなっている領域を検出する(ステップ S607)。
[0136] ユニークパターン探索領域 AreaA内の全域について、仮のテンプレート AreaTを 順次設定し、各仮のテンプレートに対する相関値ピーク領域を検出したら (ステップ S 609)、その中から、ユニークなパターン (領域)を抽出する(ステップ S611)。すなわ ち、仮のテンプレートの中で、ユニークさ検証領域 Areal内に自分自身以外にピーク を持たない単一的な(ユニークな)仮のテンプレートを抽出する。
[0137] そして、そのようなユニークな仮のテンプレートが抽出された場合には(ステップ S6 13)、その仮のテンプレートの画像データ(イメージ信号情報)をテンプレートとして抽 出し (ステップ S615)、テンプレート作成処理は終了する。
抽出されたテンプレートは、これを抽出するためにステップ S601で設定された目標 計測領域 AreaVOの位置情報とともに、露光装置 100の FIA演算ユニット 41のテン プレートデータ記憶部 52 (図 1及び図 5参照)に記憶され、サーチァライメントの際の テンプレートマッチングで使用される。
なお、ユニークな仮のテンプレートが複数存在した場合には、第 1の実施の形態と 同様に、 自分自身に対する相関値と 2番目に高レ、相関値との差が最も大きレヽ仮のテ ンプレートをテンプレートとして選択する。
[0138] ステップ S611において、仮のテンプレートの中からユニークな仮のテンプレートが 抽出されな力、つた場合には (ステップ S613)、ユニークパターン探索領域 AreaA及 びユニークさ検証領域 Arealの再設定(変更)を行う(ステップ S620)。
そのために、既にステップ S603において取得している視野最大範囲〇R_Area 内の画像データであって未だユニークなパターンの探索を行っていない領域、すな わち、現在のユニークさ検証領域 Areal (視野最大範囲 OR— Area)の内部でュニ ークパターン探索領域 AreaA (視野共通領域 AND— Area)の外部である領域(図 1 9A参照)から、ユニークなパターンを検出する。
[0139] ユニークパターンの抽出処理においては、まず、図 20Aに示すように、ユニークさ 検証領域 Areal内にテンプレートと同じサイズの領域 AreaYを設定し、これを仮のュ ニータパターン領域とする(ステップ S621)。
次に、図 20Bに示すように、ユニークさ検証領域 Arealの全域を、仮のユニークパ ターン領域 AreaY (図 20A)と同じサイズ(テンプレートと同じサイズ)の領域 AreaZで サーチし、各位置における領域 AreaZの画像 (パターン信号情報)と仮のユニークパ ターン領域 AreaYの画像 (パターン信号情報)との相関値を、前述した式(1)又は式 (2)に基づいて順次求め、相関値が十分に高ぐピークとなっている領域を検出する (ステップ S623)。
[0140] このような、仮のユニークパターン領域の設定(ステップ S621)、及び、その仮のュ ニータパターンに対するユニークさ検証領域 Areal内の相関値ピーク領域の検出(ス テツプ S623)の処理を、ユニークさ検証領域 Areal内において設定可能な仮のュニ ークパターン領域 AreaYから、全範囲がユニークパターン探索領域 AreaAに含まれ るような仮のユニークパターン領域 AreaY (図 20A中の Y1及び Y2のような領域を示 す。 Y3のような領域は、これには含まれない)を除いた残りの全ての仮のユニークパ ターン領域 AreaYに対して行う(ステップ S625)。
次に、ステップ S621—ステップ S625の処理により検出された仮のユニークパター ン及びそれに対する相関値ピーク領域から、 自分自身以外にピークを持たなレ、ュニ ークなパターンを抽出する(ステップ S627)。
[0141] このようにして、ユニークさ検証領域 Arealとユニークパターン探索領域 AreaAの 間の領域からユニークなパターンが検出されたら、そのユニークなパターンが、新た なユニークパターン探索領域 AreaA_New (視野共通領域 AND_Area_New) 内に配置されるように、ユニークパターン探索領域 (AreaA)及びユニークさ検証領 域 (Areal)を新たに設定する(ステップ S 629)。
本実施形態においては、図 21に示すように、ユニークさ検証領域 Areal内にュニ ークパターン Qが検出されたとすると、そのユニークパターン Qの中心を観察視野 (V IEW— Area)の中心とするように新たな目標撮像範囲 AreaVを設定し、これに基づ レ、て、新たな視野共通領域 AND— Area— New及び視野最大範囲 OR— Area— N ewを検出する。
[0142] そして、このように新たに視野共通領域 AND_Area_New (ユニークパターン探 索領域 AreaA_New)及び視野最大範囲〇R_Area_New (ユニークさ検証領域 AreaI_New)を設定したら、ステップ S603に戻って、再度、これらの領域に対して 、前述したテンプレート作成の処理を繰り返す(ステップ S603 S609)。
このような処理により、ステップ S611においてユニークな仮のテンプレートが抽出さ れた場合には (ステップ S613)、その仮のテンプレートの画像データ (イメージ信号情 報)をテンプレートとして抽出し (ステップ S615)、テンプレート作成処理を終了する。
[0143] 本実施の形態のテンプレート作成方法を、図 22に示す具体的なパターン例を参照 してまとめて説明する。
図 22に示すように、例えば、サーチァライメント計測の初期目標計測領域が AreaV 0のように設定されている場合、これに対して、ウェハ投入誤差等が考慮されて、視 野共通領域 AND— Area及び視野最大範囲 OR— Areaが図示のように設定される 。この視野共通領域 AND— Area内を、テンプレートと同じサイズの領域 AreaTでサ ーチし、各領域を仮のテンプレートとし、その各仮のテンプレートが視野最大範囲 OR —Area内においてユニークか否かを検証する。これにより、ユニークな仮のテンプレ ートが検出された場合には、そのパターンをそのままテンプレートとして登録する。
[0144] 図 22に示す例のように、そのようなユニークなパターンが検出されかなった場合に は、視野最大範囲〇R_Area内の未だユニークさを検出していない領域 AreaR (視 野最大範囲 OR_Areaの内部で視野共通領域 AND_Areaの外部の領域)をテン プレートと同じサイズの領域 AreaTでサーチし、各領域を仮のユニークパターンとし、 その各仮のユニークパターンが視野最大範囲〇R_Area内でユニークか否かを検 出する。
この処理により、例えばユニークなパターン Qが検出されたとすると、このパターン Q が視野共通領域 (AND Area)内に含まれるように、サーチァライメント計測の目標 領域 AreaVを再設定する。また、これに伴って視野共通領域 AND— Area— New 及び視野最大範囲 OR— Area— Newを再検出する。 (当然、視野共通領域 AND— Area— Newは、パターン Qを含むように検出される。 )
そして、新たに設定した領域を用いて、テンプレート作成を行う。
[0145] この場合、パターン Qが直ちにテンプレートとして検出されるとは言えなレ、が、少なく とも新たな視野最大範囲〇R_Area_Newの中の前回の視野最大範囲 OR_Are aと重複する領域においてはユニークなパターンなので、最終的にパターン Qがュニ ークパターン(テンプレート)として検出される可能性はある。
また、新たに設定した領域において、ユニークパターンが検出されなかったとしても 、引き続き同様の処理を繰り返すことにより、ユニークパターンの探索処理を継続す ること力 Sできる。
[0146] このように、本実施の形態のテンプレート作成方法によれば、予め設定したサーチ ァライメント計測の計測位置において、テンプレートとするのに適切なユニークなパタ ーンが検出されなかった時には、ユニークパターン探索領域を少しずつ変更しなが ら(ずらしながら)、ユニークパターンの検出を繰り返し継続する。従って、適切なテン プレートを自動作成できる可能性が高くなり、テンプレート作成に関わるオペレータの 負担を軽減することができる。
[0147] また、ユニークパターン探索領域を変更する際には、ユニークパターン (テンプレー ト)となる可能性の高いパターンを視野最大範囲内で探索し、探索したパターンが含 まれるように探索領域を変更をしている。従って、ユニークパターン探索領域を変更 した後に適切なテンプレートが検出できる可能性が高ぐ一層効率良くテンプレート 作成を行うことができる。
[0148] また、ユニークパターン探索領域を変更する際のユニークパターンの探索の処理 は、既に取得している画像データを用いて行っているので、新たに画像データを取 得する必要が無ぐこの点においても効率良く処理が行える。
また、本実施の形態の方法によれば、設計データからも、実際のウェハからの撮像 データからもテンプレートを作成することができるので、利便性が向上する。
また、このようにサーチ範囲(視野最大範囲 OR Area)を変更してテンプレート作 成及びそのテンプレートを用いたサーチァライメントを行うことができる構成において は、サーチ可能領域を拡大することができる。従って、露光装置においてブリアライメ ント精度、ウェハ投入精度が若干低下しても、サーチァライメントによりこれに対応す ることができることとなり、結果的により高性能な露光装置を提供できる。
[0149] なお、前述した方法においては、ステップ S611における実際のテンプレートを作成 するためにユニークパターンを抽出する際のユニークさの基準と、ステップ S627に おけるユニークパターン探索領域を変更するためにユニークパターンを抽出するた めのユニークさの基準とが同一であつたが、例えば後者の基準を前者に比べて緩和 する等、異なる基準としてもよい。
なお、ユニークパターン探索領域の変更を行っても適切なテンプレートが検出でき ない場合には、領域の変更回数に制限を設ける等の任意の条件により処理を終了 するものとする。
[0150] 第 5の実施の形態
本発明に係る第 5の実施の形態として、第 4の実施の形態と同様に、最初に設定し たテンプレート作成領域 (ユニークパターン探索領域)において適切なテンプレート が抽出できない場合に、テンプレート作成領域を再設定してテンプレート作成を再度 試みる他の方法について、図 23—図 26を参照して説明する。
[0151] 図 23は、本発明の第 5の実施の形態のテンプレート作成処理の流れを示すフロー チャートである。
本実施の形態のテンプレート作成方法においては、まず、テンプレートを作成する 領域の設定を行う(ステップ S651)。具体的には、第 4の実施の形態と同様に、サー チアライメント計測の目標計測領域に対してウェハ投入誤差やウェハ製造誤差を考 慮して目標計測領域に対する視野共通領域 AND_Area及び視野最大範囲 OR_ Areaを検出し、その上で、本実施の形態においては、視野最大範囲 OR_Areaを、 テンプレート作成領域として設定する。
[0152] 次に、その視野最大範囲 OR_Areaの画像データ (パターン信号情報)を取得する
(ステップ S652)。本実施の形態においても、この画像データは設計情報から生成し てもよレ、し、実際のウェハ上のパターンを撮像して取得してもよレ、。 [0153] 画像データを取得したら、そのテンプレート作成領域からテンプレートを抽出する( ステップ S653)。テンプレートの抽出方法は、任意の方法でよぐ例えば前述した第 1の実施の形態一第 3の実施の形態を各々適用することも可能である。本実施の形 態においては、第 1の実施の形態と同様の方法を用いる。すなわち、図 7A及び図 7 Bを参照して説明したように、テンプレート作成領域 Areal (視野最大範囲 OR_Are a)内にテンプレートと同じサイズの領域 AreaTを仮のテンプレートとして設定し、探索 領域(Areal)の全域を仮のテンプレート AreaTと同じサイズの窓 AreaSでサーチし、 各位置における領域 AreaSの画像 (パターン信号情報)と仮のテンプレート Tの画像 (パターン信号情報)との相関値を前述した式(1)又は式(2)に基づいて順次求め、 相関値が十分に高ぐピークとなっている領域を検出する。そして、テンプレート作成 領域 Areal内に設定される全ての仮のテンプレート AreaTについて相関ピーク値を 検出したら、その中から、 自分自身以外にピークを持たないユニークな仮のテンプレ ートを抽出する。
[0154] ステップ S653において、ユニークな仮のテンプレートが 1つ以上抽出されたら(ステ ップ S655)、最もユニークな仮のテンプレートを実際のテンプレートとして選択し、そ の画像データ(イメージ信号情報)をテンプレートとして抽出し (ステップ S657)、テン プレート作成処理は終了する。
[0155] ステップ S653において、ユニークな仮のテンプレートが全く抽出されな力 た場合 は(ステップ S655)、本実施形態においても、テンプレート作成領域 Arealの設定の 変更を行う。
本実施の形態においては、現在のテンプレート作成領域 Arealに対して、その周縁 部の画像データ (イメージ信号情報)から、パターン特徴の特徴量が多くユニークパ ターンが存在する可能性が高いと推定される領域を検出し (ステップ S661)、その方 向に所望の量だけテンプレート作成領域 Arealをずらし、新たなテンプレート作成領 域 AreaI_Newとする(ステップ S663)。
[0156] テンプレート作成領域 Arealに対して、その周縁部のイメージ信号情報のパターン 特徴の特徴量を求める処理について、図 24A及び図 24Bを参照して説明する。 現在のテンプレート作成領域 Areal (視野最大範囲〇R Area)が図 24Aに示す ように設定されているとすると、この視野最大範囲 OR— Areaの周囲の 4辺に沿って 視野最大範囲 OR— Areaの内側に幅 L1の帯状の領域を規定し、これにより視野最 大範囲 OR— Areaの周縁部に図示のごとく 8つの領域 E1— E8を設定する。
次に、各領域 E1 E8ごとに、所定のパターン特徴を検出し、その特徴量を求める 。パターン特徴としては、例えば、 2値化パターンにおけるパターンの量 (所定の画素 値の画素量)、パターン密度、周波数成分検出結果、エッジ検出されたパターンにお けるエッジ線分の量、エッジの本数、エッジの密度、エッジ線分の周波数成分検出結 果等を用いることができる。
[0157] そして、各周縁領域 E1— E8の特徴量を求めたら、その最も特徴量が多い領域を 検出する。
例えば図 24Aに示したテンプレート作成領域 Arealに、図 24Bに示すようなパター ンが配置されていたとする。この場合、領域 El、 E2、 E3、 E5及び E7にパターンが 配置されている力 特に、領域 E1に複雑なパターンが配置されており、例えば周波 数分析やエッジ検出を行レ、パターン特徴を抽出した場合には、領域 E1の特徴量が 最も多くなる。
[0158] 最も特徴量の多い周縁部の領域が求められたら、その周縁部の領域に対応付けて 予め設定されてレ、る所定の領域にテンプレート作成領域 Arealをずらし、新たなテン プレート作成領域 Areal— Newを設定する。図 24Bに示す例においては、テンプレ ート作成領域 Arealを、領域 E1の方向である紙面内上辺方向に所定量ずらし、新た なテンプレート作成領域 Areal— Newが設定される。
[0159] なお、テンプレート作成領域の移動に伴って、その領域が視野最大範囲 OR— Are aとなるようなサーチァライメント時の目標計測領域も移動することとなる。
また、新たなテンプレート作成領域 AreaI_Newは、パターン特徴の特徴量が多い 領域の方向へ設定するのであれば、元の領域 Arealに対して任意の方向、任意の距 離に設定してよい。例えば、例えば図 25Aに示すように元のテンプレート作成領域 A realと一部が重なるように設定してもよレ、し、図 25Bに示すように全く重ならなレ、ように 設定してもよい。
[0160] そして、このようにして新たなテンプレート作成領域が設定されたら、ステップ S652 に戻って、このテンプレート作成領域 Areal— Newの画像データを取得し、この新た なテンプレート作成領域 Areal— Newに対して、前述したテンプレート作成の処理を 繰り返す(ステップ S653— S655)。
このような処理により、ステップ S653においてユニークな仮のテンプレートが抽出さ れた場合には (ステップ S655)、その仮のテンプレートの画像データ (イメージ信号情 報)をテンプレートとして抽出し (ステップ S657)、テンプレート作成処理を終了する。
[0161] このように、本実施の形態のテンプレート作成方法によれば、予め設定したテンプ レート作成領域 (本実施の形態においては視野最大範囲 OR_Area)においてテン プレートとするのに適切なユニークなパターンが検出されな力 た時には、テンプレ ート探索位置をずらして再設定し、再度テンプレート作成を行っている。従って、 自動 的にテンプレートを作成できる可能性が高くなり、テンプレート作成に関わるオペレー タの負担を軽減することができる。
[0162] また、テンプレート作成の処理対象領域を変更する際には、テンプレート作成領域 の周縁のパターン特徴に基づいて、ユニークなパターンが検出される可能性が高い 領域あるいは方向を推定し、これに基づレ、てテンプレート作成領域を変更をしてレ、る 。従って、少なくとも、全くパターンが存在しないような領域にテンプレート作成領域を 再設定するような状態を避けることができ、テンプレートを適切に抽出できる可能性の 高い領域にテンプレート作成領域を再設定することができる。
[0163] また、そのようなテンプレート作成領域の移動のためのパターン特徴の検出は、既 に画像データを取得している領域の画像データを用いて行っているため、新たに画 像データを取得する必要が無ぐ効率良く処理が行える。
また、本実施の形態の方法によれば、設計データからも、実際のウェハからの撮像 データからもテンプレートを作成することができるので、利便性が向上する。
また、本実施の形態においても、サーチ範囲(視野最大範囲〇R_Area)を変更し てテンプレート作成を行うことができるため、サーチ可能領域を拡大することができ、 露光装置におけるブリアライメント精度やウェハ投入精度が低下にもサーチァライメ ントにより対応することができる。その結果、より高性能な露光装置を提供できる。
[0164] なお、前述した方法においては、ステップ S651において視野最大範囲 OR Area をテンプレート作成領域として設定した後、ステップ S652において、その視野最大 範囲 OR— Areaと同じ領域の画像データを取得していた。し力 ながら、視野最大範 囲 OR— Areaよりも広い領域の画像データを取得し、後のパターン特徴の検出の際 に利用するようにしてもよレ、。すなわち、例えば図 26に示すように、ステップ S652に おいて画像データを取得する際には、視野最大範囲 OR_Areaの各辺力 4方向に 各々距離 L2だけ拡張した領域 AreaEの画像を取得しておく。そして、視野最大範囲 OR_Areaからテンプレートが抽出できず、テンプレート作成領域 Arealをずらすた めに視野最大範囲 OR_Area周囲のパターン特徴を検出する時に、この拡張した 部分の画像データ (イメージ信号情報)を用いる。
[0165] 図 26に示す例においては、例えば、視野最大範囲〇R_Areaの 4辺力も各々距 離 L2だけ外側に規定したラインと、 4辺から各々距離 L3だけ内側に規定したラインと にはさまれる帯状の領域において、図 24A及び図 24Bと同様に領域 E1— E8を設定 し、各領域のパターン特徴の特徴量を検出し、これに基づいてテンプレート作成領域 の移動方向を決定する。このような方法によれば、視野最大範囲 OR— Areaとして利 用した領域のさらに外部の領域のパターン特徴を参照することができるため、テンプ レートとして利用できるユニークパターンが存在する可能性をより適切に推定すること ができ、より効率良くテンプレート作成領域を再設定することができる。
[0166] また、本実施の形態の方法においては、テンプレート作成領域をずらす方向及び 距離も任意に設定してよい。本実施の形態のように、予め複数の再設定位置を用意 しておいてもよいし、例えば周縁部のパターン特徴に応じて、テンプレート作成領域 をずらす方向やずらす距離を決定するようにしてもよい。例えば、一連のパターン特 徴の重心を検出し、その重心の方向にテンプレート作成領域をずらすようにしてもよ レ、。
[0167] 6の ¾の开
4の実施の形態及び第 5の実施の形態においては、テンプレート作成領域から 適切なテンプレートが作成できなレ、場合に、そのテンプレート作成領域を移動して再 設定するようにしていた。しかし、テンプレート作成を行う当初の段階より、テンプレー ト作成に適した情報が多数ある領域を選択して、テンプレート作成領域と設定するよ うにしてもよい。テンプレート作成に好適な領域を目標計測領域の周辺の広範な領 域から選択し、その領域の画像データを利用してテンプレートを作成する処理につ いて、本発明に係る第 6の実施の形態として、図 27及び図 28を参照して説明する。
[0168] 図 27は、本発明の第 6の実施の形態のテンプレート作成処理の流れを示すフロー チャートである。
本実施の形態のテンプレート作成方法においては、まず、低倍率(第 1の検出倍率 )の撮像カメラにより広域な画像データ (イメージ信号情報)を取得する(ステップ S70 1)。画像データを取得する範囲は、サーチァライメント計測時の目標計測領域 (サー チ計測視野領域)を含み、さらに複数のテンプレート作成領域を含むような領域であ り、サーチァライメント計測時の撮像倍率 (広域の画像データを取得する本ステップに おける撮像倍率 (第 1の検出倍率)よりも高倍率で、かつファインァライメント計測時に 設定される検出倍率よりは低い倍率。以下、便宜上中倍率 (第 2の検出倍率)と称す る)の下での観察視野 VIEW— Area、及び、ウェハ投入誤差やウェハ製造誤差を考 慮して、予め固定的に決定しておく。本実施形態においては、サーチァライメント計 測時に中倍率で観察視野 VIEW— Areaを撮像した場合の視野最大範囲 OR— Are aに対して、図 28に示すように、この視野最大範囲 OR— Areaを縦横各 4倍、面積で 16倍にした領域であって、サーチァライメント計測時の目標計測領域 (サーチ計測視 野領域) AreaVOをほぼ中心とする領域 AreaXの画像データ(低倍率(第 1の検出 倍率)の画像データ)を取得する。
[0169] なお、このような画像データを露光装置 100とは別の装置で取得する場合には、そ のように専用に設けられた低倍率の光学系を有する撮像システムによりウェハ表面を 撮像し取得する。
また、露光装置においてこのようなデータを取得する場合には、例えば、複数の受 光系(低倍率、中倍率、高倍率)を有する FIA方式のァライメントセンサを用いる。そ のような考え方のァライメントセンサは、例えば特開 2002—257512号公報等に開示 されている。そのァライメントセンサは、図示を省略するが、対物レンズ (対物光学系) は共通的に設けられているものの、比較的高倍率で視野の狭い受光系(高倍系)と 比較的中倍率で視野の広い受光系(中倍系)との 2つの受光系を具備しており、ゥェ ハ表面で反射された光ビームをビームスプリッタ等で分岐して各受光系に入射させて いる。このようなァライメントセンサに上述したような低倍系の受光系(センサを含む) を付加してやって、ステップ S701における低倍率の画像データを、露光装置に具備 される例えばこのようなァライメントセンサにより撮像する。
[0170] 低倍率の画像データを取得したら、次に、この画像データよりユニークパターンを 検出する。
まず、図 28に示すように、低倍画像データ領域 AreaX内に、検出対象のユニーク パターンのサイズに相当する領域 AreaYを設定し、これを仮のユニークパターンとす る(ステップ S703)。なお、本実施の形態においては、ここで検出するユニークパター ンのサイズは、最終的に生成しょうとするテンプレートのサイズと同じものとする力 こ れに限られるものではなぐ任意のサイズに設定してよい。
[0171] 次に、この領域 AreaYと同じサイズの窓 AreaZで、低倍画像データ(低倍画像デー タ領域 AreaX)をサーチし、各位置における領域 AreaZ内の画像 (パターン信号情 報)と仮のユニークパターン AreaYの画像 (パターン信号情報)との相関値を前述し た式(1)又は式(2)に基づいて順次求め、相関値が十分に高ぐピークとなっている 領域を検出する (ステップ S705)。
低倍画像データ領域 AreaX内に設定される全ての仮のユニークパターン AreaY について相関ピーク値を検出したら (ステップ S707)、その中から、 自分自身以外に ピークを持たない真にユニークな仮のユニークパターンを抽出する(ステップ S709) 。図 28に示す例においては、例えば領域 AreaUにおいて、真にユニークなパターン が検出されたものとする。
[0172] なお、このユニークパターンの検出処理にぉレ、ては、処理対象の領域(領域 Area X)は広いものの、画像データは低倍率の画像データであるため、データ量は少なく 、ステップ S703 ステップ S709の処理に実用上問題となるような長時間を費やすこ とは無い。
[0173] 低倍画像データ領域 AreaXにおいてユニークパターンを含む領域 AreaUを検出 したら、次に、実際にテンプレートを作成するための中倍の画像データ (イメージ信号 情報)を取得する領域 Arealを設定する (ステップ S711)。中倍画像を取得する領域 Arealは、図 28に示すように、サーチァライメント計測(中倍率計測)の際の視野最大 範囲 OR— Areaと同じサイズの領域であって、その中心がユニークパターンを有する 領域 AreaUの中心と同一になるような領域に設定する。この時、視野最大範囲 OR _Areaがそのような領域となるように、サーチァライメント計測時の目標視野領域 Ar eaVも変更する。
そして、ウェハ上のそのテンプレート作成領域 Arealを中倍率の光学系を介して撮 像し、画像データ (イメージ信号情報)を取得する (ステップ S713)。
[0174] テンプレート作成領域 Arealの画像データを取得したら、この画像データよりテンプ レートとするユニークパターンを検出する。
まず、テンプレート作成領域 Areal内のユニークパターン探索領域 AreaA (視野共 通領域 AND_Area)に、テンプレートのサイズに相当する領域 AreaTを設定し、こ れを仮のテンプレートとする(ステップ S715)。次に、この領域 AreaTと同じサイズの 窓 AreaSで、テンプレート作成領域 Arealをサーチし、各位置における領域 AreaS の画像 (パターン信号情報)と仮のテンプレート AreaTの画像 (パターン信号情報)と の相関値を前述した式(1 )又は式(2)に基づいて順次求め、相関値が十分に高ぐ ピークとなっている領域を検出する (ステップ S717)。そして、ユニークパターン探索 領域 AreaA内に設定される全ての仮のテンプレート AreaTにつレ、て相関ピーク値を 検出したら (ステップ S719)、その中から、自分自身以外にピークを持たないュニー クなパターンを抽出する(ステップ S721)。そして、そのユニークパターンの画像デー タ (イメージ信号情報)をテンプレートとして抽出する(ステップ S723)。
[0175] このように、本実施の形態のテンプレート作成方法によれば、テンプレート作成領域 となる領域に対して十分に広範な画像データを用いて、ユニークパターンが存在す る可能性の高い領域を推定し、その領域をテンプレート作成領域としてテンプレート 作成処理を施している。従って、 1度目に設定した領域からテンプレート作成が可能 なユニークパターンが検出される可能性が非常に高ぐ効率良いテンプレート作成処 理ができる。
またその結果、ユニークパターンが検出されないためにテンプレート作成領域を再 設定し画像データを取得しなおす等の処理が発生する頻度を低減することができ、 テンプレート作成、露光装置に係る種々の装置の運用、及び、露光処理を効率良く 行うことができる。
[0176] また、本実施の形態においては、広範な領域に対してユニークパターンを検出して テンプレート作成を行っているので、ユニークさの強いパターンをテンプレートにする こと力 Sできる。すなわち、ユニークさが強く識別性の強い質の高いテンプレートを作成 すること力 Sできる。
また、本実施の形態においても、サーチ範囲(視野最大範囲〇R_Area)を変更し てテンプレート作成を行うことができるため、サーチ可能領域を拡大することができ、 露光装置におけるブリアライメント精度やウェハ投入精度が低下にもサーチァライメ ントにより対応することができる。その結果、より高性能な露光装置を提供できる。
[0177] なお、ステップ S703—ステップ S711においては、ユニークパターンを検出すること により、低倍画像データ領域 AreaXよりテンプレート作成に好適なユニークパターン が存在する可能性の高い領域を検出し、実際にテンプレート作成を行うための領域 として設定した。しかし、ユニークパターンが存在する可能性の高い領域を推定する 方法は、これに限られるものではない。例えば、第 5の実施の形態で視野最大範囲〇 R— Areaを移動させるために検出したパターン特徴の特徴量、すなわち、 2値化パタ ーンにおけるパターンの量 (所定の画素値の画素量)、パターン密度、周波数成分検 出結果、エッジ検出されたパターンにおけるエッジ線分の量、エッジの本数、エッジ の密度、エッジ線分の周波数成分検出結果等を用いて、ユニークパターンが存在す る可能性の高い領域を推定するようにしてもよい。
[0178] また、テンプレート作成領域 Areal (視野最大範囲 OR— Area)を設定した後のテン プレート作成処理(基準データ抽出処理)は、前述したステップ S713 ステップ S72 3の処理の限られるものではなレ、。例えば、前述した第 1の実施の形態一第 3の実施 の形態のような各処理を適用して、テンプレートを作成してもよい。
また、本実施の形態においては、ウェハ上の実際の画像データに基づいてテンプ レートを作成したが、設計データに基づレ、て作成するようにしてもょレ、。
[0179] また、本実施の形態においては、低倍画像データ領域 AreaXより、唯一のユニーク パターンを有する領域 AreaUを検出し、これに基づいてテンプレート作成領域 Area Iを設定したが、ユニークパターンを有する領域を複数検出するようにし、順次テンプ レート作成領域に設定して各領域よりテンプレートを作成するようにしてもよい。 また、検出した複数の領域をユニークさに基づいて順位付けし、その順に各領域に 対してテンプレート作成を行うようにしてもよい。
[0180] デバイス製诰方法
次に、前述したようなァライメントセンサ等を具備する露光装置 100を用いて行うデ バイスの製造方法について図 29を参照して説明する。
図 29は、例えば ICや LSI等の半導体チップ、液晶パネル、 CCD、薄膜磁気ヘッド 、マイクロマシン等の電子デバイスの製造工程を示すフローチャートである。
図 29に示すように、電子デバイスの製造工程においては、まず、電子デバイスの回 路設計等のデバイスの機能 ·性能設計を行い、その機能を実現するためのパターン 設計を行レ、(工程 S810)、次に、設計した回路パターンを形成したレチクルを製作す る(工程 S820)。
一方、シリコン等の材料を用いてウェハ(シリコン基板)を製造する(工程 S830)。
[0181] 次に、工程 S820で製作したレチクル及び工程 S830で製造したウェハを使用して 、リソグラフィー技術等によってウェハ上に実際の回路等を形成する(工程 S840)。 具体的には、まず、ウェハ表面に、絶縁膜、電極配線膜あるいは半導体膜との薄 膜を成膜し (工程 S841)、次に、この薄膜の全面にレジスト塗布装置 (コータ)を用い て感光剤(レジスト)を塗布する(工程 S842)。
次に、このレジスト塗布後の基板をウェハホルダー上にロードするとともに、工程 S8 30において製造したレチクルをレチクルステージ上にロードして、そのレチクルに形 成されたパターンをウェハ上に縮小転写する(工程 S843)。この時、露光装置にお いては、上述した本発明に係る位置合わせ方法によりウェハの各ショット領域を順次 位置合わせし、各ショット領域にレチクルのパターンを順次転写する。
[0182] 露光が終了したら、ウェハをウェハホルダーからアンロードし、現像装置(デベロッ パ)を用いて現像する(工程 S844)。これにより、ウェハ表面にレチクルパターンのレ ジスト像が形成される。
そして、現像処理が終了したウェハに、エッチング装置を用いてエッチング処理を 施し(工程 S845)、ウェハ表面に残存するレジストを、例えばプラズマアツシング装置 等を用いて除去する(工程 S846)。
これにより、ウェハの各ショット領域に、絶縁層や電極配線等のパターンが形成され る。そして、この処理をレチクルを変えて順次繰り返すことにより、ウェハ上に実際の 回路等が形成される。
[0183] ウェハ上に回路等が形成されたら、次に、デバイスとしての組み立てを行う(工程 S 850)。具体的には、ウェハをダイシングして個々のチップに分割し、各チップをリー ドフレームやパッケージに装着し電極を接続するボンディングを行レ、、樹脂封止等パ ッケージング処理を行う。
そして、製造したデバイスの動作確認テスト、耐久性テスト等の検查を行い(工程 S 860)、デバイス完成品として出荷する。
[0184] 以上説明した実施の形態は、本発明の理解を容易にするために記載されたもので あって、本発明を限定するために記載されたものではない。従って、上記の実施の形 態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物 をも含む趣旨である。
[0185] 例えば、前述した実施の形態においては、ウェハ Wのサーチァライメントを行うため のテンプレート生成を例示して本発明を説明した力 S、例えばレチクル Rの位置合わせ を行うためのテンプレート生成や、ファインァライメントを行うためのテンプレート生成 等にも本発明を適用することができる。
また、前述した実施の形態においては、本発明をオフ 'ァクシス方式のァライメント センサに適用した場合を例に挙げて説明したが、撮像素子で撮像したマークの画像 (パターン信号)を処理してマーク位置を検出する装置であれば、その全てに本発明 を適用すること力 Sできる。
[0186] また、本発明は、ステップ ·アンド'リピート方式又はステップ ·アンド'スキャン方式の 縮小投影型露光装置、ミラープロジェクシヨン方式、プロキシミティ方式、コンタクト方 式等の露光装置に適用することが可能である。
また、半導体素子、液晶表示素子の製造に用レ、られる露光装置だけでなぐプラズ マディスプレイ、薄膜磁気ヘッド及び撮像素子(CCD等)の製造にも用レ、られる露光 装置、及び、レチクルを製造するために、ガラス基板又はシリコンウェハ等に回路パ ターンを転写する露光装置にも本発明を適用できる。すなわち本発明は、露光装置 の露光方式や用途等に関係なく適用可能である。
[0187] また、本実施の形態の露光装置 100の露光光 ELとしては、 g線や i線、又は、 KrF エキシマレーザ、 ArFエキシマレーザ、 F2エキシマレーザから出射される光を用いて いたが、 KrFエキシマレーザ(248nm)、 ArFエキシマレーザ(193nm)、 F2レーザ(
157nm)から出射される光のみならず、 X線や電子線等の荷電粒子線を用いること ができる。例えば、電子線を用いる場合には電子銃として、熱電子放射型のランタン へキサボライト(LaB6)、タンタル (Ta)を用いることができる。
また、例えば、 DFB半導体レーザ又はファイバーレーザから発振される赤外域、又 は、可視域の単一波長レーザを、エルビウム(又はエルビウムとイツトリビゥムの両方) カ^ープされたファイバーアンプで増幅し、さらに非線形光学結晶を用いて紫外光に 波長変換した高調波を用いてもよい。なお、単一波長発振レーザとしてはイットリビゥ ム.ドープ.ファイバーレーザを用いる。
[0188] なお、前述した本発明の実施の形態による露光装置(図 1)は、基板 Wを精度よく高 速に位置制御することができ、スループットを向上しつつ高い露光精度で露光が可 能となるように、照明光学系、レチクル Rのァライメント系(不図示)、ウェハステージ 9 、移動鏡 11及びレーザ干渉計 12を含むウェハァライメント系、投影レンズ PL等の図 1に示された各要素が電気的、機械的又は光学的に連結して組み上げられた後、総 合調整 (電気調整、動作確認等)をすることにより製造される。なお、露光装置の製造 は、温度及びクリーン度等が管理されたクリーンノレームで行うことが望ましい。
[0189] なお、本発明は、本国際出願で指定した指定国又は選択した選択国の国内法令 が許す限りにおいて、前述した全ての公報の開示を援用して本明細書の記載の一 部とする。
本開示は、 2003年 6月 27日に提出された日本国特許出願第 2003—185392号 及び 2004年 5月 20日に提出された日本国特許出願第 2004— 150499号に含まれ た主題に関連し、その開示の全てはここに参照事項として明白に組み込まれる。

Claims

請求の範囲
[1] 物体上の所定領域内に任意に配置される前記所定領域よりも小さい面積を有する 被計測領域内において、ユニークな信号特徴を有する基準パターンを抽出する基準 パターン抽出方法であって、
前記所定領域内のパターン信号情報を得る第 1工程と、
前記第 1工程で得られた前記パターン信号情報の中から、前記所定領域内で前記 被計測領域が取り得る全ての位置において、各位置ごとに該被計測領域内でュニ ークであると認識可能であり、そのユニークさが互いに異なる複数のユニークパター ンを抽出する第 2工程と、
前記第 2工程で抽出された前記複数のユニークパターンの全てを、前記被計測領 域が前記所定領域内で取り得る位置とは無関係に、前記基準パターンとして抽出す る第 3工程と
を有することを特徴とする基準パターン抽出方法。
[2] 前記第 2工程では、前記被計測領域よりも小さい面積の特定領域単位で、個々の 前記ユニークパターンを抽出する
ことを特徴とする請求項 1に記載の基準パターン抽出方法。
[3] 前記第 2工程では、パターン形状特徴に関する情報を前記ユニークさの指標として 用いながら、前記ユニークパターンを抽出する
ことを特徴とする請求項 1又は 2に記載の基準パターン抽出方法。
[4] 前記第 2工程では、前記パターン形状特徴に関する情報に加えて、互いに異なる パターン形状特徴を有する各パターンの個数及びそれらの配置関係の少なくともい ずれか一方をも前記ユニークさの指標として用いながら、前記ユニークパターンを抽 出する
ことを特徴とする請求項 3に記載の基準パターン抽出方法。
[5] 前記第 2工程では、互いに同一のパターン形状特徴を備えたパターンの個数及び それらの配置関係の少なくともいずれか一方を、前記ユニークさの指標として用いな がら、前記ユニークパターンを抽出する
ことを特徴とする請求項 2に記載の基準パターン抽出方法。 [6] 前記パターン間の配置関係を前記ユニークさの指標として使用する場合には、該 配置関係に関する設計値情報を使用する
ことを特徴とする請求項 4又は 5に記載の基準パターン抽出方法。
[7] 前記パターン形状特徴に関する情報を、前記所定領域内のパターン信号情報に 対する、個々の前記特定領域内のパターン信号情報ごとの相関演算処理又は SSD A法を用いた演算処理を行うことによって求める
ことを特徴とする請求項 3 5のいずれかに記載の基準パターン抽出方法。
[8] 前記パターンの形状特徴に関する情報を、個々の前記特定領域内のパターン信 号情報における SN比、エッジの量、エントロピー量、分散値、モーメント量の内の少 なくともいずれか 1つの情報量を用いて求める
ことを特徴とする請求項 7に記載の基準パターン抽出方法。
[9] 前記第 1工程では、前記所定領域を一度に撮像可能な撮像手段を用いて、前記所 定領域内のパターン信号情報を求める
ことを特徴とする請求項 1一 8のいずれかに記載の基準パターン抽出方法。
[10] 前記第 1工程では、
前記被計測領域内を撮像可能な撮像手段を用い、該撮像手段に対する前記物体 の位置を変化させながら複数位置での前記被計測領域内のパターン信号情報をそ れぞれ求め、
前記求められた複数のパターン信号情報を合成することにより、前記所定領域内の パターン信号情報を求める
ことを特徴とする請求項 1一 8のいずれかに記載の基準パターン抽出方法。
[11] 前記第 1工程では、前記物体上に形成されたパターンに関する設計値情報を用い て、前記撮像手段に対する前記物体の位置決めを行う
ことを特徴とする請求項 9又は 10に記載の基準パターン抽出方法。
[12] 請求項 1一 11のいずれかに記載の基準パターン抽出方法により求められた前記基 準パターンを用いて、前記物体上の前記被計測領域内のパターン信号情報に対し て相関演算処理を行う
ことを特徴とするパターンマッチング方法。 [13] 前記複数のユニークパターンの全てを順次用いて、前記被計測領域内のパターン 信号情報に対して相関演算処理を行う
ことを特徴とする請求項 12に記載のパターンマッチング方法。
[14] 物体上の所定領域内に任意に配置される前記所定領域よりも小さい面積を有する 被計測領域内において、ユニークな信号特徴を有する基準パターンを抽出する基準 パターン抽出装置であって、
前記所定領域内のパターン信号情報を得るパターン信号情報取得手段と、 前記得られた前記パターン信号情報の中から、前記所定領域内で前記被計測領 域が取り得る全ての位置において、各位置ごとに該被計測領域内でユニークである と認識可能であり、かつそのユニークさが互いに異なる複数のユニークパターンを抽 出するユニークパターン抽出手段と、
前記抽出された前記複数のユニークパターンの全てを、前記被計測領域が前記所 定領域内で取り得る位置とは無関係に、前記基準パターンとして抽出する基準パタ ーン抽出手段と
を有することを特徴とする基準パターン抽出装置。
[15] 前記ユニークパターン抽出手段は、前記被計測領域よりも小さい面積の特定領域 単位で、個々の前記ユニークパターンを抽出する
ことを特徴とする請求項 14に記載の基準パターン抽出装置。
[16] 前記ユニークパターン抽出手段は、パターン形状特徴に関する情報を前記ュニー クさの指標として用いながら、前記ユニークパターンを抽出する
ことを特徴とする請求項 14又は 15に記載の基準パターン抽出装置。
[17] 前記ユニークパターン抽出手段は、前記パターン形状特徴に関する情報に加えて 、互いに異なるパターン形状特徴を有する各パターンの個数及びそれらの配置関係 の少なくともいずれか一方をも前記ユニークさの指標として用いながら、前記ユニーク パターンを抽出する
ことを特徴とする請求項 16に記載の基準パターン抽出装置。
[18] 前記ユニークパターン抽出手段は、互いに同一のパターン形状特徴を備えたパタ ーンの個数及びそれらの配置関係の少なくともいずれか一方を、前記ユニークさの 指標として用いながら、前記ユニークパターンを抽出する
ことを特徴とする請求項 15に記載の基準パターン抽出装置。
[19] 請求項 14一 18のいずれかに記載の基準パターン抽出装置により求められた前記 基準パターンを用いて、前記物体上の前記被計測領域内のパターン信号情報に対 して、前記複数のユニークパターンの全てを順次用いて相関演算処理を行う相関演 算処理手段
を有することを特徴とするパターンマッチング装置。
[20] 物体上に形成された所定パターンを識別する際に使用される基準パターンを抽出 する基準パターン抽出方法であって、
前記物体上に形成されたパターンの形状及びその配置情報の少なくともいずれか 一方に関する設計値情報を得る第 1工程と、
前記設計値情報をパターン信号情報に変換する第 2工程と、
前記パターン信号情報の中から、ユニークなパターン信号特徴を有するユニークパ ターンを抽出する第 3工程と、
前記第 3工程で抽出されたユニークパターンに基づいて前記基準パターンを決定 する第 4工程と
を有することを特徴とする基準パターン抽出方法。
[21] 前記第 3工程では、
前記パターン信号情報に対する、前記パターン信号情報内の部分パターン信号情 報ごとの相関演算処理、又は SSDA法を用いた演算処理を行うことによって、前記ュ ニータパターンを抽出する ことを特徴とする請求項 20に記載の基準パターン抽出方法。
[22] 前記第 3工程では、前記部分パターン信号情報から得られる領域の大きさを変更し ながら前記ユニークパターンを抽出する
ことを特徴とする請求項 21に記載の基準パターン抽出方法。
[23] 前記第 4工程では、前記第 3工程において前記ユニークパターンが複数抽出され た場合には、前記パターン信号情報内の他のパターンに対して特徴差が最も大きい ユニークパターンを前記基準パターンとして決定する ことを特徴とする請求項 20— 22のいずれかに記載の基準パターン抽出方法。
[24] 物体上に形成された所定パターンを識別する際に使用される基準パターンを抽出 する基準パターン抽出装置であって、
前記物体上に形成されたパターンの形状及びその配置情報の少なくともいずれか 一方に関する設計値情報を得る設計値情報取得手段と、
前記設計値情報をパターン信号情報に変換する情報変換手段と、
前記パターン信号情報の中から、ユニークな信号特徴を有するユニークパターンを 抽出するユニークパターン抽出手段と、
前記抽出されたユニークパターンに基づいて前記基準パターンを決定する基準パ ターン決定手段と
を有することを特徴とする基準パターン抽出装置。
[25] 前記ユニークパターン抽出手段では、前記部分パターン信号情報から得られる領 域の大きさを変更しながら前記ユニークパターンを抽出する
ことを特徴とする請求項 24に記載の基準パターン抽出装置。
[26] 物体上に形成された所定パターンを識別する際に使用される基準パターンを抽出 する基準パターン抽出方法であって、
物体上を撮像してパターン信号情報を求める第 1工程と、
前記物体上に形成されたパターンの形状及び配置状態の少なくともいずれか一方 に関する設計値情報を得る第 2工程と、
前記第 1工程で得られたパターン信号情報と、前記第 2工程で得られた設計値情 報とに基づいて、前記パターン信号情報の中の一部分を、前記基準パターンに関す る情報として抽出する第 3工程と
を有することを特徴とする基準パターン抽出方法。
[27] 前記第 3工程は、
前記設計値情報をパターン信号情報に変換する工程と、
前記変換されたパターン信号情報の中から、ユニークなパターン信号特徴を有す る部分の位置に関するユニークパターン位置情報を求める工程と、
前記ユニークパターン位置情報に基づいて、前記第 1工程で得られたパターン信 号情報の中の一部分を特定する工程と、
前記特定された一部分を、前記基準パターンに関する情報として抽出する工程と を有することを特徴とする請求項 26に記載の基準パターン抽出方法。
[28] 物体上に形成された所定パターンを識別する際に使用される基準パターンを抽出 する基準パターン抽出装置であって、
物体上を撮像してパターン信号情報を求めるパターン信号情報取得手段と、 前記物体上に形成されたパターンの形状及び配置状態の少なくともいずれか一方 に関する設計値情報を得る設計値情報取得手段と、
前記パターン信号情報取得手段により得られたパターン信号情報と、前記設計値 情報取得手段で得られた設計値情報とに基づいて、前記パターン信号情報の中の 一部分を、前記基準パターンに関する情報として抽出する基準パターン抽出手段と を有することを特徴とする基準パターン抽出装置。
[29] 前記基準パターン抽出手段は、
前記設計値情報をパターン信号情報に変換するパターン信号情報変換手段と、 前記変換されたパターン信号情報の中から、ユニークなパターン信号特徴を有す る部分の位置に関するユニークパターン位置情報を求めるユニークパターン位置情 報取得手段と、
前記ユニークパターン位置情報に基づいて、前記第 1工程で得られたパターン信 号情報の中の一部分を特定するパターン信号特定手段と、
前記特定された一部分を、前記基準パターンに関する情報として抽出する基準パ ターン抽出手段と
を有することを特徴とする請求項 28に記載の基準パターン抽出装置。
[30] 物体上の所定領域内に形成された所定パターンを識別するパターンマッチング方 法であって、
前記基準パターンとして、互いにユニークさの異なる複数の基準パターンを用意す る第 1工程と、
前記所定領域内を撮像してパターン信号情報を求める第 2工程と、
前記複数の基準パターンの全てを順次用いて、前記第 2工程で得られたパターン 信号情報に対する相関演算処理を行う第 3工程と
を有することを特徴とするパターンマッチング方法。
[31] 前記複数の基準パターンは、パターン形状特徴が互いに異なっている
ことを特徴とする請求項 30に記載のパターンマッチング方法。
[32] 前記複数の基準パターンは、特定形状を有するパターンの個数及び配置関係の 少なくともいずれか一方が互いに異なっている
ことを特徴とする請求項 30又は 31に記載のパターンマッチング方法。
[33] 物体上の所定領域内に形成された所定パターンを識別するパターンマッチング装 置であって、
前記基準パターンとして、互いにユニークさの異なる複数の基準パターンを用意す る基準パターン用意手段と、
前記所定領域内を撮像してパターン信号情報を求めるパターン信号情報取得手 段と、
前記複数の基準パターンの全てを順次用いて、前記得られたパターン信号情報に 対する相関演算処理を行う相関演算処理手段と
を有することを特徴とするパターンマッチング装置。
[34] 物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出方法であって、
前記物体上を、第 1の検出倍率を持つ光学系を介して光電検出して、第 1のパター ン信号情報を得る第 1工程と、
前記第 1工程で得られた前記第 1のパターン信号情報に基づいて、ユニークなパタ ーン信号特徴を有するユニークパターンが存在すると推測される前記物体上の所定 領域を特定する第 2工程と、
前記第 2工程で特定された前記所定領域を、前記第 1の検出倍率よりも高倍な第 2 の検出倍率を持つ光学系を介して光電検出して、前記所定領域内の第 2のパターン 信号情報を得る第 3工程と、
前記第 3工程で得られた前記第 2のパターン信号情報に基づいて、前記基準バタ ーンとすべき前記ユニークパターンを抽出する第 4工程と を有することを特徴とする基準パターン抽出方法。
[35] 前記第 2工程では、
前記物体上の前記第 1工程でパターン信号情報が得られた範囲内において複数 の候補領域を設定し、
前記設定した各候補領域の前記第 1のパターン信号情報に基づいて、当該候補領 域内においてユニークな信号特徴を有するユニークパターンを抽出し、
前記複数の候補領域の各々から得られた前記ユニークパターンのユニークさの大 きい順に 1又は複数の前記候補領域を前記所定領域として特定する
ことを特徴とする請求項 34に記載の基準パターン抽出方法。
[36] 前記第 4工程で適切な前記基準パターンが決定されるまで、前記ユニークさの大き レ、ユニークパターンが抽出された前記候補領域力も順に当該候補領域を前記所定 領域とみなして、当該所定領域内の前記第 2のパターン信号情報を得て、当該第 2 のパターン信号情報に基づいて前記ユニークパターンを抽出し、当該ユニークパタ ーンに基づレ、て前記基準パターンを決定する
ことを特徴とする請求項 35に記載の基準パターン抽出方法。
[37] 前記第 3工程及び第 4工程における前記所定領域からの前記基準パターンの抽出 の処理は、請求項 1一 11、 26又は 27のいずれかに記載の基準パターン抽出方法に より、当該所定領域の前記第 2のパターン信号情報に基づいて行う
ことを特徴とする請求項 34— 36のいずれかに記載の基準パターン抽出方法。
[38] 前記第 2工程では、前記第 1のパターン信号情報に基づいて、前記候補領域よりも 小さい面積を有し当該候補領域内の任意の位置に配置される被計測領域に必ず含 まれる前記候補領域内の領域に存在するパターンであって、前記候補領域内にお いてユニークな信号特徴を有するユニークパターンを抽出し、
前記第 4工程では、前記第 2のパターン信号情報に基づいて、前記所定領域内の 任意の位置に配置される前記被計測領域に必ず含まれる前記所定領域内の領域に 存在するパターンであって、前記所定領域内においてユニークな信号特徴を有する ユニークパターンを抽出する
ことを特徴とする請求項 35又は 36に記載の基準パターン抽出方法。 [39] 物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出装置であって、
前記物体上を、第 1の検出倍率を持つ光学系を介して光電検出して、第 1のパター ン信号情報を得る第 1情報取得手段と、
前記第 1のパターン信号情報に基づいて、ユニークなパターン信号特徴を有する ユニークパターンが存在すると推測される前記物体上の所定領域を特定する所定領 域特定手段と、
前記特定された前記所定領域を、前記第 1の倍率よりも高倍な第 2の検出倍率を持 つ光学系を介して光電検出して、前記所定領域内の第 2のパターン信号情報を得る 第 2情報取得手段と、
前記第 2のパターン信号情報に基づいて、前記基準パターンとすべき前記ュニー クパターンを抽出し決定する基準パターン決定手段と
を有することを特徴とする基準パターン抽出装置。
[40] 前記所定領域から前記基準パターンを抽出する前記第 2情報取得手段及び前記 基準パターン決定手段は、請求項 14一 18、 28又は 29のいずれかに記載の基準パ ターン抽出装置を用いて、前記所定領域の前記第 2のパターン信号情報に基づい て行う
ことを特徴とする請求項 39に記載の基準パターン抽出装置。
[41] 物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出方法であって、
前記物体上の所定領域のパターン信号情報を得る第 1工程と、
前記第 1工程で得られたパターン信号情報に基づいて、前記所定領域よりも小さい 面積を有し当該所定領域内の任意の位置に配置される被計測領域に必ず含まれる 特定領域に存在するパターンであって、前記所定領域内においてユニークなパター ン信号特徴を有するユニークパターンを抽出し、当該抽出されたユニークパターンに 基づいて前記基準パターンを決定する第 2工程と、
前記第 2工程において前記特定領域から前記ユニークパターンが抽出できなかつ た場合に、前記第 1工程で得られたパターン信号情報に基づいて、前記所定領域内 の任意の位置に配置され、面積が前記特定領域の面積以下のパターンであって、 前記所定領域内においてユニークな信号特徴を有するユニークパターンを抽出する 第 3工程と、
前記第 3工程において前記ユニークパターンが抽出された場合に、前記ユニーク パターンを含むように前記特定領域が規定されるように、前記所定領域を再設定す る第 4工程と
を有し、前記再設定された前記所定領域に対して、前記第 1工程及び前記第 2ェ 程を施し、前記ユニークパターンを抽出する
ことを特徴とする基準パターン抽出方法。
物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出装置であって、
前記物体上の所定領域のパターン信号情報を得るパターン信号情報取得手段と、 前記得られたパターン信号情報に基づいて、前記所定領域よりも小さい面積を有し 当該所定領域内の任意の位置に配置される被計測領域に必ず含まれる特定領域に 存在するパターンであって、前記所定領域内においてユニークなパターン信号特徴 を有するユニークパターンを抽出し、当該抽出されたユニークパターンに基づいて前 記基準パターンを決定する基準パターン決定手段と、
前記基準パターン決定手段において前記特定領域から前記ユニークパターンが 抽出できなかった場合に、前記パターン信号情報取得手段で得られたパターン信号 情報に基づいて、前記所定領域内の任意の位置に配置され、面積が前記特定領域 の面積以下のパターンであって、前記所定領域内においてユニークな信号特徴を有 するユニークパターンを抽出するユニークパターン抽出手段と、
前記ユニークパターン抽出手段において前記ユニークパターンが抽出された場合 に、前記ユニークパターンを含むように前記特定領域が規定されるように、前記所定 領域を再設定する所定領域再設定手段と
を有し、前記再設定された前記所定領域に対して、前記パターン信号情報取得手 段において前記パターン信号情報を取得し、前記基準パターン決定手段において 前記基準パターンを決定する ことを特徴とする基準パターン抽出装置。
[43] 物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出方法であって、
前記物体上の所定領域のパータン信号情報を取得し、当該取得したパターン信号 情報に基づいて前記所定領域内においてユニークなパターン信号特徴を有するュ ニークパターンを抽出し、当該抽出されたユニークパターンに基づいて前記基準パ ターンを決定する第 1工程と、
前記第 1工程において前記所定領域から前記ユニークパターンが抽出できなかつ た場合に、当該所定領域付近の領域であって、ユニークなパターン信号特徴を有す るユニークパターンの存在する可能性の高い領域に、前記所定領域を再設定する第
2工程と
を有し、前記再設定された前記所定領域に対して前記第 1工程を施し前記基準パ ターンを決定する
ことを特徴とする基準パターン抽出方法。
[44] 前記第 2工程では、前記再設定前の前記所定領域のパターン信号情報及び当該 所定領域付近のパターン信号情報の少なくともいずれか一方に基づいて、パターン 特徴量の多い領域を検出し、当該領域方向に前記所定領域を再設定する
ことを特徴とする請求項 43に記載の基準パターン抽出方法。
[45] 前記第 2工程では、前記パターン信号情報に基づレ、てパターンを 2値化又はエッジ 検出し得られた特徴パターンに基づいて、前記パターン特徴量の多い領域を検出し 、当該領域方向に前記所定領域を再設定する
ことを特徴とする請求項 44に記載の基準パターン抽出方法。
[46] 前記第 2工程では、前記特徴パターンの重心位置を計測し、当該重心位置が前記 ユニークパターンの抽出対象の領域となるように、前記所定領域を再設定する ことを特徴とする請求項 45に記載の基準パターン抽出方法。
[47] 前記第 1工程では、請求項 1一 11、 20— 23、 26又は 27のいずれかに記載の基準 パターン抽出方法により前記基準パターンを決定する
ことを特徴とする請求項 43 46のいずれかに記載の基準パターン抽出方法。 [48] 物体上に形成されたパターンを識別する際に使用する基準パターンを抽出する基 準パターン抽出装置であって、
前記物体上の所定領域のパータン信号情報を取得し、当該取得したパターン信号 情報に基づいて前記所定領域内においてユニークなパターン信号特徴を有するュ ニークパターンを抽出し、当該抽出されたユニークパターンに基づいて前記基準パ ターンを決定する基準パターン決定手段と、
前記基準パターン決定手段において前記所定領域から前記ユニークパターンが 抽出できなかった場合に、当該所定領域付近の領域であって、ユニークなパターン 信号特徴を有するユニークパターンの存在する可能性の高い領域に、前記所定領 域を再設定する所定領域再設定手段と
を有し、前記再設定された前記所定領域に対して、前記基準パターン決定手段に ぉレ、て再度前記基準パターンの決定を行う
ことを特徴とする基準パターン抽出装置。
[49] 前記所定領域再設定手段においては、前記再設定前の前記所定領域のパターン 信号情報及び当該所定領域付近のパターン信号情報の少なくともいずれか一方に 基づいて、パターン特徴量の多い領域を検出し、当該領域方向に前記所定領域を 再設定する
ことを特徴とする請求項 48に記載の基準パターン抽出装置。
[50] 前記所定領域再設定手段においては、前記パターン信号情報に基づいてパター ンを 2値化又はエッジ検出し得られた特徴パターンに基づレ、て、前記パターン特徴 量の多い領域を検出し、当該領域方向に前記所定領域を再設定する
ことを特徴とする請求項 49に記載の基準パターン抽出装置。
[51] 前記所定領域再設定手段においては、前記特徴パターンの重心位置を計測し、 当該重心位置が前記ユニークパターンの抽出対象の領域となるように、前記所定領 域を再設定する
ことを特徴とする請求項 50に記載の基準パターン抽出装置。
[52] 請求項 20一 23, 26, 27, 34一 38, 41又 fま 43一 47のレヽずれ力 こ記載の基準ノ タ ーン抽出方法により抽出された前記基準パターンを用いて、前記物体上の被計測領 域内のパターン信号情報に対して相関演算処理を行う
ことを特徴とするパターンマッチング方法。
[53] 請求項 24, 25, 28, 29, 39, 40, 42又 ίま 48一 51のレヽずれ力に記載の基準ノヽ。タ ーン抽出装置により抽出された前記基準パターンを用いて、前記物体上の被計測領 域内のパターン信号情報に対して相関演算処理を行う
ことを特徴とするパターンマッチング装置。
[54] 請求項 12, 13、 30— 32又は 52のいずれかに記載のパターンマッチング方法を用 いて、前記被計測領域内における前記ユニークパターンの位置情報を求める ことを特徴とする位置検出方法。
[55] 請求項 19, 33又は 53いずれかに記載のパターンマッチング装置を用いて、前記 被計測領域内における前記ユニークパターンの位置情報を求める位置情報検出手 段
を有することを特徴とする位置検出装置。
[56] 請求項 53に記載の位置検出方法を用いて前記物体としての基板上に形成された ユニークパターンの、前記物体の移動座標系上での位置情報を求め、
前記位置情報に基づいて前記基板を位置合わせし、
前記位置合わせされた基板上に、所定のパターンを転写露光する
ことを特徴とする露光方法。
[57] 前記物体としての基板上に形成されたユニークパターンの、前記物体の移動座標 系上での位置情報を求める請求項 55に記載の位置検出装置と、
前記位置情報に基づいて前記基板を位置合わせする位置合わせ手段と、 前記位置合わせされた基板上に、所定のパターンを転写露光する露光手段と を有することを特徴とする露光装置。
[58] パターンが形成された物体上からユニークな信号特徴を有する基準パターンを抽 出する基準パターン抽出方法であって、所定面積の被計測領域が配置され得る、前 記被計測領域よりも広い範囲の所定領域の中でユニークな信号特徴を有する基準 パターンを抽出する基準パターン抽出方法において、
前記所定領域内の第 1位置に位置する前記被計測領域に含まれるパターンから、 ユニークな信号特徴を有する第 i基準パターンを抽出するとともに、 前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する第 2基準パターンを抽出する
ことを特徴とする基準パターン抽出方法。
[59] 前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲との一部が重複する場合に、前記第 1基準パターンは、前記第 1位置にある前 記被計測領域のうち前記重複範囲を除く範囲力 抽出されたパターンであり、前記 第 2基準パターンは、前記第 2位置にある前記被計測領域のうち前記重複範囲を除 く範囲から抽出されたパターンである
ことを特徴とする請求項 58に記載の基準パターン抽出方法。
[60] 前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲とが重複する範囲は存在しなレ、
ことを特徴とする請求項 58に記載の基準パターン抽出方法。
[61] 前記物体上にパターンを形成するための設計値情報に基づいて、前記第 1基準パ ターン及び前記第 2基準パターンを抽出する
ことを特徴とする請求項 58に記載の基準パターン抽出方法。
[62] 前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターンから 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 58に記載の基準パターン抽出方法。 [63] 前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターンから 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 58に記載の基準パターン抽出方法。
[64] パターンが形成された物体上に所定面積の被計測領域を配置し、前記被計測領 域に含まれるパターンから予め定めた基準パターンと一致する特定パターンを検出 するパターンマッチング方法であって、前記被計測領域よりも広レ、範囲の所定領域 の中から前記特定パターンを検出するパターンマッチング方法において、
前記基準パターンとして、前記所定領域内の第 1位置に位置する前記被計測領域 に含まれるパターンから、ユニークな信号特徴を有する第 1基準パターンを抽出する とともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する第 2基準パターンを抽出し、
前記物体上に前記被計測領域を設定し、
前記被計測領域内の前記物体の像から前記第 1基準パターン又は第 2基準パター ンと一致するパターンを検出する
ことを特徴とするパターンマッチング方法。
[65] 前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲との一部が重複する場合に、前記第 1基準パターンは、前記第 1位置にある前 記被計測領域のうち前記重複範囲を除く範囲力 抽出し、前記第 2基準パターンは 、前記第 2位置にある前記被計測領域のうち前記重複範囲を除く範囲から抽出する ことを特徴とする請求項 64に記載のパターンマッチング方法。
[66] 前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲とで重複する範囲が存在しない
ことを特徴とする請求項 64に記載のパターンマッチング方法。
[67] 。
前記物体上にパターンを形成するための設計値情報に基づいて、前記第 1基準パ ターン及び前記第 2基準パターンを抽出する
ことを特徴とする請求項 64に記載のパターンマッチング方法。
[68] 前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力も 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 64に記載のパターンマッチング方法。
[69] 前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 64に記載のパターンマッチング方法。
[70] パターンが形成された物体の位置情報を検出する位置検出方法であって、前記物 体上に所定面積の被計測領域を配置し、前記被計測領域に含まれるパターンから 予め定めた基準パターンと一致する特定パターンを検出することによって前記特定 パターンと前記被計測領域との相対位置情報を検出する位置検出方法において、 前記基準パターンとして、前記被計測領域よりも広い範囲の所定領域内で第 1位 置に位置する前記被計測領域に含まれるパターンから、ユニークな信号特徴を有す る第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する第 2基準パターンを抽出し、
前記物体上に前記被計測領域を設定し、
前記被計測領域内の前記物体の像から前記第 1基準パターン又は第 2基準パター ンと一致する特定パターンを検出し、前記特定パターンと前記被計測領域との相対 位置情報を検出する
ことを特徴とする位置検出方法。
前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲との一部が重複する場合に、前記第 1基準パターンは、前記第 1位置にある前 記被計測領域のうち前記重複範囲を除く範囲力 抽出し、前記第 2基準パターンは 、前記第 2位置にある前記被計測領域のうち前記重複範囲を除く範囲から抽出する ことを特徴とする請求項 70に記載の位置検出方法。
前記被計測領域が前記所定領域内の第 1位置にある際に前記被計測領域に含ま れる範囲と、前記被計測領域が前記第 2位置にある際に前記被計測領域に含まれる 範囲とで重複する範囲が存在しない
ことを特徴とする請求項 70に記載の位置検出方法。 前記物体上にパターンを形成するための設計値情報に基づいて、前記第 1基準パ ターン及び前記第 2基準パターンを抽出する ことを特徴とする請求項 70に記載の位置検出方法。
[74] 前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 70に記載の位置検出方法。
[75] 前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力も 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 70に記載の位置検出方法。
[76] パターンが形成された物体上からユニークな信号特徴を有する基準パターンを抽 出する基準パターン抽出装置であって、
所定面積の被計測領域が配置され得る前記被計測領域よりも広い範囲の前記物 体上の所定領域において、前記被計測領域が第 1位置に位置する際に前記被計測 領域に含まれるパターン力 ユニークな信号特徴を有する第 1基準パターンを抽出 するとともに、前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被 計測領域であって、前記第 1位置に位置する前記被計測領域とは異なるパターンを 少なくとも一部含む当該第 2位置に位置する前記被計測領域に含まれるパターンか ら、ユニークな信号特徴を有する第 2準パターンを抽出するユニークパターン抽出装 置
を有することを特徴とする基準パターン抽出装置。
[77] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力も 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 76に記載の基準パターン抽出装置。
[78] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 76に記載の基準パターン抽出装置。
[79] パターンが形成された物体上に所定面積の被計測領域を配置し、前記被計測領 域に含まれるパターンから予め定めた基準パターンと一致する特定パターンを検出 するパターンマッチング装置であって、前記被計測領域よりも広レ、範囲の所定領域 の中から前記特定パターンを検出するパターンマッチング装置において、
前記基準パターンとして、前記所定領域内の第 1位置に位置する前記被計測領域 に含まれるパターンから、ユニークな信号特徴を有する第 1基準パターンを抽出する とともに、前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計 測領域であって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少 なくとも一部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、 ユニークな信号特徴を有する第 2基準パターンを抽出するユニークパターン抽出装 置と、
前記物体上に前記被計測領域を設定する設定手段と、
前記被計測領域内の前記物体の像から前記第 1基準パターン又は第 2基準パター ンと一致するパターンを検出する検出手段と
を有することを特徴とするパターンマッチング装置。
[80] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力も 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 79に記載のパターンマッチング装置。
[81] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 79に記載のパターンマッチング装置。
[82] パターンが形成された物体上に所定面積の被計測領域を配置し、前記被計測領 域に含まれるパターンから予め定めた基準パターンと一致する特定パターンを検出 して、前記物体と前記被計測領域との相対位置情報を検出する位置検出装置であ つて、
前記基準パターンとして、前記被計測領域よりも広い所定領域内において前記被 計測領域が第 1位置に位置する際に、前記第 1位置に位置する前記被計測領域に 含まれるパターンから、ユニークな信号特徴を有する第 1基準パターンを抽出すると ともに、前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測 領域であって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少な くとも一部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ュ ニークな信号特徴を有する第 2基準パターンを抽出するユニークパターン抽出装置 と、
前記物体上に前記被計測領域を設定する設定手段と、
前記被計測領域内の前記物体の像から前記第 1基準パターン又は第 2基準パター ンと一致するパターンを検出し前記物体と前記被計測領域との相対位置情報を検出 する検出装置と
を有することを特徴とする位置検出装置。
[83] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力 、ユニークな信号特徴を有する前記第丄基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、ユニーク な信号特徴を有する基準パターン複数個で構成される前記第 2基準パターンを抽出 する
ことを特徴とする請求項 82に記載の位置検出装置。
[84] 前記ユニークパターン抽出装置は、前記基準パターンとして、
前記所定領域内の第 1位置に位置する前記被計測領域内に含まれるパターン力も 、ユニークな信号特徴を有する前記第 1基準パターンを抽出するとともに、
前記所定領域内の前記第 1位置とは異なる第 2位置に位置する前記被計測領域で あって、前記第 1位置に位置する前記被計測領域とは異なるパターンを少なくとも一 部含む当該第 2位置に位置する前記被計測領域に含まれるパターンから、前記ュニ ークな信号特徴を有するパターンに対して所定位置に配置された特定パターンと前 記ユニークな信号特徴を有するパターンとで構成された第 2基準パターンを抽出する ことを特徴とする請求項 82に記載の位置検出装置。
PCT/JP2004/008982 2003-06-27 2004-06-25 基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置 WO2005001593A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005511046A JP4389871B2 (ja) 2003-06-27 2004-06-25 基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003185392 2003-06-27
JP2003-185392 2003-06-27
JP2004150499 2004-05-20
JP2004-150499 2004-05-20

Publications (3)

Publication Number Publication Date
WO2005001593A2 true WO2005001593A2 (ja) 2005-01-06
WO2005001593A1 WO2005001593A1 (ja) 2005-01-06
WO2005001593A3 WO2005001593A3 (ja) 2005-05-19

Family

ID=

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177009B2 (en) 2004-10-01 2007-02-13 Asml Netherlands B.V. Position determination method and lithographic apparatus
JP2008058182A (ja) * 2006-08-31 2008-03-13 Mitsutoyo Corp 変位量検出可能性判定装置、その方法、および、変位検出装置
JP2009109413A (ja) * 2007-10-31 2009-05-21 Canon Inc 位置検出器、露光装置及びデバイス製造方法
JP2009251667A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 画像検索装置
JP2010091491A (ja) * 2008-10-10 2010-04-22 Fujifilm Corp 3次元形状計測用撮影装置および方法並びにプログラム
JP2011524267A (ja) * 2008-05-28 2011-09-01 ペッパール ウント フュフス ゲゼルシャフト ミット ベシュレンクテル ハフツング 印刷物を点検するための方法および機構とコンピュータプログラムとコンピュータプログラム製品
WO2012001862A1 (ja) * 2010-06-29 2012-01-05 株式会社 日立ハイテクノロジーズ パターンマッチング用テンプレートの作成方法、及び画像処理装置
WO2012070549A1 (ja) * 2010-11-24 2012-05-31 株式会社日立ハイテクノロジーズ 複数のアライメントパターン候補を用いたグローバルアライメント
US8254682B2 (en) 2006-04-20 2012-08-28 Realtek Semiconductor Corp. Pattern detecting method and related image processing apparatus
US8379989B2 (en) 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus
WO2014024655A1 (ja) * 2012-08-09 2014-02-13 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8823852B2 (en) 2012-05-24 2014-09-02 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
JP5603513B1 (ja) * 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9613596B2 (en) 2012-12-27 2017-04-04 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9635278B2 (en) 2012-12-27 2017-04-25 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9641766B2 (en) 2012-12-27 2017-05-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US9768869B2 (en) 2012-12-27 2017-09-19 Panasonic Intellectual Property Corporation Of America Information communication method
US9918016B2 (en) 2012-12-27 2018-03-13 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US10148354B2 (en) 2012-12-27 2018-12-04 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10225014B2 (en) 2012-12-27 2019-03-05 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
JP2019049919A (ja) * 2017-09-12 2019-03-28 大日本印刷株式会社 テンプレート抽出装置、テンプレート抽出方法、およびプログラム
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000042640A1 (fr) * 1999-01-18 2000-07-20 Nikon Corporation Procede et dispositif d'appariement de formes, procede et dispositif de determination de position, procede et dispositif d'alignement de position, procede et dispositif d'exposition, et dispositif et son procede de production
JP2002062112A (ja) * 2000-08-21 2002-02-28 Sony Corp 位置決め装置及び位置決め方法
WO2002029870A1 (fr) * 2000-10-05 2002-04-11 Nikon Corporation Procede de determination des conditions d'exposition, procede d'exposition, dispositif de realisation dudit procede et support d'enregistrement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000042640A1 (fr) * 1999-01-18 2000-07-20 Nikon Corporation Procede et dispositif d'appariement de formes, procede et dispositif de determination de position, procede et dispositif d'alignement de position, procede et dispositif d'exposition, et dispositif et son procede de production
JP2002062112A (ja) * 2000-08-21 2002-02-28 Sony Corp 位置決め装置及び位置決め方法
WO2002029870A1 (fr) * 2000-10-05 2002-04-11 Nikon Corporation Procede de determination des conditions d'exposition, procede d'exposition, dispositif de realisation dudit procede et support d'enregistrement

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177009B2 (en) 2004-10-01 2007-02-13 Asml Netherlands B.V. Position determination method and lithographic apparatus
TWI386032B (zh) * 2006-04-20 2013-02-11 Realtek Semiconductor Corp 型樣偵測方法與相關的影像處理裝置
US8254682B2 (en) 2006-04-20 2012-08-28 Realtek Semiconductor Corp. Pattern detecting method and related image processing apparatus
JP2008058182A (ja) * 2006-08-31 2008-03-13 Mitsutoyo Corp 変位量検出可能性判定装置、その方法、および、変位検出装置
JP2009109413A (ja) * 2007-10-31 2009-05-21 Canon Inc 位置検出器、露光装置及びデバイス製造方法
JP2009251667A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 画像検索装置
US8379989B2 (en) 2008-04-01 2013-02-19 Toyota Jidosha Kabushiki Kaisha Image search apparatus and image processing apparatus
JP2011524267A (ja) * 2008-05-28 2011-09-01 ペッパール ウント フュフス ゲゼルシャフト ミット ベシュレンクテル ハフツング 印刷物を点検するための方法および機構とコンピュータプログラムとコンピュータプログラム製品
JP2010091491A (ja) * 2008-10-10 2010-04-22 Fujifilm Corp 3次元形状計測用撮影装置および方法並びにプログラム
WO2012001862A1 (ja) * 2010-06-29 2012-01-05 株式会社 日立ハイテクノロジーズ パターンマッチング用テンプレートの作成方法、及び画像処理装置
JP2012114202A (ja) * 2010-11-24 2012-06-14 Hitachi High-Technologies Corp 画像撮像装置および画像撮像方法
US9057873B2 (en) 2010-11-24 2015-06-16 Hitachi High-Technologies Corporation Global alignment using multiple alignment pattern candidates
WO2012070549A1 (ja) * 2010-11-24 2012-05-31 株式会社日立ハイテクノロジーズ 複数のアライメントパターン候補を用いたグローバルアライメント
US8823852B2 (en) 2012-05-24 2014-09-02 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
JP5602966B1 (ja) * 2012-05-24 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
JP2014220787A (ja) * 2012-05-24 2014-11-20 パナソニックインテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 制御方法、情報通信装置およびプログラム
WO2014024655A1 (ja) * 2012-08-09 2014-02-13 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
JPWO2014024655A1 (ja) * 2012-08-09 2016-07-25 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10218914B2 (en) 2012-12-20 2019-02-26 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method and recording medium using switchable normal mode and visible light communication mode
US9859980B2 (en) 2012-12-27 2018-01-02 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
JP2015119458A (ja) * 2012-12-27 2015-06-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 制御方法、情報通信装置およびプログラム
JP5603523B1 (ja) * 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9613596B2 (en) 2012-12-27 2017-04-04 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9635278B2 (en) 2012-12-27 2017-04-25 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9641766B2 (en) 2012-12-27 2017-05-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US9756255B2 (en) 2012-12-27 2017-09-05 Panasonic Intellectual Property Corporation Of America Information communication method
US9768869B2 (en) 2012-12-27 2017-09-19 Panasonic Intellectual Property Corporation Of America Information communication method
US9794489B2 (en) 2012-12-27 2017-10-17 Panasonic Intellectual Property Corporation Of America Information communication method
JP5603512B1 (ja) * 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US9918016B2 (en) 2012-12-27 2018-03-13 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US9998220B2 (en) 2012-12-27 2018-06-12 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10051194B2 (en) 2012-12-27 2018-08-14 Panasonic Intellectual Property Corporation Of America Information communication method
US10148354B2 (en) 2012-12-27 2018-12-04 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10165192B2 (en) 2012-12-27 2018-12-25 Panasonic Intellectual Property Corporation Of America Information communication method
US10205887B2 (en) 2012-12-27 2019-02-12 Panasonic Intellectual Property Corporation Of America Information communication method
JP5603513B1 (ja) * 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US10225014B2 (en) 2012-12-27 2019-03-05 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US11659284B2 (en) 2012-12-27 2023-05-23 Panasonic Intellectual Property Corporation Of America Information communication method
JP2015119459A (ja) * 2012-12-27 2015-06-25 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 制御方法、情報通信装置およびプログラム
US10334177B2 (en) 2012-12-27 2019-06-25 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US10354599B2 (en) 2012-12-27 2019-07-16 Panasonic Intellectual Property Corporation Of America Display method
US10361780B2 (en) 2012-12-27 2019-07-23 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US10368005B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10368006B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10447390B2 (en) 2012-12-27 2019-10-15 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10455161B2 (en) 2012-12-27 2019-10-22 Panasonic Intellectual Property Corporation Of America Information communication method
US10516832B2 (en) 2012-12-27 2019-12-24 Panasonic Intellectual Property Corporation Of America Information communication method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10521668B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10531010B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10531009B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10616496B2 (en) 2012-12-27 2020-04-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10638051B2 (en) 2012-12-27 2020-04-28 Panasonic Intellectual Property Corporation Of America Information communication method
US10666871B2 (en) 2012-12-27 2020-05-26 Panasonic Intellectual Property Corporation Of America Information communication method
US10742891B2 (en) 2012-12-27 2020-08-11 Panasonic Intellectual Property Corporation Of America Information communication method
US10887528B2 (en) 2012-12-27 2021-01-05 Panasonic Intellectual Property Corporation Of America Information communication method
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US11165967B2 (en) 2012-12-27 2021-11-02 Panasonic Intellectual Property Corporation Of America Information communication method
US11490025B2 (en) 2012-12-27 2022-11-01 Panasonic Intellectual Property Corporation Of America Information communication method
JP2019049919A (ja) * 2017-09-12 2019-03-28 大日本印刷株式会社 テンプレート抽出装置、テンプレート抽出方法、およびプログラム

Also Published As

Publication number Publication date
WO2005001593A3 (ja) 2005-05-19
JP4389871B2 (ja) 2009-12-24
JPWO2005001593A1 (ja) 2007-09-20

Similar Documents

Publication Publication Date Title
WO2005008753A1 (ja) テンプレート作成方法とその装置、パターン検出方法、位置検出方法とその装置、露光方法とその装置、デバイス製造方法及びテンプレート作成プログラム
US7643961B2 (en) Position detecting device and position detecting method
JP3269343B2 (ja) ベストフォーカス決定方法及びそれを用いた露光条件決定方法
CN114008534A (zh) 量测方法和相关联的量测术以及光刻设备
US20180246420A1 (en) A method and apparatus for determining at least one property of patterning device marker features
KR102189687B1 (ko) 기판 상의 타겟 구조체의 위치를 결정하는 방법 및 장치, 기판의 위치를 결정하는 방법 및 장치
US8097473B2 (en) Alignment method, exposure method, pattern forming method, and exposure apparatus
US7852477B2 (en) Calculation method and apparatus of exposure condition, and exposure apparatus
EP2103995A2 (en) Method for coarse wafer alignment in a lithographic apparatus
JP2005030963A (ja) 位置検出方法
KR100991574B1 (ko) 위치 검출기, 위치 검출 방법, 노광 장치 및 디바이스 제조방법
JP6608130B2 (ja) 計測装置、リソグラフィ装置、及び物品の製造方法
JP2005011976A (ja) 位置検出方法
JP2006216796A (ja) 基準パターン情報の作成方法、位置計測方法、位置計測装置、露光方法、及び露光装置
JP4677183B2 (ja) 位置検出装置、および露光装置
US10267749B2 (en) Inspection method
WO2005001593A2 (ja) 基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置
CN113966490A (zh) 图像形成设备
JP4470503B2 (ja) 基準パターン決定方法とその装置、位置検出方法とその装置、及び、露光方法とその装置
US20040075099A1 (en) Position detecting method and apparatus
US11927892B2 (en) Alignment method and associated alignment and lithographic apparatuses
CN110770653B (en) System and method for measuring alignment
JP2004281904A (ja) 位置計測装置、露光装置、及びデバイス製造方法
JP2004087562A (ja) 位置検出方法及びその装置、露光方法及びその装置、並びにデバイス製造方法
CN110770653A (zh) 用于测量对准的系统和方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005511046

Country of ref document: JP

122 Ep: pct application non-entry in european phase