WO2014208193A1 - ウエハ外観検査装置 - Google Patents
ウエハ外観検査装置 Download PDFInfo
- Publication number
- WO2014208193A1 WO2014208193A1 PCT/JP2014/061892 JP2014061892W WO2014208193A1 WO 2014208193 A1 WO2014208193 A1 WO 2014208193A1 JP 2014061892 W JP2014061892 W JP 2014061892W WO 2014208193 A1 WO2014208193 A1 WO 2014208193A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- wafer
- area
- unit
- sensitivity threshold
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9501—Semiconductor wafers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L22/00—Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
- H01L22/10—Measuring as part of the manufacturing process
- H01L22/12—Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Definitions
- the present invention relates to a wafer appearance inspection apparatus for inspecting a surface defect of a wafer in a semiconductor device manufacturing process.
- a wafer appearance inspection device In the semiconductor manufacturing process, a wafer appearance inspection device is used. In order to automatically inspect with the wafer appearance inspection apparatus, it is necessary to create a recipe. However, there is a part that requires manual intervention for the recipe creation.
- One of these manual operations is to set the sensitivity threshold value to be detected so as to change depending on the location on the wafer and the location on the in-die inspection area. This is because a region with high contrast and a region with low contrast are mixed, and the inspection accuracy can be improved by setting a sensitivity threshold value for each region.
- Manual inspection area setting in the die greatly reduces efficiency and also easily induces human errors.
- human intervention is inevitably required to set a large number of in-die inspection areas for each sensitivity threshold while maintaining accuracy.
- An object of the present invention is to realize a wafer appearance inspection apparatus that can easily perform an operation of subdividing a region to be inspected and setting a sensitivity threshold value for each region and improving inspection efficiency.
- the present invention is configured as follows.
- the wafer is irradiated with light, and the light detected from the reflected light is displayed as an image on the image display unit.
- a part of the image distortion calibration wafer image-processed by the image processing unit is used as a template image.
- pattern matching processing with the entire image of the image calibration wafer is performed, and a pixel shift amount of the image of the image calibration wafer is calculated.
- the image of the inspection target wafer is calibrated using the calculated pixel shift amount, the image region instructed from the operation unit is determined, and the determined image region among the other image regions of the calibrated inspection target wafer and An image region having a similar surface shape pattern is retrieved and displayed on the image display unit, and a sensitivity threshold value of the image region instructed from the operation unit is set. Then, an appearance inspection of the wafer is performed based on the set sensitivity threshold value.
- the data other than the image display area data commanded by the operation unit is deleted, the image display area data commanded by the operation unit is read, and displayed on the image display unit, A sensitivity threshold setting image area commanded from the operation unit is determined. Then, among the image areas displayed on the image display section, an image area whose surface shape pattern is similar to the determined sensitivity threshold setting image area is searched and displayed on the image display section, and the sensitivity commanded from the operation section Threshold setting Sets the sensitivity threshold for the image area. A wafer appearance inspection is performed based on the set sensitivity threshold.
- a sensitivity threshold setting image area commanded from the operation unit is determined, and this sensitivity threshold setting image area is used as a template image, and pattern matching is performed with the image area of the wafer to be inspected to obtain a matching candidate image To do.
- a sensitivity threshold value of the sensitivity threshold setting image region is set, and the appearance inspection of the wafer is performed based on the set sensitivity threshold value.
- FIG. 1 is an overall schematic configuration diagram of a wafer visual inspection apparatus according to an embodiment of the present invention.
- the illumination optical system 103 includes a laser device 105 and a reflection mirror 104.
- Laser light 106 is applied to the wafer 101 from the laser device 105 via the reflection mirror 104.
- the entire surface of the wafer 101 is inspected by operating the XY ⁇ stage 102 by the stage controller 121.
- the laser beam 106 is scattered.
- the scattered light is detected by the detection optical systems 107 and 112.
- the detection optical system 107 has an imaging lens 108 and an area sensor 109
- the detection optical system 112 has an imaging lens 113 and an area sensor 114.
- Scattered light is converted into an electric signal by the detection optical systems 107 and 112, and sent to the CPU 120, which is an operation control unit, as image data via the AD converters 110 and 115 and the image processing units 111 and 116.
- An observation optical system 117 is provided in addition to the detection optical systems 107 and 112 for preparing an inspection recipe and for defect inspection evaluation (for review of detected defects).
- the video acquired by the monitor camera 118 is processed by the image capture control unit 119 and the CPU 120 and displayed on the monitor display 122.
- FIG. 15 is an internal functional block diagram of the CPU 120.
- the CPU 120 includes an area setting unit 120A, a similar area setting unit 120B, a threshold setting unit 120C, and a storage processing unit 120D. Although omitted in FIG. 1, the CPU 120 is connected to an operation unit 125, a memory 124 that stores image processed image data and setting data, an image server 123, and an inspection unit 126 that performs an appearance inspection of a wafer to be inspected. Has been.
- FIG. 2 is a diagram showing a schematic configuration example of the observation optical system 117 in the wafer appearance inspection apparatus.
- the light emitted from the light source 201 is collected by the condenser lens 202.
- the brightness of the light collected by the condenser lens 202 is adjusted by the aperture stop 203 and the observation range is adjusted by the field stop 204.
- the light is reflected by the beam splitter 206 through the relay lens 205 and irradiated onto the wafer 101 through the objective lens 207. Then, the light reflected by the wafer 101 passes through the beam splitter 206 through the objective lens 207. Finally, it is converted into an electric signal by the monitor camera (area sensor) 118 through the imaging lens 208.
- FIG. 3 is a diagram showing an example of a processing flow of sensitivity designated die inspection area setting processing performed in the wafer appearance inspection apparatus.
- step 301 for acquiring an image of the entire die will be described with reference to FIG.
- the wafer 101 is loaded on the XY ⁇ stage 102. Then, alignment processing is performed to correct the tilt of the wafer 101 on the XY ⁇ stage 102. While the XY ⁇ stage 102 is stepped and moved in the X and Y directions, images of the wafer 101 are sequentially acquired by the monitor camera 118 and stored on the image server 123. All of these operations are automatically performed under the control of the CPU 120.
- the subsequent work is performed using the acquired image stored on the server 123, it can be processed on another PC accessible to the server 123.
- FIG. 4 is a view showing a setting die inspection area display example during the sensitivity designation die inspection area setting process, and the area selection step 302 of FIG. 3 will be described using this.
- 401 is a schematic diagram of a panoramic composite image of the entire die, and is roughly divided into a cell area portion 402 and a logic portion 406.
- the panorama composite image 401 of the entire die is displayed on the PC or display 122 connected to the image server 123. Then, a die area 407 is roughly selected by drag and drop on the panorama composite image 401 (step 302 in FIG. 3).
- the in-die area 407 When the in-die area 407 is enlarged on the display 122, the in-die area 407 is enlarged and displayed as in the enlarged area 403 as shown in FIG. 4B (step 303 in FIG. 3). By dragging and dropping the start point handle 404 and the end point handle 405, the selection range is finely adjusted (steps 304 to 307 in FIG. 3).
- FIG. 8, FIG. 9, and FIG. 10 are explanatory diagrams of a function that automatically supports fine adjustment of the start point handle 404 and the end point handle 405 of FIG. 4 (corresponding to steps 304 to 307 of FIG. 3).
- FIG. 8 is a diagram for explaining a function of automatically selecting an area along an image luminance edge by double-clicking when a certain single in-die inspection area is selected.
- FIG. 9 is a diagram for explaining a function of automatically selecting an area along an image luminance edge by drag and drop.
- FIG. 8A when selecting by double-clicking, double-click inside the area 801 to be selected.
- FIG. 8B an image 802 from which edges are extracted by the image processing system of the CPU 120 is generated. Search from the clicked point in four directions, up, down, left, and right, and detect the edge that reaches first. By doing so, a rectangular region 803 along the edge (black frame) can be selected as shown in FIG.
- FIG. 10 is an explanatory diagram of the function of adjusting the selected area to a shape along the image luminance edge. A method for reducing the work load of fine adjustment of the selected area (steps 304 to 307 in FIG. 3) will be described with reference to FIG.
- edge fit button 1001 displayed on the screen is pressed.
- FIG. 10B an image 802 from which edges are extracted by the image processing system of the CPU 120 is generated, and edges 1003 near the four sides of the region 1002 are detected. Each detected edge is shaped so as to be rectangular ((C) in FIG. 10), and is used as a new selection area 1004 ((D) in FIG. 10).
- FIG. 11 is a diagram for explaining a function of adjusting the scale of an image to be displayed in accordance with the work content.
- the timing for changing the scale of the image to be displayed as in the enlargement display step 303 and the reduction step 308 shown in FIG. 3 is determined. Therefore, the enlarged area 403 is automatically displayed according to the size of the area set in step 302 (FIG. 11A) (FIG. 11B).
- the processing of the end point determination step 307 in FIG. 3 is performed, the original scale image 401 is automatically restored (step 308).
- steps 302 to 308 are executed by the area setting unit 120A according to the operation command from the operation unit 125 and the display content of the display 122.
- FIG. 5 and FIG. 7 are diagrams for explaining operations when searching for similar in-die inspection areas
- FIG. 6 is a diagram for explaining operations for selecting the searched in-die inspection areas. The step 309 in FIG. 3 will be described with reference to FIGS.
- the similar area search button 1005 is pressed when the area 501 to be searched in the die is selected. Then, pattern matching is performed using the search target area 501 as a template image, and an area 502 having a similar surface shape pattern is highlighted as a similar area, as shown in FIG.
- FIG. 7 is a diagram for explaining a search range setting method in the similar die inspection area search step 309.
- FIG. 14 is a diagram illustrating an example of an operation screen displayed on the display 122. A search method with a limited range will be described with reference to FIGS.
- the cell area part tends to exist in a certain range. If a cell area such as an area 702 shown in FIG. 7A is a search target area, a rectangular area search like a broken line 701 is searched after the search range setting (area search) button 1408 shown in FIG. 14 is pressed. Set the area by drag and drop.
- a cell area such as an area 702 shown in FIG. 7A is a search target area
- a rectangular area search like a broken line 701 is searched after the search range setting (area search) button 1408 shown in FIG. 14 is pressed. Set the area by drag and drop.
- the logic part tends to exist side by side in a certain direction. Assuming that a logic portion such as an area 704 shown in FIG. 7B is a search target area, a direction such as vertical or horizontal and a width 703 are clicked by clicking a mouse after clicking a search range setting (line search) button 1408. Set the width of the search area.
- the similar area search button 1005 is pressed to perform matching.
- the similar area list 507 is a list showing an area number and the XY coordinates of the area.
- search candidates areas 503 to 506 are displayed in descending order of similarity.
- the similar area list 507 is synchronized with the similar area 601, and the area selected in the similar area 601 is highlighted as a portion 602.
- Step 309 is executed by the similar area setting unit 120B.
- FIG. 13 is a diagram for explaining the function of estimating the sensitivity threshold information from the image information in the inspection area in the set die, and is a process corresponding to step 310 in FIG.
- One of the reasons for subdividing the areas and giving them threshold values is that areas with higher image contrast, such as the logic part 1302, are actually more defective than areas with lower contrast, such as the cell area part 1301. This is because there is a tendency to erroneously determine that there is a defect even though there is no defect.
- an image contrast in the area for example, a value corresponding to the ⁇ value of the gray level of each pixel (variation in luminance of the image) is automatically set as an initial value. It is displayed on the screen (the threshold display section shown in Fig. 14) and is changed by the operator, and if the sensitivity threshold value remains the initial value, the changing operation is unnecessary.
- FIG. 12 is a diagram showing an example of assigning the color of the inspection area in the setting die to be displayed according to the sensitivity threshold value to be set, and corresponds to the processing of step 311 in FIG. It is.
- steps 310 and 311 is executed by the threshold setting unit 120C.
- the setting is stored in the memory 124 by the storage processing unit 120D, and the area setting file is transferred to the inspection unit 126.
- the inspection unit 126 inspects the inspection target using the transferred area setting file. The above is a series of inspection flows.
- FIG. 14 is a diagram illustrating an example of an operation screen displayed on the display 122.
- an automatic edge fit button 1410 a threshold automatic input button 1411, an automatic color setting button 1412, an edge fit button 1413, a delete button 1414, and an area setting button 1415 are displayed below the panorama image display area 1401. ing.
- an up / down / left / right movement button 1402 an enlargement / reduction button 1403 to 1405, an auto button 1406, a search start button 1407, a search area setting button 1408, a search result display area 1409, an area setting area 1416, an enter button 1417, an area list area 1418, Read button 1419, save button 1420.
- the work for subdividing the inspection target area can be executed for each set threshold value.
- the present invention it is possible to easily perform an operation of subdividing an inspection target region and setting a sensitivity threshold value for each region, and improving inspection efficiency. It is possible to realize a sensitivity threshold setting method in the apparatus and the wafer visual inspection apparatus.
- FIG. 22 is a flowchart according to the second embodiment of the present invention, in which an image distortion calibration processing step 301A is added between steps 301 and 302 shown in FIG. The other steps shown in FIG. 22 are the same as the steps shown in FIG.
- step 301 after the image of the entire die shown in step 301 is acquired, when the combined image is displayed, if there is distortion in the individual images to be combined, the boundary of the image appears as a shift.
- the coordinate accuracy of the displayed image is required to be high.
- FIG. 16 is a diagram showing an example of a standard wafer (image calibration wafer) 1601 for sensitivity adjustment.
- the standard wafer 1601 is used to calibrate image distortion.
- a plurality of dies 1602 are arranged on the standard wafer 1601, and a defect 1604 intentionally formed is arranged inside the die 1602, and the sensitivity of the inspection apparatus is measured by confirming whether or not it can be detected. It is.
- This image distortion calibration processing is executed by the area setting unit 120A.
- FIG. 17 is a diagram showing a detailed processing flow of the image distortion calibration processing (image distortion correction processing). Each processing step shown in FIG. 17 will be described with reference to FIG. Each processing step shown in FIG. 17 is executed by the area setting unit 120A.
- a portion 1603 that is a part of the die 1602 of the standard wafer 1601 and in which the same pattern is repeated is acquired (step 1701). At this time, it is desirable that the same repeated pattern appears in the entire image of the acquired portion 1603.
- a part of the acquired image is set as a template image 1801, and template matching is applied to the entire image of the part 1603 (step 1702).
- step 1703 processing step 1703 will be described. Looking at the image areas 1802 and 1084 showing a part of the template matching result in step 1702, the hit coordinates should be neatly aligned as in the image area 1802 if there is no distortion. That is, as shown in the graph 1803, the sequence of images to be matched is linear.
- the image is distorted, it is bent or tilted like an image area 1804. That is, as shown in the graph 1805, the matching image sequence is curved.
- FIG. 17 shows a series of operation flows of image distortion correction processing (calibration processing), but steps 1701 to 1703 are executed before step 301 shown in FIG. Then, the processing in step 1704 is executed on the image acquired in step 301.
- the execution contents of step 1704 are the same as those in step 301A.
- the size of the template 1801 is sufficiently small with respect to the size of the image 1603 (for example, about 1/16 of the entire image). Further, it is desirable that the size of the repeated pattern is sufficiently small with respect to the template 1801.
- any wafer can be calibrated as long as the same pattern is repeated.
- This calibration method can also be applied to the calibration of distortions peculiar to the camera, correction of image distortion due to tilt and rotation when the camera is installed, measurement of camera image distortion over time, etc.
- the fourth embodiment described above is used for calibration of image distortion in the setting operation of the sensitivity threshold value of the inspection target region.
- the calibration of image distortion is necessary in addition to the setting operation of the sensitivity threshold value. Can be used.
- the third embodiment of the present invention is an example of a technique for displaying a large number of images while saving the storage amount of the memory 124 and processing by setting an area without delay in operation. This is performed by the area setting unit 120A when the composite image is displayed after step 301 in FIG. 3 of the first embodiment.
- FIG. 19 is a diagram showing the relationship between the display range of the screen and the image to be read. A method for saving the storage amount of the memory 124 using this will be described.
- the image reading process needs to access the image server 123, it takes time. Therefore, the image reading process is parallelized. As a result, the display of the background image is followed, but the area setting operation can be performed in real time without stress.
- FIG. 20 is a diagram showing a processing flow when image reading processing is parallelized. Processing parallelized using this will be described.
- the image processing is divided into a drawing thread for drawing on the screen and a reading thread for reading from the file.
- the process of drawing a part of the screen is performed in the message handler by receiving a drawing message from the OS (operating system) (step 2001).
- the acquired individual images are sequentially scanned to check whether the images are drawn on the screen (step 2002) and whether they have been read (step 2003).
- a read request is registered in the request list 2011.
- the address of the image data (here, the default image (default image) 2013) stored in the read image list 2012 is extracted (step 2004) and rendered on the screen (step 2005).
- the address of the image data (here, the read image 2014) stored in the read image list 2012 is extracted and displayed on the screen. draw.
- step 2002 If the image is not drawn (out of the display range) and the image has not been read yet, the next image check is performed (returning to step 2002).
- a discard request (deletion request) is registered in the request list.
- the drawing thread exits the process and ends.
- step 2006 it is checked whether there is a request in the request list 2011, and if there is a request, it is taken out from the list (step 2006).
- step 2007, the extracted request content is determined, and if it is a read request, the image is read. A case where the request is not a read request but a discard request in step 2007 will be described later.
- step 2008 the read image list 2012 is scanned, and the address to the image of the corresponding image row is switched from that of the default image 2013 to that of the newly read image 2014.
- step 2009 a read flag is set.
- the request is a discard request
- the image information is discarded in step 2007, and the image address is switched to the default image in step 2008.
- the reading flag is lowered. In this case, the drawing request message is not transmitted.
- the fourth embodiment is an example in which the matching processing for the similar area search in the processing step 309 in FIG. 3 is performed on the composite image 401 formed by stitching (combining) a plurality of images. is there.
- FIG. 21 is a diagram showing a processing flow and an outline of a matching process with a patch image (composite image) in the fourth embodiment of the present invention, and the fourth embodiment will be described with reference to FIG.
- FIG. 21 is an example in which the search is mainly performed in two stages of the coarse search 2103 and the detailed search 2106.
- processing step 2101 all images included in the range to be matched are reduced.
- the reduction ratio at this time depends on the processing system, but the image size after synthesis must be smaller than the size that can be handled by the processing system. For example, the size is reduced so that the size after synthesis becomes 4096 ⁇ 4096 or less.
- the images reduced in the processing step 2102 are combined to create a combined image 2108 of the entire search range.
- Template matching is performed on the overall composite image 2108 using the reduced search target area 501 2109 as a reduced template. This is a rough search (step 2103).
- step 2104 the coordinates of matching candidates as a result of the rough search are picked up.
- step 2105 based on the coordinates of the matching candidate, an equal-magnification composite image 2110 including the matching candidate range is created.
- template matching is performed on the synthesized image 2110 of the coarse search result using the search target area 501 as a template. This is the same-magnification detailed search (step 2106).
- processing step 2107 the coordinates of matching candidates determined by the detailed search are registered in the similar area list 507.
- step 2106 When a plurality of matching candidates are found in the rough search in step 2103, the number of detailed searches (step 2106) are performed.
- step 2103 the processing speed and accuracy of the coarse search (step 2103) are improved because the magnification reduced in step 2101 is reduced. .
- the fourth embodiment of the present invention it is possible to easily perform the operation of performing template matching on the composite image and setting the sensitivity threshold value for each region.
- Image Capture control unit 120 ... CPU, 121 ... stage control unit, 122 ... display, 123 ... image server, 124 ... memory, 125 ... operation unit, 126 ... inspection unit , 201... Light source, 202. Condensing lens, 203 ... Aperture stop, 204 ... Field stop, 205 ... Relay lens, 206 ... Beam splitter, 207 ... Objective lens, 208 ... Image forming lens, 401. ..Panorama composite image 402 ... cell area part 403 ... enlarged image 404 ... start point handler 405 ... end point handler 406 ... logic part 407 ... in-die area 501 ... Search area, 502 ... Similar area highlight, 503 ...
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Manufacturing & Machinery (AREA)
- Signal Processing (AREA)
- Power Engineering (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Image Analysis (AREA)
Abstract
検査対象の領域を細分化し、領域毎に感度しきい値を設定する作業を容易に実行でき、検査効率の向上が可能なウエハ外観検査装置が実現される。標準ウエハの一部の画像領域をテンプレート画像として、標準ウエハの全体画像領域とのパターンマッチングを行って画像校正値を算出する。算出した画像校正値を用いて検査対象画像を校正する。ディスプレイに表示された校正画像領域のうち、しきい値を設定する領域を大まかに指定すると自動的に領域が確定される。確定された領域と、パターンが類似する領域が検索され表示される。類似する領域が選択されると、初期感度しきい値が表示され、変更が必要な場合は変更が行われる。決定されたしきい値に対応する表示色により設定した感度しきい値の領域が表示される。設定されたしきい値に従って検査が実行される。
Description
本発明は、半導体デバイス製造工程にあるウエハの表面欠陥を検査するウエハ外観検査装置に関する。
半導体製造工程ではウエハ外観検査装置が使用される。ウエハ外観検査装置にて自動で検査をするにはレシピを作成する必要があるが、このレシピ作成にはどうしても人手の介入が必要となる部分がある。
それらの人手を要する作業のうちの一つに、検出する感度しきい値をウエハ上における場所やダイ内検査エリア上における場所によって変化させるように設定する作業がある。これは、コントラストが高い領域や低い領域が混在しており、その領域毎に感度閾値を設定することにより、検査精度を向上することができるからである。
このため、検査装置の感度向上のために、ダイ内検査エリアをより細かく分け、その細分化されたエリアそれぞれに感度しきい値を設定するニーズが高まっており、ダイ内検査エリア設定画面の背景にダイのパノラマ画像(取得した画像のうち、選択した複数部分を合成して表示した画像)を表示することで、画像を目安にダイ内検査エリアの設定をできるようにしているものがある(例えば、特許文献1)。
また、SEM像を元にエリアを分割して検査に応用する方法や、SEM像や光学画像と、テンプレート画像とのマッチングにより検査する方法が知られている。
しかしながら、上記特許文献1に記載された技術では、何千何万ものダイ内検査エリアを設定するとなると、同様の操作を膨大な回数繰り返すこととなる。
人手によるダイ内検査エリア設定では、効率が大幅に落ちる上に、ヒューマンエラーも誘発しやすくなる。しかし、精度を維持したまま、感度しきい値別に、多くのダイ内検査エリアを設定するにはどうしても人手の介入が必要となる。
このため、従来の技術においては、感度向上のための検査対象の領域細分化作業に多くの時間と労力とが必要であり、検査効率の向上化が困難となっていた。
本発明の目的は、検査対象の領域を細分化し、領域毎に感度しきい値を設定する作業を容易に実行でき、検査効率の向上が可能なウエハ外観検査装置を実現することである。
上記目的を達成するため、本発明は次のように構成される。
ウエハに光が照射され、反射された光を検出した光を画像として画像表示部に表示し、画像処理部により画像処理された画像歪校正用ウエハの一部をテンプレート画像とし、このテンプレート画像を用いて上記画像校正用ウエハの全体画像とのパターンマッチング処理を行い、上記画像校正用ウエハの画像の画素ズレ量を算出する。そして、算出した画素ズレ量を用いて検査対象ウエハの画像を校正して、操作部から指令された画像領域を決定し、校正した検査対象ウエハの他の画像領域のうち、決定した画像領域と表面形状パターンが類似する画像領域を検索して上記画像表示部に表示し、上記操作部から指令された画像領域の感度しきい値を設定する。そして、設定された感度しきい値に基づいて、ウエハの外観検査を行う。
また、メモリに格納された画像データのうち、操作部により指令された画像表示領域のデータ以外のデータを削除し、操作部により指令された画像表示領域データを読み出し、画像表示部に表示させ、上記操作部から指令された感度しきい値設定画像領域を決定する。そして、画像表示部に表示された画像領域のうち、決定した感度しきい値設定画像領域と表面形状パターンが類似する画像領域を検索して画像表示部に表示し、操作部から指令された感度しきい値設定画像領域の感度しきい値を設定する。設定した感度しきい値に基づいて、ウエハの外観検査を行う。
また、操作部から指令された感度しきい値設定画像領域を決定し、この感度しきい値設定画像領域をテンプレート画像とし、検査対象ウエハの画像領域とのパターンマッチングを行い、マッチング候補画像を取得する。取得した画像に基づいて、感度しきい値設定画像領域の感度しきい値を設定し、設定した感度しきい値に基づいて、上記ウエハの外観検査を行う。
本発明によれば、検査対象の領域を細分化し、領域毎に感度しきい値を設定する作業を容易に実行でき、検査効率の向上が可能なウエハ外観検査装置を実現することができる。
以下、本発明について、添付図面を参照して説明する。
図1は本発明の一実施例に係るウエハ外観検査装置の全体概略構成図である。
図1において、照明光学系103はレーザ装置105と反射ミラー104を有する。レーザ光106はレーザ装置105から反射ミラー104を介してウエハ101に対して照射される。ステージ制御部121によりXYθステージ102を操作することでウエハ101全面を検査する。
ウエハ101の表面に凹凸や異物があると、レーザ光106は散乱する。そして、散乱した光を検出光学系107、112にて検出する。検出光学系107は結像レンズ108、エリアセンサ109を有し、検出光学系112は結像レンズ113、エリアセンサ114を有する。
検出光学系107、112により散乱光が電気信号に変換され、AD変換器110、115、画像処理部111、116を介して画像データとして、動作制御部であるCPU120に送られる。
検査用レシピ作成時や欠陥検査評価(検出欠陥のレビューの為に)時のために検出光学系107、112とは別に観察光学系117がある。モニタカメラ118によって取得した映像は、画像キャプチャ制御部119、CPU120にて処理され、モニタディスプレイ122に表示される。
図15は、CPU120の内部機能ブロック図である。図15において、CPU120は、エリア設定部120Aと、類似エリア設定部120Bと、しきい値設定部120Cと、保存処理部120Dとを備える。CPU120は、図1では省略してあるが、操作部125、画像処理された画像データや設定データを保存するメモリ124、画像サーバ123、検査対象であるウエハの外観検査を行う検査部126と接続されている。
図2はウエハ外観検査装置における観察光学系117の概略構成例を示した図である。図2において、光源201から発せられた光が集光レンズ202によって集められる。集光レンズ202によって集められた光は、開口絞り203によって明るさが調整され、視野絞り204により観察範囲が調整される。
その後、光は、リレーレンズ205を介してビームスプリッタ206にて反射され、対物レンズ207を通してウエハ101に照射される。そして、ウエハ101にて反射された光は対物レンズ207を介してビームスプリッタ206を透過する。最後に結像レンズ208を通してモニタカメラ(エリアセンサ)118にて電気信号に変換される。
図3はウエハ外観検査装置において行われる感度指定ダイ内検査エリア設定処理の処理フローの例を示した図である。
まず、ダイ全体の画像を取得するステップ301の処理について、図1を用いて説明する。
ウエハ101をXYθステージ102上にロードする。そして、アライメント処理を実施し、XYθステージ102上のウエハ101の傾きを補正する。XYθステージ102を、XとY方向にステッピング移動しながらモニタカメラ118でウエハ101の画像を順に取得して、画像サーバ123上に保管していく。これらの作業は、CPU120の制御によりすべて自動で行われる。
後の作業はサーバ123上に保管された取得画像を使って行うため、サーバ123にアクセス可能な別のPC上で処理することができる。
図4は感度指定ダイ内検査エリア設定処理時の設定ダイ内検査エリア表示例を示した図であり、これを用いて図3のエリア選択ステップ302について説明する。図4の(A)において、401はダイ全体のパノラマ合成画像の模式図で、主にセルエリア部402とロジック部406とに大別される。
画像サーバ123に接続されたPCやディスプレイ122にてダイ全体のパノラマ合成画像401を表示する。そして、パノラマ合成画像401上でドラッグ&ドロップで大まかにダイ内エリア407を選択する(図3のステップ302)。
次に、図4を用いて、図3のエリア拡大ステップ303、微調整ステップ304から終点確定ステップ307について説明する。
ディスプレイ122にて、ダイ内エリア407を拡大すると、拡大エリア403のようにダイ内エリア407が図4の(B)のように拡大表示される(図3のステップ303)。始点ハンドル404と終点ハンドル405をドラッグ&ドロップすることにより、選択する範囲の微調整をおこなう(図3のステップ304~307)。
図8、図9、図10は、図4の始点ハンドル404と終点ハンドル405の微調整を自動的にサポートする機能についての説明図である(図3のステップ304~307に対応する)。
図8は、ある単一のダイ内検査エリア選択時に、ダブルクリックにより画像輝度エッジに沿ったエリアを自動的に選択する機能を説明する図である。また、図9は、ドラッグ&ドロップにより画像輝度エッジに沿ったエリアを自動的に選択する機能を説明する図である。
図8の(A)において、ダブルクリックで選択する場合、選択したいエリア801の内部でダブルクリックする。図8の(B)に示すように、CPU120の画像処理系でエッジを抽出した画像802を生成する。クリックされたポイントから上下左右の4方向に探索し、最初に到達するエッジを検出する。そうすることで、図8の(C)に示すように、エッジ(黒枠)に沿った矩形領域803を選択することができる。
図9に示すように、ドラッグ&ドロップで選択する場合、マウスポインタを近づけると、候補となる最も近いコーナ901をハイライトする(図9の(A))。そして、図9の(B)に示すように、ドラッグ&ドロップしたときに、ドラッグ開始点と終点の近辺のコーナに属するエッジで囲まれたエリアを選択されたエリア903(補正ありの選択ハイライト)として設定する。902は、補正なしの選択ハイライトである。
図10は選択されたエリアを画像輝度エッジに沿った形に調整する機能の説明図である。この図10を用いて選択エリアの微調整(図3のステップ304~307)の作業負担を軽減する方法について説明する。
図10の(A)において、ある領域1002が選択されている状態のときに、画面に表示されたエッジフィットボタン1001を押下する。図10の(B)に示すように、CPU120の画像処理系でエッジを抽出した画像802を生成し、領域1002の4つの辺の近辺のエッジ1003を検出する。それぞれの検出したエッジが矩形になるように整形し(図10の(C))、それを新たな選択エリア1004とする(図10の(D))。
図11は、作業内容に合わせて表示する画像の縮尺を調整する機能を説明する図である。図3に示した拡大表示ステップ303や縮小ステップ308のような表示する画像の縮尺を変更するタイミングは決まっている。よって、ステップ302にて設定した領域(図11の(A))のサイズに合わせて自動的に拡大エリア403を表示する(図11の(B))。そして図3の終点確定ステップ307の処理がなされた時点で元の縮尺画像401に自動的に戻す(ステップ308)。
ステップ302~308の動作は、操作部125からの操作指令、ディスプレイ122の表示内容に従って、エリア設定部120Aにより実行される。
図5と図7は類似なダイ内検査エリアを検索するときの操作を説明する図であり、図6はその検索されたダイ内検査エリアを取捨選択する操作を説明する図である。これら図5~図7を用いて図3のステップ309を説明する。
図5の(A)において、ダイ内の検索したいエリア501が選択された状態のときに類似エリア検索ボタン1005を押下する。すると、検索対象エリア501をテンプレート画像としたパターンマッチングを行い、図5の(B)に示すように、類似した表面形状パターンを持っているエリア502を類似エリアとしてハイライトする。
しかし、広大なダイ全体のパノラマ合成画像401を対象にマッチングを行うと処理に時間がかかることが予想される。そこで、範囲を限定して検索する方法を用いる。
図7は類似ダイ内検査エリア検索ステップ309における検索範囲の設定方法を説明する図である。また、図14は、ディスプレイ122に表示される操作画面例を示す図である。これら図7、図14を用いて範囲を限定して検索する方法について説明する。
セルエリア部はある一定の範囲にまとまって存在する傾向がある。図7の(A)に示す領域702のようなセルエリア部を検索対象エリアとすると、図14に示した検索範囲設定(エリア検索)ボタン1408を押下後、破線701のような矩形領域の検索エリアをドラッグ&ドロップにより設定する。
その後、図5に示したような類似エリア検索ボタン1005を押下してマッチングを行うという流れとなる。
検索対象エリアが図7の(B)に示すようにロジック部の場合には、次のようになる。
ロジック部は一定の方向に並んで存在する傾向にある。図7の(B)に示す領域704のようなロジック部を検索対象エリアとすると、検索範囲設定(ライン検索)ボタン1408を押下後、マウスクリックにより縦または横といった方位と、幅703のような検索エリアの幅を設定する。
その後、類似エリア検索ボタン1005を押下してマッチングを行うという流れとなる。
マッチングの結果、図5の(B)に示すように、類似エリア502がハイライトされると同時に、類似エリアリスト507が表示される。この類似エリアリスト507は、エリアNo.と、そのエリアのXY座標を示したリストである。類似エリアリスト507には類似度が高い順番に検索候補(領域503~506)が表示される。
その後、再度画像内をドラッグすることで、類似エリア502の中から、さらにエリアを選択することができる(図6の(A)の類似エリア601)。選択された類似エリア601は類似エリア502とは別の色でハイライトされる。また、図6の(B)に示すように、類似エリアリスト507は、類似エリア601と同期しており、類似エリア601で選択されたエリアは部分602のようにハイライトされる。
その後、確定ボタン1417を押下することで、選択された類似エリアのみが確定した選択エリア603として残る(図6の(C))。逆に、Deleteボタン1414を押下することで、選択された検索候補601のみを検索候補から削除することもできる。
ステップ309は、類似エリア設定部120Bにより実行される。
図13は設定ダイ内検査エリアの画像情報により感度しきい値情報を推定する機能を説明する図であり、図3のステップ310に該当する処理である。エリアを細分化し、それぞれにしきい値をもたせる理由の一つとして、ロジック部1302のような画像コントラストが高いエリアの方が、セルエリア部1301のようなコントラストが低いエリアよりも、実際には欠陥が無いのに欠陥があると誤判定しやすい傾向にあるためである。
これは欠陥検出時、2つの画像の差分を取るときに、高コントラストの領域の方がピクセル間にて生じる誤差(量子化誤差)が顕在化しやすいためである。
よって、エリア内の画像コントラスト(例えは各画素の濃淡レベルのσ値(画像の輝度のばらつき)に応じた値を、初期値として自動的に設定する。そして、初期値として設定された値を画面に表示し(図14に示したしきい表示部)、操作者により変更される。感度しきい値が設定された初期値のままでよければ、変更操作は不要である。
図12は、設定する感度しきい値により、表示する設定ダイ内検査エリアの色を振り分ける一例を示した図であり、図3のステップ311の処理に該当する。である。
図12に示す例の場合は、赤から紫までの7色(C1~C7)が設定され、しきい値は、C1からC7に向かうにつれ、小から大となる設定である。このように、設定したエリアの感度しきい値の区別のために、表示する色を設定する。しきい値と対応させた色相の色を自動的に表示することによって、設定値の入力ミス・データ飛びなどが、色という形で顕在化させることができる。
ステップ310、311の処理はしきい値設定部120Cにより実行される。
以上の処理により1グループの設定が完了する。他にも設定したい領域があればステップ302に戻り、ステップ302~311を実行する。
そして、全ダイ内検査エリアの設定が終了したら、保存処理部120Dによりメモリ124に設定を保存し、検査部126にエリア設定ファイルを転送する。検査部126は、転送されたエリア設定ファイルを用いて被検査対象を検査する。以上が検査の一連の流れとなる。
図14は、ディスプレイ122に表示される操作画面の一例を示す図である。図14において、パノラマ画像表示領域1401の下方には、自動エッジフィットボタン1410、しきい値自動入力ボタン1411、色自動設定ボタン1412、エッジフィットボタン1413、Deleteボタン1414、エリア設定ボタン1415が表示されている。
また、上下左右移動ボタン1402、拡大縮小ボタン1403~1405、オートボタン1406、検索開始ボタン1407、検索エリア設定ボタン1408、検索結果表示領域1409、エリア設定領域1416、確定ボタン1417、エリアリスト領域1418、読込ボタン1419、保存ボタン1420.キャンセルボタン1421、終了ボタン1422である。
図14の操作画面を使用して、設定したしきい値毎に、検査対象の領域を細分化する作業を実行することができる。
以上のように、本発明の一実施例によれば、検査対象の領域を細分化し、領域毎に感度しきい値を設定する作業を容易に実行でき、検査効率の向上が可能なウエハ外観検査装置
及びウエハ外観検査装置における感度しきい値設定方法を実現することができる。
及びウエハ外観検査装置における感度しきい値設定方法を実現することができる。
これにより、ウエハ外観検査装置の操作の一部を自動化、簡略化することで、人手による繰り返し作業の工数、作業負担を減らすことができる。
次に、図3のステップ301にて取得する個々の画像の歪みを校正する方法を示す。実施例1の図3のステップ301の前に画像歪校正値の算出処理を行い、ステップ301で取得した画像に対して画像歪校正処理を行う。図22は、本発明の実施例2におけるフローチャートであり、図3に示したステップ301と302との間に画像歪校正処理ステップ301Aが追加されている。図22に示した他のステップは、図3に示したステップと同様となっている。
図22において、ステップ301に示したダイ全体の画像を取得した後、合成した画像を表示した際に、合成対象の個々の画像に歪みがあると、画像の境界にズレとなって現れる。本発明は背景に表示される画像を参考にエリアを設定するため、その表示されている画像の座標精度は高いことが求められる。
よって、装置に画像歪を生じさせる要因がある場合には、撮影する画像の歪みを事前に校正することで画像の表示精度を確保する必要がある。
図16は、感度調整用の標準ウエハ(画像校正用ウエハ)1601の例を示した図であり、本実施例ではこの標準ウエハ1601を使用して画像の歪を校正する。標準ウエハ1601にはダイ1602が複数並んでおり、ダイ1602の内部には意図的に作り込んだ欠陥1604が配置されており、それを検出できるかを確認することで検査装置の感度を測るものである。この画像歪校正処理は、エリア設定部120Aにて実行される。
図17は、画像歪校正処理(画像歪み補正処理)の詳細処理フローを示した図であり、図17に示した各処理ステップについて図18を用いて説明する。図17に示した各処理ステップは、エリア設定部120Aが実行する。
まず、標準ウエハ1601のダイ1602の一部であり、同一パターンが繰り返されている部分1603を取得する(ステップ1701)。このとき、取得した部分1603の画像全体に同じ繰り返しパターンが映っていることが望ましい。次に、取得した画像の一部をテンプレート画像1801とし、部分1603の画像全体に対してテンプレートマッチングをかける(ステップ1702)。
続いて、処理ステップ1703について説明する。ステップ1702におけるテンプレートマッチング結果の一部を示す画像領域1802、1084を見ると、歪みのない画像であれば、画像領域1802のように、ヒットした座標が綺麗に整列するはずである。つまり、グラフ1803に示すように、マッチングする画像の列は直線状となる。
これに対して、画像が歪んでいると画像領域1804のように、曲がっていたり、傾いていたりする。つまり、グラフ1805に示すように、マッチングする画像の列は曲線状となる。
この方法により、画像内のどの画素がどれだけのズレ量を生じているかを数値化することができ、このズレ量に対して逆方向に補正する補正値を算出し、算出した補正値を画像データ(合成対象の個々の画像)に掛けることで歪みを補正する(ステップ1703、1704)。
図17は、画像歪補正処理(校正処理)の一連の動作フローを示しているが、ステップ1701~1703が、図22に示したステップ301の前に実行される。そして、ステップ301により取得した画像に対してステップ1704の処理が実行される。ステップ1704の実行内容は、ステップ301Aと同様である。
テンプレート1801の大きさは画像1603のサイズに対して十分に小さいことが望ましい(例えば画像全体の1/16程度の大きさ)。また、繰り返されるパターンの大きさはテンプレート1801に対して十分に小さいことが望ましい。
ここでは、感度調整用の標準ウエハ1601の一部を使用しているが、同じパターンが繰り返されていれる部分があれば、どのようなウエハであっても校正可能である。
よって、既存のウエハで校正することができるため、新たなコストを発生させることなく、校正を行うことができる。
また、事前に画像の校正を掛けることにより、カメラや装置の個体差による歪みが軽減され、ズレの小さい、滑らかな合成画像を得ることができる。
この校正方法はカメラ内特有の歪みの校正、カメラ設置時の傾き・回転などによる像歪みの補正、カメラ像歪みの経時変化の測定などの応用も可能と考えられる。
つまり、上述した実施例4は、検査対象領域の感度しきい値の設定作業における画像歪の校正に用いられるが、感度しきい値の設定作業以外にも、画像歪の校正が必要な場合に用いることができる。
合成画像の表示ステップ以降の処理については実施例1と同一であるため、詳細な説明は省略する。
次に、本発明の実施例3について説明する。本発明の実施例3は、多数の画像を、メモリ124の記憶量を節約して表示し、操作の遅延なくエリア設定して処理する手法の例である。これは実施例1の図3のステップ301の後、合成画像を表示する際に、エリア設定部120Aにて行う。
図19は画面の表示範囲と読込対象となる画像との関係を示した図であり、これを用いてメモリ124の記憶量を節約する方法を説明する。
高精度な顕微鏡で取得した画像を、縮小せずに1枚に合成した場合。その1枚の画像は、数万ピクセル×数万ピクセルものサイズになる。そのため、その画像を扱おうとするだけでメモリ124の記憶領域を使いきってしまい、通常の処理系で扱うことが困難になってしまう。そのため、画像の表示範囲1901を保持し、ディスプレイ122に描画される(表示範囲内の)画像1902のみを読み込んで表示し、描画されない(表示範囲外の)画像1903はメモリ124から破棄するようにすることでメモリの記憶量節約を図る。
また、画像の読込処理は画像サーバ123にアクセスする必要があるため、時間がかかる。そのため、画像の読込処理を並列化する。これによって、背景画像の表示は後追いになるが、エリア設定操作をリアルタイムでストレスなく行うことが可能となる。
図20は画像の読込処理を並列化した際の処理フローを示した図である。これを用いて並列化した処理について説明する。
図20において、画像処理は画面に描画する描画スレッドとファイルから読み込む読込スレッドとに分かれる。
まず、描画スレッドの処理について説明する。
画面の一部を描画する処理は、OS(オペレーティングシステム)から描画メッセージが渡され(ステップ2001)、そのメッセージハンドラ内で行われる。まず、取得された個々の画像を順に走査し、その画像が画面に描画されるものかどうかのチェック(ステップ2002)と、読込済みであるかどうかのチェック(ステップ2003)を行う。
画像が描画されるもの(表示範囲内)であり、まだ画像が読み込まれていなかったとき、要求リスト2011に読込要求を登録する。そして、読込画像リスト2012に格納されている画像データ(ここではDefault画像(デフォルト画像)2013)のアドレスを取り出して(ステップ2004)、画面に描画する(ステップ2005)。
画像が描画されるもの(表示範囲内)であり、すでに画像が読み込まれていたときは、読込画像リスト2012に格納されている画像データ(ここでは読込画像2014)のアドレスを取り出して、画面に描画する。
画像が描画されるものでなく(表示範囲外)、まだ画像が読み込まれていなかったときは、そのまま次の画像のチェックに移る(ステップ2002に戻る)。
画像が描画されるものでなく(表示範囲外)、すでに画像が読み込まれていたときは、要求リストに破棄要求(削除要求)を登録する。すべての画像の走査が終わったら、描画スレッドは処理を抜け、終了する。
続いて、読込スレッドの処理について説明する。まず処理ステップ2006では、要求リスト2011に要求があるかどうかをチェックし、要求があればリストから取り出す(ステップ2006)。次に、ステップ2007で、取り出した要求内容を判定し、読込要求であった場合は画像を読込む。なお、ステップ2007で、要求が読込要求でなく破棄要求であった場合については後述する。
続いて、ステップ2008、2009では、読込画像リスト2012を走査し、該当する画像の行の画像へのアドレスをデフォルト画像2013のものから、新たに読み込んだ画像2014のものに切換える。そして、ステップ2009で読込フラグを立てる。最後に、ステップ2010にてOSに再描画メッセージを送信する。このメッセージを送信すると、OSから適切なタイミングで描画メッセージ2001が発行され、描画処理スレッドが起動する。
ここで、ステップ2007で取りだした要求が破棄要求であった場合につい、説明する。
破棄要求であった場合は、ステップ2007で画像の情報を破棄し、ステップ2008で画像のアドレスをデフォルト画像に切り替える。そして、ステップ2009で読込フラグを降ろすという手順になる。この場合、描画要求メッセージは送信しない。
このように処理を並列化することで、画像の描画に時間がかかったとしても、エリア設定操作をリアルタイムでストレスなく行うことが可能となる。つまり、本発明の実施例3によれば、多数の画像を、メモリ124の記憶量を節約して表示し、操作の遅延なくエリア設定して処理することが可能となる。
なお、合成画像の表示ステップ以降の処理については実施例1と同一であるため、詳細な説明は省略する。
次に、本発明の実施例4について説明する。この実施例4は、図3の処理ステップ309における類似エリア検索のためのマッチング処理を、複数の画像のつぎはぎ(合成)で構成されている合成画像401に対してテンプレートマッチング処理を行う例である。
図21は、本発明の実施例4における、つぎはぎ画像(合成画像)でのマッチング処理の処理フローと概要を示した図であり、これを用いて実施例4について説明する。
なお、図21に示した例では、主に粗サーチ2103と詳細サーチ2106との2段階に分けてサーチを行う例である。
まず、処理ステップ2101にてマッチング対象となる範囲に含まれるすべての画像を縮小する。このときの縮小率は処理系に依存するが、合成した後の画像サイズがその処理系で扱えるサイズ以下でなければならない。例えば合成後のサイズが4096×4096以下となるように縮小する。
次に、処理ステップ2102にて縮小された画像を合成し、サーチ範囲全体の合成像2108を作成する。検索対象エリア501を縮小したもの2109を縮小テンプレートとして、全体合成画像2108に対してテンプレートマッチングを行う。これを粗サーチ(ステップ2103)とする。
そして、処理ステップ2104にて粗サーチの結果のマッチング候補の座標をピックアップする。続いて、ステップ2105で、マッチング候補の座標を元に、マッチング候補範囲を含む等倍の合成画像2110を作成する。
そして、検索対象エリア501をテンプレートとして、粗サーチ結果の合成画像2110に対してテンプレートマッチングを行う。これを等倍詳細サーチ(ステップ2106)とする。
最後に処理ステップ2107で、詳細サーチにて確定したマッチング候補の座標を類似エリアリスト507へ登録する。
ステップ2103の粗サーチでマッチング候補が複数見つかった場合は、その数だけ詳細サーチ(ステップ2106)を行うこととなる。
なお、この処理を行う前に検索エリア(701、703)を設定していた場合は、ステップ2101にて縮小される倍率が小さくなるため、粗サーチ(ステップ2103)の処理速度と精度が向上する。
合成画像のマッチング処理以降の操作については実施例1と同様であるため、詳細な説明は省略する。
本発明の実施例4によれば、合成画像にrついて、テンプレートマッチングを行い、領域毎に感度しきい値を設定する作業を容易に実行可能となる。
101・・・ウエハ、102・・・XYθステージ、103・・・照明光学系、104・・・反射ミラー、105・・・レーザ装置、106・・・レーザ光、107・・・検出光学系a、108・・・結像レンズa、109・・・エリアセンサa、110・・・AD変換器a、111・・・画像処理部a、112・・・検出光学系b、113・・・結像レンズb、114・・・エリアセンサb、115・・・AD変換器b、116・・・画像処理部b、117・・・観察光学系、118・・・モニタカメラ、119・・・画像キャプチャ制御部、120・・・CPU、121・・・ステージ制御部、122・・・ディスプレイ、123・・・画像サーバ、124・・・メモリ、125・・・操作部、126・・・検査部、201・・・光源、202・・・集光レンズ、203・・・開口絞り、204・・・視野絞り、205・・・リレーレンズ、206・・・ビームスプリッタ、207・・・対物レンズ、208・・・結像レンズ、401・・・パノラマ合成画像、402・・・セルエリア部、403・・・拡大画像、404・・・始点ハンドラ、405・・・終点ハンドラ、406・・・ロジック部、407・・・ダイ内エリア、501・・・検索対象エリア、502・・・類似エリアハイライト、503・・・類似エリア1、504・・・類似エリア2、505・・・類似エリア3、506・・・類似エリア4、507・・・類似エリアリスト、601・・・選択類似エリアハイライト、602・・・リスト内にて601に対応したエリア、603・・・確定後選択エリアハイライト、701・・・検索エリア(エリア選択タイプ)、702・・・セルエリア部選択ハイライト、703・・・検索エリア(ライン選択タイプ)、704・・・ロジック部選択ハイライト、801・・・選択したい領域、802・・・エッジ抽出画像、803・・・選択された領域、901・・・選択候補コーナーハイライト、902・・・補正なし選択ハイライト、903・・・補正あり選択ハイライト、1001・・・エッジフィットボタン、1002・・・処理前選択ハイライト、1003・・・抽出されたエッジ、1004・・・処理後の選択ハイライト、1301・・・セルエリア部、1302・・・ロジック部、1601・・・標準ウエハ、1602・・・ダイ、1601・・・ダイの一部から取り出した繰り返しパターン画像、1604・・・作り込み欠陥、1801・・・テンプレート画像、1802・・・マッチング結果(歪みなし)、1803・・・マッチング結果の座標を示したグラフ(歪みなし)、1804・・・マッチング結果(歪みあり)、1805・・・マッチング結果の座標を示したグラフ(歪みあり)
Claims (4)
- 検査対象ウエハに光を照射する光照射部と、
上記検査対象ウエハから反射した光を検出する検出部と、
上記検出部により検出された光を画像に変換する画像処理部と、
画像表示部と、
操作指令を入力する操作部と、
上記画像処理部により画像処理された画像歪校正用ウエハの一部をテンプレート画像とし、このテンプレート画像を用いて上記画像校正用ウエハの全体画像とのパターンマッチング処理を行い、上記画像校正用ウエハの画像の画素ズレ量を算出し、算出した画素ズレ量を用いて上記検査対象ウエハの画像を校正して、上記操作部から指令された画像領域を決定し、校正した上記検査対象ウエハの他の画像領域のうち、上記決定した画像領域と表面形状パターンが類似する画像領域を検索して上記画像表示部に表示し、上記操作部から指令された画像領域の感度しきい値を設定する動作制御部と、
上記動作制御部により設定された感度しきい値に基づいて、上記ウエハの外観検査を行う検査部と、
を備えることを特徴とするウエハ外観検査装置。 - 検査対象ウエハに光を照射する光照射部と、
上記検査対象ウエハから反射した光を検出する検出部と、
上記検出部により検出された光を画像に変換する画像処理部と、
上記画像処理部により画像変換された画像データを格納するメモリと、
画像表示部と、
操作指令を入力する操作部と、
上記メモリに格納された画像データのうち、上記操作部により指令された画像表示領域のデータ以外のデータを削除し、上記操作部により指令された画像表示領域データを読み出し、上記画像表示部に表示させ、上記操作部から指令された感度しきい値設定画像領域を決定し、上記画像表示部に表示された画像領域のうち、上記決定した感度しきい値設定画像領域と表面形状パターンが類似する画像領域を検索して上記画像表示部に表示し、上記操作部から指令された感度しきい値設定画像領域の感度しきい値を設定する動作制御部と、
上記動作制御部により設定された感度しきい値に基づいて、上記ウエハの外観検査を行う検査部と、
を備えることを特徴とするウエハ外観検査装置。 - 検査対象ウエハに光を照射する光照射部と、
上記検査対象ウエハから反射した光を検出する検出部と、
上記検出部により検出された光を画像に変換する画像処理部と、
画像表示部と、
操作指令を入力する操作部と、
上記操作部から指令された感度しきい値設定画像領域を決定し、この感度しきい値設定画像領域をテンプレート画像とし、上記検査対象ウエハの画像領域とのパターンマッチングを行い、マッチング候補画像を取得し、取得した画像に基づいて、上記感度しきい値設定画像領域の感度しきい値を設定する動作制御部と、
上記動作制御部により設定された感度しきい値に基づいて、上記ウエハの外観検査を行う検査部と、
を備えることを特徴とするウエハ外観検査装置。 - 請求項3に記載のウエハ外観検査装置において、
上記動作制御部は、上記感度しきい値設定画像領域及び上記検査対象ウエハの画像領域を縮小し、縮小した上記感度しきい値設定画像領域をテンプレート画像とし、上記縮小した検査対象ウエハの画像領域とのパターンマッチングを行い、マッチング候補画像を取得し、取得したマッチング候補画像を縮小前の等倍画像に戻し、縮小前の上記検査対象ウエハの画像領域とのパターンマッチングを行い、マッチング候補画像を取得し、取得した画像に基づいて、上記感度しきい値設定画像領域の感度しきい値を設定することを特徴とするウエハ外観検査装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/889,986 US9972079B2 (en) | 2013-06-24 | 2014-04-28 | Wafer appearance inspection apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-131486 | 2013-06-24 | ||
JP2013131486A JP2015004641A (ja) | 2013-06-24 | 2013-06-24 | ウエハ外観検査装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014208193A1 true WO2014208193A1 (ja) | 2014-12-31 |
Family
ID=52141546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2014/061892 WO2014208193A1 (ja) | 2013-06-24 | 2014-04-28 | ウエハ外観検査装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9972079B2 (ja) |
JP (1) | JP2015004641A (ja) |
WO (1) | WO2014208193A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018078714A1 (ja) * | 2016-10-25 | 2018-05-03 | 富士機械製造株式会社 | 画像処理用部品形状データ作成システム及び画像処理用部品形状データ作成方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109964247B (zh) * | 2016-11-01 | 2023-05-05 | 株式会社富士 | 图像处理用元件形状数据生成系统及图像处理用元件形状数据生成方法 |
KR102650388B1 (ko) * | 2016-11-23 | 2024-03-25 | 삼성전자주식회사 | 검사 장치 및 그를 이용한 반도체 소자의 제조 방법 |
JP2022092727A (ja) * | 2020-12-11 | 2022-06-23 | 株式会社日立ハイテク | 観察装置のコンピュータシステムおよび処理方法 |
CN113920117B (zh) * | 2021-12-14 | 2022-02-22 | 成都数联云算科技有限公司 | 一种面板缺陷区域检测方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000124281A (ja) * | 1998-10-20 | 2000-04-28 | Hitachi Ltd | パターンサーチ方法及びパターンサーチ装置 |
JP2002323458A (ja) * | 2001-02-21 | 2002-11-08 | Hitachi Ltd | 電子回路パターンの欠陥検査管理システム,電子回路パターンの欠陥検査システム及び装置 |
JP2004226908A (ja) * | 2003-01-27 | 2004-08-12 | Kddi Corp | 画像表示装置およびそのプログラム |
JP2005223765A (ja) * | 2004-02-06 | 2005-08-18 | Canon Inc | 撮像装置及びその制御方法 |
JP2010522316A (ja) * | 2007-03-08 | 2010-07-01 | ケーエルエー−テンカー・コーポレーション | ウエハー上に形成されたダイに於けるアレイ領域の認識方法、ならびに係る方法の設定方法 |
JP2010283088A (ja) * | 2009-06-03 | 2010-12-16 | Hitachi High-Technologies Corp | ウェーハ外観検査装置 |
JP2012049503A (ja) * | 2010-07-27 | 2012-03-08 | Fujitsu Semiconductor Ltd | 半導体装置の検査装置及び半導体装置の検査方法 |
JP2014022662A (ja) * | 2012-07-20 | 2014-02-03 | Hitachi High-Technologies Corp | ウエハ外観検査装置及びウエハ外観検査装置における感度しきい値設定方法 |
-
2013
- 2013-06-24 JP JP2013131486A patent/JP2015004641A/ja active Pending
-
2014
- 2014-04-28 WO PCT/JP2014/061892 patent/WO2014208193A1/ja active Application Filing
- 2014-04-28 US US14/889,986 patent/US9972079B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000124281A (ja) * | 1998-10-20 | 2000-04-28 | Hitachi Ltd | パターンサーチ方法及びパターンサーチ装置 |
JP2002323458A (ja) * | 2001-02-21 | 2002-11-08 | Hitachi Ltd | 電子回路パターンの欠陥検査管理システム,電子回路パターンの欠陥検査システム及び装置 |
JP2004226908A (ja) * | 2003-01-27 | 2004-08-12 | Kddi Corp | 画像表示装置およびそのプログラム |
JP2005223765A (ja) * | 2004-02-06 | 2005-08-18 | Canon Inc | 撮像装置及びその制御方法 |
JP2010522316A (ja) * | 2007-03-08 | 2010-07-01 | ケーエルエー−テンカー・コーポレーション | ウエハー上に形成されたダイに於けるアレイ領域の認識方法、ならびに係る方法の設定方法 |
JP2010283088A (ja) * | 2009-06-03 | 2010-12-16 | Hitachi High-Technologies Corp | ウェーハ外観検査装置 |
JP2012049503A (ja) * | 2010-07-27 | 2012-03-08 | Fujitsu Semiconductor Ltd | 半導体装置の検査装置及び半導体装置の検査方法 |
JP2014022662A (ja) * | 2012-07-20 | 2014-02-03 | Hitachi High-Technologies Corp | ウエハ外観検査装置及びウエハ外観検査装置における感度しきい値設定方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018078714A1 (ja) * | 2016-10-25 | 2018-05-03 | 富士機械製造株式会社 | 画像処理用部品形状データ作成システム及び画像処理用部品形状データ作成方法 |
CN109844805A (zh) * | 2016-10-25 | 2019-06-04 | 株式会社富士 | 图像处理用元件形状数据生成系统及图像处理用元件形状数据生成方法 |
US10861199B2 (en) | 2016-10-25 | 2020-12-08 | Fuji Corporation | System for creating component shape data for image processing, and method for creating component shape data for image processing |
CN109844805B (zh) * | 2016-10-25 | 2023-06-23 | 株式会社富士 | 图像处理用元件形状数据生成系统及图像处理用元件形状数据生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160125590A1 (en) | 2016-05-05 |
JP2015004641A (ja) | 2015-01-08 |
US9972079B2 (en) | 2018-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101342203B1 (ko) | Sem을 이용한 결함 검사 방법 및 장치 | |
US8111902B2 (en) | Method and apparatus for inspecting defects of circuit patterns | |
US9865046B2 (en) | Defect inspection method and defect inspection device | |
JP5957378B2 (ja) | 欠陥観察方法および欠陥観察装置 | |
US9311697B2 (en) | Inspection method and device therefor | |
JP5948138B2 (ja) | 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム | |
KR101588367B1 (ko) | 하전 입자선 장치 | |
KR101479889B1 (ko) | 하전 입자선 장치 | |
WO2014208193A1 (ja) | ウエハ外観検査装置 | |
JP2004294358A (ja) | 欠陥検査方法および装置 | |
JP5018868B2 (ja) | 試料の観察方法およびその装置 | |
JP6049052B2 (ja) | ウエハ外観検査装置及びウエハ外観検査装置における感度しきい値設定方法 | |
JP2011222636A (ja) | 検査装置,検査方法、及び欠陥座標補正方法 | |
KR20120105149A (ko) | 평판패널 기판의 자동광학검사 방법 및 그 장치 | |
JP2009162718A (ja) | 基板検査装置および検査領域設定方法 | |
JP2011220735A (ja) | 走査電子顕微鏡 | |
JP2018091771A (ja) | 検査方法、事前画像選別装置及び検査システム | |
JP5615252B2 (ja) | 外観検査装置 | |
JP5374225B2 (ja) | ウェハ検査条件決定方法、ウェハ検査条件決定システム及びウェハ検査システム | |
JP2015099062A (ja) | パターン外観検査装置 | |
JP2011185715A (ja) | 検査装置及び検査方法 | |
JP5039594B2 (ja) | レビュー装置,検査領域設定支援システム、および、欠陥の画像得方法 | |
JP2006074065A (ja) | 試料の検査装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14817109 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14889986 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 14817109 Country of ref document: EP Kind code of ref document: A1 |