KR102575268B1 - Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence - Google Patents
Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence Download PDFInfo
- Publication number
- KR102575268B1 KR102575268B1 KR1020220153691A KR20220153691A KR102575268B1 KR 102575268 B1 KR102575268 B1 KR 102575268B1 KR 1020220153691 A KR1020220153691 A KR 1020220153691A KR 20220153691 A KR20220153691 A KR 20220153691A KR 102575268 B1 KR102575268 B1 KR 102575268B1
- Authority
- KR
- South Korea
- Prior art keywords
- wafer
- height
- image
- stage
- obtaining
- Prior art date
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013473 artificial intelligence Methods 0.000 title abstract description 5
- 238000013135 deep learning Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 239000003550 marker Substances 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 abstract description 4
- 239000000126 substance Substances 0.000 abstract description 4
- 235000012431 wafers Nutrition 0.000 description 153
- 238000012549 training Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/06—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
- G01B11/0608—Height gauges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9501—Semiconductor wafers
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L22/00—Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
- H01L22/10—Measuring as part of the manufacturing process
- H01L22/12—Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L22/00—Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
- H01L22/20—Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Power Engineering (AREA)
- Biochemistry (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
본 개시(disclosure)의 기술적 사상은 웨이퍼의 비전 검사 장치 및 방법에 관한 것으로, 특히 인공지능 기반의 정밀 오토포커스 기능을 갖는 웨이퍼 비전 검사 장치 및 방법에 관한 것이다.The technical concept of the present disclosure relates to a wafer vision inspection apparatus and method, and particularly to a wafer vision inspection apparatus and method having an artificial intelligence-based precise autofocus function.
반도체의 제조 공정은 크게 웨이퍼 상에 반도체 집적회로(다이)를 형성하는 전공정과, 다이가 형성된 웨이퍼를 검사하고 패키징하여 반도체 칩을 형성하는 후공정으로 구분될 수 있다. 이 중 검사 공정은 다이가 형성된 웨이퍼의 외관(비전) 검사 및 전기적 검사를 수행하는 공정에 해당할 수 있다.A semiconductor manufacturing process can be largely divided into a pre-process of forming a semiconductor integrated circuit (die) on a wafer and a post-process of forming a semiconductor chip by inspecting and packaging the wafer on which the die is formed. Among them, the inspection process may correspond to a process of performing a visual (vision) inspection and an electrical inspection of a wafer on which dies are formed.
반도체 제조 공정이 지속적으로 미세화됨에 따라, 웨이퍼에 존재하는 미세한 결함이나 외부로부터 제공된 먼지 등의 이물이 다이의 성능에 미치는 영향이 증가할 수 있다. 이에 따라, 웨이퍼 비전 검사에 사용되는 장치는 미세한 결함이나 이물을 정확히 탐지하여 웨이퍼 상의 다이 각각에 대한 양불 판정을 수행할 수 있도록 구현되어야 한다.As the semiconductor manufacturing process continues to be miniaturized, the influence of fine defects on the wafer or foreign matter such as dust provided from the outside may increase. Accordingly, a device used for wafer vision inspection must be implemented to accurately detect fine defects or foreign materials and perform pass/fail determination on each die on the wafer.
웨이퍼 비전 검사 장치는, 다이가 형성된 웨이퍼가 스테이지 상에 로드(및 흡착)되면, 카메라를 이용하여 웨이퍼의 이미지를 획득하고, 획득된 이미지로부터 웨이퍼 상의 다이들 각각에 대한 외관 검사를 수행할 수 있다. 이 때, 스테이지면의 불균일성이 존재하거나 변형이 발생할 경우, 카메라와 스테이지면 사이의 거리(높이)가 위치에 따라 상이할 수 있다. 이러한 거리 차이는 카메라의 포커스 어긋남을 발생하여 이미지의 선명도를 저하시킬 수 있다. 또한, 웨이퍼들 사이에도 높이(두께) 편차가 존재할 수 있는 바, 이러한 높이 편차 또한 이미지의 선명도를 저하시키는 원인이 될 수 있다. When a wafer on which dies are formed is loaded (and adsorbed) onto a stage, the wafer vision inspection apparatus acquires an image of the wafer using a camera, and performs a visual inspection of each of the dies on the wafer from the obtained image. . At this time, when there is non-uniformity or deformation of the stage surface, the distance (height) between the camera and the stage surface may be different depending on the position. Such a distance difference may cause the camera to be out of focus, thereby degrading the sharpness of the image. In addition, a height (thickness) deviation may exist between wafers, and such height deviation may also cause deterioration of sharpness of an image.
본 발명이 해결하고자 하는 일 과제는, 다이가 형성된 웨이퍼의 각 위치에 대해 선명한 이미지를 획득할 수 있는 웨이퍼 검사 장치 및 방법을 제공하는 것이다.One problem to be solved by the present invention is to provide a wafer inspection apparatus and method capable of obtaining clear images for each position of a wafer on which dies are formed.
상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상에 의한 일 양태(aspect)에 따른 웨이퍼 비전 검사 장치의 검사 방법은, 스테이지에 대한 높이 분포 정보를 획득하는 단계; 상기 스테이지에 웨이퍼가 로드되면, 로드된 웨이퍼에 대한 높이 추정값을 획득하는 단계; 획득된 높이 분포 정보 및 높이 추정값에 기초하여, 상기 웨이퍼 비전 검사 장치의 카메라의 촬상 위치별로 상기 카메라의 포커스 위치를 조정하면서 검사 이미지를 획득하는 단계; 및 획득된 검사 이미지에 기초하여 상기 웨이퍼의 비전 검사를 수행하는 단계를 포함하고, 상기 로드된 웨이퍼에 대한 높이 추정값을 획득하는 단계는, 상기 웨이퍼 내의 기 설정된 위치를 중심으로 하는 이미지를 획득하는 단계; 및 획득된 이미지를 딥러닝 기반의 웨이퍼 높이 추정 모델로 입력하고, 상기 웨이퍼 높이 추정 모델로부터 출력되는 상기 높이 추정값을 획득하는 단계를 포함한다.In order to achieve the above object, an inspection method of a wafer vision inspection apparatus according to an aspect according to the technical spirit of the present disclosure includes obtaining height distribution information for a stage; obtaining a height estimation value for the loaded wafer when a wafer is loaded on the stage; obtaining an inspection image while adjusting a focus position of the camera for each imaging position of the camera of the wafer vision inspection apparatus, based on the acquired height distribution information and the height estimation value; and performing a vision inspection of the wafer based on the acquired inspection image, wherein obtaining a height estimation value for the loaded wafer includes obtaining an image centered on a preset position in the wafer. ; and inputting the obtained image to a deep learning-based wafer height estimation model, and acquiring the height estimation value output from the wafer height estimation model.
일 실시 예에 따라, 상기 웨이퍼 높이 추정 모델은 입력된 이미지의 표준편차 및 밝기 값을 기초로, 상기 웨이퍼의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함할 수 있다.According to an embodiment, the wafer height estimation model may include at least one artificial neural network trained to output a height estimation value of the wafer based on the standard deviation and brightness values of the input image.
일 실시 예에 따라, 상기 웨이퍼 높이 추정 모델은, 학습용 이미지, 상기 학습용 이미지의 표준편차 및 밝기 값, 및 상기 학습용 이미지의 포커스 위치 정보를 기초로 상기 학습용 이미지에 해당하는 웨이퍼의 높이 추정값을 출력하고, 출력된 높이 추정값을 상기 학습용 이미지의 정답 높이값과 비교하고, 비교 결과에 기초하여 상기 적어도 하나의 인공신경망 내 노드의 가중치를 업데이트함으로써 학습될 수 있다.According to an embodiment, the wafer height estimation model outputs a height estimate value of a wafer corresponding to the training image based on a training image, standard deviation and brightness values of the training image, and focus position information of the training image, and , It can be learned by comparing the output height estimation value with the correct height value of the learning image, and updating the weight of the node in the at least one artificial neural network based on the comparison result.
일 실시 예에 따라, 상기 높이 분포 정보를 획득하는 단계는, 상기 스테이지 내의 복수의 포인트 각각에 대한 이미지를 획득하는 단계; 획득된 복수의 이미지 각각을 딥러닝 기반의 스테이지 표면 높이 추정 모델로 입력하는 단계; 및 상기 스테이지 표면 높이 추정 모델로부터 출력되는 상기 복수의 이미지 각각의 높이 추정값을 이용하여 상기 높이 분포 정보를 획득하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the height distribution information may include acquiring an image of each of a plurality of points in the stage; inputting each of the obtained plurality of images into a stage surface height estimation model based on deep learning; and obtaining the height distribution information using a height estimation value of each of the plurality of images output from the stage surface height estimation model.
일 실시 예에 따라, 상기 스테이지 표면 높이 추정 모델은, 입력된 이미지 중 마커를 포함하는 일부 영역의 표준편차 및 밝기 값을 기초로, 상기 마커에 대응하는 스테이지 표면의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함할 수 있다.According to an embodiment, the stage surface height estimation model is trained to output an estimated height of the stage surface corresponding to the marker based on standard deviation and brightness values of a partial area including the marker in the input image. It may include one artificial neural network.
일 실시 예에 따라, 상기 복수의 이미지 각각의 높이 추정값을 이용하여 상기 높이 분포 정보를 획득하는 단계는, 상기 높이 추정값을 이용하여, 상기 복수의 포인트 각각에 대한 표면 높이 값을 획득하는 단계; 상기 복수의 포인트 이외의 위치들 각각에 대해, 인접한 포인트들의 상기 표면 높이 값들을 이용한 보간을 통해 표면 높이 값을 획득하는 단계; 및 획득된 표면 높이 값들을 포함하는 상기 높이 분포 정보를 획득하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the height distribution information by using the height estimation value of each of the plurality of images may include: obtaining a surface height value for each of the plurality of points by using the height estimation value; obtaining a surface height value for each of positions other than the plurality of points through interpolation using the surface height values of adjacent points; and obtaining the height distribution information including the obtained surface height values.
일 실시 예에 따라, 상기 검사 이미지를 획득하는 단계는, 상기 높이 분포 정보 및 높이 추정값에 기초하여, 상기 카메라의 촬상 위치 각각에 대한 포커스 조정 정보를 획득하는 단계; 획득된 포커스 조정 정보에 기초하여 상기 카메라의 촬상 위치별로 포커스 위치를 조정하는 단계; 및 상기 카메라의 촬상 위치 각각에 대한 부분 이미지를 획득하고, 획득된 부분 이미지들에 기초하여 상기 웨이퍼의 검사 이미지를 획득하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the inspection image may include obtaining focus adjustment information for each imaging position of the camera based on the height distribution information and the height estimation value; adjusting a focus position for each imaging position of the camera based on the acquired focus adjustment information; and acquiring partial images for each imaging position of the camera, and obtaining an inspection image of the wafer based on the obtained partial images.
본 개시의 기술적 사상에 의한 일 양태에 따른 웨이퍼 비전 검사 장치는, 검사할 웨이퍼가 로드되는 스테이지; 상기 스테이지의 일 면을 향하도록 배치되어, 상기 스테이지 또는 상기 웨이퍼의 일부 영역을 포함하는 이미지를 획득하는 카메라; 상기 카메라의 포커스 위치를 조정하는 포커스 위치 조정부; 상기 카메라를 상기 스테이지의 표면과 나란한 방향으로 상대적 이동시키는 카메라 위치 이동부; 적어도 하나의 프로세서를 포함하는 제어부; 및 메모리를 포함하고, 상기 제어부는, 상기 웨이퍼의 로드 전, 상기 카메라를 이용하여 상기 스테이지 내의 복수의 포인트 각각에 대한 이미지를 획득하고, 획득된 복수의 이미지 각각을 딥러닝 기반의 스테이지 표면 높이 추정 모델로 입력하고, 상기 스테이지 표면 높이 추정 모델로부터 출력되는 상기 복수의 이미지 각각의 높이 추정값을 이용하여, 상기 스테이지의 표면에 대한 높이 분포 정보를 획득한다.A wafer vision inspection apparatus according to an aspect of the present disclosure includes a stage on which a wafer to be inspected is loaded; a camera disposed facing one surface of the stage to acquire an image including a partial area of the stage or the wafer; a focus position adjusting unit adjusting a focus position of the camera; a camera position moving unit that relatively moves the camera in a direction parallel to the surface of the stage; a controller including at least one processor; and a memory, wherein the control unit acquires an image of each of a plurality of points in the stage using the camera before loading the wafer, and estimates the stage surface height based on deep learning for each of the obtained plurality of images. Height distribution information on the surface of the stage is obtained by using a height estimation value of each of the plurality of images that is input to the model and output from the stage surface height estimation model.
본 개시의 기술적 사상에 따르면, 웨이퍼 비전 검사 장치는 웨이퍼가 놓이는 스테이지의 높이 분포 정보와, 웨이퍼의 높이(두께)를 나타내는 높이 추정값을 기초로 카메라의 포커스 위치를 자동 조정함으로써, 웨이퍼에 대한 보다 선명한 고품질의 검사 이미지를 획득할 수 있다. 웨이퍼 비전 검사 장치는 획득된 고품질의 검사 이미지를 이용하여 웨이퍼의 미세 결함이나 이물 등을 검출함으로써 검사 정확도를 향상시킬 수 있다.According to the technical idea of the present disclosure, the wafer vision inspection apparatus automatically adjusts the focus position of a camera based on height distribution information of a stage on which a wafer is placed and a height estimation value representing the height (thickness) of the wafer, thereby providing a clearer view of the wafer. High-quality inspection images can be acquired. The wafer vision inspection apparatus can improve inspection accuracy by detecting micro-defects or foreign substances on the wafer using the acquired high-quality inspection image.
또한, 웨이퍼 비전 검사 장치는 인공지능(딥러닝) 기반의 스테이지 표면 높이 추정 모델과 웨이퍼 높이 추정 모델을 이용하여, 카메라로부터 획득된 이미지만으로 상기 높이 분포 정보와 높이 추정값을 획득할 수 있으므로, 종래에 비해 포커스 탐색 및 조정 과정에서의 리소스 절감 및 속도 향상을 가능하게 한다.In addition, since the wafer vision inspection apparatus can acquire the height distribution information and the height estimation value only with an image obtained from a camera using an artificial intelligence (deep learning)-based stage surface height estimation model and a wafer height estimation model, Compared to this, it enables resource saving and speed improvement in the focus search and adjustment process.
본 개시의 기술적 사상에 따른 웨이퍼 비전 검사 장치 및 방법이 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects that can be obtained by the wafer vision inspection apparatus and method according to the technical idea of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned are common in the art to which the present invention belongs from the description below. It will be clearly understood by those who have knowledge.
본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 웨이퍼 비전 검사 장치가 스테이지에 로드된 웨이퍼에 대한 검사 이미지를 획득하는 과정을 개략적으로 나타낸 도면이다.
도 2는 본 개시의 예시적 실시 예에 따른 웨이퍼 비전 검사 장치의 제어 구성을 개략적으로 나타낸 블록도이다.
도 3은 본 개시의 예시적 실시 예에 따른 웨이퍼 비전 검사 방법을 설명하기 위한 플로우차트이다.
도 4는 도 3의 S300 단계에 대한 구체적인 일 실시 예를 설명하기 위한 플로우차트이다.
도 5는 도 4에 도시된 실시 예를 설명하기 위한 예시도이다.
도 6은 도 3의 S320 단계에 대한 구체적인 일 실시 예를 설명하기 위한 플로우차트이다.
도 7은 도 6에 도시된 실시 예를 설명하기 위한 예시도이다.
도 8은 본 개시의 실시 예에 따라 획득된 높이 분포 정보 및 높이 추정값을 이용한 오토포커스 제어 및 검사 이미지를 획득하는 동작을 설명하기 위한 예시도이다.A brief description of each figure is provided in order to more fully understand the figures cited in this disclosure.
1 is a diagram schematically illustrating a process in which a wafer vision inspection apparatus acquires an inspection image of a wafer loaded on a stage.
2 is a block diagram schematically illustrating a control configuration of a wafer vision inspection apparatus according to an exemplary embodiment of the present disclosure.
3 is a flowchart illustrating a wafer vision inspection method according to an exemplary embodiment of the present disclosure.
FIG. 4 is a flowchart for explaining a specific embodiment of step S300 of FIG. 3 .
FIG. 5 is an exemplary diagram for explaining the embodiment shown in FIG. 4 .
6 is a flowchart for explaining a specific embodiment of step S320 of FIG. 3 .
FIG. 7 is an exemplary diagram for explaining the embodiment shown in FIG. 6 .
8 is an exemplary diagram for explaining an operation of obtaining an inspection image and controlling autofocus using height distribution information and a height estimation value obtained according to an embodiment of the present disclosure.
본 개시의 기술적 사상에 따른 예시적인 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 개시의 기술적 사상을 더욱 완전하게 설명하기 위하여 제공되는 것으로, 아래의 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 아래의 실시예들로 한정되는 것은 아니다. 오히려, 이들 실시예들은 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.Exemplary embodiments according to the technical idea of the present disclosure are provided to more completely explain the technical idea of the present disclosure to those skilled in the art, and the following embodiments are modified in various forms. It may be, and the scope of the technical idea of the present disclosure is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the spirit of the invention to those skilled in the art.
본 개시에서 제1, 제2 등의 용어가 다양한 부재, 영역, 층들, 부위 및/또는 구성 요소들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들, 부위 및/또는 구성 요소들은 이들 용어에 의해 한정되어서는 안 됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역, 부위, 또는 구성 요소를 다른 부재, 영역, 부위 또는 구성 요소와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역, 부위 또는 구성 요소는 본 개시의 기술적 사상의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역, 부위 또는 구성 요소를 지칭할 수 있다. 예를 들면, 본 개시의 권리 범위로부터 이탈되지 않은 채 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Although terms such as first and second are used in this disclosure to describe various members, regions, layers, regions and/or components, these members, parts, regions, layers, regions and/or components do not refer to these terms. It is self-evident that it should not be limited by These terms do not imply any particular order, top or bottom, or superiority or inferiority, and are used only to distinguish one member, region, region, or component from another member, region, region, or component. Accordingly, a first member, region, region, or component to be described in detail below may refer to a second member, region, region, or component without departing from the teachings of the technical concept of the present disclosure. For example, a first element may be termed a second element, and similarly, the second element may be termed a first element, without departing from the scope of the present disclosure.
달리 정의되지 않는 한, 여기에 사용되는 모든 용어들은 기술 용어와 과학 용어를 포함하여 본 개시의 개념이 속하는 기술 분야에서 통상의 지식을 가진 자가 공통적으로 이해하고 있는 바와 동일한 의미를 지닌다. 또한, 통상적으로 사용되는, 사전에 정의된 바와 같은 용어들은 관련되는 기술의 맥락에서 이들이 의미하는 바와 일관되는 의미를 갖는 것으로 해석되어야 하며, 여기에 명시적으로 정의하지 않는 한 과도하게 형식적인 의미로 해석되어서는 아니 될 것이다.Unless defined otherwise, all terms used herein, including technical terms and scientific terms, have the same meaning as commonly understood by those of ordinary skill in the art to which the concepts of the present disclosure belong. In addition, commonly used terms as defined in the dictionary should be interpreted as having a meaning consistent with what they mean in the context of the technology to which they relate, and in an overly formal sense unless explicitly defined herein. will not be interpreted.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들면, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 수행될 수도 있다.When an embodiment is otherwise implementable, a specific process sequence may be performed differently from the described sequence. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order reverse to the order described.
첨부한 도면에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 개시의 기술적 사상에 의한 실시예들은 본 개시에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면, 제조 과정에서 초래되는 형상의 변화를 포함하여야 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고, 이들에 대한 중복된 설명은 생략한다.In the accompanying drawings, variations of the shapes shown may be expected, eg depending on manufacturing techniques and/or tolerances. Therefore, embodiments according to the technical idea of the present disclosure should not be construed as being limited to the specific shape of the region shown in the present disclosure, and should include, for example, a change in shape resulting from a manufacturing process. The same reference numerals are used for the same components in the drawings, and duplicate descriptions thereof are omitted.
여기에서 사용된 '및/또는' 용어는 언급된 부재들의 각각 및 하나 이상의 모든 조합을 포함한다.The term 'and/or' as used herein includes each and every combination of one or more of the recited elements.
이하에서는 첨부한 도면들을 참조하여 본 개시의 기술적 사상에 의한 실시예들에 대해 상세히 설명한다.Hereinafter, embodiments according to the technical idea of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 웨이퍼 비전 검사 장치가 스테이지에 로드된 웨이퍼에 대한 검사 이미지를 획득하는 과정을 개략적으로 나타낸 도면이다.1 is a diagram schematically illustrating a process in which a wafer vision inspection apparatus acquires an inspection image of a wafer loaded on a stage.
도 1을 참조하면, 웨이퍼 비전 검사 장치는 스테이지(101) 상에 웨이퍼(10)가 로드되면, 카메라(110)를 이용하여 상기 로드된 웨이퍼(10)의 표면(예컨대 상면)에 형성된 다이(30)를 포함하는 검사 이미지를 획득할 수 있다. 웨이퍼 비전 검사 장치는 획득된 검사 이미지를 이용하여 다이(30) 각각에 대한 비전 검사를 수행할 수 있다. Referring to FIG. 1 , when a
한편, 다이(30)에 형성된 회로 패턴이나, 웨이퍼(10)의 미세 결함, 이물 등은 크기가 매우 작으므로, 카메라(110)는 선명한 검사 이미지를 획득하기 위해서는 웨이퍼(10)의 표면에 대한 포커스 위치를 정밀하게 조정할 필요가 있다.Meanwhile, since circuit patterns formed on the
한편, 웨이퍼(10)가 로드되어 안착(및 흡착)되는 스테이지(101)의 표면은, 스테이지 제조 공정 상에서 발생하는 불균일이나 편차, 또는 외부의 영향에 따른 변형 등에 의해 지면 또는 기준면으로부터의 높이가 위치별로 상이할 수 있다. 예컨대 도 1의 예시도와 같이, 스테이지(101)의 제1 위치에 대응하는 표면의 높이(H1)와, 제2 위치에 대응하는 표면의 높이(H2)는 상이할 수 있다.On the other hand, the surface of the
스테이지(101)의 표면 높이가 위치별로 상이함에 따라, 스테이지(101) 상에 로드되는 웨이퍼(10)의 표면 높이 또한 위치별로 달라질 수 있다. 이 경우, 제1 위치의 다이(30a)와 카메라(110) 사이의 거리(D1)와, 제2 위치의 다이(30b)와 카메라(110) 사이의 거리(D2) 또한 상이할 수 있다.As the surface height of the
카메라(110)와의 거리가 다이별로 상이하고 카메라(110)의 포커스 위치가 고정되어 있을 경우, 카메라(110)에 의해 획득되는 검사 이미지들 중 일부는 포커스가 어긋남에 따라 선명도가 저하되며, 해당 검사 이미지를 이용한 검사 정확도가 저하될 수 있다. 또한, 웨이퍼들 간에도 높이(두께) 편차가 존재할 수 있으며, 이러한 높이 편차로 인해 검사 이미지들 중 일부의 선명도 저하가 발생할 수 있다.When the distance from the
이를 해소하기 위해, 본 개시의 실시 예에 따른 웨이퍼 비전 검사 장치는 카메라(110)로부터 획득되는 이미지들을 이용하여 스테이지(101)의 위치별 높이 분포 정보를 획득하고, 웨이퍼(10) 간의 높이 편차를 보정하기 위한 높이 추정값을 획득할 수 있다. 웨이퍼 비전 검사 장치는 획득된 높이 분포 정보 및 높이 추정값을 이용하여 카메라(110)의 포커스를 정밀하게 조정함으로써 선명한 검사 이미지를 획득할 수 있다. In order to solve this problem, the wafer vision inspection apparatus according to an embodiment of the present disclosure obtains height distribution information for each position of the
이하 도면들을 참조하여 본 개시의 실시 예에 따른 웨이퍼 비전 검사 장치 및 방법에 대해 상세히 설명하기로 한다.A wafer vision inspection apparatus and method according to an embodiment of the present disclosure will be described in detail with reference to the following drawings.
도 2는 본 개시의 예시적 실시 예에 따른 웨이퍼 비전 검사 장치의 제어 구성을 개략적으로 나타낸 블록도이다.2 is a block diagram schematically illustrating a control configuration of a wafer vision inspection apparatus according to an exemplary embodiment of the present disclosure.
도 2를 참조하면, 웨이퍼 비전 검사 장치(100)는 카메라(110), 포커스 위치 조정부(120), 카메라 위치 이동부(130), 광원(140), 입력부(150), 출력부(160), 메모리(170), 및 제어부(180)를 포함할 수 있다. 도 2에 도시된 웨이퍼 비전 검사 장치(100)의 구성은 설명의 편의를 위한 일례로서, 웨이퍼 비전 검사 장치(100)는 도 2에 도시된 구성 중 일부를 구비하지 않을 수도 있고, 도 2의 구성 외에 추가적인 구성들을 더 포함할 수도 있다.Referring to FIG. 2 , the wafer
카메라(110)는 스테이지(101)의 일 면을 향하도록 배치되어, 스테이지(101) 또는 스테이지(101)로 로드된 웨이퍼(10)의 소정 영역을 포함하는 이미지를 획득할 수 있다. 예컨대, 카메라(110)는 스테이지(101)의 상측에 배치되어 스테이지(101)의 상면을 향할 수 있다. 이러한 카메라(110)는 라인스캔(line scan) 카메라 또는 에어리어 스캔(area scan) 카메라로 구현될 수 있다.The
포커스 위치 조정부(120)는 카메라(110)의 포커스 위치를 조정하기 위한 구성에 해당한다. 예컨대, 포커스 위치 조정부(120)는 카메라(110)와 스테이지(101) 사이의 거리를 조절함으로써 포커스 위치를 조정하는 구성으로서, 카메라(110)의 높이를 조절하기 위한 장치(모터 등) 또는 스테이지(101)의 높이를 조절하기 위한 장치(모터 등)를 포함할 수 있다. 실시 예에 따라, 포커스 위치 조정부(120)는 카메라(110)와 렌즈(미도시) 사이의 거리를 조절함으로써 포커스 위치를 조정하는 장치에 해당할 수도 있다. The focus
카메라 위치 이동부(130)는 카메라(110)를 스테이지(101) 또는 웨이퍼(10)의 표면과 거의 평행한 방향으로 상대 이동시키는 구성으로서, 적어도 하나의 모터나 레일 등과 같은 이동 기구를 포함할 수 있다. 예컨대 스테이지(101) 또는 웨이퍼(10)의 표면이 x축 및 y축을 포함하는 평면(xy 평면)에 해당할 경우, 카메라 위치 이동부(130)는 카메라(110)를 x축 및 y축 방향으로 이동시킬 수 있다. 카메라(110)는 카메라 위치 이동부(130)에 의해 스테이지(101) 또는 웨이퍼(10)에 대해 상대적으로 이동하면서 영역별 이미지를 획득하고, 제어부(180)는 획득된 영역별 이미지를 결합하여 스테이지(101) 또는 웨이퍼(10)의 전체 이미지를 획득할 수 있다.The camera
광원(140)은 카메라(110)의 이미지 획득 시 충분한 광량을 제공하기 위해, 스테이지(101)의 표면(예컨대 상면) 측으로 광을 조사하도록 배치될 수 있다. 이러한 광원(140)은 적어도 하나의 LED를 포함할 수 있다. The
입력부(150)는 웨이퍼 비전 검사 장치(100)의 관리자 등으로부터 웨이퍼(10)의 검사 동작(검사 개시/종료, 검사 결과 확인 등)과 관련된 입력을 수신하기 위한 구성으로서, 기 공지된 다양한 입력 수단을 포함할 수 있다. 출력부(160)는 웨이퍼 비전 검사 장치(100)의 동작 상태, 검사 결과, 또는 카메라(110)에 의해 획득된 검사 이미지 등의 다양한 정보를 출력하는 구성으로서, 디스플레이 등의 공지된 출력 수단을 포함할 수 있다.The
메모리(170)는 웨이퍼 비전 검사 장치(100)의 동작과 관련된 명령어, 데이터, 알고리즘, 상기 상면 이미지 및 하면 이미지, 검사 결과 데이터 등을 저장하는 적어도 하나의 휘발성/비휘발성 메모리를 포함할 수 있다.The
제어부(180)는 웨이퍼 비전 검사 장치(100)에 포함된 구성들의 전반적인 동작을 제어하는 하나 이상의 프로세서를 포함할 수 있다. 상기 하나 이상의 프로세서는 CPU, MCU, AP(application processor), GPU, FPGA, ASIC 등의 하드웨어로 구현될 수 있다. 한편, 제어부(180)는 이하 도 3 내지 도 8에서 후술할 본 개시의 실시 예에 따른 웨이퍼 비전 검사 방법의 전반적인 동작을 제어할 수 있다.The
도 3은 본 개시의 예시적 실시 예에 따른 웨이퍼 비전 검사 방법을 설명하기 위한 플로우차트이다. 도 4는 도 3의 S300 단계에 대한 구체적인 일 실시 예를 설명하기 위한 플로우차트이다. 도 5는 도 4에 도시된 실시 예를 설명하기 위한 예시도이다. 도 6은 도 3의 S320 단계에 대한 구체적인 일 실시 예를 설명하기 위한 플로우차트이다. 도 7은 도 6에 도시된 실시 예를 설명하기 위한 예시도이다. 도 8은 본 개시의 실시 예에 따라 획득된 높이 분포 정보 및 높이 보정값을 이용한 오토포커스 제어 및 검사 이미지를 획득하는 동작을 설명하기 위한 예시도이다.3 is a flowchart illustrating a wafer vision inspection method according to an exemplary embodiment of the present disclosure. FIG. 4 is a flowchart for explaining a specific embodiment of step S300 of FIG. 3 . FIG. 5 is an exemplary diagram for explaining the embodiment shown in FIG. 4 . 6 is a flowchart for explaining a specific embodiment of step S320 of FIG. 3 . FIG. 7 is an exemplary view for explaining the embodiment shown in FIG. 6 . 8 is an exemplary diagram for explaining an operation of acquiring an inspection image and controlling autofocus using height distribution information and a height correction value obtained according to an embodiment of the present disclosure.
도 3을 참조하면, 웨이퍼 비전 검사 장치(100)는 웨이퍼(10)가 스테이지(101)에 로드되기 전, 스테이지(101)의 높이 분포 정보를 획득할 수 있다(S300).Referring to FIG. 3 , the wafer
상술한 바와 같이 스테이지(101)의 표면은 제조 공정 상의 불균일이나 편차, 외부의 영향에 따른 변형 등에 의해 기준면으로부터의 높이가 위치별로 상이할 수 있다. 따라서, 웨이퍼 비전 검사 장치(100)는 웨이퍼(10)가 로드되기 전 스테이지(101)의 위치별 높이 분포 정보를 먼저 획득할 수 있다. 예컨대, 높이 분포 정보는 스테이지(101) 표면에 대해 설정된 복수의 좌표들 각각에 대한 높이 값을 갖는 테이블 형태로 저장될 수 있으나, 이에 한정되는 것은 아니고 x 좌표 및 y 좌표를 변수로 갖는 함수 등 다양한 형태로 저장될 수도 있다.As described above, the surface of the
한편, 웨이퍼 비전 검사 장치(100)는 별도의 추가적인 센서를 구비하지 않고 카메라(110)를 통해 획득되는 이미지를 이용하여 스테이지(101)의 높이 분포 정보를 획득함으로써, 장치의 효율적인 구성을 가능하게 한다.Meanwhile, the wafer
이와 관련한 구체적 실시 예로서 도 4 및 도 5를 참조하면, 웨이퍼 비전 검사 장치(100)는 스테이지(101) 내의 복수의 포인트 각각에 대한 이미지를 획득할 수 있다(S400).Referring to FIGS. 4 and 5 as specific examples related to this, the wafer
스테이지(101) 내의 복수의 포인트들은 소정 간격에 따라 이격된 기 정의된 좌표들에 해당할 수 있다. 제어부(180)는 상기 복수의 포인트들 각각을 중심으로 하는 이미지를 획득하기 위해, 카메라 위치 이동부(130)를 제어하여 카메라(110)의 위치를 상기 복수의 포인트들 각각에 따라 순차적으로 이동시키면서 이미지를 획득할 수 있다. 이 때, 카메라(110)의 포커스 위치는 기 설정된 기준 포커스 위치로 고정된 상태일 수 있고, 메모리(170)에는 상기 기준 포커스 위치에 대응하는 스테이지(101)의 표면 높이 정보가 저장되어 있을 수 있다.A plurality of points in the
실시 예에 따라, 상기 복수의 포인트 각각에는 마커(501)가 형성되어 있을 수 있다. 마커(501)는 스테이지(101)의 표면에 직접 형성된 것이거나, 스테이지(101) 상에 마커(501)가 형성된 별도의 플레이트(글라스 등)가 로드된 것일 수 있다. Depending on the embodiment, a marker 501 may be formed at each of the plurality of points. The marker 501 may be directly formed on the surface of the
마커(501)가 스테이지(101)의 표면에 직접 형성되는 경우, 마커(501)는 웨이퍼(10)의 검사 이미지에 표시되지 않을 필요가 있다. 예컨대, 마커(501)는 UV 기능성 잉크와 같이 UV 광이 조사될 때 색상이 표현되는 형태의 물질로 구현될 수 있고, 이 경우 광원(140)은 UV 광원을 포함할 수 있다.When the marker 501 is directly formed on the surface of the
획득된 복수의 이미지는, 포커스 위치와 스테이지 표면의 일치 여부에 따라 선명도가 달라질 수 있다. 이미지의 선명도가 기준 선명도 이상인 경우에는 포커스 위치와 스테이지 표면이 일치하는 것으로 판단할 수 있으며, 해당 포인트의 스테이지 표면 높이는 상기 기준 포커스 위치에 대응하는 높이인 것으로 판단할 수 있다. The plurality of acquired images may have different sharpness depending on whether the focus position matches the surface of the stage. When the sharpness of the image is greater than or equal to the reference sharpness, it may be determined that the focus position coincides with the stage surface, and the height of the stage surface at the corresponding point may be determined to be a height corresponding to the reference focus position.
반면, 이미지의 선명도가 기준 선명도 미만임은 포커스 위치와 스테이지 표면이 일치하지 않음을 의미한다. 이미지를 기초로 포커스 위치를 조정하는 종래의 방식들은, 포커스 위치를 어느 방향으로 조정하여야 할 것인지 정확히 판단하지 못하는 문제가 존재하며, 포커스 위치를 조정시키면서 재차 이미지를 획득함으로써 정확한 포커스 위치를 판단하는 바 비효율적인 측면이 존재한다.On the other hand, if the sharpness of the image is less than the standard sharpness, it means that the focus position and the stage surface do not match. Conventional methods of adjusting the focus position based on the image have a problem of not accurately determining in which direction the focus position should be adjusted, and the correct focus position is determined by acquiring the image again while adjusting the focus position. There are inefficient aspects.
도 4 내지 도 5를 계속 참조하면, 웨이퍼 비전 검사 장치(100)는 획득된 복수의 이미지 각각을 스테이지 표면 높이 추정 모델(520)로 입력할 수 있다(S410). 웨이퍼 비전 검사 장치(100)는 스테이지 표면 높이 추정 모델로부터 출력되는 높이 추정값들을 이용하여, 스테이지(101)의 높이 분포 정보를 획득할 수 있다(S420).Referring to FIGS. 4 to 5 , the wafer
스테이지 표면 높이 추정 모델(520)은 입력된 이미지로부터 스테이지 표면의 높이를 추정하여 제공하기 위한 딥러닝 기반의 모델에 해당할 수 있다. 예컨대 스테이지 표면 높이 추정 모델(520)은 CNN(convolutional neural network)을 포함할 수 있으나 이에 한정되는 것은 아니며 다양한 유형의 인공신경망을 하나 이상 포함할 수 있다. The stage surface height estimation model 520 may correspond to a deep learning-based model for estimating and providing the stage surface height from an input image. For example, the stage surface height estimation model 520 may include, but is not limited to, a convolutional neural network (CNN), and may include one or more artificial neural networks of various types.
구체적으로, 스테이지 표면 높이 추정 모델(520)은, 입력된 이미지 중 마커(501)를 포함하는 영역의 표준편차(image contrast) 및 밝기값(brightness)을 기초로, 마커(501)가 표시된 위치의 스테이지 표면 높이를 추정하도록 구현될 수 있다. 상기 표준편차는 이미지(마커)의 선명도와 관련되는 값으로서, 스테이지 표면 높이와 포커스 위치 간의 차이(절대값)과 관련될 수 있으며, 상기 밝기값은 스테이지 표면과 카메라(110) 간의 거리와 관련될 수 있다. 따라서, 이미지로부터 스테이지 표면의 높이를 추정하기 위해서는 표준편차뿐만 아니라 밝기값까지 고려되어야 한다.Specifically, the stage surface height estimation model 520 is based on the standard deviation (image contrast) and brightness value (brightness) of the area including the marker 501 in the input image, the position where the marker 501 is displayed. It can be implemented to estimate the stage surface height. The standard deviation is a value related to the sharpness of the image (marker), and may be related to the difference (absolute value) between the height of the stage surface and the focus position, and the brightness value may be related to the distance between the stage surface and the
이를 위해, 스테이지 표면 높이 추정 모델(520)은 상술한 마커(501)를 다양한 포커스 위치(z축 위치)에서 촬영한 학습용 이미지들, 상기 학습용 이미지들 각각의 표준편차, 밝기, 및 포커스 위치 정보(z축 위치)를 이용하여 학습될 수 있다. 스테이지 표면 높이 추정 모델(520)의 학습은 웨이퍼 비전 검사 장치(100) 또는 별도의 학습 장치에 의해 수행될 수 있다. 이하에서는 상기 학습이 웨이퍼 비전 검사 장치(100)에 의해 수행되는 경우를 가정하여 설명한다.To this end, the stage surface height estimation model 520 is used for training images of the above-described marker 501 taken at various focus positions (z-axis position), standard deviation of each of the training images, brightness, and focus position information ( z-axis position) can be used to learn. Learning of the stage surface height estimation model 520 may be performed by the wafer
일례로, 제어부(180)는 상기 학습용 이미지 및 상기 학습용 이미지의 포커스 위치 정보가 획득되면, 학습용 이미지에 공지된 이미지 분석 기법을 적용하여 표준편차 및 밝기값을 추출할 수 있다. 제어부(180)는 추출된 표준편차 및 밝기값을 상기 포커스 위치 정보와 함께 스테이지 표면 높이 추정 모델(520)로 입력하거나, 추출된 표준편차 및 밝기값을 상기 학습용 이미지 및 상기 포커스 위치 정보와 함께 스테이지 표면 높이 추정 모델(520)로 입력할 수 있다. 스테이지 표면 높이 추정 모델(520)은 입력된 데이터로부터 스테이지 표면의 높이 추정값을 출력할 수 있다. 제어부(180)는 출력된 높이 추정값을 상기 학습용 이미지에 대응하는 정답 높이 값(ground truth)과 비교하고, 비교 결과에 기초하여 스테이지 표면 높이 추정 모델(520)에 대한 학습(인공신경망 내 노드들의 가중치 업데이트)을 수행할 수 있다.For example, when the learning image and focus position information of the learning image are acquired, the
다른 예로, 스테이지 표면 높이 추정 모델(520)은 상기 학습용 이미지로부터 표준편차 및 밝기값을 출력하는 제1 인공신경망, 및 상기 제1 인공신경망으로부터 출력된 표준편차 및 밝기값과, 상기 학습용 이미지 및 포커스 위치 정보를 이용하여 스테이지 표면의 높이 추정값을 출력하는 제2 인공신경망을 포함하도록 구성될 수도 있다. 이 경우, 제어부(180)는 상기 제1 인공신경망으로부터 출력된 표준편차 및 밝기값을 상기 학습용 이미지의 정답 표준편차 및 밝기값과 비교하여 제1 인공신경망에 대한 학습을 수행하고, 제2 인공신경망으로부터 출력된 높이 추정값을 정답 높이 값과 비교하여 제2 인공신경망에 대한 학습을 수행할 수 있다. 다만, 스테이지 표면 높이 추정 모델(520)의 학습 방법이 상술한 예들에 한정되는 것은 아니며, 당업자에 의해 용이하게 도출될 수 있는 범위에서 변형될 수 있다.As another example, the stage surface height estimation model 520 includes a first artificial neural network outputting standard deviation and brightness values from the learning image, and the standard deviation and brightness values output from the first artificial neural network, the learning image and focus It may also be configured to include a second artificial neural network that outputs a height estimation value of the stage surface using location information. In this case, the
상기 높이 추정값은 소정의 기준면으로부터 스테이지(101)의 표면 사이의 z축 거리(높이)에 해당하거나, 포커스 위치를 스테이지(101)의 표면 높이에 대응하도록 조정하기 위한 포커스 위치 조정부(120)의 조정 값을 나타낼 수 있다.The estimated height value corresponds to the z-axis distance (height) between the surface of the
제어부(180)는 상기 복수의 포인트 각각에 대해 획득된 이미지들 및 이미지들 각각의 포커스 위치(z축 위치)를 상술한 바에 따라 학습된 스테이지 표면 높이 추정 모델(520)로 순차적으로 입력하고, 스테이지 표면 높이 추정 모델(520)은 복수의 포인트(예컨대 (Xn, Yn) 좌표(n은 자연수)) 각각에 대한 스테이지 표면의 높이 추정값을 출력할 수 있다. The
제어부(180)는 상기 복수의 포인트 각각에 대한 높이 추정값에 기초하여, 스테이지(101)의 높이 분포 정보를 획득할 수 있다. 예컨대, 제어부(180)는 상기 복수의 포인트 각각에 대한 높이 추정값을 이용하여, 상기 복수의 포인트 각각에 대한 스테이지(101)의 표면 높이 값을 획득할 수 있다. 실시 예에 따라, 제어부(180)는 상기 복수의 포인트들 이외의 위치들에 대해, 인접한 포인트들의 표면 높이 값들을 이용한 다양한 보간 기법들 중 어느 하나를 이용하여 표면 높이 값을 획득할 수 있다. 제어부(180)는 상기 표면 높이 값들을 포함하는 높이 분포 정보를 획득하고, 획득된 높이 분포 정보를 메모리(170)에 저장할 수 있다.The
상술한 S300 단계, 또는 S400 단계 내지 S420 단계는, 장치(100)에 기 설정된 소정 주기(시간 주기 또는 검사 횟수 주기)마다 수행되거나, 장치(100)의 전원이 on될 때마다 수행되거나, 스테이지(101)가 교체 장착될 때마다 수행되거나, 소정의 조건(진동 발생 감지, 관리자 입력 등)에 따라 수행되는 등 다양한 기준에 따라 수행될 수 있다. The above-described steps S300 or S400 to S420 are performed at predetermined intervals (time period or inspection number period) set in the
다시 도 3을 설명한다.Figure 3 will be described again.
웨이퍼 비전 검사 장치(100)는 스테이지(101)에 웨이퍼(10)를 로드하고(S310), 로드된 웨이퍼(10)에 대한 높이 추정값을 획득할 수 있다(S320).The wafer
S300 단계에서는 웨이퍼(10)가 로드되지 않은 스테이지(101)의 높이 분포 정보를 획득한 상태이므로, 높이 분포 정보에만 기초하여 카메라(110)의 포커스 위치가 조정될 경우, 웨이퍼(10)의 높이(두께)로 인해 웨이퍼 표면에 대한 선명한 이미지가 획득되지 못할 수 있다. 이에 따라, 웨이퍼 비전 검사 장치(100)는 로드된 웨이퍼의 높이를 반영하여 카메라(110)의 포커스 위치를 조정할 필요가 있다.Since height distribution information of the
한편, 상술한 바와 같이, 웨이퍼들 사이에는 높이(두께)의 편차가 존재할 수 있는 바, 웨이퍼들마다 동일한 높이 값을 반영하는 것은 이미지의 선명도 편차를 발생시킬 수 있다. 이에 따라, 웨이퍼 비전 검사 장치(100)는 스테이지(101)에 로드된 웨이퍼(10)에 대한 높이 추정값을 획득하고, 획득된 높이 추정값을 기초로 카메라(110)의 포커스 위치를 조정할 수 있다.On the other hand, as described above, there may be a height (thickness) variation between wafers, and reflecting the same height value for each wafer may cause a sharpness variation of an image. Accordingly, the wafer
S320 단계와 관련한 구체적 실시 예로서 도 6 및 도 7을 참조하면, 웨이퍼 비전 검사 장치(100)는 스테이지(101)로 로드된 웨이퍼(700) 내의 기설정된 위치에 대한 이미지(720)를 획득할 수 있다(S600).Referring to FIGS. 6 and 7 as specific examples related to step S320 , the wafer
예컨대, 웨이퍼 비전 검사 장치(100)는 로드된 웨이퍼(700)의 높이(두께)를 측정하기 위해, 소정 위치로 카메라(110)를 이동시키고, 이동된 위치를 중심으로 하는 이미지(720)를 획득할 수 있다.For example, the wafer
상기 소정 위치는 카메라(110)의 초기 위치와 가장 근접한 위치로 설정되어, 카메라(110)의 위치를 이동시키는 데 소요되는 시간을 최소화할 수 있다. 보다 구체적으로, 상기 소정 위치는 웨이퍼(700)에 형성된 다이들(710) 중, 상기 초기 위치와 상기 가장 근접한 위치에 존재하는 다이의 중심 위치에 해당하거나, 다이(710)에 형성된 회로 등의 패턴들 중 주요 검사 대상에 해당하는 패턴의 위치(예컨대 범프 볼(bump ball)의 위치 등)에 해당할 수도 있다. 제어부(180)는 상기 이동된 위치에 존재하는 다이를 포함하는 이미지(720)를 획득하도록 카메라(110)를 제어할 수 있다.The predetermined position is set to a position closest to the initial position of the
한편, S600 단계에서 카메라(110)의 포커스 위치는 도 4의 S400 단계에서 상술한 기준 포커스 위치에 해당할 수 있으나, 실시 예에 따라서는 도 3의 S300 단계에 따른 높이 분포 정보에 기초하여 조정된 포커스 위치에 해당할 수도 있다.Meanwhile, the focus position of the
웨이퍼 비전 검사 장치(100)는 획득된 이미지(720)를 웨이퍼 높이 추정 모델로 입력하여, 상기 로드된 웨이퍼(700)에 대한 높이 추정값을 획득할 수 있다(S610).The wafer
S410 단계 내지 S420 단계에서 상술한 바와 유사하게, 웨이퍼 높이 추정 모델(730)은 입력된 이미지(720)로부터 웨이퍼의 높이(두께)를 추정하여 제공하기 위한 딥러닝 기반의 모델에 해당할 수 있다. 예컨대 웨이퍼 높이 추정 모델(730)은 CNN을 포함할 수 있으나 이에 한정되는 것은 아니며 다양한 유형의 인공신경망을 하나 이상 포함할 수 있다.Similar to the above description in steps S410 to S420, the wafer height estimation model 730 may correspond to a deep learning-based model for estimating and providing the height (thickness) of the wafer from the input image 720. For example, the wafer height estimation model 730 may include a CNN, but is not limited thereto, and may include one or more artificial neural networks of various types.
웨이퍼 높이 추정 모델(730)의 전반적인 구현 방식 및 학습 방식은 S410 단계 내지 S420 단계에서 상술한 스테이지 표면 높이 추정 모델(520)과 유사할 수 있다.An overall implementation method and learning method of the wafer height estimation model 730 may be similar to the stage surface height estimation model 520 described above in steps S410 to S420.
구체적으로, 웨이퍼 높이 추정 모델(730)은, 입력된 이미지에 대한 표준편차 및 밝기값을 기초로, 웨이퍼(700)의 높이(두께)를 추정하도록 구현될 수 있다. 상술한 바와 같이, 표준편차는 이미지의 선명도와 관련되는 값으로서, 웨이퍼(700)의 표면 높이와 포커스 위치 간의 차이(절대값)과 관련될 수 있으며, 상기 밝기값은 웨이퍼 표면과 카메라(110) 간의 거리와 관련될 수 있다. 따라서, 이미지로부터 웨이퍼(700)의 높이를 추정하기 위해서는 표준편차뿐만 아니라 밝기값까지 고려되어야 한다. Specifically, the wafer height estimation model 730 may be implemented to estimate the height (thickness) of the wafer 700 based on the standard deviation and brightness values of the input image. As described above, the standard deviation is a value related to the sharpness of the image, and may be related to the difference (absolute value) between the surface height of the wafer 700 and the focus position, and the brightness value is the difference between the wafer surface and the
이를 위해, 웨이퍼 높이 추정 모델(730)은 다이(또는 소정의 오브젝트)를 다양한 포커스 위치(z축 위치)에서 촬영한 학습용 이미지들, 상기 학습용 이미지들 각각의 표준편차, 밝기, 및 포커스 위치 정보를 이용하여 학습될 수 있다. 웨이퍼 높이 추정 모델(730)의 학습은 웨이퍼 비전 검사 장치(100) 또는 별도의 학습 장치에 의해 수행될 수 있다. 이하에서는 상기 학습이 웨이퍼 비전 검사 장치(100)에 의해 수행되는 경우를 가정하여 설명한다.To this end, the wafer height estimation model 730 calculates learning images of a die (or a predetermined object) at various focus positions (z-axis position), standard deviation, brightness, and focus position information of each of the training images. can be learned using Learning of the wafer height estimation model 730 may be performed by the wafer
일례로, 제어부(180)는 상기 학습용 이미지 및 상기 학습용 이미지의 포커스 위치 정보가 획득되면, 학습용 이미지에 공지된 이미지 분석 기법을 적용하여 표준편차 및 밝기값을 추출할 수 있다. 제어부(180)는 추출된 표준편차 및 밝기값을 상기 포커스 위치 정보와 함께 웨이퍼 높이 추정 모델(730)로 입력하거나, 추출된 표준편차 및 밝기값을 상기 학습용 이미지 및 상기 포커스 위치 정보와 함께 웨이퍼 높이 추정 모델(730)로 입력할 수 있다. 웨이퍼 높이 추정 모델(730)은 입력된 데이터로부터 웨이퍼(700)의 높이 추정값을 출력할 수 있다. 제어부(180)는 출력된 높이 추정값을 상기 학습용 이미지에 대응하는 정답 높이 값(ground truth)과 비교하고, 비교 결과에 기초하여 웨이퍼 높이 추정 모델(730)에 대한 학습을 수행할 수 있다.For example, when the learning image and focus position information of the learning image are acquired, the
다른 예로, 웨이퍼 높이 추정 모델(730)은 상기 학습용 이미지로부터 표준편차 및 밝기값을 출력하는 제1 인공신경망, 및 상기 제1 인공신경망으로부터 출력된 표준편차 및 밝기값과, 상기 학습용 이미지 및 포커스 위치 정보를 이용하여 웨이퍼(700)의 높이 추정값을 출력하는 제2 인공신경망을 포함하도록 구성될 수도 있다. 이 경우, 제어부(180)는 상기 제1 인공신경망으로부터 출력된 표준편차 및 밝기값을 상기 학습용 이미지의 정답 표준편차 및 밝기값과 비교하여 제1 인공신경망에 대한 학습을 수행하고, 제2 인공신경망으로부터 출력된 높이 추정값을 정답 높이 값과 비교하여 제2 인공신경망에 대한 학습을 수행할 수 있다. 다만, 웨이퍼 높이 추정 모델(730)의 학습 방법이 상술한 예들에 한정되는 것은 아니며, 당업자에 의해 용이하게 도출될 수 있는 범위에서 변형될 수 있다.As another example, the wafer height estimation model 730 includes a first artificial neural network that outputs standard deviation and brightness values from the training image, and the standard deviation and brightness values output from the first artificial neural network, the training image and the focus position. It may also be configured to include a second artificial neural network that outputs a height estimation value of the wafer 700 using the information. In this case, the
상기 높이 추정값은 웨이퍼(700)의 높이(두께)를 나타내거나, 웨이퍼(700)의 표면에 대응하는 위치에 포커스를 설정하기 위한 포커스 위치 조정부(120)의 조정 값에 해당할 수 있다.The estimated height value may indicate the height (thickness) of the wafer 700 or may correspond to an adjustment value of the focus
실시 예에 따라, 웨이퍼 비전 검사 장치(100)는 웨이퍼(700)의 복수의 위치들 각각에 대해 S600 단계 내지 S610 단계를 수행하여 복수의 높이 추정값들을 획득하고, 획득된 높이 추정값들을 기초로 웨이퍼(700)의 높이 분포 정보를 획득할 수도 있다. 이 경우, 웨이퍼(700) 자체에 영역별로 높이 편차가 존재할 경우, 이러한 높이 편차가 보다 정확히 반영될 수 있다.According to an embodiment, the wafer
다시 도 3을 참조하면, 웨이퍼 비전 검사 장치(100)는 획득된 높이 분포 정보 및 높이 추정값에 기초하여, 카메라(110)의 촬상 위치별로 카메라(110)의 포커스 위치를 조정하면서 검사 이미지를 획득할 수 있다(S330). 웨이퍼 비전 검사 장치(100)는 획득된 검사 이미지에 기초하여 웨이퍼(10)에 대한 검사를 수행할 수 있다(S340).Referring back to FIG. 3 , the wafer
도 8을 함께 참조하면, 제어부(180)는 카메라 위치 이동부(130)를 제어하여 카메라(110)를 이동(예컨대 x축 및 y축 방향으로 이동)하면서 웨이퍼(800)에 대한 검사 이미지를 획득할 수 있다. Referring to FIG. 8 together, the
이 때, 제어부(180)는 S300 단계 및 S320 단계에 따라 획득된 스테이지의 높이 분포 정보와 웨이퍼(800)의 높이 추정값을 이용하여, 카메라(110)의 촬상 위치별로 포커스 위치를 조정할 수 있다. 제어부(180)는 메모리(170)에 저장된 높이 분포 정보와 높이 추정값에 기초하여, 카메라(110)의 촬상 위치에 대한 포커스 조정 정보를 획득하고, 획득된 포커스 조정 정보에 따라 포커스 위치 조정부(120)를 제어할 수 있다. 예컨대, 상기 높이 분포 정보가 스테이지 표면의 복수의 포인트 각각에 대한 기준면으로부터의 높이 값을 포함하고, 상기 높이 추정값이 웨이퍼(800)의 높이(두께)를 나타내는 경우, 제어부(180)는 상기 높이 분포 정보에 포함된 높이 값 각각에 상기 높이 추정값을 더한 값에 대응하도록 포커스 위치를 조정하는 포커스 조정 정보를 획득할 수 있다. 실시 예에 따라, 상기 높이 추정값은 소정 포인트에서 기준면으로부터 스테이지 상에 안착된 웨이퍼(800)의 표면까지의 높이를 나타낼 수도 있다. 이 경우, 제어부(180)는 상기 높이 분포 정보 중 상기 소정 포인트의 높이 값과 상기 높이 추정값 사이의 차이를 통해 웨이퍼(800) 자체의 높이(두께)를 산출하고, 산출된 높이를 상기 높이 분포 정보에 포함된 높이 값 각각에 더한 값을 기초로 포커스 조정 정보를 획득할 수도 있다. At this time, the
상기 포커스 조정 정보는 포커스 위치 조정부(120)의 구성에 따라 다를 수 있으며, 예컨대 상기 포커스 조정 정보는 카메라(110) 또는 스테이지(101)를 웨이퍼(800)의 표면에 대해 수직 방향(z축)으로 이동시키기 위한 정보를 포함하거나, 카메라(110)와 렌즈(미도시) 사이의 거리를 조절하기 위한 정보를 포함할 수 있다.The focus adjustment information may be different according to the configuration of the focus
카메라(110)의 촬상 위치별로 포커스 위치가 조정됨에 따라, 카메라(110)에 의해 획득되는 부분 이미지(820)의 선명도가 소정 기준 이상을 유지할 수 있다. 제어부(180)는 부분 이미지(820)를 결합하여 웨이퍼(800)의 검사 이미지를 획득하고, 획득된 검사 이미지를 이용하여 웨이퍼(800)의 양품 또는 불량을 판정하는 검사 동작을 수행할 수 있다.As the focus position of the
본 개시의 실시 예에 따르면, 웨이퍼 비전 검사 장치는 웨이퍼가 놓이는 스테이지의 높이 분포 정보와, 웨이퍼의 높이 추정값을 기초로 카메라의 포커스 위치를 자동 조정(오토포커싱)함으로써, 웨이퍼에 대한 보다 선명한 고품질의 검사 이미지를 획득할 수 있다. 웨이퍼 비전 검사 장치는 획득된 고품질의 검사 이미지를 이용하여 웨이퍼의 미세 결함이나 이물 등을 검출함으로써 검사 정확도를 향상시킬 수 있다.According to an embodiment of the present disclosure, the wafer vision inspection apparatus automatically adjusts (autofocusing) a focus position of a camera based on height distribution information of a stage on which a wafer is placed and an estimate of the height of the wafer, thereby providing a clearer, higher quality image of the wafer. An inspection image can be acquired. The wafer vision inspection apparatus can improve inspection accuracy by detecting micro-defects or foreign substances on the wafer using the acquired high-quality inspection image.
또한, 웨이퍼 비전 검사 장치는 인공지능(딥러닝) 기반의 스테이지 표면 높이 추정 모델과 웨이퍼 높이 추정 모델을 이용하여, 카메라로부터 획득된 이미지만으로 상기 높이 분포 정보와 높이 추정값을 획득할 수 있으므로, 종래에 비해 포커스 탐색 및 조정 과정에서의 리소스 절감 및 속도 향상을 가능하게 한다. In addition, since the wafer vision inspection apparatus can acquire the height distribution information and the height estimation value only with an image obtained from a camera using an artificial intelligence (deep learning)-based stage surface height estimation model and a wafer height estimation model, Compared to this, it enables resource saving and speed improvement in the focus search and adjustment process.
상기한 실시예들의 설명은 본 개시의 더욱 철저한 이해를 위하여 도면을 참조로 예를 든 것들에 불과하므로, 본 개시의 기술적 사상을 한정하는 의미로 해석되어서는 안 될 것이다. Since the description of the above embodiments is only examples with reference to the drawings for a more thorough understanding of the present disclosure, it should not be construed as limiting the technical spirit of the present disclosure.
또한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 개시의 기본적 원리를 벗어나지 않는 범위 내에서 다양한 변화와 변경이 가능함은 명백하다 할 것이다.In addition, it will be clear to those skilled in the art that various changes and modifications are possible within a range that does not deviate from the basic principles of the present disclosure.
Claims (14)
상기 웨이퍼 비전 검사 장치의 스테이지에 대한 높이 분포 정보를 획득하는 단계;
상기 스테이지에 웨이퍼가 로드되면, 로드된 웨이퍼에 대한 높이 추정값을 획득하는 단계;
획득된 높이 분포 정보 및 높이 추정값에 기초하여, 상기 웨이퍼 비전 검사 장치의 카메라의 촬상 위치별로 상기 카메라의 포커스 위치를 조정하면서 검사 이미지를 획득하는 단계; 및
획득된 검사 이미지에 기초하여 상기 웨이퍼의 비전 검사를 수행하는 단계를 포함하고,
상기 로드된 웨이퍼에 대한 높이 추정값을 획득하는 단계는,
상기 웨이퍼 내의 기 설정된 위치를 중심으로 하는 이미지를 획득하는 단계; 및
획득된 이미지를 딥러닝 기반의 웨이퍼 높이 추정 모델로 입력하고, 상기 웨이퍼 높이 추정 모델로부터 출력되는 상기 높이 추정값을 획득하는 단계를 포함하되,
상기 웨이퍼 높이 추정 모델은,
입력된 이미지의 표준편차(contrast) 및 밝기 값(brightness)을 기초로, 상기 웨이퍼의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함하고,
학습용 이미지, 상기 학습용 이미지의 표준편차 및 밝기 값, 및 상기 학습용 이미지의 포커스 위치 정보를 기초로 상기 학습용 이미지에 해당하는 웨이퍼의 높이 추정값을 출력하고,
출력된 높이 추정값을 상기 학습용 이미지의 정답 높이값과 비교하고, 비교 결과에 기초하여 상기 적어도 하나의 인공신경망 내 노드의 가중치를 업데이트함으로써 학습되는,
방법.
In the inspection method of the wafer vision inspection device,
obtaining height distribution information of stages of the wafer vision inspection apparatus;
obtaining a height estimation value for the loaded wafer when a wafer is loaded on the stage;
obtaining an inspection image while adjusting a focus position of the camera for each imaging position of the camera of the wafer vision inspection apparatus, based on the acquired height distribution information and the height estimation value; and
Performing a vision inspection of the wafer based on the acquired inspection image;
Obtaining a height estimation value for the loaded wafer,
obtaining an image centered on a predetermined position in the wafer; and
Inputting the obtained image to a deep learning-based wafer height estimation model and obtaining the height estimation value output from the wafer height estimation model,
The wafer height estimation model,
At least one artificial neural network trained to output a height estimation value of the wafer based on the standard deviation (contrast) and brightness value (brightness) of the input image,
outputting an estimated height of a wafer corresponding to the learning image based on the learning image, standard deviation and brightness values of the learning image, and focus position information of the learning image;
Learning by comparing the output height estimation value with the correct height value of the learning image and updating the weight of the node in the at least one artificial neural network based on the comparison result,
method.
상기 높이 분포 정보를 획득하는 단계는,
상기 스테이지 내의 복수의 포인트 각각에 대한 이미지를 획득하는 단계;
획득된 복수의 이미지 각각을 딥러닝 기반의 스테이지 표면 높이 추정 모델로 입력하는 단계; 및
상기 스테이지 표면 높이 추정 모델로부터 출력되는 상기 복수의 이미지 각각의 높이 추정값을 이용하여 상기 높이 분포 정보를 획득하는 단계를 포함하는,
방법.
According to claim 1,
Obtaining the height distribution information,
obtaining an image for each of a plurality of points within the stage;
inputting each of the obtained plurality of images into a stage surface height estimation model based on deep learning; and
Obtaining the height distribution information using a height estimation value of each of the plurality of images output from the stage surface height estimation model,
method.
상기 스테이지 표면 높이 추정 모델은,
입력된 이미지 중 마커를 포함하는 일부 영역의 표준편차 및 밝기 값을 기초로, 상기 마커에 대응하는 스테이지 표면의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함하는,
방법.
According to claim 4,
The stage surface height estimation model,
At least one artificial neural network trained to output a height estimation value of the stage surface corresponding to the marker based on the standard deviation and brightness value of a partial region including the marker in the input image,
method.
상기 복수의 이미지 각각의 대한 높이 추정값을 이용하여 상기 높이 분포 정보를 획득하는 단계는,
상기 높이 추정값을 이용하여, 상기 복수의 포인트 각각에 대한 표면 높이 값을 획득하는 단계;
상기 복수의 포인트 이외의 위치들 각각에 대해, 인접한 포인트들의 상기 표면 높이 값들을 이용한 보간을 통해 표면 높이 값을 획득하는 단계; 및
획득된 표면 높이 값들을 포함하는 상기 높이 분포 정보를 획득하는 단계를 포함하는,
방법.
According to claim 4,
Obtaining the height distribution information using a height estimation value for each of the plurality of images,
obtaining a surface height value for each of the plurality of points by using the estimated height value;
obtaining a surface height value for each of positions other than the plurality of points through interpolation using the surface height values of adjacent points; and
Obtaining the height distribution information including the obtained surface height values,
method.
상기 검사 이미지를 획득하는 단계는,
상기 높이 분포 정보 및 높이 추정값에 기초하여, 상기 카메라의 촬상 위치 각각에 대한 포커스 조정 정보를 획득하는 단계;
획득된 포커스 조정 정보에 기초하여 상기 카메라의 촬상 위치별로 포커스 위치를 조정하는 단계; 및
상기 카메라의 촬상 위치 각각에 대한 부분 이미지를 획득하고, 획득된 부분 이미지들에 기초하여 상기 웨이퍼의 검사 이미지를 획득하는 단계를 포함하는,
방법.
According to claim 1,
Obtaining the inspection image,
obtaining focus adjustment information for each imaging position of the camera based on the height distribution information and the height estimation value;
adjusting a focus position for each imaging position of the camera based on the acquired focus adjustment information; and
Acquiring partial images for each imaging position of the camera, and obtaining an inspection image of the wafer based on the obtained partial images.
method.
검사할 웨이퍼가 로드되는 스테이지;
상기 스테이지의 일 면을 향하도록 배치되어, 상기 스테이지 또는 상기 웨이퍼의 일부 영역을 포함하는 이미지를 획득하는 카메라;
상기 카메라의 포커스 위치를 조정하는 포커스 위치 조정부;
상기 카메라를 상기 스테이지의 표면과 나란한 방향으로 상대적 이동시키는 카메라 위치 이동부;
적어도 하나의 프로세서를 포함하는 제어부; 및
메모리를 포함하고,
상기 제어부는,
상기 웨이퍼의 로드 전, 상기 카메라를 이용하여 상기 스테이지 내의 복수의 포인트 각각에 대한 이미지를 획득하고,
획득된 복수의 이미지 각각을 딥러닝 기반의 스테이지 표면 높이 추정 모델로 입력하고,
상기 스테이지 표면 높이 추정 모델로부터 출력되는 상기 복수의 이미지 각각의 높이 추정값을 이용하여, 상기 스테이지의 표면에 대한 높이 분포 정보를 획득하고,
상기 스테이지에 로드된 웨이퍼 내의 기 설정된 위치를 중심으로 하는 이미지를 획득하고,
획득된 이미지를 딥러닝 기반의 웨이퍼 높이 추정 모델로 입력하여, 상기 웨이퍼 높이 추정 모델로부터 출력되는 상기 높이 추정값을 획득하는 단계를 포함하되,
상기 웨이퍼 높이 추정 모델은,
입력된 이미지의 표준편차(contrast) 및 밝기 값(brightness)을 기초로, 상기 웨이퍼의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함하고,
학습용 이미지, 상기 학습용 이미지의 표준편차 및 밝기 값, 및 상기 학습용 이미지의 포커스 위치 정보를 기초로 상기 학습용 이미지에 해당하는 웨이퍼의 높이 추정값을 출력하고,
출력된 높이 추정값을 상기 학습용 이미지의 정답 높이값과 비교하고, 비교 결과에 기초하여 상기 적어도 하나의 인공신경망 내 노드의 가중치를 업데이트함으로써 학습되는,
검사 장치.
In the wafer vision inspection device,
a stage on which a wafer to be inspected is loaded;
a camera disposed facing one surface of the stage to acquire an image including a partial area of the stage or the wafer;
a focus position adjusting unit adjusting a focus position of the camera;
a camera position moving unit that relatively moves the camera in a direction parallel to the surface of the stage;
a controller including at least one processor; and
contains memory;
The control unit,
Before loading the wafer, acquiring an image for each of a plurality of points on the stage using the camera;
Each of the obtained plurality of images is input to a deep learning-based stage surface height estimation model,
Obtaining height distribution information on the surface of the stage using a height estimation value of each of the plurality of images output from the stage surface height estimation model;
Acquiring an image centered on a predetermined position in a wafer loaded on the stage;
Inputting the obtained image to a deep learning-based wafer height estimation model to obtain the height estimation value output from the wafer height estimation model,
The wafer height estimation model,
At least one artificial neural network trained to output a height estimation value of the wafer based on the standard deviation (contrast) and brightness value (brightness) of the input image,
outputting an estimated height of a wafer corresponding to the learning image based on the learning image, standard deviation and brightness values of the learning image, and focus position information of the learning image;
Learning by comparing the output height estimation value with the correct height value of the learning image and updating the weight of the node in the at least one artificial neural network based on the comparison result,
inspection device.
상기 스테이지 표면 높이 추정 모델은,
입력된 이미지의 표준편차 및 밝기 값을 기초로, 상기 입력된 이미지의 높이 추정값을 출력하도록 학습된 적어도 하나의 인공신경망을 포함하는,
검사 장치.
According to claim 8,
The stage surface height estimation model,
Including at least one artificial neural network trained to output a height estimation value of the input image based on the standard deviation and brightness value of the input image,
inspection device.
상기 복수의 포인트 각각에 대해 획득된 이미지에는, 대응하는 포인트를 중심으로 배치된 마커가 포함되고,
상기 마커는 상기 스테이지의 표면에 형성되거나, 상기 마커가 형성된 플레이트가 상기 스테이지에 로드됨으로써 상기 이미지에 포함되는,
검사 장치.
According to claim 9,
The image obtained for each of the plurality of points includes a marker disposed around the corresponding point,
The marker is formed on the surface of the stage, or included in the image by loading the plate on which the marker is formed on the stage.
inspection device.
상기 제어부는,
상기 카메라 위치 이동부를 제어하여 상기 카메라의 위치를 상기 복수의 포인트 각각에 따라 순차적으로 이동시키면서 상기 이미지를 획득하도록 상기 카메라를 제어하는,
검사 장치.
According to claim 8,
The control unit,
Controlling the camera to acquire the image while sequentially moving the position of the camera according to each of the plurality of points by controlling the camera position movement unit,
inspection device.
상기 제어부는,
상기 높이 추정값을 이용하여 상기 복수의 포인트 각각에 대한 표면 높이 값을 획득하고,
상기 복수의 포인트 이외의 위치들 각각에 대해, 인접한 포인트들의 표면 높이 값들을 이용한 보간을 통해 표면 높이 값을 획득하고,
획득된 표면 높이 값들을 포함하는 상기 높이 분포 정보를 획득하는,
검사 장치.
According to claim 8,
The control unit,
Obtaining a surface height value for each of the plurality of points using the height estimation value;
Obtaining a surface height value through interpolation using surface height values of adjacent points for each of the positions other than the plurality of points;
Obtaining the height distribution information including the obtained surface height values,
inspection device.
상기 제어부는,
상기 스테이지에 로드된 웨이퍼 내의 기 설정된 위치를 중심으로 하는 이미지를 획득하고,
획득된 이미지를 딥러닝 기반의 웨이퍼 높이 추정 모델로 입력하여, 상기 웨이퍼 높이 추정 모델로부터 출력되는 웨이퍼 높이 추정값을 획득하는,
검사 장치.
According to claim 8,
The control unit,
Acquiring an image centered on a predetermined position in a wafer loaded on the stage;
Inputting the acquired image to a deep learning-based wafer height estimation model to obtain a wafer height estimation value output from the wafer height estimation model,
inspection device.
상기 제어부는,
상기 높이 분포 정보 및 웨이퍼 높이 추정값에 기초하여, 상기 카메라의 촬상 위치 각각에 대한 포커스 조정 정보를 획득하고,
획득된 포커스 조정 정보에 기초하여 상기 카메라의 촬상 위치별로 포커스 위치를 조정하도록 상기 포커스 위치 조정부를 제어하고,
상기 카메라 위치 이동부의 제어에 따라 상기 스테이지에 대해 상대적으로 이동하는 상기 카메라의 촬상 위치 각각에 대한 부분 이미지를 획득하고,
획득된 부분 이미지들에 기초하여 상기 웨이퍼의 검사 이미지를 획득하는,
검사 장치.
According to claim 13,
The control unit,
Obtaining focus adjustment information for each imaging position of the camera based on the height distribution information and the wafer height estimation value;
Controlling the focus position adjusting unit to adjust the focus position for each imaging position of the camera based on the acquired focus adjustment information;
Obtaining partial images for each imaging position of the camera moving relative to the stage under the control of the camera position moving unit;
Obtaining an inspection image of the wafer based on the obtained partial images,
inspection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220153691A KR102575268B1 (en) | 2022-11-16 | 2022-11-16 | Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220153691A KR102575268B1 (en) | 2022-11-16 | 2022-11-16 | Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102575268B1 true KR102575268B1 (en) | 2023-09-06 |
KR102575268B9 KR102575268B9 (en) | 2024-01-11 |
Family
ID=87973917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220153691A KR102575268B1 (en) | 2022-11-16 | 2022-11-16 | Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102575268B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117393485A (en) * | 2023-11-01 | 2024-01-12 | 东莞触点智能装备有限公司 | Chip high-precision die bonder visual positioning system based on deep learning |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08193816A (en) * | 1994-11-18 | 1996-07-30 | Hitachi Ltd | Method and apparatus for automatic focusing as well as method and apparatus for detecting three-dimensional shape |
JP2011095263A (en) * | 2009-10-29 | 2011-05-12 | Mitsutoyo Corp | Autofocus video tool for accurate dimensional inspection and method therefor |
JP2018004957A (en) * | 2016-07-01 | 2018-01-11 | 株式会社ニューフレアテクノロジー | Focusing device, focusing method and pattern inspection method |
JP2019070859A (en) * | 2014-03-04 | 2019-05-09 | エーエスエムエル ネザーランズ ビー.ブイ. | Lithographic apparatus using data processing apparatus |
KR20210013648A (en) * | 2016-05-12 | 2021-02-04 | 에이에스엠엘 네델란즈 비.브이. | Method of obtaining measurements, apparatus for performing a process step and metrology apparatus |
KR20220017818A (en) * | 2020-08-05 | 2022-02-14 | 주식회사 히타치하이테크 | Image processing system |
-
2022
- 2022-11-16 KR KR1020220153691A patent/KR102575268B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08193816A (en) * | 1994-11-18 | 1996-07-30 | Hitachi Ltd | Method and apparatus for automatic focusing as well as method and apparatus for detecting three-dimensional shape |
JP2011095263A (en) * | 2009-10-29 | 2011-05-12 | Mitsutoyo Corp | Autofocus video tool for accurate dimensional inspection and method therefor |
JP2019070859A (en) * | 2014-03-04 | 2019-05-09 | エーエスエムエル ネザーランズ ビー.ブイ. | Lithographic apparatus using data processing apparatus |
KR20210013648A (en) * | 2016-05-12 | 2021-02-04 | 에이에스엠엘 네델란즈 비.브이. | Method of obtaining measurements, apparatus for performing a process step and metrology apparatus |
JP2018004957A (en) * | 2016-07-01 | 2018-01-11 | 株式会社ニューフレアテクノロジー | Focusing device, focusing method and pattern inspection method |
KR20220017818A (en) * | 2020-08-05 | 2022-02-14 | 주식회사 히타치하이테크 | Image processing system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117393485A (en) * | 2023-11-01 | 2024-01-12 | 东莞触点智能装备有限公司 | Chip high-precision die bonder visual positioning system based on deep learning |
CN117393485B (en) * | 2023-11-01 | 2024-05-03 | 东莞触点智能装备有限公司 | Chip high-precision die bonder visual positioning system based on deep learning |
Also Published As
Publication number | Publication date |
---|---|
KR102575268B9 (en) | 2024-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101674876B1 (en) | Defect detecting method | |
KR101513107B1 (en) | Adjusting apparatus laser beam machining apparatus adjusting method and adjusting program | |
KR101849962B1 (en) | Overlay measurement method, device and display device | |
RU2577533C1 (en) | Image processing device, projector and projector control method | |
KR20120083854A (en) | Adjustment apparatus, laser machining apparatus, and adjustment method | |
US10282635B2 (en) | Pattern inspection apparatus | |
KR102575268B1 (en) | Wafer vision inspection apparatus and method with precise autofocus function based on artificial intelligence | |
JP2019168520A (en) | Information processing device, information processing method, program, and image measuring device | |
CN108603751B (en) | Shape measuring device and method for producing target object to be coated | |
JP2008003063A (en) | Shading correction method, defect detection method, and defect detector and control method program thereof | |
JP2005345290A (en) | Streak-like flaw detecting method and streak-like flaw detector | |
US20070053583A1 (en) | Image correcting apparatus, pattern inspection apparatus, and image correcting method, and reticle | |
JP2009058377A (en) | Inspection apparatus | |
JP2016206654A (en) | Exposure apparatus and exposure method, and manufacturing method of article | |
US20190244844A1 (en) | Pattern inspection method and pattern inspection apparatus | |
JP2011002401A (en) | Correction coefficient calculating method in luminance measuring apparatus, and luminance measuring apparatus | |
JP2017009434A (en) | Image inspection device and image inspection method | |
US20040114198A1 (en) | Image processing system and method | |
JP7310617B2 (en) | Alignment mark detection device and alignment mark detection method | |
CN115103124A (en) | Active alignment method for camera module | |
JP2006343143A (en) | Inspection system for imaging device | |
TWI755460B (en) | Appearance inspection method | |
TW202113344A (en) | Appearance inspection device, appearance inspection device calibration method, and program | |
JP2003316441A (en) | Apparatus for precise position control and method therefor using the same | |
JP2010025803A (en) | Inspection device having positioning function, program therefor, inspection method of inspection device having positioning function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |